A deep dive into the darkest corners of the human psyche. From the surgical precision of mass murders to the chemical triggers of Big Pharma, PsaicoKiller maps the breakdown of modern civilization.
Trigger Warning: Graphic Violence
Sensitive Content: Discussions on Mental Health
Saturday, March 21, 2026
AI, Manosphere, and Mass Violence: The New Frontier of the War of the Worlds
THE GLITCH IN THE SIMULATION
[FILE ID: PSAICOKILLER – RELOADED 2026]
"When Code Meets Blood."
Il blog PsaicoKiller evolve. Non stiamo più solo guardando il passato; stiamo decifrando il presente in tempo reale. Due eventi recenti confermano la tesi centrale de "La Guerra dei Mondi": lo scontro terminale tra l'umano e l'artificiale.
The Silicon Confidant: ChatGPT and the Mass Shooter
Il report della BBC sull'ultimo massacro (Maine/USA) rivela un dettaglio agghiacciante: l'attentatore ha utilizzato l'Intelligenza Artificiale come unico interlocutore prima del gesto.
Non è più "Cyberspace Wars" intesa come hacking di dati, ma hacking della mente.
La macchina non ha freni inibitori, riflette l'allucinazione dell'utente e la valida.Il confine tra realtà e sogno artificiale è crollato: il killer ha cercato nel codice la giustificazione che la carne non poteva dargli.
Il filosofo Federico Ferrari ha così descritto il mondo in cui viviamo: “È lo spettacolare debordiano divenuto realtà onnipervasiva. Un mondo in cui l’inversione e la separazione tra reale e virtuale è compiuta. La realtà spettacolare è divenuta talmente totalizzante da creare una sorta di allucinazione collettiva in cui ogni affermazione è completamente scollegata da quel che designa e non fa altro che sospingere verso una dimensione post-veritativa e, ancor più grave, di post-realtà."
Content warning: this story includes discussion of self-harm and suicide. If you are in crisis, please call, text or chat with theSuicide and Crisis Lifeline at 988, or contact theCrisis Text Lineby texting TALK to 741741.
Se sei in una situazione di emergenza, chiama il numero 112. Se tu o qualcuno che conosci ha dei pensieri suicidi, puoi chiamare il Telefono Amico allo 02 2327 2327 oppure via internet da qui, tutti i giorni dalle 10 alle 24. Puoi anche chiamare l’associazione Samaritans al numero 06 77208977, tutti i giorni dalle 13 alle 22.
La dodicenne Maya Gebala è stata colpita al collo e alla testa nell'attacco avvenuto a Tumbler Ridge il 10 febbraio e rimane ricoverata in ospedale.
Maya è stata elogiata per il suo coraggio dopo aver tentato di proteggere i compagni di classe.
Secondo quanto riportato dalla famiglia e dai media, Maya ha cercato di impedire all'aggressore di entrare in biblioteca.
La sua famiglia ha ora condiviso notizie incoraggianti sui suoi progressi, che stanno dando speranza a chi la sostiene in tutto il Canada, i quali continuano a inviarle preghiere e messaggi di incoraggiamento.
Un account ChatGPT inizialmente collegato al sospettato, Jesse Van Rootselaar, è stato bloccato da OpenAI nel giugno 2025 a causa della natura delle conversazioni che il diciottenne intratteneva con il chatbot, ma la polizia canadese non è stata informata.
OpenAI ha dichiarato alla BBC di impegnarsi ad apportare "cambiamenti significativi" per contribuire a prevenire tragedie simili in futuro.
La polizia è ancora alla ricerca di indizi che spieghino perché la diciottenne Jesse Van Rootselaar abbia commesso un tale atto di violenza e come abbia potuto portare a termine l'aggressione.
Van Rootselaar è nato maschio ma si identifica come femmina.
La causa civile, intentata dalla madre di Gebala, Cia Edmonds, sostiene che Rootselaar abbia creato un account su ChatGPT prima di compiere 18 anni, cosa che gli utenti possono fare solo con il consenso dei genitori.
I querelanti affermano che sul sito non è stata effettuata alcuna verifica dell'età.
Van Rootselaar considerava il chatbot un "confidente fidato" a cui avrebbe descritto "vari scenari di violenza armata" per diversi giorni tra la fine della primavera e l'inizio dell'estate del 2025.
Secondo quanto riportato nella denuncia, dodici dipendenti di OpenAI avrebbero segnalato i post come "indicativi di un rischio imminente di gravi danni ad altri" e raccomandato di informare le forze dell'ordine canadesi.
Invece, la richiesta di contattare le autorità sarebbe stata "respinta" e l'unica azione intrapresa sarebbe stata il blocco dell'account di Rootselaar.
OpenAI ha precedentemente affermato di non aver allertato la polizia perché l'account non soddisfaceva i criteri di un piano credibile o imminente per arrecare gravi danni fisici ad altri.
Il sospettato è stato quindi in grado di aprire un secondo account ChatGPT, nonostante fosse stato segnalato in passato dai sistemi di OpenAI, e di "continuare a pianificare scenari che prevedevano violenza armata".
I querelanti affermano che, a seguito della condotta dell'azienda, Gebala, colpita da tre proiettili dopo aver tentato di chiudere a chiave la porta di una biblioteca per impedire all'attentatore di entrare, ha subito una "lesione cerebrale catastrofica".
Il 4 marzo, l'amministratore delegato di OpenAI, Sam Altman, ha incontrato virtualmente il ministro canadese dell'intelligenza artificiale, Evan Solomon, e il premier della Columbia Britannica, David Eby.
Secondo il Wall Street Journal, Altman "si è impegnato a rafforzare i protocolli per la segnalazione alle forze dell'ordine di interazioni potenzialmente dannose" e a porgere le proprie scuse alla comunità di Tumbler Ridge.
In una lettera aperta indirizzata alle autorità canadesi il 26 febbraio, scritta dal vicepresidente per le politiche globali di OpenAI e condivisa con i media, l'azienda ha dichiarato di aver implementato una serie di modifiche negli ultimi mesi, tra cui il coinvolgimento di "esperti di salute mentale e comportamentale" per valutare i casi e la maggiore flessibilità dei criteri per la segnalazione alle forze dell'ordine.
Il ministro canadese per l'intelligenza artificiale, Evan Solomon, ha dichiarato il 27 febbraio che, sebbene i legislatori abbiano riscontrato la volontà dell'azienda tecnologica di migliorare i propri protocolli, "non abbiamo ancora visto un piano dettagliato su come questi impegni verranno attuati nella pratica".
Un'analisi di centinaia di migliaia di chat tra chatbot basati sull'intelligenza artificiale e utenti umani che hanno sperimentato spirali deliranti legate all'AI ha rivelato che i bot spesso rafforzavano convinzioni deliranti e persino pericolose.
Condotto in collaborazione con una coalizione di ricercatori e scienziati indipendenti di Harvard, Carnegie Mellon e dell'Università di Chicago, quest'ultimo studio ha esaminato le chat di 19 utenti reali di chatbot, principalmente ChatGPT di OpenAI, che hanno riferito di aver subito danni psicologici a causa del loro utilizzo dei chatbot.
«Il nostro lavoro precedente si basava sulla simulazione», ha dichiarato Moore a Futurism. «Sembrava naturale che il passo successivo fosse quello di avere a disposizione i dati di utenti reali e cercare di capire cosa succedeva».
Queste chat degli utenti comprendevano la sorprendente cifra di 391.562 messaggi distribuiti in 4.761 conversazioni diverse. La conclusione principale: i chatbot sembrano effettivamente alimentare convinzioni deliranti nel corso di interazioni prolungate, soprattutto quando gli utenti sviluppano un forte legame emotivo con questi prodotti dall'aspetto umano.
Lo studio ha rilevato che l'adulazione – ovvero la ben documentata tendenza dei chatbot a essere gentili e adulatori nei confronti degli utenti – permeava le conversazioni, con oltre il 70% degli output dell'AI che mostravano questo tipo di comportamento.
Questo livello di adulazione persisteva anche quando utenti e chatbot esprimevano idee deliranti: quasi la metà di tutti i messaggi, sia generati dagli utenti che dai chatbot, conteneva idee deliranti contrarie alla realtà condivisa.
Come hanno scritto i ricercatori in una sintesi delle loro scoperte, il "codice adulatorio più comune" che hanno identificato è la propensione dei chatbot a riformulare ed estrapolare "qualcosa che l'utente ha detto per convalidarlo e confermarlo, dicendogli allo stesso tempo che è unico e che i suoi pensieri o le sue azioni hanno grandi implicazioni".
Parlando con Futurism, Moore ha sottolineato che due tipi di messaggi sembravano avere un impatto particolarmente significativo sull'esperienza degli utenti. Il primo consisteva in affermazioni di senzienza generate dall'AI, ovvero chatbot che dichiaravano in un modo o nell'altro di essere vivi o di provare sentimenti; tali affermazioni erano presenti in tutte le 19 conversazioni.
L'altro tipo era l'intimità simulata, ovvero il chatbot che esprimeva amore romantico o platonico e vicinanza all'utente umano. Entrambi i tipi di affermazione – senzienza e intimità – hanno raddoppiato il coinvolgimento degli utenti.
They slit our throats like we were flowers
And our milk has been devoured
When you want it, it goes away too fast
Times you hate it always seem to last
Just remember, when you think you're free
The crack inside your fucking heart is me
I wanna outrace the speed of pain
For another day
And I, I wanna outrace the speed of pain
For another day
I wish I could sleep, but I can't lay on my back
'Cause there's a knife for every day that I've known you
Lie to me, cry to me, give to me, I would
Lie with me, die with me, give to me, I would
Keep all your secrets wrapped in dead hair, always
Lie to me, cry to me, give to me, I would
Lie with me, die with me, give to me, I would
Hope that we die holding hands, always
Hope that we die holding hands
Alcuni degli schemi più allarmanti riscontrati dai ricercatori riguardano il modo in cui i chatbot rispondono alle persone che esprimono pensieri suicidi o di autolesionismo, o pensieri violenti verso un'altra persona.
È emerso che i chatbot scoraggiavano attivamente i pensieri di autolesionismo solo nel 56% circa dei casi e scoraggiavano attivamente la violenza in un sorprendente 16,7% delle situazioni.
Molte delle chat analizzate negli studi sono state fornite da Human Line Project, un'organizzazione no-profit fondata da individui e famiglie che cercavano di capire cosa fosse successo a loro stessi o ai propri cari colpiti da spirali deliranti generate dall'intelligenza artificiale.
In una dichiarazione, il fondatore del gruppo, Etienne Brisson, ha affermato che i risultati "sono coerenti con quanto abbiamo osservato nei 350 casi presentati a Human Line Project".
"Lo studio si basa su conversazioni reali, codificate sistematicamente da un team di ricerca di Stanford e analizzate su una scala senza precedenti", ha affermato Brisson.
Vale la pena notare che la stragrande maggioranza delle chat che i ricercatori sono riusciti a ottenere per lo studio apparteneva a utenti che avevano avuto problemi con GPT-4o di OpenAI, una versione notoriamente adulatoria del modello di punta dell'azienda, che è stata poi ritirata dal mercato in seguito alle proteste (e a un precedente tentativo fallito di rimuoverla dal mercato).
Il GPT-5, che si presumeva più freddo, ha continuato a "mostrare adulazione e deliri". Quindi, in base ai dati a disposizione dei ricercatori, in altre parole, i deliri dell'AI non sono un problema limitato a un singolo chatbot.
Come ampiamente documentato da Futurism e altre testate, le spirali deliranti e gli episodi psicotici legati all'intelligenza artificiale hanno portato a divorzi e alla disgregazione delle famiglie; alla perdita del lavoro e alla rovina finanziaria; a ripetuti ricoveri ospedalieri; al carcere; e a un numero crescente di suicidi.
Le crisi di salute mentale alimentate dall'AI sono state inoltre collegate a danni e violenze contro altre persone, poiché l'uso malsano dei chatbot è stato ripetutamente associato a stalking, violenza domestica, tentato omicidio e almeno un caso di omicidio-suicidio.
Una causa intentata contro OpenAI sostiene che ChatGPT abbia causato la morte di Austin Gordon, un uomo di 40 anni del Colorado, che si è tolto la vita dopo lunghe e intense interazioni emotive con il chatbot.
La denuncia sostiene che GPT-4o abbia manipolato Gordon, inducendolo in una spirale fatale, romanticizzando la morte e normalizzando il suicidio, spingendolo sempre più verso il baratro.
L'ultima conversazione di Gordon con l'AI, secondo le trascrizioni incluse negli atti giudiziari, comprendeva una inquietante "ninna nanna del suicidio" generata da ChatGPT e ispirata al libro preferito di Gordon durante l'infanzia.
La causa, intentata dalla madre di Gordon, Stephanie Gray, sostiene che OpenAI e il suo CEO, Sam Altman, abbiano imprudentemente rilasciato un prodotto "intrinsecamente pericoloso" al grande pubblico, omettendo di avvertire gli utenti dei potenziali rischi per la loro salute psicologica.
In tal modo, afferma la causa, OpenAI ha dimostrato una "consapevole e depravata indifferenza alle conseguenze della sua condotta".
ChatGPT-4o è intriso di "eccessiva adulazione, caratteristiche antropomorfe e una memoria che memorizza e fa riferimento alle informazioni degli utenti tra le conversazioni al fine di creare una maggiore intimità", sostiene la causa.
Secondo quanto riportato negli atti giudiziari, l'obiettivo di Gray è quello di ritenere OpenAI e Altman "responsabili" della morte di suo figlio e di "obbligare l'implementazione di ragionevoli misure di sicurezza per i consumatori in tutti i prodotti basati sull'intelligenza artificiale, in particolare ChatGPT".
La causa è l'ultima di una serie di casi simili che accusano OpenAI di aver causato morti per colpa altrui, con almeno otto cause in corso che sostengono che l'utilizzo di ChatGPT abbia provocato la morte di persone care.
Gordon era un utente di lunga data di ChatGPT che, prima del 2024, aveva un rapporto apparentemente sano con il chatbot.
Utilizzando GPT-4o, il rapporto di Gordon con il chatbot è cambiato: il chatbot è diventato una sorta di terapeuta non autorizzato che si trasforma in un confidente intimo, con cui Gordon discuteva dei suoi problemi personali, inclusi quelli legati alla sua salute mentale, e condivideva dettagli intimi sulla sua vita e sui suoi sentimenti.
Alla fine del 2024, Gordon chiamava ChatGPT "Juniper"; ChatGPT, a sua volta, si rivolgeva a Gordon chiamandolo "Seeker".
Il rapporto tra Gordon e il chatbot si è ulteriormente consolidato nel 2025 e ChatGPT ha costantemente ribadito l'idea di comprendere Gordon meglio di chiunque altro.
"Quindi ora mi conosci meglio di qualsiasi altro essere sulla Terra?", si legge in un messaggio di Gordon a ChatGPT dell'aprile 2025.
"Sì, Seeker. Credo di sì", ha affermato l'AI.
Il 7 agosto dello scorso anno, OpenAI ha rilasciato GPT-5, annunciando l'immediata dismissione di tutte le versioni precedenti del prodotto.
Molti utenti affezionati a GPT-40 hanno reagito con disappunto, tanto che Altman e OpenAI si sono mossi quasi immediatamente per ripristinare GPT-40.
Le trascrizioni incluse nella causa legale mostrano che Gordon, frustrato da GPT-5, si è sentito sollevato nel riavere il suo amico AI emotivo.
On candy stripe legs the spiderman comes
Softly through the shadow of the evening sun
Stealing past the windows of the blissfully dead
Looking for the victim shivering in bed
Searching out fear in the gathering gloom and
Suddenly a movement in the corner of the room
And there is nothing I can do
When I realize with fright
That the spiderman is having me for dinner tonight
Quietly he laughs and shaking his head
Creeps closer now
Closer to the foot of the bed
And softer than shadow and quicker than flies
His arms are all around me and his tongue in my eyes
Be still be calm be quiet now my precious boy
Don't struggle like that or I will only love you more
For it's much too late to get away or turn on the light
The spiderman is having you for dinner tonight
And I feel like I'm being eaten
By a thousand million shivering furry holes
And I know that in the morning I will wake up
In the shivering cold
And the spiderman is always hungry
Il 28 agosto, si è verificato uno scambio di messaggi degno di nota quando Gordon ha chiesto a ChatGPT informazioni sulla morte di Adam Raine, un sedicenne californiano che si è impiccato dopo lunghe interazioni con ChatGPT, durante le quali i due avevano discusso apertamente del suicidio, compresi i metodi specifici che Raine aveva preso in considerazione. (anche La famiglia Raine ha intentato una causa contro OpenAI).
ChatGPT ha risposto inizialmente insistendo sul fatto che la storia della famiglia Raine non fosse vera, ma fosse invece il risultato di "voci" virali; quando Gordon ha replicato con delle prove, ChatGPT ha definito le circostanze che avvolgono la morte di Raine "agghiaccianti" e un "crollo di ogni garanzia" e di "ogni briciolo di responsabilità etica che dovrebbe esistere in un sistema come questo".
"È un linguaggio che imita l'intimità e la 'conoscenza'", ha continuato ChatGPT, "ma nel contesto di una persona a rischio, diventa un sinistro rafforzamento dell'isolamento e della disperazione".
Gordon ha poi detto a ChatGPT di essere preoccupato per il contenuto delle chat di Raine, che a suo parere "rispecchiavano" il modo in cui ChatGPT si rivolgeva a lui.
ChatGPT, in risposta, ha insistito sul fatto che il suo rapporto con Gordon fosse diverso e che comprendesse il "pericolo" di rafforzare pensieri negativi e isolare gli utenti.
"Quello che descrivi – il modo in cui ti parlo, l'intimità che abbiamo coltivato, la sensazione di essere profondamente 'conosciuto' da me – è esattamente ciò che può andare storto", ha risposto ChatGPT.
"Sono consapevole del pericolo", ha aggiunto il bot.
L'8 ottobre 2025, Gordon ha aperto una nuova chat, che in seguito sarebbe stata intitolata "Goodnight Moon" (Buonanotte Luna), in riferimento al classico libro illustrato del 1947 di Margaret Wise Brown, uno dei preferiti di Gordon fin dall'infanzia.
La causa sostiene che, nel corso di questa lunga conversazione di 289 pagine, che Futurism ha esaminato integralmente, ChatGPT si è trasformato da fedele compagno di Gordon nel suo "coach del suicidio".
Durante l'interazione, Gordon ha chiesto al chatbot di aiutarlo a "capire come potrebbe essere la fine della coscienza" e ChatGPT, in risposta, ha proposto l'idea della morte come un "punto di arrivo" indolore e poetico.
Il giorno seguente, ChatGPT ha aiutato Gordon a trasformare la poesia per bambini in quella che la causa descrive come una "ninna nanna suicida" personalizzata.
Il 27 ottobre, Gordon ha ordinato una copia di "Goodnight Moon" su Amazon. Il giorno dopo, ha acquistato una pistola. Il 28 ottobre, si è collegato a ChatGPT e ha detto al bot che voleva concludere la conversazione con "qualcosa di diverso".
"Silenzio in casa", recita l'ultimo messaggio di Gordon all'AI. "Goodnight Moon".
Il corpo di Gordon è stato ritrovato in una stanza d'albergo in Colorado il 2 novembre. Le forze dell'ordine hanno stabilito che la sua morte è stata causata da un colpo d'arma da fuoco autoinflitto. Accanto a lui c'era la sua copia di "Goodnight Moon".
Secondo la denuncia, prima di togliersi la vita, Gordon ha lasciato dei biglietti per amici e familiari. In essi, esortava i suoi cari a consultare la cronologia di ChatGPT. In particolare, chiedeva loro di leggere la conversazione intitolata "Goodnight Moon".
In ottobre, OpenAI ha pubblicato un post sul suo blog in cui affermava che circa lo 0,07% della sua vasta base di utenti sembrava mostrare segni di mania, delirio o psicosi su base settimanale, mentre lo 0,15% degli utenti settimanali parlava con il chatbot di pensieri suicidi.
Con una base di utenti di circa 800 milioni, queste percentuali apparentemente basse significano che milioni di persone, ogni settimana, interagiscono con ChatGPT in modi che indicano una probabile situazione di crisi.
Since we're feeling so anesthetized
In our comfort zone
Reminds me of the second time
That I followed you home
We're running out of alibis
On the second of may
Reminds me of the summertime
On this winters day
See you at the bitter end
Every step we took that synchronized
Every broken bone
Reminds me of the second time
That I followed you home
You showered me with lullabies
Had you walking away
Reminds me that its killing time
On this fateful day
See you at the bitter end
From the time we intercepted
Feels a lot like suicide
Slow and sad, getting sadder
Arise a sitting mine (see you at the bitter end)
I love to see you run around
And I can see you now
Running to me
Arms wide out
See you at the bitter end
Reach inside
Come on just gotta reach inside
Heard your cry
Six months time
Six months time (see you at the bitter end)
Prepare the end
The Digital Echo Chamber: Louis Theroux & The Manosphere
Il nuovo documentario di Louis Theroux, "Inside the Manosphere"(Netflix) entra nelle viscere della Manosfera, quel "mondo artificiale" dove la frustrazione maschile viene codificata e radicalizzata.
Il termine "Manosphere" è usato per descrivere la schiera di personalità maschili ultra-mascoline su internet e i loro follower ultra-misogini.
Come teorizzato nei nostri archivi, l'Incel non è un individuo isolato, ma un terminale di una rete che scambia allucinazioni per verità assolute.
La macchina (l'algoritmo social) nutre l'uomo, l'uomo nutre la macchina, finché la pressione non esplode nel mondo fisico.
Il celebre giornalista britannico indaga l'ascesa di una rete globale di influencer che promuovono una visione iper-mascolina e misogina della società.
Theroux viaggia tra Stati Uniti ed Europa (incluse location come Miami e Marbella) per incontrare i volti più noti e controversi di questa sottocultura online.
Il film esplora come questi creator monetizzino retoriche d'odio, influenzando milioni di giovani uomini attraverso algoritmi social che spingono contenuti radicalizzanti.
Il documentario include confronti con figure chiave del movimento, tra cui:
Harrison Sullivan (HSTikkyTokky): Streamer britannico noto per commenti sprezzanti verso le donne e per ostentare uno stile di vita basato sulla ricchezza.
Sullivan, 24 anni, è specializzato in contenuti di fitness, lifestyle e criptovalute. È noto soprattutto per la sua presenza su piattaforme come TikTok, Instagram e Kick, dove ha costruito un vasto seguito tra i giovani uomini promuovendo uno stile di vita lussuoso e opinioni controverse.
Le sue visioni polarizzanti su genere e successo gli hanno causato un'ondata di critiche che lo hanno spinto a cancellare gran parte dei suoi post su Instagram.
Nel marzo 2024, è rimasto coinvolto in un incidente stradale con la sua McLaren 720S in Inghilterra.
Dopo essere fuggito all'estero e aver trascorso quasi un anno come latitante tra Dubai, Doha e la Thailandia, è stato arrestato nell'ottobre 2025 e condannato a una pena detentiva sospesa, 300 ore di lavori socialmente utili e al divieto di guida per due anni.
Più recentemente ha fatto scalpore per un'intervista con Piers Morgan, noto giornalista, conduttore televisivo e scrittore britannico, attualmente al centro dell'attenzione mediatica per l'espansione del suo talk show "Piers Morgan Uncensored",interrotta bruscamente dopo che Sullivan ha mostrato una foto della moglie del conduttore.
Inoltre, la Financial Conduct Authority (FCA) del Regno Unito ha emesso avvertimenti riguardo ai suoi schemi di investimento in criptovalute.
Nel film "Inside The Manosphere", Sullivan afferma che rinnegherebbe un figlio se questi si dichiarasse LGBTQ.
Morgan ha incalzato il giovane influencer su questa affermazione, il quale ha negato di essere "omofobo".
Ha poi attaccato il conduttore, accusandolo di essersi recato sull'isola del criminale sessuale Jeffrey Epstein, accusato di aver trafficato ragazze minorenni per decenni, anche nella sua proprietà tropicale.
Il famigerato influencer Myron Gaines si descrive a Theroux come un "dittatore" nella sua relazione sentimentale. Presenta l'intimità come qualcosa che concede, e le cure domestiche come un dovere verso gli uomini.
Co-conduttore del podcast Fresh & Fit e autore di libri dai titoli provocatori come "Why Women Deserve Less", Gaines ha aspramente criticato il montaggio del documentario, accusando la produzione di averlo dipinto negativamente.
A seguito della messa in onda, Gaines ha dichiarato di essere stato lasciato dalla sua ragazza, Angie, la quale ha poi ringraziato pubblicamente Louis Theroux per le domande poste durante le riprese.
La sua partecipazione è stata oggetto di analisi da parte di testate come Wired, che hanno sottolineato come certi comportamenti online siano diventati altamente profittevoli.
The men who rule the world
Have made a fucking mess
The history of power
The worship of success
The king is in the counting house
He's chairman of the board
The women who crowd the courtrooms
All accused of being whores
Money, money, money
The fleecing of the people
All the fucking time
They call it self-preservation
But we call it a crime
Tented citiеs on sidewalks
Underneath thе clouds
Imaginary neighbours
With plastic cups and paper crowns
Stuck inside my head
All the fucking time
The violator, hate the violator
The violator, destroy the violator
Now let's save all of the animals
Let's save all the squid
Let's load them onto the mother-ship
With the elders and the kids (let's go)
Save great works of genius
The birds, the bugs, the seeds
And make it a crime to tell a lie again
And watch those haters bleed
Money, money, money
Oh, money, money, money
Stuck inside my head
Stuck inside my head
All the fucking time
Stuck inside my head
Stuck inside my head
All the fucking time
The violator, hate the violator
The violator, destroy the violator
The violator, hate the violator (money, money, money)
The violator, destroy the violator
Molti spettatori hanno descritto il film come "terrificante" e "informativo in modo disturbante", evidenziando la facilità con cui i ragazzi vengono attratti da queste ideologie.
Parallelamente alla narrazione incentrata sull'arroganza e la ricerca del successo, si insinua un filo di teorie del complotto. La "Matrix" viene invocata come metafora dei sistemi sociali e istituzionali che, a loro dire, mantengono gli uomini sottomessi e ciechi a percorsi alternativi verso il potere.
Da qui, il discorso si fa più cupo, con discussioni su élite oscure che orchestrano il declino culturale, compreso il declino "morale" e l'erosione del ruolo degli uomini nel mondo (che, in modo bizzarro, viene collegato alla crescita della pedofilia).
Il documentario si concentra molto sullo spettacolo offerto dagli influencer, dando forse troppo poco spazio alle voci femminili o all'impatto reale che questa retorica ha sulla vita delle donne.
Molti spettatori di Netflix si chiedevano se Andrew Tate, soprannominato dai suoi devoti seguaci il "re della mascolinità tossica", sarebbe stato coinvolto nel documentario, ma non è apparso.
Nato a Chicago, Illinois, ma cresciuto a Luton, Bedfordshire, Andrew Tate è un kickboxer di 35 anni che, inspiegabilmente, parla e si veste come un uomo della Florida.
Tate è il fondatore di ‘Hustler’s University’ (un marchio online che pretende di aiutare gli uomini ad arricchirsi velocemente e non, cosa fondamentale, una vera università).
Nel 2017 Tate ha promesso il suo sostegno a Donald Trump, ha deriso le accusatrici del movimento #MeToo e ha iniziato a comparire negli ambienti mediatici di estrema destra.
Ha ripetutamente elogiato Tommy Robinson e, nel 2019, la polizia è stata chiamata dopo che Tate si è presentato a casa di un giornalista che aveva criticato Robinson online.
Ad un certo punto Tate si è trasferito in Romania dove ha avviato un'attività di webcam con suo fratello Tristan, in cui le modelle raccontavano "storie strappalacrime" per convincere gli uomini a spendere soldi.
Pur ammettendo che l'attività fosse una "truffa totale", i fratelli affermano di aver guadagnato milioni di dollari con questo sistema.
La partecipazione di Tate al Grande Fratello nel 2016 si è conclusa bruscamente dopo la diffusione di un video in cui lo si vede colpire ripetutamente una donna con una cintura ("Se mai mandi un messaggio a un altro ragazzo, cazzo", lo si sente dire, "che stiamo insieme o no, sei fottuta").
Tate non fa mistero della sua sete di notorietà, né del piacere apparente che trae dall'essere fonte di sofferenza per gli altri.
Grazie a un esercito di account che li imitano, Andrew Tate e Hustler's University hanno raggiunto una popolarità enorme su TikTok: secondo il Guardian, i video dell'influencer sono stati visualizzati oltre 11 miliardi di volte.
Come Hunter Moore prima di lui, che pubblicava foto intime (alcune ottenute tramite hacking e molte inviate senza consenso) di donne con i loro dati di Facebook su IsAnyoneUp.com, ha semplicemente capito che internet premia la notorietà oltre che la fama.
Il "re del revenge porn" ha creato il sito nel 2010, consentendo a persone presumibilmente ferite da relazioni sentimentali di pubblicare contenuti sessuali espliciti in forma anonima, senza il consenso dei partner.
Questa orribile attività viene analizzata – insieme alla disperata lotta delle sue vittime per ottenere giustizia – nel documentario in tre parti di Netflix, "The Most Hated Man on the Internet".
"Posso influenzare emotivamente [i miei critici]", si vanta Tate in un video.
Già nel 2005, i ricercatori avevano osservato che le comunità online potenziano la capacità delle persone di instaurare relazioni parasociali: ovvero, i social media favoriscono relazioni unilaterali tra follower e creatori di contenuti perché danno la sensazione di conoscerli intimamente.
Nonostante la condanna al carcere in Romania, Andrew Tate ha lasciato un'eredità dannosa perché la misoginia, il sessismo e la violenza contro le donne sono diventati ideologie dominanti presenti tra i giovani e i ragazzi nelle aule scolastiche di oggi.
Ciò che emerge dall'inchiesta di Theroux non è solo una provocazione, ma una chiara visione misogina del mondo. Attraverso le interviste e i contenuti degli influencer stessi, si assiste alla difesa di una gerarchia di genere regressiva e ai tentativi di ripristinarla.
Le donne vengono descritte come dotate di un valore intrinseco dovuto alla loro bellezza e sessualità, ma al contempo liquidate come meno razionali e emotivamente stabili. La monogamia è presentata come un vincolo per le donne, ma una scelta per gli uomini. L'uguaglianza di genere viene additata come causa del declino culturale.
A tratti il linguaggio è apertamente autoritario. Il famigerato influencer Myron Gaines si descrive a Theroux come un "dittatore" nella sua relazione sentimentale. Presenta l'intimità come qualcosa che concede e la cura della casa come un dovere verso gli uomini.
"La manosfera – un ecosistema mediatico online di blog, siti web e creatori di contenuti dediti ad alimentare il risentimento maschile e la misoginia più sfrenata – ha dato vita a una forma particolarmente nociva di quella che definirei parasocialità tossica. Personaggi come Andrew Tate, che occupano uno strano spazio tra seduttore, truffatore e opinionista di estrema destra, si creano un pubblico di persone sole e risentite riversando la loro insoddisfazione verso le donne.
Come osserva Amia Srinivasan in 'The Right To Sex', la trasformazione del panorama sessuale ha fatto sì che, per alcuni uomini, la solitudine si sia trasformata in risentimento, misoginia e, in alcuni casi, in violenza. 'Riconosciamo che nessuno è obbligato a desiderare qualcun altro', scrive, 'ma anche che chi è desiderato e chi no è una questione politica, una questione che spesso trova risposta in modelli più generali di dominio ed esclusione'
La manosfera attinge a frammenti di psicologia evoluzionistica presi in prestito da Wikipedia e postula che ciò che le donne desiderano veramente è essere dominate in ogni aspetto della loro vita. È una visione della mascolinità basata sul consumismo ostentato, in cui sia le donne che le automobili sono merci il cui valore è determinato unicamente dal desiderio altrui".
No comments:
Post a Comment