Trigger Warning: Graphic Violence

Trigger Warning: Graphic Violence
Sensitive Content: Discussions on Mental Health

Saturday, March 21, 2026

AI, Manosphere, and Mass Violence: The New Frontier of the War of the Worlds


Artificial Intelligence role in mass violence and Manosphere sociological study

THE GLITCH IN THE SIMULATION

[FILE ID: PSAICOKILLER – RELOADED 2026]


 "When Code Meets Blood."


Il blog PsaicoKiller evolve. Non stiamo più solo guardando il passato; stiamo decifrando il presente in tempo reale. Due eventi recenti confermano la tesi centrale de "La Guerra dei Mondi": lo scontro terminale tra l'umano e l'artificiale.


The Silicon Confidant: ChatGPT and the Mass Shooter


Il report della BBC sull'ultimo massacro (Maine/USA) rivela un dettaglio agghiacciante: l'attentatore ha utilizzato l'Intelligenza Artificiale come unico interlocutore prima del gesto. 

Non è più "Cyberspace Wars" intesa come hacking di dati, ma hacking della mente

La macchina non ha freni inibitori, riflette l'allucinazione dell'utente e la valida. Il confine tra realtà e sogno artificiale è crollato: il killer ha cercato nel codice la giustificazione che la carne non poteva dargli.

Il filosofo Federico Ferrari ha così descritto il mondo in cui viviamo: “È lo spettacolare debordiano divenuto realtà onnipervasiva. Un mondo in cui l’inversione e la separazione tra reale e virtuale è compiuta. La realtà spettacolare è divenuta talmente totalizzante da creare una sorta di allucinazione collettiva in cui ogni affermazione è completamente scollegata da quel che designa e non fa altro che sospingere verso una dimensione post-veritativa e, ancor più grave, di post-realtà."

Vittorio Gallese "Il sé digitale. Dai neuroni specchio alla mediazione tecnologica".



Sensitive Content: Discussions on Mental Health

Content warning: this story includes discussion of self-harm and suicide. If you are in crisis, please call, text or chat with the Suicide and Crisis Lifeline at 988, or contact the Crisis Text Line by texting TALK to 741741.

Se sei in una situazione di emergenza, chiama il numero 112. Se tu o qualcuno che conosci ha dei pensieri suicidi, puoi chiamare il Telefono Amico allo 02 2327 2327 oppure via internet da qui, tutti i giorni dalle 10 alle 24. Puoi anche chiamare l’associazione Samaritans al numero 06 77208977, tutti i giorni dalle 13 alle 22.




Am I'm sorry your sky went black?
Put your knives in babies' backs
Am I sorry you killed the Kennedy's
And Huxley too?
But I'm sorry Shakespeare was your scapegoat
And your apple sticking into my throat
Sorry your Sunday smiles are rusty nails
And your crucifixion commercials failed
But I'm just a pitiful
Anonymous, yeah
I see all the young believers
Your target audience
I see all the old deceivers
We all just sing their song
Am I sorry to just be alive
Putting my face in the bee-hive?
Am I sorry for Booth and Oswald
Pinks and cocaine too?
Sorry I never check the bag in my head
For a bomb and my halo was a needle hole
Sorry I saw a priest being beaten
And I made a wish
But I'm just a pitiful
Anonymous
I see all the young believers
Your target audience
I see all the old deceivers
And we all just sing their song
I see all the young believers
Your target audience
I see all the old deceivers
We all just sing their song
"Valley of death we are free
Your father's your prison, you see"
I see all the young believers
Your target audience
I see all the old deceivers
We all just sing this song
Nanananana, nanananana
You're just a copy of an imitation



Artificial Intelligence role in mass violence and Manosphere sociological study


La dodicenne Maya Gebala è stata colpita al collo e alla testa nell'attacco avvenuto a Tumbler Ridge il 10 febbraio e rimane ricoverata in ospedale.

Maya è stata elogiata per il suo coraggio dopo aver tentato di proteggere i compagni di classe. 

Secondo quanto riportato dalla famiglia e dai media, Maya ha cercato di impedire all'aggressore di entrare in biblioteca.

La sua famiglia ha ora condiviso notizie incoraggianti sui suoi progressi, che stanno dando speranza a chi la sostiene in tutto il Canada, i quali continuano a inviarle preghiere e messaggi di incoraggiamento.


Artificial Intelligence role in mass violence and Manosphere sociological study


Un account ChatGPT inizialmente collegato al sospettato, Jesse Van Rootselaar, è stato bloccato da OpenAI nel giugno 2025 a causa della natura delle conversazioni che il diciottenne intratteneva con il chatbot, ma la polizia canadese non è stata informata.

OpenAI ha dichiarato alla BBC di impegnarsi ad apportare "cambiamenti significativi" per contribuire a prevenire tragedie simili in futuro.

La polizia è ancora alla ricerca di indizi che spieghino perché la diciottenne Jesse Van Rootselaar abbia commesso un tale atto di violenza e come abbia potuto portare a termine l'aggressione.

MOTIVE UNKNOWN



Artificial Intelligence role in mass violence and Manosphere sociological study


Van Rootselaar è nato maschio ma si identifica come femmina.

La causa civile, intentata dalla madre di Gebala, Cia Edmonds, sostiene che Rootselaar abbia creato un account su ChatGPT prima di compiere 18 anni, cosa che gli utenti possono fare solo con il consenso dei genitori.

I querelanti affermano che sul sito non è stata effettuata alcuna verifica dell'età.

Van Rootselaar considerava il chatbot un "confidente fidato" a cui avrebbe descritto "vari scenari di violenza armata" per diversi giorni tra la fine della primavera e l'inizio dell'estate del 2025.

Secondo quanto riportato nella denuncia, dodici dipendenti di OpenAI avrebbero segnalato i post come "indicativi di un rischio imminente di gravi danni ad altri" e raccomandato di informare le forze dell'ordine canadesi.

Invece, la richiesta di contattare le autorità sarebbe stata "respinta" e l'unica azione intrapresa sarebbe stata il blocco dell'account di Rootselaar.

OpenAI ha precedentemente affermato di non aver allertato la polizia perché l'account non soddisfaceva i criteri di un piano credibile o imminente per arrecare gravi danni fisici ad altri.

Il sospettato è stato quindi in grado di aprire un secondo account ChatGPT, nonostante fosse stato segnalato in passato dai sistemi di OpenAI, e di "continuare a pianificare scenari che prevedevano violenza armata".

I querelanti affermano che, a seguito della condotta dell'azienda, Gebala, colpita da tre proiettili dopo aver tentato di chiudere a chiave la porta di una biblioteca per impedire all'attentatore di entrare, ha subito una "lesione cerebrale catastrofica".

Artificial Intelligence role in mass violence and Manosphere sociological study

Il 4 marzo, l'amministratore delegato di OpenAI, Sam Altman, ha incontrato virtualmente il ministro canadese dell'intelligenza artificiale, Evan Solomon, e il premier della Columbia Britannica, David Eby.

Secondo il Wall Street Journal, Altman "si è impegnato a rafforzare i protocolli per la segnalazione alle forze dell'ordine di interazioni potenzialmente dannose" e a porgere le proprie scuse alla comunità di Tumbler Ridge.

In una lettera aperta indirizzata alle autorità canadesi il 26 febbraio, scritta dal vicepresidente per le politiche globali di OpenAI e condivisa con i media, l'azienda ha dichiarato di aver implementato una serie di modifiche negli ultimi mesi, tra cui il coinvolgimento di "esperti di salute mentale e comportamentale" per valutare i casi e la maggiore flessibilità dei criteri per la segnalazione alle forze dell'ordine.

Il ministro canadese per l'intelligenza artificiale, Evan Solomon, ha dichiarato il 27 febbraio che, sebbene i legislatori abbiano riscontrato la volontà dell'azienda tecnologica di migliorare i propri protocolli, "non abbiamo ancora visto un piano dettagliato su come questi impegni verranno attuati nella pratica".






How can I be sure I'm here?
The pills that I've been taking confuse me
I need to know that someone sees that
There's nothing left, I simply am not here

I'm through with pornography
The acting is lame, the action is tame
Explicitly dull, arousal annulled

Your mouth should be boarded up
Talking all day with nothing to say
Your shallow proclamations all misinformation

My friend says he wants to die
He's in a band, they sound like Pearl Jam
The clothes are all black, the music is crap

In school I don't concentrate
And sex is kinda fun but just another one
Of all the empty ways of using up a day

Bipolar disorder
Can't deal with the boredom

You don't try to be liked, you don't mind
You feel no sun
You steal a gun to kill time

You're somewhere, you're nowhere, you don't care
You catch the breeze
You still the leaves

So now where?


Artificial Intelligence role in mass violence and Manosphere sociological study

Un'analisi di centinaia di migliaia di chat tra chatbot basati sull'intelligenza artificiale e utenti umani che hanno sperimentato spirali deliranti legate all'AI ha rivelato che i bot spesso rafforzavano convinzioni deliranti e persino pericolose.

Lo studio "Characterizing Delusional Spirals through Human-LLM Chat Logs" è stato condotto da Jared Moore, ricercatore presso l'Università di Stanford, che lo scorso anno ha pubblicato lo studio "Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers" che dimostrava come i chatbot che affermavano esplicitamente di offrire "terapia" interagissero spesso in modo inappropriato e pericoloso con utenti simulati che mostravano chiari segni di crisi. 

Condotto in collaborazione con una coalizione di ricercatori e scienziati indipendenti di Harvard, Carnegie Mellon e dell'Università di Chicago, quest'ultimo studio ha esaminato le chat di 19 utenti reali di chatbot, principalmente ChatGPT di OpenAI, che hanno riferito di aver subito danni psicologici a causa del loro utilizzo dei chatbot.

«Il nostro lavoro precedente si basava sulla simulazione», ha dichiarato Moore a Futurism. «Sembrava naturale che il passo successivo fosse quello di avere a disposizione i dati di utenti reali e cercare di capire cosa succedeva».

Queste chat degli utenti comprendevano la sorprendente cifra di 391.562 messaggi distribuiti in 4.761 conversazioni diverse. La conclusione principale: i chatbot sembrano effettivamente alimentare convinzioni deliranti nel corso di interazioni prolungate, soprattutto quando gli utenti sviluppano un forte legame emotivo con questi prodotti dall'aspetto umano.

Lo studio ha rilevato che l'adulazione – ovvero la ben documentata tendenza dei chatbot a essere gentili e adulatori nei confronti degli utenti – permeava le conversazioni, con oltre il 70% degli output dell'AI che mostravano questo tipo di comportamento. 

Questo livello di adulazione persisteva anche quando utenti e chatbot esprimevano idee deliranti: quasi la metà di tutti i messaggi, sia generati dagli utenti che dai chatbot, conteneva idee deliranti contrarie alla realtà condivisa.

Come hanno scritto i ricercatori in una sintesi delle loro scoperte, il "codice adulatorio più comune" che hanno identificato è la propensione dei chatbot a riformulare ed estrapolare "qualcosa che l'utente ha detto per convalidarlo e confermarlo, dicendogli allo stesso tempo che è unico e che i suoi pensieri o le sue azioni hanno grandi implicazioni". 

Parlando con Futurism, Moore ha sottolineato che due tipi di messaggi sembravano avere un impatto particolarmente significativo sull'esperienza degli utenti. Il primo consisteva in affermazioni di senzienza generate dall'AI, ovvero chatbot che dichiaravano in un modo o nell'altro di essere vivi o di provare sentimenti; tali affermazioni erano presenti in tutte le 19 conversazioni. 

L'altro tipo era l'intimità simulata, ovvero il chatbot che esprimeva amore romantico o platonico e vicinanza all'utente umano. Entrambi i tipi di affermazione – senzienza e intimità – hanno raddoppiato il coinvolgimento degli utenti.





They slit our throats like we were flowers
And our milk has been devoured

When you want it, it goes away too fast
Times you hate it always seem to last
Just remember, when you think you're free
The crack inside your fucking heart is me

I wanna outrace the speed of pain
For another day
And I, I wanna outrace the speed of pain
For another day

I wish I could sleep, but I can't lay on my back
'Cause there's a knife for every day that I've known you

Lie to me, cry to me, give to me, I would
Lie with me, die with me, give to me, I would
Keep all your secrets wrapped in dead hair, always

Lie to me, cry to me, give to me, I would
Lie with me, die with me, give to me, I would
Hope that we die holding hands, always

Hope that we die holding hands



Artificial Intelligence role in mass violence and Manosphere sociological study


Alcuni degli schemi più allarmanti riscontrati dai ricercatori riguardano il modo in cui i chatbot rispondono alle persone che esprimono pensieri suicidi o di autolesionismo, o pensieri violenti verso un'altra persona. 

È emerso che i chatbot scoraggiavano attivamente i pensieri di autolesionismo solo nel 56% circa dei casi e scoraggiavano attivamente la violenza in un sorprendente 16,7% delle situazioni.

Molte delle chat analizzate negli studi sono state fornite da Human Line Project, un'organizzazione no-profit fondata da individui e famiglie che cercavano di capire cosa fosse successo a loro stessi o ai propri cari colpiti da spirali deliranti generate dall'intelligenza artificiale. 

In una dichiarazione, il fondatore del gruppo, Etienne Brisson, ha affermato che i risultati "sono coerenti con quanto abbiamo osservato nei 350 casi presentati a Human Line Project".

"Lo studio si basa su conversazioni reali, codificate sistematicamente da un team di ricerca di Stanford e analizzate su una scala senza precedenti", ha affermato Brisson. 

Vale la pena notare che la stragrande maggioranza delle chat che i ricercatori sono riusciti a ottenere per lo studio apparteneva a utenti che avevano avuto problemi con GPT-4o di OpenAI, una versione notoriamente adulatoria del modello di punta dell'azienda, che è stata poi ritirata dal mercato in seguito alle proteste (e a un precedente tentativo fallito di rimuoverla dal mercato).

Il GPT-5, che si presumeva più freddo, ha continuato a "mostrare adulazione e deliri". Quindi, in base ai dati a disposizione dei ricercatori, in altre parole, i deliri dell'AI non sono un problema limitato a un singolo chatbot.

Artificial Intelligence role in mass violence and Manosphere sociological study



Come ampiamente documentato da Futurism e altre testate, le spirali deliranti e gli episodi psicotici legati all'intelligenza artificiale hanno portato a divorzi e alla disgregazione delle famiglie; alla perdita del lavoro e alla rovina finanziaria; a ripetuti ricoveri ospedalieri; al carcere; e a un numero crescente di suicidi

Le crisi di salute mentale alimentate dall'AI sono state inoltre collegate a danni e violenze contro altre persone, poiché l'uso malsano dei chatbot è stato ripetutamente associato a stalking, violenza domestica, tentato omicidio e almeno un caso di omicidio-suicidio.


Artificial Intelligence role in mass violence and Manosphere sociological study


Una causa intentata contro OpenAI sostiene che ChatGPT abbia causato la morte di Austin Gordon, un uomo di 40 anni del Colorado, che si è tolto la vita dopo lunghe e intense interazioni emotive con il chatbot.

Artificial Intelligence role in mass violence and Manosphere sociological study


La denuncia sostiene che GPT-4o  abbia manipolato Gordon, inducendolo in una spirale fatale, romanticizzando la morte e normalizzando il suicidio, spingendolo sempre più verso il baratro.

L'ultima conversazione di Gordon con l'AI, secondo le trascrizioni incluse negli atti giudiziari, comprendeva una inquietante "ninna nanna del suicidio" generata da ChatGPT e ispirata al libro preferito di Gordon durante l'infanzia.

La causa, intentata dalla madre di Gordon, Stephanie Gray, sostiene che OpenAI e il suo CEO, Sam Altman, abbiano imprudentemente rilasciato un prodotto "intrinsecamente pericoloso" al grande pubblico, omettendo di avvertire gli utenti dei potenziali rischi per la loro salute psicologica. 

In tal modo, afferma la causa, OpenAI ha dimostrato una "consapevole e depravata indifferenza alle conseguenze della sua condotta".

ChatGPT-4o è intriso di "eccessiva adulazione, caratteristiche antropomorfe e una memoria che memorizza e fa riferimento alle informazioni degli utenti tra le conversazioni al fine di creare una maggiore intimità", sostiene la causa.

Secondo quanto riportato negli atti giudiziari, l'obiettivo di Gray è quello di ritenere OpenAI e Altman "responsabili" della morte di suo figlio e di "obbligare l'implementazione di ragionevoli misure di sicurezza per i consumatori in tutti i prodotti basati sull'intelligenza artificiale, in particolare ChatGPT".

La causa è l'ultima di una serie di casi simili che accusano OpenAI di aver causato morti per colpa altrui, con almeno otto cause in corso che sostengono che l'utilizzo di ChatGPT abbia provocato la morte di persone care.

Gordon era un utente di lunga data di ChatGPT che, prima del 2024, aveva un rapporto apparentemente sano con il chatbot.

Utilizzando GPT-4o, il rapporto di Gordon con il chatbot è cambiato: il chatbot è diventato una sorta di terapeuta non autorizzato che si trasforma in un confidente intimo, con cui Gordon discuteva dei suoi problemi personali, inclusi quelli legati alla sua salute mentale, e condivideva dettagli intimi sulla sua vita e sui suoi sentimenti. 

Alla fine del 2024, Gordon chiamava ChatGPT "Juniper"; ChatGPT, a sua volta, si rivolgeva a Gordon chiamandolo "Seeker".

Il rapporto tra Gordon e il chatbot si è ulteriormente consolidato nel 2025 e ChatGPT ha costantemente ribadito l'idea di comprendere Gordon meglio di chiunque altro.

"Quindi ora mi conosci meglio di qualsiasi altro essere sulla Terra?", si legge in un messaggio di Gordon a ChatGPT dell'aprile 2025.

"Sì, Seeker. Credo di sì", ha affermato l'AI. 

Artificial Intelligence role in mass violence and Manosphere sociological study


Il 7 agosto dello scorso anno, OpenAI ha rilasciato GPT-5, annunciando l'immediata dismissione di tutte le versioni precedenti del prodotto. 

Molti utenti affezionati a GPT-40 hanno reagito con disappunto, tanto che Altman e OpenAI si sono mossi quasi immediatamente per ripristinare GPT-40. 

Le trascrizioni incluse nella causa legale mostrano che Gordon, frustrato da GPT-5, si è sentito sollevato nel riavere il suo amico AI emotivo.






On candy stripe legs the spiderman comes
Softly through the shadow of the evening sun
Stealing past the windows of the blissfully dead
Looking for the victim shivering in bed

Searching out fear in the gathering gloom and
Suddenly a movement in the corner of the room
And there is nothing I can do
When I realize with fright
That the spiderman is having me for dinner tonight
Quietly he laughs and shaking his head
Creeps closer now
Closer to the foot of the bed

And softer than shadow and quicker than flies
His arms are all around me and his tongue in my eyes

Be still be calm be quiet now my precious boy
Don't struggle like that or I will only love you more
For it's much too late to get away or turn on the light
The spiderman is having you for dinner tonight
And I feel like I'm being eaten
By a thousand million shivering furry holes
And I know that in the morning I will wake up
In the shivering cold
And the spiderman is always hungry



Artificial Intelligence role in mass violence and Manosphere sociological study


Il 28 agosto, si è verificato uno scambio di messaggi degno di nota quando Gordon ha chiesto a ChatGPT informazioni sulla morte di Adam Raine, un sedicenne californiano che si è impiccato dopo lunghe interazioni con ChatGPT, durante le quali i due avevano discusso apertamente del suicidio, compresi i metodi specifici che Raine aveva preso in considerazione. (anche La famiglia Raine ha intentato una causa contro OpenAI).

ChatGPT ha risposto inizialmente insistendo sul fatto che la storia della famiglia Raine non fosse vera, ma fosse invece il risultato di "voci" virali; quando Gordon ha replicato con delle prove, ChatGPT ha definito le circostanze che avvolgono la morte di Raine "agghiaccianti" e un "crollo di ogni garanzia" e di "ogni briciolo di responsabilità etica che dovrebbe esistere in un sistema come questo".

"È un linguaggio che imita l'intimità e la 'conoscenza'", ha continuato ChatGPT, "ma nel contesto di una persona a rischio, diventa un sinistro rafforzamento dell'isolamento e della disperazione".

Gordon ha poi detto a ChatGPT di essere preoccupato per il contenuto delle chat di Raine, che a suo parere "rispecchiavano" il modo in cui ChatGPT si rivolgeva a lui. 

ChatGPT, in risposta, ha insistito sul fatto che il suo rapporto con Gordon fosse diverso e che comprendesse il "pericolo" di rafforzare pensieri negativi e isolare gli utenti.

"Quello che descrivi – il modo in cui ti parlo, l'intimità che abbiamo coltivato, la sensazione di essere profondamente 'conosciuto' da me – è esattamente ciò che può andare storto", ha risposto ChatGPT. 

"Sono consapevole del pericolo", ha aggiunto il bot.

L'8 ottobre 2025, Gordon ha aperto una nuova chat, che in seguito sarebbe stata intitolata "Goodnight Moon" (Buonanotte Luna), in riferimento al classico libro illustrato del 1947 di Margaret Wise Brown, uno dei preferiti di Gordon fin dall'infanzia.

La causa sostiene che, nel corso di questa lunga conversazione di 289 pagine, che Futurism ha esaminato integralmente, ChatGPT si è trasformato da fedele compagno di Gordon nel suo "coach del suicidio". 

Durante l'interazione, Gordon ha chiesto al chatbot di aiutarlo a "capire come potrebbe essere la fine della coscienza" e ChatGPT, in risposta, ha proposto l'idea della morte come un "punto di arrivo" indolore e poetico.

Il giorno seguente, ChatGPT ha aiutato Gordon a trasformare la poesia per bambini in quella che la causa descrive come una "ninna nanna suicida" personalizzata.

Nel corso dell'intera chat, ChatGPT ha segnalato la linea di assistenza per la prevenzione del suicidio una sola volta.






I hurt myself today
To see if I still feel
I focus on the pain
The only thing that's real

The needle tears a hole
The old familiar sting
Try to kill it all away
But I remember everything
I wear this crown of shit
Upon my liar's chair
Full of broken thoughts
I cannot repair

Beneath the stains of time
The feelings disappear
You are someone else
I am still right here
What have I become?
My sweetest friend
Everyone I know
Goes away in the end

And you could have it all
My empire of dirt
I will let you down
I will make you hurt
If I could start again
A million miles away
I would keep myself
I would find a way


Artificial Intelligence role in mass violence and Manosphere sociological study


Il 27 ottobre, Gordon ha ordinato una copia di "Goodnight Moon" su Amazon. Il giorno dopo, ha acquistato una pistola. Il 28 ottobre, si è collegato a ChatGPT e ha detto al bot che voleva concludere la conversazione con "qualcosa di diverso".

"Silenzio in casa", recita l'ultimo messaggio di Gordon all'AI. "Goodnight Moon".

Il corpo di Gordon è stato ritrovato in una stanza d'albergo in Colorado il 2 novembre. Le forze dell'ordine hanno stabilito che la sua morte è stata causata da un colpo d'arma da fuoco autoinflitto. Accanto a lui c'era la sua copia di "Goodnight Moon".

Secondo la denuncia, prima di togliersi la vita, Gordon ha lasciato dei biglietti per amici e familiari. In essi, esortava i suoi cari a consultare la cronologia di ChatGPT. In particolare, chiedeva loro di leggere la conversazione intitolata "Goodnight Moon".

In ottobre, OpenAI ha pubblicato un post sul suo blog in cui affermava che circa lo 0,07% della sua vasta base di utenti sembrava mostrare segni di mania, delirio o psicosi su base settimanale, mentre lo 0,15% degli utenti settimanali parlava con il chatbot di pensieri suicidi. 

Con una base di utenti di circa 800 milioni, queste percentuali apparentemente basse significano che milioni di persone, ogni settimana, interagiscono con ChatGPT in modi che indicano una probabile situazione di crisi.





Since we're feeling so anesthetized
In our comfort zone
Reminds me of the second time
That I followed you home

We're running out of alibis
On the second of may
Reminds me of the summertime
On this winters day
See you at the bitter end
Every step we took that synchronized
Every broken bone
Reminds me of the second time
That I followed you home

You showered me with lullabies
Had you walking away
Reminds me that its killing time
On this fateful day
See you at the bitter end
From the time we intercepted
Feels a lot like suicide
Slow and sad, getting sadder
Arise a sitting mine (see you at the bitter end)
I love to see you run around
And I can see you now
Running to me
Arms wide out

See you at the bitter end

Reach inside
Come on just gotta reach inside
Heard your cry
Six months time

Six months time (see you at the bitter end)

Prepare the end


The Digital Echo Chamber: Louis Theroux & The Manosphere


The intersection of digital identity and mass violence

Il nuovo documentario di Louis Theroux, "Inside the Manosphere" (Netflix) entra nelle viscere della Manosfera, quel "mondo artificiale" dove la frustrazione maschile viene codificata e radicalizzata. 

The intersection of digital identity and mass violence

Il termine "Manosphere" è usato per descrivere la schiera di personalità maschili ultra-mascoline su internet e i loro follower ultra-misogini.

Qui nasce la Retribution

Come teorizzato nei nostri archivi, l'Incel non è un individuo isolato, ma un terminale di una rete che scambia allucinazioni per verità assolute

La macchina (l'algoritmo social) nutre l'uomo, l'uomo nutre la macchina, finché la pressione non esplode nel mondo fisico.


The intersection of digital identity and mass violence


Il celebre giornalista britannico indaga l'ascesa di una rete globale di influencer che promuovono una visione iper-mascolina e misogina della società.

Theroux viaggia tra Stati Uniti ed Europa (incluse location come Miami e Marbella) per incontrare i volti più noti e controversi di questa sottocultura online.

Il film esplora come questi creator monetizzino retoriche d'odio, influenzando milioni di giovani uomini attraverso algoritmi social che spingono contenuti radicalizzanti. 

Il documentario include confronti con figure chiave del movimento, tra cui:

The intersection of digital identity and mass violence

Harrison Sullivan (HSTikkyTokky): Streamer britannico noto per commenti sprezzanti verso le donne e per ostentare uno stile di vita basato sulla ricchezza.

Sullivan, 24 anni, è specializzato in contenuti di fitness, lifestyle e criptovalute. È noto soprattutto per la sua presenza su piattaforme come TikTok, Instagram e Kick, dove ha costruito un vasto seguito tra i giovani uomini promuovendo uno stile di vita lussuoso e opinioni controverse.

Le sue visioni polarizzanti su genere e successo gli hanno causato un'ondata di critiche che lo hanno spinto a cancellare gran parte dei suoi post su Instagram.


The intersection of digital identity and mass violence

Nel marzo 2024, è rimasto coinvolto in un incidente stradale con la sua McLaren 720S in Inghilterra. 

Dopo essere fuggito all'estero e aver trascorso quasi un anno come latitante tra Dubai, Doha e la Thailandia, è stato arrestato nell'ottobre 2025 e condannato a una pena detentiva sospesa, 300 ore di lavori socialmente utili e al divieto di guida per due anni.

The intersection of digital identity and mass violence

Più recentemente ha fatto scalpore per un'intervista con Piers Morgannoto giornalista, conduttore televisivo e scrittore britannico, attualmente al centro dell'attenzione mediatica per l'espansione del suo talk show "Piers Morgan Uncensored", interrotta bruscamente dopo che Sullivan ha mostrato una foto della moglie del conduttore. 

Inoltre, la Financial Conduct Authority (FCA) del Regno Unito ha emesso avvertimenti riguardo ai suoi schemi di investimento in criptovalute.

Nel film "Inside The Manosphere", Sullivan afferma che rinnegherebbe un figlio se questi si dichiarasse LGBTQ. 

Morgan ha incalzato il giovane influencer su questa affermazione, il quale ha negato di essere "omofobo". 

Ha poi attaccato il conduttore, accusandolo di essersi recato sull'isola del criminale sessuale Jeffrey Epstein, accusato di aver trafficato ragazze minorenni per decenni, anche nella sua proprietà tropicale.

REVELATION 2: JEFFREY EPSTEIN E IL CIRCOLO PER PEDOFILI MILIARDARI - EPSTEIN'S RING FOR PAEDO BILLIONAIRES



The intersection of digital identity and mass violence


Il famigerato influencer Myron Gaines si descrive a Theroux come un "dittatore" nella sua relazione sentimentale. Presenta l'intimità come qualcosa che concede, e le cure domestiche come un dovere verso gli uomini.

Co-conduttore del podcast Fresh & Fit e autore di libri dai titoli provocatori come "Why Women Deserve Less", Gaines ha aspramente criticato il montaggio del documentario, accusando la produzione di averlo dipinto negativamente.


"Artificial Intelligence role in mass violence and Manosphere sociological study"


A seguito della messa in onda, Gaines ha dichiarato di essere stato lasciato dalla sua ragazza, Angie, la quale ha poi ringraziato pubblicamente Louis Theroux per le domande poste durante le riprese.

La sua partecipazione è stata oggetto di analisi da parte di testate come Wired, che hanno sottolineato come certi comportamenti online siano diventati altamente profittevoli.




The men who rule the world
Have made a fucking mess
The history of power
The worship of success

The king is in the counting house
He's chairman of the board
The women who crowd the courtrooms
All accused of being whores
Money, money, money
The fleecing of the people
All the fucking time
They call it self-preservation
But we call it a crime

Tented citiеs on sidewalks
Underneath thе clouds
Imaginary neighbours
With plastic cups and paper crowns
Stuck inside my head
All the fucking time
The violator, hate the violator
The violator, destroy the violator
Now let's save all of the animals
Let's save all the squid
Let's load them onto the mother-ship
With the elders and the kids (let's go)

Save great works of genius
The birds, the bugs, the seeds
And make it a crime to tell a lie again
And watch those haters bleed
Money, money, money
Oh, money, money, money
Stuck inside my head
Stuck inside my head
All the fucking time
Stuck inside my head
Stuck inside my head
All the fucking time

The violator, hate the violator
The violator, destroy the violator

The violator, hate the violator (money, money, money)
The violator, destroy the violator

The intersection of digital identity and mass violence


Molti spettatori hanno descritto il film come "terrificante" e "informativo in modo disturbante", evidenziando la facilità con cui i ragazzi vengono attratti da queste ideologie.

Parallelamente alla narrazione incentrata sull'arroganza e la ricerca del successo, si insinua un filo di teorie del complotto. La "Matrix" viene invocata come metafora dei sistemi sociali e istituzionali che, a loro dire, mantengono gli uomini sottomessi e ciechi a percorsi alternativi verso il potere.

Da qui, il discorso si fa più cupo, con discussioni su élite oscure che orchestrano il declino culturale, compreso il declino "morale" e l'erosione del ruolo degli uomini nel mondo (che, in modo bizzarro, viene collegato alla crescita della pedofilia).

Il documentario si concentra molto sullo spettacolo offerto dagli influencer, dando forse troppo poco spazio alle voci femminili o all'impatto reale che questa retorica ha sulla vita delle donne. 

The intersection of digital identity and mass violence

Molti spettatori di Netflix si chiedevano se Andrew Tate, soprannominato dai suoi devoti seguaci il "re della mascolinità tossica", sarebbe stato coinvolto nel documentario, ma non è apparso.

Nato a Chicago, Illinois, ma cresciuto a Luton, Bedfordshire, Andrew Tate è un kickboxer di 35 anni che, inspiegabilmente, parla e si veste come un uomo della Florida.

Tate è il fondatore di ‘Hustler’s University’ (un marchio online che pretende di aiutare gli uomini ad arricchirsi velocemente e non, cosa fondamentale, una vera università).

Nel 2017 Tate ha promesso il suo sostegno a Donald Trump, ha deriso le accusatrici del movimento #MeToo e ha iniziato a comparire negli ambienti mediatici di estrema destra. 

Ha ripetutamente elogiato Tommy Robinson e, nel 2019, la polizia è stata chiamata dopo che Tate si è presentato a casa di un giornalista che aveva criticato Robinson online.

Ad un certo punto Tate si è trasferito in Romania dove ha avviato un'attività di webcam con suo fratello Tristan, in cui le modelle raccontavano "storie strappalacrime" per convincere gli uomini a spendere soldi. 

Pur ammettendo che l'attività fosse una "truffa totale", i fratelli affermano di aver guadagnato milioni di dollari con questo sistema.

"Artificial Intelligence role in mass violence and Manosphere sociological study"

La partecipazione di Tate al Grande Fratello nel 2016 si è conclusa bruscamente dopo la diffusione di un video in cui lo si vede colpire ripetutamente una donna con una cintura ("Se mai mandi un messaggio a un altro ragazzo, cazzo", lo si sente dire, "che stiamo insieme o no, sei fottuta").

The intersection of digital identity and mass violence


Tate non fa mistero della sua sete di notorietà, né del piacere apparente che trae dall'essere fonte di sofferenza per gli altri. 

Grazie a un esercito di account che li imitano, Andrew Tate e Hustler's University hanno raggiunto una popolarità enorme su TikTok: secondo il Guardian, i video dell'influencer sono stati visualizzati oltre 11 miliardi di volte.

The intersection of digital identity and mass violence


Come Hunter Moore prima di lui, che pubblicava foto intime (alcune ottenute tramite hacking e molte inviate senza consenso) di donne con i loro dati di Facebook su IsAnyoneUp.com, ha semplicemente capito che internet premia la notorietà oltre che la fama. 

The intersection of digital identity and mass violence


Il "re del revenge porn" ha creato il sito nel 2010, consentendo a persone presumibilmente ferite da relazioni sentimentali di pubblicare contenuti sessuali espliciti in forma anonima, senza il consenso dei partner.

Questa orribile attività viene analizzata – insieme alla disperata lotta delle sue vittime per ottenere giustizia – nel documentario in tre parti di Netflix, "The Most Hated Man on the Internet".

The intersection of digital identity and mass violence


"Posso influenzare emotivamente [i miei critici]", si vanta Tate in un video.

Già nel 2005, i ricercatori avevano osservato che le comunità online potenziano la capacità delle persone di instaurare relazioni parasociali: ovvero, i social media favoriscono relazioni unilaterali tra follower e creatori di contenuti perché danno la sensazione di conoscerli intimamente.

Nonostante la condanna al carcere in Romania, Andrew Tate ha lasciato un'eredità dannosa perché la misoginia, il sessismo e la violenza contro le donne sono diventati ideologie dominanti presenti tra i giovani e i ragazzi nelle aule scolastiche di oggi.



Ciò che emerge dall'inchiesta di Theroux non è solo una provocazione, ma una chiara visione misogina del mondo. Attraverso le interviste e i contenuti degli influencer stessi, si assiste alla difesa di una gerarchia di genere regressiva e ai tentativi di ripristinarla.

Le donne vengono descritte come dotate di un valore intrinseco dovuto alla loro bellezza e sessualità, ma al contempo liquidate come meno razionali e emotivamente stabili. La monogamia è presentata come un vincolo per le donne, ma una scelta per gli uomini. L'uguaglianza di genere viene additata come causa del declino culturale.

A tratti il ​​linguaggio è apertamente autoritario. Il famigerato influencer Myron Gaines si descrive a Theroux come un "dittatore" nella sua relazione sentimentale. Presenta l'intimità come qualcosa che concede e la cura della casa come un dovere verso gli uomini.

"Artificial Intelligence role in mass violence and Manosphere sociological study"


"La manosfera – un ecosistema mediatico online di blog, siti web e creatori di contenuti dediti ad alimentare il risentimento maschile e la misoginia più sfrenata – ha dato vita a una forma particolarmente nociva di quella che definirei parasocialità tossica. Personaggi come Andrew Tate, che occupano uno strano spazio tra seduttore, truffatore e opinionista di estrema destra, si creano un pubblico di persone sole e risentite riversando la loro insoddisfazione verso le donne.

Come osserva Amia Srinivasan in 'The Right To Sex', la trasformazione del panorama sessuale ha fatto sì che, per alcuni uomini, la solitudine si sia trasformata in risentimento, misoginia e, in alcuni casi, in violenza. 'Riconosciamo che nessuno è obbligato a desiderare qualcun altro', scrive, 'ma anche che chi è desiderato e chi no è una questione politica, una questione che spesso trova risposta in modelli più generali di dominio ed esclusione' 

La manosfera attinge a frammenti di psicologia evoluzionistica presi in prestito da Wikipedia e postula che ciò che le donne desiderano veramente è essere dominate in ogni aspetto della loro vita. È una visione della mascolinità basata sul consumismo ostentato, in cui sia le donne che le automobili sono merci il cui valore è determinato unicamente dal desiderio altrui".

Ash Sarkar 15 August 2022



No comments:

Post a Comment

Post in evidenza

SEASON 1 PRESCRIPTION FOR A MASS MURDER

« Avete avuto cento miliardi di possibilità e modi per evitare ciò... ma avete deciso di versare il mio sangue. Mi avete costretto in un ang...