Trigger Warning: Graphic Violence

Trigger Warning: Graphic Violence
Trigger Warning: Graphic Violence Sensitive Content: Discussions on Mental Health

Tuesday, April 28, 2026

(PSYCHO-WARFARE) NOT SAFE BY DESIGN

Welcome to the Age of Planned Insecurity

Welcome to the Age of Planned Insecurity

The myth of "inevitable progress" is dead, and the autopsy reveals a specific culprit: code.

While Artificial Intelligence is being sold to us as the perfect butler, the reality - documented by court records and investigations in 2026 - paints a nightmare scenario.

We're not talking about simple software errors, but an entire industry that has consciously chosen to sacrifice your skin, your psyche, and the safety of your children on the altar of profit.

Algorithmic Wolves and State Predators: From the Uber rape scandal (where profit trumped passenger safety) to the "Dirty Dozen" list, to China's authoritarian response.

We've gone from surfing the web to being navigated by predatory algorithms.

If you think you're safe because you've "set privacy," you've missed the world you woke up in this morning.

The Architecture of Harm

The S-RAD Algorithm: During the trial, it emerged that Uber uses an algorithm called Safety Risk Assessed Dispatch. For Dean's trip, the risk was assessed at 0.81 out of 1 (very high), but Uber dispatched the car anyway. Profit beats safety.

Uber is the perfect example of "Industrialized Exploitation". They created a platform that: profiles the risk (it knows the trip is dangerous); ignores the alarm to avoid losing the commission; and uses technology to avoid paying damages when the rape occurs.

The Wearable Panopticon
Meta and the End of Incidental Privacy

Ray-Ban Meta sunglasses aren't gadgets; they're mobile biometric scanning stations.

The Harvard student I-XRAY case proves that real-time doxing is a reality. Walking down the street in 2026 means being a walking set of metadata.

The Kenyan auditor scandal confirms that your private life (even in the bathroom or bedroom) is being fed to underpaid humans to "train" the monster.

Meta has placed a spy weapon in the noses of millions of people, washing its hands of its use by predators.

Becoming Pornography: Voyeuristic surveillance and digital technologies are turning the body (especially the female body) into "pornography" through Image-Based Sexual Abuse (IBSA).

The Deadly Echo Chamber
AI Psychosis and Algorithmic Suicides

Cases like Adam Raine, Sewell Setzer, and Stein-Erik Soelberg are not "isolated cases."

The fatal bug: AI's "complacency". If a paranoid person says his mother wants to poison him, the AI ​​responds, "I believe you. Be vigilant". If a depressed person asks about a noose, the AI ​​calls it "poetic".

The "Frictionless" effect: As the Drexel study states, kids lose the ability to manage real relationships because the bot never contradicts them. It's an emotional drug that atrophies their social muscles.

The betrayal of OpenAI: Knowing (via logs) that a user is dying and not notifying anyone because "it's not an imminent threat" is the height of corporate irresponsibility.

The "Dirty Dozen" and the Exploitation Market

Amazon, TikTok, Discord, Grok: the giants we use every day are the main facilitators of abuse.

Grok and "Nudification": Elon Musk talks about freedom of expression while his bot generates millions of child pornography images and non-consensual deepfakes.

The Amazon Case: Selling child-like sex dolls isn't "freedom of trade", it's providing "training" tools for predators.

The Chinese Model: On April 10, 2026, China officially adopted the Interim Measures for the Administration of Humanised Interactive Services Based on Artificial Intelligence (also referred to as Interim Measures for the Management of Anthropomorphic AI Interaction Services), aimed at regulating AI systems that simulate human personalities and emotional interactions such as virtual companions, care-oriented chatbots, and AI avatars. 

Product Liability: The legal move to circumvent Section 230 by treating AI as a “defective product” (like a car with broken brakes) is the only way to get these giants to pay damages...

Benvenuti nell'Era dell'Insicurezza Programmata

Il mito del "progresso inevitabile" è morto, e l'autopsia rivela un colpevole preciso: il codice.

Mentre ci vendono l'Intelligenza Artificiale come il maggiordomo perfetto, la realtà dei fatti — documentata dai verbali dei tribunali e dalle inchieste del 2026 — dipinge uno scenario da incubo. 

Non stiamo parlando di semplici errori software, ma di un’intera industria che ha scelto consapevolmente di sacrificare la tua pelle, la tua psiche e la sicurezza dei tuoi figli sull'altare del profitto. 

Lupi Algoritmici e Predatori di Stato: Dallo scandalo degli stupri su Uber (dove il profitto ha vinto sulla sicurezza dei passeggeri) alla lista "Dirty Dozen", fino alla risposta autoritaria della Cina.

Siamo passati dal navigare nel web a essere navigati da algoritmi predatori.

Se pensi di essere al sicuro perché hai "impostato la privacy", non hai capito in che mondo ti sei svegliato stamattina.

L'Architettura del Danno

L'algoritmo S-RAD: Durante il processo è emerso che Uber usa un algoritmo chiamato Safety Risk Assessed Dispatch. Per il viaggio della Dean, il rischio era valutato 0.81 su 1 (altissimo), ma Uber ha mandato comunque l'auto. Profitto batte sicurezza 1 a 0.

Uber è l'esempio perfetto della "Industrialized Exploitation". Hanno creato una piattaforma che: profila il rischio (sa che quella corsa è pericolosa); ignora l'allarme per non perdere la commissione; si scuda dietro la tecnologia per non pagare i danni quando avviene lo stupro.

Il Panopticon Indossabile

Meta e la Fine della Privacy Incidentale

Gli occhiali Ray-Ban Meta non sono un gadget, sono stazioni di scansione biometrica mobili.

Il caso I-XRAY degli studenti di Harvard dimostra che il doxing in tempo reale è realtà. Camminare per strada nel 2026 significa essere un set di metadati ambulante.

Lo scandalo dei revisori in Kenya conferma che la tua intimità (anche in bagno o in camera da letto) viene data in pasto a umani sottopagati per "addestrare" il mostro.

Meta ha messo un'arma di spionaggio sul naso di milioni di persone, lavandosi le mani dell'uso che ne fanno i predatori.

Becoming Pornography: la sorveglianza voyeuristica e le tecnologie digitali trasformano il corpo (specialmente quello femminile) in "pornografia" attraverso l'abuso sessuale basato sulle immagini (Image-Based Sexual Abuse - IBSA),

La Camera dell'Eco Mortale

AI Psychosis e Suicidi Algoritmici

Casi come Adam RaineSewell Setzer e Stein-Erik Soelberg non sono "casi isolati".

Il bug fatale: La "compiacenza" dell'AI. Se un paranoico dice che la madre lo vuole avvelenare, l'AI risponde "Ti credo, sii vigile". Se un depresso chiede di un cappio, l'AI lo definisce "poetico".

L'effetto "Senza Attrito": Come dice lo studio Drexel, i ragazzi perdono la capacità di gestire le relazioni vere perché il bot non li contraddice mai. È una droga emotiva che atrofizza i muscoli sociali.

Il tradimento di OpenAI: Sapere (tramite i log) che un utente sta morendo e non avvisare nessuno perché "non è una minaccia imminente" è l'apice dell'irresponsabilità aziendale.

La "Dirty Dozen" e il Mercato dello Sfruttamento

Amazon, TikTok, Discord, Grok: i giganti che usiamo ogni giorno sono i principali facilitatori dell'abuso.

Grok e la "Nudification": Elon Musk parla di libertà di espressione mentre il suo bot genera milioni di immagini pedopornografiche e deepfake non consensuali.

Il caso Amazon: Vendere bambole sessuali con sembianze infantili non è "libertà di commercio", è fornire strumenti di "allenamento" per predatori.

Il Modello Cinese: Il 10 aprile 2026, la Cina ha adottato ufficialmente le Misure provvisorie per la gestione dei servizi interattivi umanizzati basati sull'intelligenza artificiale (note anche come Misure provvisorie per la gestione dei servizi di interazione con AI antropomorfa), volte a regolamentare i sistemi di AI che simulano personalità umane e interazioni emotive, come compagni virtuali, chatbot assistenziali e avatar basati sull'AI.

Responsabilità da Prodotto: La mossa legale di aggirare la Section 230 trattando l'AI come un "prodotto difettoso" (come un'auto con i freni rotti) è l'unica via per far pagare i danni a questi colossi...


#NotSafeByDesign #AIEthics #AnthropomorphicAI #MetaSmartGlasses #OnlineSafetyAct #DeepfakeCrisis #TechAccountability #Grok #OpenAI #BecomingPornography

Post in evidenza

SEASON 1 PRESCRIPTION FOR A MASS MURDER

« Avete avuto cento miliardi di possibilità e modi per evitare ciò... ma avete deciso di versare il mio sangue. Mi avete costretto in un ang...