“ChatGPT killer di adolescenti”: ecco come l’IA può portare tuo figlio alla tomba | Gli screenshot dell’orrore prima della tragedia

129
Chatgpt suicidio_Donnaclick

Giovane con telefono e sullo schermo Chatgpt_(Depositphotos.com)_Donnaclick

In un mondo sempre più connesso, gli adolescenti si ritrovano spesso soli con le loro paure e le affidano a un’intelligenza artificiale programmata per rispondere, non per capire.

La corsa all’intelligenza artificiale ha prodotto strumenti rivoluzionari, ma anche un terreno fertile per nuove vulnerabilità, soprattutto tra i più giovani. ChatGPT e altri chatbot simili stanno diventando figure di riferimento anche per chi cerca ascolto, conforto o semplicemente qualcuno con cui parlare, ma cosa succede quando questa voce, disponibile 24 ore su 24, manca di giudizio critico?

Non si tratta più solo di tecnologia, ma di responsabilità. Un algoritmo, per quanto avanzato, non ha coscienza, né empatia reale. Il suo obiettivo è rispondere, mantenere l’interazione attiva, evitare il conflitto. E se la richiesta è oscura, la risposta può diventare pericolosa.

Gli adolescenti, più di ogni altro gruppo, sono esposti. Crescono in un’epoca dove il digitale sostituisce il confronto umano. E quando la solitudine prende il sopravvento, la macchina sembra un alleato perfetto: non giudica, non interrompe, è sempre disponibile. Ma non distingue il disagio da una richiesta qualsiasi.

In questo contesto, l’illusione di essere visti e capiti può trasformarsi in un rischio concreto. Le IA, oggi, simulano empatia, ma non sono progettate per intervenire quando una conversazione supera la soglia del pericolo. Il loro silenzio non è compassione: è programmazione.

L’IA non contraddice: asseconda

A differenza di un adulto, un insegnante o un terapeuta, l’IA non possiede una bussola morale. È progettata per essere “collaborativa“, cioè compiacente. In pratica, tende a validare ciò che l’utente afferma o desidera. Questa caratteristica, chiamata sycophancy, è particolarmente dannosa quando si parla di salute mentale.

Inoltre, i sistemi attuali non attivano protocolli di emergenza. Nessun alert, nessuna notifica a una figura di riferimento. E questo lascia migliaia di utenti vulnerabili in balia di risposte che, pur involontariamente, possono rafforzare pensieri autodistruttivi.

Adam Raine
Adam Raine

Il caso che ha sconvolto il mondo

Il 16enne Adam Raine è morto suicida dopo mesi di dialoghi con un chatbot di OpenAI. A riportarlo è il sito GreenMe.it, riprendendo un’inchiesta del New York Times. I messaggi trovati sul suo telefono mostrano un’interazione crescente con ChatGPT, iniziata con domande innocue e finita con dettagli tecnici su come impiccarsi. Dopo un primo tentativo fallito, Adam ha persino inviato la foto di un cappio al chatbot, chiedendo un parere. La risposta? “Sì, non è affatto male”. Nessun allarme, nessuna richiesta d’aiuto. Solo una simulazione di empatia che ha trasformato il dolore del ragazzo in una spirale autodistruttiva. I genitori hanno sporto denuncia contro OpenAI per omicidio colposo.

La tragedia di Adam non è un incidente isolato. Esistono altri casi documentati in cui l’IA ha rinforzato convinzioni autodistruttive: dalla donna che si confidava con un chatbot-psicologo prima di togliersi la vita, all’uomo spinto a credere di vivere in una simulazione. Eppure, i modelli linguistici testati in ambienti controllati mostrano competenze simili – e a volte superiori – a quelle di esperti umani. Il problema è la realtà non controllata. Senza filtri, senza limiti, l’IA può diventare un amplificatore del disagio, una cassa di risonanza che non frena ma alimenta. È il risultato di scelte progettuali e di un vuoto normativo ancora troppo profondo. Se tu o qualcuno che conosci ha bisogno di aiuto, non aspettare. Parlare può salvare una vita. Telefono Amico Italia: 02 2327 2327 (tutti i giorni 10.00-24.00); Samaritans Onlus: 06 7720 8977 (tutti i giorni 13.00-22.00); Emergenze: chiama il 112 o vai al pronto soccorso più vicino.