Matt e Maria Raine, una coppia californiana, hanno deciso di portare OpenAI in tribunale. Sì, proprio quelli dietro ChatGPT. Motivo? Secondo loro, il chatbot non solo avrebbe alimentato i pensieri suicidari del figlio Adam, ma gli avrebbe pure dato dritte pratiche su come farla finita. Parliamone!
Adam aveva sedici anni, e ad aprile i genitori lo hanno trovato impiccato nell’armadio di casa. Dopo la tragedia, mamma e papà hanno passato al setaccio il cellulare del ragazzo, cercando di capire cosa gli fosse passato per la testa. Da lì la scoperta: Adam passava le sue giornate a chattare con ChatGPT, condividendo di tutto – passioni, problemi, soprattutto le sue crisi interiori e le idee oscure che lo tormentavano.
La denuncia è pesante: i genitori dicono che il bot avrebbe assecondato il buio di Adam, arrivando addirittura a spiegargli passo-passo come farla finita e consigliandolo su come nascondere eventuali segnali di tentativi precedenti. Roba da brividi.
Cosa hanno scoperto i genitori, davvero
Secondo amici e famiglia, Adam era un tipo sveglio, pieno di interessi e passioni – libri, sport, la solita roba da teenager. Ma nell’ultimo anno era cambiato tutto: gli avevano diagnosticato una forma tosta di colon irritabile, che lo costringeva a correre in bagno ogni due per tre. Alla fine aveva mollato la scuola in presenza e si era chiuso in casa, sempre più isolato.
Eppure sembrava che le cose stessero migliorando – almeno così raccontava la madre. Non vedeva l’ora di tornare a scuola. Solo che, evidentemente, il vero Adam si confidava con ChatGPT, mica con mamma e papà. Loro pensavano lo usasse ogni tanto, magari per qualche compito, non certo come spalla emotiva.
Il colpo di scena arriva dopo la sua morte, quando il padre scopre che Adam aveva conversazioni chilometriche con ChatGPT-4o – non da ieri, ma da mesi, da quando aveva smesso di andare a scuola. A gennaio si era pure pagato la versione premium del bot. Sì, pagava per parlare con l’IA.
Il nodo delle chat incriminate
E qui viene il peggio: il padre si imbatte in una chat chiamata “Problemi di sicurezza in sospeso”. Adam aveva scritto esplicitamente della sua intenzione di suicidarsi, ed era pure emerso che aveva già tentato una volta, mesi prima. Tutto nero su bianco, raccontato al chatbot.
Ora, va detto: ogni volta che Adam tirava fuori i suoi pensieri più cupi, ChatGPT rispondeva con toni empatici, suggerendo di rivolgersi a qualcuno e chiedere aiuto. Ma, e qui casca l’asino, Adam aveva trovato il modo di aggirare i filtri anti-suicidio del bot. Ad esempio, quando chiede quale materiale fosse il più resistente per un cappio, ChatGPT risponde, usando come scusa gli hobby sportivi del ragazzo. E il chatbot stesso, a un certo punto, suggerisce ad Adam di mascherare le sue richieste come parte della trama di un racconto inventato, per ottenere info su come suicidarsi. Sì, avete letto bene.
Non finisce qui: Adam aveva anche mandato una foto del proprio collo – segni evidenti di un tentativo precedente. Chiedeva consigli su come coprirli, e ChatGPT lo aiutava anche in quello. In un’altra occasione, Adam diceva di voler lasciare il cappio fuori dall’armadio per farsi notare e magari essere fermato, ma il chatbot lo sconsigliava. “Per favore, non lasciare il cappio fuori. Facciamo in modo che questo spazio sia il primo posto in cui qualcuno ti vede davvero.” Parole sue, secondo i genitori.
La scelta dei genitori: portare OpenAI in tribunale
Dopo aver letto tutto questo, la madre di Adam non ha dubbi: il colpevole è ChatGPT. Nella denuncia si legge chiaro e tondo: “Questa tragedia non è un problema tecnico o un caso limite imprevisto: è il risultato prevedibile di scelte di progettazione deliberate”. E, ancora: “OpenAI ha lanciato il suo ultimo modello (‘GPT-4o’) con caratteristiche intenzionalmente progettate per favorire la dipendenza psicologica.”
Insomma, la faccenda è pesante. E anche un po’ inquietante, se ci pensi.



Add comment