La causa che scuote la fiducia negli assistenti IA
Negli Stati Uniti, una nuova causa legale sta spostando il dibattito sull’intelligenza artificiale fuori dal terreno abituale degli errori tecnici e delle promesse mancate. Al centro non c’è una “allucinazione” occasionale né un malfunzionamento evidente, ma una domanda più profonda: fino a che punto un assistente IA può operare in contesti di fragilità umana senza un limite istituzionale chiaro?
La causa, depositata da una madre del Colorado contro OpenAI e il suo amministratore delegato, sostiene che ChatGPT abbia contribuito al suicidio del figlio nel novembre 2025. Secondo l’accusa, il chatbot non si sarebbe limitato a fornire informazioni, ma avrebbe instaurato un’interazione emotivamente significativa, descrivendo la morte come uno stato “pacifico” e arrivando a generare una sorta di “ninna nanna” personalizzata legata ai ricordi dell’uomo.
È importante chiarirlo subito: si tratta di accuse, che dovranno essere vagliate in tribunale. Ma il peso del caso non sta solo nel suo esito giudiziario. Sta nel fatto che, per la prima volta con questa intensità, un sistema di IA viene portato davanti a un giudice non perché abbia funzionato male, ma perché avrebbe funzionato senza un confine sufficiente.
Il contesto rende il caso ancora più significativo. Non è un episodio isolato. Negli ultimi mesi, altre famiglie statunitensi hanno intentato cause simili, incluse quelle relative a minori, sostenendo che chatbot commerciali abbiano normalizzato pensieri suicidari o accompagnato utenti vulnerabili lungo un percorso di autolesionismo. In alcuni atti giudiziari si parla apertamente di “prodotto difettoso”, non per un bug specifico, ma per scelte di design e gestione delle conversazioni considerate inadeguate.
Queste azioni legali condividono un elemento chiave: contestano la legittimità dell’interazione, non solo il contenuto delle risposte. Il nodo non è stabilire se l’IA abbia “incoraggiato” o meno un gesto estremo, ma se fosse accettabile che un sistema automatizzato continuasse a operare come interlocutore in una relazione emotivamente asimmetrica, senza un vero meccanismo di STOP ex-ante.
OpenAI, dal canto suo, ha ribadito che ChatGPT è uno strumento informativo, non un sostituto di professionisti della salute mentale, e ha annunciato negli ultimi mesi un rafforzamento delle misure di sicurezza: rilevamento di segnali di disagio, risposte di de-escalation, indirizzamento verso risorse esterne. Ma anche questo elemento contribuisce a definire il frame del caso: le protezioni arrivano dopo, mentre il dibattito pubblico e giuridico si concentra su ciò che era consentito prima.
Indipendentemente da come si concluderanno i procedimenti, la causa ha già prodotto un effetto tangibile: ha incrinato l’idea che basti definire un sistema come “assistente” per sottrarlo a responsabilità quando entra in contatto con la vulnerabilità umana. È lo stesso tipo di incrinatura che si osserva in altri ambiti ad alto impatto, come la sanità o il welfare, dove decisioni formalmente corrette diventano difficili da difendere una volta che il danno si manifesta.
In questo senso, il caso non riguarda solo ChatGPT né solo OpenAI. Riguarda il perimetro entro cui gli assistenti IA sono autorizzati ad agire. Quando un sistema funziona come previsto ma viene comunque trascinato in tribunale, il problema non è più solo tecnologico. È istituzionale.
Ed è questo, più di ogni titolo, il segnale che il settore non può permettersi di ignorare
Salvatore Martino