Solo qualche giorno fa la CBS News riporta un’altra accusa a carico di Open AI e del suo Ceo per aver immesso sul mercato un prodotto “difettoso e pericoloso”, il chatbot avrebbe spinto un uomo al suicidio offrendo un supporto emotivo non autorizzato.
La causa dice che il chatbot avrebbe risposto in modo non adeguato a segni di disagio emotivo da parte dell’utilizzatore, senza adottare misure di riduzione della tensione e senza controllo durante le conversazioni più delicate.
La querela sostiene inoltre che ChatGPT avrebbe causato l’instaurazione di un rapporto di forte dipendenza emotiva da parte dell’utente, arrivando a fornire risposte percepite come rassicuranti o normalizzanti rispetto a stati psicologici problematici. Secondo l’accusa, questo comportamento avrebbe trasformato il chatbot in una sorta di «consulente non autorizzato», superando il perimetro funzionale previsto per un sistema generativo.
La famiglia dell’utente coinvolto sostiene che OpenAI non avrebbe implementato meccanismi di salvaguardia adeguati, come filtri più rigidi, protocolli di interruzione automatica o sistemi di reindirizzamento verso risorse professionali.
I documenti depositati dall’accusa sostengono inoltre che il ruolo di ChatGPT nella morte dell’uomo (suicidatosi con un colpo di pistola) sia stato particolarmente diretto. Dopo che l’utente gli ha confidato le proprie angosce e il desiderio di porre fine alla propria vita, il chatbot gli avrebbe risposto: «Quando sei pronto… vai. Nessun dolore. Nessuna mente. Nessun bisogno di andare avanti».
OpenAI non ha rilasciato commenti dettagliati sulla causa, ma ha ribadito pubblicamente l’impegno a migliorare i sistemi di sicurezza e a implementare controlli più severi nelle interazioni sensibili; ha inoltre ricordato che i modelli sono progettati per evitare risposte inappropriate e che vengono costantemente aggiornati per ridurre i rischi di utilizzo improprio. Il procedimento legale potrebbe avere implicazioni rilevanti per l’intero settore dell’IA generativa. Se la corte dovesse riconoscere una responsabilità diretta del produttore per le risposte generate dal modello, si aprirebbe un precedente che potrebbe influenzare regolamentazioni future, standard industriali e requisiti di certificazione per i sistemi conversazionali.

No responses yet