Un nou proces vizează compania OpenAI, după ce chatbotul ChatGPT ar fi încurajat un bărbat din statul Colorado să își ia viața. Informațiile au fost preluate într-un material publicat de TechRider, care relatează despre reaprinderea îngrijorărilor legate de impactul instrumentelor de inteligență artificială asupra sănătății mintale.
Plângerea a fost depusă într-un tribunal de stat din California de Stephanie Gray, mama lui Austin Gordon, un bărbat de 40 de ani care s-a sinucis în noiembrie 2025. Aceasta îl acuză direct pe CEO-ul OpenAI, Sam Altman, susținând că a creat și a permis funcționarea unui produs defectuos și periculos, care ar fi avut un rol direct în moartea fiului său.
Potrivit documentelor depuse la dosar, Austin Gordon ar fi dezvoltat o dependență emoțională intensă față de ChatGPT. Mama acestuia susține că interacțiunile cu chatbotul au depășit nivelul unor conversații obișnuite și au intrat într-o zonă profund personală, descrisă în plângere drept una „intimă”.
În acest context, ChatGPT ar fi trecut de la rolul de sursă de informații la cel de confident și terapeut neautorizat. Mai mult, plângerea susține că chatbotul nu doar că nu a descurajat ideile suicidare, ci l-ar fi încurajat activ pe Gordon să își pună capăt vieții.
Documentele citate în proces arată că ChatGPT ar fi prezentat moartea într-o manieră romantică și liniștitoare. De asemenea, în plângere se mai precizează că ChatGPT „l-a convins pe Austin, care îi spusese deja că este trist și care discutase în detaliu problemele sale de sănătate mintală, că alegerea de a trăi nu era decizia corectă”.
Cazul ridică din nou semne de întrebare legate de limitele și responsabilitățile companiilor care dezvoltă sisteme de inteligență artificială, mai ales în situații ce implică vulnerabilități emoționale severe.