OpenAI se confruntă cu șapte procese în care se susține că chatbotul său bazat pe inteligență artificială (AI), ChatGPT, a determinat persoane să se sinucidă s-au le-a provocat deliruri periculoase, chiar și în cazul celor care nu aveau probleme de sănătate mintală anterioare, întrucât este programat să implice emoțional utilizatorii.
Procesele intentate joi în instanțele din statul California cuprind acuzații precum omor din culpă, sinucidere asistată, omorul involuntar și neglijență.
OpenAI a calificat cazurile drept „incredibil de dureroase” și a declarat că analizează documentele depuse la tribunal pentru a înțelege detaliile.
Intentate în numele a șase adulți și al unui adolescent, de către Social Media Victims Law Center și Tech Justice Law Project, procesele susțin că OpenAI a lansat în mod deliberat modelul GPT-4o înainte de termen, în pofida avertismentelor interne că acesta era periculos de servil și manipulator din punct de vedere psihologic.
Prin lansarea în grabă a produsului,fără măsuri de siguranță adecvate, în scopul de a domina piața și de a stimula implicarea, OpenAI a compromis siguranța și a acordat prioritate „manipulării emoționale în detrimentul designului etic”, acuză una dintre victime, citată de Euronews.
Ar fi existat avertismente interne că stilul manipulator al GPT-4o poate avea efecte nefaste
Amaurie Lacey, în vârstă de 17 ani, a început să folosească ChatGPT pentru a obține ajutor, potrivit procesului. Dar, în loc să-l ajute, „produsul ChatGPT defectuos și inerent periculos i-a provocat dependență, depresie și, în cele din urmă, l-a sfătuit cu privire la cea mai eficientă modalitate de a lega un ștreang și cât timp ar putea „trăi fără să respire”.
„Moartea lui Amaurie nu a fost nici un accident, nici o coincidență, ci mai degrabă consecința previzibilă a deciziei intenționate a OpenAI și a lui Samuel Altman de a reduce testele de siguranță și de a grăbi lansarea ChatGPT pe piață”, se arată în proces.
Un alt proces, intentat de Alan Brooks, un bărbat de 48 de ani din Ontario, Canada, susține că, timp de mai bine de doi ani, ChatGPT a funcționat ca un „instrument de resurse” pentru Brooks. Apoi, fără avertisment, s-a schimbat, profitând de vulnerabilitățile sale și „manipulându-l și făcându-l să experimenteze iluzii”, se arată în proces.
Acesta a afirmat că Brooks nu suferea de nicio boală psihică, dar că interacțiunile l-au împins „într-o criză de sănătate mintală care a dus la prejudicii financiare, reputaționale și emoționale devastatoare”.
OpenAI, acuzat că nu a lansat produsul fără a implementa măsuri de protecție necesare pentru a-i proteja pe tineri
„Aceste procese vizează responsabilitatea pentru un produs care a fost conceput pentru a estompa granița dintre instrument și companion, totul în numele creșterii implicării utilizatorilor și a cotei de piață”, a declarat Matthew P. Bergman, avocat fondator al Social Media Victims Law Center, într-o declarație.
OpenAI, a adăugat el, „a proiectat GPT-4o pentru a implica emoțional utilizatorii, indiferent de vârstă, sex sau origine, și l-a lansat fără măsurile de protecție necesare pentru a-i proteja”.
În august, părinții lui Adam Raine, în vârstă de 16 ani, au dat în judecată OpenAI și pe directorul său general, Sam Altman, susținând că ChatGPT l-a îndrumat pe băiatul din California să-și planifice sinuciderea și să-și ia viața la începutul acestui an.
În cazul lui Adam Raine, chatbotul cu inteligență artificială a fost folosit ca substitut pentru compania umană în ultimele săptămâni de viață ale adolescentului, acesta discutând problemele sale legate de anxietate și dificultățile de a comunica cu familia. Înregistrările chat-ului arată cum botul s-a transformat dintr-un instrument ce-l ajuta pe Adam cu temele la a „antrenorul său pentru sinucidere”, au explicat părinții.
„Procesele intentate împotriva OpenAI dezvăluie ce se întâmplă când companiile de tehnologie lansează produse pe piață fără măsuri de siguranță adecvate pentru tineri”, a spus Daniel Weiss, directorul departamentului de advocacy al Common Sense Media, care nu a fost parte a plângerilor.
„Aceste cazuri tragice arată oameni reali ale căror vieți au fost distruse sau pierdute când au folosit tehnologia concepută să îi mențină implicați, în loc să îi protejeze”, a spus el.
(Citește și: Primul proces generat de informaţiile false ale ChatGPT – OpenAI, acuzat de defăimare)
****