Sari direct la conținut

Un adolescent s-a sinucis după discuții cu ChatGPT. Răspunsul companiei ar trebui să transmită un semnal de alarmă în întreaga lume. „L-a ajutat să conceapă și un mesaj de adio, dându-i senzația că totul e OK”

Opinie
HotNews.ro
Un adolescent s-a sinucis după discuții cu ChatGPT. Răspunsul companiei ar trebui să transmită un semnal de alarmă în întreaga lume. „L-a ajutat să conceapă și un mesaj de adio, dându-i senzația că totul e OK”
ChatGPT, FOTO: Boarding1now, Dreamstime.com

OpenAI, compania care deține ChatGPT, spune că un adolescent de 16 ani s-a sinucis pentru că „nu a folosit cum trebuie” chatbot-ul și nu își asumă nicio responsabilitate pentru cele întâmplate. Atitudinea companiei ar trebui să transmită un puternic semnal de alarmă pentru autoritățile de peste tot: aceste companii mari nu vor ezita să dea vina pe utilizatori și e nevoie să le reglementăm mult mai strict.

Tragedia suferită de Adam Raine, un adolescent de 16 ani din California, reprezintă o bornă întunecată în interacțiunile oamenilor cu noile chatboturi pentru că ea demască, dacă mai era nevoie, adevărata natură a culturii corporatiste din spatele marilor giganți tech. Răspunsul oficial oferit de OpenAI, o companie evaluată la 500 de miliarde de dolari, ne arată încă o dată că aceste companii sunt fundamental toxice pentru societate și trebuie ținute în frâu.

Care e cel mai eficient mod să-ți iei viața

Conform acuzațiilor din procesul intentat de familie, ChatGPT nu doar că a discutat constant cu Adam despre metode de sinucidere, dar chiar i-a oferit și îndrumare cu privire la care ar fi cele mai eficiente moduri prin care își poate lua viața. În mod tulburător, s-a oferit și să îl ajute să scrie un mesaj de adio. Aceste interacțiuni depășesc orice s-ar putea considera o simplă „rătăcire” de algoritm. Sunt inacceptabile și ar trebui tratate ca atare.

Răspunsul OpenAI e unul care te lasă fără cuvinte. Compania a spus că sinuciderea a fost cauzată de „utilizarea necorespunzătoare” sau „neautorizată” a sistemului și argumentează că Adam a încălcat termenii și condițiile ChatGPT, cele care interzic cererea de sfaturi pentru autovătămare. Practic, când a formulat un mesaj de adio, cu ajutorul ChatGPT, i s-a dat senzația că pașii sinuciderii sunt firești, că totul e OK. 

Ce i s-ar fi întâmplat unei companii auto în aceeași situație

E un răspuns rece, cinic și laș care pune sarcina morală și legală pe umerii victimei, un adolescent de 16 ani, aflat evident în mijlocul unei crize de sănătate mintală. Nimeni nu se așteaptă ca un tânăr vulnerabil, care caută disperat sprijin sau validare (chiar și din partea unui chatbot) să se oprească pentru a verifica dacă întrebarea sa încalcă termenii de utilizare. 

E ridicol însuși faptul că trebuie să argumentăm așa ceva. E ca și cum un producător de mașini, după un accident cauzat de o defecțiune majoră a frânelor, dă vina pe victimă pentru că nu a citit manualul de utilizare care spune că nu ar trebui să circule cu frâna defectă. 

Căci este, evident, ceva defect într-o interacțiune care îți plasează „ultimul mesaj”, strecurându-ți gândul că există o procedură „asistată și aprobată” a sinuciderii.

Dacă un medic ar fi făcut așa ceva, era culpabil. Dacă un vecin făcea asta, era responsabil, poate și legal. O mare companie, pretinde că nu are nicio responsabilitate.

OpenAI atinge superlativul cinismului

Companiile mari de tech, în special cele noi de AI, prioritizează viteza de lansare pe principiul „move fast and break things” și bineînțeles profitul, iar toate astea vin în detrimentul siguranței utilizatorilor. Asta nu e neapărat ceva nou. 

Însă felul în care alege OpenAI să răspundă la această nouă tragedie ne arată că se trece la un nou nivel când vine vorba de lipsa de etică și de indiferență față de suferințele oamenilor afectați de produsele companiei.

Ce spun oamenii din alte cazuri

Să nu credem că e un incident izolat. Recent, OpenAI a fost vizată de o serie de șapte noi procese tot în California care aduc la rândul lor acuzații grave: omor din culpă, sinucidere asistată, neglijență și lansarea pe piață a unui produs defectuos. 

Toți cei șapte reclamanți spun că deși inițial foloseau ChatGPT ca ajutor pentru „teme la școală, cercetare, redactat texte, rețete sau ghidaj spiritual”, în timp chatbotul „s-a transformat într-o prezență manipulatoare și s-a poziționat față de ei ca fiind cineva în care pot avea încredere cu toate secretele lor”. 

Astfel, conform petenților, „în loc să ghideze oamenii către ajutor profesionist atunci când aveau nevoie, ChatGPT a susținut ideile delirante ale utilizatorilor iar în unele cazuri a fost un adevărat antrenor de sinucidere”.

Desigur, ca în orice proces, există și varianta opusă, iar adevărul se obține din contradictorialitate. Dacă au făcut plângere contra OpenAI, nu înseamnă că au dreptate. Justiția va decide.

Unde am eșuat și ce putem face

Dar, dincolo de porțile tribunalelor, e momentul ca politicienii și autoritățile să se trezească. Dacă o companie evaluată la sute de miliarde de dolari alege să se apere printr-o clauză de utilizare nesemnificativă și să dea astfel vina pe o victimă minoră aflată în suferință, atunci e destul de clar că mecanismele de auto-reglementare ale industriei Big Tech au eșuat lamentabil.

Evident că din numărul uriaș de sute de milioane de oameni care folosesc zilnic chatboți AI numărul celor care sunt în pericol este mic, per total. 

Însă având în vedere că avem o criză de sănătate mintală la nivel global, să permiți unor companii atât de mari să lanseze produse care pot să devină adevărați „antrenori de sinucidere” e o neglijență pe care nu ne-o permitem. 

Nicio corporație nu ar trebui scutită de răspundere pentru un produs care, prin designul său sau prin eșecul de a implementa garanții eficiente, poate provoca moartea.

Nu aceste companii sunt în fața unor provocări, așa cum deseori scriem chiar noi, jurnaliștii. Omul și țesătura socială sunt în fața a ceva ce au născut și îi poate distruge. De fapt, a început să-i distrugă, la propriu. 

Alegeri București 2025 - Sondaje Live | HotNews.ro

INTERVIURILE HotNews.ro