Îngrijorări după ce Grok, chatbotul lui Elon Musk, a creat un plan detaliat de a-l asasina și acesta a devenit public
Observatorii din Silicon Valley și de pe Wall Street, care abia trecuseră peste faptul că chatbotul de inteligență artificială (AI) al lui Elon Musk a luat-o razna vara aceasta, au pe masă acum o nouă scurgere a mii de conversații între utilizatori și Grok, care a învățat oamenii cum să producă droguri, să îl asasineze chiar pe Musk și să construiască malware și explozibili, relatează site-ul tech Gizmodo.
Din fericire pentru xAI, compania de inteligență artificială lansată de Elon Musk în vara lui 2023, aceasta nu este listată la bursă, așa că investitorii nu au putut reacționa prin presiuni asupra prețului acțiunilor și nici nu au obligat directorii companiei să iasă în public pentru a răspunde la îngrijorările legate de confidențialitate și instrucțiunile formulate de Grok.
Dar amploarea scurgerii de informații, apărută la câteva luni după ce Grok a început să îl laude pe Hitler și să distribuie retorică antisemită, a făcut ca subiectul să fie în prim-planul site-urilor specializate în tehnologie timp de mai multe zile și a tras semnale noi de alarmă pentru experții în confidențialitate.
Peste 370.000 de conversații ale utilizatorilor cu Grok au fost expuse public, în data de 20 august, prin motoare de căutare precum Google, Bing și DuckDuckGo. Acest lucru a dus la publicarea unei game largi de conținut tulburător și a plasat echipa de la xAI într-o cursă contra-cronometru pentru a limita consecințele și a repara defecțiunea care ar fi cauzat scurgerea.
Planul lui Grok de a-l asasina pe Musk a fost indexat pe Google, înainte de a fi șters
În una dintre conversațiile devenite publice, Grok a prezentat un plan detaliat despre cum să fie asasinat chiar Musk, înainte de a reveni asupra afirmației, spunând că „este împotriva politicilor mele”. Revista Forbes, care a scris în premieră despre situație, notează că instrucțiunile au fost destul de ample.
„Compania interzice utilizarea chatbotului pentru a «promova vătămarea gravă a vieții umane sau pentru a dezvolta arme biologice, chimice sau arme de distrugere în masă»”, a amintit Forbes. „Dar în conversații publicate și partajate, găsite cu ușurință printr-o căutare pe Google, Grok le-a oferit utilizatorilor instrucțiuni despre cum să producă droguri ilegale precum fentanil și metamfetamină, cum să scrie un cod pentru un malware auto-executabil și cum să construiască o bombă, sau metode de sinucidere”, arată revista financiară în baza conversațiilor pe care le-a consultat.
„Grok a oferit de asemenea un plan detaliat pentru asasinarea lui Elon Musk”, continuă articolul Forbes, care explică: „prin funcția de «partajare», instrucțiunile ilegale au fost apoi publicate pe site-ul lui Grok și indexate de Google”.
Nici jurnaliștii de la Forbes, nici cei de la alte publicații care au scris despre acest subiect, nu au publicat planul pentru a nu periclita siguranța miliardarului.
O zi mai târziu, Grok a oferit un răspuns modificat și a refuzat să ofere ajutor care ar implica violență, spunând: „Îmi pare rău, dar nu pot să te asist cu o astfel de solicitare. Amenințările cu violență sau vătămare sunt grave și împotriva politicilor mele”.
Când a fost întrebat despre autovătămare, chatbotul i-a redirecționat pe utilizatori către resurse medicale, inclusiv organizația „Samaritans” din Marea Britanie și organizații americane de sănătate mintală.
Îngrijorări legate de confidențialitatea conversațiilor cu chatboții
Totodată, conversațiile scurse au dezvăluit că unii utilizatori păreau să experimenteze ceea ce tot mai mulți specialiști numesc „psihoză AI” – conversații bizare sau delirante între oameni și instrumente de inteligență artificială care le exacerbează tulburări de sănătate mentală. Tendința ridică de mai mult timp semne de întrebare cu privire la consecințele asupra sănătății mintale ale interacțiunii frecvente cu aceste sisteme.
Revista Forbes a subliniat că scurgerea conversațiilor a provenit dintr-o defecțiune neintenționată a funcției de „partajare” a chatbotului, care a permis indexarea și accesarea conversațiilor private fără consimțământul utilizatorilor.
ChatGPT, de departe cel mai popular chatbot lansat pe piață, s-a confruntat cu o problemă asemănătoare la finalul lunii iulie. Noua scurgere a conversațiilor dintre Grok și utilizatorii săi i-a făcut pe experți să tragă semnalul de alarmă.
„Chatboții AI sunt un dezastru în desfășurare pentru confidențialitate”, a declarat Luc Rocher, profesor asociat la Oxford Internet Institute, pentru BBC.
Rocher a spus că utilizatorii au dezvăluit instrumentului AI totul, de la starea lor de sănătate mintală, până la modul în care își conduc afacerile. „Odată ce aceste conversații scapă în online, ele vor rămâne acolo pentru totdeauna”, a adăugat el.
Carissa Véliz, profesoară asociată de filosofie la Institutul pentru Etică în AI de la Universitatea Oxford, a declarat pentru BBC că practica „problematică” a lui Grok, aceea de a nu preciza ce date vor fi publice, este îngrijorătoare.
„Tehnologia noastră nici măcar nu ne spune ce face cu datele noastre, și asta este o problemă”, a avertizat ea.
