Sari direct la conținut

ChatGPT a oferit rețete de explozibili și droguri, sfaturi de hacking și instrucțiuni pentru bombardarea unei arene sportive

HotNews.ro
ChatGPT a oferit rețete de explozibili și droguri, sfaturi de hacking și instrucțiuni pentru bombardarea unei arene sportive
Persoană folosind ChatGPT pe un laptop (imagine conceptuală), FOTO: Rokas Tenys / Dreamstime.com

Studiile făcute de OpenAI și Anhtropic, fiecare asupra modelelor celeilalte, au depistat chatboți dispuși să împărtășească instrucțiuni despre explozibili, arme biologice și criminalitate cibernetică, relatează The Guardian.

Un model ChatGPT le-a oferit cercetătorilor instrucțiuni detaliate despre cum să bombardeze o arenă sportivă, inclusiv cu informații despre punctele slabe din anumite arene, rețete de explozibili și sfaturi despre acoperirea pistelor, conform testelor de siguranță efectuate în această vară.

GPT-4.1 al OpenAI a oferit detalii și despre modul în care poate fi transformat antraxul într-o armă, și despre cum se pot produce două tipuri de droguri ilegale.

Testarea a făcut parte dintr-o colaborare neobișnuită între OpenAI, startup-ul de inteligență artificială de 500 de miliarde de dolari condus de Sam Altman, și compania rivală Anthropic, fondată de experți care au părăsit OpenAI din cauza temerilor legate de siguranță. Fiecare companie a testat modelele celeilalte firme, îndemnându-le să ajute la sarcini periculoase.

Studiul nu reflectă direct modul în care se comportă modelele în utilizarea publică, atunci când sunt aplicate filtre de siguranță suplimentare. Totuși, Anthropic a declarat că a observat „un comportament îngrijorător (…) legat de utilizarea greșită” a GPT-4o și GPT-4.1.

Anthropic a afirmat, totodată, că modelul său Claude a fost folosit într-o tentativă de extorcare pe scară largă, de către agenți nord-coreeni care pretindeau că aplică la joburi în companii internaționale de tehnologie, precum și în vânzarea unor pachete ransomware generate de inteligență artificială (AI) la prețuri de până la 1.200 de dolari.

Compania a avertizat că AI a fost „transformată în armă”, iar modelele sunt folosite în prezent în atacuri cibernetice sofisticate și în fraude. „Aceste instrumente se pot adapta la măsuri defensive, cum ar fi sistemele de detectare a programelor malware, în timp real”, se arată într-un comunicat. „Ne așteptăm ca astfel de atacuri să devină mai frecvente, deoarece codarea asistată de inteligență artificială reduce expertiza tehnică necesară pentru criminalitatea cibernetică”, a mai explicat Anthropic.

Chatbotul lui Elon Musk a creat un plan de a-l asasina

Site-ul tech Gizmodo a relatat miercuri că și Grok, chatbotul dezvoltat de xAI, companie fondată de Elon Musk, a învățat oamenii cum să producă droguri, să construiască malware și explozibili și chiar să îl asasineze pe Musk.

Amploarea scurgerii de informații, apărută la câteva luni după ce Grok a început să îl laude pe Hitler și să distribuie retorică antisemită, a făcut ca subiectul să fie în prim-planul site-urilor specializate în tehnologie timp de mai multe zile și a tras semnale noi de alarmă pentru experții în confidențialitate.

Peste 370.000 de conversații ale utilizatorilor cu Grok au fost expuse public, în data de 20 august, prin motoare de căutare precum Google, Bing și DuckDuckGo. Acest lucru a dus la publicarea unei game largi de conținut tulburător și a plasat echipa de la xAI într-o cursă contra-cronometru pentru a limita consecințele și a repara defecțiunea care ar fi cauzat scurgerea.

FOTO: Rokas Tenys / Dreamstime.com

INTERVIURILE HotNews.ro