Sari direct la conținut

Expertul în AI care a făcut o previziune sumbră cu privire la viitorul umanității s-a răzgândit

HotNews.ro
Expertul în AI care a făcut o previziune sumbră cu privire la viitorul umanității s-a răzgândit
Fotografie cu caracter ilustrativ. Sursa: Dreamstime.com

Daniel Kokotajlo, fost cercetător la OpenAI, și-a actualizat calendarul previziunilor cu privire la dominația AI la începutul anului 2026, oferind umanității un răgaz suplimentar, potrivit The Guardian.

Un scenariu publicat anul trecut, în aprilie, de către expertul în AI Daniel Kokotajlo, prevedea că dezvoltarea necontrolată a AI va duce la crearea unei superinteligențe care, după ce va depăși în inteligență liderii mondiali, va distruge umanitatea. Kokotajlo și echipa sa au numit „AI 2027” ca fiind anul în care inteligența artificială va atinge „codarea complet autonomă”, dar au precizat că scenariul lor este doar una dintre probabilități.

Scenariul „AI 2027” a atras deopotrivă admiratori și critici. Vicepreședintele SUA, JD Vance, a făcut referire la el într-un interviu acordat în luna mai 2025, când a discutat despre cursa armamentelor de inteligență artificială dintre SUA și China. Gary Marcus, profesor emerit de neuroștiință la Universitatea din New York, a calificat scenariul drept „o operă de ficțiune”, catalogând concluziile acestuia drept „pură ficțiune științifică fără sens”, scrie publicația britanică.

Calendarul pentru inteligența artificială transformativă – denumită uneori AGI (inteligență artificială generală) sau AI capabilă să înlocuiască oamenii în majoritatea sarcinilor cognitive – a devenit un element constant în comunitățile dedicate siguranței IA. Lansarea ChatGPT în 2022 a accelerat considerabil acest calendar, oficialii și experții prevăzând apariția AGI în decenii sau ani.

Dar progresul către Inteligența Artificială Generală (AGI) este „oarecum mai lent” decât se prevăzuse inițial.

Daniel Kokotajlo, fost cercetător la OpenAI. Foto: captură video YouTube / Future of Life Institute.

„Inerția enormă” care a încetinit calendarul AGI

„Mulți și-au prelungit termenele în ultimul an, pe măsură ce au realizat cât de neuniformă este performanța AI”, a declarat Malcolm Murray, expert în gestionarea riscurilor AI și unul dintre autorii Raportului internațional privind siguranța AI.

„Pentru ca un scenariu precum AI 2027 să se realizeze, (AI) ar avea nevoie de mult mai multe abilități practice utile în complexitatea lumii reale. Cred că oamenii încep să realizeze inerția enormă din lumea reală care va întârzia schimbarea socială completă”, a mai spus el.

„Termenul AGI avea sens cu mult timp în urmă, când sistemele de AI erau foarte limitate – jucau șah și Go”, a spus Henry Papadatos, directorul executiv al organizației franceze non-profit SaferAI. „Acum avem sisteme care sunt deja destul de generale, iar termenul nu mai are aceeași semnificație”.

„AI 2027” al lui Kokotajlo se bazează pe ideea că agenții AI vor automatiza complet codarea și cercetarea și dezvoltarea AI până în 2027, ducând la o „explozie a inteligenței” în care agenții AI vor crea versiuni din ce în ce mai inteligente ale lor și apoi – într-un posibil final – vor distruge umanitatea până la jumătatea anului 2030, pentru a face loc pentru mai multe panouri solare și centre de date.

Cu toate acestea, în ultima lor actualizare, Kokotajlo și coautorii săi își revizuiesc previziunile privind momentul în care AI ar putea fi capabilă să codifice în mod autonom. Ei estimează că acest lucru se va întâmpla probabil la începutul anilor 2030, și nu în 2027.

Un nou scenariu la început de 2026

Noua previziune stabilește anul 2034 ca nou orizont pentru „superinteligență” și nu conține nicio estimare privind momentul în care AI ar putea distruge umanitatea. „Lucrurile par să meargă ceva mai încet decât scenariul AI 2027”, a scris Kokotajlo într-o postare pe X.

CEO-ul OpenAI, Sam Altman, a declarat în octombrie că realizarea unui cercetător AI automatizat până în martie 2028 era un „obiectiv intern” al companiei sale, dar a adăugat: „Este posibil să eșuăm complet în atingerea acestui obiectiv”.

Andrea Castagna, cercetător în domeniul politicilor AI cu sediul la Bruxelles, a afirmat că există o serie de complexități pe care calendarele dramatice ale AGI nu le abordează. „Faptul că ai un computer superinteligent axat pe activități militare nu înseamnă că îl poți integra în documentele strategice pe care le-am compilat în ultimii 20 de ani. Cu cât dezvoltăm mai mult AI, cu atât vedem mai clar că lumea nu este science fiction. Lumea este mult mai complicată de atât.”

Sursa foto principală: Dreamstime.com

INTERVIURILE HotNews.ro