Unul din cei 3 „nași ai A.I.” lansează un avertisment fără precedent: „Există persoane care își pot dori să abuzeze de această putere”
Specialistul în știința calculatoarelor Yoshua Bengio, unul dintre cei trei așa-ziși „nași ai inteligenței artificiale (A.I.)”, a lansat un avertisment sumbru despre posibilele efecte ale acestei tehnologii tot mai puternice, dar și despre faptul că oamenii care o controlează pot fi la fel de periculoși, relatează futurism.com.
Bengio, profesor la Universitatea Montreal și șeful Institutului pentru Algoritmi de Învățare din Montreal, a dezvăluit că are îngrijorări serioase cu privire la tehnologia pentru care a adus contribuții importante, mergând până într-acolo în a spune că persoane „cu multă putere” ar putea chiar să dorească să vadă umanitatea înlocuită de mașinării.
„Este cu adevărat important să ne proiectăm într-un viitor în care avem mașinării care sunt la fel de deștepte ca noi din multe puncte de vedere, și ce ar putea însemna asta pentru societate”, a declarat el într-un interviu acordat CNBC la summitul One Young World din Montreal, o conferință la care sunt invitați lideri tineri preocupați de abordarea problemelor cu care lumea se confruntă în prezent.
El a estimat, de asemenea, că mașinăriile ar putea avea în curând aceleași abilități cognitive ca și oamenii, referindu-se la Inteligența Artificială Generală (A.G.I.), acea etapă preconizată din dezvoltarea A.I. în care ea ajunge la același nivel sau depășește chiar cogniția umană într-o serie largă de sarcini.
„Inteligența oferă putere. Deci cine va controla acea putere?”, a întrebat Bengio. „Să ai sisteme care cunosc mai multe decât majoritatea oamenilor poate fi periculos în mâinile greșite și crea mai multă instabilitate la nivel geopolitic, de exemplu, sau cu terorismul”, a prognozat cercetătorul canadian.
Bengio avertizează că oamenii de știință nu știu cum să împiedice sistemele A.I. să facă rău oamenilor
Bengio a afirmat, de asemenea, că doar un număr limitat de organizații și guverne își vor putea permite să construiască mașinării A.I. puternice și că sistemele vor deveni tot mai inteligente, pe măsură ce cresc în dimensiune.
„Știți, aceste mașinării costă miliarde să fie construite și antrenate și foarte puține organizații și foarte puține țări vor putea face asta. Deja vedem asta”, a subliniat Bengio.
„Va exista o concentrare de putere: putere economică, care ar putea fi rea pentru piețe; putere politică, care ar putea fi rea pentru democrație; și putere militară, care ar putea fi rea pentru stabilitatea geopolitică a planetei noastre. Deci, avem multe întrebări deschise pe care trebuie să le studiem cu grijă și pentru care trebuie să începem să luăm măsuri cât mai repede putem”, a mai avertizat cercetătorul în știința calculatoarelor.
Bengi a spus că astfel de rezultate sunt posibile în câteva decenii, „dar dacă vor fi în 5 ani, nu suntem pregătiți (…) fiindcă nu avem metodele de a ne asigura că aceste sisteme nu vor face rău oamenilor sau nu se vor întoarce împotriva oamenilor”.
„Nu știm cum să facem asta”, a subliniat el. Cercetătorul a spus de asemenea că există argumente care să sugereze că modul în care sunt instruite în prezent sistemele A.I. „ar duce la sisteme care se întorc împotriva oamenilor”.
Cercetătorul vorbește de persoane care ar putea avea de câștigat de pe urma înlocuirii majorității oamenilor cu mașinării
„În plus, există persoane care ar putea dori să abuzeze de această putere, și există persoane care ar putea fi fericite să vadă umanitatea înlocuită de mașinării. Adică, este o posibilitate extremă, dar aceste persoane pot avea multă putere, iar ele o pot face dacă nu punem gardurile de protecție potrivite chiar acum”, a mai spus acesta.
Comentariile sale vin după ce în luna iunie el și-a exprimat sprijinul pentru o scrisoare numită „Un drept de a avertiza despre inteligența artificială avansată”. Scrisoarea deschisă a fost semnată de foști și actuali angajați ai OpenAI, compania tech care a creat popularul chatbot ChatGPT.
Scrisoarea a avertizat cu privire la „riscuri serioase” în ceea ce privește avansul înregistrat de tehnologia A.I. și a cerut ca oamenii de știință, decidenții guvernamentali, dar și publicul, să contribuie la redactarea unor norme care să amelioreze pericolul.
Deși ChatGPT s-a bucurat de o popularitate uriașă în jurul lumii, compania din spatele său a provocat în ultimul timp îngrijorări tot mai mari legate de practicile sale de dezvoltare în condiții de siguranță a inteligenței artificiale. Aceste îngrijorări doar s-au intensificat după ce OpenAI și-a desființat în luna octombrie echipa care să facă pregătiri pentru momentul în care Inteligența Artificială Generală va deveni o realitate.
Cine sunt cei 3 „Nași ai A.I.”
„Primul lucru pe care guvernele trebuie să îl facă este să aibă reglementări care forțează [companiile] să se înregistreze când construiesc aceste sisteme de avangardă, care sunt cele mai mari, care costă sute de milioane de dolari să fie instruite. Guvernele trebuie să știe unde se află ele și specificațiile acestor sisteme”, a mai declarat Yoshua Bengio pentru CNBC.
Yoshua Bengio a primit în 2018, alături de cercetătorii Yann LeCun și Geoffrey Hinton, Premiul Turing pentru munca lor la tehnologia de învățare profundă structurată („deep learning”), care face parte din familia metodelor de învățare automatizată bazată pe rețele neuronale artificiale.
Cei 3 cercetători sunt numiți colocvial „Nașii A.I.” sau „Nașii Deep learning”. Considerat „Premiul Nobel pentru informatică”, Premiul A. M. Turing este decernat anual „unei persoane alese pentru contribuțiile de natură tehnică aduse comunității informatice”, care „trebuie să aibă importanță majoră de durată în domeniul informaticii”.
Premiul este numit după Alan Mathison Turing, matematicianul britanic care este considerat de mulți oameni de știință a fi părintele informaticii teoretice și inteligenței artificiale.
LeCun, în prezent director științific la compania Meta, este un cunoscut critic al OpenAI. Hinton, unul din cei doi laureați ai Premiului Nobel pentru Fizică din 2024, și-a dat demisia de la Google în 2023 pentru a trage un semnal de alarmă față de dezvoltarea necontrolată a sistemelor A.I.