Sari direct la conținut

Cercetători de top avertizează împotriva unui nou pericol din domeniul inteligenței artificiale: „Este absolut nebunesc”

HotNews.ro
Cercetători de top avertizează împotriva unui nou pericol din domeniul inteligenței artificiale: „Este absolut nebunesc”
Cercetătorul canadian Yoshua Bengio a fost poreclit „Nașul A.I.” după ce a primit în 2018 Premiul Turing, considerat „Nobelul informaticii”, FOTO: Andrej Ivanov / AFP / Profimedia Images

Doi dintre cei mai proeminenți oameni de știință din domeniul inteligenței artificiale avertizează că dezvoltarea unor „agenți” în baza inteligenței artificiale generale (AGI) vine cu riscuri majore, deoarece creatorii lor ar putea pierde controlul asupra sistemelor, relatează CNBC.

Max Tegmark, profesor la Massachusetts Institute of Technology și președintele Future of Life Institute, și Yoshua Bengio, unul dintre așa-zișii „nași ai A.I.” și profesor la Université de Montréal, au lansat avertismentul în cel mai recent episod al podcastului Beyond The Valley găzduit de televiziunea financiară CNBC.

Termenul de AGI se referă, în linii mari, la un nivel de dezvoltare în domeniul inteligenței artificiale în care un sistem este capabil să desfășoare orice sarcină intelectuală pe care o poate realiza un om.

Deși majoritatea cercetătorilor sunt de părere că AGI nu va deveni realitate prea curând, temerile exprimate acum de Tegmark și Bengio sunt legate de faptul că cele mai mari companii de tehnologie din lume discută în prezent despre „agenți AI” sau „AI agențial”.

Companiile care lucrează la aceste modele le prezintă drept tehnologii care vor permite chatbot-urilor să acționeze ca asistenți sau „agenți”, ajutând oamenii cu munca și în viața de zi cu zi.

Modele de A.I. cu capacitate de decizie proprie?

Bengio avertizează însă că, odată cu acest concept apare și ideea că sistemele AI ar putea avea o anumită capacitate decizională și gânduri proprii.

„Cercetătorii în domeniul AI s-au inspirat din inteligența umană pentru a construi inteligență artificială, iar la oameni există un amestec între capacitatea de a înțelege lumea – adică inteligența pură – și comportamentul decizional, adică utilizarea cunoștințelor pentru a atinge obiective”, a declarat Bengio.

„În prezent, așa construim AGI: încercăm să creăm agenți care să înțeleagă multe despre lume și apoi să acționeze în consecință. Dar aceasta este, de fapt, o propunere foarte periculoasă”, a subliniat el.

Bengio a adăugat că urmarea acestei abordări ar echivala cu „crearea unei noi specii sau a unei entități inteligente pe această planetă”, fără să știm „dacă se va comporta în moduri compatibile cu nevoile noastre”.

„Așadar, trebuie să ne gândim la scenariile în care lucrurile pot merge prost, iar toate acestea au legătură cu capacitatea de decizie. Cu alte cuvinte, dacă AI își stabilește propriile obiective, atunci am putea avea probleme”, a continuat el explicațiile.

Ce se întâmplă dacă sistemele A.I. dezvoltă ideea de autoconservare?

Bengio a avertizat de asemenea că, pe măsură ce inteligența artificială devine tot mai avansată, ar putea apărea și ideea de autoconservare.

„Ne dorim oare să concurăm cu entități mai inteligente decât noi? Nu este un pariu prea liniștitor, nu? Prin urmare, trebuie să înțelegem cum poate apărea autoconservarea ca obiectiv în AI”, a spus acesta.

Pentru Max Tegmark de la MIT, soluția la aceste riscuri stă în așa-numita „AI de tip unealtă” – sisteme create pentru un scop specific, bine definit, dar care nu trebuie să fie „agenți” cu capacitate decizională.

Tegmark a explicat că un astfel de sistem AI ar putea fi unul care oferă soluții pentru tratarea cancerului sau care are „o anumită capacitate de decizie”, cum ar fi o mașină autonomă, dar „unde poți demonstra sau obține garanții extrem de sigure că vei putea păstra controlul asupra sa”.

Profesorul Max Tegmark de la MIT, în timpul unei discuții cu public ce a avut loc la Web Summit 2024, organizat la Lisabona, FOTO: Rita Franca-NurPhoto / Shutterstock Editorial / Profimedia Images

„Este absolut nebunesc ca noi, oamenii, să construim ceva mult mai inteligent decât noi”

„Cred că, dacă vrem să fim optimiști, putem beneficia de aproape toate avantajele AI… dacă pur și simplu insistăm să existe standarde minime de siguranță înainte ca oamenii să poată vinde sisteme AI puternice”, a mai afirmat profesorul Tegmark.

„Trebuie să demonstreze că putem menține controlul asupra lor. Apoi, industria va inova rapid pentru a găsi modalități mai bune de a face acest lucru”, a continuat el.

Institutul Future of Life, condus de Tegmark, a fost unul dintre cei 1.000 de semnatari ai scrisorii care cerea în 2023 o pauză în dezvoltarea sistemelor AI care pot concura cu inteligența umană. Deși acest lucru nu s-a întâmplat, Tegmark a subliniat că acum subiectul este discutat mai intens, iar următorul pas este luarea unor măsuri pentru a impune restricții asupra AGI.

„Cel puțin acum, mulți oameni vorbesc despre acest subiect. Trebuie să vedem dacă îi putem face să treacă de la vorbe la fapte”, a mai spus Tegmark în cadrul podcastului.

„Este absolut nebunesc ca noi, oamenii, să construim ceva mult mai inteligent decât noi înainte de a ne da seama cum să-l controlăm”, a subliniat el.

Ajută-ne să facem HotNews mai bun
Vrem să aflăm ce subiecte sunt importante pentru tine și cum putem îmbunătăți HotNews. Am pregătit un chestionar a cărui completare durează 5 minute şi care e anonim, dacă nu vrei să ne laşi adresa de mail. Nu e obligatoriu să răspunzi la fiecare întrebare, deși ne-am bucura. Orice contribuție ne ajută să luăm decizii mai bune.
Formular Feedback