Interzicerea dezvoltării inteligenței artificiale superinteligente, cerută de „nașii AI”, apropiați ai lui Trump, cofondatorul Apple și laureați ai premiului Nobel
Un grup de sute de personalități publice, inclusiv experți în inteligență artificială și tehnologie, a solicitat într-o scrisoare deschisă interzicerea dezvoltării superinteligenței, o formă de IA care ar depăși oamenii în practic toate sarcinile cognitive, până când publicul o va cere și știința va găsi o cale sigură de urmat, relatează CNBC, Reuters și revista Time.
- Superinteligența, o formă ipotetică de IA care depășește inteligența umană, a devenit un cuvânt la modă în cursa pentru dezvoltarea inteligenței artificiale dintre giganți precum Meta și OpenAI, notează CNBC.
Scrisoarea este coordonată și publicată de Future of Life Institute, o organizație non-profit care în 2023 a publicat o altă cerere deschisă, solicitând o pauză de șase luni a dezvoltării unor sisteme puternice de inteligență artificială, care nu și-a atins scopul.
Organizația își exprimă de mai bine de un deceniu îngrijorarea cu privire la riscul pe care îl prezintă mașinile inteligente pentru umanitate.
Institutul, fondat în 2014, a fost susținut de la început de șeful Tesla, Elon Musk, și de Jaan Tallinn, programator de software și investitor în tehnologie.
Peste 850 de persoane susțin ideea
Cererea este susținută de peste 850 de persoane, inclusiv lideri din domeniul tehnologiei, precum fondatorul Virgin Group, Richard Branson, și cofondatorul Apple, Steve Wozniak, care se numără printre semnatarii declarației publicată miercuri, în care se solicită o pauză în dezvoltarea superinteligenței.
Pe lista semnatarilor se remarcă inclusiv pionieri în domeniul IA, printre care se numără informaticienii Yoshua Bengio și Geoff Hinton, considerați „nașii” inteligenței artificiale moderne. Și cercetători cunoscuți din domeniul IA, precum Stuart Russell de la Universitatea Berkeley din California, au semnat declarația.
Printre semnatari se numără inclusiv cinci laureați ai Premiului Nobel, dar și Steve Bannon, un apropiat al președintelui Trump, Paolo Benanti, consilier al Papei, chiar Harry și Meghan, Ducele și Ducesa de Sussex, potrivit Reuters și revistei Time.
„Viitorul inteligenței artificiale ar trebui să servească umanității, nu să o înlocuiască”, a declarat Prințul Harry, Duce de Sussex, într-un mesaj care însoțea scrisoarea. „Cred că adevăratul test al progresului nu va fi cât de repede ne mișcăm, ci cât de înțelept ne ghidăm. Nu există o a doua șansă.”
Superinteligența a devenit un cuvânt la modă în lumea IA, pe măsură ce companii precum xAI a lui Elon Musk și OpenAI a lui Sam Altman concurează pentru a lansa modele lingvistice mai avansate. Meta a mers atât de departe încât și-a numit divizia LLM „Meta Superintelligence Labs”.
Avertiment privind superinteligența
Cu toate acestea, semnatarii scrisorii publicate miercuri avertizează că perspectiva superinteligenței „a stârnit îngrijorări, de la obsolescența economică (pierderea de valoare rezultată din factori economici externi pentru un activ sau un grup de active) și lipsirea de putere a oamenilor, pierderea libertății, a libertăților civile, a demnității și a controlului, până la riscuri pentru securitatea națională și chiar potențiala extincție a umanității”.
Semnatarii scrisorii deschise au solicitat interzicerea dezvoltării superinteligenței până când va exista un sprijin public puternic pentru această tehnologie și un consens științific cu privire la faptul că aceasta poate fi construită și controlată în condiții de siguranță.
Reprezentanții Future of Life Institute au declarat că au decis să lanseze acestă nouă campanie, cu un accent mai specific pe superinteligență, deoarece consideră că tehnologia, pe care o definesc ca un sistem care poate depăși performanțele umane în toate sarcinile utile, ar putea apărea în doar unul sau doi ani. „Timpul se scurge”, a declarat Anthony Aguirre, directorul executiv al FLI, într-un interviu acordat revistei Time.
Singurul lucru care ar putea opri companiile de IA să se îndrepte cu pași mari către superinteligență, spune el, „este ca societatea, la toate nivelurile, să conștientizeze pe scară largă că acest lucru nu este de fapt ceea ce ne dorim”.
Ce cred americanii despre superinteligență
Potrivit unui sondaj publicat odată cu scrisoarea deschisă, 64% dintre americani consideră că superinteligența „nu ar trebui dezvoltată până când nu se dovedește că este sigură și controlabilă”, în timp ce doar 5% consideră că ar trebui dezvoltată cât mai repede posibil.
„Sunt puține companii foarte bogate care dezvoltă aceste tehnologii, iar un număr foarte mare de oameni ar prefera să urmeze o altă cale”, a susținut Aguirre.
Acesta a subliniat că este nevoie de mai multă reglemntare, ținând cont că firmele din America și China concurează pentru a fi primele în crearea superinteligenței.
„Fie că se va întâmpla în curând, fie că va dura ceva timp, după ce vom dezvolta superinteligența, mașinile vor prelua controlul”, a explicat Aguirre. „Nu știm cu certitudine dacă acest lucru va fi benefic pentru umanitate. Dar nu este un experiment pe care vrem să îl încercăm fără să ne gândim.”
Sursă foto: Dreamstime.com
