Sari direct la conținut

Marile companii distrag atenția lumii de la riscul existențial al inteligenței artificiale, acuză un om de știință

HotNews.ro
Inteligență artificială , Foto: © BiancoBlue | Dreamstime.com
Inteligență artificială , Foto: © BiancoBlue | Dreamstime.com

Schimbarea retoricii de la riscul de a produce dispariția umană la o concepție mai largă a siguranței inteligenței artificiale a provocat o întârziere inacceptabilă în impunerea unor reglementări stricte creatorilor celor mai puternice programe, spune Max Tegmark, profesor la Institutul Tehnologic din Massachusetts și director științific al Institutului Future for Life, într-un dialog cu The Guardian la summitul privind AI din Coreea de Sud.

„În 1942, Enrico Fermi a construit primul reactor cu o reacție nucleară în lanț auto-susținută sub un teren de fotbal din Chicago”, a spus Tegmark, care la bază este fizician. „Când cei mai buni fizicieni de la acea vreme au aflat despre asta, s-au speriat într-adevăr, pentru că și-au dat seama că cel mai mare obstacol rămas pentru construirea unei bombe nucleare tocmai fusese depășit. Ei și-au dat seama că erau la doar câțiva ani distanță – și de fapt, au fost trei ani, cu testul Trinity în 1945”, spune omul de știință.

„Modelele AI care pot trece testul Turing [unde cineva nu poate spune în conversație că nu vorbește cu un alt om] sunt același avertisment pentru tipul de AI asupra căruia poți pierde controlul”, avertizează el.

Institutul non-profit Future of Life unde activează Tegmark a făcut un apel anul trecut pentru o „pauză” de șase luni în cercetarea avansată AI, pe baza acestor temeri. Lansarea modelului OpenAI GPT-4 în martie 2023 a demonstrat că riscul este inacceptabil de aproape, spune Tegmark.

În ciuda miilor de semnături, de la experți, inclusiv de la Geoffrey Hinton and Yoshua Bengio, doi dintre cei trei „nași” ai inteligenței artificiale care au fost pionieri în abordarea învățării automate care stă la baza domeniului de astăzi, nu s-a convenit nicio pauză.

În schimb, summiturile AI, dintre care Seul este al doilea după Bletchley Park din Marea Britanie în noiembrie anul trecut, au pus bazele domeniului încipient al reglementării AI. „Am vrut ca scrisoarea aceea să legitimeze conversația și suntem destul de încântați de modul în care a funcționat. Odată ce oamenii au văzut că unii ca Bengio sunt îngrijorați, s-au gândit: „Este în regulă pentru mine să-mi fac griji”. Până și tipul din benzinăria mea mi-a spus, după aceea, că este îngrijorat că AI ne va înlocui”, spune Tegmark.

Cu toate acestea, de la anunțul inițial a ceea ce a devenit summit-ul Bletchley Park, accentul reglementării internaționale AI s-a îndepărtat de riscul existențial.

În Seul, doar unul dintre cele trei grupuri „la nivel înalt” a abordat în mod direct siguranța și a analizat „spectrul complet” de riscuri, „de la încălcări ale vieții private la perturbări pe piața muncii și potențiale rezultate catastrofale”. Tegmark susține că nediscutarea celor mai severe riscuri nu este sănătoasă și nu este accidentală.

„Este exact ceea ce am prezis că se va întâmpla din cauza lobby-ului din industrie”, a spus el. „În 1955, au apărut primele articole de jurnal care spuneau că fumatul provoacă cancer pulmonar și ai crede că destul de repede au existat unele reglementări. Dar nu, a durat până în 1980, pentru că a existat această uriașă forță a industriei de a distrage atenția. Simt că asta se întâmplă acum”.

„Desigur, AI provoacă și daune în prezent: există părtinire, dăunează grupurilor marginalizate… Dar, așa cum a spus însăși [secretarul pentru știință și tehnologie din Regatul Unit] Michelle Donelan, nu este ca și cum nu am putea face față ambelor. Este un pic ca și cum ai spune: „Să nu acordăm nicio atenție schimbărilor climatice pentru că va fi un uragan anul acesta, așa că ar trebui să ne concentrăm doar pe uragan~, spune omul de știință.

El afirmă că sprijinul redus din partea unor lideri din tehnologie se datorează faptului că ei „cred că toți simt că sunt blocați într-o situație imposibilă în care, chiar dacă vor să se oprească, nu pot. Dacă un CEO al unei companii de tutun se trezește într-o dimineață și simte că ceea ce face nu este corect, ce se va întâmpla? Îl vor înlocui pe CEO. Așadar, singura modalitate prin care poți obține siguranța mai întâi este dacă guvernul stabilește standarde de siguranță pentru toată lumea.” (Foto:Dreamstime.com)

ARHIVĂ COMENTARII
INTERVIURILE HotNews.ro