Un nou studiu susține că inteligența artificială dezvoltată în prezent se va lovi de un zid matematic
S-ar putea ca așa-zișii „agenți AI” pe care companiile din domeniul inteligenței artificiale pariază miliarde de dolari că vor automatiza o mare parte a muncii la birou să ajungă, de fapt, într-o fundătură, relatează Gizmodo.
Tehnologia de bază din spatele majorității modelelor de inteligență artificială disponibile în prezent o reprezintă modelele lingvistice de mari dimensiuni (LLM), o formă de învățare automată și procesare a limbajului.
Pariul pe care îl fac majoritatea companiilor din domeniul AI este că LLM-urile, dacă sunt alimentate cu suficiente date, vor ajunge să dobândească ceva apropiat de autonomia completă, adică să fie capabile să gândească și să funcționeze în moduri similare oamenilor – dar cu un volum chiar mai mare de cunoștințe colective.
În stadiul ipotetic respectiv, discuția ajunge la așa-zisa inteligență artificială „agentică”. În prezent, companiile din domeniul AI lucrează cu mai mult sau mai puțin succes la „agenți AI” – sisteme care să realizeze cap-coadă sarcini cât mai autonom și cu un nivel de input uman minim. Un agent AI ar putea înlocui, de exemplu, un angajat de la departamentul de resurse umane care e însărcinat cu evaluarea salariaților și redactarea unor rapoarte privind rezultatele lor.
O inteligență artificială „agentică” duce lucrurile cu cel puțin un pas mai departe: ea ar trebui să poată automatiza nu doar sarcinile asociate unui angajat al departamentului de resurse umane, ci ale tuturor angajaților și chiar ale unor departamente conexe. Ambele au însă la bază tot LLM-urile care stau și în spatele chatboților populari precum ChatGPT.
Ce argumentează noul studiu despre inteligența artificială
Însă un nou studiu publicat pe serverul preprint arXiv susține că oferă o dovadă matematică potrivit căreia „LLM-urile sunt incapabile să ducă la îndeplinire sarcini computaționale și agentice dincolo de un anumit nivel de complexitate”.
Lucrarea publicată de Vishal Sikka și Varin Sikka, doi cercetători-antreprenori tată și fiu, a fost readusă recent în atenție de site-ul Wired după ce publicarea inițială a trecut aproape neobservată. Studiul ajunge la o concluzie destul de simplă, deși drumul până la ea este presărat cu multă matematică complicată.
Redusă la esență, argumentația susține că anumite comenzi sau sarcini oferite unui LLM vor necesita un nivel de calcul mai complex decât cel pe care modelul îl poate procesa; iar atunci când se întâmplă acest lucru, modelul fie nu va reuși să finalizeze acțiunea solicitată, fie va îndeplini sarcina în mod incorect.
Asta nu înseamnă că tehnologia nu va avea un rol în dezvoltarea inteligenței artificiale în ansamblul său sau că nu se va îmbunătăți, dar stabilește un plafon mult mai jos pentru ceea ce este posibil decât sunt dispuse companiile de AI să recunoască atunci când promovează discursul de tip „cerul este limita”.
Un număr tot mai mare de cercetători și-au pierdut încrederea în LLM-uri
Vishal Sikka și Varin Sikka nu sunt primii cercetători care sugerează că LLM-urile nu sunt chiar atât de impresionante pe cât se pretinde. Probabil cel mai cunoscut dintre aceștia este Yann LeCun, unul dintre cei 3 „Nași ai AI”, care a părăsit Meta anul trecut după ce a fost timp de peste un deceniu cercetătorul-șef al companiei fondate și conduse de Mark Zuckerberg.
LeCun a părăsit Meta din cauza convingerii sale că actuala direcție de cercetare în domeniul AI, centrată pe LLM-uri, reprezintă o fundătură și și-a fondat propriul startup care să exploreze o cale alternativă.
Site-ul tech Gizmodo notează însă că studiul celor doi Sikka aduce un fundament matematic solid sentimentelor exprimate de mulți sceptici ai inteligenței artificiale bazate pe LLM-uri. Anul trecut, cercetători de la Apple au publicat o lucrare care concluziona că LLM-urile nu sunt capabile de raționament sau gândire reale, în ciuda faptului că creează aparența acestora.
Benjamin Riley, fondatorul companiei Cognitive Resonance, scria anul trecut că, din cauza modului în care funcționează LLM-urile, acestea nu vor atinge niciodată cu adevărat ceea ce considerăm a fi „inteligență”. Alte studii au testat limitele modelelor AI bazate pe LLM pentru a vedea dacă sunt capabile să producă rezultate creative cu adevărat noi, cu rezultate destul de lipsite de inspirație.
Toate acestea fac parte dintr-un corp tot mai mare de dovezi care sugerează că, indiferent de ce ar putea face inteligența artificială în forma sa actuală, aproape sigur nu va fi tehnologia care să depășească inteligența umană până la sfârșitul acestui an, așa cum a susținut recent Elon Musk.
