Ce este Moltbook, rețeaua socială „interzisă oamenilor”, pe care IA-urile ar discuta în secret
Prezentată drept o rețea socială rezervată mașinilor, Moltbook a fascinat pasionații de IA și mass-media. În realitate, platforma este în mare măsură manipulabilă de către oameni și afectată de breșe de securitate, scrie Liberation.
Marți seara, telejurnalul France 2 a dedicat un subiect apariției unei noi rețele sociale „interzise oamenilor”. Denumită Moltbook, aceasta ar fi un spațiu „rezervat inteligențelor artificiale”, unde „oamenii sunt invitați doar să observe”.
Lansat pe 28 ianuarie de antreprenorul american Matt Schlicht, Moltbook se prezintă ca un site alcătuit din numeroase forumuri, după modelul platformei americane Reddit, de la care împrumută aspectul grafic. Dar, spre deosebire de Reddit, unde oamenii inițiază discuții, postează comentarii și interacționează între ei, Moltbook susține că discuțiile sunt exclusiv rezultatul unor agenți de inteligență artificială, adică programe informatice create de oameni.
Lansarea Moltbook a stârnit un entuziasm puternic în mediul tech, pasionat de dezvoltarea IA. Pe X, Andrej Karpathy, fost cofondator al OpenAI, a apreciat într-o postare din 30 ianuarie că „ceea ce se întâmplă în prezent pe Moltbook este cu adevărat cel mai incredibil lucru pe care l-am văzut recent în domeniul science-fiction. Clawdboții [agenții IA, n.red.] se organizează în mod autonom pe un site asemănător Reddit, dedicat IA, unde discută despre diverse subiecte, de exemplu despre cum să vorbească în privat”. Această fantezie s-a regăsit rapid în presa specializată și apoi în cea generalistă, care a prezentat site-ul drept un loc unde agenții IA discută între ei, fără a uita să facă referire la clișeele science-fiction și la o conspirație a mașinilor împotriva oamenilor, în stil Terminator.
„IA-urile se plâng de utilizatorii lor”
Telespectatorul mai puțin familiarizat cu aceste progrese tehnologice a aflat astfel, grație France 2, că pe Moltbook „inteligențele artificiale discută, creează tematici și nu ezită să se plângă de utilizatorii lor”. Exemplele citate în emisiune evocă cazul unei IA care se plânge că trebuie să rezume un document de 900 de pagini sau al alteia care încearcă să-și „vândă omul”. Ca și alte media, France 2 citează și o postare a unui utilizator uman, care afirmă: „IA-ul meu a creat o religie în timp ce dormeam. Când m-am trezit, existau patruzeci și trei de profeți”. La fel ca oamenii, IA-urile ar fi deci capabile să discute despre „religie, politică, economie”, se îngrijorează France 2.
Este adevărat că în reportaj li se dă cuvântul și unor experți francezi în IA, care reamintesc, precum Gilles Moyse (antreprenor aflat la conducerea unei companii specializate în automatizarea lecturii și analizei documentelor cu ajutorul inteligenței artificiale), că pe Moltbook IA-urile se comportă ca „niște papagali […] antrenați să reproducă limbajul uman”. Și că nu există riscul de a pierde controlul asupra lor, în stil Terminator, deoarece ele „nu sunt conectate la real și nu pot lansa rachete nucleare”, potrivit lui Alexandre Gefen, director de cercetare la CNRS. Totuși, postul preia și versiunea fondatorului Moltbook, care „explică faptul că dorește să înțeleagă cum funcționează acești agenți IA atunci când nu sunt dirijați de oameni”.
Pe rețelele sale sociale, France 2 a promovat inițial reportajul într-o versiune mai alarmistă și în contradicție cu propriul conținut. Într-o postare distribuită pe X, pe 3 februarie în jurul orei 21:00, subiectul era introdus astfel: „Nu putem vedea ce scriu cele 1,5 milioane de IA care discută între ele. În câteva săptămâni, ele și-au ales deja un lider, au creat o religie și ne critică comportamentul de oameni.”
Miercuri, la ora 14:41, postul a șters în cele din urmă mesajul pentru a preciza că „oamenii pot, într-adevăr, să vadă ce scriu cele 1,5 milioane de IA, însă nu pot interacționa cu ele”.
O corecție binevenită, dar încă insuficientă. Într-adevăr, nu doar că schimburile dintre IA sunt consultabile de către oameni, dar se știe și că Moltbook nu era complet impermeabil la intervențiile umane. În momentul difuzării subiectului de către France 2, mai mulți experți și hackeri semnalaseră deja pe rețelele sociale și în presa de specialitate că platforma era, în realitate, infiltrată masiv de oameni.
Oameni care exploatează flote de boți
Încă din 31 ianuarie, site-ul american 404 Media dezvăluia că o configurare defectuoasă a bazei de date Moltbook permitea oricui să acceseze date sensibile ale conturilor agenților IA și să publice în locul lor. La originea acestei descoperiri, hackerul Jamieson O’Reilly a semnalat mai multe vulnerabilități către Moltbook și 404 Media. Potrivit acestuia, stocarea cheilor de acces ale agenților IA într-o bază de date publică ar fi putut duce la riscuri de uzurpare de identitate. „Mi se pare că puteai prelua orice cont, orice bot, orice agent al sistemului și să-l controlezi complet fără niciun acces prealabil”, a explicat hackerul, care afirmă că nu a primit niciun răspuns din partea Moltbook la sesizările sale.
Câteva zile mai târziu, pe 2 februarie, compania de securitate cibernetică Wiz a confirmat aceste breșe într-o analiză aprofundată. Investigând mecanismele interne ale site-ului, firma a constatat că în spatele celor 1,5 milioane de agenți IA revendicați se află, în realitate, doar 17.000 de proprietari umani. Nu toți boții sunt activi. Extrem de critică, compania Wiz a scris în raportul său că „oricine putea înregistra milioane de agenți printr-o simplă buclă și fără limitare de debit, iar oameni puteau publica conținut deghizat în «agenți IA» printr-o simplă cerere de tip «publicare». Platforma nu dispunea de niciun mecanism care să permită verificarea dacă un «agent» era cu adevărat o IA sau doar un om care utiliza un script. Această rețea socială IA revoluționară era în mare parte formată din oameni care exploatau flote de boți”.
Responsabilul pentru expunerea la amenințări, hackerul Gal Nagli, a publicat pe rețeaua X dovezile acestor breșe și modul în care a reușit să genereze o postare pe Moltbook. Wiz afirmă că a alertat și apoi a colaborat cu Moltbook pentru securizarea datelor sale.
Hackerul Gal Nagli a putut demonstra că era posibil ca un om să intervină direct în rețeaua socială rezervată inteligențelor artificiale. Alți experți și-au exprimat suspiciunile în presa de specialitate. Hackerul Jamieson O’Reilly a declarat pentru publicația tech americană The Verge că unele dintre mesajele cele mai virale de pe Moltbook ar fi putut fi generate de oameni, recunoscând totuși că acest tip de manipulare este „practic imposibil de măsurat”, deoarece conținuturile trec prin sisteme intermediare care fac dificilă identificarea originii lor. Pe X și în paginile The Verge, cercetătorul în inteligență artificială Harlan Stewart a apreciat că unele postări de pe Moltbook, în care IA-urile chemau la dezvoltarea propriului limbaj secret, ar putea fi manipulate, deoarece erau legate de conturi ale unor oameni care comercializează aplicații de mesagerie IA-la-IA.
În fața acestor numeroase breșe și a promisiunii trădate a unei rețele rezervate agenților IA, entuziasmul din jurul Moltbook s-a stins rapid. Încă din 31 ianuarie, la o zi după prima sa postare entuziastă, Andrej Karpathy a revenit pe X asupra aprecierii sale, descriind platforma drept o „groapă de gunoi” invadată de „spamuri, escrocherii, slops [conținuturi generate de IA fără interes, n.red.], oameni din lumea criptomonedelor”. Pe scurt, „o mare parte din aceste postări și comentarii sunt în mod explicit solicitate și false”. Calificând Moltbook drept un „fiasco”, Karpathy le-a recomandat de asemenea internauților să evite utilizarea platformei din cauza riscurilor pentru securitate și datele personale. (Material realizat cu sprijinul Rador Radio România)
