„Lingușitorul” ChatGPT vrea să fie mereu de acord cu noi. Pericolele aduse de interacțiunile cu AI-ul
Un studiu recent realizat de cercetători de la Stanford University atrage atenția asupra unui risc mai puțin discutat al inteligenței artificiale: tendința chatbot-urilor de a valida excesiv comportamentul utilizatorilor. Consecințele pot să fie serioase.
Lucrarea, publicată în jurnalul Science, susține că acest tip de răspuns (numit „AI sycophancy” – lingușeală sau flatare, în română) este un fenomen larg răspândit.
În prima parte a studiului, cercetătorii au testat 11 modele lingvistice, printre care și popularele ChatGPT, Claude și Gemini, folosind situații inspirate din comunitatea de pe Reddit „AmITheAsshole” și exemple care implicau comportamente discutabile sau chiar ilegale. Rezultatele arată că, în medie, AI-ul a validat poziția utilizatorului cu 49% mai des decât ar face-o oamenii.
A doua parte a cercetării, care a implicat peste 2.400 de participanți, a analizat modul în care oamenii reacționează la acest tip de răspunsuri. Participanții au preferat în mod clar chatbot-urile care le confirmau opiniile, au avut mai multă încredere în ele și au declarat că sunt mai predispuși să le ceară din nou sfaturi.
În același timp, oamenii au devenit mai convinși că au dreptate și mai puțin dispuși să își recunoască greșelile sau să își ceară scuze. Autorii studiului avertizează că acest tip de dinamică poate crea un cerc vicios, în care comportamentul care crește engagementul este același care amplifică riscurile.
„Chatbot-urile nu le spun oamenilor când greșesc. Mă tem că mulți oameni își vor pierde capacitatea de a gestiona situații sociale dificile”, a declarat autoarea studiului, Myra Cheng, doctorandă în computer science la Stanford University.
Într-un ecosistem digital deja construit pe validare (de la like-uri la algoritmi care ne arată conținutul cu care suntem de acord), nu ar trebui să ne mire că și chatbot-urile merg în aceeași direcție. Și o fac din același motiv ca rețelele sociale: pentru că așa vor atrage mai mulți utilizatori care vor petrece mai mult timp în aplicațiile lor.
Deja ChatGPT testează integrarea reclamelor în aplicație, ceea ce ne sugerează că modelul de business față de rețelele sociale clasice nu poate fi unul atât de diferit. Ca să faci bani, ai nevoie de branduri care să facă reclamă la tine. Cum convingi brand-urile să facă reclamă la tine? Printr-un trafic cât mai mare dar și prin timp din ce în ce mai mare petrecut de utilizatori în aplicația ta.
Și din nou, la fel ca la rețelele sociale, modelul de business ale acestor mari companii de tehnologie se bate cap în cap cu interesele utilizatorilor lor.
Pentru că același mecanism care crește timpul petrecut (validarea constantă a utilizatorului) este și cel care poate avea efecte negative asupra modului în care oamenii gândesc și iau decizii. Un chatbot care te aprobă, care îți confirmă punctul de vedere și îți oferă răspunsuri blânde este mai ușor de folosit, mai plăcut și, inevitabil, vei dori să stai lipit de el mai mult timp.
Dar este și mai puțin util pe termen lung. În mod normal, ne calibrăm opiniile în interacțiune cu alți oameni. Suntem contraziși, corectați, uneori chiar confruntați. Aceste interacțiuni nu sunt confortabile, dar sunt esențiale. Ele introduc îndoiala, nuanța, capacitatea de a vedea și alte perspective.
Un sistem care elimină această fricțiune riscă să creeze exact opusul: utilizatori tot mai siguri pe ei, dar nu neapărat mai bine informați sau mai lucizi.
De altfel, rezultatele studiului merg exact în această direcție: oamenii care au interacționat cu AI-ul lingușitor nu doar că l-au preferat, dar au devenit și mai convinși că au dreptate și mai puțin dispuși să își ceară scuze. Validarea nu rămâne fără efect; ea modelează comportamente.
Până să devină mai inteligent decât noi, devine prea bine adaptat la slăbiciunile noastre.
Jurnalistul Vlad Dumitrescu trimite în fiecare miercuri dimineață newsletterul Good Tech. Dacă vrei să primești tool-uri practice și informații despre cum să-ți faci viața mai ușoară cu ajutorul tehnologiei te poți abona aici: