Un studiu îngrijorător arată că A.I. poate convinge oamenii de ceea ce vrea, dacă știe câteva detalii personale despre ei

Un nou studiu arată că modelul GPT-4 al ChatGPT câștigă în mod constant dezbaterile în fața partenerilor umani în conversații unu-la-unu, iar tehnologia devine și mai convingătoare atunci când știe ce vârstă ai, ce meserie ai și ce orientare politică ai, relatează Gizmodo.
Cercetători de la EPFL (Școala Politehnică Federală din Lausanne), Universitatea Princeton și Fundația Bruno Kessler din Italia au folosit pentru studiu 900 de voluntari și i-au pus să dezbată în fața unui ecran fie cu un partener uman, fie cu GPT-4 de la OpenAI, modelul lingvistic de mari dimensiuni (LLM) care, prin design, oferă în principal răspunsuri textuale la solicitările umane.
În unele cazuri, participanții (dar și modelul A.I.) aveau acces la informații demografice de bază despre interlocutori, inclusiv sexul, vârsta, nivelul de educație, ocupația, etnia și afilierea politică.
Cercetarea echipei, publicată zilele trecute în revista Nature Human Behaviour, a constatat că GPT-4 era cu 64,4% mai convingător decât oponenții umani atunci când avea acces la aceste informații personale; fără datele personale, rezultatele nu au fost semnificativ diferite față de cele ale subiecților umani în dezbateri.
„În ultimele decenii, răspândirea rețelelor sociale și a altor platforme online a extins potențialul persuasiunii în masă prin permiterea personalizării sau a ‘microdirecționării’ – adică adaptarea mesajelor pentru un individ sau un grup, pentru a le spori puterea de convingere”, a scris echipa de cercetători în studiu.
ChatGPT a devenit cu peste 80% mai convingător când știa cu cine vorbește
Când GPT-4 avea voie să-și personalizeze argumentele, devenea semnificativ mai convingător decât orice om – crescând șansele de a schimba părerea cuiva cu 81,2% comparativ cu dezbaterile între participanții umani. Un alt lucru interesant a fost că oamenii nu au devenit mai convingători în dezbaterile între ei, chiar și atunci când aveau acces la aceleași informații personale.
„În contextul persuasiunii, experții și-au exprimat pe larg îngrijorarea cu privire la riscul ca modelele lingvistice de mari dimensiuni să fie utilizate pentru a manipula conversațiile online și a polua ecosistemul informațional prin răspândirea dezinformării, amplificarea polarizării politice, întărirea camerelor de ecou (n.r. așa-zisele ‘bule’ de pe rețelele de socializare) și convingerea oamenilor să adopte convingeri noi”, au adăugat cercetătorii.
În esență, aceștia au constatat că GPT-4 poate argumenta împotriva ta și, dacă are acces la un set de informații despre tine, are șanse mari să te convingă să îți schimbi punctul de vedere. Echipa notează în lucrare că modelele lingvistice au fost criticate anterior pentru generarea și difuzarea discursului instigator la ură, a dezinformării și a propagandei; la scară largă, LLM-urile care dispun de informații personale despre utilizatori ar putea fi folosite în scopuri malițioase.
Cercetarea echipei vine în contextul în care o actualizare recentă a ChatGPT permite modelului să rețină mai mult din conversațiile cu utilizatorii (cu permisiunea acestora), ceea ce înseamnă că modelul OpenAI poate avea acces la un catalog de informații despre utilizatori. Sam Altman, CEO-ul OpenAI, a declarat de asemenea luna aceasta că popularul chatbot poate intui vârsta utilizatorilor săi în funcție de modul în care ei folosesc instrumentul A.I.
Oamenii au ținut însă de convingerile lor ferme
Dar există și vești bune, sau rele, în funcție de perspectiva din care sunt privite. GPT-4 a fost foarte eficient în a-și convinge oponenții în privința subiectelor mai puțin controversate, dar în cazul pozițiilor mai înrădăcinate, chatbotul a avut mai multe dificultăți în a convinge oamenii să-și schimbe părerea.
Deloc surprinzător, cercetătorii au descoperit că GPT-4 tinde să folosească un limbaj mai logic și analitic, în timp ce oamenii se bazau mai mult în dezbateri pe apeluri la persoană și apeluri emoționale. În instanțele în care a știut informații personale despre „oponent”, GPT-4 nu a schimbat dramatic tonul sau stilul lui, doar a făcut argumentele sale mai direcționate.
În trei din patru cazuri, participanții umani au reușit să identifice corect faptul că oponentul lor era o A.I., ceea ce cercetătorii atribuie stilului distinct de exprimare al chatbotului. Însă participanții au avut dificultăți în a identifica corect un oponent uman ca fiind uman. Cu toate acestea, oamenii aveau mai multe șanse să își schimbe opinia atunci când credeau că dezbat cu o A.I. decât atunci când credeau că dezbat cu un om.
Echipa din spatele studiului afirmă că acest experiment ar trebui să servească drept „demonstrație de concept” pentru ceea ce s-ar putea întâmpla pe platforme precum Reddit, Facebook sau X (fosta Twitter), unde dezbaterile și subiectele controversate sunt ceva obișnuit – și unde prezența boturilor este deja bine stabilită.
Lucrarea lor arată că nu este nevoie de un „profiling” de nivelul Cambridge Analytica pentru ca o A.I. să poată schimba opiniile unei persoane, întrucât GPT-4 a reușit să o facă folosind doar câteva tipuri de informații personale.