Sari direct la conținut

AI și alegerile din 2024: să vezi și să nu crezi

STOICA & Asociatii
Angelica Alecu-Ciocîrlan, Foto: STOICA & Asociatii
Angelica Alecu-Ciocîrlan, Foto: STOICA & Asociatii

Anul 2024 vine cu un record istoric, aducând în fața urnelor de vot 4 miliarde de cetățeni care își vor alege liderii și reprezentanții. Alegeri pentru diverse funcții vor fi organizate în peste 70 de țări, iar în 23 dintre acestea (inclusiv Statele Unite ale Americii și Rusia), vor avea loc alegeri prezidențiale. România nu face excepție, înscriindu-se pe această listă cu toate cele patru tipuri de alegeri, respectiv: locale, parlamentare, europarlamentare și prezidențiale.

Tentativele de manipulare a electoratului prin diverse mijloace de propagandă nu sunt o noutate, ci fac parte, aproape intrinsec, din regulile jocului. Ceea ce este însă nou și cu mult mai provocator pentru alegerile din anul 2024 sunt noile instrumente de dezinformare la scară largă, facilitate de inteligența artificială. Cu ajutorul noilor tehnologii, fenomene precum deep fake au căpătat o amploare alarmantă, fără ca efectele pe termen lung să poată fi măcar anticipate.

Dacă în 2021 eram impresionați de generatorul de imagini Dall-E, iar în 2022 de generatorul de conținut text ChatGPT, luna aceasta, OpenAI (aceeași companie care a dezvoltat Dall-E și ChatGPT) a anunțat public un nou proiect: Sora, un generator de conținut video[1]. Disponibil momentan unei echipe restrânse, Sora este un model AI care poate crea secvențe realiste sau fictive pe baza instrucțiunilor de tip text (text-to-video model). La rândul lor, Google și Meta (Facebook) și-au manifestat interesul în dezvoltarea unor unelte similare.

În acest context, îngrijorările în privința impactului acestor noi posibilități tehnice asupra desfășurării alegerilor din anul 2024 sunt justificate. Dacă în trecut tehnicile de influențare a electoratului presupuneau resurse considerabile și cunoștințe de specialitate nișate, în prezent, pentru a crea conținut deep fake, nu e nevoie decât de o conexiune la internet și de acces la o unealtă de generare conținut pe baza instrucțiunilor. Prin comparație cu riscurile actuale și viitoare, scandalul Cambridge Analytica s-ar putea să pară doar un precursor firav.

Și nu discutăm doar despre situații ipotetice, ci există deja exemple concrete în acest sens. Luna trecută, în New Hampshire (SUA), au fost raportate apeluri telefonice efectuate de roboți care imitau vocea președintelui în funcție, Joe Biden, încercând să descurajeze cetățenii să participe la primul tur al alegerilor[2]. Similar, cu doar câteva zile înainte de alegerile parlamentare din octombrie 2023 din Slovacia, a circulat în mediul online o înregistrare a unei pretinse conversații dintre o jurnalistă și Michal Šimečka (liderul partidului pro-europeanProgresívne Slovensko și vicepreședinte al Parlamentului European), în care acesta din urmă ar fi vorbit despre comiterea unor fraude electorale[3]. Câteva zile mai târziu partidul său a fost învins, iar înregistrarea s-a dovedit a fi un material deep fake. Deși nu se poate stabili o legătură de cauzalitate între acest eveniment și rezultatul alegerilor, exemplul demonstrează cât de periculoase sunt astfel de practici, mai ales când sunt folosite pe ultima sută de metri a competiției electorale. Nemaiexistând suficient timp pentru verificări oficiale și dezmințiri, răul cel mai mare este deja produs: îndoiala. Și, în fine, un alt exemplu recent de deep fake îl întruchipează pe Frederick Christ Trump Sr. (decedat în urmă cu 25 de ani), tatăl fostului președinte Donald Trump[4], într-un videoclip în care își critică aspru fiul. Important de punctat este că, în acest ultim caz, videoclipul menționează la final că a fost generat cu ajutorul inteligenței artificiale și că The Lincoln Project (o organizație autoproclamată pro-democrație) a plătit pentru acest conținut și își asumă responsabilitatea pentru acesta.

În fața acestor provocări din ce în ce mai serioase, marile companii din industria Big Tech (printre care se numără și Google, Meta, Microsoft, OpenAI, TikTok, X) au semnat în urmă cu o săptămână, la Conferința de Securitate din München, un acord numit “A Tech Accord to Combat Deceptive Use of AI in 2024 Elections”. Acordul conține un set de obiective comune și pași de urmat pentru a preîntâmpina și minimiza riscul utilizării inteligenței artificiale cu scopul de induce în eroare electoratul.

Fiind mai degrabă un instrument de soft law, o declarație de intenții comune fără efect obligatoriu pentru părțile semnatare, acest acord e un bun început în lupta împotriva manipulării la scară largă a cetățenilor, dar nu poate înlocui un cadru legislativ solid, cu reguli clare și sancțiuni concrete. Pe cât de repede evoluează tehnologia, pe atât de greu este pentru organele legislative să țină pasul. La nivel european, deși s-au depus eforturi considerabile, cel mai așteptat regulament în această privință (AI Act) se anticipează că va primi aprobarea finală în Parlamentul European în aprilie 2024, ceea ce ar însemna că va intra în vigoare în anul 2026 (dacă nu intervin modificări).

La nivel național, deși dezbateri pentru interzicerea deep fake există încă de anul trecut, în urmă cu o săptămână, Camera Deputaților a decis să retrimită proiectul de lege către Comisia pentru cultură, arte, mijloace de informare în masă și către Comisia pentru tehnologia informației şi comunicațiilor. Principalele critici au privit lipsa de precizie a terminologiei utilizate, dar și sistemul de pedepse propusă[5]. Mai exact, dezbaterile vizează includerea în proiect a sancțiunii cu închisoarea de la 6 luni la 2 ani sau păstrarea exclusiv a sancțiunilor pecuniare. Deși, de multe ori, o lege strâmbă poate produce mai mult rău decât lipsa sa, în contextul actual, pasivitatea sau lentoarea legiuitorului în a concepe un cadru de reglementare coerent pentru utilizarea AI ar putea să lase deschisă calea unor fraude, a căror subtilitate le va face oricum greu de probat și cuantificat.

Astfel, deocamdată, singura armă ce ne rămâne la îndemână împotriva tehnicilor de dezinformare este gândirea critică, analiza și evaluarea atentă a informațiilor ce abundă pe toate canalele de comunicare. Cel puțin pentru moment, detalii precum sincronizarea imperfectă dintre mișcările buzelor personajelor și conținutul audio redat, lipsa de inflexiuni în voce sau mișcările nenaturale ale mâinilor sunt indicii ale generării conținutului video și/sau audio cu ajutorul AI.

În viitor, este foarte probabil ca aceste imperfecțiuni să fie corijate, iar conținutul generat cu AI să devină din ce în ce mai veridic, caz în care antrenarea abilității de a discerne între adevăr și ficțiune va trebui să fie (dacă nu este deja) pe ordinea priorităților în sistemul educațional.

Un articol semnat de Angelica Alecu-Ciocîrlan, Associate (aalecu@stoica-asociatii.ro), STOICA & Asociații.

[1] https://openai.com/sora

[2] https://news.sky.com/story/fake-ai-generated-joe-biden-robocall-tells-people-in-new-hampshire-not-to-vote-13054446

[3] https://www.bloomberg.com/news/newsletters/2023-10-04/deepfakes-in-slovakia-preview-how-ai-will-change-the-face-of-elections

[4] https://www.euronews.com/next/2024/02/19/youre-a-disgrace-donald-trumps-late-father-resurrected-by-ai-to-blast-him-ahead-of-electio

[5] https://romania.europalibera.org/a/32816725.html

ARHIVĂ COMENTARII