Sari direct la conținut

Cercetătoare: Scenariul în care aplicații de genul ChatGPT-3 sunt folosite pentru manipularea oamenilor în scop politic va deveni realitate

HotNews.ro
Inteligența artificială și etica, Foto: Brian Penny / Alamy / Alamy / Profimedia
Inteligența artificială și etica, Foto: Brian Penny / Alamy / Alamy / Profimedia

Cu ajutorul Cristinei Voinea, cercetătoare a Centrului de Cercetare în Etică Aplicată de la Universitatea București, încercăm să răspundem la câteva întrebări referitoare la problemele pe care le ridică ultimele tehnologii ce se bazează pe Inteligența Artificială.

Inteligența artificială (IA) a depășit de mult momentul în care era asociată cu poveștile SF. Dacă înainte ne puteam imagina un scenariu în care un robot se îndrăgostește de un om doar prin intermediul unui film de genul „Her”, acum, după apariția ChatGPT, Bing de la Microsoft sau MidJourney și DALL-E, acesta pare chiar posibil.

Recent a fost lansat chatbot-ul Bing, de la Microsoft, care pare a fi ceva mai diferit decât tehnologiile anterioare tocmai din cauza acestui lucru. De la declarații de dragoste, jigniri și înjurături nu a mai durat foarte mult până când Microsoft a anunțat că va limita întrebările pe care oamenii le pot pune într-o zi.

Google a anunțat că va lansa propriul chatbot, numit Bard, ca un răspuns la Microsoft. În ciuda numeroaselor frici apărute în mediul online, toate aceste tehnologii încă sunt în fază incipientă și prezintă multiple erori, așa cum arată un articol publicat de The Guardian.

La momentul actual, cele două companii lasă impresia că lansează aceste tehnologii, fără prea multe verificări, doar pentru a fi primii care fac asta. Totuși, ce efecte au aceste teste asupra oamenilor care le încearcă?

Cercetători, activiști sau diverși jurnaliști au încercat să sublinieze importanța modului în care manevrăm aceste mașinării și felurile în care ele pot să discrimineze. Chiar dacă apar din ce în ce mai multe coduri etice care să reglementeze activitatea inteligenței artificiale, încă nu e destul de clar în ce măsură sunt respectate.

Putem vorbi de etică atunci când vine vorba de inteligență artificială? Cât de importantă este reglementarea eficientă în acest domeniu și cum va schimba viitorul locurilor de muncă?

HotNews.ro a încercat să răspundă la aceste întrebări cu ajutorul Cristinei Voinea, doctor în filosofie, cercetătoare a Centrului de Cercetare în Etică Aplicată și asistentă în cadrul Departamentului de Filosofie și Științe Socioumane, Academia de Studii Economice.

„Nu putem avea încredere în IA pentru că nu avem o relație între egali cu această tehnologie”

Inteligența Artificială ne poate simplifica viețile. Vedem cazuri în care a ajutat la stabilirea unui diagnostic sau soluționarea unei spețe juridice. Ce anume ar putea face aceste aplicații să ajungă de încredere?

Cristina Voinea: Cred că e important să începem prin a face câteva distincții conceptuale care vor fi de ajutor pentru a clarifica dacă are sens să ne punem problema încrederii în IA. Există o diferență între a te încrede și a te baza pe cineva sau ceva.

De exemplu, când ies din casă mă bazez pe faptul că șoferii vor respecta regulile traficului și nu vor da peste mine. La fel cum mă bazez pe faptul că podurile pe care le traversez nu se vor prăbuși.

Să te bazezi pe alții sau chiar pe obiecte înseamnă, așadar, să ai așteptarea că ei se vor conforma unei așteptări rezonabile pe care o ai, că vor afișa un anumit comportament sau o anumită trăsătură, i.e, podurile vor sta în picioare, șoferii vor respecta regulile.

Încrederea este, însă, ceva mai mult de atât, este o relație între egali bazată pe credința că cei în care te încrezi vor demonstra anumite trăsături de caracter stabile, precum loialitatea sau curajul.

Am încredere că mă pot baza pe prietenii mei oricând, tocmai pentru că știu că sunt loiali și au demonstrat de-a lungul timpului această virtute. Încrederea presupune și vulnerabilizare, pentru că deschide posibilitatea trădării și, implicit, a decepției.

Putem să ne încredem în IA?

Răspunsul este nu, pentru că nu avem o relație între egali cu această tehnologie. Însă putem să ne punem baza în IA, fie pentru a eficientiza diverse procese, fie pentru a produce cunoaștere științifică sau pentru orice alt scop.

Mai mult, cred că nimeni nu ar trebui să fie vreodată în poziția de a se încrede în IA, adică de a depinde de această tehnologie și de a deveni vulnerabil în fața ei. IA nu poate fi responsabilă în cazul în care ceva nu merge bine, pentru că nu este un agent, deci nu are nici intenții și nici nu este liberă să își aleagă scopurile.

Nu ar trebui să ne punem problema încrederii în IA, ci pe cea a cunoașterii acestor sisteme cărora începem să le delegăm tot mai multe decizii.

De ce avem nevoie de etică atunci când vorbim de inteligență artificială?

Folosirea aplicațiilor de tipul ChatGPT în educație. FOTO: Ben Birchall / PA Images / Profimedia

Etica este vitală pentru toate contextele în care tehnologiile transformă relațiile de putere sau creează unele noi. În primul rând, sistemele de inteligență artificială pot avea un efect direct asupra vieții noastre.

De exemplu, putem să nu primim un credit pentru că un algoritm ne-a așezat într-o categorie de risc sau e posibil să ni se refuze tratamentul medical din cauza discriminării algoritmice; acestea sunt instanțe ale puterii pe care IA o poate avea asupra vieții noastre, într-un mod direct și nemediat.

Problema aici e generată de faptul că nu avem cum să chestionăm sau să tragem la răspundere aceste sisteme tehnologice în cazul în care decizia luată, și care ne vizează în mod direct, ni se pare nejustificată.

În al doilea rând, efectele IA se pot face simțite și la nivel social și politic, nu doar individual. De exemplu, statele folosesc IA pentru a decide cine este susceptibil de fraudă, cine primește ajutor social, ce zone sunt predispuse la o rată de criminalitate mai mare, cine trebuie supravegheat din cauza suspiciunilor de terorism etc.

Statele au început deci deja să delege judecata și deciziile acestor sisteme. Și, într-un fel, e normal, întotdeauna ne folosim de expertiza și abilitățile altora pentru a face lucruri la care noi nu ne pricepem chiar atât de bine.

Delegarea poate fi cheia succesului, dar are și o parte mai întunecată, pentru că presupune un transfer de putere și o pierdere a controlului.

Principala problemă etică apare din faptul că nu știm întotdeauna cum funcționează IA, mai ales cea bazată pe rețele neurale complexe. Asta înseamnă că s-ar putea să oferim putere asupra vieții oamenilor unor tehnologii care nu sunt tocmai transparente și care, mai mult de atât, sunt proprietare, deci nici nu pot fi inspectate.

„Inteligența Artificială ar trebui să lucreze mereu pentru dreptate”

Ce reguli etice ați recomanda în acest domeniu? Putem vorbi de niște reguli cu aplicabilitate generală?

IA nu este o unică tehnologie. Este, mai degrabă, un mănunchi de tehnologii complexe, cu funcționalitate și aplicabilitate diverse. Acest lucru înseamnă că trebuie să ne uităm la specificul fiecărui sistem în parte pentru a putea să ne dăm seama ce reguli morale sunt relevante.

Mai mult, contextul în care este folosită IA este important și influențează natura regulilor morale care ar trebui să guverneze crearea și utilizarea acestor tehnologii.

Mai precis, una este IA folosită în domeniul militar, alta este cea folosită în cel educațional sau medical. Dacă transparența sau accesibilitatea ar fi principii utile în contextul inteligenței artificiale pentru educație, probabil că nu ar fi cea mai strălucită idee să le aplicăm și în domeniul militar sau medical.

Deci nu putem vorbi despre reguli generale care să guverneze dezvoltarea tuturor sistemelor de inteligență artificială. Cu toate acestea, există câteva valori morale care ar trebui să informeze regulile specifice fiecărui context în parte.

De exemplu, IA ar trebui să lucreze mereu pentru dreptate, adică să creeze condițiile de posibilitate pentru construirea unor societăți echitabile prin întărirea drepturilor umane fundamentale și nu să diminueze sau să limiteze autonomia umană.

La fel de importantă cred că este valoarea instrumentală a sferei private și a controlului asupra ei; cetățenii ar trebui să aibă control deplin asupra propriilor date, astfel încât să nu fie folosite pentru a le face rău sau pentru a-i discrimina.

Nu aș uita nici responsabilitatea față de mediu, pentru că fiecare nouă tehnologie are implicații directe asupra resurselor naturale și, implicit, ele ar trebui dezvoltate astfel încât să lucreze pentru sustenabilitate și responsabilitatea ecologică.

O îngrijorare care a apărut, în ultimii ani, este legată de piața muncii și rolul IA în domeniu. Poate IA să înlocuiască oamenii la locul de muncă?

Poate și o face deja. Întotdeauna oamenii s-au temut că vor fi înlocuiți de mașini; odată cu revoluția industrială au apărut luddiții care distrugeau fabricile proaspăt industrializate și mașinile de teama de a nu rămâne fără un loc de muncă.

Și azi avem neo-luddiți care se tem de progresul tehnologic, așa cum avem și falși-profeți care proferează dispariția necesității muncii umane în viitorul apropiat și care supraapreciază ce poate face IA.

Cred că ambele variante sunt greșite. Sigur, unele locuri de muncă se vor pierde pentru că vor fi automatizate – ceea ce nu e rău, mai ales când vine vorba de acele joburi riscante, care presupun muncă fizică grea și un risc pentru viața și bunăstarea muncitorilor.

Pe de altă parte, din dispariție poate apărea un nou spirit al creației, așa cum susținea Schumpeter în siajul lui Marx. Cu alte cuvinte, dispar unele joburi și apar altele noi. Interesant e însă de urmărit cum schimbă IA munca acum.

Departe de a aduce cu sine dispariția muncii, IA pune bazele unei lumi a muncii precare. Mii de oameni, plătiți cu mai nimic, stau și etichetează datele pe care mai apoi le procesează sistemele de inteligență artificială, astfel încât noi să ne putem bucura, din confortul casei noastre, de o conversație cu ChatGPT-3.

Și poate chiar și mai mulți oameni lucrează, uneori în condiții de sclavie, în minele unde sunt exploatate resursele minerale necesare pentru a construi infrastructura fizică, materială de care depinde IA.

Mai util decât să ne îngrijorăm pentru un viitor care nu știm exact cum va arăta (și, până la urmă, dacă va mai arăta cumva), ar fi să ne preocupăm de cum arată lumea pe care o construim cu noile tehnologii și ce presupune, de fapt, această construcție pentru cei care trăiesc acum și pun umărul la ea.

Regulile etice, de cele mai multe ori, nu sunt obligatorii. Așadar, există posibilitatea ca unele companii să nu le urmeze. Este nevoie de intervenția statului, prin intermediul legilor?

Deocamdată, peisajul recomandărilor etice pentru dezvoltarea și implementarea IA este destul de haotic. Avem, pe de-o parte, companii private care au angajat eticieni și alți specialiști cu scopul de a emite recomandări care să ghideze dezvoltarea IA.

Aici e fiecare companie cu propriul cod etic, deși de multe ori regulile și principiile se suprapun. Pe de altă parte, și statele s-au aruncat în această cursă de a dezvolta liste de principii pentru IA. Deci există o sumedenie de actori, cu o sumedenie de interese, care au intrat în această complicată lume a eticii.

De ce se pune accentul pe etică?

Pentru că avem de-a face cu un mănunchi de tehnologii care sunt într-o continuă dezvoltare și care sunt folosite într-o groază de domenii și pentru o mulțime de scopuri, așa încât ar fi dificil să facem un unic set de legi care să ghideze dezvoltarea și implementarea acestei diversități de tehnici ce intră sub cupola IA.

Multe instanțe ale IA sunt „cutii negre”; de exemplu, nu știm exact cum face GPT-3 ce face, iar asta complică lucrurile și mai mult.

Deci nu este vorba că nu se dorește crearea unui cadru legal unitar și coerent, ci doar că este foarte dificilă dezvoltarea sa. Așa încât nu ne rămâne decât apelul la etică. Dar și în această privință situația e complicată.

Căci multe companii private, de la Facebook, la Google sau Amazon, au fost acuzate de ethics washing, adică de faptul că manifestă doar un interes instrumental față de ceea ce etica normativă și etica aplicată pot aduce la masa creării și dezvoltării IA.

Cu alte cuvinte, etica este doar o fațadă folosită de industrie pentru a da impresia că face ceva pentru a îmbunătăți procesele de inovație tehnologică. E greu de spus deci care e soluția. Intuiția mea e că rolul statelor ar putea fi acela de a stimula companiile să ia în serios etica, adică constrângerile de natură morală de care ar trebui să țină cont în dezvoltarea viitoarelor tehnologii.

O altă problemă de etică, care a apărut odată cu popularitatea Chat GPT, este legată de capacitatea lui de a imita oamenii și, implicit, posibilitatea de a-i păcăli pe unii că vorbesc cu o persoană reală. Cum ar putea fi diminuate aceste riscuri?

Avem această înclinație naturală spre a antropomorfiza, adică tindem să înzestrăm agenți non-umani cu trăsături umane. Antropomorfizăm nu doar ceea ce simulează foarte bine comportamentul uman, cum ar fi ChatGPT-3, ci și alte obiecte, de exemplu mașini, jucării de pluș sau plante.

De-a lungul istoriei noastre evolutive, capacitatea de a detecta semnalele sociale s-a dovedit a fi foarte utilă. Așa că astăzi creierul nostru tinde să exagereze puțin. Dar nu văd nimic problematic în a trata obiecte din jur ca și cum ar fi entități cu sentimente sau emoții.

Antropomorfizarea este, de cele mai multe ori, un antrenament moral care ne poate face să devenim agenți morali mai buni. Ori, cel puțin, cred că asta se întâmplă în copilărie, atunci când tratăm jucăriile și prietenii imaginari ca pe propriii noștri frați.

Cel mai mare risc cred că este acela al exploatării sau instrumentalizării celor care ajung să învestească caracteristici sau trăsături umane în IA.

Ne putem imagina o lume în care imitatori aproape perfecți ai conversației umane spontane, cum ar fi ChatGPT-3, sunt construiți pentru a câștiga încrederea oamenilor cu care vorbesc, astfel încât să îi determine să cumpere diverse produse sau servicii sau chiar pentru a-i manipula în scopuri politice. Cred că în curând acest scenariu va deveni realitate.

În orice caz, lumea viitorului este o lume în care agenții dialogali artificiali, ca ChatGPT-3, vor juca un rol din ce în ce mai important în structurarea modului în care comunicăm unii cu alții și învățăm lucruri despre lume.

Nu cred că există o soluție simplă și la îndemână pentru a gestiona aceste riscuri. Însă mi se pare din ce în ce mai evident că problemele nu sunt pur individuale, ci sociale și politice, ceea ce înseamnă că este nevoie de atenția și implicarea fiecăruia dintre noi.

Ar putea, totuși, aceste noi tehnologii să rezolve probleme precum accesibilitatea persoanelor cu dizabilități sau subreprezentarea femeilor la locul de muncă? Poate etica să facă IA mai incluzivă?

Sigur că ar putea să rezolve o groază de probleme și deja o fac. Există tehnologii asistive bazate pe IA care contribuie în mod direct la depășirea dificultăților cu care se confruntă persoanele cu dizabilități în viața de zi cu zi, permițându-le să participe la viața socială, să beneficieze de educație și să se integreze pe piața muncii într-un mod demn.

Însă, în egală măsură, sistemele de inteligență artificială reproduc unele nedreptăți structurale și discriminează, tocmai pentru că datele pe care sunt antrenate funcționează ca o oglindă a practicilor sociale și politice umane.

Dacă vrem ca IA să redreseze aceste probleme, atunci probabil că este nevoie de un efort special în această direcție, un efort ce presupune un travaliu etic.

Mai precis, trebuie să ne punem întrebări dificile, precum: „Cum vrem să arate lumea viitorului? Cum ar trebui să arate tehnologia pentru a ne apropia de idealurile socio-politice pe care le avem?”.

Această muncă conceptuală morală ar trebui să fundamenteze crearea noilor tehnologii și nu să vină abia după ce aruncăm tehnologiile în lume.

Ce părere aveți despre modul în care se raportează oamenii la IA și la felul în care aceasta îi influențează? Ar trebui ca lumea să fie mai interesată de problemele etice din industria IA?

Nu știu cum se raportează oamenii în general la IA. Cred însă că există o fascinație pentru aceste tehnologii, ceea ce mi se pare absolut de înțeles. Însă reversul medaliei este ignorarea riscurilor pe care le ridică dezvoltarea rapidă și aruncarea pe piață a noilor tehnologii.

De obicei, întâi creăm tehnologiile, apoi le punem pe piață și abia în ultimul rând începem să ne gândim la ramificațiile etice ale utilizării lor pe scară largă. Așa s-a întâmplat, de exemplu, cu platformele sociale.

Nu ne-am gândit, atunci când au apărut, că vor ridica la fel de multe probleme precum vor rezolva. Poate că de acum înainte ar trebui să inversăm această ordine. Adică etica ar trebui să fie fundamentală în crearea noilor tehnologii și nu doar o chestiune pe care o abordăm abia după ce am pus tehnologia la lucru.

Nota autoarei: Răspunsurile au fost scurtate și editate pentru claritate.

ARHIVĂ COMENTARII
INTERVIURILE HotNews.ro