Probleme etice în folosirea inteligenței artificiale: între politici publice, inovație și riscuri necesare
Inteligența artificială a trecut rapid de la concept futurist la instrument folosit zilnic în companii, universități și instituții publice. În mai puțin de un deceniu, algoritmii genetici, automatizarea deciziilor, analiza datelor și LLM-urile au schimbat modul în care muncim, comunicăm și luăm decizii. Acest val tehnologic a reaprins discuții vechi despre responsabilitate, justiție socială și impactul progresului asupra oamenilor.
De fapt, nu este prima dată când progresul tehnologic ridică întrebări legate de etică. De la Revoluția Industrială până la apariția internetului, noile tehnologii au adus inovație, dar și exploatarea forței de muncă, poluare, supraveghere cu ȋncălcarea dreptului la viață privată, manipulare informațională sau inegalitate economică. Diferența este că inteligența artificială mută aceste dileme într-o zonă dificil de anticipat: nu mai automatizăm doar munca fizică, ci și procese intelectuale, ceea ce ne duce către o întrebare complexă: ce probleme etice sunt relevante în epoca AI? Ȋn prezent, provocările centrale se concentrează pe câteva teme majore:
Responsabilitate și control
Un incident recent din Australia a evidențiat riscurile utilizării necontrolate a inteligenței artificiale în procese critice. Totul a pornit de la un raport oficial, realizat de o firmă de consultanță pentru autoritățile australiene, care conținea erori generate prin utilizarea unui LLM (Large Language Model). Deși acestea au fost corectate ulterior, situația a arătat cât de ușor pot fi integrate informații greșite în decizii oficiale atunci când lipsește supravegherea umană și transparența. Incidentul a scos în evidență vulnerabilități legate de controlul calității, auditul intern și responsabilitatea în adoptarea tehnologiilor emergente.
Dacă un raport de o asemenea amploare poate fi afectat de procesul de halucinare a unui LLM (adică de generare a unor informații false, inexacte sau inventate dar care par plauzibile) pot să apară suspiciuni legate și de documente cu o relevanță restrȃnsă: audit, presă, rapoarte interne etc. Astfel, problemele ridicate de acest caz rămȃn relevante ȋn continuare:
- Cine este responsabil legal de eroare: consultantul, algoritmul, compania?
- Cum verificăm sursa informației într-un document generat automat?
- Este nevoie de etichetare obligatorie pentru conținut creat cu AI?
Impact pe piața muncii și rezultate mixte la nivel de productivitate
În multe companii, instrumentele AI sunt introduse ca soluții de eficientizare a muncii, dar comportă și un risc, deloc neglijabil. Unele organizații limitează utilizarea LLM-urilor din motive de confidențialitate sau siguranță, pe cȃnd altele integrează accesul la acestea ȋn toate procesele de business. Diferența dintre aceste practici creează avantaje competitive nedrepte: acolo unde AI este permis, timpul de lucru scade, iar activitățile devin mai eficiente.
Ȋntr-un raport realizat de McKinsey&Company ȋn 2025 este conturată ideea că revoluția AI este de același calibru cu inventarea motorului cu abur și că persoanele din cȃmpul muncii cu vȃrste ȋntre 35 și 44 de ani se declară, ȋn proporție de 90%, pregătite să integreze ȋn activitatea lor instrumente AI. Cu toate că sporirea eficienței muncii pe termen lung este incontestabilă, pe termen scurt beneficiile aduse de inteligența articială sunt ȋncă neclare.
Ȋn același registru se ȋncadrează și studiul realizat de IBM ȋn acest an care arată că există un trend de acceptare (ȋntre 24.5% și 34.6% dintre respondenți) a folosirii instrumentelor de tip LLM, care s-au dovedit valoroase ȋn special ȋn rezolvarea unor sarcini repetitive. O abordare critică asupra integrării AI ȋn dezvoltarea de software regăsim ȋn studiul publicat de Joel Becker et al. ȋn 2025 ce relevă o scădere cu aproape o cincime a productivității ȋn rȃndul dezvoltatorilor software experimentați din cauza ȋntelegerii incomplete de către AI a contextului de lucru.
Ȋn timp ce pentru angajatori dilema este nu dacă, ci cȃnd și ȋn ce ritm să integreze tehnologii AI ȋn activitatea curentă, pentru angajați apare îngrijorarea firească: ce se întâmplă cu profesiile care pot fi automatizate?
Bias și discriminare
Algoritmii învață din date reale, care conțin stereotipurile, prejudecățile și inegalitățile existente ȋn societate. Fără intervenție umană, AI poate reproduce sau amplifica inechitatea, de la respingerea unor candidați la angajare, oferirea de recomandări financiare sau juridice incorecte pȃnă la identificarea greșită a unor persoane din motive rasiale.
Ȋn acest sens, este de notorietate poziția unui colos tehnologic, care a declarat ȋn 2020 ȋncetarea dezvoltării de software de recunoaște facială folosit pentru supraveghere, ca răspuns la valul de proteste din Statele Unite declanșat de moartea lui George Floyd. Deși nu a avut legatură directă cu o identificare greșită din motive rasiale, acest caz a generat o dezbatere ferventă despre rasismul sistemic și tehnologiile folosite de poliție care au un bias rasial.
Exemple de identificări greșite din motive rasiale, cu potențiale consecințe foarte grave, găsim ȋn ȋntreaga lume. În Xinjiang (China), recunoașterea facială este folosită pentru identificarea și urmărirea uigurilor, un grup supus represiunilor sistemice. Ȋn Rio de Janeiro (Brazilia) poliția a folosit recunoaștere facială în operațiuni armate în favelas și au fost documentate cazuri cȃnd persoane nevinovate au fost ținute la țintă sau supuse unor pericole din cauză ca au fost confundate cu suspecți periculoși. Ȋn SUA, cazurile Niijer Parks (New Jersey) și Robert Williams (Detroit) au rămas emblematice pentru situațiile ȋn care persoane afro-americane au fost trȃntite la pămȃnt și ȋncătușate brutal din motive de identificare greșită prin recunoaște facială.
Manipulare informațională
Răspândirea dezinformării, generarea de conținut fals și tehnologia deepfake fac dificilă separarea realului de manipulare. Șocanta afirmație a omului de știință Neil deGrasse Tyson, care apare ȋntr-un video deepfake spunȃnd că pămȃntul este plat a fost deconspirată ȋn emisiunea sa, StarTalk. Rămȃn ȋnsă accesibile publicului și nedezmințite multe alte asemenea materiale video, ȋn care persoane publice sunt asociate fără acordul lor cu recomandarea unui produs, de exemplu, sau cu adoptarea unei poziții controversate ȋntr-o chestiune delicată.
Un raport McAfee din perioada februarie 2023 – februarie 2024 arată că 43% dintre respondenți au raportat conținut deepfake, 26% au fost expuși unor tentative de scam deepfake iar 9% chiar au cazut victime acestora. Operațiunile de tip scam bazate pe furtul identității sunt tot mai frecvente și mai greu de combătut și există ȋngrijorarea că fenomenul va căpăta o anvergură tot mai mare.
Ȋn politică, ȋn special ȋn campanii electorale, vulnerabilitățile pe care le creează instrumentele deepfake sau fake news la nivelul alegătorului pot fi decisive. Există însă și excepții: Ȋn cazul Irlandei, materialul video deepfake ȋn care Catherine Conolly ȋși anunța retragerea din cursa pentru prezidențiale de anul acesta nu a ȋmpiedicat-o pe aceasta să cȃștige.
Ȋn scopul protecției ȋmpotriva utilizării răuvoitoare a materialelor deepfake, Danemarca a propus un amendament inovator, unic ȋn Europa, la legea proprietății intelectuale care stipulează un drept de proprietate asupra vocii, feței și a aspectului fizic ale unei persoane. Dacă va fi votat, acesta va permite acordarea de compensații civile persoanelor a căror identitate a fost folosită fără consimțămȃnt ȋntr-un material deepfake.
Ȋn ciuda acestor riscuri majore, rolul decisiv pe care tehnologia deepfake ȋl poate avea ȋn educație și dezvoltare personală este incontestabil. De la recrearea virtuală a unor personalități istorice, care să asiste profesorul ȋn captarea atenției elevilor, la corectarea temelor și acordarea de feedback personalizat pȃnă la simularea unor pacienți care să ajute studenții de la Medicină sau Psihologie, tehnologia rămȃne ȋn slujba intenției din spatele utilizării sale.
Dependența de tehnologie
Instrumentele AI promit eficiență, dar există riscul ca o parte din abilitățile umane precum analiza critică, scrierea, argumentarea și altele să se erodeze în timp, prin delegarea lor. Unele studii recente (MIT 2025, MDPI 2025) avertizează asupra datoriei cognitive (acumularea de sarcini mentale neterminate sau neprocesate care consumă resurse cognitive fără ca persoana ȋn cauză să-și dea seama) create atunci când folosim AI pentru sarcini care înainte necesitau efort intelectual. Nu există încă dovezi clare privind efecte neurologice pe termen lung, dar este o zonă de interes științific în creștere.
Europa, între prudență și pierderea cursei
Contextul societății globalizate accentuează diferențe de abordare legate de tehnologiile AI. Statele Unite și China investesc agresiv în tehnologie și brevete, în timp ce Uniunea Europeană a preferat până acum o strategie protecționistă: reglementări ferme, legislație anti-abuz, interzicerea supravegherii ȋn timp real cu aplicații biometrice ȋn spațiile publice, limitări privind și colectarea, stocarea și folosirea datelor personale.
Această prudență frânează dezvoltarea economică: companiile europene dezvoltatoare de AI nu pot concura pe piața internațională cu cele americane și chineze, ceea ce duce tot mai mult la un exod al acestora spre Vest. Efectul de domino apare ȋn toate domeniile de activitate din Europa care ar fi putut beneficia de inovație prin AI. Totuși, aceeași prudență poate preveni un impact negativ cauzat de adoptarea necontrolată a tehnologiilor emergente.
Deși scenariile apocaliptice apar des în discursul public, cele mai relevante ȋngrijorări nu țin de o super-inteligență care preia controlul, ci de probleme deja vizibile: erori care ajung în documente oficiale, pierderea trasabilității deciziilor automate, conținut generat în masă fără verificare, vulnerabilitatea la manipulare digitală și scăderea încrederii în informație.
În plus, tot mai multe articole științifice și documente profesionale sunt redactate cu ajutorul AI. Eficiența este remarcabilă, dar apare o întrebare delicată: cum evaluăm autorul, originalitatea și corectitudinea atunci când conținutul devine automatizat?
Nevoia de reguli și de dialog
Răspunsul nu poate veni doar de la profesioniștii din domeniul AI. Eticieni, juriști, profesori, medici, ingineri, legislatori și publicul larg trebuie implicați în definirea limitei dintre util și periculos. În România, exercițiul acestui tip de dialog este încă la început, dar dezbaterile pe această temă apar tot mai des în mediul academic, ȋn podcasturi și în organizații profesionale.
Workshop-ul organizat în septembrie 2025 la Institutul de Cercetare al Universității din București a adus exact această perspectivă: AI nu este doar tehnologie, ci fenomen social. Emoțiile, educația, limbajul și cultura sunt deja influențate de aplicațiile bazate pe AI.
Inteligența artificială nu este un nemesis al omului, ci un instrument puternic, care poate îmbunătăți viața și crea oportunități. Totuși, fără reguli clare, transparență și responsabilitate, efectele secundare pot fi grave: de la manipulare informațională la scăderea calității muncii sau pierderea încrederii oamenilor ȋn tehnologie și ȋn produsele acesteia.
Nu este previzibil ȋncă încotro se ȋndreaptă acest proces, dar o dezbatere onestă și informată este esențială. Progresul tehnologic continuă, iar întrebarea relevantă nu este dacă îl putem opri, ci cum îl putem folosi în beneficiul societății.
Pagini de [cod] – Articol susținut de ING Hubs