Sari direct la conținut

Google, acuzat că pune utilizatorii în pericol: Cum sunt „camuflate” avertismentele medicale în răspunsurile automate ale AI

HotNews.ro
Google, acuzat că pune utilizatorii în pericol: Cum sunt „camuflate” avertismentele medicale în răspunsurile automate ale AI
Fotografie cu caracter ilustrativ. Sursa: Dreamstime.com

AI Overviews oferă sfaturi medicale fără avertismente de siguranță vizibile imediat, arată o investigație The Guardian. Experții de la MIT și Stanford consideră absența acestora periculoasă din cauza riscului de informații eronate, în timp ce Google afirmă că sistemul îndeamnă utilizatorii să consulte un medic.

Pentru subiecte sensibile precum sănătatea, Google susține că răspunsurile generate de inteligența artificială care apar deasupra rezultatelor căutării îi direcționează pe utilizatori către ajutor profesional. Compania a declarat că „prezentările generale generate de IA vor informa oamenii când este important să solicite sfatul unui expert sau să verifice informațiile prezentate”.

Cu toate acestea, o investigație The Guardian a descoperit că aceste avertismente lipsesc în momentul în care utilizatorii primesc pentru prima dată sfaturile medicale.

Mai exact, avertismentele devin vizibile doar dacă utilizatorii aleg să solicite informații suplimentare prin butonul „Afișați mai multe”. Chiar și în acest caz, etichetele de siguranță apar abia la finalul textului, fiind scrise cu un font mai mic și mai deschis la culoare.

„Acest lucru are doar scop informativ”, precizează mesajul pe care utilizatorii îl văd doar după ce navighează până la sfârșitul secțiunii. Textul avertizează că, pentru un diagnostic, este necesară consultarea unui specialist, deoarece „răspunsurile AI pot conține erori”.

Google nu a negat faptul că aceste avertismente lipsesc la prima afișare sau că sunt prezentate într-un format mai puțin vizibil. Un purtător de cuvânt al companiei a declarat că AI Overviews menționează frecvent necesitatea asistenței medicale chiar în cadrul rezumatului, „atunci când este cazul”.

Riscul de „halucinații” medicale 

Experții în AI și reprezentanții pacienților și-au exprimat îngrijorarea față de descoperirile The Guardian. Disclaimerele au un rol esențial, au afirmat aceștia, și ar trebui să apară în mod vizibil atunci când utilizatorii primesc pentru prima dată sfaturi medicale.

„Absența avertismentelor atunci când utilizatorii primesc inițial informații medicale creează mai multe pericole critice”, a declarat Pat Pataranutaporn, profesor și cercetător la Institutul de Tehnologie din Massachusetts (MIT), expert de renume mondial în domeniul AI.

El a subliniat că, în prezent, chiar și cele mai avansate modele încă „halucinează informații eronate sau manifestă un comportament servil, acordând prioritate satisfacției utilizatorilor în detrimentul acurateței”. În contextul asistenței medicale, cercetătorul avertizează că acest lucru poate fi „cu adevărat periculos”.

„În al doilea rând, problema nu ține doar de limitările AI, ci și de latura umană a ecuației. Utilizatorii pot să nu furnizeze toate informațiile necesare sau pot pune întrebări greșite, interpretând eronat simptomele lor. Avertismentele servesc ca un punct de intervenție crucial. Ele perturbă această încredere automată și îi determină pe utilizatori să abordeze într-un mod mai critic informațiile pe care le primesc”, a avertizat expertul.

Design-ul creează un „sentiment de siguranță”

Gina Neff, profesoară de AI responsabilă la Universitatea Queen Mary din Londra, o instituție publică de cercetare de elită, a declarat că „problema cu prezentările generale AI defectuoase este de natură structurală” și că vina aparține Google.

„Prezentările generale AI sunt concepute pentru viteză, nu pentru acuratețe, ceea ce duce la erori în informațiile medicale, care pot fi periculoase”, a adugăt ea.

Neff a subliniat că mecanismul actual de afișare induce utilizatorii în eroare: „Google îi obligă pe oameni să dea clic înainte de a găsi orice avertisment. Persoanele care citesc repede pot crede că informațiile pe care le obțin din AI Overviews sunt mai bune decât sunt în realitate, dar știm că acestea pot conține greșeli grave.”

Această perspectivă este susținută de Sonali Sharma, cercetător la Centrul pentru AI în medicină și imagistică (AIMI) al Universității Stanford, care explică impactul psihologic asupra utilizatorului:

„Problema majoră este că aceste prezentări generale ale IA Google apar în partea de sus a paginii de căutare și oferă adesea ceea ce pare a fi un răspuns complet la întrebarea unui utilizator într-un moment în care acesta încearcă să obțină un răspuns cât mai repede posibil.”

Cercetătoarea susține că acest design creează un „sentiment de siguranță” care descurajează continuarea căutării sau derularea până la secțiunea unde apare mențiunea de exonerare de răspundere.

„Ceea ce cred că poate duce la prejudicii în lumea reală este faptul că prezentările generale AI pot conține adesea informații parțial corecte și parțial incorecte, și devine foarte dificil să se distingă ce este corect și ce nu, cu excepția cazului în care sunteți deja familiarizat cu subiectul”, a concluzionat Sharma.

În urma acestor constatări, organizațiile caritabile pentru pacienți au solicitat măsuri urgente. Tom Bishop, șeful departamentului de informare a pacienților la Anthony Nolan, o organizație caritabilă care se ocupă de cancerul de sânge, a solicitat luarea de măsuri urgente.

„Știm că dezinformarea este o problemă reală, dar când vine vorba de dezinformarea în domeniul sănătății, aceasta poate fi cu adevărat periculoasă”, spune el.

„Această mențiune trebuie să fie mult mai vizibilă, pentru a-i face pe oameni să se oprească și să se gândească: «Este ceva ce trebuie să verific cu echipa mea medicală înainte de a acționa?»”, a adăugat Bishop. El a cerut ca avertismentul să fie chiar în partea de sus.

„Aș dori să fie primul lucru pe care îl vedeți. Și, în mod ideal, ar trebui să aibă aceeași dimensiune a fontului ca restul textului, nu să fie mică și ușor de ratat”, a mai spus el.

Replica Google

Această situație nu este nouă; deja din luna ianuarie, o anchetă a ziarului The Guardian a dezvăluit că utilizatorii erau expuși riscului de a suferi prejudicii din cauza informațiilor medicale false și înșelătoare din prezentările generale ale Google, scrie publicația britanică.

Deși, în urma acelui raport, compania a eliminat funcția pentru anumite căutări sensibile, măsura nu a fost aplicată generalizat.

În replică, un purtător de cuvânt al Google a respins criticile: „Este inexact să se sugereze că AI Overviews nu încurajează oamenii să solicite sfatul unui medic specialist. În plus față de o declarație de exonerare de răspundere clară, AI Overviews menționează frecvent solicitarea de asistență medicală direct în cadrul prezentării generale, atunci când este cazul.”

INTERVIURILE HotNews.ro