Patru companii de AI, în vizorul autorităților din Australia din cauza „unei laturi întunecate”: Ce ordin au primit în privința protejării copiilor
Australia a ordonat ca patru companii producătoare de chatbot-uri cu inteligență artificială să explice măsurile pe care le iau pentru a proteja copiii de expunerea la materiale cu caracter sexual sau care incită la automutilare, în contextul în care autoritatea de reglementare a internetului din această țară întărește măsurile de siguranță în domeniul inteligenței artificiale (AI), scrie miercuri Reuters.
Abilitățile realiste de conversație ale acestor servicii au cucerit lumea, dar au stârnit și îngrijorarea că lipsa unor măsuri de protecție expune persoanele vulnerabile la conținut periculos.
Într-un comunicat, comisarul pentru siguranța electronică (eSafety) a afirmat că a solicitat detalii despre măsurile de protecție împotriva exploatării sexuale a copiilor, pornografiei și materialelor care promovează sinuciderea sau tulburările alimentare.
Acesta a trimis notificări către Character Technologies, proprietarul instrumentului de chatbot Character.ai, și către rivalii Glimpse.AI, Chai Research și Chub AI.
„Unele dintre aceste servicii pot avea o latură mai întunecată, multe dintre chatbot-uri fiind capabile să poarte conversații sexuale explicite cu minori”, a declarat comisarul Julie Inman Grant, în comunicat.
„Au fost exprimate îngrijorări cu privire la faptul că acestea ar putea încuraja sinuciderea, automutilarea și tulburările alimentare”, a adăugat oficialul australian.
Sistemul de reglementare online din Australia îi conferă comisarului puterea de a obliga firmele de internet să raporteze procesele interne de siguranță, în caz contrar acestea riscând amenzi zilnice de până la 825.000 de dolari australieni (536.000 de dolari americani).
Cel mai popular dintre serviciile vizate, Character.ai, este dat în judecată în Statele Unite după ce mama unui adolescent de 14 ani a afirmat că fiul ei s-a sinucis în urma unei interacțiuni prelungite cu un interlocutor AI de pe site.
Character.ai a încercat să respingă procesul și susține că a introdus funcții de siguranță, cum ar fi ferestre pop-up care direcționează utilizatorii către National Suicide Prevention Lifeline (Linia națională de prevenire a sinuciderilor) dacă aceștia exprimă gânduri de a-și face rău.
Școlile din Australia au raportat că copii de numai 13 ani petrec până la cinci ore pe zi vorbind cu chatbot-uri, uneori despre subiecte sexuale, a precizat autoritatea de reglementare, adăugând că minorii riscă să formeze legături sexuale sau emoționale de dependență cu aceștia sau să fie incitați să-și facă singuri rău.
Cu toate acestea, autoritatea de reglementare nu a interpelat OpenAI, proprietarul celui mai popular instrument de căutare AI din lume, ChatGPT, deoarece măsurile sale restrictive s-au concentrat pe instrumentele bazate pe interlocutori, iar ChatGPT nu este acoperit de un cod industrial până în martie 2026, a declarat un purtător de cuvânt al eSafety.
Australia are unul dintre cele mai stricte regimuri de reglementare a internetului din lume.
Începând din decembrie, companiile de social media vor fi obligate să dezactiveze sau să refuze conturile utilizatorilor cu vârsta sub 16 ani sau vor fi pasibile de o amendă de până la 49,5 milioane de dolari australieni, în încercarea de a proteja sănătatea mintală și fizică a tinerilor.
