Microsoft și Marea Britanie vor colabora pentru crearea unui sistem de detectare automată a „deepfake”-urilor din mediul online
Guvernul britanic a anunțat joi că va colabora cu Microsoft, cu mediul academic și cu experți pentru a dezvolta un sistem de identificare a materialelor „deepfake” din mediul online în contextul în care încearcă să stabilească standarde pentru combaterea conținutului dăunător și înșelător generat de inteligența artificială (AI), relatează Reuters și Yahoo News.
Deși materialele manipulatoare și înșelătoare circulă pe internet de zeci de ani, adoptarea rapidă a instrumentelor de inteligență artificială generativă a amplificat îngrijorările legate de amploarea și realismul „deepfake”-urilor. Acestea sunt considerate de regulă imagini, videoclipuri sau înregistrări audio în care fața, vocea sau identitatea unei persoane sunt înlocuite sau imitate foarte realist, astfel încât par autentice, deși sunt complet fabricate.
Marea Britanie, care a incriminat recent crearea de imagini intime fără consimțământ, a declarat că lucrează la un cadru de evaluare pentru detectarea „deepfake”-urilor, menit să stabilească standarde coerente pentru evaluarea instrumentelor și tehnologiilor de detecție.
„Deepfake-urile sunt transformate în arme de către infractori pentru a înșela publicul, a exploata femeile și fetele și a submina încrederea în ceea ce vedem și auzim”, a declarat într-un comunicat Liz Kendall, ministrul tehnologiei de la Londra.
Creștere explozivă a numărului de „deepfake”-uri ce circulă pe internet
Guvernul condus de premierul Sir Keir Starner a precizat că acest cadru va evalua modul în care tehnologia poate fi utilizată pentru a analiza, înțelege și detecta materiale „deepfake” dăunătoare, indiferent de sursa acestora – prin testarea tehnologiilor de detectare a „deepfake”-urilor în raport cu amenințări din lumea reală, precum abuzul sexual, frauda și uzurparea de identitate.
Guvernul britanic a mai spus că acest lucru îl va ajuta, în colaborare cu forțele de ordine, să obțină o înțelegere mai bună a zonelor în care persistă lacune în detectare. Cabinetul de la Londra a adăugat că acest cadru va fi folosit pentru a stabili așteptări clare pentru industrii în privința standardelor de detectare a „deepfake”-urilor.
Potrivit datelor guvernamentale, aproximativ 8 milioane de „deepfake”-uri au fost distribuite în Marea Britanie anul trecut, în creștere de la 500.000 în 2023.
Guvernele și autoritățile de reglementare din întreaga lume, care se străduiesc să țină pasul cu evoluția rapidă a tehnologiei AI, au fost impulsionate să acționeze anul acesta, după ce chatbotul Grok al lui Elon Musk a fost descoperit că genera imagini sexualizate fără consimțământ cu persoane reale, inclusiv copii.
Autoritatea britanică de reglementare în comunicații și autoritatea pentru protecția datelor desfășoară investigații paralele asupra chatbotului Grok.