OpenAI s-a înțeles cu Pentagonul la câteva ore după ce Administrația Trump a interzis Anthropic. „Un precedent periculos”
Șeful OpenAI, Sam Altman, a anunțat vineri noapte că a semnat un acord cu Pentagonul pentru utilizarea instrumentelor sale de inteligență artificială în sistemele clasificate ale armatei americane, dar cu restricții aparent similare cu cele solicitate și de rivalul Anthropic, potrivit CNN și Reuters.
Acordul cu OpenAI, care deține ChatGPT, a venit aproape imediat după ce președintele Donald Trump a anunțat că toate agențiile guvernamentale federale trebuie să înceteze utilizarea instrumentelor de IA ale Anthropic.
Această lovitură pentru Anthropic a fost amplificată de secretarul apărării Pete Hegseth, care a anunțat că dezvoltatorul de inteligență artificială va fi considerat un „risc pentru lanțul de aprovizionare” după ce a refuzat să cedeze în negocierile în privința restricțiilor pe care le-a solicitat pentru a permite utilizarea sistemului său de IA în arme autonome și supravegherea în masă a cetățenilor americani.
Pentagonul pare să fi acceptat restricțiile OpenAI
Dar declarația lui Altman sugerează că Pentagonul a acceptat restricții similare pentru a folosi modelele OpenAI.
„Două dintre cele mai importante principii de siguranță ale noastre sunt interdicțiile privind supravegherea internă în masă și responsabilitatea umană pentru utilizarea forței, inclusiv pentru sistemele de arme autonome. Departamentul de Război este de acord cu aceste principii, le reflectă în lege și politică, iar noi le-am inclus în acordul nostru”, a scris Altman pe X.
„De asemenea, vom crea măsuri de protecție tehnice pentru a ne asigura că modelele noastre se comportă așa cum ar trebui, ceea ce și-a dorit și (Departamentul de Război)”, a adăugat el.
Perioadă de tranziție de șase luni și amenințări la adresa Anthropic
Trump a spus că va exista o perioadă de tranziție de șase luni pentru Departamentul Apărării și alte agenții care utilizează produsele companiei.
Dacă Anthropic nu va ajuta la tranziție, Trump a spus că va folosi „toată puterea președinției pentru a-i obliga să se conformeze, cu consecințe civile și penale majore”.
Aceste acțiuni reprezintă o lovitură majoră a SUA împotriva uneia dintre cele mai importante companii de inteligență artificială din sectorul securității naționale.
Anthropic riscă să ajungă într-o situație de paria pe care Washingtonul îl rezervase până acum furnizorilor inamici, în ciuda faptului că îi are printre susținătorii financiari pe giganții Google și Amazon.
„Precedent periculos”
Aceste măsuri creează un precedent potrivit căruia numai legislația americană poate restricționa modul în care IA este utilizată pe câmpul de luptă, Pentagonul căutând să aibă flexibilitate maximă în domeniul apărării și să nu fie limitat de avertismentele creatorilor tehnologiei împotriva alimentării armelor cu IA nesigură.
Anthropic a afirmat într-un comunicat că va contesta în instanță orice desemnare de risc din partea Departamentului Apărării, pe care administrația Trump l-a redenumit Departamentul Războiului.
„Considerăm că această desemnare ar fi atât ilegală, cât și un precedent periculos pentru orice companie americană care negociază cu guvernul”, a declarat compania.
„Niciun fel de intimidare sau pedeapsă din partea Departamentului de Război nu ne va schimba poziția cu privire la supravegherea internă în masă sau armele complet autonome”, a adăugat Anthropic.
Desemnarea drept un „risc pentru lanțul de aprovizionare” ar putea împiedica zeci de mii de contractori să utilizeze IA Anthropic atunci când lucrează pentru Pentagon.
Aceast lucru reprezintă o amenințare existențială pentru afacerile sale cu guvernul și ar putea dăuna relațiilor sale cu sectorul privat, a declarat Franklin Turner, un avocat specializat în contracte guvernamentale. „Includerea Anthropic pe lista neagră este echivalentul contractual al unui război nuclear”, a spus el.
