Pentagonul vrea să rupă relația cu modelul de inteligență artificială care l-a ajutat în operațiunea de capturare a lui Nicolas Maduro
Pentagonul ia în considerare încetarea relației cu compania de inteligență artificială Anthropic din cauza insistenței acesteia de a menține anumite restricții asupra modului în care armata SUA utilizează modelele sale, potrivit Axios și Reuters.
Pentagonul presează patru companii de IA să permită armatei americane să utilizeze instrumentele lor în „toate scopurile legale”, inclusiv în domenii precum dezvoltarea de arme, colectarea de informații și operațiuni pe câmpul de luptă, dar Anthropic nu a acceptat aceste condiții, iar Pentagonul s-a săturat după luni de negocieri, potrivit Axios
Celelalte companii sunt OpenAI (care are ChatGPT), Google (Gemini) și xAI (Grok).
Un purtător de cuvânt al Anthropic a declarat că compania nu a discutat cu Pentagonul despre utilizarea modelului său de IA Claude pentru operațiuni specifice.
Acesta a spus că discuțiile cu guvernul SUA s-au concentrat până acum pe o serie de întrebări specifice privind politica de utilizare, inclusiv limite stricte în ceea ce privește armele complet autonome și supravegherea națională în masă, niciuna dintre acestea nefiind legată de operațiunile actuale.
Modelul de inteligență artificială Claude al Anthropic a fost utilizat în operațiunea militară americană de capturare a fostului președinte venezuelean Nicolas Maduro, Claude fiind implementat prin parteneriatul Anthropic cu firma de date Palantir, a scris vineri Wall Street Journal.
De asemenea, într-un material Reuters de miercuri se scrie că Pentagonul a presat companiile de top din domeniul IA, inclusiv OpenAI și Anthropic, să îi pună la dispoziție instrumentele lor de inteligență artificială pe rețelele secrete, fără multe dintre restricțiile standard pe care companiile le aplică utilizatorilor.
foto: Rafael Henrique | Dreamstime.com
