O mare companie din domeniul AI recunoaște o greșeală de 1,5 miliarde de dolari
Anthropic, una dintre cele mai importante companii din domeniul inteligenței artificiale (AI) a fost de acord să plătească 1,5 miliarde de dolari pentru a încheia un proces intentat de autori și edituri în legătură cu folosirea a milioane de cărți protejate prin drepturi de autor pentru antrenarea modelelor din spatele chatbot-ului său Claude, relatează Gizmodo.
Un judecător federal a constatat în iunie că folosirea de către Anthropic a 7 milioane de cărți piratate era protejată de doctrina „fair use” (utilizare cinstită), dar că păstrarea operelor digitale într-o „bibliotecă centrală” încălca legislația privind drepturile de autor. Judecătorul a concluzionat că directorii companiei știau că descarcă lucrări piratate, iar un proces fusese programat să înceapă în luna decembrie.
Acordul între Anthropic și reclamanți a fost prezentat unui judecător la finele săptămânii trecute și necesită încă aprobarea finală a instanței, însă specialiștii în drept consideră că aceasta va fi mai degrabă o formalitate.
Potrivit The New York Times, înțelegerea prevede plătirea a 3.000 de dolari pentru fiecare carte folosită astfel pentru antrenarea Claude iar printre cei despăgubiți se vor număra sute de mii de autori. Înțelegerea de 1,5 miliarde de dolari ar reprezenta cea mai mare despăgubire din istoria drepturilor de autor în SUA, deși suma plătită per operă a fost adesea mai mare.
Într-o declarație transmisă site-ului tech Gizmodo, reprezentanții Anthropic au amintit de hotărârea anterioară din iunie, care a stabilit că utilizarea a milioane de cărți pentru antrenarea modelelor constituia „fair use”.
„În iunie, Curtea Districtuală a emis o hotărâre de referință privind dezvoltarea AI și legislația drepturilor de autor, constatând că metoda Anthropic de a antrena modele AI constituie fair use”, a declarat compania.
„Acordul de astăzi, dacă va fi aprobat, va rezolva pretențiile reziduale ale reclamanților. Rămânem dedicați dezvoltării unor sisteme de inteligență artificială sigure, care să ajute oamenii și organizațiile să își extindă capacitățile, să avanseze descoperirea științifică și să rezolve probleme complexe”, a continuat aceasta.
Doar păstrarea cărților într-o „librărie” centralizată a fost greșită
Hotărârea din iunie a explicat că antrenarea modelelor AI de către Anthropic cu cărți protejate prin drepturi de autor este considerată „fair use” în conformitate cu legislația SUA, pentru că, teoretic, cineva ar putea citi „toate marile clasice contemporane” și le-ar putea emula.
„(…) nu s-a reprodus pentru public conținutul creativ al unei anumite opere, nici măcar stilul expresiv identificabil al unui autor… Da, Claude a generat gramatică, compoziție și stil pe care modelul LLM de bază le-a distilat din mii de opere. Dar dacă cineva ar citi toate marile clasice contemporane datorită expresivității lor excepționale, le-ar memora și apoi ar emula un amestec al celor mai bune scrieri, ar încălca acest lucru Legea drepturilor de autor? Desigur că nu”, a scris judecătorul în motivarea deciziei.
„La fel ca orice cititor care aspiră să devină scriitor, modelele LLM ale Anthropic s-au antrenat pe opere nu pentru a le copia sau înlocui – ci pentru a o lua pe un drum diferit și a crea ceva nou”, se arată în hotărâre.
Conform acestei teorii juridice, tot ce trebuia să facă Anthropic era să cumpere fiecare carte piratată pentru a-și putea antrena legal modelele, ceea ce ar fi costat-o considerabil mai puțin de 3.000 de dolari per carte. Însă, după cum notează New York Times, acest acord nu va stabili niciun precedent juridic pentru cazurile viitoare, deoarece nu va ajunge în instanță.
Anthropic, companie evaluată recent la 183 de miliarde de dolari, a fost fondată în 2021 de frații Dario și Daniela Amodei și este cunoscută pentru chatbot-ul Claude, lansat în martie 2023 în SUA și un an mai târziu în Europa.
La fel ca OpenAI, compania din spatele ChatGPT, Anthropic s-a remarcat rapid în Silicon Valley și analiștii consideră că modelele sale sunt mai avansate decât cele ale unor giganți tech mult mai cunoscuți.