Anthropic introduce „visarea”, un sistem care permite agenților AI să învețe din propriile greșeli
Anthropic a anunțat o serie de update-uri la platforma agenților Claude, printre ele fiind o nouă capabilitate intitulată „visarea” care le permite agenților AI să învețele din sesiunile lor trecute de activitate și să se îmbunătățească în timp, un pas către sistemele AI care se pot auto-corecta și auto-îmbunătăți, care au fost cerute de companii înainte de a lăsa agenții să gestioneze sarcini de producție, scrie Venture Beat.
Totodată, compania a trecut de la stadiul experimental la cel de testare a două alte caracteristici: „efecte” (outcomes) și orchestrarea multi-agent, care vor fi disponibile pe platforma Claude. Toate cele trei capabilități încearcă să rezolve problemele despre care Anthropic spune că sunt cele mai dificile în ce privește agenții AI: să-i mențină exacți, să-i ajute să învețe și să-i împiedice să devină obstacole în activitățile complexe, în mai mulți pași.
Rezultate promițătoare
Companiile care le-au utilizat până acum au raportat rezultate semnificative. Firma de avocatură Harvey a raportat că rata de finalizare a sarcinilor a crescut de șase ori folosind „visarea”, iar Wisedocs, o companie specializată în evaluarea documentelor medicale, a anunțat că timpul necesar a fost redus cu 50% prin folosirea outcomes.
Anunțul Anthropic vine într-un moment de ascensiune accelerată pentru companie. Potrivit șefului companiei, Dario Amodei, în primul trimestru din 2026, Anthropic a avut o creștere 80 de ori a veniturilor și utilizării serviciilor sale, cu multe peste creștere de 10 ori la care conducerea companiei se aștepta.
Agenții AI „își iau notițe”
„Visarea” este un proces programat care evaluarea sesiunilor trecute de lucru ale agentului AI, să extragă din ele moduri și acțiune și să gestioneze memoria sa astfel încât agenții să se îmbunătățească în timp. Astfel sunt scoase la iveală lucruri pe care agentul nu le poate vedea singur: greșeli care se repetă, activități pe care mai mulți agenți de realizează în mod independnet și preferințele comune din cadrul unei echipe de agenți AI.
Alex Albert, care coordonează activitatea de cercetare la Anthropic, a spus că, prin „visare”, agenții AI „își iau notițe” pe care le pot utiliza pe viitor și care pot fi observate și evaluare de către observatorii umani. Toate „amintirile” astfel stocate pot fi inspectat din exterior, iar modelele mai inteligente au îmbunătăți calitatea acestor notițe. „Învață să scrie notițe mai bune pentru ce vor fi ei în viitor”, a spus Albert.
Aselenizarea fără implicare umană
O echipă Anthropic a demonstrat cum funcționează cele trei noi caracteristici folosind o navă spațială fictivă, „Lumara”, care ar trebui să lanseze drone terestre pe suprafața Lunii în vederea exploatării miniere. Echipa a configurat un sistem multi-agent cu trei specialiști – un agent comandant responsabil cu succesul general al misiunii, un agent detector care a identificat locurile cele mai potrivite pentru aselenizare și un agent navigator care s-a ocupat de zborul și aterizarea în siguranță a dronelor.
Inițial a fost simulată aselenizarea în șase locuri ipotetice, rezultatele fiind încurajatoare, dar imperfecte. Ulterior, a fost începută o sesiune de „visare” din consola Claude Developer. Peste noapte, agentul de visare a evaluat sesiunile trecute de similare și a scris un manual detaliat pentru aselenizare. Când simulările au fost reluate a doua zi, de data aceasta pe baza manualului, rezultatele s-au îmbunătățit semnificativ.
O problemă care va trebui remediată
Demonstrația a arătat cum funcționează concomitent cele trei funcții. „Orchestrarea multi-agent” a împărțit sarcini complexe în sarcini mai mici către agenți specializați în ferestre de context independente, iar rezultatele au fost mai bune decât atunci când se încredințează toate aceste sarcini unui singur model AI.
„Efectele” au furnizat rubrica în funcție de care un alt agent a putut evalua rezultatele fiecărei sesiuni de lucru, iar „visarea” a extras învățăturile din experiențele anterioare pentru a îmbunătăți prestațiile viitoare. Practic procesul de îmbunătățire a agenților AI se desfășoară fără intervenție umană.
Albert a admis că este problematic să faci un model AI să se verifice singur. Una dintre probleme este că autoverificarea și autocorectarea repetată pe un număr mare de sesiuni duc la degradarea rezultatelor în timp, însă Anthropic lucrează și la remedierea acestei probleme.
Însă capacitatea agenților AI de a-și consulta propriile experiențe creează premisele pentru ca sistemele de inteligență artificială să fie suficient de performante astfel încât companiile să le delege sarcini de importanță majoră, notează Venture Beat.