Sari direct la conținut

De ce sistemele de inteligență artificială se perfecționează așa de rapid și de ce creatorii acestor sisteme se tem de cum va fi folosită tehnologia pe viitor

HotNews.ro
Om si robot, Foto: Shutterstock
Om si robot, Foto: Shutterstock

Din 2012 încoace domeniul Inteligenței Artificiale (AI) a avansat consistent, dar niciodată precum în ultimii doi ani când o serie de factori s-au unit într-un mod aproape ideal și ne-au adus programe spectaculoase precum ChatGPT. Dar de ce a venit acum, relativ brusc, această accelerare? De ce așa de mulți oameni care au dus AI-ul așa foarte departe se tem de cum va fi folosită tehnologia?

O îmbunătățire la viteză „turbo”

Anul 2023 este al Inteligenței Artificiale și investițiile în AI au atins niveluri record. OpenAI, Google, Meta, dar și alți concurenți mai mici, s-au perfecționat incredibil de mult în câteva luni și vor fi și mai buni până la final de 2023 cu chatboți și alte soluții de Ai generativ.

Au apărut numeroase comparații despre cum răspundea un chatbot în 2019, 2021 și 2023 sau despre cât de „pixelate” erau pozele create de soft-uri AI acum 3 ani și cât de clare sunt în prezent. Mai mulți factori au contribuit la îmbunătățirea accelerată a soft-urilor de Ai generativ în ultimul an: modelarea matematică mai bună. mai multă putere de computing, procesoare mai puternice, seturi de date complete și de înaltă calitate.

În ultimii doi ani avansul soft-urilor de AI a fost fără precedent, iar asta s-a datorat și unui nou model de „antrenare” a acestor AI-uri: modelul denumit Transformers, care permite procesarea rapidă a unor blocuri gigantice de limbaj, dar permite și testarea rezultatelor.

Arhitectura Transformers a fost descrisă pentru prima oară de cercetători de la Google, în 2017. Vorbim despre modele de limbaj natural ce încă de acum peste cinci ani erau utilizate în principal pentru a rezolva probleme de procesare a limbajului natural, cum ar fi traducerea automată, generarea de texte sau răspunsuri la întrebări.

Pentru generatoarele AI de imagini, precum Dall-E și Midjourney, a fost implementată o metodă de antrenare numită „diffusion”. Miliarde de imagini au fost încărcate, fiecare cu o descriere, iar computerul a identificat relațiile dintre imagini și cuvinte.

Sistemul învață și să identifice și să elimine imperfecțiunile din poze, pentru ca imaginile create să fie cât mai clare și mai apropiate de fotografiile din realitate.

Trebuie menționat și faptul că această comunitate de cercetare în domeniul AI a făcut progrese semnificative în dezvoltarea de algoritmi de învățare automată mai avansați ce au demonstrat rezultate remarcabile în procesarea limbajului natural..

GPU – O evoluție fantastică

A fost nevoie de foarte multe investiții în unitățile de procesare grafice, GPU, Graphics Processing Units care pot procesa foarte multe operațiuni simultan, condiție esențială pentru „antrenarea” și optimizarea unui set gigantic de date. Nu este de mirare că Nvidia a ajuns să valoreze peste 1.000 de miliarde dolari: procesoarele sale grafice, unele la prețuri de zeci de mii de dolari, s-au vândut foarte bine, fiindcă fără ele avansul rapid al sistemelor de AI nu era posibil.

Nvidia a dezvoltat inițial GPU-uri pentru jocuri, dar compania s-a prins că va fi mare cerere de cip-uri și pentru sistemele de AI, mai ales că sunt puține companii care fac unități atât de performante.

În cloud pot fi legate virtual mai multe GPU-uri și puterea incredibilă de computing devine disponibilă și pentru companii mai mici care nu ar avea acces la un supercomputer clasic. Vorba „când sunt mulți puterea crește” funcționează în cazul de față,

Date, oameni și costuri uriașe de operare

Acest progres rapid din ultimii doi ani nu ar fi fost posibil fără existența unor seturi de date mai mari, de calitate mai bună și etichetate corespunzător. Faptul că nu existau seturi de date atât de complete a fost unul dintre motivele pentru care un ChatGPT nu a fost creat acum 10-15 ani. Dacă ai seturi de date mai ample, ai și AI-uri mai performante.

Seturile de date din prezent includ conversații, cărți sau articole din presă, elemente care nu sunt tehnice, ci arată cum vorbesc oamenii obișnuiți. Modelele de AI sunt antrenate pe astfel de seturi de date și ajung să dea răspunsuri care seamănă mult cu cele oferite de oameni reali. Dacă seturile de date s-ar fi limitat, spre exemplu, la lucrări științifice, cu exprimări tehnice și răspunsurile chatboților ar fi fost seci, plictisitoare.

Au mai fost și mișcări „de trupe” în piață, cei mai buni specialiști în dezvoltarea de sisteme de AI s-au dus către companiile cele mai ambițioase și cu cele mai mari bugete de salarii. Presa a scris, spre exemplu, că la OpenAI au mers în 2021 și 2022 câțiva oameni foarte buni de la Google, iar cei mai buni oameni din domeniul AI ajung să câștige un milion de dolari/an. Acești „star researchers”, cum i-a numit presa, au salarii de sportivi de performanță și fără ei o companie nu poate ajunge departe în domeniul AI.

Așadar, cei mai buni chatboți și cele mai performante sisteme de AI generativ au fost dezvoltate de companiile care au reușit să atragă cei mai buni ingineri din piață și care au avut bani să-i plătească regește.

Date fiind elementele implicate: hardware, software, seturi de date, oameni, nu este de mirare că operarea și perfecționarea unor chatboți costă enorm și doar companiile puternice pot face față. Un articol din Washington Post avea un titlu sugestiv: „AI chatbots lose money every time you use them. That is a problem.”, ideea fiind că fiecare întrebare pusă de userii curioși lui ChatGPT aduce pierderi celor de la OpenAI.

Consecința este, că toate companiile care au lansat produse de AI generativ trebuie să facă bani în diverse moduri, păstrând cele mai bune soft-uri pentru cei dispuși să plătească un abonament.

Date fiind costurile uriașe de operare ale unor sisteme de AI, versiunile gratuite puse la dispoziție publicului NU vor fi cele mai performante. În plus, din cauza costurilor mari cu computing-ul, companiile care au lansat chatboți sunt nevoite să găsească mai repede decât și-au propus inițial moduri de a face bani cu aceste aplicații.

Sunt limitări și pentru cei care plătesc abonament: la GPT-4, pentru 20 de dolari pe lună poți trimite maxim 25 de mesaje la interval de trei ore, costurile cu computingul fiind mai mari.

Dylan Patel, analist la compania de cercetare SemiAnalysis, estima în aprilie care ar fi costurile de operare zilnice pentru ChatGPT: 700.000 de dolari. Estimarea era că o întrebare adresată lui ChatGPT i-ar costa pe cei de la OpenAI de 1.000 de ori mai mult decât îi costă pe cei de la Google o căutare.

O altă estimare, a unui cercetător pe nume Kasper Groes Albin Ludvigsen, este că în ianuarie, ChatGPT ar fi folosit energie electrică la fel ca 175.000 de oameni, adică un oraș mare din România. Sunt doar estimări, însă ideea este că funcționarea unor chatboți populari costă foarte mult.

Ce urmează? OpenAI a confirmat că nu a început antrenarea (training) pentru GPT-5, succesorul lui GPT-4 și pentru încă ceva timp nu o va demara.

„Mai avem mult de lucru până să pornim acel model. Lucrăm la idei noi de care credem că avem nevoie pentru acel model, dar nu suntem aproape de a lucra propriu-zis la el”, spune Sam Altman, șeful OpenAI, citat de Economic Times.

El a mai spus că versiunea super-performantă GPT-4 nu a fost lansată imediat, cu după numeroase teste și după un audit. Lansarea GPT-4 a avut loc la șase luni după ce lucrul la ea s-a terminat.

Frica de AI – De ce se tem creatorii fix de creația lor

Au fost multe știri în ultimii doi ani despre cei mai importanți specialiști în domeniul AI care au tras semnale de alarmă privind viitorul acestor tehnologii și care au spus că regretă unele lucruri la care au contribuit sau că se simt debusolați de ce se întâmplă în domeniu.

Există diverse motive pentru care unii creatori și experți în domeniul inteligenței artificiale exprimă îngrijorări și avertizează cu privire la potențialul negativ al acesteia. Uneori este de-a dreptul ciudat că oameni care sunt printre cei mai inteligenți din domeniul tech ajung să spun că le pare rău că au contribuit la dezvoltarea domeniului.

Uneori, aceste avertismente au fost dur criticate, fiind considerate exagerate. Unii au spus că presa este de vină că îi promovează oe acești cercetători și că „frica vinde”, adică publicul larg este atras de știri senzaționale legate de pericole, de „roboți” care scapă de sub control și de „mașinile” care ajung să fie mai deștepte ca oamenii.

Alții au spus că își pierd credibilitatea specialiștii care, după ce au lucrat o viață în perfecționarea diverselor aspecte ale domeniului AI, ies acum și spun că le pare rău de ce au făcut.

Interesant este că s-a ajuns în situația mai specială în care doi dintre oamenii care au făcut cel mai mult pentru dezvoltarea domeniului AI: Geoffrey Hinton și Yoshua Bengio să ceară ca domeniul să fie reglementat de guverne. În multe domenii legate de tehnologie companiile nu prea voiau să audă de intervenția statului, dar în cazul AI mai multe voci influente au cerut să fie înființate agenții guvernamentale care să dea licențe pentru diverse produse AI și să fie auditate sistemele AI construite, pentru a primi certificare.

O explicație validă a fricii a fost dată de Alex Karp, CEO al Palantir, companie celebră în domeniul AI. O parte dintre cei care cer oprirea pentru șase luni a antrenării sistemelor AI sofisticate o fac pentru că nu au dezvoltat vreun produs nou la companii la care lucrează și deci vor răgaz.

El a spus pentru BBC că cel mai important eveniment în cursa pentru dezvoltarea unor super sisteme AI NU este creare GPT-4 sau a altor LLM-uri de genul acesta. Cel mai important este modul în care AI-ul ajunge să fie utilizat în aplicațiile militare, iar aici Palantir a contribuit mult, prin soluțiile livrate către forțele militare ucrainene.

Palantir vinde guvernelor și sectorului privat software ce permite analizarea unor cantități uriașe de date. Apariția în domeniul militar a soft-urilor bazate de AI a declanșat o cursă în domeniu și nicio țară care vrea să rămână relevantă nu poate rămâne în urmă cu utilizarea AI-ului în scopuri militare, spune șeful Palantir.

De ce oamenii care au adus AI-ul atât de sus se tem de viitorul AI-ului?

Fără îndoială că o parte dintre „somitățile” care au ajutat dezvoltarea domeniul Inteligenței Artificiale sunt uimite de ritmul accelerat în care domeniul avansează din 2022 încoace, pentru că era de așteptat ca acest „boom” să vină mai târziu și în pași lenți, nu în doar câteva luni.

Apoi, cei mai mulți spun că se tem că tehnologia va ajunge pe mâinile unor răuvoitori, fie că este vorba despre teroriști, hackeri sau guverne autoritare. Vorbim despre o tehnologie care devine mai imprevizibilă pe zi ce trece, așa că sunt multe îngrijorări.

O preocupare este legată de posibilitatea ca sistemele de AI să evolueze și să devină atât de avansate, încât să scape de sub controlul uman. Există temeri că AI-urile autonome ar putea acționa într-un mod imprevizibil sau neintenționat și ar putea lua decizii care pot fi dăunătoare oamenilor sau societății în general.

Sistemele de AI sunt antrenate pe baza datelor disponibile și pot prelua și amplifica prejudecățile sau discriminările existente în aceste date, și deci existente în societate în general. Asta poate duce la luarea de decizii incorecte sau discriminatorii în ceea ce privește oamenii, cum ar fi în cazul recrutării, sistemelor de justiție penală sau în alte domenii sensibile.

Contează și impactul asupra pieței muncii: Pe măsură ce AI devine tot mai capabilă să efectueze sarcini complexe, există îngrijorări cu privire la posibilitatea ca un număr semnificativ de locuri de muncă să fie înlocuite de sistemele automate. La revoluții tehnologice din trecut au fost afectați mai ales oamenii care făceau munci fizice, dar acum vor fi înlocuiți și oameni care fac munci intelectuale.

Sunt și posibile probleme de etică și responsabilitate: Deciziile luate de sistemele de AI pot avea consecințe palpabile în viața oamenilor, mai ales în domenii sensibile, cum ar fi sănătatea, securitatea și confidențialitatea datelor.

Utilizarea extinsă a AI implică colectarea și analizarea unor cantități masive de date personale. Există temeri cu privire la protecția datelor și la supravegherea excesivă în contextul utilizării AI, ceea ce poate afecta confidențialitatea și libertatea individului.

Surse: Reuters, BBC, Washington Post, Le Monde, Le Figaro, TechCrunch, CNBC, AFP, CNET, Ars Technica, New York Times

ARHIVĂ COMENTARII
INTERVIURILE HotNews.ro