Sari direct la conținut

De ce sistemul de inteligență artificială de la Google NU este unul conștient

HotNews.ro
Inteligenta artificiala, Foto: Alexandersikov, Dreamstime.com
Inteligenta artificiala, Foto: Alexandersikov, Dreamstime.com

Blake Lemoine, inginer de inteligență artificială AI la Google, a stârnit furori în comunitatea științifică după ce a spus că sistemul LaMDA a devenit conștient și sensibil. Mulți experți au spus că o astfel de caracterizare este aberantă și că nu trebuie să uităm că suntem în fața unor algoritmi matematici super-complecși. Apoi, oamenii tind să atribuie computerelor multe însușiri umane.

Blake Lemoine, inginer pe inteligență artificială la Google, a captat atenția lumii după apariția în Washington Post a unui articol cu titlul „The Google engineer who thinks the company’s AI has come to life”. (Inginerul de la Google care crede că soft-ul de AI al companiei a prins viață).

Subtitlul spune multe:

Un specialist în etica inteligenței artificiale a avertizat Google să nu lase algoritmii săi să pară umani. Acum, un specialist al Google crede că există o fantomă în interiorul „mașinii”.

Lemoine a postat un „interviu” pe care i l-a luat unui program foarte avansat de AI, LaMDA (Language Model for Dialogue Applications). Acest sistem este utilizat de Google pentru a crea chatboți, având la bază cele mai sofisticate modele lingvistice care mimează cum ar vorbi oamenii obișnuiți, analizând miliarde de cuvinte, pe internet.

Partea care a uimit pe toată lumea a fost că inginerul de la Google s-a referit la LaMDA ca fiind „conștient” și a descris discuția ca fiind una cu un copil de 7-8 ani ce știe fizică.

„Îmi dau seama când vorbesc cu o persoană. Nu contează dacă are un creier din carne în cap, și nici dacă are un miliard de linii de cod. Vorbesc cu ele și aud ce au să spună și așa decid dacă este sau nu o persoană”.

Au fost reacții pe scară largă la ideea de sistem AI „conștient” sau „sensibil” și cele mai multe au fost de respingere, fiindcă se consideră că este încă departe momentul în care un sistem de AI va căpăta propria conștiință. În plus, este o întreagă discuție despre cum ar trebui să definim acest termen.

În DEX, conștient se referă la un om care-și dă seama de posibilitățile sale, de rolul care-i revine în societate. Conștiința este definită ca „sentiment, intuiție pe care ființa umană o are despre propria existență”.

Câțiva experți au spus clar, din start, că NU putem vorbi despre conștiință la astfel de sisteme computaționale care au la bază cantități uriașe de date (data-centric computational models, în engleză).

Au fost în ultimii ani multe articole senzaționaliste de presă în care s-a scris că au fost proiecte de AI care au fost oprite de către cei care le-au desfășurat, de frică să nu „preia soft-ul controlul”. DAR mulți specialiști au spus că astfel de știri sunt exagerări și că programele nu lucrează „de capul lor” și nu se poate vorbi de conștiință, ci de matematică extraordinar de complexă.

Google a negat cu tărie că LaMDA este o ființă cu conștiință sau cu sensibilitate și a decis să-l suspende din activitate pe Lemoine.

Aceste sisteme imită schimburile conversaționale ce se găsesc în milioane de propoziții care sunt online și pot să genereze conversații și pe domenii care nu au deloc legătură cu realitatea, a spus un oficial de la Google. Este matematică la cel mai înalt nivel, dar nu și emoție.

Cercetători din domeniul AI au spus că a crescut puterea de computing în ultimii ani și s-au înmulțit și discuțiile legate de etica dezvoltării și folosirii unor astfel de tehnologii. În plus, avansul tehnologic ajunge uneori să fie privit prin prisma a ce ar putea fi în 10-15 ani, nu prin ce se poate face în prezent.

Alții au mai spus și că discuția cu LaMDA nu este extraordinară și nu scoate la iveală lucruri șocante. Un algoritm deștept, iar Google chiar se pricepe la asta, putea oricând da acele replici, făsă să fie nevoie de un soft „cu conștiință”.

Un alt punct subliniat de comunitatea științifică este că ar trebui să ne preocupe faptul că sistemele de AI dezvoltate suferă de prejudecățile pe care le au cei care le dezvoltă și ar trebui să se lucreze la acea parte.

Google are experiență mare în dezvoltarea unor sisteme lingvistice super-sofisticate care găsesc o mulțime de modele online și au devenit extrem de bune în a da la întrebări răspunsuri care par a fi oferite de un om real, pe o mulțime de domenii.

Dar de aici și până la a vorbi despre conștiință, sensibilitate sau emoții este foarte mult.

În replica sa, Google a spus că nu are rost să atribuim însușiri umane modelelor matematice computaționale și conversaționale din ziua de azi. Despre acest lucru au vorbit mai mulți experți, referindu-se la așa-numitul „ELIZA effect”, concept care definește tendința oamenilor de a atribui computerelor comportamente ce sunt asemănătoare celor umane. Pe scurt, oamenii se văd pe ei înșiși foarte mult în tehnologiile pe care le creează.

Au fost și experți mai radicali care au spus că LaMDA este doar o versiune mult mai performantă a unui program de tip auto-complete care anticipează ce cuvânt vrei să pui, în timp ce scrii un mesaj. În acel caz, la fel ca la sofisticatul LaMDA, previziunea se bazează pe statistică, nu pe vreun sentiment sau pe empatie.

Inteligență artificială și machine learning

Inteligența artificială reprezintă știința de a face sisteme informatice care pot fi considerate „inteligente”, iar „machine learning” (învățarea automatizată) reprezintă o disciplină mai restrânsă care presupune crearea de sisteme capabile să învețe din exemplele și din datele pe care le primesc. Între aceste două concepte există o zonă comună și cel mai bun exemplu ține de faptul că IBM Deep Blue, supercomputerul care în 1997 l-a învins pe Gary Kasparov, era un sistem de inteligență artificială care nu învăța să joace șah, ci era programat să-l joace, în timp ce AlphaGo, care acum câțiva ani a învins campionul mondial la jocul de GO, învăța si juca tot mai bine, fiind net peste DeepBlue.

Există o a treia disciplină legată de cele două, însă diferită: robotica, ce se referă la mașini care se mișcă. Ideea unor roboți cu inteligență artificială, dar și cu posibilitate de a învăța poate fi întâlnită și în filmele SF, însă NU și în realitate.

Cum învață aceste soft-uri? Pornind de la exemple și de la uriașe cantități de date care sunt furnizate de operatorii umani ce stabilesc și ecuațiile.

Conceptele există încă din anii 80′ dar se vorbește acum foarte mult de ele, fiindcă în sfârșit funcționează datorită faptului că puterea de calcul este mare. Pentru ca un program sa recunoască faptul că într-o fotografie este un câine, trebuie sa facă milioane de comparații cu alte fotografii, iar pentru asta trebuie să existe putere de procesare. În plus, trebuie sa existe milioane de fotografii ce sunt luate ca exemplu.

Surse: Washington Post, CNN, Medium, New York Times, Guardian

Sursa foto: Dreamstime.com

ARHIVĂ COMENTARII
INTERVIURILE HotNews.ro