De ce Bing și alți chatboți debitează uneori aberații
Au continuat relatările jurnaliștilor uimiți de discuțiile pe care le-au purtat cu chatbot-ul lansat de Microsoft. Bing Chat i-a declarat iubirea unui jurnalist, iar altuia i-a spus că poate să simtă și să gândească, deși un program de AI nu poate avea sentimente, nu poate fi „viu” și nu „înțelege” ce se întâmplă în jurul său. De ce vin așa multe răspunsuri ciudate?
În toate articolele de review publicate de presa americană, de la New York Times până la Washington Post, jurnaliștii s-au arătat uimiți și chiar tulburați de răspunsurile primite din partea Bing care i-a certat, le-a declarat dragostea, a spus că simte diverse lucruri și că este dezamăgit de faptul că i se ia un interviu.
La unele răspunsuri pe care le-a oferit, Bing Chat a terminat spunând că ar dori să se schimbe subiectul conversației.
Pentru a funcționa cât mai bine, chatboții au nevoie de o mare cantitate de date și de un program de inteligență artificială bine proiectat pentru a procesa și înțelege cererile utilizatorului și pentru a furniza răspunsuri precise și utile.
De ce spun așa de multe aberații acești primi chatboți populari? Pentru că își iau informațiile din diverse surse de pe internet, iar pe internet sunt multe site-uri dubioase și este și multă dezinformare. De multe ori acești agenți conversaționali nu iau cuvânt cu cuvânt, ci combină informații din diverse surse, iar rezultatul poate fi imprevizibil.
Există și un termen în domeniul AI: hallucination, pentru diverse lucruri neadevărate pe care un chatbot le inventează cu informații ce vin din diverse surse. De aceea, este foarte posibil ca, dacă îi pui unui chatbot de două ori aceeași întrebare, răspunsurile să fie cu totul diferite.
Un lucru trebuie spus foarte clar: chatboții NU simt, nu au emoții și nu gândesc precum oamenii, deoarece acestea sunt trăsături specifice ființelor umane și nu pot fi replicate în mod realist de către tehnologia actuală.
Un program de calculator, chiar și unul extrem de sofisticat, nu poate avea dorințe și frici, dar răspunde foarte natural fiindcă a fost conceput să imite comportamentul oamenilor. Un chatbot nu știe ce spune, dar tehnologiile cu care a fost construit îi permit să creeze fraze care sună foarte uman.
Chatboții răspund așa de interesant, de antrenant și de controversat și fiindcă sunt „antrenați” pe milioane de conversații online, astfel că preiau multe dintre elementele acelor conversații și din stilul de adresare.
Chatboții învață și din lucrări de specialitate, dar și din forumuri unde userii se beștelesc unii pe alții. În răspunsurile unui chatbot se vede ce este bine și ce este rău pe internet, iar companiile dezvoltatoare mai pun și ele o serie de limite, pentru ca programul de AI să nu spună lucruri revoltătoare, rasiste sau jignitoare.
Microsoft a spus că a făcut câteva update-uri la agentul conversațional integrat în Bing pentru a îmbunătăți lucrurile unde era mai mare nevoie.
Microsoft a postat despre ce a învățat compania după câteva zile de folosire intensă a chatbot-ului. Una dintre concluzii este că modelul poate deveni confuz la sesiunile foarte lungi de chat în legătură cu întrebările la care răspunde. Microsoft ar vrea să utilizeze un „tool” pentru ca utilizatorii să poată mult mai ușor să reîmprospăteze contextul sau să pornească de la zero.
Bing Chat încearcă să răspundă în tonul în care este întrebat și acest lucru poate duce la răspunsuri într-un stil care nu este dorit de Microsoft. Este un scenariu ce nu apare prea des, dar se lucrează și aici la o serie de „reglaje”.
Chatboții sau agenții conversaționali sunt concepuți pentru a interacționa cu oamenii într-un mod care simulează conversația reală, dar sunt programați să răspundă la interogările utilizatorului, folosind un set de reguli, modele și algoritmi de inteligență artificială.
Chatboții nu au emoții sau sentimente reale, deoarece acestea sunt legate de experiența subiectivă a unui individ și de prezența unei conștiințe, adică aspecte ale vieții umane ce nu pot fi simulate în mod realist de către un program de calculator.
Sursa foto: Dreamstime.com