Sari direct la conținut

Cum ar proceda inteligența artificială, dacă ar decide să distrugă omenirea? De la „teoria agrafelor”, la o variantă mai puțin discutată

HotNews.ro
Inteligenta artificiala (AI), Foto: Horacio Selva / Dreamstime
Inteligenta artificiala (AI), Foto: Horacio Selva / Dreamstime

Inteligenţa artificială (AI) ameninţă omenirea cu o posibilă „extincţie”, previn mai mulţi experţi şi antreprenori din acest sector de activitate aflat în plin avânt, care fac apel la conştientizarea riscurilor. Însă acest scenariu catastrofal şi încă îndepărtat este oare credibil, întreabă agenția AFP, citată de Agerpres.

Această situaţie de coşmar, inspirată din numeroase filme SF, ar începe atunci când maşinile şi-ar vedea capacităţile depăşindu-le pe cele ale oamenilor şi ar scăpa de sub control.

„Începând din momentul în care vom avea maşini care încearcă să supravieţuiască, vom avea probleme”, a declarat recent cercetătorul canadian Yoshua Bengio, unul dintre „părinţii” învăţării automate. El a îndemnat de asemenea ca guvernele să se miște rapid și să elaboreze reguli care să guverneze dezvoltarea A.I.

Potrivit unei variante imaginate de filosoful suedez Nick Bostrom, momentul decisiv s-ar produce atunci când maşinile vor şti să fabrice singure alte maşini, provocând astfel „o explozie de inteligenţă”.

Potrivit „teoriei agrafelor pentru hârtie”, dacă AI ar avea de exemplu ca scop suprem optimizarea producţiei pentru acest accesoriu de papetărie, ea ar sfârşi prin a acoperi „mai întâi Terra, apoi zone tot mai mari din Univers, cu agrafe”, a explicat el.

Nick Bostrom este o personalitate controversată, după ce a afirmat că omenirea ar putea fi o simulare informatică şi după ce a susţinut teorii apropiate de teza eugenismului. De asemenea, el a trebuit să îşi ceară scuze recent pentru un mesaj rasist pe care l-a expediat în anii 1990 şi care a fost dezvăluit de curând.

Cu toate acestea, ideile lui despre pericolele generate de AI rămân foarte influente şi i-au inspirat atât pe miliardarul Elon Musk, CEO-ul companiilor Tesla şi SpaceX, cât şi pe astrofizicianul Stephen Hawking, decedat în 2018.

Unii experți resping pericolul „Terminator”, cel mai popular în rândul publicului larg

Imaginea robotului cu ochi roşii din Terminator, trimis din viitor de o inteligenţă artificială pentru a anihila orice rezistenţă umană, a marcat într-un mod deosebit inconştientul colectiv.

Dar, potrivit experţilor din campania „Stop Killer Robots”, armele autonome din anii care vor urma nu se vor impune sub această formă, potrivit unui raport publicat în 2021.

„Inteligenţa artificială nu va conferi maşinilor dorinţa de a ucide oameni”, a dat asigurări specialista în robotică Kerstin Dautenhahn, de la Universitatea Waterloo din Canada, contactată de AFP.

„Roboţii nu sunt diabolici”, a afirmat ea, recunoscând totuşi că dezvoltatorii lor ar putea să îi programeze pentru a face rău.

Un pericol mai puțin discutat al A.I.

Un scenariu mai puţin evident prevede că inteligenţa artificială va fi utilizată pentru a crea toxine sau noi virusuri, în scopul de a le răspândi apoi la nivel mondial.

Cercetătorii dintr-un grup care utilizează AI pentru a descoperi noi medicamente au realizat un experiment pe parcursul căruia au modificat inteligenţa artificială pentru ca ea să caute mai degrabă molecule nocive. În mai puţin de şase ore, ei au reuşit să genereze 40.000 de agenţi potenţial toxici, conform unui articol publicat în revista Nature Machine Intelligence.

Graţie acestor tehnologii, cineva ar putea găsi o modalitate pentru a răspândi mai repede o „otravă” precum antraxul, a declarat Joanna Bryson, expertă în AI la Hertie School din Berlin.

„Însă nu ar fi o ameninţare existenţială, ci doar o armă îngrozitoare”, a adăugat ea pentru AFP.

Inteligența artificială ar putea face din homo sapiens o specie depășită

În filmele despre apocalipsă, catastrofa se petrece brusc şi în acelaşi timp peste tot. Dar dacă omenirea ar dispărea progresiv, fiind înlocuită de maşini?

„În cel mai rău dintre cazuri, specia noastră ar putea să se stingă fără urmaşi”, anticipează filosoful Huw Price într-un videoclip de promovare a Centrului pentru studierea riscurilor existenţiale din cadrul Universităţii Cambridge.

Există totuşi „posibilităţi mai puţin sumbre”, în care oameni augmentaţi printr-o tehnologie avansată ar putea să supravieţuiască. „Specia noastră pur biologică ar sfârşi atunci prin a dispărea”, a continuat acelaşi cercetător.

În 2014, Stephen Hawking a declarat pentru BBC că specia umană ar putea într-o bună zi să nu mai fie capabilă să rivalizeze cu maşinile şi că acel moment va fi „sunetul de clopot al rasei umane”.

Geoffrey Hinton, un cercetător care încearcă să creeze maşini asemănătoare creierului uman, cel mai recent pentru grupul Google, a evocat în termeni similari anumite „superinteligenţe” care ar fi superioare oamenilor.

El a afirmat recent pentru postul de televiziune american PBS că este posibil ca „omenirea să fie doar o fază pasageră în evoluţia inteligenţei”.

FOTO articol: Horacio Selva / Dreamstime.

ARHIVĂ COMENTARII
INTERVIURILE HotNews.ro