Sari direct la conținut

Oameni de știință spun că o Inteligență Artificială „super-inteligentă” va fi imposibil de controlat

HotNews.ro
Inteligenta artificiala, Foto: Oscar Burriel / Sciencephoto / Profimedia Images
Inteligenta artificiala, Foto: Oscar Burriel / Sciencephoto / Profimedia Images

Despre o Inteligență Artificială (IA) care să anihileze omenirea se discută de decenii, s-au scris romane SF și s-au făcut numeroase filme, iar savanți de renume s-au întrebat despre capacitatea noastră de a o stăpâni. Răspunsul? Aproape sigur, NU.

Problema: controlul asupra unei super-inteligențe mult peste capacitatea omenească de înțelegere ar implica o simulare a ceea ce poate analiza și controla super-inteligența. Iar dacă nu suntem capabili să cuprindem, o asemenea simulare este imposibilă.

Reguli ca „să nu faci rău oamenilor” nu pot fi stabilite dacă nu înțelegem ce scenarii poate crea IA, spun autorii unei cercetări științifice. Odată ce un sistem computerizat va lucra la un nivel dincolo de anvergura programatorilor noștri, nu-i vom mai putea stabili limite.

„O super-inteligență pune o problemă fundamental diferită de cele studiate de obicei sub titulatura ʼetica roboțilorʼ. Iar aceasta deoarece superinteligența este multilaterală și ca urmare potențial capabilă să atingă obiective care sunt incomprehensibile pentru oameni, cu atât mai puțin controlabile”, au scris cercetătorii.

O parte din raționamentul echipei provine din „problema deciziei”, ridicată de Alan Turing în 1936. Problema este dacă un program de calculator va ajunge sau nu la concluzie și răspuns (și se va opri), sau va rula de-a pururi încercând să găsească.

Așa cum Turing a dovedit prin matematici superioare, în vreme ce putem ști asta pentru anumite programe, este logic imposibil să aflăm o cale pentru a o ști pentru fiecare program potențial care va fi scris vreodată.

Și ajungem înapoi la IA, care într-o stare superinteligentă va avea în memorie și va putea ușor opri fiecare program de calculator posibil.

Oricare program scris pentru a opri IA să facă rău oamenilor și să distrugă lumea, de exemplu, poate ajunge la o concluzie (și oprire) sau nu – este matematic imposibil să fim siguri de una sau alta, deci nu-l vom stăpâni.

Alternativa ar fi de limitare a capacității super-inteligenței. Ar putea fi îndepărtată din zone ale internetului sau din anumite rețele, de exemplu.

Studiul a respins și această idee, notând că ar limita inteligența artificială. Argumentul este: dacă nu o vom folosi pentru a rezolva probleme peste capacitatea umană, la ce bun s-o mai creăm?

Dacă vom continua să căutăm noi căi spre inteligență artificială, s-ar putea să nici nu știm când va sosi o super-inteligență dincolo de controlul nostru, atât va fi de incomprehensibilă. Aceasta înseamnă că ar trebui să începem cu întrebări serioase despre direcțiile în care mergem.

„O mașină super-inteligentă care controlează lumea sună a science-fiction.

Dar există deja unele care efectuează independent sarcini importante, fără ca programatorii să înțeleagă deplin cum au învățat”, a spus omul de știința calculatoarelor Manuel Cebrian de la Institutul Max Planck pentru Dezvoltare Umană. „În consecință, apare întrebarea dacă la un moment dat ar deveni incontrolabilă și periculoasă pentru omenire.”

Studiul a fost publicat în „Journal of Artificial Intelligence Research

ARHIVĂ COMENTARII
INTERVIURILE HotNews.ro