Expertii in Inteligenta Artificiala avertizeaza in privinta unor noi amenintari
Daca nu se vor lua masuri pentru a tine sub control progresele rapide ale Inteligentei Artificiale (AI), s-ar putea sa apara curand noi curente rauvoitoare de stiri false, atacuri cibernetice si atacuri asupra infrastructurilor fizice din lume, avertizeaza un grup de experti in acest domeniu, potrivit Rador, care citeaza Financial Times.
Dar desi a evidentiat riscul unor amenintari iminente, grupul format din cercetatori in robotica si organizatii care activeaza pentru libertatile civice nu a facut propuneri concrete privind modalitatile de a impiedica folosirea cu rea intentie a uneia din cele mai puternice noi tehnologii la nivel planetar.
In raportul intitulat „Folosirea rau-intentionata a Inteligentei Artificiale”, autorii avertizeaza ca daca AI va continua sa avanseze la fel de rapid, in curand aceasta tehnologie va deveni atat de puternica incat multe din mecanismele de aparare incluse in sistemele digitale si fizice actuale ar putea fi depasite.
„Ceea ce ne-a izbit pe multi din noi a fost volumul (progreselor) aparute in ultimii cinci ani – daca va continua, este posibil sa fie create lucruri realmente periculoase”, a spus Jack Clark, seful departamentului de politici la OpenAI, grup de resort din San Francisco intre ai carui sustinatori se numara Elon Musk si Peter Thiel.
Inteligenta artificiala va usura sarcina agresorilor, prin scaderea costului crearii unor noi arme cibernetice si oferindu-le posibilitatea de a initia atacuri mai precis tintite, atentioneaza specialistii. In domeniul armelor cibernetice, aceasta ar putea duce la atacuri mult mai eficiente de „spear phishing”, cu atacuri personalizate pentru fiecare tinta.
Raportul avertizeaza totodata ca dronele si masinile autonome ar putea fi comandate si folosite ca arme si ca formele viciate de AI ar putea fi folosite pentru organizarea unor roiuri de drone. In acelasi timp, sistemele politice ar putea fi piratate cu ajutorul unor instrumente dezvoltate pentru reclamele si comertul online, pentru manipularea alegatorilor, profitand de „capacitatea imbunatatita de analizare a comportamentelor umane, a predispozitiilor si convingerilor pe baza datelor disponibile”.
Grupul din care fac parte cercetatori de la Universitatea Oxford si Electronic Frontier a facut apel la initierea unei dezbateri publice mai largi despre amenintarile presupuse de AI, ca urmare a unei discutii pe tema tehnologiei de editare a genelor Crispr, spune dl Clark. Totusi, desi ii indeamna pe cercetatori sa se gandeasca la potentialele „utilizari duale” ale tehnologiile la care lucreaza – si fac apel la convocarea mai multor discutii cu guvernele pe aceste teme – ei nu fac recomandari de actiuni specifice.
Dand un exemplu despre cum ar putea proceda cercetatorii pentru a incepe sa-si limiteze munca astfel incat sa tina cont de potentialele riscuri, OpenAI a restrictionat anul trecut publicarea rezultatelor studiului sau asupra unui algoritm care faciliteaza intelegerea sentimentelor prin citirea recenziilor pe Amazon. Grupul a decis sa pastreze caracterul privat al modelului lingvistic pe care l-a dezvoltat, ca sa previna folosirea gresita a algoritmului pentru a genera un diluviu de stiri false, citeaza Rador.