Sari direct la conținut

„Riscuri profunde pentru societate și umanitate”: Elon Musk și 1.000 de experți cer o pauză de 6 luni în antrenarea de sisteme de inteligență artificială mai puternice decât GPT-4

HotNews.ro
ChatGPT, Foto: Jonathan Raa / Zuma Press / Profimedia Images
ChatGPT, Foto: Jonathan Raa / Zuma Press / Profimedia Images

Elon Musk și un grup de experți în inteligență artificială și manageri din industrie cer, într-o scrisoare deschisă, o pauză de șase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4 recent lansat de OpenAI din cauza unor potențiale riscuri pentru societate și umanitate, transmite Reuters.

Scrisoarea, transmisă de organizația non-profit Future of Life Institute și semnată de peste 1.000 de persoane, printre care Musk, directorul general al Stability AI, Emad Mostaque, cercetători de la DeepMind a companiei Alphabet, precum și Yoshua Bengio și Stuart Russell, nume grele din domeniul inteligenței artificiale, solicită o pauză în dezvoltarea inteligenței artificiale avansate până când protocoale de siguranță comune pentru astfel de modele vor fi dezvoltate, implementate și verificate de experți independenți.

„Riscuri profunde pentru societate și umanitate”

„Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile”, se arată în document.

„Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, argumentează semnatarii.

În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.

Aceasta vine în contextul în care forța de poliție a UE, Europol, s-a alăturat luni valului de preocupări etice și juridice cu privire la inteligența artificială avansată precum ChatGPT, avertizând cu privire la potențiala utilizare abuzivă a sistemului în încercările de phishing, dezinformare și criminalitate informatică.

Musk, al cărui producător de automobile Tesla folosește inteligența artificială pentru un sistem de pilot automat, și-a exprimat în mod vehement îngrijorarea cu privire la inteligența artificială.

„Trebuie să încetinim până când vom înțelege mai bine implicațiile”

De la lansarea sa de anul trecut, ChatGPT al OpenAI, susținut de Microsoft, a determinat rivalii să accelereze dezvoltarea unor modele lingvistice similare de mare amploare, iar companiile să integreze modele generative de inteligență artificială în produsele lor.

Sam Altman, directorul executiv al OpenAI, nu a semnat scrisoarea, a declarat pentru Reuters un purtător de cuvânt al Future of Life. OpenAI nu a răspuns imediat la solicitarea de declarații.

„Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când vom înțelege mai bine implicațiile”, a declarat Gary Marcus, profesor emerit la Universitatea din New York, semnatar al scrisorii.

„Ele pot provoca daune serioase… marii jucători devin din ce în ce mai secretoși cu privire la ceea ce întreprind, ceea ce face ca societății să-i fie greu să se apere împotriva oricăror efecte negative care s-ar putea materializa”, a adăugat el.

Alegeri 2024: Vezi aici prezența și rezultatele LIVE pe hartă și grafice interactive.
Sondaje, Comparații, Informații de la celelalte alegeri. Toate datele esențiale pe alegeri.hotnews.ro.
ARHIVĂ COMENTARII
INTERVIURILE HotNews.ro