Biden spune că rămâne de văzut dacă inteligența artificială este periculoasă
Președintele SUA, Joe Biden, a declarat marți că rămâne de văzut dacă inteligența artificială este periculoasă, dar a subliniat că firmele de tehnologie au responsabilitatea de a se asigura că produsele lor sunt sigure înainte de a le face publice, potrivit Reuters.
Biden le-a spus consilierilor săi pe probleme de știință și tehnologie că inteligența artificială ar putea ajuta la abordarea bolilor și a schimbărilor climatice, dar este important să se abordeze și potențialele riscuri.
„Companiile din domeniul tehnologiei au responsabilitatea de a se asigura că produsele lor sunt sigure înainte de a le pune pe piață”, a spus el la începutul unei reuniuni a Consiliului de consilieri prezidențiali pentru știință și tehnologie de la Casa Albă.
Întrebat dacă inteligența artificială este periculoasă, el a răspuns: „Rămâne de văzut. Ar putea fi”.
Biden va face apel la Congres să adopte o legislație bipartizană privind confidențialitatea pentru a proteja copiii și a limita datele personale pe care companiile de tehnologie le colectează despre noi toți.
Inteligența artificială devine un subiect fierbinte pentru factorii de decizie politică
Grupul de etică tehnologică Center for Artificial Intelligence and Digital Policy (Centrul pentru Inteligență Artificială și Politică Digitală) a cerut luna trecută Comisiei Federale pentru Comerț din SUA să oprească OpenAI să emită noi versiuni comerciale ale GPT-4, care a uimit și îngrozit utilizatorii cu abilitățile sale asemănătoare cu cele umane de a genera răspunsuri scrise la solicitări.
Scrisoarea, transmisă de organizația non-profit Future of Life Institute și semnată de peste 1.000 de persoane, printre care Musk, directorul general al Stability AI, Emad Mostaque, cercetători de la DeepMind a companiei Alphabet, precum și Yoshua Bengio și Stuart Russell, nume grele din domeniul inteligenței artificiale, solicită o pauză în dezvoltarea inteligenței artificiale avansate până când protocoale de siguranță comune pentru astfel de modele vor fi dezvoltate, implementate și verificate de experți independenți.
Senatorul democrat american Chris Murphy a îndemnat societatea să ia o pauză în timp ce analizează ramificațiile AI.
Anul trecut, administrația Biden a publicat un proiect de „Bill of Rights” pentru a se asigura că drepturile utilizatorilor sunt protejate pe măsură ce companiile de tehnologie proiectează și dezvoltă sisteme de inteligență artificială.
„Riscuri profunde pentru societate și umanitate”
„Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile”, se arată în document.
„Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, argumentează semnatarii.
În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.
Aceasta vine în contextul în care forța de poliție a UE, Europol, s-a alăturat luni valului de preocupări etice și juridice cu privire la inteligența artificială avansată precum ChatGPT, avertizând cu privire la potențiala utilizare abuzivă a sistemului în încercările de phishing, dezinformare și criminalitate informatică.
Musk, al cărui producător de automobile Tesla folosește inteligența artificială pentru un sistem de pilot automat, și-a exprimat în mod vehement îngrijorarea cu privire la inteligența artificială.
„Trebuie să încetinim până când vom înțelege mai bine implicațiile”
De la lansarea sa de anul trecut, ChatGPT al OpenAI, susținut de Microsoft, a determinat rivalii să accelereze dezvoltarea unor modele lingvistice similare de mare amploare, iar companiile să integreze modele generative de inteligență artificială în produsele lor.
Sam Altman, directorul executiv al OpenAI, nu a semnat scrisoarea, a declarat pentru Reuters un purtător de cuvânt al Future of Life. OpenAI nu a răspuns imediat la solicitarea de declarații.
„Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când vom înțelege mai bine implicațiile”, a declarat Gary Marcus, profesor emerit la Universitatea din New York, semnatar al scrisorii.
„Ele pot provoca daune serioase… marii jucători devin din ce în ce mai secretoși cu privire la ceea ce întreprind, ceea ce face ca societății să-i fie greu să se apere împotriva oricăror efecte negative care s-ar putea materializa”, a adăugat el.