„Tot ce spui poate fi folosit împotriva ta”. Marile case de avocatură din SUA își avertizează clienții privind folosirea ChatGPT
Pe măsură ce tot mai mulți oameni apelează la instrumente de inteligență artificială (AI) pentru sfaturi, unii avocați din Statele Unite le spun clienților lor să nu trateze chatboții ca pe niște confidenți de încredere atunci când libertatea sau răspunderea lor juridică sunt în joc, relatează Reuters.
Aceste avertismente au devenit mai stringente după ce un judecător federal din New York a decis în acest an că fostul director al unei companii de servicii financiare aflate în faliment nu își poate proteja conversațiile cu inteligența artificială de procurorii care îl urmăresc penal pentru acuzații de fraudă cu valori mobiliare.
În urma acestei decizii, avocații i-au sfătuit pe clienți că discuțiile cu chatboți precum ChatGPT al OpenAI sau Claude de la Anthropic ar putea fi cerute de procurori în cauze penale sau de adversari în litigii civile.
„Le spunem clienților noștri: ar trebui să procedați cu prudență aici”, a declarat pentru Reuters Alexandria Gutiérrez Swette, avocată la casa de avocatură Kobre & Kim din New York.
Discuțiile oamenilor cu avocații lor sunt aproape întotdeauna considerate confidențiale potrivit legislației din Statele Unite. Însă chatboții AI nu sunt avocați, iar juriștii îi instruiesc pe clienți să ia măsuri care ar putea menține private comunicările lor cu aceste instrumente.
Tot mai multe case de avocatură din SUA își avertizează clienții privind folosirea chatboților
În emailuri către clienți și în recomandări publicate pe site-urile lor, peste 10 case de avocatură majore din Statele Unite au prezentat sfaturi pentru persoane și companii, menite să reducă șansele ca discuțiile cu AI să ajungă în instanță.
Avertismente similare apar și în contractele de angajare profesională încheiate de unele firme cu clienții lor. De exemplu, firma Sher Tremonte din New York a precizat într-un contract recent că partajarea cu un chatbot a sfaturilor sau comunicărilor cu un avocat ar putea anula protecția juridică oferită de relația avocat–client. Aceasta protejează în majoritatea țărilor comunicările dintre avocați și clienții lor, cu unele excepții limitate la cazuri extraordinare.
Cazul care a declanșat aceste semnale de alarmă îl vizează pe Bradley Heppner, fost președinte al companiei de servicii financiare falimentare GWG Holdings și fondator al firmei de active alternative Beneficent. Heppner a fost inculpat de procurori federali în noiembrie anul trecut pentru fraudă cu valori mobiliare și fraudă electronică. El a pledat nevinovat.
Heppner a folosit chatbotul Claude al companiei Anthropic pentru a pregăti rapoarte despre cazul său, pe care să le transmită avocaților, aceștia susținând ulterior că schimburile dintre clientul lor și instrumentul AI ar trebui să fie excluse din dosar deoarece conțineau detalii provenite de la avocații care i-au pregătit apărarea.
Nu există relație confidențială între un chatbot și utilizatorul său
Procurorii au susținut că au dreptul să solicite materialele create de Heppner cu ajutorul Claude deoarece avocații apărării nu au fost implicați direct și pentru că secretul profesional avocat-client nu se aplică chatboților.
Dezvăluirea voluntară a informațiilor primite de la un avocat către orice terță parte poate pune în pericol protecțiile juridice obișnuite pentru aceste comunicări.
Jed Rakoff, judecătorul de caz, a decis în februarie că Heppner trebuie să predea 31 de documente generate de chatbotul Claude al Anthropic.
Nu există o relație avocat-client „și nici nu ar putea exista între un utilizator AI și o platformă precum Claude”, a scris Rakoff în motivarea deciziei.
Reuters notează că instanțele din SUA se confruntă deja cu utilizarea tot mai frecventă a inteligenței artificiale de către avocați și persoane care se reprezintă singure în procese, ceea ce, printre altele, a dus la depunerea unor documente juridice fără nicio bază legală în sistemul de jurisprudență.
Cu alte cuvinte, chatboții au „inventat” pur și simplu cazuri inexistente, care să susțină argumentele utilizatorilor lor.
Un alt judecător a ajuns la o concluzia opusă, într-un caz de litigiu al muncii
Decizia lui Rakoff a reprezentat un test timpuriu important în era chatboților AI pentru protecțiile juridice fundamentale care guvernează comunicările avocat-client și materialele pregătite pentru litigii.
Însă în aceeași zi în care Rakoff a pronunțat decizia sa, un alt judecător federal din statul Michigan a stabilit că o femeie care se reprezenta singură într-un proces intentat fostului său angajator nu trebuia să predea conversațiile sale cu ChatGPT despre pretențiile din cauză.
Judecătorul din Michigan a considerat că discuțiile femeii cu AI fac parte din propriul ei „material de lucru” pentru caz, și nu conversații cu o persoană pe care angajatorul ar putea încerca să o folosească în apărarea sa.
ChatGPT și alte programe de inteligență artificială generativă „sunt instrumente, nu persoane”, a scris acest judecător în motivarea sa.
Atât în cazul OpenAI, cât și al Anthropic, termenii privind confidențialitatea și utilizarea instrumentelor lor prevăd că aceste companii pot partaja datele utilizatorilor cu terțe părți. Ambele menționează, de asemenea, că utilizatorii trebuie să consulte un profesionist calificat înainte de a se baza pe chabtoții lor pentru sfaturi juridice.
Rakoff a remarcat, în cadrul unei audieri din februarie în cazul Heppner, că Claude „preciza în mod expres că utilizatorii nu au nicio așteptare de confidențialitate în privința datelor introduse”.