Sari direct la conținut

Prima „amânare fără discuții” a robotului-avocat

STOICA & Asociatii
Angelica Alecu, Foto: STOICA & Asociatii
Angelica Alecu, Foto: STOICA & Asociatii

La începutul acestui an, o știre ce anunța prima tentativă de a lansa un așa-zis „robot-avocat” a dat naștere unor dezbateri aprinse. Mai exact, așa cum scriam într-un articol anterior, o companie americană de software anunța că în luna februarie a acestui an urma să testeze pentru prima dată într-o sală de judecată aplicația sa dezvoltată pe baza inteligenței artificiale pentru a oferi în timp real asistență juridică reclamantului dintr-o cauză. Scopul declarat al acestei inițiative a fost acela de a facilita accesul la servicii avocațiale persoanelor cu resurse financiare modeste.

Pentru a duce experimentul la un nivel și mai ridicat, câteva zile mai târziu, printr-o postare pe contul său de Twitter, fondatorul companiei lansa o ofertă publică de 1.000.000$ pentru orice parte sau un avocat ce ar avea în viitorul apropiat un caz de susținut în fața Curții Supreme a Statelor Unite ale Americii și ar fi dispus să îi folosească aplicația.

În ciuda acestui aplomb, la finalul lunii ianuarie, tot printr-o postare pe Twitter, fondatorul companiei a anunțat că va amâna experimentul său dintr-o sală de judecată fizică și se va concentra asupra protejării drepturilor consumatorilor, ca urmare a amenințărilor cu închisoarea primite. Prin urmare, pare că avocatul-robot (sau “părintele său”) solicită o primă amânare fără prea multe discuții.

Lăsând la o parte, însă, surprinderea generată de această inițiativă, evoluția ulterioară a evenimentelor aduce în discuție un aspect mult mai sensibil, ce poate fi ușor trecut cu vederea dacă dezbaterea se oprește aici. Mai exact, care este direcția în care ne dorim să dirijăm progresul tehnologic în domeniul justiției, pentru a ne asigura că acesta va reprezenta într-adevăr o evoluție? Este adevărat că, în prezent, utilizarea inteligenței artificiale în sălile de judecată se poate lovi de impedimente de ordin tehnologic, logistic sau legal, dar nu aceștia sunt cei mai importanți factori ce trebuie avuți în vedere. Motivul? Aceste impedimente sunt temporare și volatile.

Poate că astăzi aplicațiile ce funcționează pe baza inteligenței artificiale au limitări tehnice care le fac improprii unei utilizări corespunzătoare în sălile de judecată. Nu știm însă pentru cât timp vor mai sta lucrurile astfel, strict din punct de vedere tehnic. Chiar și în faza experimentală, se pare că ChatGPT reușește să se descurce la examene din sfera disciplinelor de drept cel puțin la fel de bine pe cât un student cu un nivel mediu de pregătire, luând note de trecere. Mai mult, există estimări conform cărora în câteva luni (0-18 luni), acesta va reuși să treacă de examenul de admitere la barou în Statele Unite, cel puțin în privința secțiunii de grile.

Similar, deși în prezent utilizarea dispozitivelor electronice este interzisă în sălile de judecată în timpul ședințelor, aceasta este o regulă administrativă ce se poate schimba în funcție de nevoia de adaptare la noul context. Ședințele de judecată prin video-conferință sunt un exemplu în acest sens. Chiar și normele juridice care prevăd că exercitarea fără drept a activităților specifice profesiei de avocat constituie infracțiune reprezintă, în definitiv, o opțiune de politică legislativă. În timp, opțiunile sau viziunile pot suferi modificări.

Tocmai de aceea, dezbaterea nu trebuie să se oprească la aceste impedimente tehnice sau legale, ci, cel mult, să pornească de la acestea. Pentru a ne asigura că progresul tehnologic chiar aduce o îmbunătățire a calității vieții oamenilor, astfel cum își propune (sau cel puțin ar trebui), primul test pe care o inițiativă ar trebui să îl treacă este cel al oportunității. Nu orice este posibil din punct de vedere tehnologic trebuie să fie și implementat, pentru simplul motiv că se poate. Orice schimbare ar trebui să fie precedată de o analiză atentă a beneficiilor pe care le promite și a riscurilor pe care le ascunde. A implementa o soluție doar pentru că pare să funcționeze, nu este doar o decizie pripită, ci și un real pericol pentru consecințele pe care le poate produce. Iar în cazul particular al inteligenței artificiale, având în vedere impactul său, efectele nu se propagă doar asupra utilizatorul final, ci și asupra ordinii sociale.

Până să aflăm dacă „robotul-avocat” va trece de examenul de barou sau chiar va putea fi folosit într-o sală de judecată fizică dintr-o jurisdicție sau alta, ar trebui să avem în vedere și celelalte schimbări cu care veni la pachet. Cum s-ar schimba, de pildă, definiția dreptului la apărare? Va fi suficient, spre exemplu, ca organele de urmărire penală să îi pună la dispoziție unui inculpat, într-o ipoteză de asistență juridică obligatorie, un set de căști și acces la o astfel de aplicație? Din punctul de vedere al costurilor, poate că o astfel de soluție tehnică s-ar dovedi avantajoasă, dar sunt suficient de solide garanțiile respectării dreptului la apărare într-o astfel de ipoteză?

Tot astfel, cum ar fi adaptate regulile de etică și deontologie profesională pentru a se plia pe specificul noilor tehnologii? De exemplu, un avocat este ținut să respecte reguli stricte pentru evitarea conflictului de interese. Dacă, însă, reclamantul și pârâtul dintr-un litigiu ar utiliza aceeași aplicație pentru a-și susține poziția, oferind informații relevante din dosar, iar răspunsurile ar fi furnizate prin interogarea aceleiași baze de date, există riscul ca informațiile oferite de către una dintre părți să fie utilizate chiar în defavoarea sa, prin răspunsurile oferite celeilalte părți. Nu este exclus ca pentru astfel de inconveniente să fie identificate soluții tehnice, însă important este ca etica și deontologia să fie măcar pe lista de priorități a dezvoltatorilor unor astfel de aplicații. Dacă doar indicatorii performanței sunt cei care ghidează strategia de dezvoltare, vom avea parte de „soluții” care creează mai multe probleme.

Așadar, deși robotul-avocat pare să își amâne prima înfățișare într-o sală de judecată, dilemele pe care le-a generat rămân de actualitate. Suntem deja martorii unor transformări semnificative ale rolului tuturor celorlalți actori implicați în actul justiției sub influența inteligenței artificiale, având sisteme de transcriere automată ce preiau din sarcinile grefierilor sau chiar aplicații ce preiau rolul judecătorilor pentru soluționarea unor cereri de o complexitate redusă. În acest context, ar fi cel puțin imprudent să considerăm că avocatura de litigii va fi exceptată. Însă, ca de fiecare dată, cheia este în detalii.

Inteligența artificială poate îmbunătății avocatura de litigii, la fel cum o poate face cu orice alt domeniu, cu condiția de a porni de la o corectă reprezentare a rolului unui avocat. Raționamentul juridic nu se rezumă la identificarea dispozițiilor legale și a jurisprudenței relevante, iar pledoaria nu este o colecție de date ce poate fi „încodată” într-un algoritm. În cazul în care se pornește de la premisa contrară, dreptul va pieri sub armele pretinșilor săi apărători.

Un articol semnat de Angelica-Georgiana Alecu, Associate (aalecu@stoica-asociatii.ro), STOICA & Asociații.

ARHIVĂ COMENTARII