Sari direct la conținut

Un judecător din Columbia spune că a folosit ChatGPT pentru a decide ce sentință trebuie să dea

HotNews.ro
Sala de judecata, Foto: Andrey Popov, Dreamstime.com
Sala de judecata, Foto: Andrey Popov, Dreamstime.com

Un judecător din Columbia a făcut senzație, dar a stârnit și controverse, după ce a admis în documentele oficiale că a întrebat și programul de inteligență artificială ChatGPT ce hotărâre ar trebui să ia într-una dintre spețele pe care le-a avut de soluționat.

Faptul că un judecător a admis că s-a folosit de ChatGPT și a spus și că i-a fost de ajutor, a stârnit dezbateri aprinse, unii fiind de părere că este o nebunie să te folosești de un astfel de program pentru lucruri atât de serioase precum o hotărâre în instanță.

Alții, din contră, au spus că lucrurile s-ar mișca mai repede și mai cu eficiență dacă sistemul de justiție ar utiliza și cele mai noi tehnologii.

Judecătorul Juan Manuel Padilla din orașul Cartagena avea de dat o hotărâre în legătură cu asigurarea medicală a unui copil care suferă de autism. Părinții nu își permiteau să plătească cheltuielile legate de tratament și transport și susțineau că asigurarea medicală ar trebui să acopere aceste cheltuieli.

Judecătorul a menționat în motivarea hotărârii că l-a întrebat pe ChatGPT dacă, conform legilor din Columbia, un minor care suferă de autism este exonerat de la plata tratamentelor. Răspunsul lui ChatGPT a fost că, da, este corect, minorii care sunt depistați cu autism sunt exonerați de la plata tratamentului, conform legilor din țara sud-americană.

Judecătorul a mai spus că sistemul judiciar din Columbia poate deveni mai eficient dacă este folosită și tehnologia. El a mai explicat și că și-a bazat decizia finală pe cazuri similare din trecut, deci nu s-a lăsat doar la „mâna” lui ChatGPT.

Padilla a spus și că ChatGPT poate simplifica anumite sarcini, dar nu se pune problema ca acest program să înlocuiască oamenii și să ia decizii juridice în locul lor.

Marea problemă cu ChatGPT este că oferă răspunsuri care sună bine gramatical, dar care de multe ori nu oferă informații corecte. Chatbot-ul îți dă impresia că „știe” totul, că este sigur pe el, dar poate da multe informații eronate „ambalate” foarte frumos.

Surse: AFP, Guardian

Sursa foto: Dreamstime.com

ARHIVĂ COMENTARII
INTERVIURILE HotNews.ro