Un avocat australian a fost nevoit să recunoască că a prezentat instanței referințe juridice inventate de un algoritm, într-un caz de crimă care a ajuns în fața Curții Supreme din Victoria. Rishi Nathwani, deținător al titlului prestigios de King’s Counsel, a asumat întreaga responsabilitate pentru includerea unor citate false în memoriile depuse.
„Exprimați profunde regretări și stânjeneală pentru ceea ce s-a întâmplat”, a declarat Nathwani în numele echipei de apărare. Materialele eronate includeau citate atribuite unui discurs parlamentar inexistent și decizii judecătorești inventate, pretins provenite de la instanțe superioare.
Erorile au fost sesizate de reprezentanții procurorii, care au solicitat verificarea surselor. Avocații apărării au recunoscut ulterior că referințele erau fictive, iar documentele conțineau „citate false”.
În urma acestui incident, soluționarea cauzei a fost amânată cu o zi. Judecătorul a subliniat că încrederea instanței în acuratețea materialelor prezentate de avocați este esențială pentru buna administrare a justiției.
Deși Curtea Supremă a emis anul trecut recomandări privind utilizarea responsabilă a inteligenței artificiale în practica juridică, incidentul demonstrează că unii profesioniști încă nu verifică independet conținutul generat automat.
Acesta nu este primul caz de acest gen la nivel internațional. Anul trecut, în Statele Unite, doi avocați au fost sancționați pentru prezentarea unor cercetări fictive generate de ChatGPT. De asemenea, documente cu decizii inventate au apărut și în dosarul fostului avocat personal al ex-președintelui Donald Trump.
Instanțele din Marea Britanie au emis avertismente clare: furnizarea de materiale false poate constitui ofensă adusă instanței sau, în cazuri extreme, pervertire a cursului justiției, infracțiune pedepsită cu închisoare pe viață.
Expertii avertizează că utilizarea necritică a tehnologiei generative în domeniul juridic poate submina încrederea publică în sistemul de justiție și pune sub semnul întrebării integritatea procesului.