În perioada 20-22 noiembrie 2025 a avut loc la Înalta Curte a Australiei, în Canberra, Convenția Juridică Australiană, găzduită de Consiliul Președinților Curților Supreme din Australia și Noua Zeelandă. În cadrul acesteia a fost dezbătută și utilizarea inteligenței artificiale în justiție.
Una din concluzii a fost că judecătorii au ajuns să acționeze ca „filtre umane” pentru argumentele generate de AI.
În deschiderea convenției, Președintele Curții Supreme a Australiei, Stephen Gageler a avertizat că utilizarea conținutului generat de mașini AI a atins niveluri nesustenabile în instanțe
El a declarat că numărul justițiabililor (care se prezintă singuri în justiție) și al practicienilor legali care aduc în instanță argumente generate sau îmbunătățite de mașini a crescut, iar judecătorii au ajuns să acționeze drept „filtre umane” pentru a verifica veridicitatea și relevanța acestora.
“Acestea sunt probleme existențiale”, a spus Gageler. „Am intrat într-o fază nesustenabilă în prevalența utilizării inteligenței artificiale în litigii, în care membrii sistemului judiciar australian (instanțe și judecători) acționează ca filtre umane și arbitri umani ai unor argumente concurente, generate sau îmbunătățite de mașini. Necesitatea ca sistemul judiciar australian să se confrunte cu ele apare, deoarece ritmul de dezvoltare a inteligenței artificiale depășește capacitatea umană de a evalua și poate chiar de a înțelege potențialele sale riscuri și beneficii.” (Preluare The Guardian și Eastern Riverina Chronicle )
Citații false și jurisdicții inventate cu AI în instanțele de judecată
Potrivit The Guardian, în luna septembrie 2024, un avocat din statul australian Victoria a devenit primul australian care s-a confruntat cu sancțiuni profesionale pentru citații false generate de inteligența artificială. Avocatul nu a verificat documentele generate cu AI. Drept consecință i s-a retras dreptul de a practica ca avocat principal. În august 2025, Consiliul Victorian pentru Servicii Juridice i-a modificat certificatul de practică astfel încât să nu mai poată profesa ca avocat principal sau să gestioneze fonduri ale clienților și i-a impus să efectueze practică juridică supravegheată pentru o perioadă de doi ani.
Acestea nu este, însă, un caz singular de folosire inadecvată inteligenței artificiale în instanțe.
Citări false create într-un caz de omucidere
Tot în Australia, într-un articol din The Guardian, se arată că un judecător a criticat avocații care au reprezentat un băiat acuzat de crimă pentru depunerea unor documente înșelătoare create de inteligența artificială. Cazul de omucidere se juedca la Curtea Supremă din Victoria, iar un avocat a depus argumente care conțineau citări inexistente și citate inventate din discursuri parlamentare, toate generate de AI.
Judecătorul a declarat că „Cererile revizuite nu au fost examinate de niciuna dintre părți... și făceau referire la o legislație care nu exista” fapt foarte grav deoarece ”capacitatea instanței de a se baza pe declarații a fost fundamentală pentru administrarea justiției”.
Avocat care a folosit Claude + Copilot
Potrivit unui alt articol din The Guardian, în Australia de Vest, un avocat a fost trimis la Consiliului de Practică Juridică din Australia de Vest după ce a folosit inteligența artificială în pregătirea documentelor judiciare pentru un caz de imigrare. Documentele conțineau citate generate de inteligența artificială pentru cazuri care nu existau. El a declarat că a folosit Claude (Anthropic) pentru cercetare și apoi Copilot pentru validare, dar nu a verificat manual citările.
Peste 20 de astfel de cazuri au fost înregistrate numai în Australia, se arată în acel articol.
Îngrijorări și reacții
Mai mulți președinți și specialiști în drept din Australia s-au decarat îngrijorați de amploarea și erorile generate de utilizarea AI în justiție și au abordat modul adecvat în care ar trebui folosit AI în justiție.
Potrivit profesorului Jeannie Paterson de la Universitatea din Melbourne consideră că problema ține adesea de alfabetizare în AI: „Este o problemă de AI literacy la fel de mult ca una de avocați neatenți.” (The Guardian)
Caroline Counsel, specialistă în dreptul familiei și președintă a catedrei de drept al familiei la Institutul de Drept Victorian, a declarat pentru emisiunea Mornings de la ABC Radio că inteligența artificială își face loc în instanțele de judecată din Victoria, cu unele rezultate problematice: „Din păcate, oamenii cred că inteligența artificială este duhul care va rezolva toate problemele, dar, de fapt, este ca un stagiar foarte pasionat care vrea să facă pe plac.”, a spus ea, potrivit ABC.
Într-un discurs rostit pe 9 septembrie 2025, în cadrul Sir Ninian Stephen Law Program Oration, Richard Niall - Președintele Curții Supreme din Victoria (cea mai înaltă instanță judecătorească din statul australian Victoria) - a atras atenția că , deși AI oferă oportunități semnificative — cum ar fi reducerea costurilor, accelerarea unor etape procedurale și creșterea accesului la justiție — aceasta nu trebuie să înlocuiască funcțiile fundamentale ale judecătorului.
Niall a susținut că AI poate fi utilizată ca un „asistent” pentru sarcini repetitive sau organizatorice — de exemplu managementul dosarului, transcrierea ședințelor, sintetizarea probelor —, dar cu precauție și cu reguli stricte privind transparența, astfel încât încrederea publicului în sistemul judiciar să nu fie erodată.
El a subliniat că activități precum stabilirea faptelor, exercitarea deciziei judiciare și motivarea hotărârilor nu pot fi delegate în prezent, aceste momente decizionale trebuind să rămână apanajul minții umane, marcată de valori, experiență de viață și imperfecțiuni:
”Pentru mulți judecători, a pune degetele pe tastatură și a redacta acele secțiuni anterioare ale unei hotărâri judecătorești face parte din procesul prin care cazul este digerat și se formulează raționamentul.
În acest sens, procesul decizional este iterativ, nu liniar, iar procesul de soluționare a unui caz și de articulare a motivelor acestuia sunt adesea inextricabil legate.”
De asemenea, în discursul său la Convenția Juridică Australiană, Richard Niall a pledat pentru o abordare precaută a inteligenței artificiale, precizând că aceasta ar trebui să servească drept asistent, nu să substituie raționamentul uman: „Sunt prudent optimist în ceea ce privește potențialul inteligenței artificiale în instanțe, dar este esențial ca aceasta să fie un ajutor și un asistent pentru gândirea independentă, nu un înlocuitor al ei.” (The Supreme Court of Victoria).
În New South Wales, Presedintele Curții Supreme din New South Wales - Andrew Bell - a introdus restricții stricte:
AI nu poate fi folosit pentru generarea conținutului unor documente esențiale cum ar fi declarații de martori sau referințe de caracter. (ABC)
Judecătorul Andrew Bell, a emis în noiembrie 2024 o notă de practică (“Practice Note SC Gen 23 – Use of Generative Artificial Intelligence”) prin care a reglementat utilizarea inteligenței artificiale generative la instanța supremă din New South Wales.
Printre restricțiile impuse se numărau:
- interzicerea folosirii AI pentru a genera conținutul unor documente-cheie precum declarații pe proprie răspundere („affidavits”), declarații ale martorilor („witness statements”) și referințe de caracter („character references”).
- interzicerea utilizării AI pentru a modifica, întări sau diminua declarațiile unui martor („to embellish, strengthen or dilute a witness’s evidence”).
- judecătorii nu pot folosi AI pentru a formula motivele hotărârilor („formulate reasons”), nici pentru a edita proiecte de judecăți.
Aceste măsuri au fost adoptate pentru a proteja integritatea procesului judiciar și autenticitatea declarațiilor martorilor, prevenind influențarea sau manipularea probelor prin tehnologie.
Regulile au intrat în vigoare la 3 februarie 2025, odată cu începutul sesiunii judiciare din 2025.
Se poate observa că Inteligența artificială este un instrument care poate ajuta în cadrul proceselor, dar în același timp poate genera și multe probleme, mai ales dacă nu este folosită cu responsabilitate și cu instrucțiuni clare și interdicții în ceea ce privește halucinarea.
Pe de o parte, AI ar putea crește accesul la justiție prin oferirea de suport persoanelor fără reprezentare juridică. De asemenea, automatizarea unor sarcini consumatoare de timp ar putea reduce costurile și sprijini litigii mai rapide.
Pe de altă parte riscurile legate de inexactități, fabricarea citărilor și dependența excesivă de AI pun sub semnul întrebării obligația etică a avocaților și încrederea instanțelor.
Astfel, este nevoie urgentă de o «alfabetizare AI» în rândul profesioniștilor în drept și de reguli clare privind utilizarea AI în documentele și procedurile judiciare.
Cazurile prezentate mai sus nu sunt excepții, ele repetându-se în toată lumea și în special acolo de unde inteligența artificială a pornit - SUA.
Prin urmare s-a ajuns la concluzia că este nevoie de reglementare urgentă în acest domeniu. Conform unui raport al National Civil Justice Institute, regulile profesionale impun verificarea riguroasă a citărilor, iar neglijarea lor (chiar când folosești AI) poate fi sancționată Etică și reguli profesionale (Regula 11, SUA).
Alte cazuri celebre
Citări fictive într-un proces cu daune de 89 milioane de lire sterline
Într-un alt articol The Guardian se arată că într-un proces de daune în valoare de 89 de milioane de lire sterline împotriva Băncii Naționale a Qatarului, reclamanții au făcut 45 de citări din jurisprudență, dintre care 18 s-au dovedit a fi fictive, multe dintre celelalte citate fiind, de asemenea, false.
Prietenul CHAT GPT din biroul unui avocat
Într-un alt caz la un tribunal fiscal din Marea Britanie, în 2023, o apelantă care a susținut iniţial că a fost ajutată de „un prieten din biroul unui avocat” a furnizat nouă decizii istorice false ale tribunalului ca presupuse precedente. Ea a recunoscut că este ”posibil” să fi folosit ChatGPT .
UK – Ayinde & Al‑Haroun (High Court)
În cazul Ayinde, ca parte a unei revizuiri judiciare, judecătorul a trebuit să examineze o cerere pentru cheltuieli de judecată. Avocatul reclamantului a prezentat cinci cazuri false (inclusiv unul care pretindea că provine de la Curtea de Apel) în declarația clientului lor privind faptele și motivele revizuirii judiciare, dar când li s-a solicitat să prezinte copii ale acestor cazuri, nu au făcut-o. Președintele Divisional Court a stabilit că cei care utilizează inteligența artificială pentru a efectua cercetări juridice au, obligația profesională de a verifica exactitatea acestor cercetări prin referire la surse autorizate, înainte de a le utiliza în cursul activității lor profesionale. De asemenea, judecătorul adjunct a dispus ca avocatul și centrul de avocatură să plătească fiecare 2.000 de lire sterline inculpatului.
În cazul cazul Al-Haroun v Qatar National Bank, reprezentanții profesioniști au prezentat materiale care prezentau semne de utilizare a inteligenței artificiale fără o verificare adecvată și au recunoscut asta. Hotărârea a reținut că nu a fost întrunit pragul necesar pentru declanșarea procedurilor de sfidare a curții și, deși Hussain s-a autodenunțat la Solicitors Regulation Authority, Înalta Curte va formula, de asemenea, o sesizare, preizează Lawgazette.
British Columbia – Canada
O avocata din Vancouver care se lupta în instanță pentru dreptul clientului său multimilionar de a-și aduce copiii în China a depus la o instanță din British Columbia, în rezumatele sale, citări juridice false generate de ChatGPT într-un dosar de divorț, unele „cazuri” neexistând în realitate. Judecătorul a calificat situația drept un abuz de procedură și a obligat avocata să despăgubească personal echipa juridică a adversarului său pentru timpul pierdut. Cazul a devenit un semnal de alarmă pentru profesia juridică privind riscurile folosirii AI fără verificare atentă. CanadianLawyer
California - sancțiuni de mii de dolari pentru citări false care aproape au ajuns în decizie
În California, un magistrat a declarat că inițial a fost convins de citările false — generate de AI — și aproape le-a inclus într-o decizie, dar ulterior a descoperit că nu existau. Firmele de avocatură ale reclamantului au fost sancționate și obligate să plătească 31.100 de dolari după s-a descoperit că au depus citații false. Ars Technica
California – citări false în apeluri
În cazul Noland v. Land of the Free, L.P., un avocat a folosit AI pentru apel, dar majoritatea citărilor ( 21 din 23) erau inventate de AI. Instanța a sancționat avocatul cu 10.000 dolari și a avertizat asupra obligației de a verifica citările. (Law of New, 2025)
Avocat din Utah sancționat pentru o depunere la tribunal în care a făcut referire la un dosar inexistent inventat de Chat GPT
Pe lângă mai multe citări false era făcută o referire și la „Royer v. Nelson”, un caz care nu exista în nicio bază de date juridică. Acesta exista doar în imaginația ChatGPT.
Curtea de Apel din Utah, după descoperirea citărilor false, i-a ordonat avocatului care a folosit Chat GPT să plătească onorariile avocaților părții adverse, să-și ramburseze clientul și să facă o donație unei organizații caritabile de asistență juridică. (Salt Lake Tribune, 2025)
Mata v. Avianca (SUA)
Într-un memoriu de răspuns, avocații au citat șase hotărâri inexistente, create de ChatGPT. Instanța i-a sancționat cu 5.000 $ pentru încălcarea regulilor profesionale. (Justice.gov)
Morgan & Morgan / Goody Law Group (Wyoming, SUA)
Avocații au depus o mișcare pre-proces (motion in limine) care conținea opt citări fictive, generate de un sistem intern de AI. Judecătorul i-a sancționat cu sume între 1.000 $ și 3.000 $ pentru fiecare avocat implicat. (Bloomberg Law, 2025)
OCAHO (SUA – Office of the Chief Administrative Hearing Officer)
Într-o decizie administrativă, părțile au depus documente cu autoritate juridică falsă, generată de AI. Instanța a aplicat sancțiuni. (Justice.gov, 2025)
Walmart (SUA)
Avocații au recunoscut că au folosit AI care a halucinat mai multe citări de cazuri inexistente într-un proces împotriva Walmart. (Reuters, 2025)
Butler Snow (Alabama, SUA)
Trei avocați au fost dezafiliați dintr-un proces după ce au depus documente conținând citări false generate de AI. Judecătoarea i-a criticat dur și a sesizat Baroul de avocați pentru investigații suplimentare. (Reuters, 2025)