Terug naar overzicht

Blog

Nepjurisprudentie: hoe AI de rechtspraak kan beïnvloeden zonder dat iemand het doorheeft

Een Amerikaanse advocaat citeerde vier niet-bestaande uitspraken in een verzoekschrift. Ze bleken afkomstig uit ChatGPT. De rechter ontdekte het, legde een boete op en verplichtte de betrokken advocaat tot het volgen van training voor het (ethische) gebruik van AI. Maar wat als deze AI-fictie níet was opgemerkt? En belangrijker nog: hoeveel van zulke gevallen zijn er al ongemerkt doorheen geglipt?

 

In deze blog onderzoeken we een groeiend maar onderbelicht risico: het gebruik van generatieve AI in juridische stukken, en het risico dat fictieve rechtsbronnen stilletjes de rechtspraak binnensluipen. De gevolgen kunnen verstrekkend zijn, ook in Nederland.

 

AI als juridisch hulpmiddel, maar niet zonder risico's

Steeds meer juristen maken gebruik van generatieve AI-tools om pleitnota’s op te stellen, jurisprudentie op te zoeken of juridische analyses te verkennen. Denk aan ChatGPT, Claude of Copilot, maar ook aan gespecialiseerde juridische platforms zoals Casetext of Harvey. Op zichzelf hoeft dat geen probleem te zijn, zolang de gegenereerde output maar kritisch wordt gecontroleerd op juistheid.

 

Want hoewel AI foutloos lijkt te formuleren, schuilt daaronder een fundamenteel probleem: deze modellen hallucineren. Ze verzinnen overtuigend klinkende rechtsregels, wetsartikelen en zelfs fictieve arresten. En tenzij een advocaat of rechter alert is, vallen zulke fouten niet altijd op. Juist omdat de tekst juridisch plausibel klinkt, is het risico op misleiding groot. Een verzonnen uitspraak die logisch oogt en goed in de redenering past, kan gemakkelijk ongemerkt blijven, zeker bij hoge werkdruk of gebrekkige controle. 

 

Bekende incidenten, onbekende omvang

De eerste zaak die wereldwijd aandacht trok was het Amerikaanse Mata v. Avianca Airlines (2023). Een advocaat gebruikte ChatGPT om jurisprudentie op te zoeken en citeerde zes niet-bestaande uitspraken in zijn pleitnota. Toen de rechter dit ontdekte, volgde een hoorzitting, waarop de rechtbank hem een boete oplegde van 5.000 dollar. Het incident vormde een wake-up call voor de juridische wereld: generatieve AI klinkt overtuigend, maar kan volledig fictieve bronnen produceren.

 

Toch bleek dit geen eenmalige misstap. In een recente zaak diende advocaat Thomas Nield een verzoekschrift in bij een faillissementsrechtbank in Illinois, waarin hij meerdere verzonnen uitspraken opvoerde. Ook deze waren afkomstig van ChatGPT. Rechter Michael Slade legde een boete op van 5.500 dollar, en verplichtte Nield tot het volgen van aanvullende training over de risico’s van AI-gebruik.

 

In zijn oordeel schreef Slade:

 

At this point, to be blunt, any lawyer unaware that using generative AI platforms to do legal research is playing with fire is living in a cloud.”

 

In deze zaak werd het gebruik van de hallucinatie opgemerkt en gesanctioneerd. Maar het vermoeden is dat veel andere gevallen in de praktijk niet worden ontdekt. In rechtssystemen die kampen met hoge werkdruk en inefficiëntie, is het goed denkbaar dat er pleitnota’s circuleren met foutieve of onbestaande bronnen, zonder dat iemand dat doorheeft.

 

De totstandkoming van nepjurisprudentie

In common law-landen (Engeland, Verenigde Staten en veel andere Engelstalige landen) vormt jurisprudentie het fundament van het recht. Rechters baseren hun oordelen op eerdere uitspraken, die vervolgens als bindend precedent gelden. Dit maakt het recht voorspelbaar, maar ook kwetsbaar: als een (op hallucinaties gebaseerde) uitspraak eenmaal als gezaghebbend wordt aangehaald, verspreidt die zich snel verder.

 

Hoewel het Nederlandse systeem (civil law) geen harde precedentwerking kent, speelt eerdere jurisprudentie ook hier een cruciale rol. Vooral uitspraken van de Hoge Raad zijn richtinggevend. Feitenrechters volgen die in principe, tenzij er duidelijke redenen zijn om ervan af te wijken. Als een Hoge Raad-uitspraak achteraf gebaseerd blijkt op AI-hallucinaties, ontstaat er een probleem: de onderliggende rechtsregel is ‘besmet’, en dat raakt mogelijk tientallen, zo niet honderden, zaken die daarop volgden.

 

In theorie kan een rechter in een latere zaak alsnog afwijken. Maar als dat pas jaren later gebeurt, is het juridische landschap intussen al veranderd. Terugdraaien leidt dan tot rechtsonzekerheid en onvoorspelbaarheid. Juist die waarden waar het recht op drijft, komen dan onder druk te staan.

 

Waarom het niet wordt opgemerkt

Rechters hebben in principe de ruimte om zelf relevante jurisprudentie aan te halen (zie art. 25 Rechtsvordering). Maar in de praktijk zijn ze vaak sterk afhankelijk van wat partijen aanleveren. Zeker in bulkzaken of bij zware werkdruk wordt de juridische onderbouwing uit de processtukken overgenomen of als vertrekpunt gebruikt.

 

Daar komt bij dat AI niet alleen uitspraken verzint, maar ook bestaande uitspraken vervormd weergeeft. Niet zelden is de naam of het ECLI-nummer correct, maar is de aangehaalde inhoud een fictieve parafrase. Dat maakt detectie des te moeilijker. Er zijn (nog) geen aangewezen automatische controlemiddelen, en handmatige verificatie kost veel tijd.

 

Beleid blijft achter, ook in Nederland

Tot op heden ontbreekt het in veel landen aan duidelijke regels of tuchtnormen rond AI-gebruik in juridische stukken. In Nederland komt daar nu voorzichtig beweging in. In juni 2025 startte de Rechtspraak met een landelijk AI-programma, gericht op de inzet van AI binnen de rechterlijke organisatie. De focus ligt daarbij op toepassingen buiten het oordeel van de rechter, zoals administratieve processen of het verbeteren van communicatie met rechtzoekenden.

 

Hoewel het programma ook aandacht besteedt aan bredere vragen, zoals de omgang met AI-gegenereerde processtukken en de bescherming van fundamentele rechten, is het beleid tot nu toe niet gericht op AI-gebruik door advocaten. Er zijn geen concrete gedragsregels of tuchtnormen ontwikkeld voor procespartijen die AI inzetten bij het opstellen van hun stukken.

 

In de Verenigde Staten is die ontwikkeling wel al gaande. In de besproken recente zaak oordeelde rechter Slade dat het aanvoeren van fictieve uitspraken uit ChatGPT in strijd was met Federal Rule 9011 (een soort Amerikaans tuchtrecht). Slade stelde nadrukkelijk dat onwetendheid over de risico’s van AI geen excuus meer is, en wees op ethische verplichtingen voor juristen om technologische ontwikkelingen in hun vakgebied te begrijpen. In de staat Illinois (waar de zaak plaatsvindt) geldt per 1 januari 2025 bovendien zelfs een officieel beleid dat advocaten verplicht om AI-output grondig te controleren.

 

De boodschap lijkt helder: wie AI gebruikt in de rechtszaal, blijft zelf verantwoordelijk voor de inhoud. En wie die verantwoordelijkheid ontwijkt, loopt mogelijk tegen harde sancties aan.

 

Wat kunnen we doen?

Het gebruik van AI volledig verbieden is onrealistisch, gezien de toenemende rol ervan in de maatschappij. Maar er zijn wel maatregelen denkbaar om de risico’s te beperken:

 

  • Verplichte vermelding van AI-gebruik in processtukken.

  • Controletools die citaten automatisch verifiëren op bron en inhoud.

  • Aanpassing van het tuchtrecht om nalatig gebruik van AI te bestraffen.

  • Opleidingen voor juristen in het gebruik van AI.

  • En, mocht AI uiteindelijk ook door de rechter zelf worden gebruikt: versterkte transparantie bij het opstellen van uitspraken.

Daarnaast helpt het uiteraard als (juridische) AI-leveranciers hun modellen trainen op betrouwbaarheid en broncontrole in plaats van alleen op taalvaardigheid.

 

Slotbeschouwing

De legitimiteit van het recht hangt af van transparantie, betrouwbaarheid en herleidbaarheid. Als AI-hallucinaties de jurisprudentie binnensluipen, wordt het recht van binnenuit ondermijnd. Het gevolg is een structurele besmetting van de rechtsorde.

 

Juist omdat eerdere uitspraken zo'n bepalende rol spelen in de totstandkoming van nieuwe beslissingen, is het risico op kettingreacties reëel. De rechter die ontdekt dat een hallucinatie structureel is toegepast, komt voor een onmogelijke keuze te staan: óf hij corrigeert, en ondermijnt daarmee de rechtszekerheid, óf hij laat het passeren, en legitimeert een juridische fictie.

AI-forum 2025/2