Blog
Nepjurisprudentie: hoe AI de rechtspraak kan beïnvloeden zonder dat iemand het doorheeft
Redactie
Een Amerikaanse advocaat citeerde vier niet-bestaande uitspraken in een verzoekschrift. Ze bleken afkomstig uit ChatGPT. De rechter ontdekte het, legde een boete op en verplichtte de betrokken advocaat tot het volgen van training voor het (ethische) gebruik van AI. Maar wat als deze AI-fictie níet was opgemerkt? En belangrijker nog: hoeveel van zulke gevallen zijn er al ongemerkt doorheen geglipt?
In deze blog onderzoeken we een groeiend maar onderbelicht risico: het gebruik van generatieve AI in juridische stukken, en het risico dat fictieve rechtsbronnen stilletjes de rechtspraak binnensluipen. De gevolgen kunnen verstrekkend zijn, ook in Nederland.
AI als juridisch hulpmiddel, maar niet zonder risico's
Steeds meer juristen maken gebruik van generatieve AI-tools om pleitnota’s op te stellen, jurisprudentie op te zoeken of juridische analyses te verkennen. Denk aan ChatGPT, Claude of Copilot, maar ook aan gespecialiseerde juridische platforms zoals Casetext of Harvey. Op zichzelf hoeft dat geen probleem te zijn, zolang de gegenereerde output maar kritisch wordt gecontroleerd op juistheid.
Want hoewel AI foutloos lijkt te formuleren, schuilt daaronder een fundamenteel probleem: deze modellen hallucineren. Ze verzinnen overtuigend klinkende rechtsregels, wetsartikelen en zelfs fictieve arresten. En tenzij een advocaat of rechter alert is, vallen zulke fouten niet altijd op. Juist omdat de tekst juridisch plausibel klinkt, is het risico op misleiding groot. Een verzonnen uitspraak die logisch oogt en goed in de redenering past, kan gemakkelijk ongemerkt blijven, zeker bij hoge werkdruk of gebrekkige controle.
Bekende incidenten, onbekende omvang
De eerste zaak die wereldwijd aandacht trok was het Amerikaanse Mata v. Avianca Airlines (2023). Een advocaat gebruikte ChatGPT om jurisprudentie op te zoeken en citeerde zes niet-bestaande uitspraken in zijn pleitnota. Toen de rechter dit ontdekte, volgde een hoorzitting, waarop de rechtbank hem een boete oplegde van 5.000 dollar. Het incident vormde een wake-up call voor de juridische wereld: generatieve AI klinkt overtuigend, maar kan volledig fictieve bronnen produceren.
Toch bleek dit geen eenmalige misstap. In een recente zaak diende advocaat Thomas Nield een verzoekschrift in bij een faillissementsrechtbank in Illinois, waarin hij meerdere verzonnen uitspraken opvoerde. Ook deze waren afkomstig van ChatGPT. Rechter Michael Slade legde een boete op van 5.500 dollar, en verplichtte Nield tot het volgen van aanvullende training over de risico’s van AI-gebruik.
In zijn oordeel schreef Slade:
“At this point, to be blunt, any lawyer unaware that using generative AI platforms to do legal research is playing with fire is living in a cloud.”
In deze zaak werd het gebruik van de hallucinatie opgemerkt en gesanctioneerd. Maar het vermoeden is dat veel andere gevallen in de praktijk niet worden ontdekt. In rechtssystemen die kampen met hoge werkdruk en inefficiëntie, is het goed denkbaar dat er pleitnota’s circuleren met foutieve of onbestaande bronnen, zonder dat iemand dat doorheeft.
De totstandkoming van nepjurisprudentie
In common law-landen (Engeland, Verenigde Staten en veel andere Engelstalige landen) vormt jurisprudentie het fundament van het recht. Rechters baseren hun oordelen op eerdere uitspraken, die vervolgens als bindend precedent gelden. Dit maakt het recht voorspelbaar, maar ook kwetsbaar: als een (op hallucinaties gebaseerde) uitspraak eenmaal als gezaghebbend wordt aangehaald, verspreidt die zich snel verder.
Hoewel het Nederlandse systeem (civil law) geen harde precedentwerking kent, speelt eerdere jurisprudentie ook hier een cruciale rol. Vooral uitspraken van de Hoge Raad zijn richtinggevend. Feitenrechters volgen die in principe, tenzij er duidelijke redenen zijn om ervan af te wijken. Als een Hoge Raad-uitspraak achteraf gebaseerd blijkt op AI-hallucinaties, ontstaat er een probleem: de onderliggende rechtsregel is ‘besmet’, en dat raakt mogelijk tientallen, zo niet honderden, zaken die daarop volgden.
In theorie kan een rechter in een latere zaak alsnog afwijken. Maar als dat pas jaren later gebeurt, is het juridische landschap intussen al veranderd. Terugdraaien leidt dan tot rechtsonzekerheid en onvoorspelbaarheid. Juist die waarden waar het recht op drijft, komen dan onder druk te staan.
Waarom het niet wordt opgemerkt
Rechters hebben in principe de ruimte om zelf relevante jurisprudentie aan te halen (zie art. 25 Rechtsvordering). Maar in de praktijk zijn ze vaak sterk afhankelijk van wat partijen aanleveren. Zeker in bulkzaken of bij zware werkdruk wordt de juridische onderbouwing uit de processtukken overgenomen of als vertrekpunt gebruikt.
Daar komt bij dat AI niet alleen uitspraken verzint, maar ook bestaande uitspraken vervormd weergeeft. Niet zelden is de naam of het ECLI-nummer correct, maar is de aangehaalde inhoud een fictieve parafrase. Dat maakt detectie des te moeilijker. Er zijn (nog) geen aangewezen automatische controlemiddelen, en handmatige verificatie kost veel tijd.
Beleid blijft achter, ook in Nederland
Tot op heden ontbreekt het in veel landen aan duidelijke regels of tuchtnormen rond AI-gebruik in juridische stukken. In Nederland komt daar nu voorzichtig beweging in. In juni 2025 startte de Rechtspraak met een landelijk AI-programma, gericht op de inzet van AI binnen de rechterlijke organisatie. De focus ligt daarbij op toepassingen buiten het oordeel van de rechter, zoals administratieve processen of het verbeteren van communicatie met rechtzoekenden.
Hoewel het programma ook aandacht besteedt aan bredere vragen, zoals de omgang met AI-gegenereerde processtukken en de bescherming van fundamentele rechten, is het beleid tot nu toe niet gericht op AI-gebruik door advocaten. Er zijn geen concrete gedragsregels of tuchtnormen ontwikkeld voor procespartijen die AI inzetten bij het opstellen van hun stukken.
In de Verenigde Staten is die ontwikkeling wel al gaande. In de besproken recente zaak oordeelde rechter Slade dat het aanvoeren van fictieve uitspraken uit ChatGPT in strijd was met Federal Rule 9011 (een soort Amerikaans tuchtrecht). Slade stelde nadrukkelijk dat onwetendheid over de risico’s van AI geen excuus meer is, en wees op ethische verplichtingen voor juristen om technologische ontwikkelingen in hun vakgebied te begrijpen. In de staat Illinois (waar de zaak plaatsvindt) geldt per 1 januari 2025 bovendien zelfs een officieel beleid dat advocaten verplicht om AI-output grondig te controleren.
De boodschap lijkt helder: wie AI gebruikt in de rechtszaal, blijft zelf verantwoordelijk voor de inhoud. En wie die verantwoordelijkheid ontwijkt, loopt mogelijk tegen harde sancties aan.
Wat kunnen we doen?
Het gebruik van AI volledig verbieden is onrealistisch, gezien de toenemende rol ervan in de maatschappij. Maar er zijn wel maatregelen denkbaar om de risico’s te beperken:
-
Verplichte vermelding van AI-gebruik in processtukken.
-
Controletools die citaten automatisch verifiëren op bron en inhoud.
-
Aanpassing van het tuchtrecht om nalatig gebruik van AI te bestraffen.
-
Opleidingen voor juristen in het gebruik van AI.
-
En, mocht AI uiteindelijk ook door de rechter zelf worden gebruikt: versterkte transparantie bij het opstellen van uitspraken.
Daarnaast helpt het uiteraard als (juridische) AI-leveranciers hun modellen trainen op betrouwbaarheid en broncontrole in plaats van alleen op taalvaardigheid.
Slotbeschouwing
De legitimiteit van het recht hangt af van transparantie, betrouwbaarheid en herleidbaarheid. Als AI-hallucinaties de jurisprudentie binnensluipen, wordt het recht van binnenuit ondermijnd. Het gevolg is een structurele besmetting van de rechtsorde.
Juist omdat eerdere uitspraken zo'n bepalende rol spelen in de totstandkoming van nieuwe beslissingen, is het risico op kettingreacties reëel. De rechter die ontdekt dat een hallucinatie structureel is toegepast, komt voor een onmogelijke keuze te staan: óf hij corrigeert, en ondermijnt daarmee de rechtszekerheid, óf hij laat het passeren, en legitimeert een juridische fictie.
AI-forum 2025/2
Meta’s AI-app leidt tot onbedoelde publicatie van privégesprekken
De nieuwe standalone AI-app van Meta heeft veel stof doen opwaaien. Gebruikers van de app deelden onbedoeld persoonlijke gesprekken met de chatbot op een openbare feed. De situatie heeft vragen opgeroepen over Meta’s interface en de bescherming va...
Google’s open-source medische AI biedt kansen, maar roept ook vragen op
Google heeft de lat opnieuw hoger gelegd. Met de lancering van de MedGemma-modellen betreedt de techgigant het domein van open-source medische AI op een schaal die eerder nog niet voorkwam. Waar vorige toepassingen vooral werden aangeboden als com...
Tussen patiëntveiligheid en algoritmische integriteit. De AI Act in klinisch onderzoek onder de MDR en IVDR
Klinisch onderzoek is essentieel voor het beschikbaar komen van nieuwe zorgvormen, zowel op productgebied (zowel medische hulpmiddelen als geneesmiddelen) als voor adoptie van nieuwe therapieën. AI speelt daarin een steeds belangrijkere rol in de ...
AI en de rechter, of de technificatie van de rechtspraak
Inleiding
Volgens de onlangs verschenen officiële Rechtspraakstrategie voor Artificiële Intelligentie is AI een omnipresent systeemtechnologie waar ‘de rechtspraak zich hoe dan ook toe zal moeten verhouden.’ Opvallend genoeg verscheen dit bericht...
Creatieve sector verontwaardigd over nieuwe Gedragscode AI-verordening
Het Europese AI-bureau heeft recent de derde en laatste conceptversie gepubliceerd van de Gedragscode voor aanbieders van generatieve AI, als aanvulling op de AI-verordening. Makers, uitvoerende kunstenaars en rechthebbenden reageren hierop veront...
Meester of machine? Professionele autonomie in het tijdperk van AI
1. Introductie
Kunstmatige intelligentie (AI) beïnvloedt nagenoeg alle sectoren, waaronder kennisintensieve beroepen.[1] Dit geldt ook voor de juridische sector, en met name de advocatuur. AI verwijst in hoofdzaak naar het vermogen van machines o...
In hoeverre moet generatieve stijlnabootsing worden afgeremd met “guardrails”?
De opkomst van generatieve AI heeft een breed spectrum aan creatieve toepassingen mogelijk gemaakt. Of het nu gaat om tekst, beeld, video of muziek: de modellen worden steeds krachtiger. Tegelijkertijd staat de juridische toetsing aan bijvoorbeeld...
Aansprakelijkheid in het AI-tijdperk: is de kwalitatieve aansprakelijkheid voor gebrekkige roerende zaken toe aan een update?
§ 1. Inleiding
Artificial intelligence (hierna: ‘AI’) speelt een steeds grotere rol in onze samenleving. Zo is AI bezig met een flinke opmars in onder andere de financiële sector, in bestuursrechtelijke besluitvormingsprocessen en bij de opkomst ...
Japan introduceert AI-wetgeving die sterk afwijkt van onze AI-verordening
Op 28 mei 2025 nam het Japanse parlement voor het eerst een nationale AI-wet aan. Deze nieuwe wet, beter bekend als de AI Utilization Promotion Act, kiest nadrukkelijk voor een andere koers dan de Europese Unie. Waar de EU inzet op risicobeperking...
