Blog
Nepjurisprudentie: hoe AI de rechtspraak kan beïnvloeden zonder dat iemand het doorheeft
Redactie
Een Amerikaanse advocaat citeerde vier niet-bestaande uitspraken in een verzoekschrift. Ze bleken afkomstig uit ChatGPT. De rechter ontdekte het, legde een boete op en verplichtte de betrokken advocaat tot het volgen van training voor het (ethische) gebruik van AI. Maar wat als deze AI-fictie níet was opgemerkt? En belangrijker nog: hoeveel van zulke gevallen zijn er al ongemerkt doorheen geglipt?
In deze blog onderzoeken we een groeiend maar onderbelicht risico: het gebruik van generatieve AI in juridische stukken, en het risico dat fictieve rechtsbronnen stilletjes de rechtspraak binnensluipen. De gevolgen kunnen verstrekkend zijn, ook in Nederland.
AI als juridisch hulpmiddel, maar niet zonder risico's
Steeds meer juristen maken gebruik van generatieve AI-tools om pleitnota’s op te stellen, jurisprudentie op te zoeken of juridische analyses te verkennen. Denk aan ChatGPT, Claude of Copilot, maar ook aan gespecialiseerde juridische platforms zoals Casetext of Harvey. Op zichzelf hoeft dat geen probleem te zijn, zolang de gegenereerde output maar kritisch wordt gecontroleerd op juistheid.
Want hoewel AI foutloos lijkt te formuleren, schuilt daaronder een fundamenteel probleem: deze modellen hallucineren. Ze verzinnen overtuigend klinkende rechtsregels, wetsartikelen en zelfs fictieve arresten. En tenzij een advocaat of rechter alert is, vallen zulke fouten niet altijd op. Juist omdat de tekst juridisch plausibel klinkt, is het risico op misleiding groot. Een verzonnen uitspraak die logisch oogt en goed in de redenering past, kan gemakkelijk ongemerkt blijven, zeker bij hoge werkdruk of gebrekkige controle.
Bekende incidenten, onbekende omvang
De eerste zaak die wereldwijd aandacht trok was het Amerikaanse Mata v. Avianca Airlines (2023). Een advocaat gebruikte ChatGPT om jurisprudentie op te zoeken en citeerde zes niet-bestaande uitspraken in zijn pleitnota. Toen de rechter dit ontdekte, volgde een hoorzitting, waarop de rechtbank hem een boete oplegde van 5.000 dollar. Het incident vormde een wake-up call voor de juridische wereld: generatieve AI klinkt overtuigend, maar kan volledig fictieve bronnen produceren.
Toch bleek dit geen eenmalige misstap. In een recente zaak diende advocaat Thomas Nield een verzoekschrift in bij een faillissementsrechtbank in Illinois, waarin hij meerdere verzonnen uitspraken opvoerde. Ook deze waren afkomstig van ChatGPT. Rechter Michael Slade legde een boete op van 5.500 dollar, en verplichtte Nield tot het volgen van aanvullende training over de risico’s van AI-gebruik.
In zijn oordeel schreef Slade:
“At this point, to be blunt, any lawyer unaware that using generative AI platforms to do legal research is playing with fire is living in a cloud.”
In deze zaak werd het gebruik van de hallucinatie opgemerkt en gesanctioneerd. Maar het vermoeden is dat veel andere gevallen in de praktijk niet worden ontdekt. In rechtssystemen die kampen met hoge werkdruk en inefficiëntie, is het goed denkbaar dat er pleitnota’s circuleren met foutieve of onbestaande bronnen, zonder dat iemand dat doorheeft.
De totstandkoming van nepjurisprudentie
In common law-landen (Engeland, Verenigde Staten en veel andere Engelstalige landen) vormt jurisprudentie het fundament van het recht. Rechters baseren hun oordelen op eerdere uitspraken, die vervolgens als bindend precedent gelden. Dit maakt het recht voorspelbaar, maar ook kwetsbaar: als een (op hallucinaties gebaseerde) uitspraak eenmaal als gezaghebbend wordt aangehaald, verspreidt die zich snel verder.
Hoewel het Nederlandse systeem (civil law) geen harde precedentwerking kent, speelt eerdere jurisprudentie ook hier een cruciale rol. Vooral uitspraken van de Hoge Raad zijn richtinggevend. Feitenrechters volgen die in principe, tenzij er duidelijke redenen zijn om ervan af te wijken. Als een Hoge Raad-uitspraak achteraf gebaseerd blijkt op AI-hallucinaties, ontstaat er een probleem: de onderliggende rechtsregel is ‘besmet’, en dat raakt mogelijk tientallen, zo niet honderden, zaken die daarop volgden.
In theorie kan een rechter in een latere zaak alsnog afwijken. Maar als dat pas jaren later gebeurt, is het juridische landschap intussen al veranderd. Terugdraaien leidt dan tot rechtsonzekerheid en onvoorspelbaarheid. Juist die waarden waar het recht op drijft, komen dan onder druk te staan.
Waarom het niet wordt opgemerkt
Rechters hebben in principe de ruimte om zelf relevante jurisprudentie aan te halen (zie art. 25 Rechtsvordering). Maar in de praktijk zijn ze vaak sterk afhankelijk van wat partijen aanleveren. Zeker in bulkzaken of bij zware werkdruk wordt de juridische onderbouwing uit de processtukken overgenomen of als vertrekpunt gebruikt.
Daar komt bij dat AI niet alleen uitspraken verzint, maar ook bestaande uitspraken vervormd weergeeft. Niet zelden is de naam of het ECLI-nummer correct, maar is de aangehaalde inhoud een fictieve parafrase. Dat maakt detectie des te moeilijker. Er zijn (nog) geen aangewezen automatische controlemiddelen, en handmatige verificatie kost veel tijd.
Beleid blijft achter, ook in Nederland
Tot op heden ontbreekt het in veel landen aan duidelijke regels of tuchtnormen rond AI-gebruik in juridische stukken. In Nederland komt daar nu voorzichtig beweging in. In juni 2025 startte de Rechtspraak met een landelijk AI-programma, gericht op de inzet van AI binnen de rechterlijke organisatie. De focus ligt daarbij op toepassingen buiten het oordeel van de rechter, zoals administratieve processen of het verbeteren van communicatie met rechtzoekenden.
Hoewel het programma ook aandacht besteedt aan bredere vragen, zoals de omgang met AI-gegenereerde processtukken en de bescherming van fundamentele rechten, is het beleid tot nu toe niet gericht op AI-gebruik door advocaten. Er zijn geen concrete gedragsregels of tuchtnormen ontwikkeld voor procespartijen die AI inzetten bij het opstellen van hun stukken.
In de Verenigde Staten is die ontwikkeling wel al gaande. In de besproken recente zaak oordeelde rechter Slade dat het aanvoeren van fictieve uitspraken uit ChatGPT in strijd was met Federal Rule 9011 (een soort Amerikaans tuchtrecht). Slade stelde nadrukkelijk dat onwetendheid over de risico’s van AI geen excuus meer is, en wees op ethische verplichtingen voor juristen om technologische ontwikkelingen in hun vakgebied te begrijpen. In de staat Illinois (waar de zaak plaatsvindt) geldt per 1 januari 2025 bovendien zelfs een officieel beleid dat advocaten verplicht om AI-output grondig te controleren.
De boodschap lijkt helder: wie AI gebruikt in de rechtszaal, blijft zelf verantwoordelijk voor de inhoud. En wie die verantwoordelijkheid ontwijkt, loopt mogelijk tegen harde sancties aan.
Wat kunnen we doen?
Het gebruik van AI volledig verbieden is onrealistisch, gezien de toenemende rol ervan in de maatschappij. Maar er zijn wel maatregelen denkbaar om de risico’s te beperken:
-
Verplichte vermelding van AI-gebruik in processtukken.
-
Controletools die citaten automatisch verifiëren op bron en inhoud.
-
Aanpassing van het tuchtrecht om nalatig gebruik van AI te bestraffen.
-
Opleidingen voor juristen in het gebruik van AI.
-
En, mocht AI uiteindelijk ook door de rechter zelf worden gebruikt: versterkte transparantie bij het opstellen van uitspraken.
Daarnaast helpt het uiteraard als (juridische) AI-leveranciers hun modellen trainen op betrouwbaarheid en broncontrole in plaats van alleen op taalvaardigheid.
Slotbeschouwing
De legitimiteit van het recht hangt af van transparantie, betrouwbaarheid en herleidbaarheid. Als AI-hallucinaties de jurisprudentie binnensluipen, wordt het recht van binnenuit ondermijnd. Het gevolg is een structurele besmetting van de rechtsorde.
Juist omdat eerdere uitspraken zo'n bepalende rol spelen in de totstandkoming van nieuwe beslissingen, is het risico op kettingreacties reëel. De rechter die ontdekt dat een hallucinatie structureel is toegepast, komt voor een onmogelijke keuze te staan: óf hij corrigeert, en ondermijnt daarmee de rechtszekerheid, óf hij laat het passeren, en legitimeert een juridische fictie.
AI-forum 2025/2
Eerste rechtspraak over AI-hallucinaties; OpenAI niet aansprakelijk
In mei 2023 spande de Amerikaanse radiopresentator Mark Walters een rechtszaak aan tegen OpenAI. Aanleiding was een foutief antwoord van ChatGPT, waarin Walters onterecht werd beschuldigd van verduistering. De rechter oordeelde afgelopen week dat ...
Derde rechtszaak tegen Anthropic: kun je tekst- en datamining contractueel verbieden?
Reddit heeft een rechtszaak aangespannen tegen AI-ontwikkelaar Anthropic. De aanklacht draait om het vermeende herhaaldelijk scrapen van Reddit-data door Anthropic, ondanks eerdere toezeggingen om daarmee te stoppen. Daarmee voegt deze zaak zich i...
AI in kinderspeelgoed: Mattel en OpenAI kondigen nieuwe samenwerking aan
Mattel en OpenAI hebben een strategische samenwerking aangekondigd om AI te integreren in speelgoed voor kinderen. Het nieuws roept belangrijke juridische en maatschappelijke vragen op. In dit artikel bespreken we de aankondiging, de eerste reacti...
AI-muziekplatforms in overleg met major labels: wat zijn de mogelijke gevolgen?
Recent werd bevestigd dat de grote platenmaatschappijen (Universal Music Group, Warner Music Group en Sony Music Entertainment) in gesprek zijn met de bekende AI-muziekplatforms Suno en Udio. Volgens diverse bronnen onderhandelen deze partijen ...
Anthropic mag de ontwikkeling van Claude AI doorzetten, ondanks zorgen auteursrecht
Van de 39 Amerikaanse auteursrechtzaken op het gebied van AI-ontwikkeling, zijn er twee gericht tegen ontwikkelaar Anthropic. Anthropic is het bedrijf achter Claude AI, een chatbot van vergelijkbare aard en kwaliteit als ChatGPT. Claude is deels g...
Generatieve AI-training is fair use, oordeelt de Amerikaanse rechter
Voor het eerst heeft een Amerikaanse rechter geoordeeld dat het trainen van een generatief AI-model met auteursrechtelijk beschermd materiaal onder fair use valt. De uitspraak komt in de zaak Bartz v. Anthropic, waarin drie auteurs AI-bedrijf Anth...
AI in oorlogsvoering: strategische innovaties en juridische uitdagingen
Kunstmatige intelligentie (AI) speelt een steeds grotere rol in moderne oorlogsvoering. Wat begon als een ondersteunend hulpmiddel in beeldherkenning en dataverwerking, ontwikkelt zich razendsnel tot een beslissende factor in zowel militaire op...
GPT-4o en het Ghibli Effect: de genadeslag voor ontwerpers en rechthebbenden?
Afgelopen week stond social media vol met afbeeldingen in de kenmerkende stijl van de Japanse animatiestudio Ghibli. Dit was het gevolg van de release van OpenAI's nieuwe afbeeldingsgenerator, die onderdeel uitmaakt van de reeds bestaande chatbot ...
Symposium EU-techregulering: tussen recht, ethiek en geopolitiek
Hoe kijkt de wereld naar Europese techregulering, en welke ethische dilemma’s brengt technologische innovatie met zich mee? Tijdens ons studentensymposium dagen wij rechtenstudenten en recent afgestudeerden uit om verder te kijken dan (tech)regelg...
US Copyright Office over AI-training, auteursrecht en fair use (uitgebreide analyse)
Begin mei publiceerde het Amerikaanse Copyright Office (UCO) het derde en laatste rapport in haar reeks over AI en auteursrecht. Het rapport werpt een diepgravende blik op de juridische status van AI-training onder het Amerikaanse auteursrecht, me...
