Blog
Nepjurisprudentie: hoe AI de rechtspraak kan beïnvloeden zonder dat iemand het doorheeft
Redactie
Een Amerikaanse advocaat citeerde vier niet-bestaande uitspraken in een verzoekschrift. Ze bleken afkomstig uit ChatGPT. De rechter ontdekte het, legde een boete op en verplichtte de betrokken advocaat tot het volgen van training voor het (ethische) gebruik van AI. Maar wat als deze AI-fictie níet was opgemerkt? En belangrijker nog: hoeveel van zulke gevallen zijn er al ongemerkt doorheen geglipt?
In deze blog onderzoeken we een groeiend maar onderbelicht risico: het gebruik van generatieve AI in juridische stukken, en het risico dat fictieve rechtsbronnen stilletjes de rechtspraak binnensluipen. De gevolgen kunnen verstrekkend zijn, ook in Nederland.
AI als juridisch hulpmiddel, maar niet zonder risico's
Steeds meer juristen maken gebruik van generatieve AI-tools om pleitnota’s op te stellen, jurisprudentie op te zoeken of juridische analyses te verkennen. Denk aan ChatGPT, Claude of Copilot, maar ook aan gespecialiseerde juridische platforms zoals Casetext of Harvey. Op zichzelf hoeft dat geen probleem te zijn, zolang de gegenereerde output maar kritisch wordt gecontroleerd op juistheid.
Want hoewel AI foutloos lijkt te formuleren, schuilt daaronder een fundamenteel probleem: deze modellen hallucineren. Ze verzinnen overtuigend klinkende rechtsregels, wetsartikelen en zelfs fictieve arresten. En tenzij een advocaat of rechter alert is, vallen zulke fouten niet altijd op. Juist omdat de tekst juridisch plausibel klinkt, is het risico op misleiding groot. Een verzonnen uitspraak die logisch oogt en goed in de redenering past, kan gemakkelijk ongemerkt blijven, zeker bij hoge werkdruk of gebrekkige controle.
Bekende incidenten, onbekende omvang
De eerste zaak die wereldwijd aandacht trok was het Amerikaanse Mata v. Avianca Airlines (2023). Een advocaat gebruikte ChatGPT om jurisprudentie op te zoeken en citeerde zes niet-bestaande uitspraken in zijn pleitnota. Toen de rechter dit ontdekte, volgde een hoorzitting, waarop de rechtbank hem een boete oplegde van 5.000 dollar. Het incident vormde een wake-up call voor de juridische wereld: generatieve AI klinkt overtuigend, maar kan volledig fictieve bronnen produceren.
Toch bleek dit geen eenmalige misstap. In een recente zaak diende advocaat Thomas Nield een verzoekschrift in bij een faillissementsrechtbank in Illinois, waarin hij meerdere verzonnen uitspraken opvoerde. Ook deze waren afkomstig van ChatGPT. Rechter Michael Slade legde een boete op van 5.500 dollar, en verplichtte Nield tot het volgen van aanvullende training over de risico’s van AI-gebruik.
In zijn oordeel schreef Slade:
“At this point, to be blunt, any lawyer unaware that using generative AI platforms to do legal research is playing with fire is living in a cloud.”
In deze zaak werd het gebruik van de hallucinatie opgemerkt en gesanctioneerd. Maar het vermoeden is dat veel andere gevallen in de praktijk niet worden ontdekt. In rechtssystemen die kampen met hoge werkdruk en inefficiëntie, is het goed denkbaar dat er pleitnota’s circuleren met foutieve of onbestaande bronnen, zonder dat iemand dat doorheeft.
De totstandkoming van nepjurisprudentie
In common law-landen (Engeland, Verenigde Staten en veel andere Engelstalige landen) vormt jurisprudentie het fundament van het recht. Rechters baseren hun oordelen op eerdere uitspraken, die vervolgens als bindend precedent gelden. Dit maakt het recht voorspelbaar, maar ook kwetsbaar: als een (op hallucinaties gebaseerde) uitspraak eenmaal als gezaghebbend wordt aangehaald, verspreidt die zich snel verder.
Hoewel het Nederlandse systeem (civil law) geen harde precedentwerking kent, speelt eerdere jurisprudentie ook hier een cruciale rol. Vooral uitspraken van de Hoge Raad zijn richtinggevend. Feitenrechters volgen die in principe, tenzij er duidelijke redenen zijn om ervan af te wijken. Als een Hoge Raad-uitspraak achteraf gebaseerd blijkt op AI-hallucinaties, ontstaat er een probleem: de onderliggende rechtsregel is ‘besmet’, en dat raakt mogelijk tientallen, zo niet honderden, zaken die daarop volgden.
In theorie kan een rechter in een latere zaak alsnog afwijken. Maar als dat pas jaren later gebeurt, is het juridische landschap intussen al veranderd. Terugdraaien leidt dan tot rechtsonzekerheid en onvoorspelbaarheid. Juist die waarden waar het recht op drijft, komen dan onder druk te staan.
Waarom het niet wordt opgemerkt
Rechters hebben in principe de ruimte om zelf relevante jurisprudentie aan te halen (zie art. 25 Rechtsvordering). Maar in de praktijk zijn ze vaak sterk afhankelijk van wat partijen aanleveren. Zeker in bulkzaken of bij zware werkdruk wordt de juridische onderbouwing uit de processtukken overgenomen of als vertrekpunt gebruikt.
Daar komt bij dat AI niet alleen uitspraken verzint, maar ook bestaande uitspraken vervormd weergeeft. Niet zelden is de naam of het ECLI-nummer correct, maar is de aangehaalde inhoud een fictieve parafrase. Dat maakt detectie des te moeilijker. Er zijn (nog) geen aangewezen automatische controlemiddelen, en handmatige verificatie kost veel tijd.
Beleid blijft achter, ook in Nederland
Tot op heden ontbreekt het in veel landen aan duidelijke regels of tuchtnormen rond AI-gebruik in juridische stukken. In Nederland komt daar nu voorzichtig beweging in. In juni 2025 startte de Rechtspraak met een landelijk AI-programma, gericht op de inzet van AI binnen de rechterlijke organisatie. De focus ligt daarbij op toepassingen buiten het oordeel van de rechter, zoals administratieve processen of het verbeteren van communicatie met rechtzoekenden.
Hoewel het programma ook aandacht besteedt aan bredere vragen, zoals de omgang met AI-gegenereerde processtukken en de bescherming van fundamentele rechten, is het beleid tot nu toe niet gericht op AI-gebruik door advocaten. Er zijn geen concrete gedragsregels of tuchtnormen ontwikkeld voor procespartijen die AI inzetten bij het opstellen van hun stukken.
In de Verenigde Staten is die ontwikkeling wel al gaande. In de besproken recente zaak oordeelde rechter Slade dat het aanvoeren van fictieve uitspraken uit ChatGPT in strijd was met Federal Rule 9011 (een soort Amerikaans tuchtrecht). Slade stelde nadrukkelijk dat onwetendheid over de risico’s van AI geen excuus meer is, en wees op ethische verplichtingen voor juristen om technologische ontwikkelingen in hun vakgebied te begrijpen. In de staat Illinois (waar de zaak plaatsvindt) geldt per 1 januari 2025 bovendien zelfs een officieel beleid dat advocaten verplicht om AI-output grondig te controleren.
De boodschap lijkt helder: wie AI gebruikt in de rechtszaal, blijft zelf verantwoordelijk voor de inhoud. En wie die verantwoordelijkheid ontwijkt, loopt mogelijk tegen harde sancties aan.
Wat kunnen we doen?
Het gebruik van AI volledig verbieden is onrealistisch, gezien de toenemende rol ervan in de maatschappij. Maar er zijn wel maatregelen denkbaar om de risico’s te beperken:
-
Verplichte vermelding van AI-gebruik in processtukken.
-
Controletools die citaten automatisch verifiëren op bron en inhoud.
-
Aanpassing van het tuchtrecht om nalatig gebruik van AI te bestraffen.
-
Opleidingen voor juristen in het gebruik van AI.
-
En, mocht AI uiteindelijk ook door de rechter zelf worden gebruikt: versterkte transparantie bij het opstellen van uitspraken.
Daarnaast helpt het uiteraard als (juridische) AI-leveranciers hun modellen trainen op betrouwbaarheid en broncontrole in plaats van alleen op taalvaardigheid.
Slotbeschouwing
De legitimiteit van het recht hangt af van transparantie, betrouwbaarheid en herleidbaarheid. Als AI-hallucinaties de jurisprudentie binnensluipen, wordt het recht van binnenuit ondermijnd. Het gevolg is een structurele besmetting van de rechtsorde.
Juist omdat eerdere uitspraken zo'n bepalende rol spelen in de totstandkoming van nieuwe beslissingen, is het risico op kettingreacties reëel. De rechter die ontdekt dat een hallucinatie structureel is toegepast, komt voor een onmogelijke keuze te staan: óf hij corrigeert, en ondermijnt daarmee de rechtszekerheid, óf hij laat het passeren, en legitimeert een juridische fictie.
AI-forum 2025/2
GPT-4o en het Ghibli Effect: de genadeslag voor ontwerpers en rechthebbenden?
Afgelopen week stond social media vol met afbeeldingen in de kenmerkende stijl van de Japanse animatiestudio Ghibli. Dit was het gevolg van de release van OpenAI's nieuwe afbeeldingsgenerator, die onderdeel uitmaakt van de reeds bestaande chatbot ...
Anthropic mag de ontwikkeling van Claude AI doorzetten, ondanks zorgen auteursrecht
Van de 39 Amerikaanse auteursrechtzaken op het gebied van AI-ontwikkeling, zijn er twee gericht tegen ontwikkelaar Anthropic. Anthropic is het bedrijf achter Claude AI, een chatbot van vergelijkbare aard en kwaliteit als ChatGPT. Claude is deels g...
AI Verordening: Hoe verzeker je AI-geletterdheid binnen je organisatie?
Sinds 2 februari 2025 zijn aanbieders en gebruiksverantwoordelijken van AI-systemen verplicht om voldoende AI-geletterdheid te verzekeren van hun personeel en andere personen die namens hen AI-systemen gebruiken. Als onderdeel van de eerste ree...
Creatieve sector verontwaardigd over nieuwe Gedragscode AI-verordening
Het Europese AI-bureau heeft recent de derde en laatste conceptversie gepubliceerd van de Gedragscode voor aanbieders van generatieve AI, als aanvulling op de AI-verordening. Makers, uitvoerende kunstenaars en rechthebbenden reageren hierop veront...
Britse denktank wil commerciële AI-training in Engeland legaliseren
2 maanden terug bespraken we hoe de Britse overheid een auteursrechtelijke hervorming overweegt op basis waarvan bedrijven voor commerciële doeleinden mogen tekst- en dataminen, tenzij rechthebbenden zich daar uitdrukkelijk tegen verzetten. Oftewe...
Generatieve AI als voertuig voor de meningsuiting en creatieve expressie
De discussie over generatieve AI in de kunstwereld wordt vaak gedomineerd door zorgen. Makers en rechthebbenden vrezen dat hun werken worden nagebootst, dat creatieve beroepen onder druk komen te staan en dat bestaande rechten worden ondermijnd. M...
Hoe GPT-NL en Nextcloud de afhankelijkheid van Big Tech helpen terugdringen
In een wereld waarin taalmodellen als ChatGPT razendsnel terrein winnen, groeit ook het besef van afhankelijkheid. De meeste krachtige AI-systemen worden gebouwd en beheerd door een handvol grote Amerikaanse technologiebedrijven, die beperkte tran...
AI-training is geen fair use, concludeert een groep Amerikaanse hoogleraren
Een groep toonaangevende Amerikaanse hoogleraren auteursrecht heeft zich uitgesproken tegen Meta’s beroep op fair use voor het trainen van generatieve AI-modellen. In een stevig beargumenteerde amicus brief stellen de experts dat het gebruik van a...
Adobe's Content Credentials: het equilibrium tussen auteursrecht en innovatie?
De inzet op transparantie in het tijdperk van generatieve AI krijgt een krachtige impuls met Adobe’s recente introductie van Content Credentials. Door dit nieuwe systeem kunnen makers hun naam, de herkomst van werken en hun voorkeuren over AI-gebr...
2024 EU AI-verordening: een gedetailleerde analyse
De AI-verordening is een belangrijk regelgevingskader dat gericht is op het harmoniseren van de ontwikkeling, de toepassing en het gebruik van AI binnen de EU. Deze uitgebreide regelgeving, die op 1 augustus 2024 van kracht is geworden, is bedoeld...
OpenAI wijzigt koers: non-profit behoudt controle
OpenAI heeft aangekondigd de plannen voor de overgang naar een winstgericht bedrijfsmodel deels terug te draaien. Het bedrijf is van plan zijn for-profit tak om te zetten in een public benefit corporation (PBC), maar de volledige zeggenschap blijf...
AI in oorlogsvoering: strategische innovaties en juridische uitdagingen
Kunstmatige intelligentie (AI) speelt een steeds grotere rol in moderne oorlogsvoering. Wat begon als een ondersteunend hulpmiddel in beeldherkenning en dataverwerking, ontwikkelt zich razendsnel tot een beslissende factor in zowel militaire op...
US Copyright Office over AI-training, auteursrecht en fair use (uitgebreide analyse)
Begin mei publiceerde het Amerikaanse Copyright Office (UCO) het derde en laatste rapport in haar reeks over AI en auteursrecht. Het rapport werpt een diepgravende blik op de juridische status van AI-training onder het Amerikaanse auteursrecht, me...
Aansprakelijkheid in het AI-tijdperk: is de kwalitatieve aansprakelijkheid voor gebrekkige roerende zaken toe aan een update?
§ 1. Inleiding
Artificial intelligence (hierna: ‘AI’) speelt een steeds grotere rol in onze samenleving. Zo is AI bezig met een flinke opmars in onder andere de financiële sector, in bestuursrechtelijke besluitvormingsprocessen en bij de opkomst ...
Amerikaans wetsvoorstel verbiedt niet-federale AI-wetgeving voor 10 jaar
In het Huis van Afgevaardigden (de Amerikaanse tegenhanger van de Tweede Kamer) is een wetsvoorstel ingediend dat staten en andere niet-federale overheden de komende tien jaar verbiedt om eigen regels op te stellen voor kunstmatige intelligentie. ...
AI-training en auteursrecht: de internationale verschillen
Mag je auteursrechtelijk beschermd werk gebruiken om AI-modellen te trainen? Die vraag houdt wetgevers wereldwijd bezig. Als onderdeel van haar recente rapport, heeft het Amerikaanse Copyright Office in kaart gebracht hoe verschillende landen AI-t...
Het doel heiligt de middelen – Anthropic’s nieuwe AI grijpt naar chantage
Anthropic heeft met Claude Opus 4 een van de meest geavanceerde AI-modellen tot nu toe gelanceerd. Maar bij interne veiligheidstests bleek het model bijzonder doortastend, zelfs manipulatief. Deze blog bespreekt hoe Claude Opus 4 overging tot chan...
Japan introduceert AI-wetgeving die sterk afwijkt van onze AI-verordening
Op 28 mei 2025 nam het Japanse parlement voor het eerst een nationale AI-wet aan. Deze nieuwe wet, beter bekend als de AI Utilization Promotion Act, kiest nadrukkelijk voor een andere koers dan de Europese Unie. Waar de EU inzet op risicobeperking...
Van handmatige moderatie naar AI-gestuurde detectiesystemen
Inleiding
In hoeverre moet generatieve stijlnabootsing worden afgeremd met “guardrails”?
De opkomst van generatieve AI heeft een breed spectrum aan creatieve toepassingen mogelijk gemaakt. Of het nu gaat om tekst, beeld, video of muziek: de modellen worden steeds krachtiger. Tegelijkertijd staat de juridische toetsing aan bijvoorbeeld...
Derde rechtszaak tegen Anthropic: kun je tekst- en datamining contractueel verbieden?
Reddit heeft een rechtszaak aangespannen tegen AI-ontwikkelaar Anthropic. De aanklacht draait om het vermeende herhaaldelijk scrapen van Reddit-data door Anthropic, ondanks eerdere toezeggingen om daarmee te stoppen. Daarmee voegt deze zaak zich i...
Disney en Universal trekken ten strijde tegen AI-bedrijf Midjourney
Disney en Universal hebben een rechtszaak aangespannen tegen het AI-bedrijf Midjourney. Volgens de twee Hollywood-giganten heeft Midjourney op grote schaal auteursrechtelijk beschermd beeldmateriaal gebruikt bij het trainen van zijn AI-modellen, z...
Meta’s AI-app leidt tot onbedoelde publicatie van privégesprekken
De nieuwe standalone AI-app van Meta heeft veel stof doen opwaaien. Gebruikers van de app deelden onbedoeld persoonlijke gesprekken met de chatbot op een openbare feed. De situatie heeft vragen opgeroepen over Meta’s interface en de bescherming va...
AI-muziekplatforms in overleg met major labels: wat zijn de mogelijke gevolgen?
Recent werd bevestigd dat de grote platenmaatschappijen (Universal Music Group, Warner Music Group en Sony Music Entertainment) in gesprek zijn met de bekende AI-muziekplatforms Suno en Udio. Volgens diverse bronnen onderhandelen deze partijen ...
AI in kinderspeelgoed: Mattel en OpenAI kondigen nieuwe samenwerking aan
Mattel en OpenAI hebben een strategische samenwerking aangekondigd om AI te integreren in speelgoed voor kinderen. Het nieuws roept belangrijke juridische en maatschappelijke vragen op. In dit artikel bespreken we de aankondiging, de eerste reacti...
Generatieve AI-training is fair use, oordeelt de Amerikaanse rechter
Voor het eerst heeft een Amerikaanse rechter geoordeeld dat het trainen van een generatief AI-model met auteursrechtelijk beschermd materiaal onder fair use valt. De uitspraak komt in de zaak Bartz v. Anthropic, waarin drie auteurs AI-bedrijf Anth...
AI-training is meestal inbreuk, zegt deze Amerikaanse rechter: “Indirect substitution is still substitution”
Voor de tweede keer deze week heeft een Amerikaanse rechter zich uitgesproken over de vraag of AI-training onder fair use valt. In Kadrey v. Meta oordeelt rechter Vince Chhabria dat het gebruik van auteursrechtelijk beschermde boeken voor het trai...
Tegenstrijdige visies op AI-training en fair use: hoe de rechter afwijkt van het US Copyright Office
Maandag 23 juni 2025 werd een mijlpaal bereikt in het Amerikaanse auteursrecht: in de zaak Bartz v. Anthropic oordeelde de federale rechter William Alsup voor het eerst dat het gebruik van auteursrechtelijk beschermd materiaal voor AI-training ond...
Wanneer AI leeft: juridische en ethische vraagstukken rond biohybride AI
Inleiding
Kunstmatige intelligentie ontwikkelt zich snel, onder andere op het snijvlak van technologie en biologie. Biohybride AI-systemen, oftewel AI die draait op levende cellen, zetten niet alleen technologische conventies op hun kop, maar dag...
De verboden metafoor: AI en antropomorf taalgebruik
Inleiding
Op het snijvlak van auteursrecht & AI is regelmatig (felle) kritiek te lezen op ‘antropomorfiserend’ taalgebruik. Wanneer we als juristen schrijven over AI is het volgens velen onwenselijk dat daarbij ‘mensachtige’ termen worden gebruik...
Denemarken zet stap richting nieuw verbodsrecht op deepfakes
De Deense regering heeft aangekondigd het auteursrecht te willen aansterken om zo de verspreiding van deepfakes effectiever te bestrijden. In tegenstelling tot eerdere initiatieven, waarbij met name pornografische deepfakes werden aangepakt, richt...
Google’s AI-summaries: innovatie of roofbouw? De laatste juridische ontwikkelingen
De introductie van AI-gegenereerde samenvattingen bovenaan zoekresultaten markeert een belangrijke verschuiving in hoe online informatie wordt geconsumeerd. Waar Google’s AI Overviews miljoenen gebruikers helpt om sneller antwoorden te vinden, roe...
Europese AI-verordening: nieuwe verplichtingen treden in, maar is het genoeg?
De Europese AI-verordening is sinds 1 augustus 2024 formeel van kracht, en komende maand volgt een belangrijke nieuwe fase. Vanaf augustus worden de eerste verplichtingen voor aanbieders van AI-systemen voor algemene doeleinden (general-purpose...
AI caramba! Dansen met de nieuwe werkelijkheid: over kwaliteitsverlies, bewustzijnsgebrek en paniek in het onderwijs
In februari 2019 werd vanwege zorgen over grootschalig nepnieuws en andere vormen van misbruik GPT-2 niet door OpenAI op de markt gebracht:[1]
“Due to concerns about large language models being used to generate deceptive, biased, or abusive langu...
Generatieve AI en auteursrecht: Europese koerswijziging op komst? Het parlementaire rapport in een notendop
De explosieve opkomst van generatieve AI heeft veel vragen opgeroepen binnen het auteursrecht. Terwijl ontwikkelaars van grote taal- en beeldmodellen hun systemen trainen op miljoenen beschermde werken, worstelen rechthebbenden met onduidelijke re...
The Dutch and Danish proposals for legislation on deepfakes
This article contains a summary and a brief comparison of the Dutch and Danish proposals for legislation relating to deepfakes.
The Dutch proposal is an initiative of member of parliament ms. Rosemarijn Dral, based on an article published in O...
Europa's definitieve AI-gedragscode: veiligheid, auteursrecht en transparantie in aanloop naar 2 augustus 2025
Op 2 augustus 2025 gaan de verplichtingen uit de AI-verordening in voor aanbieders van AI-modellen voor algemene doeleinden. In aanloop naar het nieuwe wettelijke kader heeft het Europese AI Office onlangs de definitieve versie van de gedragscode ...
Google’s open-source medische AI biedt kansen, maar roept ook vragen op
Google heeft de lat opnieuw hoger gelegd. Met de lancering van de MedGemma-modellen betreedt de techgigant het domein van open-source medische AI op een schaal die eerder nog niet voorkwam. Waar vorige toepassingen vooral werden aangeboden als com...
Amerika’s AI Action Plan gelanceerd: snelheid boven veiligheid?
Op 23 juli 2025 presenteerde de Amerikaanse regering het langverwachte AI Action Plan. In een vurige toespraak noemde president Trump kunstmatige intelligentie “pure genius” en verklaarde hij dat Amerika de race om deze technologie koste wat kost ...
Meta (opnieuw) aangeklaagd voor illegale AI-training, door grote porno-exploitanten
De juridische strijd rond AI-training bereikt een nieuwe piek. In een explosieve aanklacht beschuldigen twee gerenommeerde Amerikaanse pornostudio’s Meta van grootschalige auteursrechtinbreuk. Zij stellen dat Meta sinds 2018 meer dan 2.396 video’s...
Nepjurisprudentie: hoe AI de rechtspraak kan beïnvloeden zonder dat iemand het doorheeft
Een Amerikaanse advocaat citeerde vier niet-bestaande uitspraken in een verzoekschrift. Ze bleken afkomstig uit ChatGPT. De rechter ontdekte het, legde een boete op en verplichtte de betrokken advocaat tot het volgen van training voor het (ethisch...