Terug naar overzicht

Rechtspraak

ChatGPT als “bewijs”? Rechtbank Oost-Brabant sluit het niet uit

Generatieve AI duikt steeds vaker op in de rechtszaal; doorgaans om de verkeerde redenen. Meestal gaat het om ingediende pleidooien vol met onbegrijpelijke verwijzingen en juridische onjuistheden. Maar stel nu dat AI ‘goed’, of in ieder geval transparant wordt ingezet? Die vraag stond centraal in een recente uitspraak van de rechtbank Oost-Brabant. Meer specifiek: kan een door ChatGPT gegenereerde analyse als bewijsstuk dienen in een civiele procedure? Het antwoord: waarschijnlijk wel, mits goed onderbouwd.

 

Rb. Oost-Brabant 14 april 2026 (ECLI:NL:RBOBR:2026:2232)

Eiser is een consultancy in de industriële sector. Gedaagde heeft bij eiser een ‘businessplan’ afgenomen maar weigert daarvoor te betalen. Volgens gedaagde voldoet het geleverde plan niet aan de verwachtingen en is het bovendien onvolledig. Ter onderbouwing voert (de advocaat van) gedaagde een door ChatGPT gegenereerde kritische analyse van het businessplan aan.

 

De rechtbank stelt hierover ter zitting een aantal gerichte vragen. Allereerst wat betreft de aan ChatGPT gegeven instructie. Gedaagde geeft aan niet meer te beschikken over de exacte prompt. Vervolgens vraagt de rechtbank hoe het kan dat ChatGPT in de analyse uitspraken doet over de lopende procedure tussen partijen. Gedaagde verklaart hierop dat hij ook processtukken heeft ingevoerd. Tot slot vraagt de rechtbank naar de zogenoemde temperatuurinstelling van het model. Deze parameter beïnvloedt de mate van variatie in de output en daarmee ook de kans op onjuiste of verzonnen informatie (hallucinaties). Gedaagde heeft naar eigen zeggen geen specifieke instelling gebruikt.

 

De rechtbank constateert dat het rapport dat gedaagde in ChatGPT heeft ingevoerd niet de definitieve versie van het businessplan betreft, maar een eerdere conceptversie. 

 

Gelet op al het voorgaande, ziet de rechtbank zich genoodzaakt om de gehele analyse terzijde te schuiven. Bij gebrek aan een nadere, zelfstandige onderbouwing wordt eiser in het gelijk gesteld en gedaagde veroordeeld tot betaling van de resterende kosten.

 

Wat zegt de rechter nu echt?

Hoewel de analyse gedaagde in dit geval niet kan baten, leest de uitspraak niet als een afwijzing van het gebruik van AI-output als bewijsmateriaal in het algemeen. Waar het hier misgaat, is de controleerbaarheid. Gedaagde kan onvoldoende verantwoorden hoe de output tot stand is gekomen. Ook de analyse zelf biedt geen inzicht in de onderliggende input, de gehanteerde werkwijze of de wijze waarop de uitkomst is geverifieerd. Binnen het civiele bewijsrecht, waarin de rechter vrij is in de waardering van bewijs (art. 152 lid 2 Rv), betekent dit eenvoudigweg dat de analyse geen overtuigingskracht heeft.

 

De uitspraak heeft tot de nodige reacties geleid in de praktijk. Zo is Arnoud Engelfriet kritisch op de het gebruik van ChatGPT-output als bewijsmateriaal. Zelfs al voorkom je hallucinaties in de output, dan nog kan de output volgens hem niet als deskundige bron gelden. ChatGPT praat “naar de mond” en presenteert standpunten als absolute waarheden. Dat terwijl ChatGPT geen zelfstandige autoriteit heeft en juridisch tekortschiet.

 

Douwe Groenevelt lijkt zich in de kritiek van Engelfriet te vinden, maar wijst op een relevante nuance. De vragen die de rechtbank stelt over de gebruikte prompt, de ingevoerde stukken en de gehanteerde instellingen, suggereren dat een beter onderbouwde analyse mogelijk wél in de beoordeling zou zijn betrokken. Dat is opmerkelijk. Groenevelt vraagt zich af of het misschien niet logischer was geweest als gedaagde de analyse had gebruikt om een eigen pleidooi op te stellen (met meer gezag).

 

Kortom, een interessant debat. Hoe staat u erin? Laat het ons weten via LinkedIn!

 

AI in de rechtszaal: dagelijkse praktijk

De uitspraak staat niet op zichzelf. Hieronder volgt een niet-limitatief overzicht van andere, grotendeels Nederlandse uitspraken waarin het gebruik van AI een rol heeft gespeeld, ingedeeld naar type risico.

 

Overzicht rechtspraak

Hallucinaties

 

  • Rb. Den Haag 18 nov 2025 (ECLI:NL:RBDHA:2025:22590)
    → onjuiste citaten (r.o. 15)

  • Mata v. Avianca Airlines (2023)
    → verzonnen uitspraken (zie onze blog)

Onbetrouwbare output

 

  • Rb. Amsterdam 16 jan 2025 (ECLI:NL:RBAMS:2025:326)
    → onofficiële vertaling (r.o. 5, laatste alinea)

  • Rb. Midden-Nederland 12 juni 2025 (ECLI:NL:RBMNE:2025:3133)
    → gebrek aan autoriteit (r.o. 4.9.3) 

  • RvS 29 jan 2025 (ECLI:NL:RVS:2025:335)
    → niet-controleerbaar (r.o. 9.2)

  • Rb. Gelderland 7 juni 2024 (ECLI:NL:RBGEL:2024:3636)
    → rechter beroept zich op ChatGPT (r.o. 5.7)

Ondeugdelijke output

 

  • Rb. Rotterdam 9 juli 2025 (ECLI:NL:RBROT:2025:9914)
    → ondeugdelijke onderbouwing (r.o. 5.24)

  • Rb. Den Haag 20 juni 2025 (ECLI:NL:RBDHA:2025:10918)
    → onvolledige onderbouwing (r.o. 10)

  • Rb. Oost-Brabant 24 dec 2025 (ECLI:NL:RBOBR:2025:8495)
    → onjuiste onderbouwing (r.o. 4.30; zie onze blog)

  • Rb. Overijssel 5 jan 2026 (ECLI:NL:RBOVE:2026:23)
    → juridisch ongeldige huwelijksakte (r.o. 4.4; zie onze blog)

Vertrouwelijkheid en privilege

 

  • United States v. Heppner (2026)
    → verlies van vertrouwelijkheid door input in AI (zie onze blog).

De rechtspraak laat een consistent beeld zien: AI-gebruik is op zichzelf niet problematisch, maar leidt tot risico’s wanneer controle, verificatie en transparantie ontbreken.

 

Afsluitend

Generatieve AI is een vast onderdeel van de procespraktijk geworden. Dat was een kwestie van tijd. De rechter lijkt die ontwikkeling niet te willen tegenhouden, maar stelt wel duidelijke grenzen aan de wijze waarop AI-output wordt ingezet.

 

De rode draad is dat niet het gebruik van AI centraal staat, maar de onderbouwing ervan. Wie AI inzet zonder inzicht te bieden in de totstandkoming van de output, loopt het risico dat die bijdrage juridisch geen gewicht in de schaal legt. Sterker nog, klakkeloos gebruik van AI kan zelfs leiden tot een veroordeling wegens misbruik van procesrecht (zie deze blog).

AI-forum 2026/2