Terug naar overzicht

Blog

Terugblik op het Nationaal AI & Data Congres: de AI Act in actie, AI-training op persoonsgegevens, contractvorming in het AI-tijdperk en meer!

Tijdens het Nationaal AI & Data Congres op donderdag 5 februari 2026 hebben juridische experts de laatste ontwikkelingen op het snijvlak van AI en recht belicht. Arnoud Engelfriet (ICTRecht) besprak compliance onder de AI Act, terwijl Laura Poolman (Kennedy van der Laan) zich boog over de juridische kwalificatie van AI-training op persoonsgegevens, mede gezien het Digital Omnibus-pakket van de Europese Commissie. Louis Jonker en Merel Hazes (beiden Van Doorne) gingen in op de uitdagingen van contractvorming bij de inkoop van AI. Het congres is in goede banen geleid door dagvoorzitters Astrid Sixma (Kennedy van der Laan) en Menno Weij (The Data Lawyers). De middag werd geopend met een presentatie van Jolanda ter Maten (ter Maten) over de kansen en risico's van AI. We sloten af met een paneldiscussie tussen juridische sleutelspelers Douwe Groenevelt (Viridea), Wouter Seinen (Pinsent Masons) en Jeroen Zweers (Dutch Legal Tech). 

 

Voor de geïnteresseerde lezer volgt hieronder op hoofdlijnen een weergave van de inhoudelijke bespreking die plaatsvond tijdens het congres.

 

 

Wie gebruikt er AI?

Dat is de vraag die Jolanda een jaar eerder aan een groep basisschoolleerlingen stelde, waarop één leerling erop aandrong dat ze nooit AI zou gaan gebruiken. Wat de leerling niet wist, is dat AI al werkelijk overal in de maatschappij is geïmplementeerd, van Snapchat filters tot aan speelgoedartikelen. 

 

De boodschap is helder: er is geen ontkomen aan. Het verbaast daarom niet dat ruim 80% van de aanwezigen bij het congres in een poll aangeeft dagelijks AI te gebruiken. Diezelfde groep vindt zichzelf echter nog altijd ‘slimmer’ dan AI, blijkt uit de volgende poll. Jolanda legt uit dat dit in edge cases inderdaad (nog) zeker het geval is. Dit zijn atypische gevallen waarvoor maar beperkte trainingsdata beschikbaar zijn en waarbij AI extra verbanden moet kunnen leggen. Huidige modellen hebben hier moeite mee, maar dat is mogelijk anders voor de volgende generatie AI, zogenoemde AI-wereldmodellen.

 

Zelfs als AI op alle vlakken slimmer wordt dan mensen, dan blijft menselijk toezicht cruciaal, zo stelt Jolanda. Er is namelijk een gevaar van miscommunicatie. Met andere woorden, AI kan opdrachten anders of verkeerd uitvoeren dan door ons is beoogd. In dat geval moet er altijd een mens zijn die op tijd ingrijpt.

 

Wat regelt de AI Act?

In de kern is de EU AI Act (2024/1689) een conformiteitsbeoordeling, aldus Arnoud Engelfriet. Net zoals andere producten op de markt gereguleerd worden via wetgeving, geldt dat via de AI Act ook voor AI-gerelateerde producten. Afhankelijk van de mate van risico van de gebruikte AI, moeten de ontwikkelaar en gebruiksverantwoordelijke aan bepaalde conformiteitsvereisten voldoen (art. 6 e.v.). Sommige praktijken zijn zelfs geheel verboden (art. 5). In bepaalde gevallen gelden er bovendien aanvullende transparantievereisten (art. 50), waaronder voor eindgebruikers. Het feit dat de AI Act een conformiteitsbeoordeling is, brengt ook mee dat het niet van toepassing is bij de regulering van bijvoorbeeld deepfakes. Dit bleek een bijzonder actueel thema tijdens het recente Grok-schandaal, waarbij op grote schaal intieme beelden van bestaande personen werden gegenereerd door eindgebruikers. De aangewezen wetgeving om dit te bestrijden is onder andere de DSA.

 

Menselijk toezicht

Een van de kernvereisten van de AI Act is het menselijk toezicht op het gebruik van AI-systemen (art. 14). Dit kan onderverdeeld worden in vier aparte categorieën, waaronder human-in-the-loop en human-on-the-loop. Wat Arnoud betreft, werkt die eerste categorie geheel averechts: op het moment dat AI-modellen een nauwkeurigheid hebben van 80% of meer, krijgt de menselijk toezichthouder een automatiseringsbias. Oftewel, de toezichthouder gaat ervan uit dat de beslissing van de AI klopt. Hierdoor vangt hij of zij eventuele onjuiste output niet goed meer op. Dit gaat zelfs zo ver dat de accuraatheid van het AI-model geheel achteruit kan gaan door inmenging van een mens. Als voorbeeld geeft Arnoud de menselijke beoordeling van door slimme verkeerscamera’s gemaakte foto’s. Dit is in de praktijk regelmatig mis gegaan, zelfs met toepassing van het vierogenprincipe. 

 

Arnoud benadrukt dat de mens niet ingezet moet worden om afwijkende gevallen te herkennen. In plaats daarvan moet hij enkel worden ingezet om afwijkende gevallen te beoordelen, juist omdat daar de kracht van de mens zit. De gevallen die aparte beoordeling behoeven kunnen van tevoren worden geselecteerd door een apart algoritme. Op die manier vullen mens en machine elkaar optimaal aan. In bepaalde gevallen kan eventueel om ethische bezwaren van dit uitgangspunt worden afgeweken.

 

Bias

Een andere kernvereiste is het gebruik van kwalitatieve data bij de training van AI-modellen (art. 10). Het gebrek hieraan zorgt er bijvoorbeeld voor dat ‘slimme’ verkeerscamera’s het krabben aan een oor kunnen verwarren met het vasthouden van een smartphone. Of dat digitale apps alleen filters kunnen toepassen op mensen met een lichte huidskleur. Hoewel vooringenomenheid ook bij mensen voorkomt, benadrukt Arnoud hoe bias bij AI-modellen van een geheel andere orde is omdat dergelijke modellen ongekende hoeveelheden beslissingen in korte tijd en op grote schaal kunnen maken. Het is dan ook cruciaal dat de datasets van AI-modellen voldoende representatief zijn voor de maatschappij als geheel. Om dit te bereiken moet zo breed mogelijk worden getest en met kwalitatieve data. Eventuele inconsistenties moeten in de praktijk worden gecorrigeerd via het menselijk toezicht.

 

Explainability

Een laatste belangrijke kernvereiste die Arnoud bespreekt is het idee van uitlegbaarheid. AI-systemen moeten gemaakte beslissingen helder kunnen onderbouwen. Factoren en datapunten an sich volstaan in de kern niet als onderbouwing. Denk hierbij aan de uitleg dat een persoon bij de Albert Heijn wordt gefouilleerd omdat hij of zij een bepaald soort rugzak draagt. In plaats daarvan moet er een concrete aanleiding zijn die een beslissing rechtvaardigt, of tenminste verklaard.

 

Mag je AI-modellen trainen op persoonsgegevens?

Dat hangt ervan af, aldus Laura Poolman (Kennedy van der Laan). Persoonsgegevens omvatten alle informatie over een geïdentificeerde of identificeerbare natuurlijke persoon (art. 4 AVG). Als actueel voorbeeld van een persoonsgegeven noemt Laura een deepfake. Het genereren van een deepfake van iemand is toegestaan als dat voor privédoeleinden is (art. 2 lid 2 sub c AVG), maar daarbuiten is in beginsel de AVG van toepassing. Als de deepfake via een openbaar platform wordt gegenereerd, is ook de platformaanbieder daarvoor verantwoordelijk (zie WP29 Opinion 02/2013 “Apps on smart devices’’ en overweging 18, AVG).

 

Internet scraping

Voor de training van AI-modellen zijn immense hoeveelheden data nodig. Wat commerciële bedrijven in de praktijk graag doen, is data van het (openbare) internet ‘scrapen’. Aanvankelijk was de Nederlandse Autoriteit Persoonsgegevens (AP) hier kritisch over, voor zover daarbij persoonsgegevens werden meegenomen. De scraping staat uiteraard op gespannen voet met het beginsel van transparantie (art. 5 lid 1 sub a AVG), nu personen daarvoor geen actieve toestemming geven. Bovendien was de verwerkingsgrond onzeker. Mogelijk kon de scraping worden gelegitimeerd met de gerechtvaardigde belang-grond (art. 6 lid 1 sub f AVG). De EDPB (Opinion 28/2024 en het HvJ EU lijken dit later te hebben bevestigd, door deze grond ruim te interpreteren. Bij toepassing van de grond mogen commerciële belangen meespelen, zolang die maar opwegen tegen de beperking die wordt gemaakt op de rechten van de betrokkene achter de persoonsgegevens.

 

Volgens de EDPB is de gerechtvaardigde belang-grond enkel van toepassing als deze ‘noodzakelijk’ is. Deze vereiste kan zich onder andere uiten in het ontwerp van een AI-model, bijvoorbeeld via de bronselectie, preparatie en de minimalisatie van gegevens. Ook moet het AI-model scherp worden geanalyseerd en bestand zijn tegen aanvallen.

 

Verder moet volgens de EDPB een belangenafweging plaatsvinden, tussen de belangen van verwerkers enerzijds en de rechten van betrokkenen wiens persoonsgegevens worden verwerkt anderzijds. Maatregelen als extra transparantie en anonimisatie kunnen ervoor zorgen dat de rechten van betrokkenen voldoende worden gewaarborgd bij de gegevensverwerking. Het is in dit kader maar de vraag of het in de AVG verankerde recht van bezwaar (art. 21) praktisch relevant is: eenmaal verwerkte persoonsgegevens kun je als individu moeilijk controleren en laten verwijderen.

 

Wat betreft scraping en AI-training op zogenoemde bijzondere persoonsgegevens (art. 9) geldt dat dit enkel gerechtvaardigd is als de gegevens kennelijk door de betrokkene openbaar zijn gemaakt. Het beschikbaar zijn van gegevens op een openbaar social media-account is bijvoorbeeld nog geen kennelijke openbaarmaking, zo stelt Laura.

 

Digital Omnibus

Momenteel is er een wetsvoorstel van de Europese Commissie aanhangig over een gedeeltelijke wijziging van onder andere de AVG. Als dit zou worden aangenomen, dan krijgt scraping ten behoeve van AI-training een expliciete rechtvaardigingsgrond. Wel geldt er dan (nog steeds) een absoluut, onvoorwaardelijk recht van bezwaar voor de betrokkene, en andere beveiligingsvoorwaarden zoals gegevensminimalisatie.

 

Gebruik eigen datasets

Tot slot bespreekt Laura de situatie dat bedrijven zelf al beschikken over (grote) datasets uit het verleden waar ze hun AI-modellen mee kunnen trainen. De vraag of de bepalingen uit de AVG hierbij (opnieuw) van toepassing zijn, hangt af van het doel waarvoor het AI-model of -systeem wordt getraind, aldus de EDPB. Zo is het hergebruiken van data voor de ontwikkeling van een AI-tool om kredietscore mee te beoordelen gerechtvaardigd, als die data van oorsprong ook zijn verwerkt voor het bijhouden van kredietscores. Dergelijk hergebruik ligt veel minder voor de hand bij de ontwikkeling van een AI-model voor algemene doeleinden. Dat geldt des te meer bij de verdere verwerking van bijzondere persoonsgegevens; in dat geval is een gerechtvaardigd belang an sich niet genoeg, en moet er bijvoorbeeld een wettelijke bepaling zijn die verdere verwerking noodzakelijk maakt (denk aan art. 10 lid 5 AI Act).

 

AI en contracten

Merel Hazes en Louis Jonker, beiden advocaten bij Van Doorne, bespraken de kansen en uitdagingen bij het opstellen van contracten voor de inkoop van AI-gerelateerde producten. 

 

Zij stellen voorop dat AI inkoop fundamenteel afwijkt van IT inkoop. IT-producten zijn overzichtelijk: er is een vaste input en output en de koper en verkoper weten grotendeels wat ze van elkaar kunnen verwachten. Bij AI-producten is dat anders. Zo is vaak onduidelijk hoe de techniek precies werkt (het black box-probleem), en overziet de ontwerper niet goed hoe het systeem zal worden gebruikt. Bovendien hebben de gebruikte datasets een enorme invloed op de uiteindelijke werking van het systeem. Tot slot gaat het vaak om nog niet eerder gebruikte, onbewezen systemen. Dit alles maakt dat het hergebruiken van een standaard IT-contract template voor AI-systemen in de praktijk niet volstaat. Ook niet als daaraan een AI Act-compliance paragraaf wordt toegevoegd. Wat je daarmee wel doet is het afschuiven van verantwoordelijkheid op de wederpartij, waar dat niet altijd even logisch is. Dit kan averechts werken.

 

Merel en Louis pleiten ervoor om tijdens contractuele onderhandelingen eerst een stap terug te doen en enkele fundamentele voorvragen te stellen, zoals: waarvoor wordt het AI-systeem ingezet, welk doel wordt nagestreefd, in hoeverre zijn de uitkomsten controleerbaar en welke risico’s kunnen zich voordoen? Deze benadering duiden de advocaten aan als output-based contracting. Door de focus te leggen op de prestaties van de leverancier, in plaats van op de functionaliteiten van het systeem, kunnen partijen tot een overeenkomst komen die de realiteit beter weerspiegelt. Hierbij is ruimte om concrete doelen te stellen, zoals het handhaven van een fouttolerantie van maximaal [X%], of een nauwkeurigheid van 95%. 

 

Waar IT-producten als voltooid worden geleverd, kunnen AI-producten geleidelijk worden gefinetuned door klant en leverancier samen. De feedbackloop kan hierbij over langere tijd worden uitgestrekt, zodat ontwikkelaars hun tools op basis van verzamelde data steeds beter kunnen laten aansluiten op de wensen van de klant. Juist door in elkaars belang te denken en transparant samen te werken, wordt het uiteindelijke product er beter op.

 

Paneldiscussie: een blik op de toekomst

Tot slot volgde een interactief gesprek tussen ervaren juristen en (ex-)advocaten Douwe Groenevelt, Wouter Seinen en Jeroen Zweers. Toen hen de vraag werd gesteld hoe zij de toekomst van de advocaat voor zich zien, gaven zij uiteenlopende visies. Zij zijn het met elkaar eens dat er in de toekomst nog steeds een rol is weggelegd voor de advocaat, hoewel Douwe en Wouter benadrukken dat de drempel van het beroep alsmaar hoger wordt, met name voor nieuwkomers. Tenzij je je weet te onderscheiden, bijvoorbeeld door te beschikken over aanvullende kennis over tech, hebben kantoren steeds minder stimulans om ‘jonkies’ aan te nemen. Dit uiteraard in verband met de toenemende capaciteiten van AI om klussen te verrichten. Jeroen noemt als belangrijke factor bij het voortbestaan van de advocatuur bovendien de organisatie van kantoren: alleen de kantoren die zich bewust voorbereiden en aanpassen naar de snelle ontwikkelingen, zullen relevant blijven. 

 

Douwe benadrukt dat het beeld dat met name eenpitters en kleine kantoren geraakt worden door technologische ontwikkelingen, onjuist is: ook grote (Zuidas)-kantoren ervaren de gevolgen. Als voorbeeld noemt hij een kennis die voor een klus waar zijn kantoor normaal zo’n vijftigduizend euro voor zou vragen, hooguit enkele duizenden euro’s kon rekenen omdat AI het voorwerk al zó goed had verricht. Jeroen en Wouter herkennen het beeld en onderschrijven dat.

 

Aan jonge juristen geven de panelleden het advies om zich zo breed mogelijk te ontwikkelen. Idealiter zouden universitaire instituten ook praktijklessen geven, maar dat is (nog) niet of nauwelijks aan de orde. Hoewel kantoren steeds minder stimulans hebben om jonge juristen aan te nemen, achten de panelleden het wel mogelijk dat je nog steeds onbetaald stage zult kunnen lopen, of sterker nog, dat je een kantoor betaalt om stage te mogen lopen en zo de kneepjes van het vak te leren. Hoe het ook zij, de rode draad is duidelijk: maak jezelf waardevol en houd de ontwikkelingen scherp in de gaten, zodat je je effectief kunt aanpassen en zo kunt blijven meedraaien.

 

We danken alle aanwezigen voor hun bijdrage aan dit geslaagde congres. Houd onze kanalen in de gaten voor de laatste ontwikkelingen rond AI en recht en voor mogelijke informatie over een nieuw congres.

AI-forum 2026/1