Artikelen
2024 EU AI-verordening: een gedetailleerde analyse
Tom Jozak
De AI-verordening is een belangrijk regelgevingskader dat gericht is op het harmoniseren van de ontwikkeling, de toepassing en het gebruik van AI binnen de EU. Deze uitgebreide regelgeving, die op 1 augustus 2024 van kracht is geworden, is bedoeld om de veiligheid te waarborgen, de grondrechten te beschermen, innovatie te bevorderen en marktfragmentatie te voorkomen.
De AI-verordening bestrijkt een breed scala aan AItoepassingen in verschillende sectoren, waaronder gezondheidszorg, financiën, verzekeringen, vervoer en onderwijs. De verordening is van toepassing op aanbieders en gebruiksverantwoordelijken van AIsystemen binnen de EU, maar ook op aanbieders en gebruiksverantwoordelijken van AI-systemen buiten de EU die gevolgen hebben voor de EUmarkt. Uitzonderingen zijn AI-systemen die voor militaire, defensie- of nationale veiligheidsdoeleinden worden gebruikt en AIsystemen die uitsluitend voor wetenschappelijk onderzoek zijn ontwikkeld.
Een “AI-systeem” wordt gedefinieerd als een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat aanpassingsvermogen kan vertonen. Op basis van de input die het ontvangt, kan het afgeleide output genereren, zoals voorspellingen, inhoud, aanbevelingen of beslissingen die invloed kunnen uitoefenen op fysieke of virtuele omgevingen. De Europese Commissie heeft richtlijnen gepubliceerd over de definitie van een AI-systeem om de praktische toepassing van dit juridische begrip, zoals opgenomen in de AI-verordening, toe te lichten.
AI-geletterheid
De verordening benadrukt het belang van AIgeletterdheid voor aanbieders en uitvoerders, en vereist dat medewerkers van bedrijven en organisaties (en andere relevante personen) over de nodige vaardigheden en kennis beschikken om op verantwoorde wijze met AI-technologieën om te gaan. Deze verplichting omvat voortdurende training en opleiding, afgestemd op specifieke sectoren en gebruikssituaties.
Risicogebaseerde aanpak
Om een evenredige en doeltreffende reeks bindende regels voor AI-systemen in te voeren, heeft de AI-verordening een vooraf gedefinieerde risicogebaseerde benadering geïntroduceerd, die het type en de inhoud van dergelijke regels afstemt op de intensiteit en reikwijdte van de risico's die AI-systemen kunnen creëren. De wet verbiedt bepaalde onaanvaardbare AI-praktijken en stelt eisen aan AI-systemen met een hoog risico en AImodellen voor algemene doeleinden, evenals verschillende verplichtingen voor de verschillende exploitanten. Daarnaast introduceert de wet transparantieverplichtingen voor bepaalde AI-systemen.
Verboden AI-praktijken
De AI-verordening verbiedt bepaalde AI-praktijken die geacht worden onaanvaardbare risico's op te leveren voor grondrechten, veiligheid en openbare belangen. Deze omvatten:
- AI-systemen die subliminale technieken gebruiken om gedrag te manipuleren;
- Het uitbuiten van kwetsbaarheden van specifieke groepen, zoals kinderen of personen met een
- Sociaal scoren op basis van persoonlijke kenmerken, wat leidt tot discriminerende uitkomsten;
- Voorspellen van crimineel gedrag uitsluitend op basis van profilering;
- Ongericht scrapen voor databanken voor gezichtsherkenning;
- Emotieherkenning op het werk en in onderwijsinstellingen, behalve om medische of veiligheidsredenen;
- Biometrische categorisatie om gevoelige kenmerken af te leiden, behalve voor rechtshandhavingsdoeleinden; en
- Real-time biometrische identificatie op afstand in openbare ruimten voor rechtshandhaving.
De AI-verordening heeft geen invloed op de verbodsbepalingen die gelden wanneer een AI-praktijk inbreuk maakt op andere EU-wetgeving. Deze blijven van toepassing. De markttoezichtautoriteiten moeten jaarlijks verslag uitbrengen aan de EU-Commissie, en de relevante nationale mededingingsautoriteiten over de verboden praktijken die zich in dat jaar hebben voorgedaan en de maatregelen die naar aanleiding daarvan zijn genomen. De EU-Commissie heeft richtlijnen gepubliceerd over verboden AIpraktijken, zoals gedefinieerd in de AI-verordening. Verplichtingen inzake AI-geletterdheid en verboden AI-praktijken zijn van toepassing vanaf 2 februari 2025.
AI-systemen met een hoog risico
Om een consistente en hoogwaardige bescherming van de openbare belangen op het gebied van gezondheid, veiligheid en grondrechten (waaronder het recht op non-discriminatie, gegevensbescherming en privacy) te waarborgen, stelt de AI-verordening gemeenschappelijke regels vast voor AI-systemen met een hoog risico, die het volgende bevatten:
- Opzetten van een risicobeheersysteem;
- Waarborgen van gegevenskwaliteit en governance;
- Bijhouden van technische documentatie en logboekmogelijkheden;
- Bieden van transparante informatie en menselijk toezicht;
- Garanderen van nauwkeurigheid, robuustheid en cyberbeveiliging, en
- Implementeren van een kwaliteitsbeheersysteem.
AI-modellen voor algemene doeleinden
De verordening bevat specifieke regels voor AImodellen voor algemene doeleinden, met name voor modellen met systeemrisico's. Aanbieders moeten de Commissie op de hoogte stellen als hun modellen voldoen aan de drempelwaarden voor hoge impact, en daarbij uitgebreide technische documentatie opstellen, ervoor zorgen dat het auteursrecht wordt nageleefd en samenvattingen van het trainingsmateriaal verstrekken. Modellen met een hoge impact zijn modellen die de capaciteiten van de meest geavanceerde AImodellen voor algemene doeleinden evenaren of overtreffen. Bijlage XIII van de AI-verordening definieert specifieke criteria voor het aanmerken van AI-modellen voor algemene doeleinden met systeemrisico's, zoals het aantal parameters van het model; de kwaliteit of omvang van de dataset; de hoeveelheid berekeningen die worden gebruikt voor het trainen van het model; de invoer- en uitvoermodaliteiten van het model en de benchmarks en evaluaties van de capaciteiten van het model.
Governance, naleving en regelgevingsaspecten
De verordening schrijft transparantie voor om het publieke vertrouwen te waarborgen en misbruik van AI-technologieën te voorkomen. Aanbieders en gebruiksverantwoordelijken moeten individuen informeren over hun interactie met AI-systemen, gedetailleerde documentatie bijhouden en zich houden aan logboek- en registratiepraktijken.
Voor AI-systemen met een hoog risico gelden strengere transparantie-eisen, waaronder het markeren van synthetische inhoud om desinformatie te voorkomen en transparantie over AI-gebruik en AI-besluitvorming te garanderen.
De AI-verordening bevordert ethische AIontwikkeling door middel van wettelijke sandboxes, die een gecontroleerde omgeving bieden voor het testen van AI-technologieën. Deze sandboxes ondersteunen de samenwerking tussen belanghebbenden, nemen belemmeringen voor kleine en middelgrote ondernemingen weg en versnellen de markttoegang.
Verder moedigt de verordening de ontwikkeling van gedragscodes en richtlijnen aan om naleving te vergemakkelijken. Deze kunnen betrekking hebben op vrijwillige toepassing van eisen, ethische richtlijnen, ecologische duurzaamheid, AIgeletterdheid en inclusief ontwerp.
Effectieve AI-governance omvat het opzetten van beleid voor AI-gebruik, programma’s voor AIgeletterdheid, gecentraliseerde kaders voor risicobeoordeling, bestuurscommissies en operationele controles. Dit zorgt voor ethisch AIgebruik, naleving van regelgeving en voortdurende verbetering van AI-risicobeheer.
Sancties
De AI-verordening legt aanzienlijke boetes op voor niet-naleving, met boetes tot 35 miljoen euro of 7% van de totale wereldwijde jaaromzet in het voorgaande boekjaar voor verboden praktijken. Andere overtredingen kunnen worden bestraft met boetes tot 15 miljoen euro of 3% van de totale wereldwijde jaaromzet van de overtreder in het voorgaande boekjaar, afhankelijk van welk bedrag hoger is. De sancties moeten doeltreffend, evenredig en afschrikkend zijn en rekening houden met de belangen van kleine en middelgrote ondernemingen, waaronder startende ondernemingen. In het geval van kleine en middelgrote ondernemingen zal elke boete het lagere bedrag of percentage zijn van de hierboven genoemde bedragen of percentages.
Conclusie
De EU AI-verordening creëert een betrouwbaar en mensgericht AI-ecosysteem door een evenwicht te vinden tussen innovatie en de bescherming van grondrechten en openbare belangen. Door te voldoen aan de vereisten van de verordening kunnen bedrijven zorgen voor een veilige en ethische ontwikkeling en toepassing van AItechnologieën.
Raadpleeg voor een gedetailleerde analyse het volledige artikel in het pdf-bestand.
Bezoek de AI Insight pagina's van CMS voor meer inzichten over verantwoord AI-gebruik.
Als u vragen heeft over de AI-verordening of meer wilt weten over de specifieke verplichtingen uit de AI-verordening die gelden voor uw organisatie, neem dan contact op met Tom Jozak van CMS.
Auteur(s)

Tom Jozak is een Of Counsel binnen de praktijkgroup IP / TMC. Hij heeft meer dan 25 jaar ervaring in het adviseren van klanten over verschillende (juridische) aspecten van het gebruik van technologie en data. Voordat hij bij CMS in dienst trad, was hij Chief Privacy Officer en Global Head of Data Protection and IT Legal bij een toonaangevende financiële dienstverlening multinational.
AI-forum 2025/2
Europa's definitieve AI-gedragscode: veiligheid, auteursrecht en transparantie in aanloop naar 2 augustus 2025
Op 2 augustus 2025 gaan de verplichtingen uit de AI-verordening in voor aanbieders van AI-modellen voor algemene doeleinden. In aanloop naar het nieuwe wettelijke kader heeft het Europese AI Office onlangs de definitieve versie van de gedragscode ...
Europese AI-verordening: nieuwe verplichtingen treden in, maar is het genoeg?
De Europese AI-verordening is sinds 1 augustus 2024 formeel van kracht, en komende maand volgt een belangrijke nieuwe fase. Vanaf augustus worden de eerste verplichtingen voor aanbieders van AI-systemen voor algemene doeleinden (general-purpose...
Disney en Universal trekken ten strijde tegen AI-bedrijf Midjourney
Disney en Universal hebben een rechtszaak aangespannen tegen het AI-bedrijf Midjourney. Volgens de twee Hollywood-giganten heeft Midjourney op grote schaal auteursrechtelijk beschermd beeldmateriaal gebruikt bij het trainen van zijn AI-modellen, z...
Meta (opnieuw) aangeklaagd voor illegale AI-training, door grote porno-exploitanten
De juridische strijd rond AI-training bereikt een nieuwe piek. In een explosieve aanklacht beschuldigen twee gerenommeerde Amerikaanse pornostudio’s Meta van grootschalige auteursrechtinbreuk. Zij stellen dat Meta sinds 2018 meer dan 2.396 video’s...
Britannica en Merriam-Webster beschuldigen Perplexity AI van auteursrecht én merkinbreuk
Op 10 september 2025 heeft Britannica Group, het moederbedrijf van de 250 jaar oude Encyclopædia Britannica en het bijna net zo oude woordenboekmerk Merriam-Webster, een klacht ingediend bij de federale rechtbank in New York tegen Perplexity AI. D...
Britse denktank wil commerciële AI-training in Engeland legaliseren
2 maanden terug bespraken we hoe de Britse overheid een auteursrechtelijke hervorming overweegt op basis waarvan bedrijven voor commerciële doeleinden mogen tekst- en dataminen, tenzij rechthebbenden zich daar uitdrukkelijk tegen verzetten. Oftewe...
The Dutch and Danish proposals for legislation on deepfakes
This article contains a summary and a brief comparison of the Dutch and Danish proposals for legislation relating to deepfakes.
The Dutch proposal is an initiative of member of parliament ms. Rosemarijn Dral, based on an article published in O...
OpenAI wijzigt koers: non-profit behoudt controle
OpenAI heeft aangekondigd de plannen voor de overgang naar een winstgericht bedrijfsmodel deels terug te draaien. Het bedrijf is van plan zijn for-profit tak om te zetten in een public benefit corporation (PBC), maar de volledige zeggenschap blijf...
Derde rechtszaak tegen Anthropic: kun je tekst- en datamining contractueel verbieden?
Reddit heeft een rechtszaak aangespannen tegen AI-ontwikkelaar Anthropic. De aanklacht draait om het vermeende herhaaldelijk scrapen van Reddit-data door Anthropic, ondanks eerdere toezeggingen om daarmee te stoppen. Daarmee voegt deze zaak zich i...
