Blog
Kritiek op eerste EU-zaak over generatieve AI en auteursrecht (Like Company v. Google)
Redactie
De prejudiciële zaak Like Company v. Google (C-250/25) wordt gezien als de eerste gelegenheid voor het Hof van Justitie van de Europese Unie om zich uit te spreken over de verhouding tussen generatieve AI en het Europese auteursrecht. Centraal staat de vraag of Google met zijn Gemini-chatbot inbreuk maakt op het persuitgeversrecht van een Hongaarse nieuwsuitgever door delen van nieuwsartikelen te reproduceren en aan gebruikers te tonen.
Recent publiceerde de European Copyright Society (ECS), een onafhankelijke academische organisatie, kritisch commentaar op deze verwijzing (zie bovenstaande pdf). De auteurs achten de zaak enerzijds relevant voor de discussie rond generatieve AI en auteursrecht. Tegelijkertijd waarschuwen zij dat de prejudiciële vragen feitelijk en juridisch onduidelijk zijn geformuleerd en dat de juridische reikwijdte van de zaak beperkter is dan vaak wordt aangenomen. In deze blog wordt het commentaar in drie hoofdpunten uiteengezet.
1. Een verwijzing met technische en juridische onduidelijkheden
Een centraal punt van kritiek betreft de feitelijke en technische onduidelijkheid van de prejudiciële verwijzing. Volgens de auteurs wordt in de verwijzing onvoldoende onderscheid gemaakt tussen verschillende technologieën en diensten die juridisch uiteenlopende kwalificaties hebben. Zo worden begrippen als chatbot, large language model (LLM) en search engine door elkaar gebruikt, terwijl deze concepten technisch en juridisch niet (een-op-een) samenvallen. Verschillende auteursrechtelijke use cases worden daarmee op dezelfde hoop gegooid.
Ook partijen zijn vaag in hun argumentatie. Eiser lijkt onjuist aan te nemen dat ‘online platform’ ook Google’s zoekresultatenpagina en chatbotinterface omvat. Waarom beide kanalen aparte toezegging behoeven voor de weergave van beschermd werk wordt daarbij niet nader toegelicht. Daartegenover kwalificeert Google de Gemini-dienst enerzijds als een LLM-achtig basismodel en anderzijds als een chatbot, wat afwijkt van de definitie van een “LLM-gebaseerde chatbot” die in de prejudiciële vragen wordt gebruikt.
Tot slot wordt in de verwijzing geen duidelijke definitie gegeven van het trainingsproces. Dat terwijl het trainingsproces van LLM-modellen en dat van meer specifieke chatbots wezenlijk kunnen verschillen. Ook maakt de verwijzing geen onderscheid tussen het verzamelen van trainingsdata en het latere gebruik daarvan voor de ontwikkeling van een LLM en/of chatbot. Het gebrek aan toelichting maakt een deel van de prejudiciële vragen hypothetisch, aldus de ECS, omdat onduidelijk blijft of de vermeende inbreuken überhaupt onderworpen zijn aan Hongaars en Europees auteursrecht. Uitgaande van het klassieke territoriale beginsel stellen de auteurs dat dit deel van de vragen mogelijk niet relevant is, aangezien de training van Google’s chatbot vermoedelijk buiten Europa heeft plaatsgevonden.
Het gebrek aan feitelijke precisie is problematisch in het licht van artikel 267 VWEU, aangezien prejudiciële procedures bedoeld zijn om concrete rechtsvragen te beantwoorden die noodzakelijk zijn voor de beslechting van een nationaal geschil.
2. De zaak draait om het persuitgeversrecht
Een tweede observatie van de ECS betreft de juridische grondslag van de vordering in de nationale procedure. Hoewel de zaak vaak wordt gepresenteerd als een algemene AI-auteursrechtzaak, is de vordering van de Hongaarse uitgever uitsluitend gebaseerd op het persuitgeversrecht uit artikel 15 van de DSM-richtlijn (Richtlijn 2019/790/EU). Dit naburige recht biedt persuitgevers bescherming tegen bepaalde vormen van online gebruik van hun publicaties. Het recht werd ingevoerd om de economische positie van persuitgevers te versterken tegenover digitale platforms die nieuwscontent exploiteren.
Het persuitgeversrecht heeft een kleinere reikwijdte dan het klassieke auteursrecht. Allereerst beschermt het niet de creatieve inhoud van afzonderlijke journalistieke werken. Sterker nog, het beschermt überhaupt geen creatieve inhoud als zodanig. Wat het wel beschermt, is de verzameling aan (auteursrechtelijke) content die onder organisatorische en financiële verantwoordelijkheid van de persuitgever is gepubliceerd. Deze verzameling mag in beginsel niet zomaar worden hergebruikt, ook niet gedeeltelijk.
Dat gezegd hebbende kent artikel 15 DSM-richtlijn verschillende beperkingen, aldus de ECS. Zo geldt het recht uitsluitend voor ‘online gebruik’ door aanbieders van diensten van de informatiemaatschappij (zie Richtlijn 2015/1535 art. 1(1) onder b). Het is niet meteen duidelijk of aanbieders van AI-chatbots daaronder vallen, deels omdat het niet altijd mogelijk zal zijn om een duidelijke link te leggen tussen een gegenereerde samenvatting en een specifieke perspublicatie. Dat geldt temeer nu het persuitgeversrecht de rechten van auteurs onverlet laat; oftewel, een auteur is gerechtigd zijn werk via meerdere persuitgevers te publiceren. Daarbovenop gelden nog een aantal uitdrukkelijke beperkingen: het persuitgeversrecht ziet niet op particulier of niet-commercieel gebruik door individuen, noch op hyperlinking, noch op het gebruik van individuele woorden of zeer korte fragmenten. Ook kan de persuitgever het gebruik van individuele werken door andere gerechtigde gebruikers niet verbieden. Bovendien zijn de beperkingen en uitzonderingen van artikel 5 InfoSoc-richtlijn (2001/29/EG) van overeenkomstige toepassing. Tot slot is de beschermingsduur beperkt tot twee jaar, waarbij persuitgevers eventuele opbrengsten moeten delen met de betrokken auteurs.
De boodschap van de ECS is helder: de zaak is juridisch beperkt relevant voor de uitleg van de auteursrechtelijke begrippen van artikelen 2 en 3 InfoSoc-richtlijn, namelijk alleen voor zover deze via artikel 15 DSM-richtlijn worden ingeroepen. Om deze reden leent de procedure zich niet zonder meer voor het ontwikkelen van algemene regels over de verhouding tussen generatieve AI en het auteursrecht in brede zin.
3. AI-training en de TDM-exceptie
Het laatste onderdeel van het ECS-commentaar betreft de mogelijke toepassing van de tekst- en datamining (TDM) exceptie uit artikel 4 DSM-richtlijn. Artikel 4 DSM-richtlijn staat het reproduceren van auteursrechtelijk beschermde werken voor data-analyse toe, mits de rechthebbende geen geldige opt-out heeft gemaakt. Deze uitzondering geldt ook voor commercieel gebruik, in tegenstelling tot artikel 3 DSM-richtlijn.
Volgens de ECS valt de training van generatieve AI-modellen in beginsel onder het bereik van artikel 4 DSM-richtlijn. Deze interpretatie sluit aan bij de wettekst en overwegingen van zowel de DSM-richtlijn als de recentere AI-verordening. Bij die laatste wordt expliciet verwezen naar het respecteren van opt-outs voor tekst- en datamining bij de training van algemene AI-modellen (overweging 105). Probleem in deze procedure is nogmaals dus wel dat belangrijke technologische en juridische begrippen door elkaar worden gehaald. Dit maakt de zaak mogelijk ongeschikt voor het beoordelen van artikel 4 DSM-richtlijn.
De hamvraag is of het persuitgeversrecht van artikel 15 DSM-richtlijn ook de opt-out mogelijkheid van artikel 4 DSM-richtlijn omvat, mede gezien het feit dat aanbieders van AI-modellen niet zozeer als nieuwsplatforms functioneren terwijl het persuitgeversrecht alleen daartegen beschermd. Kunnen persuitgevers hun recht inroepen tegen de tekst- en datamining van hun beschermde collecties door AI-bedrijven als Google en OpenAI?
Tot slot wijst de ECS op het cruciale onderscheid tussen modeltraining enerzijds en retrieval-augmented generation (RAG) anderzijds. Steeds meer modellen, waaronder die van Google, maken gebruik van RAG, waarbij het AI-systeem gedurende het genereren externe informatie meeweegt uit bijvoorbeeld zoekmachines of databases. Dit proces kan volgens de auteurs niet worden aangemerkt als een trainingsactiviteit. Aangezien de verwijzende rechter alleen verduidelijking verzoekt over “the process of training an LLM-based chatbot”, hoeft het HvJ EU zich volgens hen in dit geval niet uit te spreken over de juridische kwalificatie van RAG-modellen.
De risico’s van een te ruime uitspraak
De auteurs sluiten hun commentaar af met een beleidsmatige waarschuwing. Hoewel zij snappen dat het Hof duidelijke regels wil formuleren voor generatieve AI, bestaat volgens hen het risico dat een te ruime interpretatie van exclusieve rechten onbedoelde gevolgen heeft voor de ontwikkeling van AI-technologie, en alle maatschappelijke voordelen van dien. Een belangrijke zorg is dat strikte auteursrechtelijke beperkingen kunnen leiden tot een zogenoemde licensing economy, waarin AI-systemen als dienst worden aangeboden door voornamelijk grote niet-Europese bedrijven, zonder dat daarbij onderliggende problemen als zeggenschap en inkomensverdeling worden opgelost.
De discussie is inmiddels niet langer alleen academisch. Volgens berichten uit de praktijk heeft het Hof van Justitie inmiddels de eerste zitting in de zaak gehouden, waarmee de inhoudelijke behandeling van het geschil is begonnen. Houd zoals gewoonlijk AI-Forum in de gaten voor de laatste ontwikkelingen.
AI-forum 2026/1
Vibe coding en het probleem van de auteursrechtelijke bescherming van software
Inleiding: Vibe coding - een revolutie in softwareontwikkeling
Het werk van veel ontwikkelaars wordt steeds meer door generatieve AI (GenAI) gedaan. Software tools, zoals Lovable, Cursor, Claude Cowork, Codex en AI Studio kunnen werkende software o...
Soevereinispijt — zijn de Big Tech anti-sentimenten reëel of meer een angsthype?
Er gaat inmiddels geen dag meer voorbij zonder dat het onderwerp ‘digitale soevereiniteit’ de revue passeert. De twee meest in het oog springende ontwikkelingen zijn:
(i) de beoogde overname van Solvinity door het Amerikaanse Kyndryl ...
The IP protection of AI output
In the summer of 2024, my colleague Kim de Bonth and I wrote an article (in Dutch) discussing the protection of AI-generated output where no human creative input was involved. We concluded that such output would not qualify for copyright protectio...
Misbruik van procesrecht door ondermaatse AI-gegenereerde stukken, aldus rechtbank
Het gebruik van Large Language Models zoals ChatGPT duikt steeds vaker op in procedures. Soms blijft het bij een opvallende verwijzing of een twijfelachtig citaat. Soms gaat het mis, met verzonnen bronnen of onbegrijpelijke juridische redeneringen...
Terugblik op het Nationaal AI & Data Congres: de AI Act in actie, AI-training op persoonsgegevens, contractvorming in het AI-tijdperk en meer!
Tijdens het Nationaal AI & Data Congres op donderdag 5 februari 2026 hebben juridische experts de laatste ontwikkelingen op het snijvlak van AI en recht belicht. Arnoud Engelfriet (ICTRecht) besprak compliance onder de AI Act, terwijl Laura Poolma...
AI, verantwoordelijkheid & aansprakelijkheid – de stand van zaken en een weg vooruit
1. Inleiding
In deze bijdrage maak ik een momentopname van de civielrechtelijke, buitencontractuele AI-aansprakelijkheidsregulering die in Nederland geldt. Op dit moment is het begin 2026, en is de regelgeving met betrekking tot de verantwoordel...
Mag een sigarettengezichtsscanner iedereen scannen die in de rij staat bij de kassa?
Een lezer vroeg me:
"Op diverse plekken staan zuilen voor sigarettenverkoop, die gezichten scannen om te bepalen of men oud genoeg is. Mij is opgevallen dat deze dingen gezichten scannen van iedereen in de rij. Ik zie het lampje van de scanner iede...
Artificial neural networks in het octrooirecht: het Britse Supreme Court wijzigt de toets voor software-uitvindingen
Het Britse Supreme Court heeft uitspraak gedaan in Emotional Perception AI Ltd v Comptroller General of Patents, Designs and Trade Marks. In deze zaak staat de vraag centraal of een artificial neural network (ANN) moet worden aangemerkt als een “c...
Elon Musk’s Grok AI onder vuur wegens deepfake-schandaal – een juridische analyse
Grok, de chatbot van Elon Musks AI-bedrijf xAI die is geïntegreerd in X, ligt wereldwijd onder vuur vanwege misstanden rond deepfake-content. Gebruikers van de bot blijken in staat om personen op foto’s via prompts te laten uitkleden, zonder toest...
AI en cybersecurity: giftige data, Europese regels
De toenemende afhankelijkheid van AI in belangrijke sectoren van de samenleving baart anno 2026 steeds meer zorgen. Hoewel de voordelen van de inzet van AI-systemen uiteraard legio zijn, kunnen zij inderdaad – en helaas – niet los worden gezien va...
