Blog
Adobe's Content Credentials: het equilibrium tussen auteursrecht en innovatie?
Redactie
De inzet op transparantie in het tijdperk van generatieve AI krijgt een krachtige impuls met Adobe’s recente introductie van Content Credentials. Door dit nieuwe systeem kunnen makers hun naam, de herkomst van werken en hun voorkeuren over AI-gebruik rechtstreeks koppelen aan hun beeldmateriaal. Adobe’s initiatief biedt daarmee niet alleen zichtbaarheid en erkenning voor makers, maar opent ook de deur naar een internationaal toepasbare manier om auteursrechten te beschermen en opt-outs voor AI-training helder en effectief door te voeren.
Wat Adobe heeft ontwikkeld
Adobe heeft een nieuwe webapplicatie gelanceerd waarmee makers zogenaamde Content Credentials kunnen toevoegen aan hun beeldmateriaal. Deze credentials zijn gebaseerd op een internationale open standaard van de Coalition for Content Provenance and Authenticity (C2PA), waar onder andere Adobe, Meta, Microsoft en OpenAI deel van uitmaken. Met behulp van deze tool kunnen makers tot vijftig JPG- of PNG-bestanden in één keer voorzien van hun naam en sociale media-accounts, waaronder een geverifieerd LinkedIn-profiel. Belangrijker nog: ze kunnen aangeven of hun werk wel of niet mag worden gebruikt voor de training van generatieve AI-modellen.
Content Credentials combineren drie technieken: secure metadata, invisible watermarking en fingerprinting.
-
Secure metadata bevat verifieerbare informatie over hoe een werk tot stand is gekomen, welke software daarbij is gebruikt en of het gegenereerd is met AI. Deze metadata wordt cryptografisch ondertekend, zodat elke wijziging detecteerbaar is.
-
Watermarking betekent dat onzichtbare signalen worden toegevoegd aan het beeld die bestand zijn tegen bijvoorbeeld screenshots of beeldverstoringen.
-
Fingerprinting houdt in dat unieke kenmerken van het beeld worden vastgelegd met grote nauwkeurigheid, zelfs na bewerkingen.
Deze drie technieken samen maken het mogelijk om de herkomst van content betrouwbaar vast te leggen én te volgen.
Baanbrekende ontwikkeling?
De mogelijkheden gaan verder dan alleen erkenning van de maker. Zo kunnen fotografen het volledige traject van een afbeelding documenteren, van het moment van vastleggen tot publicatie. Dit is met name relevant in een tijd waarin de authenticiteit van beeldmateriaal steeds vaker ter discussie staat. Ook kunnen kunstenaars eenvoudig aangeven of hun werk wel of niet mag worden gebruikt voor AI-training. Daarmee kan meer duidelijkheid worden geschept over het gebruik van auteursrechtelijk beschermd materiaal voor de ontwikkeling van AI; een onderwerp dat met name in Amerika aanleiding heeft gegeven tot tal van rechtszaken (PS veel AI-bedrijven nemen het standpunt in dat überhaupt geen toestemming nodig is voor het gebruik van auteursrechtelijk beschermde werken voor AI-training).
De kers op de taart is dat Content Credentials internationaal toepasbaar zijn, los van lokale wetgeving. Naar huidig EU-recht mogen bedrijven auteursrechtelijk beschermd materiaal tekst- en dataminen voor de ontwikkeling van AI, tenzij rechthebbenden daar uitdrukkelijk bezwaar tegen maken (artikel 4 DSM-richtlijn). Dergelijk bezwaar, ook wel opt-out genoemd, wordt in de praktijk doorgaans vormgegeven via een robot.txt-bestand, waarin websites bepaalde crawlers uitsluiten. Maar dit systeem kent veel onzekerheden. Wanneer is een opt-out precies geldig en hoe kan er worden gegarandeerd dat AI-crawlers eventuele opt-outs respecteren? Adobe’s systeem maakt dit concreet. Een eenvoudig selectievakje in de metadata geeft direct aan of AI-training wel of niet is toegestaan. Crawlers kunnen dit veld gestructureerd en eenduidig uitlezen, wat leidt tot een uniforme standaard voor de hele industrie.
Kanttekeningen en voorwaarden voor succes
Het succes van Content Credentials hangt uiteraard af van de bereidheid van AI-bedrijven om het systeem daadwerkelijk te erkennen en te respecteren. Adobe is hierover in gesprek met verschillende grote partijen, maar formele toezeggingen ontbreken vooralsnog. Zonder actieve implementatie door bijvoorbeeld Google of OpenAI blijft het systeem eenrichtingsverkeer: makers geven hun voorkeur aan, maar het blijft de vraag of daar iets mee wordt gedaan.
Daarnaast is er risico op misbruik; het koppelen van een geverifieerd LinkedIn-account is immers optioneel. Technisch is het dus mogelijk dat iemand een afbeelding van een ander voorziet van eigen credentials. Wanneer credentials eenmaal staan neemt het risico op misbruik wel af. De genoemde technieken van metadata, onzichtbare watermerken en fingerprints vullen elkaar aan: als metadata verloren gaat of wordt verwijderd, blijven watermerken of vingerafdrukken vaak intact, en vice versa. Met andere woorden, het is lastig om alle herkomst-informatie volledig te wissen of te vervangen zonder sporen na te laten. Toch blijft het systeem kwetsbaar zolang platforms en tools niet verplicht zijn om credentials standaard te behouden en weer te geven.
Een stap naar de toekomst
Adobe’s Content Credentials laat zien dat technologie niet alleen risico’s met zich meebrengt, maar ook oplossingen kan bieden voor vragen rond eigenaarschap, transparantie en misbruik, waaronder in het AI-tijdperk. Door informatie over herkomst, auteurschap en AI-voorkeuren direct in content zelf te verankeren, ontstaat er een robuuste en grensoverschrijdende methode om controle terug te geven aan makers.
De Europese Commissie zou deze kans kunnen aangrijpen om met bedrijven als Adobe samen te werken. Een systeem als Content Credentials kan helpen om de bestaande opt-out wetgeving concreet vorm te geven in een technisch gestandaardiseerde aanpak, die heersende zorgen onder makers en rechthebbenden kan wegnemen. Dat zou een belangrijke stap zijn naar een transparanter digitaal ecosysteem waarin innovatie en auteursrecht hand in hand gaan.
AI-forum 2025/2
The Dutch and Danish proposals for legislation on deepfakes
This article contains a summary and a brief comparison of the Dutch and Danish proposals for legislation relating to deepfakes.
The Dutch proposal is an initiative of member of parliament ms. Rosemarijn Dral, based on an article published in O...
Wie is aansprakelijk als een auto zelf rijdt? Van menselijke schuld naar systeemfouten
Inleiding
De opmars van AI, ooit alleen een abstract idee, is vandaag onmiskenbaar verweven met ons dagelijks leven. De impact ervan laat zich duidelijk voelen in de wereld van zelfrijdende auto's. Autonome voertuigen opereren niet langer uitslui...
OpenAI wijzigt koers: non-profit behoudt controle
OpenAI heeft aangekondigd de plannen voor de overgang naar een winstgericht bedrijfsmodel deels terug te draaien. Het bedrijf is van plan zijn for-profit tak om te zetten in een public benefit corporation (PBC), maar de volledige zeggenschap blijf...
Van handmatige moderatie naar AI-gestuurde detectiesystemen
Inleiding
Britannica en Merriam-Webster beschuldigen Perplexity AI van auteursrecht én merkinbreuk
Op 10 september 2025 heeft Britannica Group, het moederbedrijf van de 250 jaar oude Encyclopædia Britannica en het bijna net zo oude woordenboekmerk Merriam-Webster, een klacht ingediend bij de federale rechtbank in New York tegen Perplexity AI. D...
De verboden metafoor: AI en antropomorf taalgebruik
Inleiding
Op het snijvlak van auteursrecht & AI is regelmatig (felle) kritiek te lezen op ‘antropomorfiserend’ taalgebruik. Wanneer we als juristen schrijven over AI is het volgens velen onwenselijk dat daarbij ‘mensachtige’ termen worden gebruik...
Hoe GPT-NL en Nextcloud de afhankelijkheid van Big Tech helpen terugdringen
In een wereld waarin taalmodellen als ChatGPT razendsnel terrein winnen, groeit ook het besef van afhankelijkheid. De meeste krachtige AI-systemen worden gebouwd en beheerd door een handvol grote Amerikaanse technologiebedrijven, die beperkte tran...
Tegenstrijdige visies op AI-training en fair use: hoe de rechter afwijkt van het US Copyright Office
Maandag 23 juni 2025 werd een mijlpaal bereikt in het Amerikaanse auteursrecht: in de zaak Bartz v. Anthropic oordeelde de federale rechter William Alsup voor het eerst dat het gebruik van auteursrechtelijk beschermd materiaal voor AI-training ond...
AI-training en auteursrecht: de internationale verschillen
Mag je auteursrechtelijk beschermd werk gebruiken om AI-modellen te trainen? Die vraag houdt wetgevers wereldwijd bezig. Als onderdeel van haar recente rapport, heeft het Amerikaanse Copyright Office in kaart gebracht hoe verschillende landen AI-t...
Nepjurisprudentie: hoe AI de rechtspraak kan beïnvloeden zonder dat iemand het doorheeft
Een Amerikaanse advocaat citeerde vier niet-bestaande uitspraken in een verzoekschrift. Ze bleken afkomstig uit ChatGPT. De rechter ontdekte het, legde een boete op en verplichtte de betrokken advocaat tot het volgen van training voor het (ethisch...
