Terug naar overzicht

Blog

Wat de transparantieplicht in de AI-verordening betekent voor de journalistiek

Download article

Inleiding

Recent publiceerde het NRC een artikel over de AI-worsteling van de journalistiek.[1] Daarin werd besproken hoe vier grote Vlaamse tijdschriften artikelen hadden laten genereren door AI zonder dit te melden aan de lezers. Zo werden meer dan de helft van de in 2025 gepubliceerde artikelen in het tijdschrift Elle geschreven door verzonnen auteurs met AI-gegenereerde profielfoto's. [2] Ook werden eerder AI-gegenereerde boekenlijsten gepubliceerd, waar niet-bestaande boeken op bleken te staan. ​     ​

 

Al kan nuttig zijn in de journalistiek, bijvoorbeeld om het redactionele proces van de journalist te verrijken. De journalistiek is echter ook gebaseerd op vertrouwen. Een deel van dit vertrouwen is gebaseerd op de mogelijkheid om de bron van informatie te identificeren. Door de opkomst van AI komt dit steeds meer onder druk te staan. Zoals omschreven in overweging 133 van de AI-verordening:

 

'De brede beschikbaarheid en toenemende capaciteit van deze systemen hebben een aanzienlijke impact op de integriteit van en het vertrouwen in het informatie-ecosysteem, waardoor nieuwe risico's op desinformatie en manipulatie op grote schaal, fraude, imitatie en consumentenbedrog ontstaan.'

 

Wanneer media AI inzetten om teksten te genereren, zonder duidelijk te maken dat een computeralgoritme daaraan heeft bijgedragen, ontstaat het risico dat de herkomst van het nieuws onduidelijk wordt.

 

In deze bijdrage zal om die reden worden stilgestaan bij de transparantieverplichtingen uit de AI-verordening die op dergelijk gebruik van AI van toepassing zijn. Een vraag die centraal staat is of deze de risico's die gepaard gaan met het gebruik van AI in journalistiek voldoende ondervangen of dat er wellicht meer specifiek beleid is vereist.

 

De transparantieverplichtingen in de AI-verordening

De AI-verordening is op 12 juli 2024 formeel vastgesteld en vormt het eerste uitgebreide wettelijke kader binnen de EU voor het gebruik van kunstmatige intelligentie.[3] De verordening classificeert AI-systemen op basis van risico en legt verplichtingen op aan zowel aanbieders als gebruikersverantwoordelijken.

 

Een aanbieder van een AI-systeem is de partij die het AI-model voor algemene doeleinden ontwikkelt of laat ontiwkkelen en dat systeem of model in de handel brengt of het AI-systeem in gebruik stelt onder eigen naam of merk. Een gebruikersverantwoordelijke is daarentegen de partij die een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruitk in het kader van een persoonlijke niet-beroepsactiviteit. Journalisten zullen in veel gevallen kwalificeren als gebruikersverantwoordelijke.

 

Onderzoek laat zien dat hun lezers het belangrijk vinden om te beschikken over de bron van informatie van een nieuwsartikel dat zij lezen. Zij voelen zich mogelijk gemanipuleerd wanneer zij hierover niet geïnformeerd zijn.[4] Dit sluit aan bij de stelling van de Nederlandse Vereniging voor Journalistiek, dat vertrouwen de kern van journalistiek is. Hierop sluit aan dat een journalist op grond van de NVJ-code verantwoordelijk is voor de juistheid en controleerbaarheid van de feiten. Het publiceren van onjuiste informatie kan leiden tot een klacht bij de Raad voor de Journalistiek. Als een klacht gegrond wordt verklaard, wordt van het medium verwacht dat het de uitspraak publiceert, met mogelijke reputatieschade tot gevolg.

 

Deze bijdrage richt zich op de transparantie-verplichtingen voor gebruikersverantwoordelijken van generatieve AI-systemen, zoals tekst- en beeldgeneratoren en haar effecitiviteit ter voorkoming van desinformatie.

 

Met betrekking tot AI-gegenereerde tekst bepaalt artikel 50 lid 4 van de AI-verordening het volgende:

 

'Gebruikersverantwoordelijken van een AI-systeem dat tekst genereert of bewerkt die wordt gepubliceerd om het publiek te informeren over aangelegenheden van algemeen belang, maken bekend dat de tekst kunstmatig is gegenereerd of bewerkt. Deze verplichting is echter niet van toepassing wanneer het gebruik bij wet is toegestaan om strafbare feiten op te sporen, te voorkomen, te onderzoeken of te vervolgen of wanneer de door AI gegenereerde content een proces van menselijke toetsing of redactionele controle heeft ondergaan en wanneer een natuurlijke of rechtspersoon redactionele verantwoordelijkheid draagt voor de bekendmaking van de content.'

 

Het niet vermelden van het gebruik van AI, wanneer de uitzondering niet van toepassing is, wordt in artikel 99 van de AI verordening beboet met hoogstens EUR 15 miljoen of 3% van de jaaromzet.

 

Wat is een aangelegenheid van algemeen belang?

Een van de eerste vragen die deze bepaling oproept is wanneer sprake is van tekst die wordt gepubliceerd om het publiek te informeren over aangelegenheden van algemeen belang. Ieder geschreven artikel kan het publiek informeren over aangelegenheden van algemeen belang. Aangenomen is dat het betrekking heeft op aangelegenheden die eenieder aangaan. Wanneer daarvan gesproken kan worden is erg contextafhankelijk. Zo kan een artikel dat pas na verloop van tijd het algemeen belang werk ook worden geacht het publiek te informeren.

 

De uitzondering: twee cumulatieve voorwaarden

In beginsel dient bij het gebruik van AI voor tekstgeneratie in nieuwsberichten, waarvan wordt verondersteld dat deze het publiek informeren over een aangelegenheid van algemeen belang, te worden vermeld dat AI is gebruikt. Er is één belangrijke uitzondering, waarin twee cumulatieve vereisten zijn verbonden. De verplichting tot vermelding is niet van toepassing wanneer is voldaan aan de volgende twee cumulatieve vereisten: (i) de AI-gegenereerde content een proces van menselijke toetsing of redactionele controle heeft ondergaan en (ii) wanneer een natuurlijke of rechtspersoon verantwoordelijkheid draagt voor de bekendmaking van de content.

 

Ook deze vereisten roepen vragen op. Is het voldoende dat een tekst door een journalist wordt nagelezen? Of moet de tekst ook daadwerkelijk worden herschreven? Piasecki e.a. gingen er in hun eerdere bijdrage vanuit dat dit vereiste moet worden geïnterpreteerd als het vereist redigeren en herschrijven van door AI gegenereerde teksten.[5] Visser en Klopper wijzen in een andere richting: zij gaan ervan uit dat: de uitzondering in veel gevallen van toepassing zal zijn, omdat de meeste nieuwsberichten onderhevig zullen zijn aan ten minste enige mate van redactionele controle.[6]

 

Gezien de bedoeling om desinformatie te voorkomen lijkt mij het vooralsnog aannemelijk dat niet direct is bedoeld dat teksten volledig dienen te worden geredigeerd, maar dat gebruikers-verantwoordelijken niet klakkeloos de informatie uit een AI-gegenereerde tekst moeten overnemen. Die redenering lijkt meer aan te sluiten bij de toepassing van de uitzondering door Klopper en Visser. Met andere woorden, de uitzondering voor nieuwsberichten zal veelal kunnen worden gebruikt omdat de drempel voor redactionele controle en verantwoordelijkheid relatief laag is.

 

Hoewel de transparantieverplichting de lezer in dit geval van informatie over AI gebruik heeft willen voorzien, lijkt de formulering van de uitzondering ervoor te zorgen dat AI-gegenereerde teksten alsnog zonder vermelding kunnen worden gebruikt, zo lang zij maar enigszins zijn nagelopen.  Om die reden kan de effectiviteit van dit instrument tegen mogelijke hallucinaties in AI-gegenereerde teksten in nieuwsberichten twijfel worden getrokken.

 

De AI-verordening noemt de stimulans voor het opstellen van praktijkcodes om doeltreffende uitvoering van de verplichtingen met betrekking tot het opsporen en het aanmerken van kunstmatig gegenereerde of gemanipuleerde content te vergemakkelijken.[7] Ook zal de Commissie nog richtsnoeren over de praktische implicaties van de transparantieverplichtingen uit artikel 50 AI-verordening publiceren.[8] Dit biedt hopelijk meer duidelijkheid over de bedoeling van de transparantieverplichting en de invulling van de genoemde menselijke toetsing en redactionele controle.

 

Conclusie en aanbeveling

Concluderend, biedt de AIverordening met artikel 50 een kader voor transparantie in de journalistiek. Enerzijds verplicht zij tot duidelijkheid over AIgebruik in nieuwsartikelen, anderzijds laat de uitzondering van vermelding bij 'redactionele controle en redactionele verantwoordelijkheid' ruimte voor interpretatie. Hierdoor zouden nieuwsberichten ongewijzigd kunnen blijven verschijnen zonder expliciete vermelding van AI-gebruik. Deze ambiguïteit ondermijnt het doel van de AI-verordening om desinformatie, hallucinaties en misleiding tegen te gaan, waardoor de effectiviteit van de transparantieverplichting in nieuwsberichten onzeker is.

 

Om de beoogde integriteit van en het vertrouwen in het informatie-ecosysteem te waarborgen bieden de aangekondigde richtsnoeren mogelijk soelaas. Om praktische missers te voorkomen is het raadzaam voor nieuwsaanbieders om duidelijk beleid op te stellen voor het gebruik van AI-gegenereerde tekst.

 

Voor nieuwsaanbieders luidt het huidige advies: integreer de transparantieverplichting in het redactiebeleid en wees proactief om verspreiding van desinformatie te voorkomen. Enkele aanbevelingen:

 

●       Houd redactionele controle: laat journalisten een AI-gegenereerde tekst altijd nalezen en zonodig herschijven.

●       Stel hiervoor duidelijke richtlijnen op: leg in redactieprotocollen vast hoe en wanneer AI-tools mogen worden ingezet.

●       Transparantie in de tekst: maak expliciet bekend wanneer een onderdeel van een artikel door AI is gegenereerd. Doe dit met een korte vermelding of een disclaimer bij het artikel.

 

Heeft u vragen over dit onderwerp, of wilt u als redactie of organisatie beter voorbereid zijn op de juridische en praktische gevolgen van de AI-verordening? Aarzel dan niet om contact op te nemen.



[1] M. Reiniers, 'De AI-worsteling van de journalistiek: ‘De menselijke journalist is echt nodig’ NRC.

[2] Buytaert e.a., ' Sophie Vermeulen bestaat niet, maar schreef wel 403 artikels voor magazine Elle, blijkt uit onderzoek van VRT NWS' VRT NEWS.

[3] Verordening (EU) 2024/1689 van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828 (verordening artificiële intelligentie).

[4] Piasecki e.a., 'AI-generated journalism: Do the transparency provisions in the AI Act give news readers what they hope for?'  Internet Policy Review, Volume 13, Issue 4.

[5] Idem.

[6] J. Klopper & D. Visser, 'Vermelding gebruik AI bij AI-gegenereerde content', Bb 2024/51.

[7] Artikel 50 lid 7 AI-verordening.

[8] Artikel 96 AI-verordening.

Auteur(s)

Kimberly Meijs

Kimberly is sinds 2025 werkzaam als advocaat bij La Gro in de sectie Data & Privacy. Zij is gespecialiseerd in het Privacyrecht, IT-recht en commerciële contracten.

AI-forum 2025/2