Blog
Wat de ‘Trump Gaza’ video ons leert over de risico’s van AI-gebruik
Redactie
Het zal u niet zijn ontgaan: de bizarre video over de Gazastrook die afgelopen maand door Amerikaans president Trump is gedeeld. In de video worden Trump en Netanyahu, de premier van Israël, zonnend op het strand van een Dubai-achtig Gaza afgebeeld. Ook Elon Musk is van de partij. Tussen de palmbomen en wolkenkrabbers staat een gouden standbeeld van Trump gepositioneerd. De AI-video lijkt het resultaat van een doordachte politieke campagne van de Trump-regering. Maar als het aan de ‘maker’ van de video ligt, is niets minder waar. Trump zou de video ongevraagd hebben gebruikt en daarbij de oorspronkelijke boodschap van de video hebben vervormd. De maker gebruikt de gelegenheid om men te waarschuwen voor de gevaren van generatieve AI, met name in de politieke sfeer. In dit artikel wegen we die gevaren af tegen het huidige juridische kader.
De context
De video is oorspronkelijk gecreëerd door Amerikaans filmmaker Solo Avital, naar eigen zeggen in een span van acht uur en met behulp van Arcana AI. De intentie zou zijn geweest om een satirische video te maken, waarbij spot werd gedreven met eerdere uitspraken van Trump over “this megalomaniac idea about putting statues [in Gaza]”. In eerste instantie deelde Avital de video alleen met wat vrienden. Ook heeft de video enkele uren op het Instagramprofiel van zijn zakenpartner gestaan. Maar hoe de video precies bij Trump terecht is gekomen, is volgens Avital onduidelijk. Hij beweert dat Trump de video heeft gedeeld zonder zijn toestemming of medeweten en dat de oorspronkelijke toon van de video hiermee verloren is gegaan.
Context maakt alles uit, zegt Avital. Als de video was uitgezonden op Saturday Night Live (de grootste Amerikaanse talkshow), hadden mensen er volgens hem om kunnen lachen, door de absurditeit ervan. Maar doordat het Trump zelf is die de video op zijn persoonlijke social media plaatst, krijgt de video een andere lading.
De gevaren
Avital noemt de situatie kenmerkend voor de manier waarop desinformatie zich kan verspreiden, doordat mediakanalen het laatste nieuws oppikken en zonder (juiste) context verder delen. In plaats van een debat aan te wakkeren over de gevaren van generatieve AI, wat het oogmerk van Avital zou zijn geweest, ging alle aandacht naar Trump en zijn politieke campagne.
En dit is pas het begin, zegt professor Hany Farid van de Berkeley Universiteit van Californië. Zodra AI op het punt komt dat het hyperrealistische beelden kan genereren, zal de hoeveelheid AI-beelden die op vergelijkbare wijze viraal gaat volgens hem alleen maar toenemen.
Daarom roept Farid op tot bewustzijn over het gebruik van AI. Hij stelt dat je er in principe niet vanuit kunt gaan dat je de controle behoudt over datgene wat je hebt gegenereerd. Wees je daarom bewust van de mogelijke implicaties van het gebruik van AI, ongeacht je doelstelling. Verder ligt de verantwoordelijkheid niet alleen bij de gebruiker - ook AI-ontwikkelaars moeten ernaar streven dat hun tools op ethische wijze worden benut, in het licht van heersende normen en waarden. Oftewel, AI-tools moeten niet zomaar alles kunnen genereren wat ze wordt opgedragen. Hetzelfde geldt uiteraard voor content die strijd oplevert met de wet. Maar voor een geval als dit, waarin de video zelf niet onrechtmatig is en juist kan bijdragen aan het publieke debat, is er uiteindelijk weinig wat de AI-ontwikkelaar kan doen. Althans, tenzij de gebruiker wordt gescreend en/of bepaalde content van tevoren wordt gecensureerd, wat al snel een inbreuk op de vrijheid van meningsuiting oplevert.
Juridische handvatten?
Het is dan ook van belang dat er een juridisch vangnet is voor legale content die illegaal, of onethisch wordt gebruikt. Wat illegaal gebruik betreft is dit simpel: gebruikers die generatieve content illegaal gebruiken zijn strafbaar en/of aansprakelijk op basis van de geschonden wet. Denk hierbij aan de oplichter die een ander misleidt met behulp van een AI-video, die op zichzelf niet illegaal is. Met onethisch gebruik ligt dit ingewikkelder. Een politiek figuur als Trump dat een gevoelige AI-video gebruikt voor zijn politieke campagne, is wellicht aanstootgevend bezig, maar handelt niet direct in strijd met een wet of rechtsregel. Uiteindelijk is het, althans naar Nederlands recht, aan de rechter om te bepalen of het gebruik wel of niet rechtmatig is, gelet op de omstandigheden van het geval. Uiteraard is dat mosterd na de maaltijd, gezien de snelheid waarmee AI-content kan worden gegenereerd en gebruikt. Tegen de tijd dat de rechter een oordeel velt, is de mogelijke schade al berokkend. Hetzelfde geldt ten opzichte van mediakanalen die (op AI-content gebaseerde) desinformatie verspreiden.
In principe zijn er twee oplossingen te bedenken tegen de geschetste problematiek: verplichte transparantie of een algeheel verbod. De EU-wetgever heeft gekozen voor de eerste route. Op basis van artikel 50 lid 4 van de nieuwe AI-verordening zijn gebruikers van AI-content verplicht om hun content (in het openbaar) aan te duiden als AI-gegenereerd. Dit geldt in het bijzonder voor AI-content die wordt gepubliceerd om het publiek te informeren over aangelegenheden van algemeen belang. De wet gaat niet uitdrukkelijk in op de context van AI-content. Oftewel, het is niet verplicht om de (oorspronkelijke) boodschap van een AI-video te verduidelijken. Gezien het gevaar voor desinformatie was dit idealiter wel het geval geweest, hoewel dit het vrije verkeer van content mogelijk te veel zou belemmeren. Het is niet onbegrijpelijk dat de wetgever een dergelijke toevoeging achterwege heeft gelaten. Overtreding van de transparantievereiste kan leiden tot een geldboete die kan oplopen tot 15 miljoen euro (art. 99 lid 4 sub g AI-verordening).
De wettelijk verplichte transparantie neemt het gevaar voor desinformatie voor een belangrijk deel weg, maar het zal situaties als de onderhavige niet geheel weten te voorkomen. Wanneer een video als die van Trump in Gaza eenmaal viraal gaat, zal de boodschap ervan doorgaans worden getekend door de persoon of partij die de viraliteit in gang brengt; niet door de maker van de content. Voor filmmaker Avital is dit voldoende reden om AI-gebruik in de politieke sfeer geheel te verbannen. Dat AI-content de publieke opinie beïnvloedt is namelijk één ding, maar dat volksvertegenwoordigers de macht daarmee naar zich toe trekken gaat een stap verder. Ondenkbaar is een dergelijk verbod niet, en er valt zeker wat voor te zeggen, des te meer naarmate AI-content realistischer wordt. Eventuele inbreuk op de vrijheid van meningsuiting wordt in dat geval gecompenseerd door het zwaarwegende publieke belang bij een goed functionerende democratie. Diezelfde inbreuk zou een maatschappijbreed verbod op AI-content in de weg zitten, los van het feit dat een dusdanig breed verbod waarschijnlijk niet wenselijk is.
Mocht het zover komen dat de Europese wetgever een verbod op AI-content in politieke context overweegt, of dat zij andere regels rondom AI-gebruik wil gaan invoeren, dan brengen we u op de hoogte.
AI-forum 2025/1
De duistere zijde van ‘notice and takedown’ procedures en content monitoring
In de YouTube- en Cyando-uitspraak van 2021 wierp het Europese Hof licht op de rol van een platform zoals YouTube ten opzichte van de door haar gebruikers geplaatste content. Zo werd geconstateerd dat het zogenoemde safe harbor principe dat in 200...
AI bij de Rijksoverheid: is het wenselijk en wat zijn de gevaren?
De mogelijkheden van AI zijn eindeloos, waaronder voor de Rijksoverheid. Maar als de toeslagenaffaire ons iets heeft geleerd, dan is het dat hierbij oppassen is geblazen. De realiteit is nog altijd dat kunstmatige algoritmes imperfecte verlengstuk...
Waarom DeepSeek olie op het vuur gooit in de AI-wapenwedloop
Het is inmiddels twee jaar geleden dat OpenAI naar buiten trad met de revolutionaire ChatGPT. Het eerste krachtige AI-systeem dat vrij beschikbaar was en door eenieder breed kon worden ingezet. Sindsdien is AI het nieuwe modewoord en is het gebrui...
Tekst- en datamining vs auteursrecht: eerste rechtspraak
Tekst- en datamining is het machinaal scannen van data om informatie te verkrijgen, bijvoorbeeld ter ontwikkeling van een generatief AI-model. Met de invoering van de DSM-richtlijn in 2019 is deze bezigheid nader gekwalificeerd ten opzichte van he...
Gerechtvaardigd belang als grondslag voor het trainen van AI: hoe de Google Spain-zaak kan helpen
De opkomst van juridische taalmodellen (LLMs) roept belangrijke vragen op over de omgang met bijzondere en/of gevoelige persoonsgegevens. Kunnen dergelijke gegevens worden gescrapet? En zo ja, mogen ze worden gebruikt om LLMs te trainen?
Privacy-...