Blog
Deepfakes in de politiek
Redactie
Sinds een aantal jaar ontkom je er niet meer aan: nepbeelden en -geluiden, ook wel deepfakes genoemd. Het kan gaan om foto’s, video’s en stemgeluiden die met behulp van deep learning technologie tot stand worden gebracht. Vaak zijn de generatieve werken al niet meer van echt te onderscheiden, met vervelende bijwerkingen tot gevolg. Zo gaat het in een groot deel van de gevallen om deepnudes, waarbij mensen ongevraagd in pornovideo’s worden geplakt. Gelukkig is het huidige strafrecht goed opgewassen tegen dergelijke toepassingen (art. 139h Sr is mede van toepassing verklaard). Ook de AVG biedt weerstand: het maken en verspreiden van deepfakes waarin persoonsgegevens zijn verwerkt, zoals de stem, is niet toegestaan zonder toestemming van de betrokkene (art. 6 AVG). Tot slot kan door de benadeelde het portretrecht worden aangehaald (art. 21 Aw), zolang het belang bij verspreiding van de deepfake niet zwaarder weegt.
Maar wat als er een deepfake wordt gemaakt van een bekend persoon, bijvoorbeeld iemand uit de politiek? In dat geval worden er geen persoonsgegevens gebruikt die niet al openbaar waren; bovendien blijkt uit rechtspraak dat politieke personen de openbaarmaking en verspreiding van hun portretten in beginsel moeten dulden. Het strafrecht is ook niet direct van toepassing, zolang er maar geen sprake is van expliciete afbeeldingen. Kortom, het recht biedt voor dergelijke gevallen geen duidelijke aanknopingspunten. Problematisch wordt het dan ook als de met deepfake-technologie geïmiteerde politieke persoon wordt gebruikt om desinformatie te verspreiden, met name als daarmee de democratische verkiezingen worden beïnvloed. Dit is waar het Amerikaanse Hampshire recent tegenaan liep: een politiek adviseur gebruikte een generatieve nabootsing van de stem van president Joe Biden om kiezers op te roepen niet te stemmen in de toen aankomende (primary) verkiezingen. Aangezien deepfakes een grensoverschrijdend verschijnsel zijn, is het interessant om na te gaan hoe de Amerikaanse autoriteiten met dit voorval zijn omgegaan. Inmiddels heeft de Federal Communications Commission (FCC) een uitspraak gedaan, waarover nu een beknopte analyse zal volgen.
De president belt
De FCC legt Kramer, de politiek adviseur in kwestie, een boete op van zes miljoen dollar, wegens het opzettelijk misleiden van kiezers vlak voor de verkiezingen. Kramer heeft duizenden lokale kiezers opgebeld en valse uitspraken van president Biden voor hen afgespeeld in een generatieve stem. Voor extra geloofwaardigheid belde hij namens een prominente politicus uit New Hampshire, wat in strijd is met de Truth Caller ID Act en de regels van de FCC. De vermomming vond namelijk plaats met het doel om te misleiden, bedriegen en schade te veroorzaken. Bovendien is het afspelen van de nepstem in strijd met de Telephone Consumer Protection Act. De FCC concludeert daartoe dat een kunstmatig gegenereerde stem kan worden aangemerkt als de daarin gedefinieerde “artificial or prerecorded voice”. Al met al benadrukt de FCC dat Kramer ontzettend nauwkeurig en doelgericht te werk is gegaan. Kramer wist dat zijn boodschap meer gewicht zou hebben als hij als politicus belde. Verder gebruikte hij een lokaal nummer zodat de kiezers sneller geneigd zouden zijn om op te nemen. Kramer had het opzettelijke doel om de verkiezingen te beïnvloeden. Al het voorgaande rechtvaardigt volgens de FCC de door haar opgelegde boete.
De AI-verordening als oplossing?
De praktijk die Kramer heeft verricht, waarbij iemand zich bij het bellen voordoet als iemand anders, staat ook wel bekend als spoofing. Op zichzelf is spoofing niet strafbaar of illegaal in Nederland of de EU. Maar als het gepaard gaat met bijvoorbeeld oplichting, dan wel, vergelijkbaar met de Amerikaanse wetgeving. De vraag is echter of enkel een misleidende boodschap zoals de bovengenoemde al genoeg zou kunnen zijn om in te grijpen. Als er generatieve AI in het spel is, dan wel, gelet op de recent aangenomen AI-verordening. Daaruit blijkt immers dat iedere gebruiker van een AI-systeem die gegenereerd materiaal naar buiten brengt, daarbij ook moet vermelden dat het om gegenereerd materiaal gaat (art. 50 lid 4). Daarbij wordt zelfs expliciet vermeld dat dit ook geldt ten opzichte van generatieve content die bedoeld is om het publiek te informeren over aangelegenheden van algemeen belang. Het verstrekken van informatie omtrent verkiezingen zal hier ongetwijfeld onder vallen. Iedere persoon die misleid wordt, kan zich bij de relevante markttoezichtautoriteit beroepen op de individuele klachtenprocedure (art. 85). Hoewel de AI-verordening inmiddels in werking is getreden, is het nog even afwachten welke autoriteit dat in Nederland is en hoe deze bepaling het in de praktijk doet.
Gelet op het feit dat het nou juist de generatieve technologie is die misleiding zo overtuigend kan maken, klinkt de AI-verordening veelbelovend. Idealiter volstaat de nieuwe wetgeving om een belangrijke hoeveelheid desinformatie rondom de verkiezingen te voorkomen. Dat is een welkome aangelegenheid, nu uit genoeg onderzoeken is gebleken dat desinformatie een acuut probleem vormt voor de democratie. Wel is het noodzakelijk dat de genoemde klachtenprocedure op orde wordt gebracht en dat de opgelegde sancties voor misleiding voldoende afschrikwekkend zijn. Helaas zullen we nog niet helemaal van het probleem af zijn. In de bovengenoemde zaak heeft het weken gekost voordat Kramer is geassocieerd met zijn daad. Goed voorstelbaar is dat een doordachte en doelgerichte crimineel met een actie als de onderhavige zou kunnen wegkomen zonder ooit gevonden te worden. Het blijft dan ook belangrijk om de digitale infrastructuur en cybersecurity te blijven verbeteren, zodat ook personen die zich niet aan de regels houden getraceerd kunnen worden. De AIVD en RDI zijn zich daar inmiddels bewust van (meer hierover in dit artikel).
AI-forum 2025/1
AI-gestuurde aanbevelingssystemen dehumaniseren het internet
“Dehumanization happens when people are depicted, regarded, or treated as not human or less human” - Maria Kronfeldner, filosoof. Vroeger kwam dit tot uiting in de vorm van slavernij en sociale klassen. Maar we zien nu dat het ook subtieler kan. N...
Tekst- en datamining vs auteursrecht: eerste rechtspraak
Tekst- en datamining is het machinaal scannen van data om informatie te verkrijgen, bijvoorbeeld ter ontwikkeling van een generatief AI-model. Met de invoering van de DSM-richtlijn in 2019 is deze bezigheid nader gekwalificeerd ten opzichte van he...
Amerikaanse rechter verwerpt fair use als grond voor tekst- en datamining
In een filmachtige wending heeft Amerikaanse rechter Bibas zijn zogenoemde summary judgement (een soort kort geding) in de zaak Thomson Reuters v Ross omgegooid: in plaats van een jury bij het geschil te betrekken wordt het geschil grotendeels afg...
Generatieve AI-vergoeding: is het juridisch mogelijk?
In toenemende mate wordt er gediscussieerd over de mogelijke implementatie van een (generatieve) AI-vergoeding, bedoeld om makers te compenseren voor het gebruik van hun werken bij de ontwikkeling van generatieve AI. In een reeks van drie artik...
Dit zijn de beste juridische GenAI tools van 2025
Bent u een van de vele gebruikers van handige juridische tools als Harvey en CoCounsel? Dan verdient het recente onderzoek van Vals AI uw aandacht. Vals AI is een bedrijf dat de prestaties van grote taalmodellen evalueert voor specifieke bedrijfst...
Meta riskeert strafrechtelijke aansprakelijkheid voor tekst- en datamining
Meta wordt ervan beschuldigd dat zij zonder toestemming 81 terabyte aan boeken heeft gedownload uit illegaal beschikbare bronnen zoals Z-Library en LibGen. De zaak heeft iets weg van de Google boekenzaak uit 2015, waarbij Google miljoenen boeken v...
Franse schrijvers en uitgevers voegen zich in de strijd tegen Meta
Drie grote uitgeverij- en auteursverenigingen in Frankrijk hebben een rechtszaak aangespannen tegen Meta, het Amerikaanse bedrijf achter onder andere Facebook en Instagram. De verenigingen beschuldigen Meta van het op grote schaal schenden van aut...
