Terug naar overzicht

Blog

Deepfakes in de politiek

Sinds een aantal jaar ontkom je er niet meer aan: nepbeelden en -geluiden, ook wel deepfakes genoemd. Het kan gaan om foto’s, video’s en stemgeluiden die met behulp van deep learning technologie tot stand worden gebracht. Vaak zijn de generatieve werken al niet meer van echt te onderscheiden, met vervelende bijwerkingen tot gevolg. Zo gaat het in een groot deel van de gevallen om deepnudes, waarbij mensen ongevraagd in pornovideo’s worden geplakt. Gelukkig is het huidige strafrecht goed opgewassen tegen dergelijke toepassingen (art. 139h Sr is mede van toepassing verklaard). Ook de AVG biedt weerstand: het maken en verspreiden van deepfakes waarin persoonsgegevens zijn verwerkt, zoals de stem, is niet toegestaan zonder toestemming van de betrokkene (art. 6 AVG). Tot slot kan door de benadeelde het portretrecht worden aangehaald (art. 21 Aw), zolang het belang bij verspreiding van de deepfake niet zwaarder weegt. 

 

Maar wat als er een deepfake wordt gemaakt van een bekend persoon, bijvoorbeeld iemand uit de politiek? In dat geval worden er geen persoonsgegevens gebruikt die niet al openbaar waren; bovendien blijkt uit rechtspraak dat politieke personen de openbaarmaking en verspreiding van hun portretten in beginsel moeten dulden. Het strafrecht is ook niet direct van toepassing, zolang er maar geen sprake is van expliciete afbeeldingen. Kortom, het recht biedt voor dergelijke gevallen geen duidelijke aanknopingspunten. Problematisch wordt het dan ook als de met deepfake-technologie geïmiteerde politieke persoon wordt gebruikt om desinformatie te verspreiden, met name als daarmee de democratische verkiezingen worden beïnvloed. Dit is waar het Amerikaanse Hampshire recent tegenaan liep: een politiek adviseur gebruikte een generatieve nabootsing van de stem van president Joe Biden om kiezers op te roepen niet te stemmen in de toen aankomende (primary) verkiezingen. Aangezien deepfakes een grensoverschrijdend verschijnsel zijn, is het interessant om na te gaan hoe de Amerikaanse autoriteiten met dit voorval zijn omgegaan. Inmiddels heeft de Federal Communications Commission (FCC) een uitspraak gedaan, waarover nu een beknopte analyse zal volgen.

 

De president belt

De FCC legt Kramer, de politiek adviseur in kwestie, een boete op van zes miljoen dollar, wegens het opzettelijk misleiden van kiezers vlak voor de verkiezingen. Kramer heeft duizenden lokale kiezers opgebeld en valse uitspraken van president Biden voor hen afgespeeld in een generatieve stem. Voor extra geloofwaardigheid belde hij namens een prominente politicus uit New Hampshire, wat in strijd is met de Truth Caller ID Act en de regels van de FCC. De vermomming vond namelijk plaats met het doel om te misleiden, bedriegen en schade te veroorzaken. Bovendien is het afspelen van de nepstem in strijd met de Telephone Consumer Protection Act. De FCC concludeert daartoe dat een kunstmatig gegenereerde stem kan worden aangemerkt als de daarin gedefinieerde “artificial or prerecorded voice”. Al met al benadrukt de FCC dat Kramer ontzettend nauwkeurig en doelgericht te werk is gegaan. Kramer wist dat zijn boodschap meer gewicht zou hebben als hij als politicus belde. Verder gebruikte hij een lokaal nummer zodat de kiezers sneller geneigd zouden zijn om op te nemen. Kramer had het opzettelijke doel om de verkiezingen te beïnvloeden. Al het voorgaande rechtvaardigt volgens de FCC de door haar opgelegde boete.

 

De AI-verordening als oplossing?

De praktijk die Kramer heeft verricht, waarbij iemand zich bij het bellen voordoet als iemand anders, staat ook wel bekend als spoofing. Op zichzelf is spoofing niet strafbaar of illegaal in Nederland of de EU. Maar als het gepaard gaat met bijvoorbeeld oplichting, dan wel, vergelijkbaar met de Amerikaanse wetgeving. De vraag is echter of enkel een misleidende boodschap zoals de bovengenoemde al genoeg zou kunnen zijn om in te grijpen. Als er generatieve AI in het spel is, dan wel, gelet op de recent aangenomen AI-verordening. Daaruit blijkt immers dat iedere gebruiker van een AI-systeem die gegenereerd materiaal naar buiten brengt, daarbij ook moet vermelden dat het om gegenereerd materiaal gaat (art. 50 lid 4). Daarbij wordt zelfs expliciet vermeld dat dit ook geldt ten opzichte van generatieve content die bedoeld is om het publiek te informeren over aangelegenheden van algemeen belang. Het verstrekken van informatie omtrent verkiezingen zal hier ongetwijfeld onder vallen. Iedere persoon die misleid wordt, kan zich bij de relevante markttoezichtautoriteit beroepen op de individuele klachtenprocedure (art. 85). Hoewel de AI-verordening inmiddels in werking is getreden, is het nog even afwachten welke autoriteit dat in Nederland is en hoe deze bepaling het in de praktijk doet. 

 

Gelet op het feit dat het nou juist de generatieve technologie is die misleiding zo overtuigend kan maken, klinkt de AI-verordening veelbelovend. Idealiter volstaat de nieuwe wetgeving om een belangrijke hoeveelheid desinformatie rondom de verkiezingen te voorkomen. Dat is een welkome aangelegenheid, nu uit genoeg onderzoeken is gebleken dat desinformatie een acuut probleem vormt voor de democratie. Wel is het noodzakelijk dat de genoemde klachtenprocedure op orde wordt gebracht en dat de opgelegde sancties voor misleiding voldoende afschrikwekkend zijn. Helaas zullen we nog niet helemaal van het probleem af zijn. In de bovengenoemde zaak heeft het weken gekost voordat Kramer is geassocieerd met zijn daad. Goed voorstelbaar is dat een doordachte en doelgerichte crimineel met een actie als de onderhavige zou kunnen wegkomen zonder ooit gevonden te worden. Het blijft dan ook belangrijk om de digitale infrastructuur en cybersecurity te blijven verbeteren, zodat ook personen die zich niet aan de regels houden getraceerd kunnen worden. De AIVD en RDI zijn zich daar inmiddels bewust van (meer hierover in dit artikel).

AI-forum 2025/1