Blog
AI in oorlogsvoering: strategische innovaties en juridische uitdagingen
Redactie
Kunstmatige intelligentie (AI) speelt een steeds grotere rol in moderne oorlogsvoering. Wat begon als een ondersteunend hulpmiddel in beeldherkenning en dataverwerking, ontwikkelt zich razendsnel tot een beslissende factor in zowel militaire operaties als psychologische beïnvloeding. AI wordt ingezet bij het analyseren van enorme hoeveelheden informatie, het ondersteunen van besluitvorming en het aansturen van wapensystemen. Maar minstens zo ingrijpend is de rol van AI in invloedsoperaties: van het verspreiden van propaganda via bots tot het genereren van geloofwaardige nepberichten die publieke opinie en steun voor oorlog kunnen beïnvloeden.
Militaire toepassingen
Zoals onder meer Khlaaf en West opmerken, vinden foundation models, krachtige AI-systemen die brede taken aankunnen, in hoog tempo hun weg naar militaire toepassingen via samenwerkingen tussen technologiebedrijven en overheden. Tegelijkertijd blijkt uit defensietesten dat de nauwkeurigheid van zulke systemen, bijvoorbeeld bij doelherkenning, ernstig tekort kan schieten. Wanneer een model slechts in een kwart van de gevallen correct een doel identificeert, ontstaat een groot risico op foutieve militaire acties. Dit roept vragen op over de naleving van het internationaal humanitair recht, waarin onder meer het onderscheid tussen militaire en civiele doelen centraal staat.
AI wordt inmiddels actief ingezet bij de uitvoering van militaire operaties. Systemen helpen bijvoorbeeld bij het detecteren van voertuigen, het identificeren van doelen en het onderscheppen van raketten of drones. Dankzij deze technologie kunnen legers sneller reageren en meerdere doelen tegelijk analyseren. Tegelijkertijd rijst de vraag wie verantwoordelijk is wanneer het systeem fouten maakt die leiden tot schade of slachtoffers.
Cognitieve oorlogsvoering
Een andere, minder zichtbare, maar minstens zo belangrijke dimensie is die van cognitieve oorlogsvoering. Łukasz Kamieński beschrijft hoe AI wordt gebruikt om perceptie, oordeel en gedrag te manipuleren. Door slimme inzet van desinformatie, vaak via geautomatiseerde en overtuigende berichten, proberen staten het vertrouwen in democratische instituties te ondermijnen en strategische besluitvorming bij vijanden te beïnvloeden. Open samenlevingen zijn extra kwetsbaar, juist vanwege hun transparantie en informatievrijheid. Hier volstaat het niet langer om defensief op te treden. Kamieński pleit dan ook voor bewuste inzet van cognitieve tegenstrategieën door democratieën.
Adversarials
Naast de geavanceerde inzet van AI in militaire context ontstaan ook methoden om zulke systemen bewust te ondermijnen. In zijn analyse bespreekt Jonathan Kwik zogenoemde adversarials: technieken waarmee AI doelgericht wordt misleid, bijvoorbeeld via patronen op kleding of manipulatie van trainingsdata. Hij verwijst onder meer naar onderzoek van MIT, waarbij een 3D-geprinte schildpad door een AI-classificatiesysteem consequent werd herkend als een geweer. In een militaire toepassing kunnen zulke misclassificaties ernstige gevolgen hebben.
Deze kwetsbaarheid opent de deur naar nieuwe vormen van sabotage. Zo kunnen AI-systemen via cyberaanvallen worden beïnvloed of ‘vergiftigd’ met foute input, waardoor ze bijvoorbeeld soldaten niet meer van burgers onderscheiden. Ook het verstoren van de verbinding tussen drones en hun operators met stoorzenders blijkt in de praktijk effectief, zoals te zien in het conflict tussen Rusland en Oekraïne.
Juridische implicaties
De juridische consequenties van dit alles zijn groot. Wanneer een AI-systeem foutief handelt, rijst de vraag wie daarvoor verantwoordelijk is. Zoals beschreven door Jonathan Kwik wordt dit vooral ingewikkeld wanneer fouten ontstaan door misleidende input of doelgerichte manipulatie van het systeem. Daarmee rijzen vragen over aansprakelijkheid van militaire besluitvormers en over hoe zulke tactieken zich verhouden tot verboden in het oorlogsrecht, zoals perfidie of disproportioneel geweld. Volgens Kwik biedt het huidige juridische kader hier onvoldoende houvast en zijn nieuwe beoordelingsmethoden nodig om situaties als deze juridisch te kunnen duiden.
Tegen deze achtergrond klinkt de roep om militaire AI los te koppelen van commerciële modellen, zodat strengere eisen kunnen worden gesteld aan veiligheid, controleerbaarheid en transparantie. Daarnaast blijkt uit de literatuur dat democratische staten meer aandacht moeten besteden aan het versterken van hun weerbaarheid in cognitieve oorlogsvoering, inclusief het ontwikkelen van proportionele tegenmaatregelen. Ook is er behoefte aan juridische verduidelijking om burgers beter te beschermen tegen de risico’s van digitale manipulatie en misleiding in militaire context.
Afsluitend
AI verandert het karakter van oorlog: sneller, diffuser, onvoorspelbaarder. Tegelijkertijd blijven de principes van het humanitair recht overeind: bescherming van burgers, verantwoordelijkheid bij geweldstoepassing, en eerbiediging van fundamentele normen. Dat vereist juridische aanpassing aan nieuwe realiteiten, zonder fundamentele beginselen los te laten. Want in een strijd die zich niet alleen in fysieke ruimte maar ook in datastromen afspeelt, is helderheid over aansprakelijkheid en proportionaliteit urgenter dan ooit.
AI-forum 2025/2
Meta’s AI-richtlijnen op ramkoers met ethiek en recht
De onthulling van een intern document bij Meta heeft wereldwijd opschudding veroorzaakt. Uit de 200 pagina’s tellende GenAI: Content Risk Standards, ingezien door Reuters, blijkt dat Meta’s AI-chatbots mochten deelnemen aan “romantische of sensuel...
Generatieve AI en auteursrecht: Europese koerswijziging op komst? Het parlementaire rapport in een notendop
De explosieve opkomst van generatieve AI heeft veel vragen opgeroepen binnen het auteursrecht. Terwijl ontwikkelaars van grote taal- en beeldmodellen hun systemen trainen op miljoenen beschermde werken, worstelen rechthebbenden met onduidelijke re...
Meta (opnieuw) aangeklaagd voor illegale AI-training, door grote porno-exploitanten
De juridische strijd rond AI-training bereikt een nieuwe piek. In een explosieve aanklacht beschuldigen twee gerenommeerde Amerikaanse pornostudio’s Meta van grootschalige auteursrechtinbreuk. Zij stellen dat Meta sinds 2018 meer dan 2.396 video’s...
In hoeverre moet generatieve stijlnabootsing worden afgeremd met “guardrails”?
De opkomst van generatieve AI heeft een breed spectrum aan creatieve toepassingen mogelijk gemaakt. Of het nu gaat om tekst, beeld, video of muziek: de modellen worden steeds krachtiger. Tegelijkertijd staat de juridische toetsing aan bijvoorbeeld...
Meester of machine? Professionele autonomie in het tijdperk van AI
1. Introductie
Kunstmatige intelligentie (AI) beïnvloedt nagenoeg alle sectoren, waaronder kennisintensieve beroepen.[1] Dit geldt ook voor de juridische sector, en met name de advocatuur. AI verwijst in hoofdzaak naar het vermogen van machines o...
Meta’s AI-app leidt tot onbedoelde publicatie van privégesprekken
De nieuwe standalone AI-app van Meta heeft veel stof doen opwaaien. Gebruikers van de app deelden onbedoeld persoonlijke gesprekken met de chatbot op een openbare feed. De situatie heeft vragen opgeroepen over Meta’s interface en de bescherming va...
De verboden metafoor: AI en antropomorf taalgebruik
Inleiding
Op het snijvlak van auteursrecht & AI is regelmatig (felle) kritiek te lezen op ‘antropomorfiserend’ taalgebruik. Wanneer we als juristen schrijven over AI is het volgens velen onwenselijk dat daarbij ‘mensachtige’ termen worden gebruik...
AI-training is meestal inbreuk, zegt deze Amerikaanse rechter: “Indirect substitution is still substitution”
Voor de tweede keer deze week heeft een Amerikaanse rechter zich uitgesproken over de vraag of AI-training onder fair use valt. In Kadrey v. Meta oordeelt rechter Vince Chhabria dat het gebruik van auteursrechtelijk beschermde boeken voor het trai...
AI en de rechter, of de technificatie van de rechtspraak
Inleiding
Volgens de onlangs verschenen officiële Rechtspraakstrategie voor Artificiële Intelligentie is AI een omnipresent systeemtechnologie waar ‘de rechtspraak zich hoe dan ook toe zal moeten verhouden.’ Opvallend genoeg verscheen dit bericht...
Overzicht: AI en auteursrecht in de VS (ontwikkelingen van 1–7 september 2025)
De afgelopen week stond in het teken van drie grote juridische ontwikkelingen op het snijvlak van AI en auteursrecht in de Verenigde Staten. Van Hollywood-studio’s die generatieve beeldmodellen aanklagen, tot een miljardenschikking van Anthropic: ...
