Blog
AI in oorlogsvoering: strategische innovaties en juridische uitdagingen
Redactie
Kunstmatige intelligentie (AI) speelt een steeds grotere rol in moderne oorlogsvoering. Wat begon als een ondersteunend hulpmiddel in beeldherkenning en dataverwerking, ontwikkelt zich razendsnel tot een beslissende factor in zowel militaire operaties als psychologische beïnvloeding. AI wordt ingezet bij het analyseren van enorme hoeveelheden informatie, het ondersteunen van besluitvorming en het aansturen van wapensystemen. Maar minstens zo ingrijpend is de rol van AI in invloedsoperaties: van het verspreiden van propaganda via bots tot het genereren van geloofwaardige nepberichten die publieke opinie en steun voor oorlog kunnen beïnvloeden.
Militaire toepassingen
Zoals onder meer Khlaaf en West opmerken, vinden foundation models, krachtige AI-systemen die brede taken aankunnen, in hoog tempo hun weg naar militaire toepassingen via samenwerkingen tussen technologiebedrijven en overheden. Tegelijkertijd blijkt uit defensietesten dat de nauwkeurigheid van zulke systemen, bijvoorbeeld bij doelherkenning, ernstig tekort kan schieten. Wanneer een model slechts in een kwart van de gevallen correct een doel identificeert, ontstaat een groot risico op foutieve militaire acties. Dit roept vragen op over de naleving van het internationaal humanitair recht, waarin onder meer het onderscheid tussen militaire en civiele doelen centraal staat.
AI wordt inmiddels actief ingezet bij de uitvoering van militaire operaties. Systemen helpen bijvoorbeeld bij het detecteren van voertuigen, het identificeren van doelen en het onderscheppen van raketten of drones. Dankzij deze technologie kunnen legers sneller reageren en meerdere doelen tegelijk analyseren. Tegelijkertijd rijst de vraag wie verantwoordelijk is wanneer het systeem fouten maakt die leiden tot schade of slachtoffers.
Cognitieve oorlogsvoering
Een andere, minder zichtbare, maar minstens zo belangrijke dimensie is die van cognitieve oorlogsvoering. Łukasz Kamieński beschrijft hoe AI wordt gebruikt om perceptie, oordeel en gedrag te manipuleren. Door slimme inzet van desinformatie, vaak via geautomatiseerde en overtuigende berichten, proberen staten het vertrouwen in democratische instituties te ondermijnen en strategische besluitvorming bij vijanden te beïnvloeden. Open samenlevingen zijn extra kwetsbaar, juist vanwege hun transparantie en informatievrijheid. Hier volstaat het niet langer om defensief op te treden. Kamieński pleit dan ook voor bewuste inzet van cognitieve tegenstrategieën door democratieën.
Adversarials
Naast de geavanceerde inzet van AI in militaire context ontstaan ook methoden om zulke systemen bewust te ondermijnen. In zijn analyse bespreekt Jonathan Kwik zogenoemde adversarials: technieken waarmee AI doelgericht wordt misleid, bijvoorbeeld via patronen op kleding of manipulatie van trainingsdata. Hij verwijst onder meer naar onderzoek van MIT, waarbij een 3D-geprinte schildpad door een AI-classificatiesysteem consequent werd herkend als een geweer. In een militaire toepassing kunnen zulke misclassificaties ernstige gevolgen hebben.
Deze kwetsbaarheid opent de deur naar nieuwe vormen van sabotage. Zo kunnen AI-systemen via cyberaanvallen worden beïnvloed of ‘vergiftigd’ met foute input, waardoor ze bijvoorbeeld soldaten niet meer van burgers onderscheiden. Ook het verstoren van de verbinding tussen drones en hun operators met stoorzenders blijkt in de praktijk effectief, zoals te zien in het conflict tussen Rusland en Oekraïne.
Juridische implicaties
De juridische consequenties van dit alles zijn groot. Wanneer een AI-systeem foutief handelt, rijst de vraag wie daarvoor verantwoordelijk is. Zoals beschreven door Jonathan Kwik wordt dit vooral ingewikkeld wanneer fouten ontstaan door misleidende input of doelgerichte manipulatie van het systeem. Daarmee rijzen vragen over aansprakelijkheid van militaire besluitvormers en over hoe zulke tactieken zich verhouden tot verboden in het oorlogsrecht, zoals perfidie of disproportioneel geweld. Volgens Kwik biedt het huidige juridische kader hier onvoldoende houvast en zijn nieuwe beoordelingsmethoden nodig om situaties als deze juridisch te kunnen duiden.
Tegen deze achtergrond klinkt de roep om militaire AI los te koppelen van commerciële modellen, zodat strengere eisen kunnen worden gesteld aan veiligheid, controleerbaarheid en transparantie. Daarnaast blijkt uit de literatuur dat democratische staten meer aandacht moeten besteden aan het versterken van hun weerbaarheid in cognitieve oorlogsvoering, inclusief het ontwikkelen van proportionele tegenmaatregelen. Ook is er behoefte aan juridische verduidelijking om burgers beter te beschermen tegen de risico’s van digitale manipulatie en misleiding in militaire context.
Afsluitend
AI verandert het karakter van oorlog: sneller, diffuser, onvoorspelbaarder. Tegelijkertijd blijven de principes van het humanitair recht overeind: bescherming van burgers, verantwoordelijkheid bij geweldstoepassing, en eerbiediging van fundamentele normen. Dat vereist juridische aanpassing aan nieuwe realiteiten, zonder fundamentele beginselen los te laten. Want in een strijd die zich niet alleen in fysieke ruimte maar ook in datastromen afspeelt, is helderheid over aansprakelijkheid en proportionaliteit urgenter dan ooit.
AI-forum 2025/2
Het doel heiligt de middelen – Anthropic’s nieuwe AI grijpt naar chantage
Anthropic heeft met Claude Opus 4 een van de meest geavanceerde AI-modellen tot nu toe gelanceerd. Maar bij interne veiligheidstests bleek het model bijzonder doortastend, zelfs manipulatief. Deze blog bespreekt hoe Claude Opus 4 overging tot chan...
Wanneer AI leeft: juridische en ethische vraagstukken rond biohybride AI
Inleiding
Kunstmatige intelligentie ontwikkelt zich snel, onder andere op het snijvlak van technologie en biologie. Biohybride AI-systemen, oftewel AI die draait op levende cellen, zetten niet alleen technologische conventies op hun kop, maar dag...
Google’s AI-summaries: innovatie of roofbouw? De laatste juridische ontwikkelingen
De introductie van AI-gegenereerde samenvattingen bovenaan zoekresultaten markeert een belangrijke verschuiving in hoe online informatie wordt geconsumeerd. Waar Google’s AI Overviews miljoenen gebruikers helpt om sneller antwoorden te vinden, roe...
AI in kinderspeelgoed: Mattel en OpenAI kondigen nieuwe samenwerking aan
Mattel en OpenAI hebben een strategische samenwerking aangekondigd om AI te integreren in speelgoed voor kinderen. Het nieuws roept belangrijke juridische en maatschappelijke vragen op. In dit artikel bespreken we de aankondiging, de eerste reacti...
Meta’s AI-app leidt tot onbedoelde publicatie van privégesprekken
De nieuwe standalone AI-app van Meta heeft veel stof doen opwaaien. Gebruikers van de app deelden onbedoeld persoonlijke gesprekken met de chatbot op een openbare feed. De situatie heeft vragen opgeroepen over Meta’s interface en de bescherming va...
Meta gaat Europese gebruikersdata gebruiken voor AI-training
Meta heeft aangekondigd dat zij openbare data van volwassen gebruikers in de EU wil inzetten om haar AI-systemen te verbeteren. Het gaat om publieke posts en reacties op platforms als Facebook en Instagram, en ook om vragen die gebruikers stellen ...
Otter.ai aangeklaagd om AI-tool die automatisch Zoom-, Meet- en Teams-meetings opneemt
De opmars van AI-notetakers en slimme brillen laat zien hoe snel kunstmatige intelligentie zich in het dagelijks leven nestelt. Wat begon als een handig hulpmiddel om vergaderingen samen te vatten, is inmiddels uitgegroeid tot een markt waarin app...
OpenAI wijzigt koers: non-profit behoudt controle
OpenAI heeft aangekondigd de plannen voor de overgang naar een winstgericht bedrijfsmodel deels terug te draaien. Het bedrijf is van plan zijn for-profit tak om te zetten in een public benefit corporation (PBC), maar de volledige zeggenschap blijf...
