Terug naar overzicht

Blog

AI in oorlogsvoering: strategische innovaties en juridische uitdagingen

 

Kunstmatige intelligentie (AI) speelt een steeds grotere rol in moderne oorlogsvoering. Wat begon als een ondersteunend hulpmiddel in beeldherkenning en dataverwerking, ontwikkelt zich razendsnel tot een beslissende factor in zowel militaire operaties als psychologische beïnvloeding. AI wordt ingezet bij het analyseren van enorme hoeveelheden informatie, het ondersteunen van besluitvorming en het aansturen van wapensystemen. Maar minstens zo ingrijpend is de rol van AI in invloedsoperaties: van het verspreiden van propaganda via bots tot het genereren van geloofwaardige nepberichten die publieke opinie en steun voor oorlog kunnen beïnvloeden.

 

Militaire toepassingen

Zoals onder meer Khlaaf en West opmerken, vinden foundation models, krachtige AI-systemen die brede taken aankunnen, in hoog tempo hun weg naar militaire toepassingen via samenwerkingen tussen technologiebedrijven en overheden. Tegelijkertijd blijkt uit defensietesten dat de nauwkeurigheid van zulke systemen, bijvoorbeeld bij doelherkenning, ernstig tekort kan schieten. Wanneer een model slechts in een kwart van de gevallen correct een doel identificeert, ontstaat een groot risico op foutieve militaire acties. Dit roept vragen op over de naleving van het internationaal humanitair recht, waarin onder meer het onderscheid tussen militaire en civiele doelen centraal staat.

 

AI wordt inmiddels actief ingezet bij de uitvoering van militaire operaties. Systemen helpen bijvoorbeeld bij het detecteren van voertuigen, het identificeren van doelen en het onderscheppen van raketten of drones. Dankzij deze technologie kunnen legers sneller reageren en meerdere doelen tegelijk analyseren. Tegelijkertijd rijst de vraag wie verantwoordelijk is wanneer het systeem fouten maakt die leiden tot schade of slachtoffers.

 

Cognitieve oorlogsvoering

Een andere, minder zichtbare, maar minstens zo belangrijke dimensie is die van cognitieve oorlogsvoering. Łukasz Kamieński beschrijft hoe AI wordt gebruikt om perceptie, oordeel en gedrag te manipuleren. Door slimme inzet van desinformatie, vaak via geautomatiseerde en overtuigende berichten, proberen staten het vertrouwen in democratische instituties te ondermijnen en strategische besluitvorming bij vijanden te beïnvloeden. Open samenlevingen zijn extra kwetsbaar, juist vanwege hun transparantie en informatievrijheid. Hier volstaat het niet langer om defensief op te treden. Kamieński pleit dan ook voor bewuste inzet van cognitieve tegenstrategieën door democratieën.

 

Adversarials 

Naast de geavanceerde inzet van AI in militaire context ontstaan ook methoden om zulke systemen bewust te ondermijnen. In zijn analyse bespreekt Jonathan Kwik zogenoemde adversarials: technieken waarmee AI doelgericht wordt misleid, bijvoorbeeld via patronen op kleding of manipulatie van trainingsdata. Hij verwijst onder meer naar onderzoek van MIT, waarbij een 3D-geprinte schildpad door een AI-classificatiesysteem consequent werd herkend als een geweer. In een militaire toepassing kunnen zulke misclassificaties ernstige gevolgen hebben.

 

Deze kwetsbaarheid opent de deur naar nieuwe vormen van sabotage. Zo kunnen AI-systemen via cyberaanvallen worden beïnvloed of ‘vergiftigd’ met foute input, waardoor ze bijvoorbeeld soldaten niet meer van burgers onderscheiden. Ook het verstoren van de verbinding tussen drones en hun operators met stoorzenders blijkt in de praktijk effectief, zoals te zien in het conflict tussen Rusland en Oekraïne.

 

Juridische implicaties

De juridische consequenties van dit alles zijn groot. Wanneer een AI-systeem foutief handelt, rijst de vraag wie daarvoor verantwoordelijk is. Zoals beschreven door Jonathan Kwik wordt dit vooral ingewikkeld wanneer fouten ontstaan door misleidende input of doelgerichte manipulatie van het systeem. Daarmee rijzen vragen over aansprakelijkheid van militaire besluitvormers en over hoe zulke tactieken zich verhouden tot verboden in het oorlogsrecht, zoals perfidie of disproportioneel geweld. Volgens Kwik biedt het huidige juridische kader hier onvoldoende houvast en zijn nieuwe beoordelingsmethoden nodig om situaties als deze juridisch te kunnen duiden.

 

Tegen deze achtergrond klinkt de roep om militaire AI los te koppelen van commerciële modellen, zodat strengere eisen kunnen worden gesteld aan veiligheid, controleerbaarheid en transparantie. Daarnaast blijkt uit de literatuur dat democratische staten meer aandacht moeten besteden aan het versterken van hun weerbaarheid in cognitieve oorlogsvoering, inclusief het ontwikkelen van proportionele tegenmaatregelen. Ook is er behoefte aan juridische verduidelijking om burgers beter te beschermen tegen de risico’s van digitale manipulatie en misleiding in militaire context.

 

Afsluitend

AI verandert het karakter van oorlog: sneller, diffuser, onvoorspelbaarder. Tegelijkertijd blijven de principes van het humanitair recht overeind: bescherming van burgers, verantwoordelijkheid bij geweldstoepassing, en eerbiediging van fundamentele normen. Dat vereist juridische aanpassing aan nieuwe realiteiten, zonder fundamentele beginselen los te laten. Want in een strijd die zich niet alleen in fysieke ruimte maar ook in datastromen afspeelt, is helderheid over aansprakelijkheid en proportionaliteit urgenter dan ooit.

AI-forum 2025/2