Autonome wapensystemen

Data-gedreven kunstmatige intelligentie (AI) heeft het afgelopen decennium tot ingrijpende nieuwe toepassingen geleid, waaronder Chat-GPT. In het militaire domein wordt vaak gezegd dat AI onmisbaar zal worden in het toekomstige slagveld, zowel voor het verzamelen van inlichtingen als het uitvoeren van aanvallen. De internationale gemeenschap heeft bevestigd dat alle militaire AI-systemen conform het humanitair oorlogsrecht (HOR) ingezet moeten worden, maar het toepassen van het recht op nieuwe technologieën is niet altijd eenvoudig – zoals discussies rond cyberwapens ook hebben doen blijken. De meeste discussies rond deze zogenaamde autonome wapensystemen (AWS) focaliseren zich op het conceptuele niveau: bijvoorbeeld hoe men AWS kan ontwikkelen die HOR-compatibel zijn, of dit überhaupt mogelijk is, en hoe Staten hun AWS moeten testen en valideren.

In tegenstelling hiermee kijkt Jonathan Kwik in zijn proefschrift naar het operationele niveau, en onderzoekt hoe de eindgebruikers van de technologie – commandanten – command and control moeten handhaven wanneer ze aanvallen uitvoeren met AWS. De situatie op het slagveld is niet te vergelijken met die in testlaboratoria, universiteiten of strategisch opperbevel: onder tijdsdruk en met beperkte informatie moeten commandanten moeilijke beslissingen nemen betreft de inzet van wapens. In het geval van AWS zijn dit wapens die technisch gecompliceerd zijn, zich onvoorzien kunnen gedragen, en contra-intuïtieve kwetsbaarheden kunnen hebben. Een theoretisch kader dat systematisch de taken, verplichtingen en risico’s uiteenzet van AWS-inzet is derhalve van groot belang voor toekomstige eindgebruikers.

Tegen deze achtergrond benadert dit proefschrift het AWS-vraagstuk vanuit het perspectief van de commandant, en onderzoekt het hoe deze commandant d.m.v. bestaande doelbestrijdingskaders (waaronder de targeting cycle) er zorg voor kan dragen dat het inzet van hun AWS verloopt volgens HOR-regels met betrekking tot het verloop van vijandelijkheden.
Daarbij buigt dit proefschrift zich over de volgende punten:
• Hoe als commandant controle kan behouden over AWS gedurende de volledige targeting cycle;
• Hoe een commandant de unieke kenmerken van moderne AI moet analyseren, en daarmee geïnformeerde beslissingen kan maken betreft de inzet van AWS;
• Hoe regels in het HOR (zoals het verbod op niet-onderscheidende aanvallen, de proportionaliteitsregel en de opschortingsregel) te interpreteren en toe te passen op AWS;
• Wat voor nieuwe voorzorgsmaatregelen kunnen worden genomen dankzij de unieke kenmerken van AI-systemen;
• Wanneer het operationeel wenselijk is een AWS te gebruiken, in plaats van conventionele alternatieven; en
• Onder welke omstandigheden strafrechtelijke verantwoording mogelijk is voor schade toegebracht door inzet van AWS.

De belangrijkste conclusie van deze studie is dat bestaand HOR voldoende is om AWS-aanvallen te reguleren, maar dat teleologische interpretatie soms nodig is om deze regels toepasbaar te maken in een nieuwe technologische context, zoals die van moderne AI. Om dit laatste mogelijk te maken biedt dit onderzoek zowel een diepgaande theoretische discussie met nieuwe juridische inzichten en aanbevelingen voor academici, juristen en wetgevers; als efficiënte stroomdiagrammen die direct aangenomen kunnen worden door commandanten, militaire organisaties en beleidsmakers om het gebruik van AWS conform het HOR te waarborgen.

Meer informatie: www.uva.nl

Promotoren: prof. dr. Tom van Engers; prof. Terry Gill; prof. dr. Harmen van der Wilt.


Jonathan Kwik
Lawfully using autonomous weapon technologies: A theoretical and operational perspective

Over de auteur(s)