Autonome wapens: een tweesnijdend zwaard
De huidige discussie rond autonome wapens kent zijn voor- en tegenstanders. Autonome wapens bieden onmiskenbaar een aantal militaire voordelen. Ze kunnen onbereikbare of te gevaarlijke locaties voor de mens toegankelijk maken, beschikken over een sneller reactievermogen dan mensen, kunnen objecten waarnemen die buiten het bereik van het menselijk oog vallen (en bijgevolg met een grotere precisie ageren) reduceren de rol van menselijke fouten en laten toe dat militairen vanop een veilige afstand kunnen opereren. Anderzijds plaatsen ze de mens voor een heel aantal juridische en morele uitdagingen. Zijn autonome wapens wel verenigbaar met het internationaal humanitair recht(IHR)? Kan een machine het onderscheid maken tussen burgers en civiele objecten enerzijds en strijders en militaire objecten anderzijds? Kan een machine de afweging maken tussen het beoogde militaire voordeel en de nevenschade die daarmee gepaard zal gaan? Indien een schending van IHR het gevolg is van het gebruik van autonome wapens, wie zal dan voor deze handeling aansprakelijk zijn? Naast de juridische vragen, werpt ook de morele kwestie om te beslissen over leven en dood van een mens zich op. Kan zo’n ingewikkeld moreel dilemma wel op een bevredigende wijze worden opgelost door een machine?
Gradatie van het autonoom karakter
Het Internationale Rode Kruiscomité hanteert de volgende definitie van autonome wapens: "Elk wapensysteem met een autonomie in zijn kritieke functies, zoals een wapen dat doelwitten kan selecteren (zoeken naar, detecteren, identificeren, opsporen of selecteren) en aanvallen (gebruik van geweld tegen, neutraliseren, beschadigen, vernietigen) zonder enige menselijke tussenkomst”. Voor de beoordeling van de legaliteit van een autonoom wapen moet men dus kijken naar de graad van autonomie. Deze kan variëren van teleoperatie, i.e. de bediening op afstand van een machine (men denke aan klassieke drones, ontmijningsrobots, e.d.) , naar semi-autonomie, i.e. het overdragen van bepaalde taken aan een computersysteem (bv. de besturing van een vliegtuig), tot uiteindelijk volledige autonomie, waarbij een machine volledig autonoom handelt zonder enige menselijke interventie.
In de wapentechnologie bestaan er vooral wapens op niveau van teleoperatie en semi-autonomie. Aangezien artificiële intelligentie zich nog volop in ontwikkelingsfase bevindt, zijn volledig autonome systemen vooralsnog toekomstbeeld. Toch moeten we ons nu reeds afvragen of het ontwikkelen van volledig autonome wapens wel wenselijk is. Behouden we niet beter steeds een zekere mate van menselijke controle over wapens en over welke aspecten van militair handelen is het wenselijk de controle te behouden?
Standpunt Rode Kruis
Opdat het internationaal humanitair recht zou worden gerespecteerd en tegemoet wordt gekomen aan ethische bezwaren, stelt het Rode Kruis dat de menselijke controle over wapensystemen behouden dient te blijven in de kritieke functies van het selecteren en aanvallen van doelwitten. Vormen van autonomie in andere functies, zoals navigatie of beweging, zijn minder relevant. Het is de link tussen een menselijke intentie om geweld te gebruiken en de machinale uitvoering van deze intentie die niet mag worden doorbroken. We zetten hiervoor de redenen uiteen.
De regels van het internationaal humanitair recht toepassen is geen juist of fout analyse dat in een soort wiskundig algoritme gegoten kan worden. Het plannen en uitvoeren van een aanval vraagt een bepaalde interpretatie van de rechtsregels. De mate van menselijke controle over wapensystemen zou dan ook de maatstaf moeten zijn in de discussie. Het zijn immers mensen – en geen machines, computerprogramma’s of wapensystemen – die de wet toepassen en verplicht zijn om deze te respecteren.
Tevens sterk gelinkt aan het wegvallen van menselijke controle over een wapen, is de vraag van toerekenbaarheid en aansprakelijkheid van een militaire handeling. Een computeralgoritme kan onmogelijk (juridisch en moreel) verantwoordelijk worden gesteld voor het schenden van de regels van het IHR. En dan stelt zich de vraag wie wel aansprakelijk kan worden gesteld: de ontwikkelaar, de bevelhebber, of de operator die het wapen heeft geactiveerd?
Ten slotte, dient ook gewezen te worden op het onvoorspelbaar karakter van autonome wapens, zeker rekening houdende met de snelle ontwikkeling van artificiële intelligentie. Men kan immers niet langer het tijdstip, de plaats en reden voor een aanval voorspellen, aangezien een autonoom wapen zelf haar doelwit bepaalt en vervolgens de beslissing neemt al dan niet aan te vallen.
Het Rode Kruis roept Staten dan ook op om zich te buigen over de vraag wat juist de invulling dient te zijn van deze menselijke controle (type en graad) en wijst hierbij naar artikel 36 van het Eerste Aanvullende Protocol van 1977 inzake de verplichting tot analyse van nieuwe wapens naar hun conformiteit met het internationaal humanitair recht.
Dit IHR-bericht is mede geschreven door stagiaire IHR Prisila Shala .
Meer artikels van deze expert