Zeven argumenten tegen een verbod op killer robots weerlegd | Pax Christi Vlaanderen

Zeven argumenten tegen een verbod op killer robots weerlegd

Pax Christi Vlaanderen is lid van de International Campaign to Stop Killer Robots, een coalitie van 64 organisaties uit 28 landen die pleiten voor een preventief verbod op killer robots. In deze briefing wordt ingegaan op zeven vaak gehoorde argumenten tegen zo’n preventief verbod.

#1 ‘Killer robots zijn misschien wel beter in staat om het internationaal recht te respecteren als mensen’

Tegenstanders van een verbodsverdrag stellen dat een verbod[i] op killer robots geen rekening houdt met de ‘vermoedelijke’ technologische ontwikkelingen in het domein van artificiële intelligentie. Ze zeggen dat het “theoretisch mogelijk is” dat killer robots ooit in staat zijn om de internationaalrechtelijke principes van onderscheid en proportionaliteit te respecteren, terwijl killer robots geen last zouden hebben van menselijke emoties als wraak of stress.

Het probleem is dat de tegenstanders van een verbod deze claim niet hard kunnen maken. Ze beperken zich tot een vage voorspelling dat dergelijke technologische ontwikkelingen ooit, in theorie, mogelijk zijn maar reiken geen specifieke redenen aan op welke manier dit in de praktijk zal gebeuren. Het lijkt nochtans onwaarschijnlijk dat killer robots ooit zo geprogrammeerd kunnen worden dat ze in alle omstandigheden het internationaal recht respecteren. In de hedendaagse context van oorlogsvoering is het onderscheid tussen burgers en militairen immers veel onduidelijker geworden. Dergelijk oordeel vereist een kwalitatieve menselijke interpretatie van subtiele handelingen als gezichtsuitdrukkingen en lichaamstaal in een dynamische en snel veranderende context. Het lijkt onmogelijk om machines op voorhand zo te programmeren dat ze elke mogelijke menselijke expressie en handeling in elke mogelijke context correct kunnen interpreteren. “No matter how much care was taken, a programmer or manufacturer would be unlikely to anticipate a machine’s reaction to shifting and unforeseeable conditions in every scenario”, stelt Human Rights Watch.

Dezelfde bedenking kan gemaakt worden voor het respecteren van het proportionaliteitsprincipe. Killer robots zouden hiervoor het militaire voordeel van een bepaalde actie moeten kunnen inschatten. Zo’n inschatting moet steeds op een case-by-case basis gebeuren. Het is onduidelijk hoe de programmeur een killer robot zodanig kan instellen dat de machine rekening kan houden met het oneindig aantal ontwikkelingen of complicaties die op het terrein kunnen optreden bij elke specifieke inzet van een killer robot.

Dergelijke scepsis wordt breed gedeeld onder experts. Het Internationale Rode Kruis stelde al in 2011 dat “de ontwikkeling van een waarlijk autonoom wapensysteem dat het internationaal humanitair recht kan implementeren een monumentale programmeeruitdaging stelt die misschien wel onmogelijk blijkt te zijn.” Een open brief uit 2013 van 272 ingenieurs, informatici, robotici en experts op het gebied van artificiële intelligentie liet eenzelfde geluid horen. “De technologie van autonome robotwapens zit vol beperkingen en onbekende toekomstige risico’s. Er is geen duidelijk wetenschappelijk bewijs dat zo’n wapens in staat zijn – of in de voorzienbare toekomst in staat zullen zijn – tot een accurate identificering van doelwitten, voldoende situationeel bewustzijn hebben of in staat zijn beslissingen te nemen over het proportionele gebruik van geweld’”, aldus de 272 experts.

Omwille van de enorme humanitaire bezorgheden en de onzekerheid over technologische mogelijkheden om hieraan tegemoet te komen, moet de internationale gemeenschap uitgaan van het voorzorgsprincipe (“precautionary principle”), dat stelt dat ‘where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures’.

#2 ‘Een verbod verhindert de ontwikkeling van nuttige toepassingen van geautomatiseerde technologie’

Tegenstanders waarschuwen dat een preventief verbod op killer robots een negatieve impact heeft op de ontwikkeling van waardevolle volledige automatische technologische toepassingen, zoals zelfrijdende auto’s.

Een verbod op killer robots zou echter niet van toepassing zijn op volledig autonome niet` wapentechnologieën, noch op semiautonome wapensystemen zoals gewapende drones. Een verbod zou enkel betrekking hebben op de ontwikkeling van technologieën die exclusief gebruikt kunnen worden voor volledige autonome wapensystemen, of technologieën die doelbewust worden ontwikkeld voor gebruik in volledige autonome wapentoepassingen.

#3 ‘Regulering is effectiever dan een verbod’

Verschillende tegenstanders van een verbod pleiten voor verdere regulering van killer robots, in plaats van een omvattend preventief verbod. Een juridisch bindend verbod biedt echter verschillende voordelen ten opzichte van (niet`afdwingbare) formele of informele afspraken. Een verbod is omvattender omdat het ook van toepassing is op de ontwikkelings` en productiefase, terwijl de geopperde alternatieven enkel het gebruik van killer robots zou reguleren. Doordat een regulerend kader de ontwikkeling van killer robots toelaat, zet het ook de deur open voor misbruik, foutief gebruik en accidenteel gebruik. Een juridisch bindend verdrag is bovendien beter afdwingbaar als een regulerend kader, terwijl de stigmatisering die van een verbod uitgaat ook een belangrijke factor is om landen te doen afzien van de verwerving van killer robots. Een verbod is daardoor een effectievere anti` proliferatiemaatregel.

#4 ‘Het bestaande internationaal recht volstaat om killer robots te reguleren’

Tegenstanders van een verbod beweren dat het huidige internationale humanitaire recht (IHL) volstaat om killer robots te reguleren, en dat er dus geen nood is aan nieuwe internationale wetgeving.

Een verbod is echter nodig om elke vorm van twijfel over de onverenigbaarheid van killer robots met internationaalrechtelijke principes (onderscheid en proportionaliteit) te verduidelijken. Een expliciet verbod zorgt voor gestandaardiseerde regels en sluit de ruimte voor creatieve interpretaties van deze principes. Een verbod is daarnaast van toepassing op de ontwikkeling en productie van killer robots, terwijl het huidige IHL`kader enkel van toepassing is op de inzet en het gebruik van dergelijke wapensystemen. Een verbod op killer robots kan daarnaast antwoorden bieden op de vraag wie verantwoordelijk gehouden kan worden voor de foutieve inzet van killer robots. Het bestaande kader vertrekt immers vanuit de redenering dat een menselijk individu bepaalde handelingen stelt, en komt niet tegemoet aan de accountability gap die optreedt bij killer robots.

De afgelopen decennia werden bovendien verschillende verbodsverdragen ontwikkeld voor specifieke wapens, zoals clustermunitie, antipersoonsmijnen, verblindende lasers, chemische wapens, biologische wapens en kernwapens. Dit als aanvulling op en als versterking van het bestaande IHL` kader.

#5 ‘De bestaande toetsingsmechanismen voor nieuwe wapens volstaan’

Tegenstanders wijzen er op dat bestaande verdragen al mechanismen bevatten die bepalen dat nieuwe wapens een juridische “check” moeten doorstaan vooraleer ze ontworpen, ontwikkeld en verworven kunnen worden. Dergelijke “article 36 reviews” zijn nuttig en belangrijk, maar volstaan niet om een halt toe te roepen tegen de gevaren van killer robots. Het aantal landen dat dergelijke reviews uitvoert is beperkt (minder dan 30) en er bestaan geen algemeen aanvaarde standaarden voor de uitvoering van zo’n review.

Er wordt hierbij bovendien enkel nagegaan of het nieuwe wapen in overeenstemming is met het internationaal humanitair recht, terwijl niet wordt nagegaan of het nieuwe wapen ook in overeenstemming is met de internationale mensenrechten (dat van toepassing is op situaties buiten een gewapend conflict, zoals ordehandhaving). “Article 36 reviews” baden daarnaast in een niet` transparante sfeer van geheimzinnigheid, waardoor het quasi onmogelijk is om het hele proces onafhankelijk te monitoren. Zonder de druk die zo’n onafhankelijke monitoring genereert, hebben individuele staten weinig incentives om strikte reviews uit te voeren.

#6 ‘Een verbod op killer robots is prematuur en doet de militaire voordelen van deze wapensystemen teniet’

Tegenstanders benadrukken dat volledig autonome wapensystemen belangrijke militaire voordelen bieden. Dergelijke wapensystemen zouden preciezer werken, sneller data kunnen verwerken dan andere systemen en de noodzaak om soldaten in te zetten verminderen (waardoor het gevaar op eigen casualties vermindert).

Semiautonome wapensystemen, zoals gewapende drones[ii], bieden echter dezelfde voordelen terwijl ze wél menselijke controle toelaten bij de identificatie en aanvallen van een doelwit. De “militaire voordelen” van killer robots zijn bovendien tijdelijk van aard, aangezien het risico op een internationale wapenwedloop of de verwerving van killer robots door niet`statelijke (terroristische) actoren reëel is. ‘If any major military power pushes ahead with artificial intelligence weapon development, a global arms race is virtually inevitable, and the endpoint of this technological trajectory is obvious: autonomous weapons will become the Kalashnikovs of tomorrow’, stelden meer dan 3.000 experts in robotica en artificiële intelligentie in juli 2015. Van zodra killer robots op grote schaal geproduceerd worden door verschillende actoren, vervalt het tijdelijke militaire voordeel dat ze bieden.

#7 ‘Het gebruik van killer robots kan beperkt worden tot specifieke situaties’

Critici van een verbod op killer robots stellen dat het gebruik van dergelijke wapensystemen beperkt kan worden tot een aantal specifieke situaties. In dergelijke scenario’s (zoals het aanvallen van militaire doelwitten in de woestijn, de zee, het luchtruim of in de ruimte) zou voldaan kunnen worden aan het internationaal recht, aangezien burgers zich veraf bevinden van het gebied waar killer robots worden ingezet.

Het gebruik van wapensystemen blijft echter zelden beperkt tot de beperkte scenario’s waarvoor ze aanvankelijk ontwikkeld worden. Zelfs als een bepaalde actor killer robots initieel zou ontwikkelen om ze enkel in te zetten in de woestijn, is er geen enkele belemmering om het gebruik van deze wapensystemen later uit te breiden naar andere scenario’s.

 

5 december 2017

Context

Op 6 december 2017 organiseerde de Kamercommissie Landsverdediging een hoorzitting over volledig autonome wapensystemen die zonder betekenisvolle menselijke controle een doelwit kunnen selecteren en doden. 88 Belgische robotici en AI-experts riepen daarom in een open brief de Belgische regering op om een nationaal en internationaal verbod in te stellen op ‘killer robots’. De oproep van Belgische wetenschappers volgde op vergelijkbare initiatieven in Canada en Australië. In juli 2015 riepen ook al meer dan 3.000 wetenschappers op tot een verbod, terwijl in augustus 2017 116 CEO’s van robotica- en AI-bedrijven (onder wie Elon Musk) zich uitspraken tegen killer robots.


[i] Deze briefing is hoofdzakelijk gebaseerd op een rapport Making the Case - The Dangers of Killer Robots and the Need for a Preemptive Banvan Human Rights Watch, de coördinator van de International Campaign to Stop Killer Robots.

[ii] De regulering van de inzet van gewapende drones brengt ook belangrijke bezorgdheden met zich mee. Deze vallen echter buiten de reikwijdte van deze bespreking. Zie hiervoor het European Forum on Armed Drones.