Het 38 pagina’s tellende rapport werd opgesteld in samenwerking met de International Human Rights Clinic van Harvard Law School. Het gaat in op de problemen die zich stellen om een verantwoordelijke aan te duiden voor de acties van autonome robotwapens, en de gevolgen daarvan.
Non-verbaal
Zulke wapens bestaan nog niet, maar de technische ontwikkelingen doen wereldwijd de bezorgdheid toenemen. Autonome robotwapens, of ‘killer robots’, zouden nog een stap verder gaan dan de bestaande vanop afstand bediende drones. Ze zouden in staat zijn een doelwit te kiezen zonder nadrukkelijke menselijke controle.
“Geen aansprakelijkheid betekent geen vergoeding voor slachtoffers, geen mogelijkheid om toekomstige misdaden te ontmoedigen en geen sociale veroordeling van de verantwoordelijke”, zegt Bonnie Docherty, onderzoeker ‘Arms Division’ van Human Rights Watch. “Daarom moet dit soort wapens preventief gebannen worden.”
Door de mazen van het net
Human Rights Watch is mede-oprichter en coördinator van de ‘Campaign to Stop Killer Robots’. De internationale coalitie van meer dan 50 ngo’s roept op tot een preventief verbod op de ontwikkeling, productie en het gebruik van autonome wapens. Met dat doel wordt het rapport verspreid tijdens een internationale VN-meeting over dit soort wapens, die van 13 tot 17 april plaatsvindt in Genève.
Verantwoordelijk
Een belangrijke bezorgdheid is dat deze wapens burgerslachtoffers kunnen maken en zo de internationale mensenrechten schenden. Het gebrek aan een afdoende menselijke controle over de wapens maakt het bovendien onmogelijk iemand wettelijk verantwoordelijk te stellen voor deze illegale acties.
Indien militaire bevelhebbers of operatoren met opzet een autonoom wapen zouden gebruiken om een misdaad te begaan, kunnen ze daarvoor schuldig bevonden worden. Maar, zo zegt Human Rights Watch, in de meeste gevallen zullen ze niet in staat zijn een aanval te voorzien en/of die te stoppen, waardoor ze wellicht door de mazen van het net glippen.
Dodelijke schade
“Een autonoom robotwapen kan daden stellen die bestempeld zouden worden als oorlogsmisdaden, indien ze door een mens uitgevoerd werden”, zegt Docherty. “Zulke daden afhandelen als een ‘ongeval’, zou de dodelijke schade die ze kunnen veroorzaken bagatelliseren.”
Zelfs indien het al tot een rechtszaak zou komen, is het effect maar minimaal, stelt Human Rights Watch. “Slachtoffers zouden daardoor gecompenseerd kunnen worden, maar daarmee is er geen afschrikeffect, geen straf, en geen moreel stigma.”
Het probleem met de aansprakelijkheid is slechts een van veel vragen die robotwapens doen rijzen. In eerdere publicaties wees Human Rights Watch al op de uitdagingen om zulke wapens te laten voldoen aan het internationale humanitair recht. De ngo uitte ook al haar bezorgdheid over een mogelijke wapenrace en stelde de vraag of het ethisch is om machines in staat te stellen beslissingen te nemen over leven of dood op het strijdveld.
Door: Hln.be – Bronmateriaal: HRW