Vechten met digitale informatie

Afgelopen week voorzag de Volkskrant het interview met brigade-generaal Rietdijk van de kop ‘Generaal: Nederland kan digitale dreiging niet aan’. Nu weten we dat de vette letters boven een interview lang niet alles zeggen over de inhoud daarvan. Maar prikkelend was ditmaal ook de boodschap.

Niet alleen voelt Defensie zich kennelijk redelijk machteloos bij digitale oorlogsvoering. De brigade-generaal neemt ook een opvallend standpunt in: overheid en media moeten actief samenwerken bij de aanpak van desinformatie en nepnieuws. De overheid zou bij nieuws kunnen zeggen in hoeverre het geverifieerd is. Rietdijk: ‘Media kunnen dat bij hun berichtgeving plaatsen. Dan zouden we krachtiger staan tegen desinformatie.’ Hij geeft diverse voorbeelden van het manipuleren van samenlevingen met informatie, waaronder de berichtgeving over MH17. Vermoed wordt dat Moskou destijds heeft getracht de mening onder Nederlandse burgers over die gebeurtenis te beïnvloeden.

Hoe verontrustend nepnieuws ook is, een pact tussen overheid en media in de strijd tegen desinformatie is onwenselijk. Persvrijheid is, als onderdeel van de vrijheid van meningsuiting, verankerd in het EVRM en de Grondwet. In aanvulling garandeert de Mediawet dat publieke en commerciële omroepen zelf verantwoordelijk zijn voor de vorm en inhoud van programma’s en berichtgeving. Natuurlijk zijn er grenzen. Maar daarvoor hebben we het vertrouwde instrumentarium van het civiele en strafrecht. In het volle besef hoe gevaarlijk en kwetsbaar voor onze samenleving oorlogsvoering met behulp van informatie kan zijn: de gesuggereerde noodrem gaat te ver. Bovendien roept het talloze vragen op: is nieuws altijd wel (voor de volle 100%) verifieerbaar? Welke bronnen gebruikt de overheid voor verificatie? Hoe vermijd je als overheid de schijn van vooringenomenheid bij de keuze van de bronnen die voor de verificatie worden gebruikt? Wat als blijkt dat onvoldoende bronnen beschikbaar zijn voor de verificatie: is de default dan dat het nieuws waarschijnlijk wel onbetrouwbaar is? En welke reacties in de samenleving roep je met overheidsverificatie op? Kortom, nog afgezien van de rechtsstatelijke dimensie van de suggestie, de overheid moet haar vingers er niet aan willen branden.

Dan liever aandacht voor een andere manier van oorlogsvoering waar onlangs over werd bericht: ‘killer robots’. Dit zijn robots die niet alleen volledig autonoom ten strijde trekken, maar zich ook zonder menselijke interventie aanpassen aan de omstandigheden. Vooral dit laatste kenmerk – de zelflerende dimensie – is voor velen aanleiding tot zorgen.1 Bij militaire interventies kennen we al langer onbemande vliegtuigen die bombarderen. De ‘piloot’ bedient het wapentuig vanachter het computerscherm op een veilige locatie elders. Maar het is en blijft de mens die de beslissing neemt tot het bombardement. Overigens is die beslissing dan nog steeds geen eenvoudige. Ook op afstand, en wellicht juist vanwege die veilige afstand, vallen emotie en moraal niet uit te schakelen.

Met de komst van ‘killer robots’ schroeven we de menselijke factor bij het besluit tot interventie nog verder terug. Niet alleen de verkenning, observatie en het bombardement worden in dit geval door de drone uitgevoerd. Het computersysteem leert van eerdere missies, past zich al vechtende aan en komt daarmee naar verluid tot meer ‘zorgvuldige’ keuzes – wel/niet het bombardement uit-voeren gegeven de omstandigheden – dan de mens. Aan de hand van een groot aantal verschillende datasets – gegevens over terroristen, hun handelingen en bewegingen, mate van zekerheid over de identiteit van de vijand, de omvang van het risico op bijkomende schade – formuleert de robot het besluit tot al dan niet handelen. Natuurlijk valt het systeem altijd nog zo in te richten dat het de mens is die definitief op de knop drukt. Maar wie de indringende film Eye in the Sky heeft gezien, beseft dat iemand wel heel sterk in z’n schoenen moet staan wil hij of zij de aanval afblazen. En met de komst van ‘killer robots’ kunnen we onze blik nu ook gewoon afwenden: de mens is sowieso niet langer nodig.

Mogelijk dat de ‘killer robot’ inderdaad een meer ‘zorgvuldige’ keuze kan maken dan piloten en hun leidinggevenden dat ooit hebben kunnen doen. Maar interpreteert het systeem in die keuze dan ook – gegeven de specifieke context – het toepasselijke (humanitaire) oorlogsrecht? Te betwijfelen valt of de daarin gehanteerde terminologie voldoende eenduidig is om in systeemcode om te zetten en door het zelflerend algoritme te laten interpreteren. Zo verbiedt artikele 51 (4)b Additioneel Protocol I bij de Geneefse Conventie een ‘indiscriminate attack’. Kan een killer robot vaststellen of de aanval een te wijde – onvoorziene – uitstraling heeft om aanvaardbaar te zijn? En los van problemen bij de interpretatie van het toepasselijke recht: de ‘killer drone’ kan in verkeerde handen komen. Niet ouderwets fysiek in verkeerde handen. Nee. Zonder dat we daar erg in hebben wordt de drone op afstand gehackt, de besturing vijandelijk over-genomen of de informatie-analyse door de drone gemanipuleerd. Terugkerend naar het eerste onderwerp – nepnieuws en desinformatie – ook hier lopen we het risico dat informatie zodanig wordt gemanipuleerd dat we op het verkeerde been worden gezet.

Komende november bediscussieert de VN de mogelijkheid tot een verdrag dat de inzet van autonome wapens verbiedt. Velen betogen dat een verdrag alleen kansrijk is als de deelnemende landen zich er echt aan willen houden. En daar lijkt het vooralsnog niet op. Inderdaad, de geschiedenis heeft laten zien dat een verbod op bepaalde wapens geen garanties biedt. Maar er is meer. Van een verbod gaat ook een signaal uit. Hoe wrang en tegennatuurlijk het ook lijkt, dat signaal is dat wij oorlogsvoering zonder menselijke betrokkenheid niet moeten willen.

 

Dit Vooraf is verschenen in NJB 2017/1644, afl. 30.

 

  1. https://futureoflife.org/autonomous-weapons-open-letter-2017

 

Over de auteur(s)
Author picture
Corien Prins
Hoogleraar Recht en Informatisering