Deze zomer publiceerden veertien ministeries inventarisaties van hoog-risico AI-systemen en impactvolle algoritmes in het Nationaal Algoritmeregister. Ongeveer 3,5% van de 370 geïnventariseerde algoritmes is geclassificeerd als een hoog-risico AI-systeem. Dit ligt ver onder de schatting van de Europese Commissie, die verwacht dat circa 15% van de algoritmische systemen in deze categorie valt. Dat schrijft de stichting Algorithm Audit in een bericht van 26 augustus 2025.

Het is onduidelijk of de inventarisaties op een gestructureerde en consistente manier zijn uitgevoerd. Dit roept volgens Algorithm Audit vragen op over de juistheid en volledigheid van zowel de identificatie als de risicoclassificatie van AI-systemen. Een aantal conclusies uit de analyse van Algorithm Audit:

  • Monocam van de Nederlandse politie: gepubliceerd als ‘hoog-impact algoritme’ in het Algoritmeregister in plaats van ‘hoog-risico AI-systeem’. Volgens Annex III 6(d) van de AI Act zou dit als hoog-risico moeten worden aangemerkt, omdat het systeem de kans op een overtreding (telefoongebruik tijdens het rijden) bepaalt.
  • In de brief van het Ministerie van Economische Zaken wordt gesteld dat er geen algoritmes zijn geïnventariseerd bij ICTU, terwijl er wel één algoritme in het register staat.
  • 273 van de 370 systemen van Nederlandse nationale instellingen zijn nu openbaar opgenomen in het Algoritmeregister, een belangrijke stap richting meer transparantie.
  • Het Ministerie van Defensie identificeerde geen AI-systemen. Dit benadrukt het gebrek aan democratisch toezicht op AI die wordt ingezet voor veiligheid en defensie.

Bron: www.algorithmaudit.eu

Laatste nieuws