Overheidsorganisaties weigeren openheid over werking algoritmen: wat betekent dit voor de burger?

Daniel Verloop

In een tijd waarin digitalisering en data-gedreven besluitvorming steeds meer terrein winnen binnen de publieke sector, staan we voor een grote uitdaging: hoe waarborgen we transparantie en verantwoordelijkheid bij het gebruik van algoritmen door overheidsinstanties? Recent onderzoek heeft een verontrustend beeld geschetst van de huidige situatie in Nederland, waarbij verschillende overheidsorganisaties, waaronder de Belastingdienst, weigeren volledige openheid te geven over hoe zij algoritmen inzetten bij het selecteren van burgers voor extra controles[1].

De controverse rondom algoritmische besluitvorming

Het gebruik van algoritmen door overheidsinstanties is niet inherent problematisch. In feite kunnen goed ontworpen en geïmplementeerde algoritmen bijdragen aan efficiëntere processen en meer consistente besluitvorming. Het probleem ontstaat wanneer er een gebrek aan transparantie is over hoe deze systemen werken en op basis waarvan zij beslissingen nemen.

De overheid beroept zich op het argument dat volledige openheid over de werking van algoritmen ertoe kan leiden dat kwaadwillenden de controles kunnen omzeilen. Maar is dit een geldige reden om burgers het recht te ontzeggen te weten waarom zij zijn geselecteerd voor extra controle?

Risico’s van ondoorzichtige algoritmen

  • Potentiële discriminatie en vooringenomenheid in de selectiecriteria
  • Gebrek aan mogelijkheid tot verweer voor burgers
  • Ondermijning van het vertrouwen in overheidsinstanties
  • Beperkte rechtsbescherming voor individuen

Mr. Ola Al Khatib van de Universiteit Utrecht waarschuwt: “De risico’s van het huidige kabinetsbeleid zijn van niet te onderschatten omvang.” Zij stelt dat het “onrechtmatig” is dat de overheid elke vorm van inzage in of openbaarmaking van algoritmegebruik weigert[1].

Lessen uit het verleden: de toeslagenaffaire

De toeslagenaffaire heeft pijnlijk duidelijk gemaakt welke desastreuze gevolgen een gebrek aan transparantie en verantwoording bij algoritmische besluitvorming kan hebben. Duizenden gezinnen werden onterecht als fraudeurs bestempeld, met verwoestende financiële en persoonlijke gevolgen.

Ondanks de schok die deze affaire teweegbracht, lijkt er in de praktijk weinig veranderd. De Autoriteit Persoonsgegevens (AP) waarschuwde in haar laatste jaarverslag dat bij het toezicht op algoritmen “pijnlijk duidelijk” was dat “iedereen weliswaar geschokt is door de toeslagenaffaire, maar dat er nog bitter weinig veranderd is”[2].

Voorbeelden van aanhoudende problematiek

  • DUO gebruikte een potentieel discriminerend algoritme voor fraudedetectie bij studiebeurzen
  • Het UWV zette onrechtmatig gegevens in bij het opsporen van WW-fraude
  • Gemeenten bleven de omstreden ‘fraudescorekaart’ gebruiken

Balanceren tussen efficiëntie en transparantie

Het dilemma waar we voor staan is complex: hoe kunnen overheidsorganisaties profiteren van de voordelen van algoritmische besluitvorming zonder de rechten en vrijheden van burgers in gevaar te brengen?

Een mogelijke aanpak zou kunnen zijn:

  1. Het ontwikkelen van een robuust juridisch kader voor het gebruik van algoritmen in de publieke sector
  2. Het instellen van onafhankelijke toezichthouders die algoritmen kunnen auditen zonder de details publiek te maken
  3. Het creëren van een laagdrempelig bezwaarmechanisme voor burgers die menen onterecht te zijn geselecteerd
  4. Het bevorderen van een cultuur van ‘ethics by design’ bij de ontwikkeling van overheidsalgoritmen

Naar een toekomst van verantwoorde AI-governance

De uitdagingen rond algoritmische transparantie vereisen een proactieve en multidisciplinaire aanpak. Het is essentieel dat beleidsmakers, technologie-experts en ethici samenwerken om een kader te ontwikkelen dat innovatie mogelijk maakt zonder de fundamentele rechten van burgers uit het oog te verliezen.

Enkele kernpunten voor verantwoorde AI-governance in de publieke sector:

  • Implementatie van de EU AI Act-richtlijnen in nationale wetgeving
  • Ontwikkeling van standaarden voor ‘explainable AI’ in overheidscontexten
  • Investeren in digitale geletterdheid en AI-bewustzijn onder ambtenaren en burgers
  • Regelmatige ethische audits van algoritmische systemen

Door deze principes te omarmen, kunnen we streven naar een balans tussen efficiëntie, veiligheid en transparantie in het gebruik van algoritmen door de overheid.

De weg vooruit

De huidige situatie, waarbij overheidsorganisaties weigeren volledige openheid te geven over hun gebruik van algoritmen, is onhoudbaar in een democratische rechtsstaat. Het ondermijnt niet alleen het vertrouwen van burgers in de overheid, maar brengt ook de fundamentele rechten van individuen in gevaar.

We staan voor de uitdaging om een nieuw evenwicht te vinden tussen de legitieme belangen van de overheid en het recht van burgers op transparantie en eerlijke behandeling. Dit vereist niet alleen technische oplossingen, maar ook een fundamentele heroverweging van hoe we als samenleving omgaan met de toenemende rol van AI en algoritmen in besluitvormingsprocessen.

Alleen door open dialoog, voortdurende evaluatie en een commitment aan ethische principes kunnen we een toekomst vormgeven waarin algoritmische besluitvorming bijdraagt aan een eerlijkere en efficiëntere overheid, zonder de rechten en waardigheid van individuele burgers uit het oog te verliezen.

Wilt u meer weten over hoe uw organisatie verantwoord kan omgaan met AI-governance en compliance? Neem contact op met CiviQs voor expert advies en ondersteuning bij het implementeren van ethische AI-oplossingen in de publieke sector.

Over de Auteur

Daniel Verloop is expert in AI-innovatie, governance en ethiek voor de publieke sector. Als senior AI consultant bij CiviQs, AI specialist bij gemeente Montferland, lid van de EU AI Alliantie en het kernteam Publieke Diensten van de Nederlandse AI Coalitie (NLAIC) bevordert hij mensgerichte AI in de samenleving. Zijn expertise omvat AI-strategie, compliance met de EU AI Act en implementatie van AI-oplossingen voor overheden.