U bent hier:

De overheid bestuurt met algoritmes – en leunt op adviseurs die dit zelf niet beheersen

Onze Nederlandse overheid gaat, net als wij, mee in de ontwikkelingen van AI. Bestuursorganen gebruiken in toenemende mate algoritmes en AI-systemen om beleid uit te voeren, risico’s te selecteren en besluiten voor te bereiden. Formeel blijven deze bestuursorganen verantwoordelijk, maar materieel lijkt de besluitvorming nu te verschuiven naar technische systemen die zijn ontworpen door externe advieskantoren. Wie stuurt de staat? Wie controleert de stuurman?

De Algemene Rekenkamer publiceerde in 2022 het rapport "Aandacht voor algoritmes’’, waarin zij negen algoritmes onderzocht die door de Nederlandse overheid worden ingezet bij onder andere handhaving en fraudebestrijding. Uit dit onderzoek kwam aan het licht dat van de negen onderzochte algoritmes die de overheid gebruikte er maar drie voldeden aan de gestelde eisen. De anderen faalden op het terrein van bestuurlijke, juridische en rechtsstatelijke kwesties. Denk aan basale eisen van behoorlijk bestuur, geen duidelijke eigenaar of verantwoordelijke binnen het bestuursorgaan of geen vastgelegde beslisbevoegdheden bij fouten. Maar ook rechtsbeschermings-eisen. Burgers wisten niet dat een algoritme was gebruikt en bezwaar en beroep werden uitgehold doordat de beslissende stap werd verplaatst naar een onzichtbaar, niet-aanvechtbaar algoritmisch proces, terwijl het formele besluit slechts de uitvoer bevestigde.

Bij dit voorbeeld ging het dus voornamelijk om het falen van rechtsstatelijke waarborgen, eisen van behoorlijk bestuur. Bij grote besluiten wordt AI zelden gepresenteerd als beslisser. Het idee is dat het functioneert als ‘’draft-generator’’; verantwoordelijk voor rapporten, analyses en risico-inschattingen. Of als een herkenner van patronen; fraude-indicatie en compliance-risico’s. 

In 2023 leverde Deloitte een rapport aan de Australische overheid over hervormingen in het migratie-, en bestuursrecht. Het rapport was bedoeld als beleidsmatig en juridisch onderbouwd advies. Later bleek echter dat een groot deel van het rapport was opgesteld met generatieve AI en het document verzonnen juridische bronnen bevatte, niet-bestaande rechterlijke uitspraken citeerde en foutieve conclusies trok over bestaand recht. Dit laat zien hoe algoritmen binnen grote advieskantoren functioneren als productietools met een schijn van autoriteit. Deze AI analyses worden in sneltreinvaart geproduceerd, summier gereviewd en vervolgens gepresenteerd als volwaardig. De overheid vertrouwt hier op de reputatie van Deloitte die de inhoudelijke toetsing feitelijk externaliseert. Wie is hier dan nog verantwoordelijk? Er ontstaat een soort vacuüm, waarin het advies gezaghebbend is maar niemand het besluitvormingsproces volledig kan overzien. 

Het grote risico van dit algoritmegebruik is dan ook een verschuiving van publieke macht naar systemen die grotendeels aan juridische controle worden onttrokken. Er ontstaat een structureel risico voor de rechtsstaat. Verantwoordelijkheid vervaagt, rechtsbescherming verwordt tot een formeel ritueel en normatieve keuzes worden vermomd als technische uitkomsten. Het gebruik van algoritmes is dus niet enkel een neutrale modernisering. Het gevaar schuilt niet enkel in individuele fouten maar in de normalisering van bestuur op basis van waarschijnlijkheden en risicoscores. In bureaucratie waar efficiëntie prevaleert boven rechtvaardigheid, in een bestuur waar burgers worden gereduceerd tot datapunten en een rechtsstaat waarbij het recht zijn corrigerende en beschermende functie verliest. Zolang deze algoritmes sneller worden ingevoerd dan juridisch begrensd dreigt een samenleving waar macht steeds moeilijker kan worden verantwoord. 

Bronnen

https://www.rekenkamer.nl/documenten/2021/01/26/aandacht-voor-algoritmes

https://accountantweek.nl/artikel/ai-blunder-van-deloitte-gaat-de-hele-wereld-over/

https://publiekdenken.nl/nieuws/australische-overheid-gefopt-door-ai-in-rapport-deloitte/