Wat als je als ambtenaar advies krijgt van een algoritme dat slimmer lijkt dan jij? Besluitvorming in gemeenten was lange tijd primair gebaseerd op ervaringen en intuïtie. Met AI komt daar een krachtige datagedreven laag bij. Volgens AI-expert Kees van den Tempel kan AI als sparringpartner dienen: “Je vraagt ChatGPT om argumenten vóór en tegen en dat levert inzichten op waar je zelf niet eens aan dacht.” Maar hoe zorg je dat AI niet de menselijke expertise overschrijdt?
AI als sparringspartner
Generatieve modellen als ChatGPT en Copilot helpen om snel verschillende perspectieven te verkennen en bijvoorbeeld conceptnota’s te schrijven. Kees geeft als voorbeeld: “In een adviestraject voor een complexe aanbesteding voegde het model niet alleen feiten toe, maar verwees het naar relevante wetgeving die de teamleden aanvankelijk over het hoofd hadden gezien. Zo ontstond niet alleen een snellere, maar ook een rijkere discussie structuur, op die manier kan AI je huidige kennis verrijken.”
Naast generatieve AI bestaan beproefde toepassingen in de zorg en veiligheid. Radiologen gebruiken algoritmes om tumoren te herkennen met een nauwkeurigheid die de menselijke blik soms overstijgt, en opsporingsdiensten passen voorspellende analyses toe om risico’s in kaart te brengen. Toch blijft het cruciaal dat de eindbeslissing door een mens wordt genomen: “De arts mag niet het AI‑besluit overnemen; hij beoordeelt altijd zélf de uitkomst,” legt Kees uit.
De noodzaak van Explainable AI bij high-risk toepassingen
Kees benadrukt dat voor ‘high-risk’ AI-toepassingen – denk aan beslissingen in de jeugdzorg of strafrechtelijke adviezen – volledige transparantie over de besluitvorming verplicht is. Dit principe, bekend als Explainable AI, vereist dat je kunt aantonen welke parameters in het algoritme hebben geleid tot een bepaalde uitkomst. Bij eenvoudige, lineaire modellen is dat nog vrij rechttoe-rechtaan: je ziet precies welk gewicht iedere invoervariabele had.
Echter, bij neurale netwerken met honderden lagen en duizenden ‘neuronen’ wordt die helderheid snel onzichtbaar. De complexe wiskundige samenhang maakt het vrijwel onmogelijk om in gewone taal uit te leggen waarom een specifieke voorspelling of aanbeveling is gedaan. Dit veroorzaakt twee knelpunten: beperkt vertrouwen en juridische onduidelijkheid.
Hoe Explainable AI helpt
Explainable AI-technieken doorbreken de black box door wél inzichtelijk te maken welke inputs doorslaggevend waren voor een beslissing. Hierbij twee veelgebruikte methoden:
- LIME, dat lokaal een eenvoudig model opbouwt rond één specifieke voorspelling en de belangrijkste invoerfactoren blootlegt.
- SHAP, dat met speltheoretische berekeningen eerlijk de bijdrage van elke variabele toewijst, zowel globaal als per individueel besluit.
Met deze tools kunnen ambtenaren niet alleen verantwoording afleggen richting burgers en toezichthouders, maar ook actief monitoren of het model zich binnen ethische en juridische kaders beweegt.
De meerwaarde voor gemeenten:
- Verhoogd vertrouwen van medewerkers, bestuur en publiek.
- Snellere bezwaarprocedures, omdat uitspraken helder en aantoonbaar zijn.
- Compliance‑ondersteuning, doordat je kunt aantonen dat de AI geen verboden kenmerken gebruikt.
Een voorbeeld: Gemeente Beverwijk experimenteerde met een AI-gedreven beslissingssysteem voor omgevingsvergunningaanvragen, onder de naam VergunWijzer. Doel was wachttijden te verkorten en meer persoonlijk contact mogelijk te maken. Belangrijke kenmerken van deze pilot:
- Transparante AI-toelichting: iedere aanbeveling komt met een korte verklaring, bijvoorbeeld: “Deze aanvraag valt buiten de ERR-norm vanwege verkeersimpact (35 %), milieuoverschrijding (25 %) en onvolledige dossierstukken (15 %).”
- Menselijke validatie: aanvragers kunnen binnen vijf werkdagen bezwaar maken; een ambtenaar beoordeelt dan handmatig de AI-adviesoutput.
- Verbeterde dienstverlening: de gemiddelde responstijd van 14 dagen naar 7 dagen gehalveerd, terwijl de inwonerstevredenheid steeg met 12 %
Menselijke expertise náást AI
AI verrijkt besluitvorming, maar roept ook vragen op over onze eigen vaardigheden. Kees waarschuwt voor ‘deskilling’: “Je wordt zowel slimmer als… dommer. Je laat routine over aan AI en verliest soms je kritische blik.” Daarom adviseren deskundigen om naast technische AI‑trainingen ook intervisiesessies te organiseren, waarin teams gezamenlijk AI‑output toetsen en creatieve oplossingen bedenken.
Kortom: AI tilt gemeentelijke besluitvorming naar een hoger plan door breed argumenteren, snelle data‑analyse en consistente ondersteuning. Tegelijkertijd blijft menselijke eindverantwoordelijkheid essentieel om ethiek, transparantie en maatschappelijke legitimiteit te waarborgen. Kees sluit af: “Durf te experimenteren, maar borg het menselijk oordeel.”
