AI veilig integreren in jouw organisatie doe je zo

Laatste update:

AI kan gemeenten slimmer en efficiënter maken, maar wie de technologie zonder strategie inzet, belandt al snel in een ongeorganiseerde beginfase. Volgens AI‑expert Kees van den Tempel is het niet de techniek zelf, maar het feit dat wij te onvoorbereid zijn het grootste gevaar. “Het echte risico schuilt in onvoldoende kennis – technisch, juridisch én op het gebied van security,” waarschuwt hij.

Risicocategorieën in de praktijk

Niet elke AI‑toepassing roept dezelfde risico’s op. Aan de ene kant zijn er high risk‑applicaties, zoals algoritmes die besluiten in de jeugdzorg ondersteunen. De AI‑Act vereist grondige impact‑analyses en juridische toetsing. Zonder specialistische kennis loop je hier het gevaar regels te overtreden en het vertrouwen van burgers te verliezen. Aan de andere kant bestaan low risk‑tools als ChatGPT of Copilot. Hoewel formeel minder streng gereguleerd, kunnen onbeheerst gebruik en misverstanden leiden tot privacy-lekken of onterechte adviezen. “Als je alles verbiedt, gaan mensen AI tóch slim gebruiken – maar dan zonder richtlijnen of toezicht,” legt Kees uit.

Cultuur als fundament voor veilig gebruik

Technische maatregelen alleen volstaan niet. Kees pleit voor een cultuur waarin medewerkers vrij zijn om AI uit te proberen, fouten te melden en collega’s aan te spreken. Hij vergelijkt het met cybersecurity: “Je moet een open cultuur creëren waarin we fouten mogen maken, maar er wél over praten.” In praktische zin betekent dit dat organisaties regelmatig trainingssessies organiseren, AI‑retrospectives houden en tools inzetten die real‑time inzicht geven in hoe vaak AI‑output afwijkt van de norm.

Hoe integreer je AI in jouw organisatie?

  1. “Zorg dat je de toepassing goed begrijpt, want bij AI is niet alles zwart-wit.” Het veilig integreren van AI betekent dat je helder onderscheid moet maken tussen de contexten waarin AI gebruikt wordt, en daarop je risicoanalyse baseert.
  2. “Investeer in AI-geletterdheid: de kennis ontbreekt nu vaak op alle niveaus.” De kennis die nodig is gaat verder dan techniek of wetgeving; het gaat ook over de impact op mensen. AI veilig integreren begint bij bewustwording en scholing. Gebrek aan kennis wordt door Kees gezien als het grootste risico in de praktijk.
  3. “Begin met low-risk toepassingen en het liefst intern, zodat je zeker weet dat je compliant bent.” Veel organisaties kiezen er bewust voor om eerst te experimenteren met AI binnen een interne, veilige omgeving. Deze uitspraak benadrukt een gefaseerde aanpak: eerst experimenteren met relatief veilige tools binnen de eigen muren, alvorens AI publiek of voor besluitvorming in te zetten.
  4. “Gebruik ondersteuning van gespecialiseerde bureaus bij high-risk toepassingen.” Je hebt vaak te maken met de AI Act én met sectorale regels én de AVG. Dat is juridisch complex. Voor complexe toepassingen pleit Kees voor samenwerking met experts, omdat het wettelijk en ethisch landschap rond AI veel valkuilen kent.

Bekijk ook deze blogs

🛡️ Zo trainen de meest effectieve CISO’s hun medewerkers…
Ze maken van de cybersecurity-training een avontuurlijke reis, compleet met digitale schattenjachten...
Waarom saaie CISO’s e-learnings pushen & goede CISO’s naar het pretpark gaan…
Maak impact, een goede CISO en een pretpark doen dat zo: Vertel...
Bekijk hier on demand: Webinar AI in Overheidsland | Omarmen of dichttimmeren?
Marlou Besseling, Kees van den Tempel en Heleen van de Groep gingen...

Maak je eigen prijsindicatie

  • 1
    Markt
  • 2
    Activiteiten
  • 3
    Verzenden

Must-reads voor pioneer CISO’s

Security awareness naar een hoger niveau tillen!