Overheid

De overheid zet AI in voor uitkeringstoewijzing, handhaving en publieke dienstverlening. Deze toepassingen raken fundamentele rechten van burgers. De EU AI Act stelt hier de strengste eisen: verplichte Fundamental Rights Impact Assessments, volledige transparantie en menselijk toezicht.

AI-toepassingen in deze sector

Uitkeringstoewijzing

AI-systemen die beoordelen of burgers recht hebben op sociale voorzieningen, toeslagen of bijstand. Hoog-risico onder Bijlage III: directe impact op toegang tot essentiele publieke diensten.

Rechtshandhaving

Predictive policing, gezichtsherkenning en risicoprofilering door politie en justitie. Streng gereguleerd onder Bijlage III, punt 6. Biometrische identificatie in real-time is in principe verboden (Artikel 5).

Grenscontrole en migratie

AI voor risicobeoordeling bij grenscontrole, visumaanvragen en asielverzoeken. Hoog-risico onder Bijlage III, punt 7. Vereist extra waarborgen voor fundamentele rechten.

Publieke dienstverlening chatbots

AI-chatbots voor informatieverstrekking aan burgers. Vallen onder transparantieverplichtingen (Artikel 50): burgers moeten weten dat ze met een AI-systeem communiceren.

Fraudedetectie in publieke diensten

Algoritmen die fraude opsporen bij belastingaangiften, toeslagen of uitkeringen. De Toeslagenaffaire heeft laten zien hoe dit mis kan gaan. De EU AI Act vereist menselijk toezicht en niet-discriminerende werking.

Hoog-risico classificatie

De EU AI Act (Verordening 2024/1689) classificeert de volgende overheidstoepassingen als hoog-risico in Bijlage III:

Toegang tot essentiele publieke diensten

Bijlage III, punt 5(a)

AI-systemen die door overheidsinstanties worden gebruikt om te beoordelen of personen in aanmerking komen voor essentiele publieke diensten en uitkeringen, waaronder het toekennen, verminderen, intrekken of terugvorderen daarvan.

Rechtshandhaving

Bijlage III, punt 6(a-g)

AI-systemen voor risicobeoordeling van natuurlijke personen, leugendetectie, evaluatie van bewijsmateriaal, profilering bij opsporing en beoordeling van recidiverisico. Artikel 26(3) vereist een Fundamental Rights Impact Assessment.

Migratie, asiel en grenscontrole

Bijlage III, punt 7(a-d)

AI-systemen voor risicobeoordeling bij grenscontrole, verificatie van reisdocumenten, beoordeling van asielverzoeken en opsporing van irreguliere migratie. Fundamentele rechten van kwetsbare groepen vereisen extra waarborgen.

Specifieke uitdagingen

Fundamental Rights Impact Assessment

Overheidsorganisaties die hoog-risico AI-systemen inzetten zijn verplicht een Fundamental Rights Impact Assessment (FRIA) uit te voeren (Artikel 27). Dit gaat verder dan een standaard DPIA en vereist specifieke expertise.

Publiek vertrouwen

De Toeslagenaffaire en SyRI-zaak hebben het publiek vertrouwen in overheids-AI beschadigd. Compliance is niet genoeg: u moet ook transparant communiceren over hoe en waarom AI wordt ingezet.

Inkoop van AI bij leveranciers

Veel overheidsorganisaties kopen AI-systemen in via aanbestedingen. De EU AI Act maakt u als deployer mede-verantwoordelijk. U moet eisen stellen aan leveranciers en hun claims kunnen verifieren.

Transparantieverplichtingen

De overheid heeft een bijzondere verantwoordingsplicht. Naast de EU AI Act transparantie-eisen (Artikel 13 en 50) gelden ook de Wet open overheid en de AVG. Burgers hebben recht op uitleg over geautomatiseerde besluiten.

Onze aanpak voor de overheid

Wij kennen de publieke sector en begrijpen de politieke en maatschappelijke context. Onze aanpak houdt rekening met aanbestedingskaders, de Wet open overheid en de extra verantwoordingsplicht van overheidsorganisaties.

2 weken

Compliance Quickscan

Inventarisatie van alle AI-systemen in uw organisatie
Sectorspecifieke risicoclassificatie per systeem
Gap-analyse ten opzichte van de EU AI Act vereisten
Geprioriteerde roadmap met concrete actiepunten
Management-presentatie met bevindingen en aanbevelingen
1 dag

AI-geletterdheid Training (Artikel 4)

Sectorspecifieke training op maat
Rol-specifieke modules voor uw teams
Praktijkgerichte workshops met sector-casussen
Bewijs van deelname per medewerker
Naslagmateriaal en quick-reference cards
6 weken

Governance Framework

AI-beleid afgestemd op uw sectorregulering
Rollen en verantwoordelijkheden (RACI-matrix)
Risicomanagement proces voor AI-systemen
Fundamental Rights Impact Assessment templates
AI-register met alle vereiste documentatie
Monitoring en review cyclus

De publieke sector staat onder een vergrootglas.

Na de Toeslagenaffaire en het SyRI-arrest kijkt heel Nederland mee. De EU AI Act voegt daar concrete verplichtingen aan toe. Wacht niet tot de deadline. In een gratis intake van 30 minuten brengen we in kaart welke AI-systemen uw organisatie gebruikt en wat de risicoclassificatie is.

Plan uw gratis intake

Niet tevreden na de Quickscan? Dan betaalt u niets.

Rivium Westlaan 46, Capelle aan den IJsselKvK 90283597