2026 is het jaar waarin AI-geletterdheid bewijsbaar moet worden
Veel organisaties hebben inmiddels iets gedaan met AI-geletterdheid. Een webinar. Een prompttraining. Een interne kennissessie. Soms zelfs een e-learningmodule met certificaat. Dat is een begin, maar in 2026 is het niet meer genoeg.
Artikel 4 van de AI Act vraagt niet om een inspiratiesessie. Het vraagt dat aanbieders en gebruikers van AI-systemen maatregelen nemen om, naar beste vermogen, een voldoende niveau van AI-geletterdheid te waarborgen bij medewerkers en anderen die namens hen met AI-systemen werken1.
Dat klinkt juridisch voorzichtig, maar praktisch is het scherp. Een organisatie moet kunnen uitleggen waarom bepaalde mensen bepaalde kennis nodig hebben, hoe die kennis is opgebouwd, hoe dit aansluit bij de gebruikte AI-systemen en hoe het niveau wordt bijgehouden.
De vraag voor 2026 is dus niet: hebben we AI-training gegeven? De betere vraag is: kunnen we aantonen dat onze mensen AI verantwoord kunnen herkennen, gebruiken, beoordelen en bijsturen in hun eigen werkcontext?
Wat AI-geletterdheid wel en niet is
De Autoriteit Persoonsgegevens beschrijft AI-geletterdheid als kennis, vaardigheden en begrip over de technische werking van AI-systemen, maar ook over sociale, ethische en praktische aspecten2. Dat is belangrijk, omdat veel organisaties AI-geletterdheid nog te smal interpreteren.
AI-geletterdheid is niet alleen weten hoe ChatGPT werkt. Het is ook weten wanneer u een AI-systeem gebruikt, welke risico's daarbij horen, welke data gevoelig is, wanneer menselijk toezicht nodig is en wanneer een medewerker moet stoppen en escaleren.
Voor een HR-team betekent dat iets anders dan voor een marketingteam. Voor een juridisch team iets anders dan voor IT. Voor management iets anders dan voor de mensen die dagelijks met AI-output werken. Juist daarom adviseert de AP om AI-geletterdheid strategisch en meerjarig aan te pakken2.
De roadmap voor 2026
Een goede AI literacy roadmap bestaat uit zes stappen. Niet omdat elk bedrijf hetzelfde programma nodig heeft, maar omdat elke organisatie dezelfde volgorde nodig heeft: eerst weten waar AI zit, daarna bepalen wie wat moet kunnen, vervolgens trainen, borgen en bewijzen.
Stap 1: maak AI-gebruik zichtbaar
Begin niet met training. Begin met inventarisatie.
Welke AI-systemen gebruikt de organisatie al? Denk niet alleen aan grote systemen met machine learning in de kern. Denk ook aan Microsoft 365 Copilot, ChatGPT Enterprise, recruitmentsoftware, klantenservicechatbots, analysetools, documentgeneratie, marketingautomatisering en leveranciers die AI in hun product hebben verwerkt.
Leg per systeem minimaal vast:
- waar het systeem wordt gebruikt
- wie ermee werkt
- welke data erin gaat
- welke output eruit komt
- of mensen op basis van die output beslissingen nemen
- welke groepen personen geraakt kunnen worden
- of het systeem mogelijk onder hoog-risico AI valt
Zonder deze inventarisatie wordt AI-geletterdheid generiek. En generieke training is precies wat in 2026 niet meer overtuigt.
Stap 2: deel medewerkers in op rol en risico
Niet iedereen heeft hetzelfde niveau nodig. Artikel 4 noemt expliciet technische kennis, ervaring, opleiding, training, gebruikscontext en de personen of groepen op wie AI-systemen worden toegepast1. Dat betekent dat organisaties een rolgerichte aanpak nodig hebben.
Een praktisch model werkt met vier niveaus:
| Niveau | Doelgroep | Wat zij moeten kunnen |
|---|---|---|
| Basis | Alle medewerkers | AI herkennen, veilig gebruiken, risico's signaleren en beleid volgen. |
| Rolgericht | HR, marketing, juridisch, finance, klantenservice | AI-risico's toepassen op eigen processen, data en besluitvorming. |
| Governance | Management, compliance, privacy, security | AI-beleid, risicoclassificatie, toezicht, documentatie en escalatie organiseren. |
| Expert | Data, IT, product owners, AI-teams | Technische beperkingen, bias, monitoring, evaluatie en lifecycle controls beoordelen. |
Dit voorkomt twee fouten tegelijk. U voorkomt dat iedereen een te oppervlakkige training krijgt, en u voorkomt dat niet-technische medewerkers verdrinken in details die ze niet nodig hebben.
Stap 3: bouw een curriculum met drie lagen
Een volwassen AI literacy programma heeft drie lagen.
De eerste laag is algemene basiskennis. Wat is AI? Wat is generatieve AI? Waar zitten de beperkingen? Welke gegevens mogen niet zomaar in tools worden ingevoerd? Wanneer moet een mens controleren?
De tweede laag is juridische en organisatorische context. Denk aan de AI Act, AVG, informatiebeveiliging, auteursrecht, geheimhouding, inkoopregels en interne beleidskaders.
De derde laag is praktijktoepassing per functie. Een HR-medewerker oefent met vacatureteksten, selectiecriteria en bias. Een jurist oefent met contractanalyse, broncontrole en beroepsgeheim. Een manager oefent met besluitvorming, governance en acceptatiecriteria voor AI-use-cases.
De AP benadrukt dat de benodigde kennis afhangt van de context waarin een AI-systeem wordt ingezet en van de risico's die daarbij horen2. Een curriculum zonder context is daarom vooral een compliance-decorstuk.
Stap 4: maak het aantoonbaar
In 2026 wordt bewijsvoering belangrijker. Niet omdat de wet letterlijk een specifiek certificaat voorschrijft, maar omdat een organisatie moet kunnen laten zien dat zij passende maatregelen heeft genomen.
Dat bewijs hoeft niet ingewikkeld te zijn, maar het moet wel systematisch zijn. Denk aan:
- een AI literacy beleid of actieplan
- een overzicht van rollen en vereiste kennisniveaus
- trainingsregistraties per medewerker
- toetsresultaten of praktijkopdrachten
- certificaten of bewijs van deelname
- periodieke herhaling en updates
- verslaglegging van verbeteracties
De handreikingen van de AP sturen ook richting een meerjarig actieplan waarmee organisaties AI-geletterdheid duurzaam kunnen aanpakken34. Dat is precies het verschil tussen een losse training en een governanceprogramma.
Stap 5: koppel AI-geletterdheid aan AI governance
AI-geletterdheid werkt niet als het losstaat van de rest van de organisatie. Medewerkers kunnen pas verantwoord handelen als ze weten wat de procedure is.
Daarom moet de roadmap gekoppeld worden aan:
- het AI-register
- risicoclassificatie
- inkoop en leveranciersbeoordeling
- privacy en security reviews
- incidentmelding
- menselijke controle
- beleid voor generatieve AI
- managementrapportage
Een medewerker die AI-risico's herkent maar nergens terecht kan, wordt onzeker. Een medewerker die precies weet waar hij moet melden, welke checklist geldt en wie beslist, wordt onderdeel van het controlesysteem.
Stap 6: herhaal elk kwartaal
AI-geletterdheid is geen jaarlijkse compliance-oefening. Tools veranderen, processen veranderen, medewerkers wisselen van rol en nieuwe guidance verschijnt. De Europese Commissie benadrukt bovendien dat verschillende onderdelen van de AI Act gefaseerd in werking treden, met belangrijke verplichtingen voor hoog-risico AI in augustus 2026 en augustus 20275.
Een werkbaar ritme voor 2026:
- kwartaal 1: inventarisatie, rolmodel en basistraining
- kwartaal 2: verdieping per afdeling, beleid en bewijsvoering
- kwartaal 3: focus op hoog-risico processen, leveranciers en menselijk toezicht
- kwartaal 4: evaluatie, auditvoorbereiding en planning voor 2027
Niet alles hoeft perfect te zijn op dag één. Maar het moet zichtbaar zijn dat de organisatie structureel leert.
Waar organisaties vaak vastlopen
De grootste fout is dat AI-geletterdheid wordt neergelegd bij HR of Learning and Development alleen. Dat lijkt logisch, want het gaat over kennisopbouw. Maar AI-geletterdheid raakt ook compliance, privacy, security, legal, IT, procurement en business owners.
De tweede fout is dat organisaties starten met tooling zonder beleid. Dan ontstaat een wildgroei aan trainingen, certificaten en losse modules, maar geen samenhangend bewijs dat past bij de eigen AI-risico's.
De derde fout is dat management zichzelf overslaat. Terwijl juist bestuurders moeten begrijpen welke AI-risico's materieel zijn, welke governance nodig is en waar de organisatie kwetsbaar is.
De praktische uitkomst
Een goede AI literacy roadmap levert vier dingen op.
Medewerkers weten wat AI is en waar de grenzen liggen. Teams herkennen risico's in hun eigen werk. Management krijgt zicht op voortgang en kwetsbaarheden. En de organisatie heeft bewijs dat AI-geletterdheid niet alleen is beloofd, maar daadwerkelijk is ingericht.
Dat is de lat voor 2026. Niet omdat toezichthouders morgen bij elke organisatie op de stoep staan, maar omdat AI inmiddels te diep in werkprocessen zit om het bij losse bewustwording te laten.
Begin klein, maar begin gestructureerd
De beste eerste stap is niet een grote trainingscampagne. De beste eerste stap is een simpele nulmeting: welke AI gebruiken we, wie gebruikt het, welk risico hoort erbij en welk kennisniveau is nodig?
Van daaruit bouwt u een roadmap die past bij uw organisatie. Niet generiek. Niet alleen inspirerend. Maar aantoonbaar, rolgericht en herhaalbaar.
Wilt u weten waar uw organisatie staat? Embed AI helpt organisaties met een AI-geletterdheid quickscan, rolgerichte training en een concreet actieplan voor 2026.

