25 februari 2026

AI is niet naïef. Wij soms wel.

We verlangen van AI dat het betrouwbaar is. Geen vooroordelen, geen fouten op basis van gebrekkige informatie en dat het kan uitleggen waarom het tot bepaalde conclusies komt. We willen systemen die ons waarschuwen als uitkomsten onzeker zijn en die transparant zijn over hun redenering.

AI is niet naïef. Wij soms wel. image

Tegelijkertijd voeden we diezelfde systemen met data waarvan we zelf vaak niet precies weten hoe compleet, hoe actueel of hoe betrouwbaar die is. We weten niet altijd welke aannames in datasets besloten liggen, welke definities ooit pragmatisch zijn gekozen en welke uitzonderingen in de praktijk zijn genegeerd. En toch verwachten we dat AI daar verantwoord mee omgaat.

AI is niet naïef. Het model doet precies wat het is ontworpen om te doen: patronen herkennen in de data die wij aanleveren en optimaliseren binnen de grenzen die wij – bewust of onbewust – hebben gesteld. Als die grenzen vaag zijn, wordt de uitkomst overtuigend en tegelijkertijd potentieel misleidend. Niet omdat het model kwaadaardig is, maar omdat wij slordig zijn geweest.

Het probleem zit zelden in het algoritme

De discussie over betrouwbare en uitlegbare AI wordt vooral technologisch gevoerd. Meer regulering, meer model-audits, meer tooling om beslissingen inzichtelijk te maken. Dat zijn belangrijke ontwikkelingen. Maar ze raken zelden de kern van het probleem.

Die kern is eenvoudiger en ongemakkelijker: begrijpen wij onze eigen data eigenlijk wel goed genoeg om AI verantwoord in te zetten?

Een model kan alleen redeneren binnen de werkelijkheid die wij het aanbieden. Wanneer die werkelijkheid onvolledig, ambigu of contextloos is, zal het model toch een antwoord geven. Helder geformuleerd, logisch opgebouwd en vaak met een mate van zelfverzekerdheid die ons geruststelt. Precies daar ontstaat het risico.

Ervaring als onzichtbare metadata

Stel u leest een strategisch rapport waarop u uw afdelingsbeleid voor de komende twee jaar moet baseren. Tijdens het lezen voelt u dat bepaalde aannames wringen. U mist context, herkent lacunes in de data en vraagt zich af hoe representatief de onderliggende waarnemingen zijn. Uw ervaring fungeert als filter.

In het nawoord blijkt dat het rapport is opgesteld door een stagiair en een afstudeerder. Uw oordeel verandert. Niet omdat de tekst anders is geworden, maar omdat u nieuwe context heeft gekregen.

Laat hetzelfde rapport door AI samenvatten, zonder informatie over de herkomst of de ervaring van de auteurs. De aanbevelingen klinken gestructureerd en overtuigend. De nuance verdwijnt. De context ontbreekt.

Wat hier ontbreekt, is niet intelligentie. Wat ontbreekt, is metadata. Ervaring, herkomst, methodologische beperkingen en onzekerheden zijn allemaal vormen van contextuele informatie. Zolang die impliciet blijven, kan AI er niets mee.

Het dashboard dat klopt – tot het wordt losgekoppeld

Datzelfde mechanisme zien we bij dashboards en dataplatformen. Een ervaren dataspecialist bouwt een overzicht op basis van verschillende bronnen. Hij weet welke bronnen niet altijd volledig zijn, welke velden gevoelig zijn voor interpretatie en waar actualiteit een rol speelt. Die kennis zit niet alleen in de cijfers, maar in zijn hoofd.

Als leidinggevende vertrouwt u het dashboard, omdat u het vakmanschap achter de cijfers vertrouwt. Maar wanneer dezelfde databronnen zonder nadere toelichting beschikbaar worden gesteld aan een AI-systeem, verandert de situatie fundamenteel. Het model krijgt toegang tot data, maar niet tot de impliciete kennis over beperkingen en onzekerheden.

De AI zal analyseren, combineren en concluderen. En dat doet het vaak indrukwekkend goed. Alleen weet het niet wat het niet weet. En juist daar schuilt het gevaar, vooral wanneer minder ervaren gebruikers de uitkomsten zonder voorbehoud accepteren.

Uitlegbaarheid begint bij datavolwassenheid

We spreken graag over explainable AI. Maar zelden over explainable data. Uitlegbaarheid begint niet bij het model, maar bij de manier waarop we onze informatiehuishouding hebben ingericht.

Wanneer definities van begrippen niet eenduidig zijn vastgelegd, wanneer aannames niet expliciet zijn gedocumenteerd en wanneer onzekerheden niet structureel worden benoemd, kan geen enkel model werkelijk transparant zijn. Het kan hooguit zijn berekeningen beschrijven, niet de betrouwbaarheid van de onderliggende werkelijkheid.

AI kan alleen waarschuwen voor onzekerheid als wij die onzekerheid eerst zelf onder ogen hebben gezien en vastgelegd. Dat vraagt om volwassen data governance, om eigenaarschap en om het expliciet maken van impliciete kennis. Het vraagt om het besef dat data geen neutrale grondstof is, maar een strategisch bedrijfsmiddel dat onderhoud en duiding nodig heeft.

De spiegel van AI

AI is daarmee minder een technologische revolutie dan een organisatorische spiegel. Het laat zien hoe goed – of hoe slecht – we onze informatie op orde hebben. Wie zijn data niet begrijpt, maakt met AI de onduidelijkheid alleen maar groter.

De vraag is dus niet in de eerste plaats of AI betrouwbaar is. De vraag is of wij dat zijn. AI gelooft wat u het geeft. En precies daarin ligt onze verantwoordelijkheid.

Connecting Everything

Meer leren over alles wat met Data & AI te maken heeft? 
Kom op 5 maart naar Connecting Everything! Schrijf u vandaag nog in!

Door: Marcel den Hartog, Trend & Development Expert bij Enable U

In The Pocket BW Lobster BW + BN
In The Pocket BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!