16 januari 2026

Organisaties hebben een AI-reality check nodig

Het afgelopen jaar heeft zo’n beetje elke organisatie wel iets geroepen over de impact van AI op de bedrijfsvoering. In de praktijk blijft van veel van die ambities vooralsnog weinig over. Hoewel dat zelden wordt toegegeven, blijft het merendeel van de organisaties hangen in de pilotfase. Sterker nog, uit onderzoek van het NANDA-initiatief van MIT blijkt dat 95% van de AI-pilotprogramma’s mislukt en weinig tot geen meetbare impact oplevert.

Organisaties hebben een AI-reality check nodig image

De kern van het probleem is data. De enorme schaal, complexiteit en gevoeligheid van data vormen voor veel organisaties een serieuze barrière. Toegang tot data en het beheren en beveiligen ervan in een AI-gedreven wereld is een enorme opgave. Een goede datahygiëne is dus essentieel. Daarnaast is het investeren in zichtbaarheid en veerkracht van meet af aan de enige manier om vertrouwen op te bouwen in eigen datasets.

Een reality check

Generatieve AI (GenAI), Large Language Models (LLM’s), anomaliedetectie, voorspellingsmodellen: ze functioneren allemaal op data. Dit is een belangrijke reden dat we dit jaar wereldwijd naar verwachting 181 zetabytes aan data zullen creëren, vastleggen, kopiëren en consumeren. Dat is drie keer zoveel als vijf jaar geleden. En de omvang van die datagroei overstijgt wat organisaties traditioneel konden beheersen.

Tegelijkertijd verandert AI de manier waarop bedrijven data kunnen gebruiken. Volgens Gartner is 80% van de bedrijfsdata ongestructureerd. Voorheen bleven deze data grotendeels onbenut. Met AI ontstaat voor het eerst de mogelijkheid om hier structureel waarde uit te halen.

Maar die potentie brengt ook nieuwe complexiteit met zich mee. Naarmate AI-toepassingen zich verder ontwikkelen, groeit de hoeveelheid data exponentieel. Veel organisaties worstelen al met het beheren van hun bestaande dataomgeving. Voeg daar AI-pilots aan toe en het wordt duidelijk waarom zoveel initiatieven stranden.

Daar komt bij dat schaduw-IT voor veel organisaties een hardnekkig probleem blijft. Een onduidelijk AI-beleid of mislukte pilotprogramma’s zorgen ervoor dat medewerkers op de achtergrond zelf gaan experimenteren met AI-tools, buiten het zicht van IT-teams. En tenzij organisaties hun data-zaken op orde krijgen en echte, gecontroleerde AI-innovatie kunnen stimuleren, zal dit probleem blijven bestaan.

Bouwen op de juiste fundamenten

Een solide AI-strategie begint met structurele impactanalyses van alle data. Begrijpen welke data je hebt, welke waarde die vertegenwoordigen en welke datasets bedrijfskritisch zijn, vormt de eerste stap. Dit inzicht is niet alleen nodig voor governance, maar ook voor veerkracht. Organisaties moeten ten alle tijden weten wat de laatst bekende betrouwbare status van hun gegevens is en hoe zij deze na een incident snel kunnen herstellen.

Deze analyses zijn geen eenmalige actie. Datastromen blijven groeien en veranderen continu. Het is dus essentieel dat praktijken zoals datastandaardisatie, datavalidatie en continue impactanalyses worden toegepast om grip te houden op de omgeving.

Voor veel - met name grote - bedrijven zijn deze maatregelen niet nieuw. Het gaat dus minder om het introduceren van nieuwe methoden en meer om het uitbreiden van wat je al hebt. Het leggen van een goede basis moet echt de eerste prioriteit zijn. Maar zelfs nog voor grootschalige AI-innovatie, kan deze technologie organisaties al helpen: bijvoorbeeld voor dataclassificatie en het verbeteren van het inzicht in de data-herkomst. In feite zou het eerste AI-project simpelweg het beheren van data moeten zijn.

Controle over gegevens is een randvoorwaarde voor succesvolle AI-toepassingen. Pas wanneer de basis op orde is, ontstaat het vertrouwen om te innoveren en pilotprogramma’s te realiseren die daadwerkelijk waarde toevoegen.

Ren niet voordat je kunt lopen

Het klinkt misschien voor de hand liggend, maar de oplossing is simpel: begin klein. Je hoeft niet de volgende grote doorbraak te bedenken: het gaat erom aan te tonen dat gecontroleerde innovatie mogelijk is, met aantoonbare waarde en zonder de grip op data te verliezen. Begin met een beheersbaar initiatief waarbij AI op een veilige manier wordt ingezet en concrete resultaten oplevert. Dit creëert intern vertrouwen en legt de basis voor grotere, meer transformatieve toepassingen.

Gedurende dit proces moeten organisaties kunnen terugvallen op de basisprincipes. Zorg er dus voor dat de kosten voor ontwikkeling, prestaties en veerkracht van het AI-model in balans zijn. Elke stap moet verklaarbaar zijn. Is dit niet het geval, dan moet je stoppen en terugdraaien voordat het uit de hand loopt.

Klein beginnen is een voorwaarde voor duurzame AI-impact. Gezonde twijfel hoort daarbij. Alleen door de juiste balans te vinden tussen controle en innovatie kunnen organisaties hun AI-beloften daadwerkelijk waarmaken.

Door: Rick Vanover (foto), Vice President Product Strategy bij Veeam Software

ACES Direct DIC Awards 2026 BW + BN Object First Dutch IT Channel Awards 2026 BW + BN
ACES Direct DIC Awards 2026 BW + BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!