Wouter Hoeffnagel - 22 januari 2026

AI-agents steeds vaker geïntegreerd in bedrijfsprocessen

AI-agents zijn door 89 procent van de IT-securitybeslissers al volledig of gedeeltelijk gekoppeld aan hun identiteitsinfrastructuur. Nog eens 10 procent overweegt dit te doen. Doordat AI-agents steeds autonoomer opereren en directe invloed krijgen op bedrijfskritische processen, ontstaan er nieuwe risico’s voor chief information security officers (CISO’s). Een zelfstandig besluit van een AI-agent kan namelijk data, systemen of de bedrijfscontinuïteit in gevaar brengen.

AI-agents steeds vaker geïntegreerd in bedrijfsprocessen image

Dit blijkt uit onderzoek van Rubrik Zero Labs onder 1.625 IT-securitybeslissers bij bedrijven met minimaal 500 medewerkers. Onderzoeksbureau Gartner verwacht dat meer dan 40 procent van de AI-agentprojecten tegen eind 2027 wordt stopgezet, omdat de risico’s te groot blijken of de kosten onbeheersbaar worden. Juist door de groeiende zelfstandigheid van deze systemen is het essentieel om veiligheid en controle vooraf goed te regelen. Filip Verloy, CTO EMEA & APJ Rx bij cybersecurity- en AI-bedrijf Rubrik, deelt vijf aanbevelingen om een AI-strategie toekomstbestendig in te richten.

1. Veiligheid en herstelbaarheid als basis

Bouw AI-systemen volgens het ‘Secure by design’-principe, waarbij veiligheid en betrouwbaarheid vanaf het begin zijn ingebouwd. Dit betekent niet achteraf repareren, maar direct zorgen dat alle processen uitlegbaar en terugdraaibaar zijn. Veerkracht moet een vast onderdeel zijn van de aanpak, niet een latere toevoeging.

2. Snel herstel bij fouten

AI-agents zullen onvermijdelijk fouten maken. Organisaties moeten hierop voorbereid zijn door niet alleen logbestanden bij te houden, maar ook effectieve tools in te zetten om snel terug te keren naar de staat vóór de fout. Zo blijft de continuïteit van systemen gewaarborgd.

3. Systemen die meerdere storingen aankunnen

Omdat AI-agents vaak samenwerken, kunnen fouten zich snel verspreiden. Het is belangrijk systemen zo in te richten dat één fout niet direct tot grotere problemen leidt. Isoleer waar mogelijk de acties van agents om escalatie te voorkomen.

4. Beperkte toegang voor AI-agents

AI-agents stoppen niet automatisch bij problemen en kunnen in korte tijd ongecontroleerde acties uitvoeren. Recentelijke incidenten laten zien dat fouten variëren van technische storingen en juridische kwesties tot het per ongeluk verwijderen van complete productiedatabases. Geef agents daarom alleen toegang tot wat strikt noodzakelijk is, vooral bij klantdata of kritieke bedrijfsprocessen.

5. Transparantie en controle

Uit gesprekken met bedrijven blijkt dat minder dan 10 procent beschikt over tools om AI-activiteiten te onderzoeken. Zorg dat het hele proces – van opdracht tot eindresultaat – traceerbaar en controleerbaar is. Dit maakt het mogelijk om achteraf te analyseren wat er is gebeurd en indien nodig in te grijpen of acties ongedaan te maken.

"AI-agents falen op een manier die we niet eerder hebben gezien en dat vraagt om een compleet andere kijk op beveiliging. Het zijn zelfstandige, dynamische systemen. Alleen door proactief grenzen te stellen, het gedrag continu te monitoren en samenwerking tussen verschillende specialismen te stimuleren, kunnen organisaties de kracht van AI-agents veilig en effectief benutten. De bedrijven die de opkomst van AI-agents overleven, zijn degene die innovatie omarmen en voorbereid zijn op fouten. Nú is het moment om veerkracht op te bouwen, voordat AI-agents in paniek raken en verkeerde beslissingen nemen", aldus Verloy.

PNY 01-2026 BW
PNY 01-2026 BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!