12 maart 2026

Waarom security sneller moet evolueren dan innovatie (en dat nu niet het geval is)

Elke grote technologische ontwikkeling volgt hetzelfde patroon: een nieuwe technologie wordt geïntroduceerd, de concurrentiedruk neemt toe, de adoptie komt terecht in een stroomversnelling, maar de beveiliging blijft keer op keer achter.

Waarom security sneller moet evolueren dan innovatie (en dat nu niet het geval is) image

We zagen dit recent bij de public cloud - een breed, slecht gedefinieerd concept dat voor verschillende organisaties verschillende dingen betekende. Gevestigde bedrijven werden afgetroefd door wendbaardere concurrenten of overrompeld door schaduw-IT. De beveiligingsaanpak was reactief, waardoor organisaties en hun IT-beveiligingsteams continu achter de feiten aanliepen.

Kunstmatige intelligentie (AI) lijkt hetzelfde traject in te gaan, alleen dan sneller en met veel hogere risico’s. AI is namelijk niet één technologie, het is een golvende evolutie. En het verkeerd begrijpen van die golven is een van de grootste beveiligingsrisico’s waarmee organisaties momenteel te maken hebben.

De drie golven van AI en waarom ze belangrijk zijn voor beveiliging

De eerste golf van AI richtte zich op voorspellende analyses: data lakes, grootschalige patroonherkenning en machine learning die grotendeels op de achtergrond opereerden. Voor veel organisaties verliep deze implementatie relatief geruisloos, zonder nadrukkelijk toezicht van de raad van bestuur. Ondoordachte implementatie van deze analyses kan echter grote gevolgen hebben voor de veiligheid van gegevens, zoals het lekken van gevoelige informatie.

De tweede golf, generatieve AI, veranderde alles. Toen tools die mensachtige tekst, code en afbeeldingen konden produceren in het publieke domein terechtkwamen, werd AI van de ene op de andere dag een mainstream gespreksonderwerp. Generatieve AI werd op één hoop gegooid met andere vormen van AI. Hierdoor werden cruciale verschillen in risicoprofielen en de daarbij passende beveiligingsmaatregelen over het hoofd gezien.

De snelle implementatie van generatieve AI kan echter vergaande gevolgen hebben. Zo blijkt uit onderzoek van Zscaler dat zeven op de tien organisaties beperkt inzicht heeft in het gebruik van schaduw-AI. Bovendien gelooft 56% dat gevoelige informatie waarschijnlijk al gedeeld is met niet-goedgekeurde AI-tools. Op deze beveiligingsproblemen wordt vaak reactief gereageerd, in plaats van de beveiliging vanuit de basis te herzien. Deze aanpak is echter niet houdbaar, zeker nu we in de derde golf zitten: agentic AI. Deze technologie zal het dreigingslandschap fundamenteel veranderen.

Agentic AI: wanneer systemen handelen, niet alleen assisteren

Agentic AI-systemen analyseren of genereren niet alleen content, maar handelen ook. Ze maken rechtstreeks verbinding met bedrijfssystemen, nemen beslissingen en activeren workflows. Steeds vaker doen ze dit semi-autonoom, met beperkt menselijk toezicht. Uit het onderzoek van Zscaler blijkt dat 42% van de organisaties agentic AI-projecten in de testfase heeft. 34% is al overgegaan op de implementatie van agentic AI. Cruciaal is dat de helft van deze organisaties geen degelijke governance heeft of hun beveiligingsmaatregelen heeft geüpdatet.

Het gaat vaak fout bij het inschatten van de risico’s: voorspellende en generatieve AI brengen vooral risico’s met zich mee op het gebied van gegevensuitwisseling, terwijl agentic AI risico’s geeft voor gedrag en systeemintegriteit. Deze risico’s dringen veel verder door tot in de organisatie. Zodra AI-agents mogen communiceren met ERP-platforms, financiële systemen, logistieke workflows of klantomgevingen, neemt de potentiële impact van beveiligingsincidenten drastisch toe.

De blinde vlek: interne controle versus externe realiteit

Een van de meest zorgwekkende bevindingen uit het onderzoek van Zscaler is niet een gebrek aan investeringen, maar een misplaatst zelfvertrouwen. Negen van de tien organisaties hebben hun uitgaven aan cyberweerbaarheid het afgelopen jaar verhoogd en 96% heeft hun resiliencestrategieën bijgewerkt. Desondanks geeft 61% toe dat die strategieën nog steeds te veel naar binnen zijn gericht. Met andere woorden, organisaties denken dat ze veilig zijn omdat ze controle hebben over wat er binnen hun eigen muren gebeurt, terwijl ze het groeiende ecosysteem van partners, platforms en AI-gestuurde supply chains over het hoofd zien.

Deze blinde vlek is vooral gevaarlijk wanneer agentic AI over de organisatiegrenzen heen opereert. Een interne AI-oplossing wordt al gauw onderdeel van een bredere verbonden supply chain. Zodra agentic systemen taken tussen organisaties overdragen, neemt het aanvalsoppervlak exponentieel toe. Beveiligingsfouten zijn daardoor niet langer geïsoleerde incidenten, maar rimpelingen naar buiten met een veel grotere impact.

Verdediging tegen evoluerende AI-dreiging: een mentaliteitsverandering

Een effectieve verdediging tegen AI-gedreven dreigingen vereist allereerst een mentaliteitsverandering. Bestaande beveiligingsprincipes hoeven niet te worden losgelaten, maar moeten wel doorontwikkeld worden. Veel beveiligingsmaatregelen zijn gebaseerd op controles voor het beheren van menselijke gebruikers. Het verschil bij AI zit vooral in de snelheid, schaal en het continue karakter.

Het beveiligen van agentic AI betekent ook het toekennen van identiteiten (net als bij menselijke medewerkers), het definiëren van least privilege-toegang, het vaststellen van gedragsbaselines en het continu monitoren op afwijkingen. Zo kan een agent die begint te interageren met een systeem buiten zijn gedefinieerde doel net zo verdacht zijn als een mens die hetzelfde doet.

Segmentatie is hierbij cruciaal. Niet als een abstract architecturaal ideaal, maar als een praktische manier om de impact van risico’s te beperken. Zonder segmentatie kunnen gecompromiteerde agents zich bijvoorbeeld met machinesnelheid lateraal verplaatsen. En misschien wel het belangrijkste: organisaties moeten stoppen met het beschouwen van AI-beveiliging als een losse toevoeging. Uit het onderzoek blijkt dat 52% van de IT-leiders vindt dat hun huidige beveiligingssystemen niet opgewassen zijn tegen de geavanceerde dreigingen van vandaag. Als organisaties al worstelen met de huidige dreigingen, hoe moeten ze dan omgaan met opkomende dreigingen zoals agentic AI en kwantumcomputing?

Van reactieve beveiliging naar veerkracht-by-design

Het tempo van innovatie overtreft consequent de governance-, wetgevings- en aanbestedingscycli. Wachten tot frameworks volwassen zijn of tot incidenten veranderingen afdwingen, is niet langer haalbaar. Veerkracht moet vanaf het begin worden ingebouwd en niet achteraf worden toegevoegd na een verstoring.

Dit betekent dat de focus moet verschuiven van point oplossingen naar architecturale flexibiliteit. Organisaties moeten beveiligingsmodellen bouwen die zich aanpassen aan de evolutie van AI-mogelijkheden. Agentic systemen zullen alleen maar capabeler, meer verbonden en autonomer worden. Organisaties die AI-beveiliging blijven zien als een niche of een toekomstig probleem, zullen de fouten uit het public cloudtijdperk herhalen. Deze keer zullen de gevolgen echter veel sneller zichtbaar worden.

De vraag is niet langer of AI het dreigingslandschap zal veranderen. Dat is al gebeurd. De echte vraag is of bedrijven voorbereid zijn om zich ertegen te verdedigen voordat de gevolgen hen bereiken.

Door: Martyn Ditchburn (foto), CTO in Residence bij Zscaler

Axians NaaS BW + BN Omada Hospitality workshop BW BN
Axians NaaS BW + BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!