GenAI-gebruik onder organisaties sterk gestegen
Het gebruik van GenAI binnen organisaties is sterk toegenomen, blijkt uit een recent rapport. In 2024 steeg het GenAI-verkeer met meer dan 890%. Het gemiddelde aantal GenAI-gerelateerde beveiligingsincidenten is dit jaar al 2,5 keer zo hoog en maakt nu 14% van alle incidenten uit.

Dit blijkt uit het ‘2025 State of GenAI’ rapport van Palo Alto Networks, gebaseerd op data van ruim 7.000 organisaties wereldwijd in 2024 met aanvullende incidentgegevens uit het eerste kwartaal van 2025. Ook Nederlandse organisaties zijn betrokken bij het onderzoek.
Diep verankerd bij veel organisaties
Het rapport laat zien hoe diep GenAI inmiddels is verankerd in de manier waarop organisaties wereldwijd werken en innoveren. Hoewel de technologie aanzienlijke productiviteitswinsten oplevert, zijn er ook nieuwe beveiligingsrisico’s. Organisaties geven aan gemiddeld 66 GenAI-apps binnen het bedrijf te gebruiken, waarvan 10% als ‘hoog risico’ kan worden geclassificeerd. Vooral het ongecontroleerde gebruik van AI-tools buiten het zicht van IT, ook wel 'shadow AI' genoemd, in combinatie met een toename van datalekken en compliance-overtredingen, vraagt om snelle en gerichte actie van organisaties.
Van experiment naar essentieel bedrijfsmiddel
Een van de belangrijkste bevindingen is dat GenAI zich ontwikkelt van experiment naar essentieel bedrijfsmiddel. Het GenAI-verkeer steeg in 2024 met meer dan 890%. Bedrijven adopteren de technologie in hoog tempo, onder meer vanwege volwassen AI-modellen, geautomatiseerde workflows en aantoonbare productiviteitswinsten.
Gemiddeld gebruiken organisaties zo’n 66 GenAI-tools, waarvan 10% als ‘hoog risico’ wordt beschouwd. Bijna de helft van de bedrijven maakt inmiddels gebruik van Microsoft Copilot of Copilot Studio. De opvallende piek in oktober 2024 suggereert dat steeds meer AI-initiatieven daadwerkelijk in productie worden genomen, meldt het rapport.
Meer beveiligingsincidenten
Het ongecontroleerde gebruik van GenAI leidt tot een forse toename van beveiligingsincidenten. In 2025 is het aantal GenAI-gerelateerde data loss prevention-incidenten met een factor 2,5 toegenomen. Deze incidenten vormen inmiddels 14% van alle datalekken binnen SaaS-verkeer. "Shadow-AI", het gebruik van AI-tools zonder toestemming of toezicht, vormt een ernstig risico op het lekken van bedrijfsgevoelige data, inbreuk op regelgeving en verlies van intellectueel eigendom.
Veelgebruikte toepassingen zoals schrijf- en code-assistenten worden vaak gebruikt zonder adequate beveiliging. In meer dan 70% van de gevallen bleken deze toepassingen vatbaar voor jailbreak-aanvallen met mogelijk gevaarlijke uitkomsten. De opkomst van AI-plugins, bots, copilots en agents creëert nieuwe ‘side doors’ in IT-omgevingen. Deze tools blijven vaak onder de radar van beveiligingsteams, terwijl ze kwetsbaar zijn voor datalekken, manipulatie en misbruik.
'Gebruik stijgt in razendsnel tempo'
"Ook in Nederland zien we het gebruik van GenAI in razendsnel tempo toenemen," bevestigt Michiel Buurman, VP Noord-Europa bij Palo Alto Networks. "Organisaties experimenteren volop, maar worstelen tegelijkertijd met de veelvoud aan AI-tools en het ongecontroleerde gebruik ervan buiten het zicht van IT. Bedrijven vinden het vaak lastig om persoonlijk gebruik van AI-tools te monitoren en tegen te gaan. Ook krijgen ze soms te maken met malafide of gemanipuleerde AI-modellen. Het is belangrijk dat organisaties heldere kaders en realtime zicht op het gebruik van GenAI gaan inzetten om het risico op datalekken te verminderen."
Naast technische dreigingen speelt ook wet- en regelgeving een groeiende rol. De razendsnelle ontwikkeling van AI leidt tot een wereldwijde inhaalslag van toezichthouders, wat zorgt voor onzekerheid bij organisaties. Niet-naleving van nieuwe regels rond AI-gebruik en datadeling vergroot het risico op datalekken, verlies van bedrijfsgevoelige informatie en zware boetes. Strengere wetgeving vereist bovendien veel zorgvuldigheid in hoe en waar GenAI wordt ingezet.
'Implementeer een meerlaagse AI-governance strategie'
Om veilig te kunnen profiteren van de voordelen van GenAI, wordt organisaties geadviseerd om een proactieve, meerlaagse AI-governance strategie te implementeren. Dat begint met inzicht in het gebruik van GenAI en heldere richtlijnen over wat wel en niet is toegestaan. Voorwaardelijk toegangsbeheer en real-time databeveiliging zorgen voor controle over het gebruik van AI-toepassingen en beschermen tegelijkertijd gevoelige informatie. In combinatie met een zero trust-architectuur zijn organisaties beter in staat om AI-gedreven dreigingen tijdig te signaleren en te blokkeren.