Shadow AI is wijdverbreid bij grote organisaties
Nieuwe cijfers tonen aan dat het Shadow AI-fenomeen wijdverbreid is in grote ondernemingen. Terwijl werknemers gevoelige bedrijfsdata delen met gratis tools, lijkt het topmanagement snelheid en efficiëntie boven privacy en governance te stellen. Maar in sterk gereguleerde sectoren is de ‘laissez-faire’-aanpak een gevaarlijk spel.
Het fenomeen Shadow AI – het ongeautoriseerde gebruik van kunstmatige intelligentie door werknemers – neemt geleidelijk alarmerende vormen aan. Uit nieuw onderzoek van cybersecuritybedrijf BlackFog blijkt dat bijna de helft (49%) van de werknemers AI-tools gebruikt zonder toestemming. De risico’s rond databescherming zijn evident, maar het meest verontrustende aspect is nog de lakse houding in heel wat directiekamers.
Het onderzoek, uitgevoerd bij 2.000 werknemers van Amerikaanse en Britse bedrijven met meer dan 500 medewerkers, schetst een beeld van organisaties die in recordtempo AI adopteren, maar waarbij veiligheid en governance ver achterop hinken. Niet minder dan 86% van de ondervraagden gebruikt AI wekelijks voor werktaken, voornamelijk voor technische ondersteuning, verkoop en contractbeheer. Ook in België is de trend onmiskenbaar. Evelien Vanhooren, Partner Cloud Transformation & Sustainability bij delaware bevestigt dat het fenomeen wijdverbreid is: “Je kunt er niet omheen. De jongere generaties zijn ermee opgegroeid en nemen die tools gewoon mee vanuit hun studie naar de werkvloer”.
De illusie van kosteloze efficiëntie
In Europa, en al helemaal in de Belgische financiële sector, wordt deze trend met argwanend oog gevolgd. Philippe Van Belle, CIO bij AG Insurance, ziet de bui al hangen. “AI is de grootste disruptor die we ooit hebben gezien, waarschijnlijk groter dan het internet op de lange termijn. De verwachtingen rond meerwaarde zijn gigantisch en de evolutie gaat aan lichtsnelheid,” aldus Van Belle.
Het probleem ligt vooral bij het type tools dat werknemers gebruiken. Meer dan de helft (58%) van degenen die niet-goedgekeurde AI-instrumenten inzetten, grijpt naar gratis versies – vaak omdat ze sneller zijn of andere functionaliteiten bieden dan de bedrijfsoplossingen. “Er is altijd een kost verbonden aan gratis tools; in dit geval is dat de waarde van je data,” stelt Darren Williams, CEO van BlackFog. Van Belle beaamt dit en wijst op de technische gevaren van deze ‘gratis’ cultuur: “Vrijwel alle gratis AI-tools gebruiken ingevoerde data om hun modellen te trainen. Eens de informatie is verwerkt in een Large Language Model (LLM), is er geen weg terug”. Hij waarschuwt dat bedrijven vaak blind vliegen: “Niemand weet precies waar die gegevens verwerkt worden. Is dat in België, Europa of de VS? Zonder controle stromen gegevens ongefilterd naar de buitenwereld”. “En je kunt deze informatie niet meer terugkrijgen”, benadrukt Williams. Enterprise-plannen laten bedrijven doorgaans wel toe om training op hun data uit te schakelen, maar dat is niet altijd het geval. IT-beheerders moeten dit expliciet controleren bij hun LLM-providers.
Gevoelige data stroomt naar buiten
De data die werknemers delen, is verre van onschuldig. Een derde van de ondervraagden (33%) geeft toe onderzoeksresultaten of datasets te delen, terwijl 27% personeelsgegevens zoals salarissen of evaluaties invoert. Het gaat voor alle duidelijkheid om een Amerikaans onderzoek, maar voor Europese bedrijven is dit een juridisch mijnenveld onder de GDPR. De Europese GDPR stelt strikte eisen aan de verwerking van persoonsgegevens en bedrijfsdata. Het doorgeven van bijvoorbeeld personeelsgegevens aan Amerikaanse AI-diensten zonder adequate waarborgen kan leiden tot zware boetes. Tegelijk is er de kwestie van intellectual property (IP). Eenmaal in een LLM ingevoerd, kan concurrentiegevoelige informatie potentieel toegankelijk worden voor anderen.
Van Belle benadrukt dat het risico op zo’n datalek gigantisch is: “Informatie over onze klanten of hun gezondheid kan niet zomaar circuleren. We moeten AI volledig kunnen afschermen van misbruik”. Bovendien opent Shadow AI achterdeuren voor cybercriminaliteit. “Elke deur die je opent voor AI is een risico. We hebben onlangs in een testomgeving nog gezien dat een AI-bibliotheek cybersecurity-problemen bevatte. Als dat in je echte netwerk zit, overleeft je bedrijf dat geen twee maanden,” waarschuwt hij scherp. Vanhooren vult aan dat de nuchtere Europese aanpak hier verschilt van de Amerikaanse: “Het is gevaarlijk om je kop in het zand te steken. Wij monitoren het gebruik actief om te zien waar mensen behoefte aan hebben. Zo zagen we de opkomst van Claude en hebben we besloten Enterprise-licenties aan te bieden om de IP-veiligheid te borgen”. “Hoe meer data wordt vrijgegeven aan LLM’s, hoe meer informatie beschikbaar is voor kwaadwillenden om een beter profiel op te bouwen”, voegt Williams nog toe. Die informatie kan gebruikt worden om organisaties te profileren, netwerken binnen te dringen en vertrouwelijke data te gebruiken voor afpersing.
Management: snelheid versus controle
Het meest opvallende cijfer uit het rapport is de houding van de C-suite. Maar liefst 69% van de topmanagers lijkt weinig problemen te hebben met Shadow AI. De beloofde efficiëntiewinsten blijken te verleidelijk. 66% van de ondervraagde directeuren en senior vice-presidents geeft prioriteit aan snelheid boven privacy in de race naar AI-adoptie. Van Belle herkent de druk om snel te gaan, maar weigert mee te gaan in een onveilig scenario. “Ik heb in mijn dertigjarige carrière nog nooit meegemaakt dat ik tegen de business moest zeggen: ‘Wacht misschien zes maanden voor we dit doen’. De kracht van de technologie dwingt ons echter tot voorzichtigheid”. Voor hem is er bij een gereguleerde instelling geen ruimte om “een oogje toe te knijpen”. “Onze Raad van Bestuur zal nooit een beleid aanvaarden die de business in gevaar brengt”.
Bij Delaware ziet men het aanbieden van veilige alternatieven als de enige weg vooruit. “De kosten van licenties weegt niet op tegen de risico’s van dataverlies,” stelt Vanhooren. “Wij maken AI-trainingen verplicht zodat werknemers zich bewust zijn van wat ze delen. Je mag veel tools gebruiken, maar enkel binnen de afgesproken governance”.
Sandbox-methode als oplossing
Om de innovatie niet te verstikken maar wel te controleren, pleit Van Belle voor een gelaagde aanpak met een ‘sandbox’ (zandbak). “Je kunt innovatie niet blokkeren,” geeft hij toe. Bij AG werken ze daarom met drie zones. De sandbox is een veilige zone met internettoegang voor proefprojecten en testing, maar zonder toegang tot interne systemen. De gebruikerszone is een plaats waar je kan verder bouwen met interne data, maar waar de toegang naar het internet volledig afgesloten is om datalekken te voorkomen. Wanneer een project veelbelovend is, neemt IT het mee naar de IT-zone, oftewel in een productie-omgeving met alle bijbehorende kwaliteits- en veiligheidscontroles.
‘Geen ruimte voor creativiteit in de operaties’
Maar wat met de creativiteit en productiviteitswinsten die kenniswerkers zoeken in al die verschillende AI-chatbots à la ChatGPT, Gemini, Copilot en Claude? Voor de zogenaamde ‘knowledge workers’ stelt AG daarom welgeteld één goedgekeurde tool centraal (Microsoft Copilot, nvdr) binnen een strikt kader. Maar voor de operationele medewerkers is Van Belle onverbiddelijk: “Daar is absoluut geen ruimte voor afwijkingen. We willen niet dat medewerkers hun eigen prompts gaan genereren. Alles moet standaard ingekaderd zijn via RAG (Retrieval-Augmented Generation) om de context te bewaken”.
Delaware kiest voor een bredere ondersteuning. “Wij bieden een bibliotheek van prompts en agents aan, zoals onze Legal AI-agent ‘Lea’, om goede praktijken te schalen over de hele organisatie,” legt Vanhooren uit. “Op het moment dat we een tool willen schalen, nemen we het beheer over van het individu naar IT”.
Bedrijven vliegen blind
De kern van het probleem is dat de meeste organisaties simpelweg niet weten wat er gebeurt. Volgens Darren Williams (Blackfog) heeft 99% van de bedrijven geen manier om te meten wat er in hun omgeving gebeurt, omdat er geen producten zijn geïmplementeerd om dit te bewaken. “Veel bedrijven hebben ervoor gekozen het probleem te negeren en geen beleid rond Shadow AI te creëren of de meerwaarde van betalen voor de technologie niet in te zien, wat een zeer grote fout is.”
Dit moet alarmbellen doen rinkelen bij security teams. Er is dringend meer toezicht en zichtbaarheid nodig op deze blinde vlekken in de beveiliging. Williams adviseert bedrijven om te starten met een audit van wat er in hun systemen gebeurt, de omvang van het probleem te meten, beleid rond AI-gebruik te definiëren en governancekaders te implementeren om het te controleren.
Educatie en beleid noodzakelijk
Maar zelfs voordat beleid kan worden geïmplementeerd, is educatie essentieel. “Educatie is essentieel en vereist niet veel werk”, zegt Williams. Bij delaware is dit reeds de praktijk: “We organiseren inspiratiesessies en ‘bijeenkomsten’ waar medewerkers elkaar helpen en begeleiden in het creëren van AI-oplossingen”.
Voor Europese bedrijven komt daar nog een extra laag bij. Naast de GDPR spelen ook de Digital Operational Resilience Act (DORA) en de aankomende AI Act een rol. Organisaties die nu Shadow AI negeren, kunnen zich niet alleen blootstellen aan cyberrisico’s en verlies van IP, maar ook aan aanzienlijke regelgevende sancties. De efficiëntiewinsten zijn reëel, maar zonder adequate governance en controle kan de prijs uitgedrukt in datalekken, verlies van IP en regulatoire boetes veel hoger uitvallen dan de besparingen. En ziedaar de prijs van gratis: onacceptabel hoog dus.
In samenwerking met Data News