Arjen van der Meer (Sophos): AI vraagt bij de overheid niet alleen om technologie, maar vooral om regie
De druk op overheidsorganisaties om iets met AI te doen neemt snel toe. Burgers raken gewend aan snellere digitale interactie, leveranciers presenteren in hoog tempo nieuwe toepassingen en intern groeit de verwachting dat kunstmatige intelligentie werk kan versnellen of vereenvoudigen. Tegelijk neemt ook het dreigingsniveau toe. Cybercriminelen gebruiken dezelfde technologie om aanvallen op te schalen, terwijl overheden nog zoeken naar de juiste manier om AI veilig, beheersbaar en bestuurbaar in te zetten.
Volgens Arjen van der Meer, Enterprise Account Executive Nederland bij Sophos, is dat precies het spanningsveld waarin de publieke sector zich nu bevindt. Organisaties willen vooruit, maar moeten tegelijk nieuwe risico’s beheersen die zich niet altijd laten vangen in bestaande governance- en securitymodellen. Zeker bij agentic AI, waarbij systemen zelfstandiger opereren, verschuift de discussie volgens hem van experiment naar beheersing.
“AI is de heilige graal,” zegt van der Meer. “Iedereen loopt erachteraan, want als we geen AI gaan toepassen, dan missen we de boot.” Die reflex begrijpt hij, maar hij ziet ook het risico van te snelle adoptie zonder duidelijke probleemstelling. Volgens hem beginnen veel organisaties nog te vaak bij de technologie, terwijl ze eerst zouden moeten bepalen welke processen werkelijk gebaat zijn bij AI en onder welke voorwaarden dat verantwoord kan.
Van interesse naar toepassing
In gesprekken met overheidsorganisaties merkt van der Meer dat AI inmiddels overal onderwerp van gesprek is. “Dat betekent niet dat de toepassing al volwassen is. Veel organisaties verkennen de mogelijkheden nog, vaak vanuit een brede ambitie om efficiënter te werken of de dienstverlening te verbeteren. Maar zodra het concreet wordt, blijken de vragen vooral te gaan over risico’s, rechten en controle.”
Hij ziet regelmatig dat AI wordt benaderd als een algemene productiviteitsoplossing, zonder dat vooraf helder is welke waarde precies wordt gezocht. “Dat leidt soms tot voorstellen die technologisch interessant klinken, maar operationeel of organisatorisch niet goed zijn doordacht. Bijvoorbeeld ideeën om AI te gaan inzetten voor klantcontact.” Niet omdat AI daar per definitie ongeschikt voor is, maar omdat slechte implementatie tot frustratie leidt bij burgers én medewerkers.
Van der Meer vindt daarom dat overheden veel scherper moeten kijken naar de context waarin AI wordt ingezet. “Niet iedere taak leent zich voor automatisering, en niet iedere efficiëntiewinst is automatisch ook een kwaliteitsverbetering. Juist in de publieke sector moeten keuzes volgens hem expliciet worden gemaakt, omdat de gevolgen van fouten direct zichtbaar worden in dienstverlening, besluitvorming en vertrouwen.”
Agentic AI
Het gesprek wordt volgens hem nog ingrijpender zodra het niet meer alleen gaat over generatieve AI, maar over agentic AI, systemen die niet slechts reageren op prompts, maar ook zelfstandig meerdere handelingen kunnen uitvoeren binnen een proces. Dat maakt ze krachtiger, maar ook moeilijker te beheersen. “Agentic AI betekent in feite dat je een persona in je organisatie binnenhaalt die je toegang geeft tot gegevens, die je zelfstandig beslissingen laat nemen en die je ook in staat stelt om gegevens te veranderen,” zegt Van der Meer. Daarmee krijgt AI een rol die eerder was voorbehouden aan medewerkers of strak afgebakende applicaties.
Dat heeft grote gevolgen voor security. “Een agent opereert niet als mens, maar krijgt wel rechten, toegang en handelingsruimte. Juist daarom zouden organisaties deze systemen niet alleen als innovatie moeten benaderen, maar ook als nieuwe identiteiten binnen hun digitale omgeving. Want per saldo is het een enorm cybersecurityrisico.”
Agents worden in de praktijk gemakkelijk te ruim ingericht. “Ze krijgen toegang tot meer systemen of meer gegevens dan strikt noodzakelijk, simpelweg omdat organisaties nog zoeken naar hoe ze dit soort toepassingen moeten ontwerpen en besturen. Daardoor ontstaat een nieuw type kwetsbaarheid: een digitale actor die veel kan, maar nog onvoldoende is ingebed in bestaande controlemechanismen.”
Interne dreiging
Daarmee komt Van der Meer op een belangrijk punt: agentic AI moet ook worden bekeken vanuit het perspectief van insider risk. “Niet omdat zo’n systeem kwaadaardige intenties heeft, maar omdat het gedrag kan vertonen dat buiten de bedoeling van de organisatie valt. Dat is een wezenlijk verschil met traditionele software. Klassieke applicaties doen in principe steeds hetzelfde zolang de code niet verandert. AI-modellen zijn dynamischer. Een AI-model kan morgen hele andere dingen doen dan het vorige week deed.”
Beveiliging kan daarom niet beperkt blijven tot vooraf ingestelde rechten of een eenmalige goedkeuring. “Organisaties moeten continu monitoren hoe een model of agent zich gedraagt, welke gegevens het verwerkt en welke acties het uitvoert. Daar verschuift de aandacht dus van statische controle naar gedragsanalyse.”
Daar ligt een belangrijke rol voor Sophos “Wij monitoren niet per definitie het model, maar wij zien wel dat het model data aan het manipuleren is,” zegt hij. “Wij zien bijvoorbeeld dat een model in één keer credentials lekt omdat het model toegang heeft tot de Active Directory.”
Dat soort signalen zijn volgens hem belangrijker dan de vraag of een systeem formeel wel of niet als AI wordt aangemerkt. De relevante vraag is: wat gebeurt er in de omgeving, en wijkt dat af van wat acceptabel is? “Wij zien dat ongeoorloofd en ongewenst gedrag. Of het nou een medewerker is of agentic AI. Dat is een trigger om te signaleren dat er iets gebeurt wat niet in de haak is.”
Identiteit
Daarmee vervaagt volgens hem ook de klassieke grens tussen identity management en security operations. Identiteit is niet langer alleen een administratief gegeven, maar een actief risicodomein. Gelekte credentials, verkeerd ingerichte rechten en misbruik van digitale identiteiten blijven een van de belangrijkste aanvalsroutes. Juist daarom zet Sophos sterk in op identity threat detection and response: het actief verbinden van identiteitsbeheer met operationele beveiliging.
En een belangrijk deel van de weerbaarheid zit nog altijd in gedrag en organisatiecultuur. De mens blijft een kwetsbare factor. Dat komt volgens hem niet alleen door een gebrek aan kennis of awareness. “Het zit ook in de vraag of medewerkers zich veilig voelen om fouten te melden. Iemand die op een phishingmail klikt moet zich veilig genoeg voelen om te zeggen dat er iets fout is gegaan. Anders verliest de organisatie kostbare tijd.”
Security is daarmee ook een cultuurvraagstuk. “We zien een verandering in wat van publieke IT-leiders gevraagd wordt. Technische kennis blijft nodig, maar de doorslaggevende vaardigheid is het vermogen om technologie te vertalen naar bestuurlijke en organisatorische keuzes. De CIO hoeft niet zelf op elk detail expert te zijn. Belangrijker is dat hij of zij de risico’s scherp ziet, en de juiste vragen stelt.”