Wouter Hoeffnagel - 19 maart 2026

Proofpoint AI Security bewaakt verantwoord AI-gebruik door mensen en AI-agents

Cybersecurity- en compliancebedrijf Proofpoint introduceert Proofpoint AI Security. De oplossing zorgt dat zowel mensen als AI-agents AI op een verantwoorde manier gebruiken binnen organisaties. De oplossing combineert detectie op basis van intentie, controlepunten op meerdere platforms en een uitgebreid implementatieframework. Daarnaast introduceert Proofpoint een volwassenheidsmodel voor de implementatie in vijf fasen. Dit model is gebaseerd op het Agent Integrity Framework, dat bepaalt hoe een AI-agent met integriteit kan functioneren.

Proofpoint AI Security bewaakt verantwoord AI-gebruik door mensen en AI-agents image

Met de toenemende inzet van autonome AI-agents voor taken zoals internetgebruik, toegang tot interne systemen, het verzenden van e-mails, het uitvoeren van code en het coördineren van workflows nemen ook de risico’s toe. Denk hierbij aan escalatie van bevoegdheden door agents en zero-click prompt injection-aanvallen. Een enkel AI-verzoek kan tientallen autonome acties in meerdere systemen in gang zetten, vaak zonder menselijk toezicht. Bestaande beveiligingstools kunnen verkeer en machtigingen detecteren, maar beoordelen niet of het gedrag van AI overeenkomt met de oorspronkelijke intentie van de gebruiker. Uit onderzoek van Acuvity, recentelijk overgenomen door Proofpoint, blijkt dat 70% van de organisaties geen geoptimaliseerd AI-beheer heeft. Bovendien verwacht 50% van de organisaties binnen twaalf maanden AI-gerelateerd dataverlies, wat de dringende noodzaak benadrukt om agentic AI-omgevingen te beveiligen.

'Security moet meegroeien'

“AI is inmiddels een vast onderdeel geworden van de manier waarop werk wordt gedaan, en security moet hierin meegroeien”, zegt Sumit Dhawan, CEO van Proofpoint. “Mensen en AI-agenten lopen vergelijkbare risico’s: beiden kunnen worden gemanipuleerd, maar kunnen ook acties ondernemen die afwijken van het beoogde doel, terwijl traditionele security nooit is ontworpen om de intentie te valideren. Proofpoint neemt een unieke positie in als een geïntegreerd cybersecurityplatform dat is gebouwd om mensen te beschermen, data te verdedigen en AI-agents gezamenlijk te beheren. Hierbij wordt continu, op intentie gebaseerde verificatie geboden dat nakijkt of gedrag in overeenstemming is met het beleid en de intentie in de agentic werkomgeving.”

De oplossing maakt gebruik van detectiemodellen gebaseerd op intentie bij alle AI-interacties. Traditionele beveiligingstools bieden geen inzicht in de semantische inhoud van AI-interacties, waar vaak risico’s schuilen. Proofpoint AI Security sluit deze kloof door het gedrag van AI, of dit nu door een mens of een autonome agent wordt geïnitieerd, voortdurend te beoordelen. Hierbij wordt gekeken of het gedrag overeenkomt met het oorspronkelijke verzoek, de vastgestelde beleidsregels en het doel. Door de volledige semantische context van AI-interacties te analyseren, signaleert de oplossing in realtime afwijkende of risicovolle acties, zoals niet-conforme communicatie of dataverlies.

Uniforme architectuur

Proofpoint AI Security biedt bescherming tegen autonome AI-risico’s via een uniforme architectuur voor de agentic werkomgeving. Het is actief op alle platforms waar AI wordt gebruikt, waaronder endpoints, browserextensies en MCP-verbindingen. Organisaties krijgen hierdoor inzicht en controle over het gebruik van AI en de bijbehorende risico’s. Dit is met name cruciaal in developeromgevingen, waar met agents verbonden codeerassistenten, plug-ins en in MCP geïntegreerde tools de acceptatie versnellen en de behoefte aan inzicht en beleidshandhaving vergroten.

Via deze controlepunten kunnen organisaties goedgekeurde en niet-goedgekeurde AI-tools ontdekken, zoals OpenClaw, Ollama, ChatGPT en MCP-servers, die door mensen en agents worden gebruikt. Daarnaast kunnen ze letten op prompts, reacties en datastromen tijdens het gebruik van AI-tools, zorgen voor toegangscontroles en vangrails bij het gebruik van AI, en controle implementeren tijdens de uitvoering en beleidsregels handhaven tijdens live AI-interacties.

Proofpoint het Agent Integrity Framework

Om bedrijven een gestructureerd stappenplan te bieden voor veilig AI-beheer introduceert Proofpoint het Agent Integrity Framework. Dit framework beschrijft wat het betekent als een AI-agent op integere wijze functioneert en biedt een volwassenheidsmodel in vijf fasen voor de implementatie, van de eerste detectie tot handhaving tijdens de uitvoering. Het framework definieert ‘Agent Integrity’ als de garantie dat een AI-agent binnen de grenzen van het doel, toegestane rechten en verwacht gedrag opereert, bij iedere interactie, elk gebruik van tools en alle toegang tot gegevens. Het beschrijft vijf pijlers: afstemming op de intentie, identiteit en toeschrijving, consistentie in gedrag, controleerbaarheid en operationele transparantie.

“Van mensen wordt verwacht dat ze integer te werk gaan bij het gebruik van bedrijfssystemen. AI-agentsmoeten zich aan dezelfde norm houden”, zegt Ryan Kalember, Executive Vice President Cybersecurity Strategy bij Proofpoint. “Agent Integrity houdt in dat AI-agents bij elke interactie, toolgebruik en gegevenstoegang handelen binnen de grenzen van hun doel, geautoriseerde rechten en verwacht gedrag. Met Proofpoint AI Security en het Agent Integrity Framework kunnen we een duidelijk stappenplan bieden om ondernemingen te helpen het volledige spectrum aan risico's aan te pakken dat ontstaat wanneer AI-agenten autonoom opereren binnen bedrijfssystemen.”

Proofpoint AI Security is wereldwijd beschikbaar.

Omada Hospitality workshop BW BN Companial BW
SAP Connect Day BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!