Microsoft lanceert Zero Trust voor AI
Nu bedrijven in recordtempo AI-agenten en taalmodellen omarmen, groeit de vrees bij security-experts: hoe houden we deze ‘zwarte dozen’ veilig? Microsoft speelt hierop in met de lancering van Zero Trust for AI (ZT4AI). Het uitgangspunt is simpel maar streng: vertrouw geen enkele gebruiker, geen enkel model en – cruciaal – geen enkele AI-agent zomaar.
"AI-systemen passen niet netjes in traditionele beveiligingsmodellen," stelt Mike Adams, Corporate Vice President bij Microsoft. Waar we voorheen vooral mensen en apparaten controleerden, ontstaan er nu nieuwe risicogebieden. Autonome AI-agenten die toegang hebben tot bedrijfsdata kunnen onbedoeld fungeren als ‘dubbelagenten’: ze zijn geprogrammeerd om te helpen, maar kunnen door kwaadaardige instructies (prompt injection) gevoelige informatie lekken of verkeerde acties uitvoeren.
De drie heilige huisjes van AI-security
Om deze risico's in te dammen, breidt Microsoft de bekende Zero Trust-principes uit naar de volledige levenscyclus van AI:
- Expliciete Verificatie: Controleer continu de identiteit en het gedrag van AI-agenten, niet alleen bij het inloggen, maar bij elke actie die ze ondernemen.
- Minimale Rechten (Least Privilege): Geef een AI-model alleen toegang tot de specifieke documenten en plug-ins die strikt noodzakelijk zijn voor de taak.
- Ga uit van een Inbreuk (Assume Breach): Ontwerp systemen in de wetenschap dat een model gemanipuleerd kan worden. Bouw extra muren rondom data om 'laterale verplaatsing' van een gehackte AI te voorkomen.
Gereedschapskist voor de CISO
Naast de theorie brengt Microsoft direct nieuwe tools uit. De Zero Trust Workshop bevat nu een specifieke AI-pijler met 700 beveiligingscontroles. Ook is de Zero Trust Assessment tool uitgebreid naar netwerk- en databeveiliging, specifiek gericht op het monitoren van agent-gedrag. In de zomer van 2026 volgt een volledig geautomatiseerde AI-beveiligingstoets.
De architectuur van de toekomst
Voor IT-architecten heeft Microsoft een nieuwe 'referentiearchitectuur' gepubliceerd. Hierin wordt zichtbaar hoe beleidsgestuurde toegangscontrole en continue monitoring samenwerken om AI-systemen veerkrachtig te maken. Er wordt specifiek aandacht besteed aan Indirect Prompt Injection — een aanval waarbij een AI-agent wordt misleid door kwaadaardige tekst in een ogenschijnlijk onschuldig document of e-mail.
Met deze aankondiging zet Microsoft de standaard voor wat zij "robuuste safety engineering" noemen. De boodschap aan security-leiders is helder: AI is de motor van innovatie, maar zonder een Zero Trust-veiligheidsgordel is de kans op een crash te groot.