Witold Kepinski - 07 mei 2026

Microsoft sluit AI-veiligheidspact met Amerikaanse en Britse overheden

Microsoft gaat nauw samenwerken met gespecialiseerde AI-veiligheidsinstituten in de Verenigde Staten en het Verenigd Koninkrijk om de risico's van geavanceerde kunstmatige intelligentie te beteugelen. De techreus heeft nieuwe overeenkomsten getekend met het Amerikaanse Center for AI Standards and Innovation (CAISI) en het Britse AI Security Institute (AISI).

Microsoft sluit AI-veiligheidspact met Amerikaanse en Britse overheden image

Het doel van de samenwerking is om de wetenschap achter AI-evaluatie en -testen naar een hoger niveau te tillen. De focus ligt hierbij op het identificeren van gevaren voor de nationale veiligheid en de publieke veiligheid, zoals AI-gestuurde cyberaanvallen of crimineel misbruik van zogeheten 'frontier models'.

Collaboratieve stress-testen

Volgens Natasha Crampton, Chief Responsible AI Officer bij Microsoft, is interne controle niet langer voldoende. "Testen op risico's voor de nationale veiligheid moet noodzakelijkerwijs een gezamenlijke inspanning zijn met overheden," aldus Crampton. De instituten beschikken over specifieke wetenschappelijke en technische expertise die cruciaal is voor het beoordelen van complexe AI-systemen.

In de Verenigde Staten werkt Microsoft samen met het NIST (onderdeel van CAISI) aan betere methoden voor adversarial assessments. Dit kan worden vergeleken met een botsproef voor auto's: de AI-modellen worden doelbewust onder extreme druk gezet om te kijken of veiligheidssystemen zoals filters en 'safeguards' betrouwbaar blijven werken.

Internationale standaard

In het Verenigd Koninkrijk ligt de nadruk bij AISI op onderzoek naar de veiligheid van de allerkrachtigste AI-modellen en de maatschappelijke weerbaarheid tegen conversatie-AI in gevoelige contexten. De inzichten uit deze samenwerkingen worden gedeeld binnen een internationaal netwerk, waar ook instituten uit Japan, Zuid-Korea en Singapore bij betrokken zijn.

Microsoft benadrukt dat deze rigoureuze testtrajecten essentieel zijn om het publieke vertrouwen in AI te behouden. De lessen die uit deze onderzoeken naar voren komen, worden direct toegepast in het ontwerp en de uitrol van nieuwe Microsoft-producten.

Dutch IT Security Day 2026 BW + BN Axians datagovernance BW + BN
Dutch IT Security Day 2026 BW + BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!