Niet naleving van AI-regelgeving leidt steeds vaker tot juridische uitdagingen
Meer dan 70 procent van de respondenten noemt de naleving van regelgeving als een van de drie grootste uitdagingen bij de grootschalige implementatie van generatieve AI-hulpmiddelen (GenAI). Slechts 23 procent van de ondervraagden geeft aan zeer vertrouwen te hebben in het vermogen van hun organisatie om veiligheid en governance te waarborgen bij het inzetten van GenAI in bedrijfsapplicaties.

Dit blijkt uit een enquête van Gartner onder 360 IT-leiders. Lydia Clougherty Jones, senior directeur analist bij Gartner, stelt dat wereldwijde AI-regelgeving sterk verschilt per land. "De regelgeving weerspiegelt hoe elk land de balans zoekt tussen AI-leiderschap, innovatie en wendbaarheid aan de ene kant, en risicobeperking aan de andere kant. Dit leidt tot inconsistente en soms tegenstrijdige nalevingsverplichtingen, wat het moeilijker maakt om AI-investeringen af te stemmen op meetbare en herhaalbare bedrijfswaarde. Bovendien kunnen organisaties hierdoor blootgesteld worden aan andere aansprakelijkheden."
Geopolitieke invloeden en AI-soevereiniteit
De geopolitieke context speelt een steeds grotere rol in de AI-strategie van bedrijven. Uit het onderzoek blijkt dat 57 procent van de niet-Amerikaanse IT-leiders aangeeft dat het geopolitieke klimaat ten minste matige invloed heeft op de strategie en implementatie van GenAI. Bijna een op de vijf (19 procent) ervaart zelfs een aanzienlijke impact. Toch geeft bijna 60 procent van deze respondenten aan niet bereid of in staat te zijn om over te stappen op niet-Amerikaanse GenAI-alternatieven.
AI-soevereiniteit – het vermogen van staten om de ontwikkeling, implementatie en governance van AI binnen hun rechtsgebied te controleren – speelt een belangrijke rol in bedrijfsstrategieën. Uit een peiling tijdens een Gartner-webinar op 3 september 2025 bleek dat 40 procent van de 489 deelnemers een positieve houding heeft ten opzichte van AI-soevereiniteit, terwijl 36 procent een neutrale "afwachtende" benadering hanteert. Daarnaast geeft 66 procent aan proactief bezig te zijn met een soevereine AI-strategie, en maakt 52 procent operationele of strategische aanpassingen als direct gevolg van deze ontwikkelingen.
Aanbevelingen voor IT-leiders
Gartner adviseert IT-leiders om, gegeven de onzekere en veranderende geopolitieke en juridische omgeving, de controle over GenAI-output te versterken. Concreet worden de volgende stappen voorgesteld:
- Zelfcorrectie inbouwen: modellen trainen om in realtime bepaalde vragen niet te beantwoorden, bijvoorbeeld met een melding als "valt buiten de reikwijdte".
- Strikte gebruikerscasus-reviews: het risico van "chatbot-output die leidt tot ongewenst menselijk handelen" evalueren vanuit juridisch, ethisch, veiligheids- en gebruikersperspectief. Daarnaast prestaties meten aan de hand van de risicotolerantie van de organisatie.
- Meer modeltesten: een multidisciplinair team samenstellen met beslissingsingenieurs, dataspecialisten en juristen om voor testprotocollen te zorgen. Dit team moet ongewenste gespreksoutput identificeren en documenteren hoe deze wordt tegengegaan in de traindata en modeluitvoer.
- Contentmoderatie versterken: bijvoorbeeld door middel van "meld misbruik"-knoppen en "AI-waarschuwingslabels".
Meer informatie voor Gartner-cliënten is beschikbaar in het rapport 'How Global AI Policy and Regulations Will Impact Your Enterprise'. Daarnaast deelt Gartner meer informatie op Gartner IT Symposium/Xpo, dat op de volgende data en locaties plaatsvindt: