SAS: “Vertrouwen belangrijk voor AI-gebruik voor strategische beslissingen”
Bedrijven in de Benelux gebruiken nog te weinig AI voor het nemen van langetermijn- of strategische beslissingen. Dit is één van de conclusies uit recent onderzoek door IDC in opdracht van SAS. Bedrijven moeten daarom meer vertrouwen in de mogelijkheden van AI krijgen. Dutch IT-Channel sprak hierover met Rein Mertens van de data- en AI-specialist.
Uit het recente wereldwijde IDC Data and AI Impact Report: The Trust Imperative blijkt dat de adoptie van AI in de Benelux achterloopt bij de rest van de wereld. Slechts weinig bedrijven en organisaties uit onze regio gebruiken AI voor het nemen van strategische beslissingen op de lange termijn; de zogenoemde ‘transformatieve fase’.
“In onze regio is het percentage bedrijven dat AI gebruikt in een transformatieve fase nog maar 4 procent, tegenover 10 procent wereldwijd. Dat is nogal een verschil”, zegt Head of Customer Advisory SAS Platform Rein Mertens van SAS.
“Bedrijven in de Benelux gebruiken AI vaak voor de korte termijn. Denk aan procesefficiëntie, innovatie voor productdienstverlening en persoonlijke productiviteit van medewerkers. Veel minder voor het nemen van beslissingen. Wanneer bedrijven al langer AI gebruiken, zien ze wel vaker de waarde voor strategische beslissingen.”
Minder volwassen data-infrastructuur
Een trend die Mertens ziet waarom het strategisch AI-gebruik in de Benelux nog achterloopt, is dat het veel bedrijven nog aan een volwassen geïntegreerde data-infrastructuur ontbreekt. “Hun data bevinden nog vaak in silo’s, niet in een enkel data-omgeving of -platform.”
“Dit heeft ook te maken met de achterliggende architectuur en infrastructuur en de cloudadoptie. Zijn bedrijven in staat data onder te brengen in een dataplatform of gebruiken zij losse systemen? In het laatste geval kunnen ze data niet op een kosteneffectieve manier onderbrengen.”
Verlammende wet- en regelgeving
Daarnaast zijn er ook nog andere factoren, zoals de (Europese) wet- en regelgeving. “De wet- en regelgeving rondom AI is natuurlijk goed, maar kan innovatie soms verlammen. Hierbij gaat het niet alleen om de GDPR of de AI Act, maar ook om sectorspecifieke regelgeving. Dat houdt de ontwikkeling naar het meer strategisch inzetten van AI een beetje tegen.”
“Ik signaleer ook zogenoemde ‘work slop’. Wanneer steeds meer medewerkers vooral generatieve AI (GenAI) gebruiken, wordt er steeds meer ‘content’ geproduceerd. Dit brengt risico’s met zich mee en daarom moet al deze content weer door anderen op juistheid worden gecontroleerd. Bedrijven zijn hieraan meer tijd kwijt, dan dat zij er winst mee kunnen behalen”, zegt Mertens.
Data governance niet op orde
Bedrijven en organisaties hebben ook vaak hun data governance nog niet op orde. “Via technologie is er wel een dataplatform of AI-tool beschikbaar, maar hebben deze de juiste aansluiting op hun eigen systemen? Weten zij op welke basis de AI-modellen zijn getraind? Bedrijven die AI-technologie specifieker op hun eigen omgeving aansluiten, krijgen betere resultaten.”
“Een ander punt is het onderscheid tussen de verschillende AI-vormen. Naast GenAI zijn er ook andere vormen als computer vision of machine learning. Meer traditionele AI die zich al lang heeft bewezen. Kijken bedrijven wel naar deze vormen voor specifieke use cases?”
AI-geletterdheid belangrijk
“Verder is AI-geletterdheid een belangrijk aspect voor de AI-volwassenheid van een bedrijf. Volgens de Europese AI Act moeten bedrijven hier al mee bezig zijn. Naast datagestuurd werken, moeten zij nu ook aandacht geven aan de impact van AI op medewerkers. Ga je medewerkers zelf vervangen of taken vervangen? En hoe dan en wat is het menselijke aspect straks bij het nemen van beslissingen? Zeker met de opkomst van agentic AI is dit heel belangrijk.”
Meer vertrouwen gewenst
Bedrijven binnen de Benelux moeten daarom meer vertrouwen krijgen in het inzetten van AI voor strategische beslissingen. Mertens: “Vertrouwen in AI krijg je niet zomaar. Dit moet worden opgebouwd door aantoonbare systematische praktijken die zijn ingebed in technologie, datamanagement, maar ook in cultuur.”
“Het onderzoek laat zien dat Benelux-bedrijven op dit moment vooral druk bezig zijn met het op orde brengen van hun dataprivacy- en security voor AI, maar nog minder met verklaarbaarheid (reasoning) en transparantie van de gebruikte modellen. Wanneer je met data voor AI aan de gang gaat, moet je inzicht hebben in wat voor gegevens dat zijn. Bevatten ze vooroordelen? Gebruik dan bijvoorbeeld synthetische data om deze data weer meer te balanceren. En houd de gemaakte AI-modellen constant in de gaten of de uitkomsten nog geschikt zijn voor de verwachtingen.”
AI-governance kan USP zijn
Volgens Mertens is dit allemaal op te lossen met technologie, maar er geldt ook wetgeving die een bepaalde mate van verslaglegging en transparantie vereist. “Veel bedrijven worstelen hier nog mee. Vaak weten zij niet waar zij die AI-governance moeten neerleggen. Bij de compliance officer die ook privacy en security doet of ergens anders?”
“Ik denk dat bedrijven AI governance positief kunnen inzetten en misschien daar zelfs concurrentievoordeel uit kunnen halen. AI-governance kan een USP worden. Het heeft dan toch weer met vertrouwen te maken en dat bedrijven de processen en ook controles hebben ingeregeld om ervoor te zorgen dat wat er voor AI wordt gebruikt en wat eruit komt, gewoon klopt.”
SAS biedt hulp
Als data- en AI-technologiespecialist biedt SAS zijn klanten oplossingen om de AI-governance en -volwassenheid op orde te krijgen. “Technologisch is dat mogelijk met een hybride aanpak. Bijvoorbeeld met combinatie van een GenAI-oplossing die snel honderden documenten kan doorzoeken, tekstanalyse om bepaalde onderdelen naar boven te halen en een LLM voor context. Ook kunnen we een zogenoemde ‘LLM-as-a-judge’-oplossing toepassen, waarbij een LLM de output van een ander LLM controleert. Dit voor het inrichten van de guardrails die het vertrouwen moeten geven.”
“Daarnaast helpen we bedrijven met assessments voor het bepalen van hun AI-volwassenheid. Hiermee krijgen zij een overzicht van waar zij zich precies in hun AI-traject bevinden. Verder helpen we met het bepalen van de toegevoegde waarde die AI hen in een bepaalde use case biedt. Dit met behulp van business templates. Wij investeren graag in het begrijpen van hun uitdagingen en op basis van onze kennis en ervaring met hen mee te denken.”
Partnerrol
IT-partners pelen hierbij natuurlijk ook een rol. “Zij zijn voor ons heel belangrijk omdat zij de marktsectoren begrijpen. Wij ondersteunen hen hierbij met alle informatie die wij ook intern gebruiken. Of het nu gaat om use cases, referentieverhalen, maar ook de concurrentiereviews die wij doen. Maar helpen ook bij positioneren en demonsteren.”
Toekomstige ontwikkelingen
Voor de nabije toekomst verwacht Mertens dat de huidige verschuiving van AI-pilottrajecten naar echte productie-omgevingen blijft doorzetten. Maar hij ziet ook dat de opkomst van agentic AI meer risico’s oplevert. “Dit vooral vanuit shadow AI. Door het toenemende gebruik van vooral GenAI-tools bestaat de kans dat medewerkers op basis daarvan beslissingen nemen. Dat is natuurlijk een risico.”
“Bedrijven moeten hierop hun strategie aanpassen. Je kan dit verbieden, maar dan weet je dat medewerkers het toch gebruiken. Je kan daarom maar beter de juiste tools en met de juiste governance en policies aanbieden.”
Andere belangrijke ontwikkelingen zijn de groeiende aandacht voor cloud- en datasoevereiniteit en de governance frameworks die veel volwassener worden. Verder komt er meer aandacht voor het zoeken en vinden van AI-talent en denken bedrijven meer na over hun AI-strategie en in welke processen agentic AI de meeste toegevoegde waarde kan leveren.
Controle geeft vertrouwen
Uiteindelijk blijft voor Rein Mertens het krijgen van vertrouwen in AI het allerbelangrijkst. “Ik herhaal: vertrouwen krijg je niet zomaar. Vertrouwen in AI ontstaat pas als bedrijven hun data, modellen en processen aantoonbaar onder controle hebben. Inclusief de privacy, security en de risico’s.”