Betrouwbaarheid en beheersbaarheid belemmeren groei van AI-agents
Bedrijven twijfelen niet aan de capaciteiten van AI, maar worstelen met het beheren, valideren en veilig opschalen van autonome systemen.
Dat blijkt uit wereldwijd onderzoek van observabilityplatform Dynatrace, gericht op de rol van betrouwbaarheid bij de implementatie van AI-agents. Uit het Pulse of Agentic AI 2026-onderzoek komt naar voren dat ongeveer de helft van de AI-projecten zich nog in de Proof-of-Concept (POC) of pilotfase bevindt. Toch groeit de adoptie snel: 26% van de organisaties werkt aan elf of meer AI-agentprojecten. Naarmate bedrijven de experimentele fase ontgroeien, zoeken ze naar betrouwbare platforms die real-time inzicht, governance en veerkracht bieden. 74% verwacht dat AI-budgetten volgend jaar zullen stijgen, wat wijst op een omslagpunt waarbij betrouwbaarheid centraal staat.
Uit het onderzoek blijkt:
- 48% van de bedrijfsleiders voorziet een jaarlijkse budgetverhoging van minimaal $2 miljoen voor AI-agents.
- De meeste toepassingen liggen in IT-operations en DevOps (72%), software-engineering (56%) en klantenservice (51%).
- Prioriteiten bij implementatie zijn real-time besluitvorming (51%), systeemprestaties (50%) en operationele efficiëntie (50%).
- De grootste verwachte return on investment (ROI) ligt in ITOps/systeemmonitoring (44%), cybersecurity (27%) en dataverwerking (25%).
Veiligheid, schaalbaarheid en kennis vormen belemmeringen
Organisaties ervaren vooral drie hoofduitdagingen bij de implementatie van AI-agents. Beveiliging, privacy en compliance vormen voor 52% van de bedrijven een belangrijke zorg, gevolgd door de technische complexiteit die komt kijken bij het beheren en opschalen van autonome systemen, wat door 51% als een obstakel wordt gezien. Daarnaast speelt een tekort aan gekwalificeerd personeel een rol, waarbij 44% aangeeft niet over voldoende expertise of training te beschikken om AI-agents effectief in te zetten. Deze factoren samen vertragen de brede toepassing van autonome AI-oplossingen.
Ondanks automatisering blijft menselijke betrokkenheid essentieel. 69% van de AI-gestuurde beslissingen wordt nog door mensen gecontroleerd, en 87% van de organisaties bouwt of implementeert agents die menselijk toezicht vereisen. Slechts 13% gebruikt volledig autonome agents, terwijl 23% uitsluitend door mensen geleide systemen inzet.
Validatiemethoden omvatten:
- Kwaliteitscontroles van data (50%)
- Menselijke beoordeling van output (47%)
- Monitoring op afwijkingen (41%)
Observability als sleutel tot vertrouwen
Naarmate AI-agents volwassener worden, speelt observability een cruciale rol in het opbouwen van vertrouwen. Deze oplossingen bieden inzicht in de gehele levenscyclus, van ontwikkeling tot operationalisering. 69% gebruikt observability tijdens implementatie, gevolgd door operationalisering (57%) en ontwikkeling (54%).
70% van de organisaties gebruikt observability voor real-time monitoring van agentgedrag en systeemprestaties. De helft past AI-agents toe voor zowel interne als externe doeleinden, terwijl 33% zich beperkt tot interne toepassingen. Ook heeft de helft projecten in productie voor beperkte scenario’s, 44% binnen geselecteerde afdelingen en 23% in een bedrijfsbrede integratiefase. Het onderzoek benadrukt dat succesvolle AI-implementatie niet alleen afhangt van technologische vooruitgang, maar ook van betrouwbare systemen, menselijk toezicht en schaalbare beheersmechanismen.
Gebrek aan vertrouwen
“Organisaties vertragen de adoptie van Agentic AI niet omdat ze de waarde van AI in twijfel trekken, maar door het gebrek aan vertrouwen dat systemen zich in de praktijk gedragen zoals ze bedoeld zijn”, aldus Alois Reitbauer, Chief Technology Strategist bij Dynatrace. “Nu de meeste bedrijven jaarlijks miljoenen dollars uitgeven en verdere budgetverhogingen plannen, wordt Agentic AI een essentieel onderdeel van de bedrijfsvoering. Tegelijkertijd laat dit onderzoek een duidelijke verschuiving zien. Hoewel menselijk toezicht nog steeds essentieel is, bereiden organisaties zich steeds meer voor op meer autonome, AI-gestuurde besluitvorming. De focus ligt op het opbouwen van het vertrouwen en de operationele betrouwbaarheid die nodig zijn om Agentic AI op een verantwoorde manier op te schalen.”
“Observability is een essentieel onderdeel van een succesvolle Agentic AI-strategie”, vervolgt Reitbauer. “Het Dynatrace AI Center of Excellence (AI CoE) werkt met veel van onze grootste klanten, en naarmate organisaties streven naar meer autonomie, hebben ze real-time inzicht nodig in hoe AI-agents zich gedragen, interageren en beslissingen nemen. Observability helpt teams niet alleen de prestaties en resultaten te begrijpen, maar biedt ook de transparantie en het vertrouwen die nodig zijn om Agentic AI op een verantwoorde manier en met passend toezicht op te schalen.”
Het volledige rapport 'The Pulse of Agentic AI 2026: Balancing innovation with control from pilot to production' is hier beschikbaar.