Ambitie en uitvoering rondom verantwoorde AI sluiten niet op elkaar aan
Bedrijven erkennen de waarde van verantwoorde artificiële intelligentie (AI), maar dat de praktische uitvoering achterblijft. 78 procent van de organisaties ziet verantwoorde AI als een groeikans. Toch voldoet slechts 2 procent aan alle normen om reputatieschade en financiële verliezen te voorkomen.

Dit blijkt uit het onderzoek Responsible Enterprise AI in the Agentic Era van het Infosys Knowledge Institute (IKI), gebaseerd op een enquête onder meer dan 1.500 bedrijfsleiders en 40 diepte-interviews in zes landen. Bijna alle ondervraagde topbestuurders (95 procent) gaven aan de afgelopen twee jaar te maken te hebben gehad met AI-gerelateerde incidenten. Bijna 40 procent omschreef de gevolgen als "ernstig" of "zeer ernstig". Financiële verliezen (77 procent van de organisaties) en reputatieschade (53 procent) zijn veelvoorkomende gevolgen van slecht beheerste AI, zoals schendingen van privacy, ethische normen of wetgeving, vooroordelen in algoritmes of onbetrouwbare voorspellingen. Bovendien verwacht 86 procent van de leiders dat agentic AI—AI-systemen die zelfstandig beslissingen nemen—nieuwe risico’s en compliance-uitdagingen met zich mee zal brengen.
Verantwoorde AI blijft achter bij behoeften
Slechts een kleine groep bedrijven (2 procent, aangeduid als "RAI-leiders") voldoet volledig aan de gestelde normen voor verantwoorde AI, zoals gedefinieerd in het RAISE BAR-kader van Infosys. Deze groep ervaart gemiddeld 39 procent minder financiële schade en 18 procent minder ernstige incidenten. Succesvolle organisaties onderscheiden zich door betere uitlegbaarheid van AI, proactieve aanpak van vooroordelen, strenge tests en een duidelijk incidentenplan.
Hoewel 78 procent van de leidinggevenden verantwoorde AI ziet als een motor voor omzetgroei, geeft 83 procent aan dat toekomstige AI-regelgeving het aantal AI-initiatieven juist zal stimuleren. Toch schatten bedrijven in dat ze gemiddeld 30 procent te weinig investeren in verantwoorde AI.
Aanbevelingen voor betere implementatie
Het rapport benadrukt dat bedrijven verantwoorde AI niet langer als een reactieve verplichting moeten zien, maar als een strategische prioriteit. Concreet adviseert Infosys om:
- Lering te trekken uit voorlopers: Best practices overnemen van organisaties die al ervaring hebben met diverse AI-incidenten en sterke governance hebben ontwikkeld.
- Agiliteit en centrale sturing te combineren: Decentrale innovatie koppelen aan centrale kaders voor verantwoorde AI.
- Beveiligde AI-platforms in te richten: Omgevingen waar AI-agenten binnen goedgekeurde systemen en data opereren.
- Een centrale RAI-afdeling op te zetten: Voor risicomonitoring, beleidsvorming en schaalbare governance, bijvoorbeeld met tools als Infosys’ AI3S (Scan, Shield, Steer).
Verantwoorde basis
Balakrishna D.R., wereldwijd verantwoordelijk voor AI-diensten bij Infosys, stelt: "Uit onze ervaring met klanten blijkt dat het halen van waarde uit AI eerst vraagt om een verantwoorde basis: vertrouwen, risicobeheersing, datagovernance en duurzaamheid. Voor de toekomst van agentic AI moeten leiders inzetten op platformgestuurde oplossingen en proactief toezicht op data. Een centrale RAI-afdeling wordt steeds belangrijker naarmate AI schaal groeit en regelgeving aanscherpt."
Jeff Kavanaugh, hoofd van het Infosys Knowledge Institute, voegt toe: "Bedrijven balanceren tussen de belofte van AI-groei en operationele ethische risico’s. Ons onderzoek laat zien dat veel organisaties het belang van verantwoorde AI inzien, maar dat de uitvoering nog tekortschiet. Wie robuuste waarborgen inbouwt, beperkt niet alleen risico’s en verliezen, maar creëert ook nieuwe inkomstenbronnen in het tijdperk van agentic AI."
Het volledige rapport is hier in te zien.