Witold Kepinski - 19 april 2024

Responsible AI als onderdeel van ESG-beleid

Veel bedrijven staan in de startblokken om generatieve Artificial Intelligence (hierna AI) toe te passen. In een razend tempo worden er allerlei nieuwe toepassingen ontwikkeld. Bijvoorbeeld om productiviteit te verbeteren of voor product- of dienstverbetering. Daarbij bestaat het risico dat algoritmen individuele mensen of groepen schaden. Bijvoorbeeld mensen die foute adviezen krijgen van chatbots, gezichtsherkenningssystemen die minder goed werken voor mensen van kleur, of groepen mensen die worden uitgesloten van een sollicitatieprocedure. Wanneer een bedrijf AI inzet, kan dit grote impact hebben op de werknemers, klanten, leveranciers en de bredere gemeenschap. Daarom zal “responsible AI” steeds vaker een onderwerp worden in ESG-beleid, zo schrijft Samantha Reilly (foto), Sector Banker TMT-ICT bij ING Research in een artikel.

Responsible AI als onderdeel van ESG-beleid image

Rapporteren over de inzet van AI

Sinds januari van dit jaar is de Corporate Sustainability Reporting Directive (CSRD) van kracht om bedrijven aan te moedigen ‘hun sociale verantwoordelijkheid te nemen om hun impact op hun werknemers, hun natuurlijke omgeving en hun gemeenschappen te verbeteren.’ Ondanks dat in deze verslaglegging de ‘E’ van ESG de meeste aandacht krijgt worden CSRD plichtige bedrijven verplicht om ook te rapporten over hun ‘S’ prestaties. In toenemende mate zal je hier “responsible AI” zien terugkomen.

Sinds januari van dit jaar is de Corporate Sustainability Reporting Directive (CSRD) van kracht om bedrijven aan te moedigen ‘hun sociale verantwoordelijkheid te nemen om hun impact op hun werknemers, hun natuurlijke omgeving en hun gemeenschappen te verbeteren.’ Ondanks dat in deze verslaglegging de ‘E’ van ESG de meeste aandacht krijgt worden CSRD plichtige bedrijven verplicht om ook te rapporten over hun ‘S’ prestaties. In toenemende mate zal je hier “responsible AI” zien terugkomen.

Generatieve AI brengt nieuwe risico’s met zich mee

Er zijn inmiddels diverse voorbeelden bekend van de inzet van algoritmen die schadelijke invloed hebben gehad op betrokkenen. Generatieve AI brengt ook nieuwe risico’s mee. Denk aan het risico van datalekken als je een publieke AI-toepassing gebruikt. Of aan het ontbreken van een moreel kompas in de large language modellen die aan de basis van generatieve AI liggen. Incidenten kunnen reputatieschade, boetes en claims als gevolg hebben. Daarnaast kan het moeten ombouwen van systemen vanwege verkeerde voorspellingen zeer kostbaar zijn.

Om dergelijke incidenten te voorkomen is het van belang om risico’s te identificeren en te mitigeren. Begeleidingsethiek is een methode die hierbij erg behulpzaam is. Door dit op een goede manier te doen loop je als bedrijf voorop op ontwikkelende AI-wetgeving.’

Er zijn inmiddels diverse voorbeelden bekend van de inzet van algoritmen die schadelijke invloed hebben gehad op betrokkenen. Generatieve AI brengt ook nieuwe risico’s mee. Denk aan het risico van datalekken als je een publieke AI-toepassing gebruikt. Of aan het ontbreken van een moreel kompas in de large language modellen die aan de basis van generatieve AI liggen. Incidenten kunnen reputatieschade, boetes en claims als gevolg hebben. Daarnaast kan het moeten ombouwen van systemen vanwege verkeerde voorspellingen zeer kostbaar zijn.

Om dergelijke incidenten te voorkomen is het van belang om risico’s te identificeren en te mitigeren. Begeleidingsethiek is een methode die hierbij erg behulpzaam is. Door dit op een goede manier te doen loop je als bedrijf voorop op ontwikkelende AI-wetgeving.’

Lees hier de laatste versie van de AI Act

In gesprek over de aanpak begeleidingsethiek met Daniel Tijink, programmaleider Ethiek bij ECP en samen met professor Peter-Paul Verbeek schrijver van ‘De techniek staat voor iets’.

Wat is begeleidingsethiek?
Begeleidingsethiek richt zich op het ethisch begeleiden van technologie en niet op het ethisch oordelen. Als organisaties een technologie wil gaan inzetten of gaan ontwikkelen brengen we alle betrokkenen bijeen. Dat zijn klanten, werknemers, management/beleid en de leveranciers zelf.

Daniel gaat verder: “Tijdens de sessie gaan we met elkaar in dialoog over de mogelijke positieve en negatieve effecten van de technologie. Zo krijg je echt een 360graden view op alle effecten. En achter die effecten zitten waarden. Als iemand bijvoorbeeld zorgen heeft om zijn persoonlijke data, dan is dat terug te voeren op de waarde privacy.

Met die waarden als leidraad gaan we vervolgens handelingsopties bedenken. Wat kunnen we doen om die waarde dichterbij te brengen. Hoe moet de technologie aangepast worden, welke organisatieverandering is nodig en moeten we ons gedrag aanpassen.

Veel bedrijven hebben al een waardenkader, is dat niet voldoende?
Veel organisaties denken bij ethiek inderdaad aan een waardenkader. Maar een kader is generiek en is gemaakt door experts of het management. De echte ethiek vindt plaats in de praktijk. Door van een kader uit te gaan onderschat je de ethische kracht van mensen. Door de verschillende betrokkenen bij elkaar te zetten komen ze altijd tot de goede waarden, bijna altijd meer en preciezer dan die uit een kader. Waardenkaders worden snel afvinklijstjes, het gaat om de gevoelde en zelf ingeschatte waarden, waar je iets mee gaat doen. Als iemand een risico ziet dat niet in het lijstje staat gaat het el ee of als een werknemer de waarde werkplezier noemt (die nooit in lijstje staat en heel vaak naar voren komt), weet je dat een toepassing op weerstand kan stuiten. Het is beter daar vroeg over na te denken en met handelingsopties te komen.

Kan je voorbeelden geven van deze handelingsopties?
“Soms kan je de technologie omvormen. Soms gaat het ook om een stuk sociale innovatie. Mensen moeten een training volgen of het beleid moet worden aangepast of het bedrijf moet op een andere manier communiceren. Ook voor de technologieleveranciers is dit interessant omdat er vaak handelingsopties uit komen, waar een leverancier zelf nog niet aan heeft gedacht en het product vervolgens beter maakt.” Voor veel concrete voorbeelden verwijs ik naar www.begeleidingsethiek.nl, waar verslagen van de sessies te lezen zijn.

Los van ethisch verantwoorde techniek, welke voordelen zijn er nog meer?
“Vaak leidt het tot een beter product én een beter proces. In de zorg hadden we een sessie over een AI-tool waarbij je veel informatie kreeg over het ziektebeeld van de patiënt. De arts zou de tool gebruiken en dit met de patiënt gaan bespreken. Uit onze sessies kwam naar voren dat de patiënten het liever thuis samen met hun partner wilde doornemen, omdat het toch persoonlijk en kwetsbaar is en pas daarna het gesprek met de arts. De ontwerper is daarom een patiëntversie gaan bouwen. Je creëert bij alle betrokkenen ook direct draagvlak voor implementatie omdat ze zijn meegenomen in het proces. Tenslotte laat je ook aan je stakeholders zien dat je serieus aan de slag gaat met deze risico’s en legt dit vast.”

Wat is begeleidingsethiek?
Begeleidingsethiek richt zich op het ethisch begeleiden van technologie en niet op het ethisch oordelen. Als organisaties een technologie wil gaan inzetten of gaan ontwikkelen brengen we alle betrokkenen bijeen. Dat zijn klanten, werknemers, management/beleid en de leveranciers zelf.

Daniel gaat verder: “Tijdens de sessie gaan we met elkaar in dialoog over de mogelijke positieve en negatieve effecten van de technologie. Zo krijg je echt een 360graden view op alle effecten. En achter die effecten zitten waarden. Als iemand bijvoorbeeld zorgen heeft om zijn persoonlijke data, dan is dat terug te voeren op de waarde privacy.

Met die waarden als leidraad gaan we vervolgens handelingsopties bedenken. Wat kunnen we doen om die waarde dichterbij te brengen. Hoe moet de technologie aangepast worden, welke organisatieverandering is nodig en moeten we ons gedrag aanpassen.

Veel bedrijven hebben al een waardenkader, is dat niet voldoende?
Veel organisaties denken bij ethiek inderdaad aan een waardenkader. Maar een kader is generiek en is gemaakt door experts of het management. De echte ethiek vindt plaats in de praktijk. Door van een kader uit te gaan onderschat je de ethische kracht van mensen. Door de verschillende betrokkenen bij elkaar te zetten komen ze altijd tot de goede waarden, bijna altijd meer en preciezer dan die uit een kader. Waardenkaders worden snel afvinklijstjes, het gaat om de gevoelde en zelf ingeschatte waarden, waar je iets mee gaat doen. Als iemand een risico ziet dat niet in het lijstje staat gaat het el ee of als een werknemer de waarde werkplezier noemt (die nooit in lijstje staat en heel vaak naar voren komt), weet je dat een toepassing op weerstand kan stuiten. Het is beter daar vroeg over na te denken en met handelingsopties te komen.

Kan je voorbeelden geven van deze handelingsopties?
“Soms kan je de technologie omvormen. Soms gaat het ook om een stuk sociale innovatie. Mensen moeten een training volgen of het beleid moet worden aangepast of het bedrijf moet op een andere manier communiceren. Ook voor de technologieleveranciers is dit interessant omdat er vaak handelingsopties uit komen, waar een leverancier zelf nog niet aan heeft gedacht en het product vervolgens beter maakt.” Voor veel concrete voorbeelden verwijs ik naar www.begeleidingsethiek.nl, waar verslagen van de sessies te lezen zijn.

Los van ethisch verantwoorde techniek, welke voordelen zijn er nog meer?
“Vaak leidt het tot een beter product én een beter proces. In de zorg hadden we een sessie over een AI-tool waarbij je veel informatie kreeg over het ziektebeeld van de patiënt. De arts zou de tool gebruiken en dit met de patiënt gaan bespreken. Uit onze sessies kwam naar voren dat de patiënten het liever thuis samen met hun partner wilde doornemen, omdat het toch persoonlijk en kwetsbaar is en pas daarna het gesprek met de arts. De ontwerper is daarom een patiëntversie gaan bouwen. Je creëert bij alle betrokkenen ook direct draagvlak voor implementatie omdat ze zijn meegenomen in het proces. Tenslotte laat je ook aan je stakeholders zien dat je serieus aan de slag gaat met deze risico’s en legt dit vast.”

Wat vindt de Sector Banker?

Uit onderzoek van ING onder Europese consumenten blijkt dat consumenten nog niet goed weten wat ze van AI kunnen verwachten. Ze zien de kansen, maar ook zeker de bedreigingen.

Uit onderzoek van ING onder Europese consumenten blijkt dat ze nog niet goed weten wat ze van AI kunnen verwachten. Ze zien de kansen, maar ook zeker de bedreigingen.

Ook bedrijven krijgen te maken met scepsis onder medewerkers, klanten of leveranciers. Voor de acceptatie van AI is het belangrijk om deze zorgen weg te nemen. Begeleidingsethiek is een mooi instrument om de ethische implicaties van nieuwe technologie zichtbaar te krijgen en draagvlak te creëren onder alle stakeholders.

Ook bedrijven krijgen te maken met scepsis onder medewerkers, klanten of leveranciers. Voor de acceptatie van AI is het belangrijk om deze zorgen weg te nemen. Begeleidingsethiek is een mooi instrument om de ethische implicaties van nieuwe technologie zichtbaar te krijgen en draagvlak te creëren onder alle stakeholders.

Drie tips voor ondernemers

Wanneer je op meerdere plekken in je organisatie AI gaat toepassen is het belangrijk dat je kaders ontwikkelt waarin je aangeeft hoe je AI verantwoordelijk, veilig en compliant inzet. Dit framework bestaat enerzijds uit belangrijke waarden en anderzijds uit de benodigde processen en governance om deze waarden in de praktijk te kunnen brengen; Er zijn al veel handige tools om je op weg te helpen. Zo heeft de rijksoverheid eenToolbox ethisch innoveren ontwikkeld. Sluit je aan bij de Dutch AI Ethics Community. Deze community is gericht op intervisie, waardoor organisaties effectief van elkaar kunnen leren.
  1. Wanneer je op meerdere plekken in je organisatie AI gaat toepassen is het belangrijk dat je kaders ontwikkelt waarin je aangeeft hoe je AI verantwoordelijk, veilig en compliant inzet. Dit framework bestaat enerzijds uit belangrijke waarden en anderzijds uit de benodigde processen en governance om deze waarden in de praktijk te kunnen brengen;
  2. Er zijn al veel handige tools om je op weg te helpen. Zo heeft de rijksoverheid een Toolbox ethisch innoveren ontwikkeld.
  3. Sluit je aan bij de Dutch AI Ethics Community . Deze community is gericht op intervisie, waardoor organisaties effectief van elkaar kunnen leren.

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!