Witold Kepinski - 20 maart 2026

TU Eindhoven onderzoekt fairness in algoritmes

In opdracht van het College voor de Rechten van de Mens heeft de Technische Universiteit Eindhoven (TU/e) een cruciaal onderzoek afgerond naar de inzet van algoritmes. De centrale vraag: kunnen we discriminatie simpelweg wegcijferen met kwantitatieve methodes? Het rapport, dat gisteren werd gepubliceerd, waarschuwt voor een blinde focus op techniek en biedt organisaties handvatten voor een ethische én juridisch houdbare aanpak.

TU Eindhoven onderzoekt fairness in algoritmes image

Algoritmes bepalen steeds vaker wie een lening krijgt, wie wordt uitgenodigd voor een sollicitatiegesprek of waar de politie extra surveilleert. Hoewel deze systemen vaak worden gepresenteerd als objectief, kunnen ze bestaande vooroordelen in de samenleving overnemen en zelfs versterken. Dit kan leiden tot zowel directe discriminatie (selectie op basis van afkomst of geslacht) als de verraderlijke indirecte discriminatie, waarbij schijnbaar neutrale criteria (zoals een postcode) onbedoeld een bepaalde groep benadelen.

De paradox van kwantitatieve methodes

Het onderzoek van de TU/e richt zich op de zogenaamde 'fairness-methodes': wiskundige formules die bedoeld zijn om ongelijkheid in de uitkomsten van een algoritme te meten en te corrigeren. Het rapport stelt dat deze methodes weliswaar waardevol zijn, maar geen "silver bullet" vormen.

"Een algoritme kan wiskundig gezien eerlijk lijken, maar in de praktijk toch onrechtvaardig uitpakken," zo luidt een van de belangrijkste bevindingen. De onderzoekers benadrukken dat het meten van discriminatie begint bij de mens, niet bij de machine. Organisaties moeten zichzelf essentiële vragen stellen voordat ze een algoritme implementeren: welke data gebruiken we, wie wordt er (onbedoeld) geraakt en is de uitkomst juridisch wel te verantwoorden?

Handvatten voor de praktijk

Samen met het onderzoeksrapport heeft het College een set praktische handvatten gepubliceerd voor werkgevers en de overheid. Deze richtlijnen moeten helpen om algoritmes niet alleen technisch te optimaliseren, maar ook maatschappelijk verantwoord in te bedden. Enkele kernpunten uit de handreiking:

  • Identificeer indirecte discriminatie: Wees alert op variabelen die als 'proxy' (plaatsvervanger) dienen voor beschermde kenmerken zoals etniciteit of religie.
  • Juridische houdbaarheid: Een algoritme dat 'eerlijk' is volgens een wiskundig model, voldoet niet automatisch aan de Algemene Wet Gelijke Behandeling (AWGB).
  • Menselijke maat: Gebruik kwantitatieve methodes als ondersteuning, niet als vervanging van ethische reflectie.

Toenemende druk op algoritme-gebruikers

Met de komst van strengere Europese regelgeving (zoals de AI Act) wordt de roep om transparantie en verantwoording luider. Het College voor de Rechten van de Mens hoopt dat dit rapport organisaties stimuleert om verder te kijken dan de code. "Digitalisering mag nooit ten koste gaan van gelijke behandeling," aldus het College.

Het volledige rapport 'Algoritmes en Discriminatie' en de bijbehorende samenvatting met handvatten zijn vanaf vandaag te downloaden via de website van het College voor de Rechten van de Mens.

ESET Cyber Defense Summit 2026 BW + BN Dutch IT Security Day 2026 BW + BN
ESET Cyber Defense Summit 2026 BW + BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!