Wouter Hoeffnagel - 31 december 2025

Toezichthouder waarschuwt voor risico’s bij gebruik AI-chatbots op werkvloer

De Autoriteit Persoonsgegevens (AP) signaleert een toename van datalekken door het gebruik van AI-chatbots zoals ChatGPT, Claude en Gemini in werksituaties. Volgens de privacywaakhond zijn met name de gratis versies van deze tools risicovol, omdat onduidelijk is hoe ingevoerde gegevens worden verwerkt en opgeslagen. Dit jaar ontving de AP tientallen meldingen van dergelijke lekken, met een stijging ten opzichte van 2024.

Toezichthouder waarschuwt voor risico’s bij gebruik AI-chatbots op werkvloer image

Deze waarschuwing doet de AP tegenover het Financieele Dagblad. De waarschuwing volgt op een datalek bij de gemeente Eindhoven, dat op 18 december bekendmaakte dat medewerkers persoonlijke gegevens van inwoners en collega’s hadden gedeeld met openbare chatbots. Uit een steekproef van dertig dagen (23 september tot 23 oktober) bleek dat documenten zoals cv’s, jeugdzorgdossiers en interne verslagen waren geüpload. De exacte omvang van het lek is niet vast te stellen, omdat de gegevens slechts dertig dagen worden bewaard. De gemeente heeft als maatregel openbare AI-websites geblokkeerd en werknemers verplicht om uitsluitend in een beveiligde omgeving met deze tools te werken. Daarnaast is OpenAI, het bedrijf achter ChatGPT, verzocht de betrokken bestanden te verwijderen.

Gratis AI-modellen op eigen initiatief gebruikt

Volgens Stephan Mulders, advocaat gespecialiseerd in privacy- en technologierecht, ontstaan lekken vaak doordat werknemers op eigen initiatief gratis AI-modellen gebruiken. Deze versies slaan ingevoerde gegevens op, zonder dat duidelijk is hoe leveranciers deze vervolgens verwerken. Mulders: "Men kan zijn werknemers niet constant monitoren. Wanneer mensen zelf gaan experimenteren met AI-bots, kunnen er sneller datalekken ontstaan.” Naast persoonsgegevens kunnen ook andere vertrouwelijke informatie, zoals geheimhoudingsplichtige of koersgevoelige data, in de chatbots terechtkomen.

Dit gedrag, ook wel ‘schaduw AI’ (shadow AI) genoemd, doet zich voor wanneer organisaties weliswaar licenties hebben voor veilige tools zoals Co-Pilot, maar werknemers toch kiezen voor onbeveiligde alternatieven zoals de gratis versie van ChatGPT. Hierbij ontbreken afspraken met leveranciers over gegevensverwerking, en hebben werkgevers minder zicht op het gebruik.

Organisaties zoeken naar oplossingen

Om lekken te voorkomen, kunnen werkgevers websites van gratis AI-chatbots blokkeren en veilige alternatieven aanbieden. Daarnaast zijn organisaties sinds de invoering van de AI-Act (Europese Verordening Kunstmatige Intelligentie) verplicht om trainingen aan te bieden, zodat medewerkers bekend raken met de risico’s. Mulders: „De AI-act is nog jonge wetgeving, en bovendien nog niet volledig in werking getreden. Bij de AVG (2018) zag je ook dat het tijd kostte voordat organisaties zich aanpaste.”

De AP adviseert bedrijven om duidelijke afspraken te maken over welke gegevens wel en niet met AI-agents gedeeld mogen worden. Ondertussen ontwikkelen sectoren als de orde van advocaten eigen richtlijnen voor verantwoord AI-gebruik. Mulders verwacht dat deze aanbevelingen geleidelijk aan worden opgenomen in het beleid van individuele organisaties.

SLTN 19-12-2025 BW + BN Flex-IT Dutch IT Channel Awards 2026 BW + BN
SLTN 19-12-2025 BW + BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!