Wouter Hoeffnagel - 06 december 2023

Hoe ga je op de werkvloer veilig met AI om?

Het Digital Trust Center (DTC) en de politie waarschuwen voor risico's verbonden aan het gebruik van generatieve kunstmatige intelligentie (AI) op de werkvloer. Een aantal tips helpen werknemers en werkgevers veilig om te gaan met AI, waarbij menselijk contact de sleutel vormt.

Hoe ga je op de werkvloer veilig met AI om? image

Terwijl AI-hulpmiddelen zoals tekstgeneratoren en beeldcreatie-apps ondernemers aanzienlijke (efficiëntie) voordelen bieden, is er ook een donkere zijde aan deze technologieën. Ook cybercriminelen kunnen deze tools gebruiken voor frauduleuze praktijken. Denk daarbij aan identiteitsfraude, zoals CEO-fraude. Zo kan AI ingezet worden om bijvoorbeeld een stem te klonen of om realistische teksten op te stellen. Denk echter ook aan de verspreiding van desinformatie. Taalmodel ChatGPT produceert authentiek lijkende teksten op schaal en met grote snelheid. Een dergelijk taalmodel kan criminelen helpen voor propaganda- en desinformatiedoeleinden.

Een derde voorbeeld is malware. ChatGPT is in staat om codes te produceren in een aantal verschillende programmeertalen. Voor een potentiële crimineel met weinig technische kennis is dit een onschatbare bron om kwaadaardige codes (zoals malware) te produceren.

'Wees waakzaam'

Manon den Dunnen, Strategisch Specialist Digitaal bij de politie, benadrukt het belang om waakzaam te zijn als je zelf gebruik maakt van AI: “Als je het niet op LinkedIn zou zetten, moet je het ook niet invoeren op ChatGPT. Want dat systeem traint zichzelf met de informatie die je invoert en voordat je het weet komt jouw informatie terug in teksten die gegenereerd zijn voor anderen. Daarom hebben bedrijven zoals Samsung hun medewerkers verboden het te gebruiken.”

Het DTC en de politie delen enkele tips voor het omgaan met kunstmatige intelligentie en cybercriminelen die hiervan gebruik maken:

  • Vertrouwelijke gesprekken kun je het beste in persoon voeren.
  • Voer nooit vertrouwelijke gegevens in ChatGPT of vergelijkbare taalmodellen. Dus ook geen namen van personen. Wees bewust dat de systemen gericht zijn op het genereren van teksten ‘die lijken op’. Het is geen zoekmachine, er zit namelijk geen database achter, dus gebruik het niet als feitelijkheid belangrijk is.
  • Bij twijfel over de identiteit van de persoon aan de telefoon, kun je voorstellen om terug te bellen. Een andere mogelijkheid is om een belevingsvraag te stellen. Bijvoorbeeld: Hoe was je gesprek gisteren?
  • Er kunnen afspraken gemaakt worden om bijvoorbeeld facturen alleen af te handelen wanneer er een mogelijkheid bij zit om te controleren wat de bron is.
  • Onderzoek welke oplossingen je in afstemming met partners in de keten kunt doorvoeren om de authenticiteit van de afzender van facturen of andere belangrijke communicatie, vast te stellen. Grijp terug op adviezen relevant voor bijvoorbeeld phishing of CEO-fraude. Deze vormen van cyberincidenten blijven in de basis hetzelfde ook al wordt AI als hulpmiddel ingezet.
  • Weet welke vragen je moet stellen bij de aanschaf van inkoop van software. Bijvoorbeeld: Op welke manier maakt deze software gebruik van kunstmatige intelligentie, hoe is het getraind, wat gebeurt er met deze data en welke veiligheidsvraagstukken spelen er?
Dutch IT Security Day BW tm 15-10-2024 Vertiv BW 01-07-2024 tm 05-08-2024
DIC Awards BN tm 21-10-2024

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!