'Misplaatst vertrouwen in AI-browsers'
AI-browsers vereisen ongekende toegang tot gegevens om effectief te functioneren. Hoe meer context over browsegeschiedenis, documenten, communicatie en gedrag, hoe nuttiger ze worden. Maar dit creëert een fundamentele spanning: elke webpagina die een gebruiker bezoekt, elk formulier dat hij of zij invult, elke geauthenticeerde sessie wordt trainingsdata voor de AI om gebruikers beter te begrijpen. "Het nieuwe Atlas-project van OpenAI introduceert een kritieke verborgen kwetsbaarheid: misplaatst vertrouwen", zegt Zahier Madhar (foto), cybersecurityexpert bij Check Point.
Zahier: "Voor veel mensen zijn ChatGPT en andere grote taalmodellen al het standaardalternatief voor traditionele zoekmachines geworden. Het Atlas-project van OpenAI maakt die verschuiving officieel, maar roept ook serieuze zorgen op over privacy en beveiliging. De overstap naar 'agentisch browsen' is de logische volgende stap voor het internet, dat evolueert van eenvoudig zoeken naar een ongelooflijk krachtige, contextbewuste co-piloot."
Verborgen kwetsbaarheid
Zahier wijst erop dat dit ook een kwetsbaarheid met zich meebrengt. "Hoewel deze integratie gemak belooft, introduceert het ook een kritieke verborgen kwetsbaarheid: misplaatst vertrouwen. Functies zoals geheugen en agentisch gedrag zorgen ervoor dat deze systemen in de loop van de tijd over de gebruiker kunnen leren, gedetailleerde profielen kunnen opbouwen en zelfs namens die gebruiker kunnen handelen. Dat is handig, totdat het dat niet meer is", aldus de cybersecurityexpert.
"Hoe meer je het gebruikt, hoe meer gevoelige gegevens het verzamelt, van persoonlijke identificatiegegevens tot gezondheids- of financiële informatie. In verkeerde handen kan dit worden misbruikt voor oplichting, datalekken of ongewenste profilering door adverteerders of verzekeraars."
'De technische risico's zijn net zo reëel'
Zahier: "De technische risico's zijn net zo reëel. Voor het aanvallen van AI-systemen is geen geavanceerde code meer nodig. Moderne exploits maken nu gebruik van natuurlijke taal en social engineering, waardoor de drempel drastisch is verlaagd. Zoals games als Lakera's Gandalf aantonen, kunnen aanvallers modellen misleiden om vertrouwelijke informatie prijs te geven met behulp van slimme prompts, een tactiek die gemakkelijk kan worden toegepast op grote AI-platforms."
"We zien ook aanwijzingen dat sommige grote modellen mogelijk zijn getraind op propagandamateriaal van door staten gesteunde bronnen. Dat roept zorgen op dat de informatie die gebruikers ontvangen al gemanipuleerd kan zijn. AI-aangedreven zoekfuncties kunnen menselijker en behulpzamer aanvoelen dan Google, maar brengen een ander soort gevaar met zich mee. Gebruikers zouden zich moeten afvragen: wat wordt er opgeslagen, wie heeft er toegang toe, en hoe kan ik het verwijderen?"
Zahier: "Aanbieders moeten standaard de geheugen- en agentmodi instellen op opt-out, de instructies aan de agent zorgvuldig beoordelen, sterke toegangscontroles en multifactor-authenticatie afdwingen, transparant zijn over gegevensbewaring en zich onderwerpen aan onafhankelijke audits. Zonder deze waarborgen zou wat lijkt op de volgende sprong voorwaarts in zoeken, in werkelijkheid het grootste privacy- en beveiligingsrisico tot nu toe kunnen zijn."