12 december 2025

Waarom AI-gedreven ‘vibe hacking’ een gevaar vormt voor beveiligingsonderzoek

Voor technologie- en bedrijfsleiders vormt AI zowel een kans als een risico. Een kans om productiviteit te verhogen, bedrijfsprocessen te automatiseren en innovatieve klantervaringen te creëren. Maar ook een cyberrisico dat kan leiden tot datalekken, operationele verstoringen en grote financiële of reputatieschade.

Waarom AI-gedreven ‘vibe hacking’ een gevaar vormt voor beveiligingsonderzoek image

Dat AI in verkeerde handen risico’s vergroot, weten we al langer. Maar er doemt een nieuwe dreiging op uit een onverwachte hoek: cybersecurityonderzoek zelf. Het aanpakken daarvan vraagt mogelijk om een andere manier van kennisdeling binnen de community.

Een nieuw tijdperk van AI-ondersteunde hacking

Het Britse National Cyber Security Centre (NCSC) heeft het meestal bij het rechte eind als het gaat om voorspellingen over de invloed van AI op het dreigingslandschap. In het meest recente rapport waarschuwt het NCSC dat AI ‘vrijwel zeker onderdelen van cyberaanvallen effectiever en efficiënter zal maken, wat zal leiden tot een toename van de frequentie en intensiteit van dreigingen.’

Volgens het rapport zal de ‘belangrijkste AI-ontwikkeling in cyberbeveiliging’ in de komende twee jaar plaatsvinden op het vlak van onderzoek naar kwetsbaarheden en exploitontwikkeling (VRED - Vulnerabilities and Exploit Development). Een toepassing van AI waardoor ook minder ‘gevorderde’ aanvallers sneller en beter worden. Daarnaast ziet het NCSC kansen voor kwaadwillenden op het gebied van slachtofferverkenning, social engineering, eenvoudige malwareproductie en het verwerken van buitgemaakte data.

Dat scenario is allesbehalve vergezocht. Op het cybercriminele ondergrondse circuit duiken al ‘jailbreak-as-a-service-diensten’ op die dergelijke mogelijkheden aanbieden. De opkomst van agentic AI maakt de impact nog groter. Zo onthulde Anthropic onlangs dat een dreigingsactor diens Claude Code-assistent had gebruikt ‘om grootschalige diefstal en afpersing van persoonlijke data te plegen.’

De hacker zette Claude in om verkenning te automatiseren, inloggegevens van slachtoffers te verzamelen en netwerken binnen te dringen. Anthropic omschreef dit als ‘vibe hacking.’ Met andere woorden: natuurlijke taalprompts invoeren, waarna de AI-assistent de rest deed. Het systeem besloot zelfs autonoom welke data het moest exfiltreren, stelde ‘psychologisch gerichte’ afpersingsberichten op en bepaalde het losgeldbedrag op basis van de gestolen gegevens. In totaal werden minstens zeventien organisaties op deze manier aangevallen.

Wanneer goede bedoelingen verkeerd uitpakken

Dit zou al een duidelijk signaal moeten zijn voor AI-ontwikkelaars dat de huidige veiligheidsmechanismen niet toereikend zijn. Maar wat als de cybersecuritygemeenschap zelf onbedoeld bijdraagt aan het probleem? Gedetailleerde technische onderzoeken naar de tactieken, technieken en procedures (TTP’s) van dreigingsactoren zijn immers eenvoudig online te vinden. Onderzoeksteams publiceren uitvoerige analyses van opvallende campagnes, juist om andere onderzoekers en netwerkverdedigers te helpen.

Om die hypothese te testen, namen we onze eigen analyse van de Earth Alux-spionage-toolkit en probeerden die te reproduceren met Claude AI, Visual Studio Code en Cline. Het bleek schrikbarend eenvoudig om veiligheidsmaatregelen te omzeilen met ongecensureerde modellen die vrij beschikbaar zijn op platforms als Hugging Face. En de resultaten waren allesbehalve slecht: de gegenereerde code weerspiegelde nauwkeurig de informatie uit het oorspronkelijke rapport.

Een sprankje goed nieuws

Deze uitkomsten schetsen een dubbele uitdaging. Ten eerste riskeren we dat onze goede bedoelingen averechts werken - door informatie te delen die aanvallers helpt om AI te gebruiken voor vibe hacking. Ten tweede vergroten we hiermee de kans op copycat-aanvallen, wat attributie lastiger maakt.

Er is echter ook goed nieuws: de AI-output in ons experiment was niet perfect. Hoe technischer een rapport, hoe beter de vibe-hackingresultaten, maar er blijft technische expertise nodig om er daadwerkelijk werkende malware van te maken. Dat houdt deze methode voorlopig buiten bereik van veel laaggeschoolde cybercriminelen.

Toch kunnen we daar niet op blijven vertrouwen. Daarom is het belangrijk dat onderzoekers en leveranciers zorgvuldiger nadenken over wat ze delen — en met wie. Onderzoek moet vóór publicatie worden getest en waar nodig aangepast om het ‘LLM-safe’ te maken. De toekomst ligt waarschijnlijk in meer rapporten op hoofdlijnen: minder diep in de technische details van code, maar nog steeds waardevol voor inzicht in TTP’s en campagnecontext.

Wat attributie betreft kunnen best practices zoals het Diamond Model of Intrusion Analysis helpen om imitators te ontmaskeren. Problemen ontstaan vooral wanneer netwerkverdedigers zich uitsluitend baseren op TTP’s en indicators of compromise (IOC’s). Analyse-methoden zullen zich moeten ontwikkelen om tegenstanders te identificeren op basis van actor, infrastructuur, slachtoffer en capaciteiten.

Gelukkig denken we nu al na over deze dreigingen, nog voordat onze tegenstanders ze op grote schaal inzetten. Dat geeft ons een voorsprong. Laten we die benutten — en niet verspillen.

Door: Pieter Molen (foto), Technical Director en Country Director Netherlands bij Trend Micro

Bitdefender BW + BN ESET BW + BN
Bitdefender BW + BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!