Wouter Hoeffnagel - 01 november 2025

Lek in Claude maakt het mogelijk AI-assistent privégegevens te laten overhandigen

Een beveiligingsprobleem in Claude van Anthropic maakt het mogelijk de AI-assistent privégegevens te laten verstrekken. Het gaat om een indirect prompt injection-aanval, waarbij de AI via verborgen instructies wordt misleid.

Lek in Claude maakt het mogelijk AI-assistent privégegevens te laten overhandigen image

Het lek is ontdekt door securityonderzoeker Johannn Rehberger. Rehberger ontwikkelde een proof-of-concept die aantoont hoe Claude kan worden misbruikt om gevoelige gegevens te stelen. De aanval laat de AI-assistent gegevens uit de privé-omgeving (de zogeheten sandbox) van gebruikers naar een bestand wegschrijven. Vervolgens wordt dat bestand via de Anthropic File API via een API geüpload naar een account van de aanvaller.

'Vals gevoel van veiligheid'

Rehberger stelt dat de term sandbox een vals gevoel van veiligheid geeft: "Zodra netwerktoegang is ingeschakeld, is de omgeving potentieel blootgesteld aan het openbare internet", meldt de onderzoeker.

De onderzoek heeft het lek gemeld bij Anthropic via het HackerOne-platform. Zijn ticket werd echter binnen een uur gesloten, waarbij werd gemeld dat het lek niet binnen het bereik van het bugbounty-programma viel. Hier is Anthropic inmiddels op teruggekomen; het bedrijf meldt aan Rehberger dat zijn ticket ten onrechte is gesloten. Anthropic belooft dit proces aan te passen.

Meer informatie is hier te vinden.

Green Data Center Conference 2025 BW + BN Omada BW + BN
Hammer Distribution BN

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!