Redactie - 20 december 2023

OpenAI ontwikkelt veiligheidsplan voor AI

OpenAI presenteert een raamwerk om de mogelijke gevaren van haar AI-systeem te beperken. Het zogenaamde Preparedness Framework moet processen beschrijven, opvolgen, evalueren en voorspellen om zo te beschermen tegen ‘catastrofische risico’s’ door sterker wordende AI. Dat gebeurt op technisch niveau.

OpenAI ontwikkelt veiligheidsplan voor AI image

Er komt onder meer een scorekaart die onder meer rond cybersecurity en autonomie systemen moet labelen, om in te schatten hoe groot het risico is. Ook zal de raad van bestuur beslissingen rond AI kunnen terugdraaien als het dat nodig acht.

Focus op veiligheid

Het geheel blijft nog vrij vaag en theoretisch, maar OpenAI moet ook duidelijk maken dat het wel degelijk met veiligheid bezig is. Sinds de komst van ChatGPT is er veel speculatie over hoe fout het kan gaan met AI. Ook duiken er soms voorbeelden op van hoe het mogelijk is om een chatbot te ‘hacken’ door het bepaalde vragen te stellen en andere taken te laten uitvoeren of bepaalde antwoorden te laten genereren.

Tegelijk werd er afgelopen jaar ook opgeroepen om OpenAI haar ontwikkelingen te laten pauzeren, al kwam die oproep ook van partijen die achterop lopen, zoals Elon Musk. Met dergelijke initiatieven rond veiligheid wil OpenAI vermoedelijk duidelijk maken dat veiligheid en mogelijke risico’s wel degelijk worden bestudeerd en mogelijk tegengehouden.

In samenwerking met Data News

EGP 06/05/2025 t/m 03/06/2025 BW SoSafe 26/05/2025 t/m 09/06/2025 BW
Gartner BN tm 12-11-2025 - 1

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!