AI blinkt uit in complexe juridische analyses, maar faalt bij basiskennis
Nieuw onderzoek toont aan dat AI-systemen juristen beter kunnen helpen bij complexe vraagstukken dan bij eenvoudige juridische vragen. Uit een recent onderzoek van ICTRecht blijkt dat AI-systemen, zoals ChatGPT en Claude, verrassend goed presteren bij het analyseren van ingewikkelde juridische materie. Maar bij simpele juridische basisvragen missen ze vaak de plank.

AI als hulpmiddel, niet als vervanger
"Veel juristen denken dat AI vooral goed is in het beantwoorden van eenvoudige vragen," zegt Arnoud Engelfriet, Chief Knowledge Officer bij ICTRecht. "Maar in werkelijkheid maken de systemen bij basisvragen opvallend veel fouten. Ze blinken juist uit in het structureren en verkennen van complexe juridische materie."
AI is dus waardevol als hulpmiddel, maar niet als vervanger van de jurist. "Het risico is dat AI juridisch klinkende, maar incorrecte informatie presenteert," waarschuwt Mark Zijlstra, Head of Legal Tech. "Juristen moeten AI gebruiken om de juiste vragen te stellen en hun eigen analyses te verrijken, niet voor definitieve antwoorden."
Welke AI is geschikt voor juristen?
De betaalde versies van ChatGPT 4o Plus en Claude 3.5 Sonnet presteren het best bij complexe juridische vragen. Gratis versies en andere AI's blijven achter. Voor grote organisaties is Microsofts enterprise-oplossing de veiligste keuze, terwijl MKB-juristen goed terecht kunnen bij de betaalde versies van ChatGPT, Claude of Gemini.
Compliance en gegevensbescherming
Ook compliance en gegevensbescherming zijn belangrijk. "In de betaalde versies van de AI-systemen zijn de contractuele waarborgen rond geheimhouding en privacy redelijk goed geregeld," aldus Guido Grevink, Business Development Manager. "Maar de zorgen over Amerikaanse regelgeving en dataveiligheid blijven bestaan."
Download het rapport
Het volledige onderzoeksrapport van ICTRecht bevat concrete aanbevelingen voor juristen die AI veilig en effectief willen inzetten. Download het rapport hier.