Floris Hulshoff Pol - 16 februari 2023

Na Bard gaat ook Bing AI de fout in tijdens demonstratie

Na Bard gaat ook Bing AI de fout in tijdens demonstratie image

Een mislukte demonstratie van Google's nieuwe AI Bard leidde vorige week nog tot veel kritiek. Ook Bing, aangestuurd door ChatGPT, verzint echter antwoorden.

Dat blijkt uit een demonstratie van Microsoft en tests van reviewers. Zoekmachine Bing krijgt het taalalgoritme van ChatGPT ingebouwd. De populaire chatbot kan leesbare teksten schrijven en veel informatie verwerken, waardoor het zoeken naar antwoorden makkelijker moet worden. De chatbot maakt echter fouten, blijkt nu Microsoft de nieuwe zoekmachine open stelt voor onderzoekers en reviewers.

Foutieve informatie

Al in een van de eerste demo's van Bing zou de chatbot dingen hebben verzonnen, van feitjes over stofzuigers en Mexico tot volledig foute financiële informatie over bedrijven. Zo merkt onderzoeker Dmitri Brereton op in zijn blog. Een van de voorbeelden die hij geeft is een stofzuiger voor eigenaars van huisdieren. In een demonstratie schrijft Bing een artikel over de voor- en nadelen van de 'Bissel Pet Hair Eraser Handheld Vacuum'. En Bing verzint daarbij nadelen zoals een kort snoer van 40 cm, veel lawaai en weinig zuigkracht. Geen van die nadelen is te vinden in de artikels die Bing zelf citeert. Het toestel blijkt draadloos en na wat extra onderzoek geven veel reviews juist aan hoe stil het toestel werkt.

Nu steeds meer mensen Bing AI gebruiken, komen ook meer fouten aan het licht. Gebruikers geven op Reddit aan dat de chatbot ervan overtuigd lijkt we nog in het jaar 2022 leven, of dat Kroatië geen lid meer is van de Europese Unie. Het is een interessante ontwikkeling, gezien de reactie die concurrerende Bard vorige week kreeg. Ook Google's chat-AI, die vorige week werd voorgesteld, maakt fouten in demonstraties. Het koste het bedrijf een stevige hap uit de aandelenwaarde.

In samenwerking met Data News

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!