Google's slimme assistent Gemini heeft een zwakke plek
In dit artikel:
Onderzoek van de European Broadcasting Union (EBU) toont dat Google’s AI-assistent Gemini relatief slecht presteert bij het verwerken en presenteren van nieuws. In een vergelijking met andere grote modellen — OpenAI’s ChatGPT, Microsoft Copilot en Perplexity — scoorde Gemini het laagst op cruciale nieuwsvaardigheden: het herkent minder goed betrouwbare bronnen, geeft geen duidelijke bronlinks en worstelt met het onderscheiden van satire van serieuze berichten.
De EBU voerde de test twee keer uit met een tussenpoos van zes maanden om verbeteringen te meten. Terwijl veel andere systemen duidelijk vooruitgang lieten zien en betere nieuws-samenvattingen produceerden, bleef Gemini relatief steken. Het model lijkt bovendien sterk te leunen op bronnen zoals Wikipedia en neemt citaten niet altijd letterlijk over, wat de nauwkeurigheid en traceerbaarheid van nieuwsoverzichten ondermijnt.
Dat is extra opvallend omdat Google als zoekmachine juist sterk is in het vinden van betrouwbare informatie. Praktische gevolgen zijn onder meer foutieve of misleidende weergaven van gebeurtenissen — bijvoorbeeld het niet herkennen van een satirisch stuk van De Speld versus een echt bericht van NOS — en een grotere noodzaak voor gebruikers om AI-gegenereerde nieuwsberichten handmatig te verifiëren.
Kortom: Gemini blinkt uit in het interpreteren van gebruikersintenties en bij veel feitelijke vragen, maar blijft achter als het gaat om journalistieke betrouwbaarheid en bronvermelding. Voor wie nieuws via AI raadpleegt geldt het advies extra kritisch te zijn, de bronnen na te lopen en waar mogelijk meerdere systemen of originele nieuwsbronnen te raadplegen.