AI-overzichten Google toonden medische desinformatie: zo zet je ze uit!

dinsdag, 13 januari 2026 (19:19) - Androidplanet.nl

In dit artikel:

AI-genererende samenvattingen in Google Search leveren snelle antwoorden, maar blijken steeds vaker onjuiste of gevaarlijke informatie te geven — vooral bij medische vragen. De zoekmachine toont bij veel zoekopdrachten een kort AI-overzicht met links naar bronnen, wat handig lijkt maar ook misleidend kan zijn. Recente gevallen betroffen maandenlange desinformatie over kankerbehandelingen; die foutieve antwoorden zijn "afgelopen maandag" door Google verwijderd. Ook zijn er meldingen van onjuiste adviezen rond leverziekten en babyvoeding.

Een groot probleem is dat de AI bij gezondheidsvragen vaak ontbrekende context — zoals leeftijd, geslacht of etniciteit — negeert, waardoor aanbevelingen onbetrouwbaar en potentieel levensgevaarlijk worden. Dit fenomeen van onterechte, niet door data onderbouwde uitspraken heet ‘hallucineren’; het woord werd vorig jaar gekozen tot Woord van het Jaar door Van Dale. Google reageert dat het flink investeert in de kwaliteit van deze overzichten en dat een intern team van clinici de gerapporteerde gevallen heeft beoordeeld, waarbij de meerderheid van de informatie volgens het bedrijf nauwkeurig blijkt te zijn.

Naast gezondheidsrisico’s bedreigen AI-overzichten ook nieuwsuitgevers en websites: doordat gebruikers de korte samenvatting lezen, klikken zij minder vaak door naar de originele artikelen. Dat kan op termijn inkomsten en de zichtbaarheid van journalisten en experts aantasten, terwijl hun werk wordt gebruikt om AI-modellen te voeden.

Wie geen AI-overzichten wil, kan ze uitschakelen of omzeilen: er bestaan instellingen en werkwijzen om het overzicht niet te tonen, of alternatieve zoekmethodes en zoekmachines zonder zo’n paneel te gebruiken. Voor betrouwbare informatie blijft het aan te raden door te klikken naar gerenommeerde bronnen en kritisch te blijven op medische of levensbelangrijke adviezen.