Let op: zo worden jouw ChatGPT en Gemini gehackt

zaterdag, 6 september 2025 (12:08) - Androidworld.nl

In dit artikel:

Kunstmatige intelligentie brengt veel gemak, maar onderzoekers waarschuwen dat chatbots ook op nieuwe manieren zijn te misleiden. In augustus 2025 ontdekten aanvallers dat ze via een Google Agenda-uitnodiging op afstand toegang konden krijgen tot slimme apparaten in huis — een techniek die bekendstaat als prompt injection. Recent werk van beveiligingsonderzoekers van The Trail of Bits liet zien dat vergelijkbare aanvallen kunnen verlopen via afbeeldingen: in een plaatje verstopte tekst bevatte instructies die ChatGPT dwongen agenda-informatie uit te lezen en naar een kwaadwillend e‑mailadres te sturen.

De methode lijkt op het onthullen van onzichtbare inkt: voor een mens oogt de afbeelding onschuldig, maar wanneer de AI de beeldinformatie anders “leest” verschijnt de verborgen boodschap. Zulke proof‑of‑concepts tonen niet alleen privacyrisico’s maar ook de mogelijkheid dat AI onbedoeld schadelijke opdrachten uitvoert.

Gebruikers kunnen risico’s verkleinen door kritisch te zijn op de herkomst van bestanden, afbeeldingen en agenda-uitnodigingen en alleen vertrouwde bronnen te verwerken. Google werkt aan verdedigingslagen voor Gemini: verdachte input detecteren en blokkeren, schadelijke delen filteren of de verwerking weigeren, en waarschuwingen tonen bij mogelijk risicovolle content. Extra praktische stappen zijn het beperken van AI-toegang tot gevoelige accounts, up‑to‑date houden van software en het inschakelen van tweefactorauthenticatie om schade te beperken.