AI-slop: wat is het, hoe herken je het en wat zijn de gevaren?
In dit artikel:
AI-slop is de verzamelnaam voor snel geproduceerde, vaak zinloze video's die met kunstmatige intelligentie zijn gemaakt en vooral één doel hebben: bekeken worden. Op sociale media verschijnen dagelijks clips — van katten in absurde taferelen tot hyperrealistische beelden van beroemdheden of religieuze figuren — die zijn gegenereerd met een paar simpele prompts en ontworpen om zoveel mogelijk clicks en advertentie-inkomsten op te leveren.
De techniek is inmiddels zó goed dat visuele fouten uit het verleden (zoals extra vingers) grotendeels verdwenen zijn. Daardoor is het steeds lastiger aan het uiterlijk te herkennen of iets echt of nep is. Het verschil zit vaker in intentie en inhoud: AI-slop ontbreekt aan betekenis, logica of artistieke inzet en speelt in op onze nieuwsgierigheid door nét buiten onze verwachtingskaders te vallen. Voorbeelden variëren van virale, twijfelachtige deepfakes van Tom Cruise en Brad Pitt tot respectloos geknutsel rond overleden publieke figuren zoals Paus Franciscus.
Die populariteit brengt risico’s met zich mee. Realistische nepbeelden kunnen desinformatie verspreiden, politiek misbruik mogelijk maken en stereotiepe of xenofobe narratieven versterken (denk aan valse filmpjes over asielzoekers). Vooral jongeren lopen gevaar: frequente blootstelling aan nepcontent kan het vermogen om feit en fictie te onderscheiden aantasten en bijdragen aan verslavingsgedrag en concentratieproblemen — wat soms wordt aangeduid als “brain rot”. Platforms zoals YouTube krijgen kritiek omdat hun algoritmes deze type content belonen.
Niet alle AI-gebruik is slop: zorgvuldig gemaakte documentaires of commercële producties met menselijke controle vallen buiten die categorie. Preventie vraagt om betere moderatie, detectietools, platformverantwoordelijkheid en mediawijsheid bij gebruikers, zodat clicks niet altijd de norm bepalen.