Het jaar 2025 dreigt een recordjaar te worden in het aantal meldingen van AI-gegenereerde naaktbeelden. Alleen al tussen januari en april zijn er bijna evenveel meldingen binnengekomen als in heel 2024 van digitaal beeldmateriaal dat met behulp van kunstmatige intelligentie is gemaakt of gemanipuleerd.
Deepfake-naaktbeelden die worden ingezet voor seksuele chantage of ’uitkleed-apps’ die kleding van gewone foto’s kunnen verwijderen: terwijl kunstmatige intelligentie tal van leuke en efficiënte toepassingen biedt, nemen de problemen rond misbruik van naaktbeelden in rap tempo toe.
Tussen 2023 en 2024 steeg het aantal meldingen van slachtoffers van digitaal gemanipuleerd beeldmateriaal van 9 naar 59, blijkt uit cijfers van expertisecentrum online misbruik Offlimits. In de eerste vier maanden van dit jaar ligt dat aantal al bijna even hoog als in heel 2024.
Nikki Lee Janssen is teamleider bij de hulplijn Helpwanted van Offlimits, waar slachtoffers terechtkunnen als persoonlijke beelden ongevraagd zijn gedeeld. „Het aantal beelden dat is gemaakt met kunstmatige intelligentie neemt ontzettend snel toe, en onze zorgen daarover zijn groot. Wanneer slachtoffers ons bellen, zijn ze vaak behoorlijk in shock. Als naaktfoto’s uitlekken die je zelf hebt gemaakt, is dat al ingrijpend. Maar je herkent jezelf tenminste nog in dat beeld. Bij AI-naaktbeelden komt er een extra klap bij, omdat het beeld compleet vreemd voor je is.”
Slachtoffers moeten eerst verwerken dat er überhaupt nepbeelden van hen zijn gemaakt en dan ook nog eens geseksualiseerd, zegt ze. „Tegelijkertijd maken ze zich zorgen over waar die beelden terecht kunnen komen.”
Zorgen om toename sextortion
Lee Janssen benadrukt dat de explosieve groei van AI-naaktbeelden kan leiden tot een verdere toename van sextortion: afpersing met naaktfoto’s van het slachtoffer. In 2024 werd Helpwanted het vaakst benaderd voor advies over deze vorm van afpersing.
„We zien dat het aantal gevallen waarbij AI-gegenereerd beeldmateriaal wordt gebruikt voor de afpersing structureel blijft stijgen. Voor het slachtoffer maakt het niet uit of de beelden echt zijn of niet; de impact is net zo groot”, legt ze uit. „En dit is nog maar het topje van de ijsberg. Veel mensen durven uit schaamte überhaupt niets te zeggen.”
Mediawijsheid voor kinderen
Om jongeren en ouders beter voor te bereiden, is onlangs het platform Kids & Screens opgericht. Dit initiatief richt zich op het vergroten van mediawijsheid voor kinderen, met aandacht voor onder meer het misbruik van naaktbeelden en cyberpesten.
Claudia Doorn, een van de initiatiefnemers vanuit de Vodafone Foundation, benadrukt het belang hiervan: „Op ontzettend veel vlakken verrijken sociale media ons leven. Maar de online veiligheid staat wel onder druk. Pesten gebeurt niet meer alleen op het schoolplein, het gaat digitaal gewoon verder. Daarnaast is er ook nog het risico op grooming (online kinderlokken, red.), en natuurlijk het risico op misbruik op sexting-misbruik. Daarom raad ik elke ouder sterk aan: vraag niet alleen hoe de schooldag was, maar ook hoe het online was.”
Tips voor beelden op sociale media: ’Gezicht niet herkenbaar bij bikinifoto’
Moeten we in 2025 dan bijna geen foto’s meer op sociale media plaatsen om te voorkomen dat mensen ze misbruiken met AI? Volgens sociale media-expert Joey Scheufler is dat inderdaad de simpelste oplossing. „Dat is wellicht wat drastisch, maar om de kans te verkleinen is het belangrijk dat je zelf het misbruik van je eigen foto’s zo moeilijk mogelijk moet maken.”
Dat kan bijvoorbeeld door een minder hoge resolutie foto te plaatsen, en de mogelijkheid om je foto te downloaden uit te zetten, legt ze uit. „Daarnaast kun je ervoor kiezen om geen foto’s te plaatsen in bikini waarbij ook je gezicht herkenbaar is. Wat ik zelf de beste tip vind, omdat die heel praktisch is en je er ook niet veel over na hoeft te denken, is bijvoorbeeld een klein tekstje of een emoji op je foto zetten, bij je hoofd of op je lichaam, zodat deze minder makkelijk te hergebruiken is door anderen.”