Deepfakes van BN’ers zorgen voor veel verontwaardiging

Home » Deepfakes van BN’ers zorgen voor veel verontwaardiging

Niet voor het eerst, maar toch weer schokkend: in het AD verscheen deze week opnieuw een artikel over pornodeepfakes van allerlei bekende Nederlandse vrouwen. Daaronder vallen sporters, presentatrices, politici en zelfs leden van het koninklijk huis. De deepfakes van BN’ers zorgen voor veel verontwaardiging. Verschillende bekende Nederlanders ondernemen nu stappen om de beelden te laten verwijderen of de makers ervan aan te klagen.

Een nogal positieve, creatieve verbeelding van iemand die het gezicht van een vrouw bewerkt op de computer. Gemaakt met ChatGPT.

Wat is een deepfake?

Een deepfake is een video of foto die op een realistische manier is bewerkt met behulp van kunstmatige intelligentie. Meestal verwisselt de maker het gezicht van één persoon (zoals een BN’er) met dat van iemand anders (in dit geval een pornoactrice). Op zich is het verwisselen van gezichten op beeld helemaal niet zo nieuw. Ken je bijvoorbeeld de lenzen van de Nintendo DSi (2008) nog? Op die spelcomputer kon je met behulp van de camera twee gezichten vergelijken, samenvoegen of van gezichtsuitdrukking veranderen. Ook op Snapchat zijn er allerlei filters die je gezicht veranderen en kunnen herkennen wanneer je bijvoorbeeld je ogen sluit of je tong uitsteekt. Sinds 2016 kun je ook met iemand anders of een foto uit je galerie van gezicht ruilen. Dat heet ook wel faceswap.

Faceswap is dus zeker niet nieuw. Het probleem is alleen dat deepfakes heel realistisch zijn en alleen maar “beter” worden. Bij de DSi moest je recht in de camera kijken om een filter toe te passen. Bij een faceswap op Snapchat kun je wat meer bewegen, maar zie je nog duidelijk dat het opgeplakte gezicht niet echt is. Het valt niet op de goede plaatsen over je eigen gezicht en houdt ook geen rekening met bijvoorbeeld een verschil in huidskleur tussen de twee gezichten. Dat is bij deepfakes niet het geval. Ze lijken erg realistisch doordat de mimiek, stem en manier van spreken van het slachtoffer allemaal nagebootst worden. De video is daardoor bijna niet meer van de werkelijkheid te onderscheiden. Op de website van Mediawijsheid staan allerlei tips over het herkennen van AI-gegenereerde media.

Bekende Nederlanders en politici

Het onderzoek van de AD heeft laten zien dat er in Nederland veel slachtoffers zijn van erotische deepfakes. Daarbij horen allerlei bekende namen zoals Ellie Lust, Simone Simons en Hélène Hendriks. Veel BN’ers willen aangifte doen, maar het is soms lastig om te achterhalen wie de makers en verspreiders van de deepfakes zijn. Een eerder bekend slachtoffer is presentatrice Welmoed Sijtsma, die na een vergelijkbaar fiasco een tv-programma maakte waarin ze de maker van de video’s op het spoor kwam. Hij is uiteindelijk veroordeeld.

De deepfakes van BN’ers zorgen ook in de politiek voor veel verontwaardiging. Een aantal vrouwelijke politici was ook slachtoffer. Men probeert nu iets te doen aan de opkomst van deepfakeporno. In de Eerste Kamer wordt over een wetsvoorstel dat te maken heeft met seksuele autonomie gediscussieerd. Ook gaat de Tweede Kamer waarschijnlijk over het fenomeen in debat. Tot die tijd blijft het erg lastig om bestaande video’s te verwijderen en te voorkomen dat er meer materiaal verschijnt. 

Makkelijk te maken, moeilijk te verbieden

Dat er steeds meer deepfakes verschijnen, komt doordat ze steeds makkelijker te maken zijn. Met één zoekopdracht in Google en een paar muisklikken heb je al een deepfakegenerator van ChatGPT op je bureaublad staan. Je geeft twee afbeeldingen: één waarvan je het gezicht wil gebruiken en één waar het gezicht op moet komen. ChatGPT knutselt in enkele seconden een deepfake in elkaar. Het resultaat wordt na vijf minuten verwijderd. Dat klinkt misschien slim, maar lijkt niets met veiligheid te maken te hebben. De chatbot raadt je namelijk juist aan om het plaatje zo snel mogelijk te downloaden en op te slaan. 

Er bestaan nog veel meer gratis websites waarop je gemakkelijk deepfakeplaatjes en -video’s kan maken. Doordat deepfakeprogramma’s steeds toegankelijker zijn, ontstaat er steeds meer kunstmatig beeldmateriaal. Het zonder toestemming maken en verspreiden van deepfakes (buiten huiselijke kring) is al illegaal. Het probleem is dat er erg veel kunstmatig materiaal verschijnt, dat bovendien moeilijk te onderscheiden is van echte media. Daardoor is het verbod lastig te handhaven. 

De risico’s van deepfake

Deepfake is misschien een knap staaltje techniek, maar zorgt voor veel problemen. Zo’n 95 procent van de video’s die met behulp van deepfake gemaakt worden, zijn erotisch van aard. Meestal zijn de video’s zonder toestemming van de betreffende persoon (bijna altijd een vrouw) gemaakt. De maker manipuleert en chanteert de slachtoffers, vaak met sociale uitsluiting of ernstige mentale problemen tot gevolg. Niet alleen bekende Nederlanders zijn het slachtoffer van dit soort praktijken. Veel deepfakes zijn erotische beelden van kinderen of jonge meisjes. Een klein voordeel van het huidige drama met bekende Nederlanders is dat het voor veel aandacht voor de risico’s van deepfake zorgt. Daardoor is er mogelijk meer begrip en aandacht voor slachtoffers als vergelijkbare problemen zich in particuliere kringen afspelen.

Deepfake kent nog meer gevaarlijke toepassingen. Het wordt bijvoorbeeld gebruikt om realistisch nepnieuws te genereren, zoals over de oorlog tussen Rusland en Oekraïne. Een halfjaar geleden was er veel te doen om deepfakes waarin beroemdheden zogenaamd reclame maakten voor bepaalde merken en producten. Ook bij de bank Bunq probeerden criminelen er met een deepfake van de oprichter voor te zorgen dat een medewerker een enorm bedrag naar hen zou overmaken. Dit soort voorbeelden laat zien dat deepfake niet alleen voor groot persoonlijk leed kan zorgen, maar ook serieuze veiligheidsrisico’s met zich meebrengt.

Een positieve kant?

Er zijn ook wat positievere toepassingen van deepfaketechnologieën. In de filmindustrie gebruikt men toepassingen zoals de deepfake om acteurs in een film jonger of ouder te laten lijken. Bovendien worden niet-lijkende acteurs (met de juiste acteervaardigheden, maar zonder passend uiterlijk voor hun personage) en stuntdubbels gefaceswapt. Tenslotte gebruiken filmstudio’s deepfake om overleden acteurs hun rol te laten afmaken. Een andere enigszins enge, maar ook behulpzame toepassing ervan is deepfaketherapie, waarbij patiënten met realistische klonen van overleden familieleden kunnen spreken. Ondanks deze positieve toepassingen is deepfake een gevaarlijke technologie. Meer over de keerzijde van AI lees je in ons eerdere blog.

Deepfake is een geavanceerde techniek die veel risico’s met zich meebrengt als het gaat om nepnieuws, persoonlijke veiligheid en seksuele autonomie. Het Algemeen Dagblad publiceerde er deze week een onderzoek over. De deepfakes van BN’ers zorgen voor veel verontwaardiging. Dit soort video’s is al illegaal, maar vanwege de hoeveelheid en het realisme daarvan is het verbod lastig te handhaven. Door het fiasco is er nu wel meer aandacht voor het probleem. In de Eerste en Tweede Kamer wordt de komende tijd gediscussieerd over eventuele nieuwe maatregelen.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Nieuwe AI tools
Scalenut is een all-in-one tool om optimale SEO-content mee te maken!
Maak afbeeldingen, teksten, plaatjes en GPTs in één goedlopend programma!
Werk samen, schrijf teksten, organiseer je documenten en maak een planning met Notion!

Alle rechten voorbehouden, AIpunt.nl - 2023