Waar blijft de politieke deepfake?

We hebben het nog niet gezien, maar het zóu zomaar kunnen: dat een goed getimede deepfake invloed gaat hebben vlak voor of tijdens de verkiezingen op 17 maart.

media Aflevering

Geloof jij altijd wat je ziet?

Om daar maar meteen over te beginnen: wist je dat er heuse therapiesessies zijn waarin mensen door middel van deepfakes trauma’s en angsten kunnen overwinnen? En dat je er ook de mooiste videokunst van kan maken? Het synthetische mediatijdperk biedt dus ook lichtpuntjes, hoewel een voorname desinformatie-experts, Nina Schick, vooral ook waarschuwt voor een info apocalyps. Klinkt dreigend, en dat is het ook volgens haar. In haar boek Deepfakes and the Infocalypse – What You Urgently Need to Know schetst ze een samenleving die overspoeld wordt door te veel informatie, waarbij er geen onderscheid meer gemaakt kan worden tussen 'informatie' en 'desinformatie'. Het wordt door de echokamers in sociale media steeds moeilijker om consensus te bereiken over hoe we de ‘echte’ wereld moeten zien. Hoe ziet onze synthetische toekomst eruit? Je kan het allemaal zien en meemaken in onze uitzending ‘Zien is geloven’, zondag 22.05 op NPO2

kijk de uitzending
Podcast

Podcast: hoe je deepfakes bij de kiezer brengt

Communicatiewetenschapper Tom Dobber wilde zelf wel eens aan den lijve ondervinden wat het is om een deepfake te maken. Welke impact kun je ermee maken? Hij maakte een deepfake van ex-CDA-leider Sybrand Buma, verspreidde die onder christenen en schrok van de resultaten: de meesten trapten er genadeloos in. Redacteur Tom Reijner sprak voor Future Shock met Dobber over politieke deepfakes en over zijn onderzoek naar micro targeting: het sturen van online politieke advertenties naar een heel gerichte kiezersgroep Zou je dat ook met dit soort gemanipuleerde video’s kunnen doen en wat zijn dan de consequenties? Hoe schadelijk zijn deepfakes eigenlijk en wat brengt de toekomst ons?

luister de podcast
Artikel

Wat als je slachtoffer wordt van een pornovideo…

Bij deepfakes denk je al gauw aan filmpjes van Obama, Poetin of Trump. Maar bijna alle deepfakes zijn pornovideo’s. En die schaden de privacy, reputatie, en seksuele autonomie van duizenden vrouwen. 96 procent van de toepassingen van dit soort AI-videomanipulatie, heeft namelijk plaats in de internetpornografie, blijkt uit een rapport van Deeptrace (nu: Sensity). De gezichten van pornoactrices worden vervangen door de gezichten van andere vrouwen zonder dat zij daarvoor toestemming hebben gegeven. Wetten die doodgewone vrouwen, die hiervan vaak het slachtoffer zijn, zouden moeten beschermen, zitten boordevol gaten en vooroordelen. Wat kun je doen als in je zo’n filmpje terechtkomt? We spraken met een expert die onderzoek doet naar seksueel misbruik door beeldgebruik. Kunnen we het eigenlijk wel wraakporno noemen?

Lees het artikel