Wat is deepfake of deepnude?
Synthetische media (verzamelnaam voor nepvideo's, ander beeld- en spraakmateriaal) zoals deepfakes en door computers gemaakte afbeeldingen, komen steeds vaker voor. De techniek brengt een heleboel creatieve mogelijkheden met zich mee, maar wordt ook steeds meer misbruikt om mensen te misleiden. Het is voor criminelen mogelijk om hun succes te vergroten door de inzet van de hiervoor genoemde synthetische media op bijvoorbeeld het gebied van social engineering (psychologische manipulatie).
De term synthetische media staat voor media die met artificiële intelligentie (AI) is gemaakt of gemanipuleerd. Denk hierbij aan foto’s of video’s die niet echt zijn, maar er wel echt uitzien. Tevens kunnen audio (geluid), teksten en virtuele objecten gecreëerd zijn door algoritmen op basis van AI. Zo is het onder andere mogelijk om:
- Volledig nieuwe én geloofwaardige video’s te creëren;
- Onderling gezichten in video’s te verwisselen;
- Iemands stem na te maken;
- Geloofwaardige teksten te genereren;
- Objecten in video’s of foto’s weg te poetsen alsof ze er nooit geweest zijn of juist toe te voegen.
Het maken van deepfake video’s wordt steeds gemakkelijker en goedkoper. Iemand kan er grappige filmpjes mee maken waarin bekende personen of politici ludieke dingen doen of zeggen. Dit zijn nog onschuldige voorbeelden van de toepassingen van deepfake, echter wordt het ook voor kwade doeleinden ingezet. Deepfakes worden bijvoorbeeld ingezet om pornografische beelden te creëren. Zo kan het gezicht van een (beroemd) persoon op dat van een porno-actrice/-acteur worden geplakt (ook wel deepnudes genoemd) zonder toestemming van die persoon.
Naast synthetische (nep) beelden is het ook mogelijk om synthetische (nep) audio (geluiden/stemmen) te maken. Criminelen kunnen een synthetische kloon van iemands stem genereren (voice cloning) om bijvoorbeeld een familielid op te lichten.