Het herkennen van en weerbaar opstellen tegen deepfake
Rutte die pleitte voor een vleestax of überhaupt het woord klimaatcrisis in de mond neemt. Of neem de volgende zin: “Corona was een crisis van kleuter formaat vergeleken bij wat ons nog te wachten staat door klimaatverandering.” Je kan het je bijna niet voorstellen en toch zegt onze premier exact die woorden in deze clip. Waarschijnlijk heb je hem al voorbij zien komen; deze deepfake van de Correspondent (een onafhankelijk journalistiek platform) waarin ze de premier eindelijk echt klimaatleiderschap laten vertonen.
Deepfakes zijn in opkomst. Door middel van kunstmatige-intelligentie software kan men tegenwoordig compleet nieuwe beelden en audiofragmenten maken die vrijwel niet van echt te onderscheiden zijn. De software analyseert een persoon op zijn/haar stem, bewegingen, gezichtsuitdrukkingen, huidstructuren, en haarkleur en gebruikt die gegevens vervolgens om nieuw materiaal te creëren. Met slechts 30 seconden aan bestaand beeld- en/of audiomateriaal kan je iemand al laten doen en zeggen wat jij wilt.
Deepfake voor positieve doeleinden

Deepfake kan voor verschillende doeleinden ingezet worden. Neem bovenstaand voorbeeld, een speelse manier om de hedendaagse politiek wakker te schudden en klimaatverandering op de kaart te zetten. Of denk aan de video van David Beckham waarin hij in een handomdraai in negen verschillende talen aandacht vraagt voor de gevaren van Malaria. Ook is de software handig in het onderwijs. Zo zou Martin Luther King in toekomstige geschiedenis lessen zelf in een video kunnen uitleggen hoe zijn leven is verlopen en wat hij heeft bereikt.
Etisch vraagstuk
Ook de politie maakt gebruik van deepfakes. Op 22 mei 2022 zetten zij een video live van de doodgeschoten Sedar Soares. Sedar is op 13-jarige leeftijd doodgeschoten en de nabestaanden zitten, 20 jaar na dato, nog steeds met vragen over wie hier verantwoordelijk voor is. Specialisten hebben op basis van foto’s van de jongen een video gemaakt waarin hij aan het voetballen is en over zijn dromen vertelt. Tegelijkertijd luidt er een stem die vraagt wie nou de dader is van de moord op deze lieve jongen.
In dit geval hebben de ouders van Sedar toestemming gegeven om deze video te laten maken. Maar wat als dit niet zo is? Dit roept ethische vragen op. Want als iemand geen toestemming heeft gegeven voor het maken van een nepvideo door deepfake, is het goed voor te stellen dat dit voor vervelende situaties kan zorgen. Het kan er zelfs voor zorgen dat individuen digitaal onsterfelijk worden.
Deepfake als manipulatie
Helaas kunnen deepfakes ook op een manipulatieve manier ingezet worden. Zo zijn er meerdere casussen waar de technologie gebruikt wordt om een 18+ film te maken van iemand die daar helemaal niet in speelde. Of om bijvoorbeeld nepnieuws te verspreiden, zoals deze video van Donald Trump die in België rondging waarbij hij zogenaamd verkondigt dat België uit het Parijs klimaatakkoord zou moeten stappen. Deze video bleek uiteindelijk gemaakt te zijn door een belgische politieke partij.
Ook wordt deepfake gebruikt om grote financiële transacties uit te lokken. Criminelen maakten in 2020 dertig miljoen euro buit door de stem van een CEO na te doen. Deze ‘CEO’ vroeg of er snel geld overgemaakt kon worden. Door middel van ‘deepvoice’ lukte het de criminelen om de mensen aan de andere kant van de lijn zo te beïnvloeden dat ze de transactie uitvoerden.
Kan iedereen er gebruik van maken?
Ook al is kunstmatige intelligentie in de basis complex toch is het eenvoudig zelf te gebruiken. Met de komst van nieuwe apps kan iedereen gebruik maken van deepfake-technologieën. Een voorbeeld hiervan is FaceApp, waarmee je een oudere of jongere versie van jezelf kunt maken of zelfs van geslacht kunt veranderen. Ook audio kan makkelijk gemanipuleerd worden, echter zijn de apps hiervoor minder toegankelijk.
Toekomst van deepfake
Wetenschappers denken dat deepfake de toekomst van ‘de waarheid’ stevig zal beïnvloeden. Wat echt is en wat niet, zal niet meer zo duidelijk zijn, zeggen onderzoekers van de Tilburg universiteit (Van der Sloot et al., 2021). Zij denken dat over 5 jaar 90% van alle online content gemanipuleerd zal zijn door deepfakes. Er bestaat al technologie die deepfake content kan herkennen en filteren, waarmee nu al zo’n 65% herkend wordt. Alhoewel het te verwachten is dat dit percentage in de toekomst zal dalen.
De politiek heeft ook al gereageerd op de deepfake ontwikkelingen, echter verbiedt het rechtssysteem momenteel alleen het gebruik van deepfake voor verkeerde doeleinden. Het ontwikkelen en aanbieden van deepfake wordt nog niet verboden. Van der Sloot van de Tilburg universiteit vindt dit maar een schijnoplossing. ‘’Het kwaad is vaak al geschied nadat een deepfake ontwikkeld is.” zegt hij.
Hoe je je organisatie weerbaar opstelt
Deepfakes zijn een reëel gevaar voor de informatieveligheid van organisaties, het is daarom belangrijk dat er ingezet wordt op bewustwording. Naast het bestaan van deepfakes afweten is het ook belangrijk deze te herkennen.
Let bij deepfake daarom op:
- Schokkerige bewegingen
- Vreemd knipperen van de ogen
- Veranderingen in belichting
- Veranderingen in huidskleur
Bij deepvoice let je op:
- Haperende stemgeluiden
- Slecht uitgedrukte emoties
- Een monotone stem
- Vage stemgeluiden
Misschien was jij al bekend met de deepfake technologieën maar dat hoeft niet te gelden voor alle collega’s. Hiervoor hebben we in samenwerking met gemeenten de gratis inzetbare Deepfake Challenge gemaakt. Hierin leggen we uit wat deepfake is en testen we of je het kan herkennen. Klik op deze link om de Deepfake challenge nu uit te proberen!