Stel uw vraag aan PVO
Chat Button

Deepfakes en nepmensen: mag je je ogen nog geloven?

Synthetische media gaan onze digitale wereld in de komende jaren ingrijpend veranderen. Van deepfakes heb je waarschijnlijk al weleens gehoord, maar welke ontwikkelingen zijn er nog meer? Welke risico’s komen daaruit voort voor jou als ondernemer? Hoe moet je je personeel daarop voorbereiden? In dit artikel leggen we het uit.

Maak je vooral geen zorgen over de privacy van dat onschuldige kleine meisje op de foto. Ze bestaat niet.

Deepfakes: een breder fenomeen

Je hebt de term deepfake ondertussen vast al vaker gehoord, maar wat betekent het nou precies? Deepfakes zijn een onderdeel van een breder fenomeen dat mogelijk is geworden dankzij kunstmatige intelligentie: synthetische media. Dat zijn filmpjes die nooit zijn gefilmd, foto’s die nooit zijn genomen en gesprekken die nooit zijn gevoerd. In deze synthetische media kan de maker bestaande of niet-bestaande personen vrijwel alles laten doen of zeggen dat de fantasie toelaat.

Als ondernemer kun je daar geniale, baanbrekende dingen mee. Je kunt synthetische media op allerlei bonafide manieren toepassen in je bestaande bedrijf, of in een bedrijfsmodel dat vorig jaar nog niet mogelijk was. Sta daarbij stil en pak je kansen, maar besef vooral dat ook criminelen hier gretig gebruik van gaan maken. Als je over een paar jaar je ogen en oren nog wilt kunnen vertrouwen, moet je jezelf daar nu op voorbereiden. 

Blijf ontwikkelingen voor

Dankzij deze ontwikkelingen moeten jij en je werknemers zorgvuldiger zijn dan ooit. We moeten echter ook uitkijken dat we daar niet in doorslaan. Het gevaar zit er namelijk niet alleen in dat we leugens voor waarheid aannemen. Het wordt nog veel lastiger als we de waarheid niet meer durven geloven. Wat vaststaat is dat synthetische media disruptief gaan zijn en dat we daarop moeten anticiperen.

Dat geldt ook voor jou als ondernemer. Wacht niet totdat de gevolgen zich aandienen, maar stel samen met je werknemers vast welke implicaties dit heeft voor jouw bedrijf. Denk pro-actief na over beleid en waarborgen waarmee je deze ontwikkelingen binnen jouw bedrijf in goede banen gaat leiden. Een gedegen, tijdige voorbereiding voorkomt dat je slachtoffer wordt van vormen van fraude die we nu nog niet kunnen bedenken. Daarnaast voorkomt het dat je doorslaat in paniek en paranoia, waardoor bedrijfsprocessen vastlopen en communicatie wordt bemoeilijkt.

Nieuwe vormen van fraude

Hoe gaan jouw werknemers om met de instructies die jij ze geeft? Hopelijk heb je voor e-mails inmiddels beleid en waarborgen om phishing en ceo-fraude te voorkomen. Deepfakes en andere ontwikkelingen op het gebied van synthetische media gaan de komende jaren nieuwe, vergelijkbare vormen van fraude en oplichting mogelijk maken. Dit artikel gaat niet over wat dat betekent voor politici en bekende Nederlanders, maar over wat het betekent voor jou als ondernemer. Welke nieuwe technieken en strategieën gaan criminelen in de komende jaren gebruiken om jou, je werknemers en je klanten te besodemieteren? We kunnen nog lang niet alles bedenken, maar in de volgende paragrafen geven we vast een paar voorbeelden. 

Nep-mensen

Over een paar jaar hebben we nieuwslezers, acteurs en popsterren die helemaal niet bestaan. Die technologie ontwikkelt zich razendsnel en is bovendien al erg ver. In minder dan een seconde maak je een “foto” van iemand die niet bestaat. Binnen een paar minuten laat je iemand die niet bestaat een tekst voor je oplezen, of zelfs een presentatie voor je geven. 

Deze “mensen” kunnen echter ook worden bediend door criminelen. Het advies dat we eerder gaven om afbeeldingen te controleren via reverse image search gaat hier bovendien geen soelaas bieden. Deze media zijn immers niet gestolen voor misbruik, maar er speciaal op maat voor gemaakt. Dit gaat verder dan jezelf verschuilen achter een niet-bestaand gezicht. Het biedt nieuwe kansen voor verschillende vormen van fraude, waarbij de fraudeur zich laat bijstaan door een leger aan ogenschijnlijk keurige AI-vertegenwoordigers.

Deze representatieve en professioneel ogende meneer lijkt op het eerste gezicht misschien iemand waar je graag zaken mee zou doen. Ook hij bestaat niet.

CEO-fraude

Synthetische media hebben de potentie om van CEO-fraude een groter probleem dan ooit te maken. Kunstmatige intelligentie is nu al in staat om jouw stem en jouw gezicht vrijwel perfect na te bootsen. Iemand imiteren wordt daardoor kinderlijk eenvoudig. Dat maakt het risico dat iemand jouw medewerkers succesvol weet te misleiden erg groot. Als iemand “jouw” stem hoort en “jouw” gezicht ziet, zal diegene immers snel doen wat “jij” zegt. Zo kan een crimineel “jou” allerlei instructies laten geven aan je medewerkers.

Het is daarom belangrijk dat je je personeel hier nu al voor waarschuwt. Daarnaast bouw je drempels in en maak je afspraken over welke instructies je wel of niet telefonisch geeft. Dit zal je werk soms moeilijker maken, maar zonder dit soort waarborgen maak je het criminelen te makkelijk.

Identiteitsfraude

Je hoeft bovendien niet de grote baas te zijn om het risico te lopen dat jouw stem en gezicht door criminelen worden misbruikt. Iedere willekeurige burger is een aantrekkelijk doelwit voor identiteitsfraude. Besef dat het ook je klant of een zakenrelatie kan zijn wiens stem en gezicht worden gekopieerd door criminelen. 

Chantage en afpersing

Je moet er natuurlijk niet aan denken dat er van jou beschamende beelden opduiken. Criminelen gebruiken dit soort beelden dan ook maar wat graag om ondernemers onder druk te zetten. Dat kan zijn om je geld afhandig te maken, maar ook om toegang te krijgen tot jouw bedrijfsprocessen. Het akelige is dat er voortaan beelden kunnen zijn waarop te zien iets dat jij iets doet, zonder dat je dat ooit hebt gedaan. Enerzijds kun je dit ondervangen met forensische analyse. Speciale software geeft dan een oordeel over de echtheid van een video, waarmee je aan kunt tonen dat die beschamende video van jou nep is. Anderzijds zorg je dat jouw reputatie onfeilbaar is. Gedegen reputatiemanagement wordt in de komende jaren belangrijker dan ooit tevoren.

Dating-fraude

Dating-fraude wordt dankzij synthetische media nog makkelijker dan het helaas al is. Denk daarbij vooral niet dat dating-fraude een banale vorm van fraude is waarbij wanhopige mensen geld afhandig wordt gemaakt. Op het hoogste niveau draai dating-fraude om emotionele controle. Iemand probeert jou om zijn of haar vinger te winden en jou in een positie te brengen dat je alles voor diegene zou doen. Bij jou als ondernemer is er op die manier veel meer te halen dan alleen geld. Denk bijvoorbeeld aan informatie en toegang tot bedrijfsprocessen.

Dit is duidelijk geen gestolen foto van een model, maar gewoon een normale vrouw zoals je die ook in de supermarkt tegen kunt komen. Ze is erg geïnteresseerd en wil alles van je weten. Helaas bestaat ze niet, dus met wie heb je dan al die persoonlijke informatie gedeeld?

Hoe herken je synthetische media?

Waaraan herken je synthetische media? Erg genoeg wordt dit lijstje steeds korter. Waar je synthetische media eerst nog duidelijk – vaak op basis van je intuïtie – kon onderscheiden van echte media, wordt het onderscheid steeds kleiner. Er zijn nog een paar signalen, maar dit worden er steeds minder. Bovendien kan een fraudeur meer elke druk op de knop een nieuw gezicht aanmaken. Zo kan hij uit honderden foto’s de meest overtuigende kiezen. Hieronder leggen we uit waar je voor nu nog op kunt letten:

Een enkele foto

Algoritmes als styleGAN kunnen in minder dan een seconde een foto van een niet bestaand persoon genereren. Wat styleGAN niet kan is meerdere foto’s van dezelfde persoon genereren. Het is voor criminelen daarom lastig om een tweede foto van dezelfde nep-persoon te laten zien. Vroeger was dit de gouden tip waarmee je dit trucje kon doorprikken. Inmiddels kunnen andere algoritmes van die ene foto meer foto’s maken. Dit kost de fraudeur echter meer moeite en leidt vaak tot net wat minder overtuigende resultaten.

Geen of rare reflecties

Omdat de foto nooit daadwerkelijk is genomen, is er geen omgeving om te reflecteren in bijvoorbeeld ogen of brillenglazen. Kunstmatige intelligentie is inmiddels erg goed in het nabootsen van lichtinval. Je zult vrijwel altijd een “flits” zien weerkaatsen in de ogen van een nep-persoon. Wat je niet ziet zijn de weerspiegelingen van de omgeving die je daar normaal bij verwacht. Dat is logisch, want de foto is nooit genomen en er valt niets te weerspiegelen.

Een rare achtergrond

Omdat het algoritme zijn focus legt op het gezicht, blijft de kwaliteit van de achtergrond nog weleens achter. Voorwerpen of patronen kloppen nét niet, kleuren lopen in elkaar over en personen op de achtergrond zien er vaak ronduit raar uit. Zie je in de achtergrond een gezicht dat klopt, dan heb je (voor nu) vaak te maken met een echte foto. Zie je voorwerpen die raar ogen of kleuren die in elkaar overlopen, dan heb je misschien te maken met synthetische media. Kijk met die kennis nog eens naar dat lieve meisje in de afbeelding. Haar gezicht is beeldig, maar de bloemetjes in het haar en de manier waarop haar kleding over haar schouders valt geven weg dat je te maken heb met een nep-persoon. 

Gezichten zijn asymmetrisch

AI heeft (nu nog) een beetje moeite met symmetrie in gezichten. Het is voor het algoritme moeilijk om te zorgen dat de linkerkant en de rechterkant van het gezicht hetzelfde zijn, zonder dat deze een exact spiegelbeeld van elkaar worden. Dit zie je vaak terug in bijvoorbeeld oren, brillen en gezichtsbeharing. Kijk dus bijvoorbeeld of het linkeroor en het rechteroor dezelfde vorm hebben en op dezelfde hoogte zitten. Kijk naar het montuur van een bril en de manier waarop dit zich om het gezicht vouwt. Deze kleine details geven (nu nog) weg dat je te maken hebt met synthetische media. 

Het gebit klopt niet

Kunstmatige intelligentie heeft (voor nu nog) moeite met het genereren van een realistisch menselijk gebit. Soms zien individuele tanden er raar uit, soms klopt het gebit in het geheel niet. De nep-persoon heeft dan bijvoorbeeld drie hoektanden of de tanden sluiten op een rare, onrealistische manier op elkaar aan. 

Ga naar de inhoud