Hvad er Deepfakes?

Deepfakes er syntetiske medier, hvor en persons ansigt eller krop er blevet digitalt ændret, så de ser ud til at være en anden. Teknologien bruger kunstig intelligens, typisk machine learning-modeller, til at skabe realistiske videoer, lydoptagelser eller billeder af begivenheder, der aldrig har fundet sted.

Teknologien bag Deepfakes

Kernen i traditionel deepfake-teknologi er ofte en type machine learning-model kendt som et Generative Adversarial Network (GAN). Et GAN består af to neurale netværk, der konkurrerer mod hinanden: en “generator” og en “diskriminator”. Generatoren skaber de falske billeder, mens diskriminatoren forsøger at afgøre, om billedet er ægte eller falsk.

Denne proces gentages tusindvis af gange. For hver gang diskriminatoren opdager et falsk billede, lærer generatoren at skabe et endnu mere overbevisende billede. Resultatet er en model, der kan producere ekstremt realistiske syntetiske billeder eller videoer.

For at træne modellen kræves store mængder data. Til en face-swap video skal AI-modellen typisk fodres med mange timers video af både kildepersonen (hvis ansigt skal bruges) og målpersonen (hvis krop og bevægelser skal bruges). Kvaliteten af det endelige output afhænger direkte af mængden og kvaliteten af træningsdataene.

Nyere metoder, såsom diffusionsmodeller, er også blevet udbredte. Disse modeller fungerer ved gradvist at tilføje støj til et billede og derefter lære at fjerne støjen igen for at genskabe det oprindelige billede. Ved at styre denne proces kan de generere helt nye billeder og videoer fra bunden, hvilket giver endnu mere kontrol og realisme.

Forskellige typer af Deepfakes

Deepfake-teknologi dækker over flere forskellige former for syntetiske medier, der manipulerer virkeligheden. Selvom face-swapping er den mest kendte, findes der flere andre varianter, som hver især har unikke anvendelser og risici.

De mest almindelige typer inkluderer:

  • Face Swap (Ansigtsbytning): Den klassiske deepfake, hvor en persons ansigt erstattes med en andens i en video. Dette bruges ofte i satire, men også til misinformation.
  • Lip Sync (Læbesynkronisering): Her manipuleres en persons mundbevægelser i en eksisterende video, så det ser ud som om, de siger noget helt andet. Lyden er ofte en separat genereret lydklon.
  • Voice Cloning (Stemmekloning): Også kendt som audio deepfake. En AI-model trænes på en persons stemme for at kunne generere ny tale, der lyder præcis som den pågældende person. Dette kan bruges til svindel eller til at skabe falske lydoptagelser. Teknologien har skabt debat, som da OpenAI fjernede en stemme fra deres assistent efter ligheder med en kendt skuespiller.
  • Puppeteering (Dukkeføring): En persons ansigtsudtryk og bevægelser overføres i realtid til en digital avatar eller en anden persons ansigt i en video.

Anvendelser i erhvervslivet

Selvom deepfakes ofte forbindes med misbrug, har teknologien også legitime og værdiskabende anvendelser for virksomheder. I marketing kan teknologien bruges til at skabe hyper-personaliserede reklamevideoer, hvor en kendt person henvender sig direkte til den enkelte kunde ved navn.

Inden for uddannelse og træning kan deepfakes skabe realistiske simulationer. For eksempel kan lægestuderende øve sig på samtaler med syntetiske patienter, der udviser specifikke symptomer, eller medarbejdere kan trænes i kundeservice ved at interagere med AI-genererede kunde-avatarer. Det er vores erfaring, at især skalerbar videoproduktion er en stor fordel.

Film- og underholdningsindustrien bruger allerede teknologien til at de-age skuespillere, genoplive afdøde skuespillere til specifikke scener eller til at dubbe film til andre sprog med perfekt læbesynkronisering. Værktøjer som Synthesia gør det muligt for selv mindre virksomheder at producere professionelle trænings- og informationsvideoer uden brug af kameraer eller skuespillere.

For små virksomheder åbner teknologien op for at producere indhold af høj kvalitet til en brøkdel af prisen for traditionel videoproduktion, hvilket demokratiserer adgangen til professionel kommunikation.

Risici og misbrug

Den største risiko ved deepfake-teknologi er potentialet for at sprede misinformation og propaganda. Politiske modstandere kan blive portrætteret i kompromitterende situationer, eller falske udtalelser kan blive tillagt verdensledere for at skabe international uro. Denne form for manipulation kan underminere tilliden til medier og institutioner.

Økonomisk svindel er en anden alvorlig trussel. Kriminelle kan bruge voice cloning til at efterligne en direktørs stemme i et telefonopkald og instruere en medarbejder i finansafdelingen til at overføre store pengebeløb. Denne type svindel, kendt som “vishing” (voice phishing), er allerede observeret i praksis.

På et personligt plan bruges teknologien til chikane og afpresning. Det mest udbredte misbrug er skabelsen af ikke-konsensuelt pornografisk materiale, hvor en persons ansigt indsættes i eksplicit indhold. Dette kan have ødelæggende psykologiske konsekvenser for ofrene.

Endelig er der risikoen for, at AI-genereret misinformation forurener den offentlige samtale, hvilket kan ses i mindre alvorlige, men stadig problematiske tilfælde, som da en AI-søgemaskine gav absurde råd. Dette illustrerer, hvordan ukritisk brug af AI kan føre til spredning af forkerte oplysninger.

Sådan genkender du en Deepfake

Selvom deepfake-teknologien bliver bedre, er der stadig tegn, man kan kigge efter for at spotte en manipulation. Det kræver et kritisk øje, da de mest avancerede fakes er næsten umulige at skelne fra virkeligheden for det utrænede øje.

Nogle af de mest almindelige tekniske fejl i deepfake-videoer inkluderer:

  • Unaturlige øjenbevægelser, især mangel på blinken eller en stirrende effekt.
  • Slørede eller forvrængede kanter, hvor det indsatte ansigt møder resten af hovedet, især ved hårgrænsen og ørerne.
  • Dårlig synkronisering mellem lyd og læbebevægelser.
  • Mærkelig belysning, hvor skyggerne på det indsatte ansigt ikke matcher belysningen i resten af videoen.
  • Hud, der ser for glat eller for ujævn ud, eller unaturlige farveforskelle i hudtonen.

Det er dog en konstant kamp, da de modeller, der genererer deepfakes, bliver trænet til netop at undgå disse fejl. Derfor er kildekritik og en generel skepsis over for utroligt eller provokerende indhold den bedste forsvarsmekanisme.

Lovgivning og regulering i Danmark og EU

I takt med teknologiens udbredelse er der kommet øget fokus på juridisk regulering. I EU er deepfakes adresseret i den nye AI Act. Forordningen stiller krav om gennemsigtighed, hvilket betyder, at deepfake-indhold som udgangspunkt skal mærkes tydeligt, så brugerne er klar over, at de interagerer med syntetisk medie.

I Danmark er der ikke specifik lovgivning rettet direkte mod deepfakes, men eksisterende love kan finde anvendelse. Produktion og deling af ondsindede deepfakes kan straffes under straffelovens bestemmelser om for eksempel ærekrænkelser, trusler, bedrageri eller blufærdighedskrænkelse, afhængigt af indholdets karakter.

Brugen af en persons billede og stemme uden samtykke er også en overtrædelse af GDPR (databeskyttelsesforordningen), da biometriske data betragtes som følsomme personoplysninger. Datatilsynet fører tilsyn med, at reglerne for behandling af personoplysninger overholdes.

Virksomheder, der anvender deepfake-teknologi til legitime formål som marketing eller træning, skal sikre, at de har det nødvendige samtykke fra de personer, hvis data bliver brugt, og at de er transparente omkring brugen af teknologien over for slutbrugerne.

Fremtiden for syntetiske medier

Udviklingen inden for syntetiske medier går ekstremt hurtigt, og fremtiden vil sandsynligvis byde på endnu mere realistisk og tilgængelig teknologi. Vi vil se en overgang fra forudproducerede deepfakes til realtidsgenerering, hvor det bliver muligt at manipulere video- og lydstreams live, for eksempel under et videoopkald.

Denne udvikling drives af fremskridt inden for AI-modeller, som det ses med avancerede videogeneratorer som Kling, der kan skabe fotorealistiske scener ud fra simple tekstbeskrivelser. Teknologien vil blive integreret i almindelige software- og medieproduktionsværktøjer, hvilket gør den tilgængelig for et bredere publikum.

Samtidig vil der opstå et “våbenkapløb” mellem teknologier til at generere og detektere deepfakes. Der udvikles nye metoder til digital vandmærkning og oprindelsessporing (provenance), som skal gøre det muligt at verificere ægtheden af digitalt indhold.

På den positive side vil teknologien åbne for nye kreative muligheder inden for kunst, underholdning og personlig kommunikation. Den vil kunne skabe nye former for interaktive oplevelser og give mennesker nye måder at udtrykke sig på. Udfordringen bliver at etablere de etiske og juridiske rammer, der sikrer en ansvarlig anvendelse.