Alle tror, at de kan spotte en deepfake-video, men den hastigt forbedrede teknologi, herunder AI-værktøjer, gør det sværere end nogensinde at spotte en falsk video.

NØGLEPUNKTER

Deepfakes udgør en betydelig trussel mod samfundet, herunder spredning af desinformation, skade på omdømme gennem efterligning og anstiftelse af konflikter for den nationale sikkerhed.
Selvom AI-teknologi tilbyder værktøjer til afsløring af deepfake, er de ikke perfekte, og menneskelig dømmekraft er stadig afgørende for at identificere deepfakes.
Mennesker og AI-detekteringsværktøjer har forskellige styrker og svagheder, når det gælder om at identificere deepfakes, og ved at kombinere deres evner kan man forbedre succesraten, når det gælder om at opdage og afbøde farerne ved deepfake-teknologi.

Deepfakes truer alle aspekter af samfundet. Vores evne til at identificere falsk indhold er afgørende for at kunne fjerne desinformation, men i takt med at AI-teknologien bliver bedre, hvem kan vi så stole på til at opdage deepfakes: mennesket eller maskinen?

Farerne ved deepfakes

Efterhånden som AI-teknologien skrider frem, udgør farerne ved deepfakes en stigende trussel mod os alle. Her er en hurtig oversigt over nogle af de mest presserende problemer, som deepfakes udgør:

  • Misinformation: Deepfakede videoer og stemmeoptagelser kan sprede misinformation som f.eks. falske nyheder.
  • Efterligning: Ved at udgive sig for at være personer kan deepfakes skade folks omdømme eller bedrage dem, de er kendt af.
  • National sikkerhed: Det oplagte dommedagsscenarie med deepfakes er fabrikerede optagelser eller lydoptagelser af en global leder, der opildner til konflikt.
  • Civil uro: Bedrageriske optagelser og lyd kan også bruges af partier til at skabe vrede og civil uro blandt bestemte grupper.
  • Cybersikkerhed: Cyberkriminelle bruger allerede AI-stemmekloningsværktøjer til at ramme enkeltpersoner med overbevisende beskeder fra folk, de kender.
  • Privatliv og samtykke: Den ondsindede brug af deepfakes tager billedet af personer uden deres samtykke.
  • Tillid og tryghed: Hvis du ikke kan skelne mellem sandhed og bedrag, bliver nøjagtig information lige så utroværdig.

Deepfakes vil kun blive mere overbevisende, så vi har brug for robuste værktøjer og processer til at opdage dem. AI leverer et sådant værktøj i form af modeller til afsløring af deepfake. Men ligesom algoritmer, der er designet til at identificere AI-genererede tekster, er værktøjer til afsløring af deepfake ikke perfekte.

På nuværende tidspunkt er menneskelig dømmekraft det eneste andet værktøj, vi kan stole på. Så er vi bedre end algoritmer til at identificere deepfakes?

Kan algoritmer opdage deepfakes bedre end mennesker?

Deepfakes er en så alvorlig trussel, at teknologigiganter og forskningsgrupper afsætter enorme ressourcer til forskning og udvikling. I 2019 udlovede Meta, Microsoft og Amazon 1.000.000 dollars i præmier under en Deepfake Detection Challenge for den mest præcise detektionsmodel.

Den bedste model var 82,56 % nøjagtig i forhold til et datasæt af offentligt tilgængelige videoer. Men da de samme modeller blev testet mod et “black box-datasæt” med 10.000 usete videoer, var den bedste model kun 65,18 % nøjagtig.

Vi har også masser af undersøgelser, der analyserer ydeevnen af AI-værktøjer til afsløring af deepfake i forhold til mennesker. Selvfølgelig varierer resultaterne fra den ene undersøgelse til den anden, men generelt er mennesker enten lige så gode eller bedre end deepfake-detekteringsværktøjer.

En undersøgelse fra 2021, der blev offentliggjort på PNAS, viste, at “almindelige menneskelige observatører” opnåede en lidt højere nøjagtighed end de førende deepfake-detekteringsværktøjer. Undersøgelsen viste dog også, at de menneskelige deltagere og AI-modellerne var modtagelige for forskellige typer fejl.

Interessant nok har forskning udført af University of Sydney vist, at den menneskelige hjerne ubevidst er mere effektiv til at spotte deepfakes end vores bevidste indsats.

Opdagelse af visuelle spor i deepfakes

Videnskaben bag deepfake-detektion er kompleks, og den nødvendige analyse varierer afhængigt af optagelsernes karakter. For eksempel er den berygtede deepfake-video af Nordkoreas leder Kim Jong-un fra 2020 dybest set en talking head-video. I dette tilfælde kan den mest effektive deepfake-detektionsmetode være at analysere visemer (mundbevægelser) og fonemer (fonetiske lyde) for uoverensstemmelser.

Menneskelige eksperter, tilfældige seere og algoritmer kan alle udføre denne form for analyse, selv om resultaterne varierer. MIT definerer otte spørgsmål, der kan hjælpe med at identificere deepfake-videoer:

  • Vær opmærksom på ansigtet. High-end DeepFake-manipulationer er næsten altid ansigtsforvandlinger.
  • Vær opmærksom på kinderne og panden. Virker huden for glat eller for rynket? Er hudens alder lig med alderen på hår og øjne? DeepFakes kan være inkongruente på nogle dimensioner.
  • Vær opmærksom på øjnene og øjenbrynene. Er der skygger på steder, hvor du ville forvente det? DeepFakes kan fejle i at repræsentere den naturlige fysik i en scene fuldt ud.
  • Vær opmærksom på brillerne. Er der nogen blænding? Er der for meget blænding? Ændrer vinklen på blændingen sig, når personen bevæger sig? Endnu en gang kan DeepFakes ikke fuldt ud repræsentere den naturlige fysik i belysning.
  • Læg mærke til ansigtsbehåringen eller manglen på samme. Ser denne ansigtsbehåring ægte ud? DeepFakes kan tilføje eller fjerne overskæg, bakkenbarter eller skæg. DeepFakes kan dog undlade at gøre forvandlingen af ansigtsbehåringen helt naturlig.
  • Vær opmærksom på modermærker i ansigtet. Ser modermærket ægte ud?
  • Vær opmærksom på at blinke. Blinker personen nok eller for meget?
  • Vær opmærksom på læbernes bevægelser. Nogle deepfakes er baseret på læbesynkronisering. Ser læbernes bevægelser naturlige ud?

De nyeste AI-værktøjer til afsløring af deepfake kan analysere de samme faktorer, igen med varierende grad af succes. Dataforskere udvikler også hele tiden nye metoder, såsom at opdage naturlig blodgennemstrømning i ansigterne på dem, der taler på skærmen. Nye tilgange og forbedringer af de eksisterende kan resultere i, at AI-værktøjer til afsløring af deepfake konsekvent overgår mennesker i fremtiden.

Detektering af lydspor i deepfakes

At opdage deepfake-lyd er en helt anden udfordring. Uden de visuelle signaler fra video og muligheden for at identificere audiovisuelle uoverensstemmelser, er deepfake-detektion meget afhængig af lydanalyse (andre metoder som metadata-verifikation kan også hjælpe i nogle tilfælde).

En undersøgelse udgivet af University College London i 2023 viste, at mennesker kan opdage deepfake-tale 73% af tiden (engelsk og mandarin). Som med deepfake-videoer opdager menneskelige lyttere ofte intuitivt unaturlige talemønstre i AI-genereret tale, selv om de ikke kan specificere, hvad der virker forkert.

Almindelige tegn omfatter:

  • Slørende tale
  • Mangel på udtryk
  • Baggrunds- eller interferensstøj
  • Uoverensstemmelser i stemme eller tale
  • Mangel på “fylde” i stemmerne
  • Overdrevent manuskriptbaseret tale
  • Mangel på ufuldkommenheder (tyvstart, korrektioner, rømmen i halsen osv.)

Endnu engang kan algoritmer også analysere tale efter de samme signaler fra deepfake, men nye metoder gør værktøjer mere effektive. Forskning fra USENIX identificerede mønstre i AI-vokaltrakotrekonstruktion, der ikke kan efterligne naturlig tale. Den konkluderer, at AI-stemmegeneratorer producerer lyd, der matcher smalle vokaltraktrer (omtrentlig størrelse af et sugerør) uden de naturlige bevægelser i menneskelig tale.

Både vokaltraktrer og de højfrekvente uoverensstemmelser er mærkbare for menneskelige lyttere og AI-detektionsmodeller. Når det gælder højfrekvente forskelle, kan AI-modeller teoretisk set blive mere og mere præcise – selvom det samme også kan siges om AI deepfakes.

Mennesker og algoritmer bliver begge narret af deepfakes, men på forskellige måder

Undersøgelser tyder på, at mennesker og de nyeste AI-detekteringsværktøjer er i stand til at identificere deepfakes. Succesraten kan variere mellem 50% og 90+%, afhængigt af testparametrene.

I forlængelse heraf bliver mennesker og maskiner også narret af deepfakes i samme udstrækning. Det afgørende er dog, at vi er modtagelige på forskellige måder, og det kan være vores største aktiv, når vi skal tackle farerne ved deepfake-teknologi. Ved at kombinere styrkerne hos mennesker og værktøjer til afsløring af deepfake kan vi afbøde svaghederne hos begge og forbedre succesraten.

For eksempel viste MIT’ s forskning, at mennesker var bedre til at identificere deepfakes af verdensledere og berømte mennesker end AI-modeller. Den afslørede også, at AI-modellerne kæmpede med optagelser med flere personer, selvom den foreslog, at dette kunne skyldes, at algoritmerne blev trænet på optagelser med enkelte talere.

Omvendt viste den samme undersøgelse, at AI-modeller overgik mennesker med optagelser i lav kvalitet (sløret, grynet, mørkt osv.), der kunne bruges bevidst til at bedrage menneskelige seere. På samme måde indeholder nyere AI-detektionsmetoder som overvågning af blodgennemstrømning i bestemte ansigtsregioner analyser, som mennesker ikke er i stand til.

Efterhånden som der udvikles flere metoder, vil AI’s evne til at opdage tegn, som vi ikke kan, kun blive bedre, men det samme vil dens evne til at bedrage. Det store spørgsmål er, om teknologien til afsløring af deepfake vil fortsætte med at overhale deepfakes selv.

At se tingene anderledes i en tid med deepfakes

AI-værktøjer til afsløring af deepfake vil fortsætte med at blive bedre, og det samme vil kvaliteten af selve deepfake-indholdet. Hvis AI’s evne til at bedrage overgår dens evne til at opdage (som det er sket med AI-genereret tekst), kan menneskelig dømmekraft være det eneste værktøj, vi har tilbage til at bekæmpe deepfakes.

Alle har et ansvar for at lære tegnene på deepfakes at kende, og hvordan man spotter dem. Ud over at beskytte os selv mod svindel og sikkerhedstrusler er alt, hvad vi diskuterer og deler online, sårbart over for misinformation, hvis vi mister grebet om virkeligheden.