Artikel från forskning.se

Den här artikeln kommer från redaktionen på forskning.se. Läs om hur redaktionen jobbar.

Få trodde på videon som spreds på internet tidigare i år, där den ukrainske presidenten verkade uppmana sina landsmän att ge upp. Det är svårt att avslöja en deepfake med blotta ögat, men här var budskapet alltför orimligt, menar forskare.

Den 16 mars i år hände något som informationsexperter och medieanalytiker länge varnat för. Ett videoklipp dök upp på internet där Ukrainas president Volodymyr Zelenskyj uppmanade sina landsmän att lägga ner sina vapen.

”Läget är hopplöst,” förklarade presidenten, ”och det är lika bra att lägga ner vapnen och bege sig hem. Det ska jag själv göra.” Detta var den ungefärliga kärnan i hans tal.

Det dröjde inte många timmar innan klippet och budskapet var grundligt dementerat av de ukrainska myndigheterna och västerländsk press. Klippet var falskt, konstruerat, fejkat. Det var en så kallad deepfake – ett datorskapat videoklipp där en verklig person kan fås att göra eller säga vad som helst, som om det vore på riktigt.

Klippet visar vad som ser ut att vara den ukrainske presidenten Volodymyr Zelenskyj stående på ett podium i grön t-shirt. Det är en så kallad deepfake, där datorteknik använts för att manipulera bilder eller videor för att i det här fallet få den att se ut och prata som presidenten. Det mest framträdande tecknet på att klippet har skapats digitalt är att Zelenskyjs huvud är för stort för kroppen.

Första skottet i informationskrig?

Klippet blev dock rejält uppmärksammat och betraktades av många som det första avlossade skottet i ett informationskrig mellan Ryssland och Ukraina där man förväntade sig en flod av påhittade händelser som skulle skölja över oss via nätet, en ström av information där det skulle bli omöjligt att skilja på sanning och lögn. Men den kom aldrig. Åtminstone inte i den formen. Varför det inte blev så är en intressant fråga i sig, men först:

Vad är en deepfake, och hur lätt är det att bli lurad?

Den som vill se bra exempel på falska videoklipp behöver bara göra en enkel sökning på nätet. Det finns massor. Några av de mest uppmärksammade visar till exempel hur drottning Elisabeth av England håller ett lite annorlunda jultal från Buckingham Palace – en form av satir från ett brittiskt tv-bolag.

De hittills kanske mest omtalade är ett antal klipp där skådespelaren Tom Cruise beter sig lite, ska vi säga, störigt och oförutsägbart. Varken drottningen eller Cruise har haft något med de här videorna att göra, men de är förvillande verklighetstrogna.

Idag finns det en mängd datorprogram som kan skapa deepfakes, från de mycket avancerade som används i påkostade Hollywoodproduktioner, till enklare appar som kan laddas ner till en mobiltelefon för privat bruk.

Vad betyder deepfakes?

Ordet deepfake är en sammanslagning av fake, alltså förfalskning, och begreppet Deep Learning vilket betyder datorsystem som kan lära sig automatiskt och därför själva blir bättre och bättre på det de gör.

De falska klippen används ofta som underhållning och satir, som i fallen med drottning Elisabeth och Tom Cruise. Enligt en rapport från det nederländska analysföretaget Sensity så fördubblas antalet klipp som använder tekniker av den här typen var sjätte månad.

Idag finns det tiotusentals deepfakes på internet enligt rapporten. Den helt övervägande andelen är pornografiska. Vanligtvis är det kvinnor som får sina ansikten inklistrade i sexuella scener. Flera kända kvinnor har försökt agera mot filmerna, men företeelsen har visat sig svår att komma åt, eftersom deepfakes ofta produceras helt anonymt.

Men hur gick det då med president Zelenskyjs budskap om att ge upp?

Klippet skapade trots allt inte så mycket oro, och uppståndelsen lade sig efter kort tid. Det har nog tre huvudorsaker, säger Thomas Nygren, docent i historia och lektor i didaktik, konsten att undervisa, vid Uppsala universitet.

– I det här fallet – med Zelenskyj – så kom klippet i ett läge då det lät lite konstigt att Ukraina skulle ge upp. Det gick tvärtom ganska bra för de ukrainska trupperna som kämpade för att försvara Kyjiv. Dessutom hade myndigheterna tidigt varnat för att den här typen av propaganda skulle dyka upp, och det ser ut att ha tagit udden av försöket till desinformation.

Många kommentatorer har också påpekat att videon med Zelenskyj helt enkelt är dåligt gjord. Och tittar man noga så kan man ana några konstiga konturer i bilden och en onaturlig stelhet i kroppen på Ukrainas president.

– Men man ska komma ihåg att en sån här film är gjord för att ses på en mobiltelefon. Då granskar man inte detaljer på samma sätt, säger Thomas Nygren.

Därför trodde få på deepfake med Zelenskyj

  1. Den hade dålig kvalité,
  2. innehållet var alltför orimligt
  3. och folk var förvarnade om att liknande propaganda kunde vara i omlopp

Hur ska man då veta vad som är sant och inte?

– Det har visat sig att om man redan vet att något är fejk, kan ett proffs på området ibland hitta avslöjande detaljer, som dålig läppsynk eller någon onaturlig rörelse i håret. Men så sanrt det blir lite sämre bildkvalitet eller om klippet kommer i ett flöde av information tror vi på det, det ser vi i våra studier, säger Thomas Nygren.

Rimligheten en bra kontrollstation

Han har tillsammans med kollegor tittat på hur svenska gymnasieelever lyckas med att avgöra om en nyhetsuppläsare på video är verklig eller en datorskapad deepfake. Slutsatsen är att det inte går.

– Det hjälper inte heller med träning. Det är väldigt svårt att avslöja en falsk video med blotta ögat. Men det här med rimlighet är en viktig nyckel. Om det man ser eller hör strider allt för mycket mot det förväntade, då ska man dra öronen åt sig, menar Thomas Nygren.

Drottning Elizabeths uppmärksammade jultal 2020 (Channel 4), eller mer korrekt den deepfake som såg ut att vara drottning Elisabeth, skapades med hjälp av den professionella skådespelerskan Debra Stephenson. För att skapa den här typen av manipulerade bilder måste så kallade neurala nätverk tränas med så mycket bilder som möjligt av den person som ska förfalskas. När det är gjort kan ”förståelsen” av hur motivet ser ut användas för att ”lägga” det ursprungliga ansiktet till någon annans.

Hur avslöjar man en deep fake?

Numera är de flesta deepfakes väldigt välgjorda. I de bäst gjorda filmsekvenserna har man använt en imitatör eller skådespelare för att återge huvudpersonens röst och kroppsspråk.

– I mänsklig kommunikation använder vi så mycket. Och att få allting att stämma överens är inte helt lätt. Kroppsspråk och minspel, men även belysning måste vara rätt. Så tittar man noga, går det det ibland att se att det är fejk, säger Mårten Björkman, docent i datalogi på KTH i Stockholm.

Är det en deepfake? Var vaksam på:

  • Suddiga konturer runt ansikten.
  • Dålig överensstämmelse mellan tal och munrörelser.
  • Konstiga eller onaturliga blinkningar.
  • Kroppsspråk som inte känns rätt.
  • Ljusreflektioner i ögonen som är fel jämfört med hur ljuset faller in på andra föremål.
  • Bakgrunder som inte ser ut att stämma med den övriga bilden.

Det finns datorprogram som är gjorda för att avslöja deepfakes. Men, säger Mårten Björkman, det är som så mycket annat: Om tekniken att avslöja går framåt så kommer förfalskningstekniken att hitta vägar runt det.

– Det man kan titta på och analysera är till exempel om alla delar i ett klipp kommer från samma tillfälle, eller om någon del är inklippt i efterhand, eller om det är olika typer av data som förts samman. Men mycket forskning oågår om hur det går att jämna ut sådana kontraster.

Källa: Mårten Björkman

”Största risken är att ingen längre tror på någonting”

– Det finns inte jättemycket forskning om hur vi påverkas av deepfakes. Det har gått så fort från det att man kunde se när det var fusk till idag när det blivit näst intill omöjligt. Forskningen har inte hängt med.

Det säger Lisa Molin vid Göteborgs universitet, forskare i tillämpad informationsteknologi.

Hon har följt klasser av högstadieelever för att se vad skolans undervisning kan göra för att öka elevernas förmåga att hantera och bedöma deepfakes och annan information på nätet.

Inse att filmklippet kan vara fejkat

Det finns ingen självklar strategi att följa, säger hon. Men till att börja med måste man ta med i beräkningen att det förekommer förfalskningar, att det är en möjlighet att filmklipp på nätet är helt konstgjorda.

–  Ett sätt är också att följa diskussionen på nätet. Nya klipp genererar snabbt kommentarer, och där finns ofta antydningar om trovärdigheten eller misstankar om fusk.

Vad gör då den här nya tekniken med vår bild av verkligheten och hur vi ser på nyheter och annan information?

– Det är svårt att säga, säger Lisa Molin. Vad händer om vi står mitt i en kris, exempelvis ett krig, och inte ens vet om det går att lita på ett videoklipp där statsministern uttalar sig. Hur reagerar vi då? Det vet vi inte.

– Jag tror vi måste arbeta med det som kallas källtillit, alltså att veta när information är mer trovärdig, vilken typ av källor det går att lita på, till exempel etablerade medier eller granskad forskning, där det finns lagar och regler. Det här är saker man behöver lära sig – att allt inte är påhitt.

Att ljuga med text och bild är en gammal konst

Vi har ju kunnat ljuga med text och bilder länge. Och ofta även med film – även om tekniken förfinats. Retuscherade fotografier där personer suddats ut eller klippts in har funnits i decennier, och ett bandat samtal kan klippas om så att den talande kan fås att säga helt nya saker.

Vilken är egentligen den stora skillnaden med dagens sofistikerade deepfakes? 

– Jag vet faktiskt inte exakt vad de gör för skillnad, svarar Thomas Nygren.

– Den stora oron är att det ska uppstå tvivel på bildbevis. Man kan fortfarande använda rörliga bilder som bevis på att något har hänt. Men det kan uppstå en tveksamhet kring dem. Samtidigt gör detta att man kan börja ifrågasätta allt som finns på bild, även det som är sant och äkta. Och det är ju inte bra.

Thomas Nygren pekar på det fenomen som kallas ”liar’s dividend” på engelska, det vill säga ungefär lögnarens vinst. Om deepfakes blir allt vanligare så blir det samtidigt möjligt att hävda att filmbevis på ett brott eller övergrepp är en deepfake, även när det är äkta. Alltså att allt kan ifrågasättas.

Risken att alla börjar tvivla på allt

Men Thomas Nygren vill också tona ner riskerna med just deepfakes.

– De avgör inte krig eller val. Den stora faran, som jag ser det, är när alla börjar tvivla på allt, när man slutar bry sig eftersom det är så mycket falsk information som dyker upp. Men det kan man åstadkomma med andra mer traditionella metoder också, vilket vi kan se till exempel i kriget i Ukraina nu.

– Det är inte i första hand deepfakes som sprids under kriget i Ukraina, i stället försöker man ljuga på andra sätt, till exempel genom att använda bilder tagna ur sitt rätta sammanhang eller att påstå att döda och skadade personer är skådespelare.

Deepfakes – så gör man

Tekniken bakom deepfakes är olika system av så kallade neurala nätverk. Nätverken är självlärande, vilket betyder att de hela tiden blir lite bättre på det de gör. De kan sätta ihop stora mängder data, till exempel många olika bilder av ett ansikte, och skapa ”levande” modeller av dem.

Den datorskapade modellen kan sedan användas till exempel i ett videoklipp där man
byter ut ansiktet på en person i en video till ett datorskapat ansikte från en helt annan person – så kalla face swap.

Det går med samma teknik att skapa en konstgjord modell av en existerande människa; En modell som rör sig och ser ut som sin verkliga förebild, och som sedan kan användas exempelvis som nyhetsuppläsare i tv utan att förebilden överhuvudtaget är inblandad. Det är bara den datorskapade modellen som agerar. Det har man till exempel gjort med ett välkänt nyhetsankare i Sydkoreansk tv.

Idag finns det gott om tips och instruktioner på nätet om vilka program som finns och hur de kan användas för att skapa en deepfake. Den som är lite händig med datorgrafiken och har de rätta digitala verktygen kan alltså få vem som helst att säga vad som helst i ett videoklipp. Förutsättningen är bara att man har ett bra bildmaterial på personen ifråga.

Det är också fullt möjligt att, med de rätta AI-programmen, ersätta sitt eget utseende med någon annans, kanske någon celebritets, och sedan låta datorn förvandla rösten till en kopia av en annan persons, och sedan i realtid delta i ett videosamtal i rollen som någon annan.

Läs också: Så funkar neurala nätverk

Text: Tomas Lindblad på uppdrag av forskning.se

Nyhetsbrev med aktuell forskning

Visste du att robotar som ser en i ögonen är lättare att snacka med? Missa ingen ny forskning, prenumerera på vårt nyhetsbrev!

Jag vill prenumerera