Vi litar normalt på att digitalt innehåll är äkta, men deepfakes gör det svårt att skilja på äkta och syntetiskt. Genom att med AI manipulera bild och ljud kan man sprida desinformation och hota integritet. I det här blogginlägget delar jag insikter från mitt examensarbete, vilket belyste deepfakes påverkan på digital säkerhet och svårigheterna med att upptäcka dem. Arbetet uppmärksammades med det första Vera Sandberg-stipendiet, som inrättades vid Blekinge Tekniska Högskola för att lyfta fram förebilder och inspirera fler kvinnor till att välja en framtid inom teknik.
Deepfakes, verklighetstrogna AI-genererade medier så som ljud och bild, har på kort tid blivit ett av de mest omdiskuterade säkerhetshoten. Med hjälp av avancerad AI kan man skapa extremt realistiska videor, ljudklipp och bilder som är svåra att skilja från verkligheten. Det finns legitima användningsområden, men riskerna är betydande – både för individer, företag och samhället. Samtidigt som tekniken fortsätter att utvecklas i snabb takt, ställs vi inför nya utmaningar när det gäller att identifiera och hantera dessa hot.
I mitt examensarbete utförde jag en grundlig undersökning och analys av tidigare forskning om deepfakes och kunde identifiera tre huvudsakliga kategorier av säkerhetsrisker.
Deepfakes används för att sprida falska nyheter och påverka åsikter på ett sätt som tidigare var nästintill otänkbart. Dessa syntetiska median kan få det att se ut som om någon uttryckt en åsikt eller tagit beslut som de i själva verket aldrig gjort. Ett exempel är den manipulerade videon med Ukrainas president Zelensky tidigare under Ryssland-Ukraina-konflikten, där han felaktigt framställdes som att ha kapitulerat till Ryssland. Lyckligtvis tog det inte lång tid innan denna video identifierades som falsk, en deepfake. Sådana incidenter kan leda till omfattande osäkerhet, minska förtroendet för digital information och i värsta fall påverka samhällsviktiga beslutsprocesser.
Tekniken gör det möjligt att imitera personer i realtid, både i video- och telefonsamtal. Det har redan förekommit miljonbedrägerier där företagare lurats via deepfake-röster eller videos. Även privatpersoner drabbas, till exempel genom "familjebedrägerier" där en förälder tror att deras barn är i fara och i hopp om att kunna hjälpa dem skickar pengar till bedragare.
Deepfakes används för att skapa icke-samtyckt explicit material, ofta med syfte att utpressa eller trakassera. Dessutom kan tekniken kringgå biometriska säkerhetssystem som FaceID och röstigenkänning. Detta kan leda till allvarliga personliga konsekvenser där offret får sin identitet och integritet kränkt på nätet, ibland med långvariga psykiska och sociala följder. Sådana attacker kan vara svåra att stoppa och informationen sprids snabbt, vilket försvårar möjligheten att återta kontrollen över sitt digitala liv.
Det finns metoder för att försöka identifiera deepfakes, men dagens detektionsmetoder har flera begränsningar:
Tekniska utmaningar: Deepfake-tekniken utvecklas snabbt, vilket gör att detektionsverktyg snabbt blir föråldrade. De fungerar ibland bra i labbmiljö, men ofta betydligt sämre i verkliga situationer.
Brist på standardisering: Det saknas gemensamma testdatamängder och mätmetoder vilket gör det svårt att jämföra och förbättra dem.
Integritetsproblem: Många verktyg kräver insamling av känsliga biometriska data, vilket kan strida mot GDPR och andra regelverk. Få metoder upprätthåller tillräckligt integritet, men nya tekniker visar att det kan vara möjligt att kombinera integritetsskydd med effektiv detektion.
Mitt arbete syftade till att ge en bredare förståelse för hotbilden och att kritiskt granska dagens lösningar. För den som vill läsa mer finns hela rapporten tillgänglig här: Combating Deepfakes: A Review of Detection Techniques and Their Limitations. Jag hoppas att det kan bidra till fortsatt dialog och utveckling inom området och till att fler får upp ögonen för hur viktigt det är att möta tekniska framsteg med ett säkerhetsmedvetet förhållningssätt.
En sak som blev särskilt tydlig under arbetets gång var hur snabbt tekniken utvecklas och hur långsamt säkerhetslösningarna hänger med. Det finns en markant risk att vi hamnar i ett läge där deepfakes inte bara lurar ögat, utan också underminerar tilliten till digital kommunikation i stort. I en tid där allt fler beslut fattas baserat på digitalt material, blir det avgörande att kunna verifiera äktheten i det vi ser och hör. Det handlar inte bara om teknik, utan om demokrati, rättssäkerhet och personlig trygghet.
Deepfakes är inte bara en teknisk utmaning – de är ett samhällsproblem som kräver tvärvetenskaplig förståelse och samarbete. Mitt examensarbete syftade till att bidra med just detta: en bredare förståelse för hotbilden och en kritisk granskning av dagens lösningar.