Antall Deepfake-videoer øker med 900 prosent hvert år

Antall Deepfake-videoer øker i prosent hvert år
Antall Deepfake-videoer øker med 900 prosent hvert år

I følge World Economic Forum (WEF) øker antallet deepfake-videoer på nettet med 900 % hvert år. Flere bemerkelsesverdige tilfeller av deepfake-svindel skapte nyhetsoverskriftene, med rapporter om trakassering, hevn og kryptosvindel. Kaspersky-forskere kaster lys over de tre beste svindeloppleggene ved å bruke dype faker som brukere bør passe seg for.

Bruken av kunstige nevrale nettverk, dyp læring og dermed dypfalske bedrageriteknikker lar brukere over hele verden digitalt endre ansikter eller kropper, og dermed produsere realistiske bilder, video- og lydmaterialer der alle kan se ut som noen andre. Disse manipulerte videoene og bildene brukes ofte til å spre feilinformasjon og andre ondsinnede formål.

økonomisk svindel

Deepfakes kan være gjenstand for sosiale ingeniørteknikker som bruker bilder laget av kriminelle for å etterligne kjendiser for å lokke ofre inn i fellene deres. For eksempel spredte en kunstig laget video av Elon Musk som lover høy avkastning fra en tvilsom investeringsordning for kryptovaluta seg raskt i fjor, noe som førte til at brukerne tapte penger. Svindlere bruker bilder av kjendiser for å lage falske videoer som denne, sy sammen gamle videoer og lansere live-strømmer på sosiale medieplattformer, og lover å doble alle kryptovalutabetalinger som sendes til dem.

pornografisk deepfake

En annen bruk av deepfakes er å krenke en persons personvern. Deepfake-videoer kan lages ved å legge en persons ansikt over på en pornografisk video, og forårsake stor skade og uro. I ett tilfelle dukket det opp dypfalske videoer på Internett der ansiktene til noen kjendiser ble lagt over kroppene til pornografiske skuespillerinner i eksplisitte scener. Som et resultat, i slike tilfeller, skades omdømmet til ofre for angrep og deres rettigheter krenkes.

Forretningsrisiko

Ofte brukes deepfakes for å målrette bedrifter for forbrytelser som utpressing fra bedriftsledere, utpressing og industrispionasje. For eksempel, ved å bruke en stemmedeepfake, klarte nettkriminelle å lure en banksjef i UAE og stjele 35 millioner dollar. I det aktuelle tilfellet krevde det bare et lite opptak av sjefens stemme for å bli fanget for å skape en overbevisende deepfake. I et annet tilfelle prøvde svindlere å lure den største kryptovalutaplattformen Binance. Binance-leder sa "Takk!" om et Zoom-møte han aldri deltok på. Han ble overrasket da han begynte å motta meldinger. Angriperne klarte å lage en deepfake med offentlige bilder av lederen og implementere den ved å snakke på vegne av lederen i et nettmøte.

FBI advarer personalsjefer!

Generelt inkluderer formålene med svindlere som bruker dypfalske desinformasjon og offentlig manipulasjon, utpressing og spionasje. Ledere av menneskelige ressurser er allerede på vakt for bruk av dype forfalskninger av kandidater som søker om fjernarbeid, ifølge et FBI-varsel. I Binance-saken brukte angriperne bilder av ekte mennesker fra internett for å lage dype forfalskninger, og la til og med bildene sine til CV-en. Klarer de å lure personalledere på denne måten og deretter få et tilbud, kan de i ettertid stjele arbeidsgiverdata.

Deepfakes fortsetter å være en kostbar form for svindel som krever et stort budsjett og øker i antall. En tidligere studie av Kaspersky avslører kostnadene for dype falske på darknet. Hvis en vanlig bruker finner programvare på Internett og prøver å deepfake den, vil resultatet være urealistisk og uredelig er åpenbart. Få mennesker tror på en deepfake av lav kvalitet. Han kan umiddelbart merke forsinkelser i ansiktsuttrykk eller uskarp hakeform.

Derfor trenger nettkriminelle store mengder data som forberedelse til et angrep. Som bilder, videoer og stemmer til personen de vil utgi seg for. Ulike vinkler, lysstyrke, ansiktsuttrykk spiller en stor rolle for den endelige kvaliteten. En oppdatert datakraft og programvare kreves for at resultatet skal være realistisk. Alt dette krever store mengder ressurser, og kun et lite antall nettkriminelle har tilgang til denne ressursen. Derfor er deepfake fortsatt en ekstremt sjelden trussel, til tross for farene den kan utgjøre, og bare et lite antall kjøpere har råd til det. Som et resultat starter prisen på en deepfake på ett minutt på $20 XNUMX.

«Noen ganger kan omdømmerisiko ha svært alvorlige konsekvenser»

Dmitry Anikin, senior sikkerhetsspesialist hos Kaspersky, sier: «En av de mest alvorlige truslene Deepfake utgjør for bedrifter er ikke alltid tyveri av bedriftsdata. Noen ganger kan omdømmerisiko ha svært alvorlige konsekvenser. Se for deg en video som sendes av lederen din med polariserende kommentarer om (tilsynelatende) sensitive emner. For selskapet kan dette føre til en rask nedgang i aksjekursene. Men selv om risikoen for en slik trussel er ekstremt høy, er sjansene for å bli hacket på denne måten ekstremt lave på grunn av kostnadene ved å lage en deepfake og svært få angripere kan lage en høykvalitets deepfake. Det du kan gjøre med det er å være klar over nøkkelfunksjonene til dypfalske videoer og å være skeptisk til talemeldinger og videoer som kommer til deg. Sørg også for at de ansatte forstår hva en deepfake er og hvordan de kan oppdage det. For eksempel vil tegn som rykkende bevegelser, endringer i hudtone, merkelig blinking eller ingen blinking være veiledende.»

Kontinuerlig overvåking av darknet-ressurser gir verdifull innsikt i deepfake-industrien, slik at forskere kan følge de siste trendene og aktivitetene til trusselaktører i dette området. Ved å overvåke mørkenettet kan forskere avdekke nye verktøy, tjenester og markedsplasser som brukes til å lage og distribuere dype forfalskninger. Denne typen overvåking er en kritisk komponent i dypfalsk forskning og hjelper oss med å forbedre vår forståelse av det utviklende trussellandskapet. Kaspersky Digital Footprint Intelligence-tjenesten inkluderer denne typen overvåking for å hjelpe kundene med å ligge et skritt foran når det kommer til deepfake-relaterte trusler.