STAznanost

Slovenski raziskovalci razvijajo tehnologijo za bolj učinkovito zaznavanje globokih ponaredkov

pripravila Manca Ahčin

Ljubljana, 22. oktobra - V Laboratoriju za strojno inteligenco Fakultete za elektrotehniko Univerze v Ljubljani so v lanskem letu začeli s projektom DeepFake DAD. Cilj triletnega projekta je razviti naprednejšo tehnologijo za zaznavanje globokih ponaredkov, ki jih je s hitrim razvojem tehnologije vse lažje ustvariti, na družbenih omrežjih pa se hitro širijo.

Globoki ponaredki (angl. deepfakes) so ponarejeni videoposnetki ali slike, na katerih je podoba osebe zamenjana s podobo nekoga drugega. Kot je za STA dejal vodja projekta DeepFake DAD Vitomir Štruc, je namen njihovega ustvarjanja po navadi zlonameren. "Ljudje jih pogosto poskušajo uporabiti za izsiljevanje drugih, za širjenje neresničnih informacij, tudi za raznorazne zlorabe in kraje identitete," je opozoril.

Zaradi hitrega razvoja tehnologije je danes sicer možno poustvariti že celotne prizore in ne le zamenjati obraze oseb. "Še vedno recimo ni možno ustvariti petminutnih videoposnetkov, ki bi tekli konsistentno. Lahko pa že ustvarimo kratke posnetke, dolge do 20 sekund, ki so že zelo prepričljivi," je poudaril. V prihodnosti bomo po njegovih besedah verjetno videli vedno daljše in bolj realistične videoposnetke, ki jih bo mogoče tudi zelo enostavno ustvariti.

Ker je tehnologija že postala široko dostopna in enostavna za uporabo, se jo tudi zlahka zlorabi. Po besedah Štruca je zato pomembno, da strokovnjaki razvijajo tehnologijo detektorjev, ki bo omogočala lažje odkrivanje globokih ponaredkov.

S projektom do detektorja za bolj učinkovito prepoznavanje globokih ponaredkov

Razvoj učinkovitih detektorjev za prepoznavanje globokih ponaredkov je izjemno zahtevna naloga, je poudaril Štruc. Navadno so detektorji, ki temeljijo na strojnem učenju, naučeni prepoznavati specifične vrste globokih ponaredkov in jih ločiti od resničnih posnetkov. Problem pa je, da obstaja veliko različnih načinov za ustvarjanje globokih ponaredkov, hkrati pa se nenehno pojavljajo novi. "Že jutri lahko nekdo ustvari veliko boljši globoki ponaredek, ki ga še nikoli nismo videli. Teh detektorji ne morejo prepoznati, ker niso bili naučeni na takšnih primerih," je pojasnil.

Ljubljana, Laboratoriju za strojno inteligenco Fakultete za elektrotehniko Univerze v Ljubljani.
V Laboratoriju za strojno inteligenco Fakultete za elektrotehniko Univerze v Ljubljani so v lanskem letu začeli s projektom DeepFake DAD, v okviru katerega želijo razviti naprednejšo tehnologijo za zaznavanje globokih ponaredkov.
Raziskovalec v laboratoriju in vodja projekta DeepFake DAD Vitomir Štruc.
Foto: Sani Karić/STA

V Laboratoriju za strojno inteligenco Fakultete za elektrotehniko Univerze v Ljubljani (UL) so zato v sodelovanju s kolegi iz Laboratorija za računalniški vid Fakultete za računalništvo in informatiko UL lansko leto začeli z raziskovalnim projektom DeepFake DAD, v okviru katerega želijo razviti naprednejšo tehnologijo za zaznavanje globokih ponaredkov.

"Naša ideja je, da detektorje naučimo prepoznavati resnične posnetke, namesto da bi jih učili na globokih ponaredkih. Na podlagi resničnih posnetkov želimo razviti razvrščevalnik, ki bo določil, ali je nekaj resnično. Vse, kar razvrščevalnik ne bo prepoznal kot resnično, pa bomo nato opredelili kot globoki ponaredek," je pojasnil.

Nekaj takšnih začetnih modelov so že razvili in so, kot je dejal Štruc, tudi že dokaj učinkoviti. Končni cilj pa je razviti detektor, ki bo ne glede na to, kakšni globoki ponaredki se bodo pojavili v prihodnje, še zmeraj sposoben prepoznati vse. Obenem ciljajo tudi na to, da bo detektor prosto dostopen javnosti.

Globoki ponaredki grožnja na več področjih

Tovrstni detektorji bodo vse bolj potrebni, meni. Globoki ponaredki se namreč, kot je opozoril, na družbenih omrežjih širijo z neverjetno hitrostjo. To denimo še posebej problematično za področje politike, kjer gre za usmerjanje javnega mnenja.

Po besedah Štruca pa lahko zlasti globoki ponaredki, ki delujejo v realnem času, predstavljajo resno grožnjo na področjih, kjer se identiteta dokazuje preko video klicev.

Kot je pojasnil, ima vsak način identifikacije določeno stopnjo zaupanja. Najvišjo ima identifikacija, ko je oseba fizično prisotna in pokaže osebni dokument. Ta identifikacija nam na primer omogoča prodajo nepremičnin pri notarju. Video klici imajo trenutno še vedno nižjo stopnjo zaupanja, z njimi zato lahko opravljamo zgolj manjše pravne posle, kot je pregled bančnega stanja, je dejal.

Na ravni EU in tudi v Sloveniji pa sicer po besedah Štruca že razmišljajo o dvigu stopnje zaupanja na najvišjo raven tudi pri video klicih, kar bi omogočilo tudi pomembnejše transakcije, kot je prodaja nepremičnin brez fizične prisotnosti osebe.

"Če bi identiteto preverjali tako, bi nekdo lahko s pomočjo globokega ponaredka preko video klica prodal vašo hišo, kar je zelo problematično," je opozoril.

Ljubljana, Laboratoriju za strojno inteligenco Fakultete za elektrotehniko Univerze v Ljubljani.
V Laboratoriju za strojno inteligenco Fakultete za elektrotehniko Univerze v Ljubljani so v lanskem letu začeli s projektom DeepFake DAD, v okviru katerega želijo razviti naprednejšo tehnologijo za zaznavanje globokih ponaredkov.
Raziskovalec v laboratoriju in vodja projekta DeepFake DAD Vitomir Štruc.
Foto: Sani Karić/STA

Pred dvema letoma se je na tak že zgodila bančna prevara v Združenih arabskih emiratih. Hekerji so s ponarejenim zvokom prevarali banke, ki so preverjale identiteto na podlagi govora, in ukradli tako povzročili milijonsko škodo. Takih primerov pa je po besedah Štruca še veliko.

Za prepoznavanje globokih ponaredkov lahko zadostuje zdrava kmečka pamet

V primerih, ko gre za pomembne vsebine, ki imajo lahko velik vpliv in posledice za družbo, strokovnjaki sicer opravljajo natančen ročni pregled, iz katerega ugotovijo, ali je vsebina resnična ali ne. "Pogosto zadostuje že zdrava kmečka pamet. Če nam nekaj deluje nenavadno, vsebina verjetno ni resnična," je dejal Štruc.

Kot je dejal, mora biti posameznik pri prepoznavanju globokih ponaredkov pozoren zlasti na podrobnosti. "Po navadi ima lažni lik nenaravno obrazno mimiko, sence telesa ali predmeta so nekonsistentne ali padajo na napačno stran, oči niso okrogle, ampak malo deformirane, velikokrat so popačene roke, na katerih se ali pojavijo dodatni prsti ali pa kakšen umanjka," je pojasnil.

Na mesec se na družbena omrežja sicer naloži preko milijarde slik in videov. Da bi ljudje ročno pregledovali vse, je praktično nemogoče, je opozoril. "Treba je razvijati programske rešitve, s katerimi bomo take vsebine prepoznali še preden se bodo naložile na družbena omrežja. Le tako bomo lahko zagotovili varno digitalno okolje," je še dejal.