Moč umetne inteligence je zelo učinkovita in hitra. To dokazujejo tudi razni lažni videoposnetki, ki lahko nastanejo zgolj z eno samo sliko. Če še nikoli niste slišali za izraz “deepfake” mi dovolite da vam to opišem na čimbolj enostaven in zanimiv način.

Splet je vedno bolj preplavljen z raznimi preurejenimi videi. Njihova prepričljivost je milo rečeno skrb zbujajoča in poraja številne pomisleke. Manipuliranje z videoposnetki sicer ni nič novega, a doslej je bila, za ustvarjanje prepričljivih video ponaredkov, potrebna mala vojska tehničnih strokovnjakov. Tehnologija deepfake, ki ustvarjanje prepričljivih posnetkov omogoči tako rekoč komurkoli, pa briše mejo med resničnostjo in lažjo in pomeni naslednjo stopnjo v razvoju lažnih novic.

Kaj torej je deepfake?

Tehnologija deepfake je ime dobila po uporabniku spletne platforme Reddit, ki je FakeApp uporabljal za to, da je obraze različnih zvezdnic lepil na telesa pornografskih igralk. Sprevržena raba umetne inteligence je spletnim perverznežem omogočila, da gledajo pornografske filme, v katerih igrajo na primer Cameron Diaz, Angelina Jolie in Emma Watson.

Pri takšnih posnetkih, manipulacija podob nikakor ne deluje ceneno, umetno ali zmontirano: videti so videti izjemno pristni pa čeprav so jih amaterski posamezniki ustvarili po načelu naredi sam. Redditova pod stran za objavljanje prispevkov deepfake je v enem letu in do trenutka, ko jo je vodstvo spletne strani zaprlo zaradi nasprotovanja objavam neprostovoljne pornografije pridobila skoraj sto tisoč aktivnih uporabnikov.

Med seboj so si izmenjevali pornografske stvaritve in napotke za produkcijo. Pornografijo, izdelano s tehnologijo deepfake, so pred nedavnim prepovedali tudi Twitter, Pornhub, Discord in druge spletne platforme, ki prepoznavajo težavo z morebitno etično sporno rabo te tehnologije.

Vse kar potrebujemo za tak videoposnetek je dovolj zmogljiv računalnik in precej veliko zbirko fotografij ali posnetkov osebe, ki je tarča manipulacije.

Skratka deepFake je tehnika, ki s pomočjo umetne inteligence na podlagi obraznih mimik govorca iz originalnega videa zajame sličice njegovega obraza in ga nato zamenja z drugo željeno osebo. Prvič so rezultati slabi, vendar če pustimo programu, da obdeluje dovolj časa lahko posnetek izgleda zelo resnično. Je napredna tehnika, ki podobe izbranih ljudi izjemno prepričljivo združi v nove, pri čemer obrazna mimika sledi mimiki osebe iz izvirnega posnetka. Vse kar potrebujemo za tak videoposnetek je dovolj zmogljiv računalnik in precej veliko zbirko fotografij ali posnetkov osebe, ki je tarča manipulacije.

Tehnologija ”deepFake” ima skrb zbujajoče potenciale. Kot omenjeno jo je mogoče uporabljati za ustvarjanje prepričljivih lažnih novic, podtikanje zločinov, sramotenje politikov, ustvarjanje lažnih posnetkov in še več. Če pomislimo, kaj vse lahko dosežemo z lažnim posnetkom pridemo hitro do zaključka, da ni prav nič dobrega v tej tehnologiji. Z lažnim posnetkov lahko tarčo prepričamo v marsikaj. Toda, tu se zgodba še ne konča. Več v nadaljevanju.

Aplikacija : FakeApp

Same podrobnosti algoritma niso znane, ker pa je FakeApp odprtokodna aplikacija, je brezplačna. FakeApp ustvari in izuri nevronsko mrežo, ki se nauči prepoznavati obraz lika in ga nadomesti z obrazom naše tarče. Temu projektu, ki nastane po ustanovitvi nevronske mreže pravimo model. Ko enkrat to dosežemo lahko v videoposnetku enostavno zamenjamo tarčo z žrtvijo. Čim bolje smo naučili našo umetno inteligenco (čim več slik imamo, čim dlje te slike obdelujemo) tem boljše imamo rezultate.

Več o samem delovanju aplikacije si lahko najdete na spletu saj ta članek ni namenjen učenju programa ampak o zaveščanju le tega.

Zgornji posnetek lepo prikazuje, kako je lahko nevarna umetna inteligenca, saj bi težko rekli ali gre za pristen posnetek ali ne.

Kaj nas čaka ?

Da pa menjava obraza ni dovolj dokazujejo tudi na univerzi Stanford in Princeton, z inštituta Max Planxk in iz podjetja Adobe Research, kjer so razvili nov algoritev, ki omogoča še lažjo manipulacijo videoposnetkov. V novem algoritmu, ki so ga razvili je sedaj moč zamenjati besede v tekstu, ki ga izgovarja oseba na posnetku – in to kar preko urejevalnika besedil!

V tem primeru potrebujemo vsaj 40 minut dolg posnetek, in prepis govorjenega besedila. Iz tega se algoritem nauči, kako se spreminja obrazna mimika osebe na posnetku. Ta tehnika se imenuje Neural Rendering. Rezultat je presenetljivo dober.

Zanimiv je razlog zakaj je bil ta algoritem ustvarjen in sicer: » Razlog naj bi bil za uporabo snemanje filmskih prizorov, ko se igralci zmotijo pri besedilu, da ni treba celotnega dela posneti znova. » Pravijo na inštitutu Max Planck.

Preveč enostavno je ustvariti lažen posnetek

Samsung je nedavno razvil algoritem, ki potrebuje le eno sliko, da ustvari lažni videoposnetek. Razvijalci ta projekt imenujejo »few- in one-shot learning«, kjer je model lahko ustvarjen zgolj z enim portretom. Če pa temu dodamo še nekaj slik (od 8 do 32) pa je že lep pristen 3D model. 



To je zgolj nekaj primerov nastalih iz zgolj ene slike. Fjodor Dostojevski, ki je umrl precej prej kot smo imeli kamere se sedaj premika in govori v črno-beli barvi. Mona Lisa se nam nasmiha in Salvador Dali spretno opleta s svojimi znanimi brki.

Zaključek

Vsi ti algoritmi, ki so nam javno dostopni lahko pripeljejo do velikih težav tudi pri denimo volitvah. Človeška domišljija ne pozna meja in tukaj jo lahko izraža vsak, ki ima nekaj računalniškega znanja in zmogljiv računalnik. Kam vse to vodi si lahko mislite sami, zagotovo pa ne v tako dobro pot kot slabo. Če razvijalci ne bodo poskrbeli za “varovalko”, ki nam bo omogočala vpogled ali je posnetek pristen ali ne, bodo mediji zagotovo kmalu (v nekaterih primerih že) pisali novice katere sami želijo in jih preuredili po svoje.