O deepfake tehnologiji umjetne inteligencije već sam govorila, ali nedovoljno. Osim što nudi obilje mogućnosti, od edukacije i zabave do marketinga i istraživanja, ova tehnologija donosi i obilje mogućnosti za zlouporabe, od idealnog alata za potpuno uvjerljive dezinformacije do savršenog alata za krađu identiteta ili narušavanje ugleda i privatnosti i tako dalje. Istodobno, pravni okvir za kakvu-takvu kontrolu ovog lako dostupnog alata ili penalizaciju počinitelja – najjednostavnije rečeno – varira od zemlje do zemlje, a mnoge države tek počinju razvijati zakone koji se bave specifično deepfake tehnologijom i njezinom zloupotrebom.

Najčešće čujemo pitanje kako prepoznati deepfake? Odgovor je prije nekoliko godina bio jednostavniji negoli danas. Jer činjenica je da se u samim počecima deepfake tehnologije još nekako i moglo „prostim okom“ razlučiti, odnosno prepoznati da u nekom videu ili fotografiji nešto nije „kako treba“ te da se najvjerojatnije radi o nekoj vrsti manipulacije. To je bilo moguće iz nekoliko razloga: fotografije su imale velik broj grešaka, dok su videozapisi bili nedovoljne razlučivosti, a prikazane osobe imale su neprirodne pokrete. No, tako je to bilo nekad, a danas to više ne stoji kao činjenica. Štoviše, otišli smo prilično daleko u prilično kratkom vremenskom periodu. Danas smo u situaciji da zbog realističnosti deepfakea čak i dobro informirane, informatički vješte osobe mogu teško prepoznati radi li se o obmanjujućem ili stvarnom sadržaju.

Sadržaji su sve realističniji

Upravo je zato važno što češće podizati svijest o ovoj temi, posebice među širom populacijom, jer sam se i osobno uvjerila da mnogi uzimaju zdravo za gotovo neke sadržaje generirane ovom tehnologijom umjetne inteligencije. To je posebice slučaj kada se radi o javnim osobama koje su iskorištene bez pristanka za neke marketinške svrhe. Potencijalni kupci misle da ih na kupnju ili participaciju stvarno poziva primjerice Luka Modrić, a za to se vrijeme Modrić hvata za glavu razmišljajući kako da zaustavi širenje lažnoga sebe internetskim bespućima.


Pitanje regulacije deepfake tehnologije predstavlja značajan izazov / Izvor Pixabay

Da, deepfake je jako napredovao, a sadržaji su sve realističniji, zbog čega je uistinu postalo gotovo nemoguće „od oka“ prepoznati radi li se u umjetnoj inteligenciji ili stvarnom sadržaju. I da stvar bude još gora i kompleksnija, videomaterijali mogu biti manipulirani i u realnom vremenu, primjerice tijekom videopoziva. Možemo se zamisliti kao pojedinci, ali zapravo nije lako ni tvrtkama. Varali bi nas, ali varali bi i njih – bolje rečeno – varaju. Tako su mnoge tvrtke diljem svijeta već više puta iskusile deepfake napade na svoje poslovanje, uključujući prijevare s fakturama, phishing prijevare, WhatsApp lažne pozive. Iz mjeseca u mjesec raste broj ovakvih napada. Deloitteov Centar za financijske usluge predviđa da bi GenAI mogao omogućiti da gubici od prijevara dosegnu 40 milijardi američkih dolara u Sjedinjenim Američkim Državama do 2027. godine. Ako govorimo o prošloj godini, slučajevi ovakvih prijevara ili pokušaja prijevara punili su naslovnice u medijima i rezultirali milijunima dolara gubitaka za one koji su nasjeli.

Jedno britansko sveučilište napravilo je istraživanje koje je pokazalo da je 61 % sudionika mogao razlikovati ljude generirane umjetnom inteligencijom od stvarnih. Reći ću samo da je ovo još prilično dobar postotak, zato ga i navodim, jer ne želim da ovaj tekst bude pesimističan. Ipak, jasno je da što je tehnologija naprednija, to je postotak raspoznavanja manji. Do mjere da mislite kako razgovarate sa stvarnim čovjekom jer tako zvuči i izgleda. Imali smo tako, primjerice, prošle godine slučaj obmane uživo u stvarnom vremenu. Naime, tijekom videokonferencijskog poziva kojem su prisustvovali deepfakeovi koji su se predstavljali kao glavni financijski direktor tvrtke i drugi zaposlenici, osobe koje su prevarene izvršile su 15 transakcija u ukupnom iznosu od gotovo 26 milijuna dolara. No, da ne bude sve toliko crno, postoji i nekoliko tehnologija koje su specijalizirane za otkrivanje je li riječ o stvarnom ili deepfake sadržaju. Neke su dosta uznapredovale i osiguravaju vrlo brzu provjeru je li riječ o živoj osobi, za samo 40 milisekundi. Sve više tvrtki diljem svijeta u svoje redovno poslovanje uvodi takve alate kao odgovor. Ove tehnologije umjetne inteligencije rade kao „good guys“ protiv onih koje nas žele obmanuti na način da im otkrivaju deepfake signale koji uključuju zamućenje oko lica, neobičnu prezentaciju šarenice, suptilne biometrijske znakove, refleksiju svjetlosti, anomalije teksture i još mnogo toga.

Pravni okvir tek je u nastajanju

Na početku sam spomenula da pravni okvir varira te da je tek u nastajanju. Moram ovdje istaknuti kako je deepfake tehnologija općenito govoreći legalna, osim kada krši postojeće zakone: konkretno, može ući u domenu kaznenog zakona ako je riječ o sadržajima zlostavljanja djece, govora mržnje ili klevete. No, sama po sebi nije inkorporirana u našu legislativu. Još! Pitanja regulacije oko deepfake tehnologije predstavljaju značajan izazov i ostavljaju prostor za zloupotrebe. Primjerice, u Hrvatskoj kazneno djelo predstavljaju djela povezana s tzv. deepfake pornografijom, odnosno manipulacijom sadržajem tako da se na fotografiji ili snimci digitalno zamijeni osoba ili se izradi novi sadržaj s ciljem kršenja nečije privatnosti. Za ova kaznena djela propisana je zatvorska kazna do jedne godine, odnosno do tri godine. Inače, sintag­ma „krađa identiteta“ koristi se u svakodnevnom govoru, ali takvo djelo nije opisano u Kaznenom zakonu. 

EU je također u problemima oko ove teme. Zato je još prije nekoliko godina razvila konzorcij od 12 članova, poznatiji kao Europski sistem za praćenje krađe identiteta, čiji je cilj razvoj soft­verskih alata za borbu protiv ove vrste kriminala. Inicijativa se provodi kao javno-privatno partnerstvo financirano kroz program Horizon i uključuje nekoliko sveučilišta, agencija i tvrtki koje razvijaju alate za detekciju lažnih osoba, lica i glasova. Dakle, kao i u ostatku svijeta, krađa identiteta predstavlja ozbiljan problem i u Europi. Deepfake videozapisi mogu se stvarati na dva načina: može se koristiti originalni videozapis te učiniti da osoba govori ili radi stvari koje zapravo nije rekla ili uradila, ili se pak može zamijeniti lice osobe licem druge osobe. Vjerujem da ste čuli kako smo i mi u Hrvatskoj imali nekoliko ovakvih slučajeva. Podsjetit ću vas da je neurokirurg Josip Paladino bio žrtva deepfakea u kojem je lažno promovirao sumnjivi medicinski preparat. Snimka je korištena za obmanu korisnika društvenih mreža. Spomenula sam prethodno i Luku Modrića. Kapetan hrvatske nogometne reprezentacije bio je također iskorišten u lažnim videosadržajima koji su promovirali sumnjive investicijske platforme. Kako u svijetu, tako i kod nas – meta prevaranata u više je navrata bio i hrvatski državni vrh – konkretno, predsjednik Vlade RH Andrej Plenković i predsjednik Republike Hrvatske Zoran Milanović – a u gotovo svim primjerima radilo se o investicijskim online tvrtkama koje lažno mame na brzu i laku zaradu. Što je već samo po sebi toliko nemoguće da, ako je još u kombinaciji s nekim javnim likom koji nas na to poziva, zvuči apsolutno nevjerojatno da bi itko u to povjerovao. No, nikad ne reci nikad. Neki ljudi stvarno povjeruju u brzu i laku zaradu. Ali, to je pak druga tema, jednako intrigantna.

U svakom slučaju, bilo bi dobro, za našu vlastitu prevenciju, aktivirati provjeru autentičnosti s više faktora na svojim računima i uređajima kako bismo ojačali sigurnost te se ne oslanjati samo na lozinke. Isto tako, budite oprezni sa zahtjevima da nešto obavite ili nekome nešto pošaljete, jer su to klasične taktike prijevare. Ako vas s nepoznate adrese dodatno „tjeraju“ ili potiču da nešto napravite brzo ili hitno, zasigurno je riječ o prevari. Budite oprezni i s pretjerano personaliziranim porukama u kojima vas imenom oslovljavaju nepoznate osobe jer umjetna inteligencija može i zna iskoristiti vašu prethodnu aktivnost na internetu te istu upakirati u nešto što je prijevara. Ukratko, dobar savjet je – neka vam cilj uvijek bude preispitivati sve vezano za tehnologije interneta i ostati skeptičan.

I naravno, uvijek budite upoznati s najnovijim taktikama korištenja umjetne inteligencije. Drugim riječima, dobro je što ste pročitali ovaj članak.

matica