Videi generirani umjetnom inteligencijom u kojima se koriste glas i lik neke poznate osobe iz društvenog ili političkog života u Hrvatskoj odavno nisu nikakva novost. Meta prevaranata u više je navrata bio hrvatski državni vrh – predsjednik Vlade Andrej Plenković i predsjednik Republike Zoran Milanović, a u gotovo svim primjerima radilo se o investicijskim platformama koje građanima omogućuju laku i brzu zaradu.
Osim investicijskih prevara, čest primjer prevara u kojima se koristi umjetna inteligencija jest i prodaja čudotvornih lijekova, koji će pojedine bolesti riješiti “u tren oka”. U te svrhe prevaranti se koriste likom i djelom poznatih liječnika i znanstvenika – neurologa Josipa Paladina, imunologa Stipana Jonjića, infektologinje i ravnateljice Klinike za infektivne bolesti “Dr. Fran Mihaljević” Alemke Markotić te molekularnog biologa Ivana Đikića. AI dezinformacije nisu zaobišle ni poznatog poduzetnika Emila Tedeschija, kao ni poznate televizijske voditeljice i voditelje poput Nine Kljenak, Igora Bobića, Zorana Šprajca te Mojmire Pastorčić.
Meta prevara generiranih umjetnom inteligencijom bio je i bivši ministar zdravstva
Jedan od zamijećenijih slučajeva korištenja poznatog političara u svrhu promocije čudotvornog lijeka bio je onaj sada već bivšeg ministra zdravstva Vilija Beroša. Podsjetimo, u rujnu 2023. na Facebook profilu “Doctor Thomas” objavljena je snimka (arhivirano ovdje) u kojoj hrvatski ministar zdravstva Vili Beroš govori da je izmislio prirodni lijek za bol u zglobovima. Radilo se, dakako, o prevari. Po boji glasa i načinu govora vrlo uvjerljiva Beroševa izjava je računalno generirana, korištenjem AI alata za kreiranje zvučnih zapisa. Uz audio snimku, korišteni su kadrovi iz intervjua koji je Vili Beroš zaista dao portalu 24 sata, a koji je objavljen u sklopu članka od 20. travnja 2020. godine.
Ministarstvo zdravstva i sam Beroš tada su za Faktograf kazali da se radi o prevari, a najavili su da će i poduzeti određene mjere u smislu prijave nadležnim institucijama. S obzirom na to da je širenje snimki generiranih umjetnom inteligencijom društvenim mrežama u svrhu obmanjivanja građana, zanimalo nas je što Ministarstvo unutarnjih poslova, Državno odvjetništvo i HAKOM kao regulator čine po pitanju zaštite građana od takvih prevara. Ministarstvo unutarnjih poslova i DORH dodatno smo upitali jesu li imali kakvih prijava baš vezano uz širenje lažnih AI snimki i jesu li provodili kakve izvide u tom smislu.
MUP nema podatke o broju zloupotreba osobnih podataka
Iz Državnog odvjetništva su za Faktograf kratko kazali da “provode izvide u jednom predmetu slične tematike”. U odgovoru kojeg potpisuje zamjenica općinske državne odvjetnice napomenuli su da su izvidi tajni sukladno članku 206. f stavak 1. Zakona o kaznenom postupku.
Ministarstvo unutarnjih poslova za naš je portal poručilo da nemaju regulatorne ovlasti u odnosu na sadržaj u digitalnim medijima. “Takvi ili slični oglasi predstavljaju pripremnu radnju za izvršenje različitih kaznenih djela, a uglavnom se radi o kaznenim djelima prijevara kao predikatnom djelu, gdje je počinitelj zlouporabio osobne podatke druge osobe, no međutim u službenoj statistici ne postoji podatak koliko je kaznenih djela prijevara izvršeno krađom identiteta“, ističu iz MUP-a.
“Krađa identiteta” ne postoji u Kaznenom zakonu
Dalje pojašnjavaju da se sintagma “krađa identiteta” koristi u svakodnevnom govoru, ali da takvo djelo ne postoji, odnosno nije opisano u Kaznenom zakonu.
“U konkretnom slučaju bi se moglo raditi i o kaznenom djelu Nedozvoljene uporabe osobnih podataka, a cilj počinitelja je vjerojatno izvršenje investicijskih prijevara. Ne posjedujemo statističke podatke po načinu izvršenja kaznenih djela u odnosu na investicijske prijevare”, poručuju iz Službe za odnose s javnošću. Dodaju da za potrebe istraživanja kaznenih djela surađuju s kompanijom Meta te da je suradnja na zadovoljavajućoj razini.
HAKOM kao regulator dosad nije zaprimio prijave koje bi bile vezane uz krađu identiteta korištenjem umjetne inteligencije, rekli su iz te agencije te dodaju da takva prijava ne bi ni potpadala pod nadležnost HAKOM-a, već bi istu (s obzirom da implicira krađu identiteta) – trebalo uputiti policiji i/ili Agenciji za zaštitu osobnih podataka.
HAKOM smo dodatno upitali hoće li se što u regulaciji lažnog sadržaja generiranog umjetnom inteligencijom promijeniti usvajanjem Zakona o provedbi Akta o digitalnim uslugama u Hrvatskoj.
Ističu da Akt o digitalnim uslugama (DSA) omogućuje brzo uklanjanje nezakonitog sadržaja na internetu, pri čemu ne pravi razliku između nezakonitog sadržaja koji postavi korisnik usluge i onog generiranog umjetnom inteligencijom. Naglašavaju ipak da “DSA ne rješava pitanje otkrivanja i kažnjavanja počinitelja, već se bavi isključivo pitanjima postupa li pružatelj usluge u skladu s odredbama DSA, što bi u konkretnom slučaju, između ostalog, bilo postupa li po nalozima za uklanjanjem takvog sadržaja izdanim od strane nadležnih pravosudnih ili upravnih tijela”.
“Usvajanjem Zakona o provedbi DSA, određena nacionalna tijela moći će izdavati naloge za uklanjanjem nezakonitog sadržaja bilo kojem pružatelju usluga posredovanja u EU. Prema nacrtu prijedloga Zakona, ta tijela, ovisno o vrsti nezakonitog sadržaja koji je u pitanju, su DORH, MUP, AZOP, DIRH, Carinska uprava i Ministarstvo zdravstva, a vjerojatno je da će konačnim tekstom biti obuhvaćen i AEM”, objašnjavaju iz Hrvatske regulatorne agencija za mrežne djelatnosti na upit Faktografa.
Britanska policija upozorava da se umjetna inteligencija počela koristiti u puno opasnije svrhe
I dok s jedne strane institucije u Hrvatskoj, ako je suditi prema odgovorima koje je Faktograf dobio, nisu previše zabrinute oko korištenja umjetne inteligencije za opasne prekršaje i kaznena djela, u Velikoj Britaniji se, primjerice, ta opasnost puno ozbiljnije shvaća.
Iako se u Hrvatskoj umjetna inteligencija u prevarama još uvijek koristi na, mogli bismo reći, prilično bezazlen način, u svrhu novčanih prevara, u drugim državama u Europi i svijetu koristi se i u puno opasnije svrhe. Pedofili, prevaranti, hakeri i kriminalci svih vrsta sve više iskorištavaju umjetnu inteligenciju (AI) za ciljanje žrtava na nove i štetne načine, upozorio je u studenom prošle godine za britanski Guardian viši policijski načelnik britanske policije koji se bavi umjetnom inteligencijom.
Alex Murray, čelnik britanske nacionalne policije za umjetnu inteligenciju, rekao je da uporaba tehnologije brzo raste zbog njezine sve veće dostupnosti i da policija mora “brzo djelovati” kako bi pravovremeno detektirala prijetnje. “Kroz povijest policije znamo da su kriminalci inventivni i da će upotrijebiti sve što mogu da počine zločin. Sada sigurno koriste umjetnu inteligenciju za počinjenje zločina. To se može dogoditi na međunarodnoj i ozbiljnoj razini organiziranog kriminala, a može se dogoditi i u nečijoj spavaćoj sobi… Možete se sjetiti bilo koje vrste zločina i staviti ga kroz prizmu AI-ja i reći: ‘Kakva je prilika ovdje?'”, ističe Murray.
Murray ističe da pedofili najviše koriste AI kako bi stvarali fotografije i videe koji prikazuju seksualno zlostavljanje djece. “Govorimo o tisućama i tisućama i tisućama fotografija”, rekao je Murray. “Sve takve fotografije, bile sintetičke ili druge, protuzakonite su, a ljudi koriste generativnu umjetnu inteligenciju za stvaranje fotografija djece koja rade najstrašnije stvari.”
Tako se spominje primjer iz kolovoza 2024. Naime, 27-godišnji Hugh Nelson iz Boltona osuđen je na 18 godina zatvora nakon što je ponudio plaćenu uslugu internetskim pedofilskim mrežama u kojima je koristio AI za generiranje traženih fotografija zlostavljane djece.
Talijanska policija u veljači pronašla gotovo milijun eura prikupljenih u AI prevari
Da žrtve umjetne inteligencije nisu samo “obični” ljudi te da ona može biti vrlo uvjerljiv alat, dokazuje i vrlo recentna priča iz Italije. Talijanska policija pronašla je i zamrznula gotovo milijun eura (1,04 milijuna dolara) koje je vodeći biznismen prebacio na strani bankovni račun nakon što je postao žrtva prevare u kojoj je korištena umjetna inteligencija.
Prevaranti su koristili AI kako bi oponašali glas talijanskog ministra obrane Guida Crosetta, upućujući pozive u kojima se tvrdilo da traže hitnu financijsku pomoć za oslobađanje otetih talijanskih novinara na Bliskom istoku.
Neke od najistaknutijih talijanskih osoba iz poslovnog svijeta, uključujući modnog dizajnera Giorgia Armanija i suosnivača Prade Patrizia Bertellija, bile su na meti, rekli su tužitelji u Milanu. Međutim, vjeruje se da je samo Massimo Moratti, bivši vlasnik nogometnog kluba Inter iz Milana, poslao tražena sredstva.
AI se koristi i za seksualno iznuđivanje
Ista se tehnologija također koristi i za seksualno iznuđivanje, vrstu internetske ucjene u kojoj kriminalci prijete da će objaviti neprikladne fotografije žrtava ako ne uplate novac ili ne ispune zahtjeve.
Prevaranti su se prethodno koristili fotografijama koje su žrtve same dijelile, često s bivšim partnerima ili zlostavljačima koji su koristili lažne identitete kako bi pridobili njihovo povjerenje, ali umjetna inteligencija se sada može koristiti za “ogoljivanje” i manipuliranje fotografija koje su već objavljene na društvenim mrežama.
Murray ističe da hakeri također koriste umjetnu inteligenciju za traženje slabosti u ciljanom kodu ili softveru i za pružanje “područja fokusa” za kibernetičke napade. “Većina AI kriminala trenutno je povezana s fotografijama zlostavljanja djece i prijevarama, ali postoji mnogo potencijalnih prijetnji”, dodao je.
Policijski načelnik za AI očekuje da će, s obzirom na to da AI tehnologija postaje sve naprednija te da na tržište i u široku upotrebu dolaze sve napredniji softveri za tekst i fotografije, kriminalci svih vrsta u sve većem broju koristiti umjetnu inteligenciju u zlonamjerne svrhe.
“Ponekad možete uočiti je li nešto AI fotografija, ali vrlo brzo to će nestati. Ljudi koji koriste ovu vrstu softvera u ovom trenutku još uvijek moraju imati neko znanje za kreiranje takvih sadržaja, ali i ti će alati uskoro postati vrlo jednostavni za korištenje. Lakoća pristupa, realizam i dostupnost tri su vektora koji će se vjerojatno povećati… Mi, kao policajci, moramo se brzo kretati u ovom prostoru kako bismo bili na vrhu. Mislim da je razumna pretpostavka da ćemo od sada do 2029. vidjeti značajan porast svih ovih vrsta kriminala i to želimo spriječiti”, zaključuje načelnik britanskog odjela policije za AI.
Umjetna inteligencija prijetnja i za financijski sustav
Prevaranti sve više koriste alate generativne umjetne inteligencije na sofisticirane načine kako bi prevarili financijske institucije, upozorio je izvor s Wall Streeta za Wall Street Journal.
Oni, primjerice, stvaraju sintetičke identifikacijske dokumente kako bi pomogli otvoriti nove lažne brokerske račune ili preuzeti postojeće račune klijenata, navodi se u izvještaju FINRA-e, regulatornog tijela financijske industrije, samoregulacijskog ogranaka Wall Streeta. Prevaranti također u nekim slučajevima koriste deepfake tehnologiju za stvaranje fotografija ljudi koje je generirala umjetna inteligencija s lažnim identitetima koje je također stvorila umjetna inteligencija, ističu iz FINRA-e.
Eksplozivan rast korištenja umjetne inteligencije dvosjekli je mač za financijske kompanije. S jedne strane, tehnologija im omogućuje povećanje brzine i opsega u kojem se bave intenzivnim zadacima usklađivanja, kao što je ispitivanje pozadine klijenata ili praćenje transakcija za sumnjive aktivnosti.
S druge strane, AI može pojačati, primjerice, glasovne deepfakeove s ciljem prevare. Iz regulatorne agencije Wall Streeta ističu da su naišli na primjere deepfake audio i videozapisa koje prevaranti koriste kako bi oponašali poznate financijske gurue, kao i da se AI koristi za izradu phishing e-poruka prilagođenih pojedinačnim metama.
Američka tijela koja se bave provedbom zakona, uključujući Federalni istražni ured (FBI), upozorila su na potencijal da se AI koristi u kriminalne svrhe. Gubici od prijevara u industriji financijskih usluga u SAD-u mogli bi doseći 40 milijardi dolara do 2027., u odnosu na 12,3 milijarde dolara 2023., sve zbog utjecaja umjetne inteligencije, predvidio je Deloitteov Centar za financijske usluge u izvješću iz 2024.
Kako se AI koristi u borbi protiv prevaranata
Iako se umjetna inteligencija zloupotrebljava u svrhe prevara, postoje i brojni primjeri kompanija koji ju koriste u borbi protiv prevaranata. Primjerice, britanski pružatelj usluga mobilne telefonije O2 predstavio je “Daisy”, virtualnu pomoćnicu pokretanu umjetnom inteligencijom koji je osmišljena da trati vrijeme prevarantima i sprječava ih da ciljaju na stvarne žrtve.
Daisy, modelirana kao brbljava, starija “baka”, uključuje pozivatelje u dugotrajne razgovore o svojoj mački i drugim osobnim temama i tako učinkovito zadržava prevarante do 40 minuta po pozivu, navodi se. Program, razvijen uz pomoć softverskog inženjera i YouTubera Jima Browninga koji mami prevarante, koristi number seeding kako bi osigurao da se Daisyin broj pojavi na popisima poziva prevaranata.
“Predani smo tome da odigramo svoju ulogu u zaustavljanju prevaranata, ulažući u sve, od tehnologije vatrozida do blokiranja prijevarnih poruka i otkrivanja neželjenih poziva pomoću umjetne inteligencije kako bismo zaštitili naše klijente”, rekao je Murray Mackenzie, direktor tvrtke specijaliziran za prevare.
Na cestama u UK-u umjetna inteligencija se testira kako bi otkrila vozače u pijanom ili drogiranom stanju u Devonu i Cornwallu, piše pak BBC. Sustav kamera Heads-Up, koji je razvio Acusensus, može identificirati ponašanje koje je u skladu s konzumiranjem alkohola ili droga dok su vozači na cesti, navodi se. Nakon što se detektira sumnjivog vozača, policija smještena u blizini može zaustaviti vozilo radi daljnjeg ispitivanja na cesti.
Najčešće vrste AI prevara
Američki brand Norton, široko poznat kao kompanija koja se brine za računalnu sigurnost, u svom članku iz studenog 2024. donosi pregled pet najčešćih tipova AI prevara:
Prevare s AI – chatbotovima: radi se o lažnim online razgovorima u kojima AI oponaša osobu, poput predstavnika korisničke podrške. AI chatbot oponaša čovjeka i obično od korisnika traži osobne podatke. AI chatbotovi često se predstavljaju kao vrijedni povjerenja, poput tehničke podrške na poznatoj internetskoj stranici. Također vas mogu namamiti tvrdeći da ste osvojili nagradu, nudeći investicijske savjete ili pretvarajući se da su osoba na internetskim stranicama za upoznavanje partnera.
AI deepfake prevare: uključuju lažni videozapis stvarne, obično poznate osobe, koji je stvorio prevarant koji je uvježbao AI alat na stvarnim videozapisima i vokalnim snimkama te osobe. Nakon što AI ima dovoljno podataka, može generirati videozapise osobe u gotovo svakoj situaciji. Deepfake videozapisi obično prikazuju slavne osobe ili političare jer postoji mnogo njihovih snimaka na kojima umjetna inteligencija može učiti. Haker vam može poslati video slavne osobe koju cijenite tražeći od vas da donirate za neku svrhu. Poveznica u videu može vas dovesti do zlonamjerne web stranice. Također, političar kojem vjerujete može najaviti izdašan povrat poreza, usmjeravajući vas na web stranicu za porezne prevare na kojoj se traži vaš osobni identifikacijski broj (OIB).
AI investicijske prevare: u ovom tipu prevare prevaranti uvjeravaju ljude da se odreknu svog novca obećavajući velike povrate ili potiču ljude da se prijave za nelegitimne platforme za trgovanje kriptovalutama ili dionicama. Kao što to čine u deepfake prevarama, prevarant može iskoristiti umjetnu inteligenciju kako bi oponašao neku poznatu osobu i zatražiti od vas da uložite svoj novac. Nakon što pošaljete svoj novac, prevaranti ga otuđuju i nestaju.
AI phishing prevare: u njima prevaranti koriste AI kako bi vas manipulirali da date osjetljive podatke. U phishing prijevari, napadač se često pretvara da je netko vrijedan povjerenja; a sada prevaranti koriste AI alate za masovno izvođenje tih prijevara. Phishing e-poruke porasle su za više od 1200 % od kraja 2022., uglavnom zahvaljujući upotrebi generativnih AI alata. Umjetna inteligencija danas u nekoliko sekundi može kreirati tisuće različitih personaliziranih phishing poruka.
AI prevare s kloniranjem glasa: koriste AI tehnologiju za oponašanje glasa stvarne osobe. Prevaranti zatim šalju glasovne poruke na društvenim mrežama ili telefoniraju pretvarajući se da su voljena osoba mete ili slavna osoba. AI glasovne prijevare su poput zvučnih verzija deepfakea. Jednostavne verzije su unaprijed snimljene poruke poslane putem telefonskih aplikacija ili društvenih medija. Na primjer, možete primiti prijevarni poziv od političara koji od vas traži da donirate njihovoj kampanji putem zlonamjerne web stranice.
Kako se zaštititi od AI prevara?
Forbes u svom članku iz studenog prošle godine donosi sedam savjeta koji mogu biti korisni za borbu protiv prevara generiranih umjetnom inteligencijom:
– Budite oprezni s neočekivanim porukama, čak i ako se čini da dolaze od nekoga kome vjerujete. Poduzmite dodatni korak da potvrdite njihovu legitimnost službenim metodama: nazovite ih izravno, pošaljite osobnu poruku ili potvrdite licem u lice ako je moguće. Pažljivo ispitajte jezik i ton poruka radi bilo kakvih nedosljednosti ili znakova sadržaja generiranog umjetnom inteligencijom.
– Aktivirajte provjeru autentičnosti s više faktora (MFA) na svojim računima i uređajima kako biste ojačali svoju sigurnost te da se ne oslanjate samo na lozinke.
– Budite oprezni s hitnim zahtjevima da nešto obavite jer su to klasične taktike prevare. Ako vas tjeraju da nešto napravite hitno, vrlo vjerojatno je riječ o prevari.
– Budite oprezni s pretjerano personaliziranim porukama jer umjetna inteligencija može iskoristiti vašu aktivnost na internetu za stvaranje vrlo uvjerljivih zamki. Upamtite, cilj svakog prevaranta je steći vaše povjerenje – neka vam cilj bude preispitivati sve i ostati skeptičan.
– Uvijek budite u tijeku s najnovijim taktikama korištenja AI-ja u svrhu prevare.
– Koristite snažne sigurnosne mjere kao što su filtriranje e-pošte, filtriranje web sadržaja i antivirusna zaštita za prepoznavanje i blokiranje potencijalnih prijetnji.
– Prijavite sve pokušaje prevara nadležnim tijelima i organizacijama kako biste pomogli u prepoznavanju i rješavanju novih prijetnji.
Iako su mogućnosti umjetne inteligencije pri kreiranju prevara iz dana u dan sve sofisticiranije, hrvatske institucije nadležne za sve oblike prevara, čini se, zasad ne rade puno po pitanju AI-ja. Policije razvijenijih država u svojim redovima imaju osobe koje se specifično bave prevarama s umjetnom inteligencijom, ali policija u Hrvatskoj još uvijek ne bilježi koliko je bilo prevara u kojima je došlo do zloupotrebe osobnih podataka odnosno, kolokvijalno rečeno, krađe identiteta. Iako smo i Državno odvjetništvo upitali detaljnije o prevarama s umjetnom inteligencijom, stigao je tek vrlo kratak odgovor da provode izvide u jednom sličnom slučaju, ne navodeći nikakve detalje.
faktograf