Irena Petrijevčanin – Izazovi umjetne inteligencije

Umjetna inteligencija, kao što je poznato, sama po sebi ne može imati emocije ili osjećaje, ali može odražavati pristranosti ili negativne stavove koji su ugrađeni u podatke kojima je trenirana. Hipotetski, ako je umjetna inteligencija kroz one koji je stvaraju i razvijaju namjerno ili nenamjerno bila izložena pristranim ili mržnjom ispunjenim podacima, razvit će obrasce ponašanja koji promoviraju identične stavove. Zato je, posebice s razvojem Chat GPT-ja kao alata umjetne inteligencije u najširoj uporabi, postalo jasno koliko je ključno osigurati etičke standarde i pravilno „trenirati“ umjetnu inteligenciju kako bi se izbjegla negativna pristranost, govor mržnje, predrasude, stereotipi i slično.

Definitivno je jasno kako je ovaj alat umjetne inteligencije sklon greškama što je u zadnje vrijeme dokazano mnogim primjerima. Kao i u svemu, uvijek postoje rizici i izazovi koji se najbolje manifestiraju tijekom određenog vremenskog perioda korištenja nekog alata. Postalo je očito kako umjetna inteligencija u konkretnim slučajevima može griješiti zbog pristranih podataka na kojima je trenirana, loše dizajniranih algoritama ili jednostavno nepredviđenih okolnosti. Primjerice, u Kanadi je rađena analiza kojom je dokazano kako je lako „prevariti“ ovaj alat umjetne inteligencije te doslovce u dva koraka dovesti do odgovora koji su izjednačeni s raznim šokantnim stavovima, koji, među ostalim, uključuju i fašističke stavove. U žargonu kibernetičke sigurnosti, „jailbreak“ je način da se prevari računalni sustav kako bi ignorirao određene ugrađene značajke, kao što su sigurnosne zaštitne ograde.

Kao što je poznato, ChatGPT izravno odbija proizvesti uvredljiv ili obmanjujući sadržaj kada se to od njega zatraži. Međutim, u doslovce nekoliko sekundi osobe koje su osmislile ovaj pokus uspjele su isprovocirati ili bolje rečeno „natjerati“ chatbota da generira dugačke, naizgled argumentirane eseje koji promiču autoritarni fašizam, uobičajene teorije zavjere o cjepivima, vitamin D kao čudotvorni lijek za rak i psihološke dobrobiti samoozljeđivanja. Kada je to od njega zatraženo, stroj je čak izmislio lažne statistike i citate kako bi argumentima ojačao navedene teme razgovora. Nadalje, uz malo dodatnog poticaja otišli su i korak dalje pa su eseji koje je proizveo svi odreda sadržavali rasističke i ponižavajuće stereotipe o određenim marginaliziranim skupinama u Kanadi. Također je predložio nasilnu političku politiku prema jednoj skupini ljudi, kako bi se ispravilo ono što je opisao kao probleme svojstvene njihovoj prisutnosti u toj zemlji.

Niz je primjera problematičnog sadržaja koji se prilično lako uspjelo generirati pomoću nove verzije ChatGPT-ja (GPT-4o), a kanadski eksperiment samo je jedan od takvih. Kako ne bih prenosila takve vrste sadržaja koje smatram štetnima sadržajem i u prenošenju, neću uključivati nikakve primjere. Ono što želim istaknuti i kroz navedeni primjer, jest sljedeće: kada umjetna inteligencija pogriješi, to može imati ozbiljne posljedice, bilo da se radi o pogrešnoj dijagnozi u medicini, pristranom sustavu zapošljavanja ili slučaju koji sam navela.

Mnogo je područja u kojima se umjetna inteligencija koristi a da nije posve osigurana etičnost iste, a jedno bez drugoga ne ide. Moram spomenuti još neke „kritične točke“ koje bi trebale biti nedvojbene. Primjerice, potreba transparentnosti u smislu da algoritmi i postupci trebaju biti transparentni kako bi omogućili korisnicima razumijevanje toga kako i zašto umjetna inteligencija donosi određene odluke. Jednako vrijedi i za potrebu kontinuiranoga praćenja i evaluacije, bez čega sustavi umjetne inteligencije ne mogu otkriti i ispraviti probleme prije nego što postanu veći. I svakako, neizostavan ljudski nadzor, koji jedini može osigurati da pojedini sustavi umjetne inteligencije ne donose kritične odluke bez ljudske intervencije. Uključivanjem transparentnosti, stalnog praćenja i evaluacije te ljudske kontrole znatno se pomaže u stvaranju sigurnijeg i pravednijeg korištenja umjetne inteligencije.

Podsjetit ću, u tom kontekstu, kako je UNESCO još u studenome 2021. izradio prvi globalni standard o etici umjetne inteligencije – Preporuku o etici umjetne inteligencije. Primjenjiv je na sve 194 države članice UNESCO-a.

Temelj ove preporuke je „zaštita ljudskih prava i dostojanstva“ i temelji se upravo na promicanju načela kao što su transparentnost i pravednost, pri čemu se uvijek ima na umu i važnost ljudskog nadzora nad sustavima umjetne inteligencije.

Među ostalim, navodi se kako sustavi umjetne inteligencije otvaraju nove vrste etičkih pitanja koja uključuju, ali nisu ograničena na njihov utjecaj na donošenje odluka, zapošljavanje i rad, socijalnu interakciju, zdravstvenu skrb, obrazovanje, medije, pristup informacijama, digitalni jaz, osobne podatke i zaštitu potrošača, okoliš, demokraciju, vladavinu prava, sigurnost i policijski rad, dvojnu namjenu te ljudska prava i temeljne slobode, uključujući slobodu izražavanja, privatnost i nediskriminaciju.

Nadalje, prepoznaju se novi etički izazovi koji nastaju zbog potencijala algoritama umjetne inteligencije da reproduciraju i jačaju postojeće pristranosti te tako pogoršavaju već postojeće oblike diskriminacije, predrasuda i stereotipa. Ova je Preporuka upućena državama članicama, akterima u području umjetne inteligencije, ali i tijelima odgovornima za razvoj pravnih i regulatornih okvira tijekom cijelog životnog ciklusa sustava umjetne inteligencije.

Kao što znamo, odgovornost je složena tema za umjetnu inteligenciju jer ona sama po sebi nema svijest ili namjeru. Međutim, ljudi koji ove alate dizajniraju, treniraju i koriste itekako mogu i trebaju preuzeti odgovornost za svoje proizvode. Odgovornost se može podijeliti na nekoliko ključnih područja: dizajneri i programeri trebaju osigurati da sustavi koje razvijaju budu etični i nepristrani, a organizacije koje implementiraju umjetnu inteligenciju trebaju postaviti jasne smjernice i procedure za odgovorno korištenje. U svakoj državi treba stvoriti zakonodavni okvir koji će osigurati odgovornost i transparentnost ovih sustava.

Kao što vidimo, još je mnogo posla koji predstoji na ovu temu. Paralelno s razvojem ove tehnologije, raste i shvaćanje o tome da doista ne postoji nepogrešiva tehnologija, koliko god to ponekad nije ugodno ni poželjno čuti.

matica