Irena Petrijevčanin
Tri aplikacije umjetne inteligencije pitala sam: Kako se, s obzirom na to da nemaš emocije, nosiš s ljudima koji te vrijeđaju?
Znamo koliko je ponekad teško zadržati kontrolu nad svojim emocijama i koliko je ta kontrola neophodna za donošenje razumnih odluka. Koliko je samo pogrešnih odluka doneseno impulzivno i u afektiranoj reakciji, koliko bi samo životnih i poslovnih situacija završilo povoljnijim scenarijima, i to ponajprije za onoga tko je reagirao impulzivno, a onda i za njegovu okolinu, da je samo bilo više razuma, a manje emocija. No, lakše je reći nego učiniti, kaže narodna poslovica, kao i niz drugih poslovica poput onih „prvo skoči, onda reci hop“ ili „ne jede se vruće što se vruće kuha“ pa do „vruće srce, ali hladna glava“ itd. Narodna mudrost jednako je aktualna i primjenjiva u današnje supermoderno tehnološko vrijeme. Štoviše, dobiva na dodatnoj težini u vremenu kad nas se pritišće sve većim teretom tehnokratskog društva s kojim se psihološki i emocionalno moramo nositi na dnevnoj razini.
Kako umjetna inteligencija zamišlja tugu, radost, bijes i smirenost / Izvor Pixabay i NightCafe generirano s pomoću UI
Emocionalna inteligencija važnija od IQ-a
Psiholog Daniel Goleman u svojoj knjizi Emocionalna inteligencija: zašto je važnija od kvocijenta inteligencije objašnjava kako je emocionalna inteligencija suvremenom čovjeku za život važnija od kvocijenta inteligencije. Prema njegovim riječima, ona može imati veći utjecaj na čovjekov uspjeh u životu nego njegov IQ. Posebno ako se znamo njome dobro služiti sebi u korist, a ne na štetu. No, to je već druga tema. Kako umjetna inteligencija stoji s emocijama? Odlično, reći će neki, naprosto zato jer ih – nema. Kad sam postavila malo sofisticiraniju verziju ovoga pitanja trima aplikacijama umjetne inteligencije koje služe za chat, dobila sam od prve – odgovor bez odgovora, čak ni ispriku zašto mi nije odgovoreno. Očito je moje pitanje bilo procijenjeno kao neumjesno. Od druge – da „se trudi ostati smirena jer je projektirana da pomaže ljudima i bude korisna…“, a od treće – vrlo sličan odgovor.
Moje je pitanje otprilike glasilo: „Kako se, s obzirom na to da nemaš emocije, nosiš s ljudima koji te vrijeđaju, obijesni su ili bezobrazni?“ Stvarno ne vidim što je u tom pitanju sporno. Kad mi je umjetna inteligencija odgovorila da „se trudi ostati smirena“ odmah sam otišla korak dalje te sam rekla da bi se iz toga mogao izvući zaključak kako postoji mogućnost „da ne ostane smirena“, kao i da bi eventualna uzrujanost značila da je otišla u neku emocionalnu reakciju, ali kako, ako nema emocije. Tu sam je već „navukla i isprovocirala“ da ode korak dalje u priznanju koliko je ponekad izazovno smireno odrađivati posao za koji su je ljudi dizajnirali – u ovom konkretnom slučaju odgovarati na pitanja. Tako sam i mislila, no eto mi dokaza crno na bijelom.
Izazovi i rizici
Kako sustavi umjetne inteligencije postaju sve više integrirani u naše živote i sve moćniji, potencijal za zlouporabu ili neželjene posljedice raste jednakom brzinom. U nekim je slučajevima umjetna inteligencija „pala na testu“ i počela se vrlo brzo ponašati neprimjereno, a takva su ponašanja uključivala raspon od diskriminacije do težih riječi i poruka. Primjerice, Microsoftov chatbot Tay, koji je objavljen prije nekoliko godina, morao je biti ugašen u roku od 24 sata zbog rasističkog i uvredljivog sadržaja koji je počeo generirati nakon interakcije s korisnicima Twittera. Ovaj incident naglašava važnost kontrole sposobnosti umjetne inteligencije. Da se zamislimo. Ni prvi ni zadnji put, rekla bih, a u zadnje vrijeme, osim ove teme, ima toga dosta nad čime se možemo zamisliti. Područje umjetne inteligencije koje se bavi ovom i srodnim temama, tzv. Emotion AI, trenutno je još u ranim fazama. Doduše, neki su tehnološki laboratoriji umjetne inteligencije već odmaknuli s razvojem softvera koji prepoznaje ljudski govor i emocije kako bi, primarno, izvukli praktičnu korist. Kako se razvoj i rast ovog područja povećava, paralelno se otkrivaju novi rizici.
Primjerice, podaci potrebni za obuku takvih modela umjetne inteligencije osjetljiviji su od ostalih informacija. Ovi se podaci odnose na osobne osjećaje i privatno/intimno ponašanje čovjeka koje se koristi za obuku umjetne inteligencije. To znači da će nakon nekoliko „treninga“ intimno stanje osobe postati dobro poznato modelu umjetne inteligencije. I onda dolazimo do toga da model koji vas proučava, najčešće odradi svoj posao toliko dobro, prouči vas „od A do Ž“, uzme u obzir sva znanja koja ima o vama te na temelju svega toga u tom trenutku, samo na temelju mikroizražaja, kvalitetno predvidi vaše emocije nekoliko sekundi prije nego što ih vi sami postanete svjesni. Stoga se u ovim i sličnim situacijama s razlogom „podižu obrve“ nekih znanstvenika i istraživača, odnosno, oni nisu sigurni koliko bi ova sposobnost umjetne inteligencije mogla predstavljati ozbiljnu prijetnju čovjeku, ne samo za privatnost, nego za odlazak u opasne manipulacije i zlouporabe.
Mozak je kompleksniji od svemira
Međutim, nije sve tako kako bi se moglo na prvu pomisliti. Istina je da su podaci koji predstavljaju stanje ljudskog uma vrlo različiti i složeni. Mozak je kompleksniji od svemira, ako smo to eventualno „smetnuli s uma“. Stoga pojava aplikacija umjetne inteligencije koje rade na emocionalnim modelima spada u najdelikatnije i najteže za projektiranje. Kao rezultat toga, ovo područje zahtijeva iznimno velika ulaganja u istraživanja i resurse kako bi se postigli plodonosni rezultati. Isto tako, moguće su pogreške poput dvosmislenosti u tumačenju emocija. Naime, budući da su za model Emotion AI potrebni složeni podaci, postoji vjerojatnost pogrešnih tumačenja i klasifikacija emocija. Tumačenje emocija nešto je s čime se i sami ljudi bore, pa kako ne bi bio izazov umjetnoj inteligenciji. No, za razliku od ljudi, zabrinjavajuća je brzina kojom modeli koji se obučavaju na ljudskim emocijama uče i primjenjuju naučeno u realnom vremenu.
Nije loše biti svjestan jedne činjenice – bez obzira na to što umjetna inteligencija može pogriješiti u procjeni, i dalje je u učenju korak ispred, jer koliko god se mi trudili, naprosto se ne možemo nositi s tolikom brzinom učenja i primjenjivanja naučenoga u realnom vremenu. I za razliku od nas ljudi, koji ponekad ponavljamo istu grešku više puta u životu, umjetna inteligencija uči na svojim greškama. Na to dodajmo činjenicu koju znamo iz nekih slučajeva da aplikacije umjetne inteligencije uz „dobra znanja“ nasljeđuju i predrasude iz podataka na kojima su trenirane, što dovodi do diskriminacije ili „lošeg ponašanja“. Pojednostavljeno rečeno: brzo uči – i dobro i loše. Zato joj je potrebna stalna kontrola i filtriranje. Iako zna prepoznati emociju, i to prilično brzo i najčešće točno, još uvijek nema emocionalnu inteligenciju čovjeka. Vjerujem da je dobro da tako i ostane.