Piše Irena Petrijevčanin
Još ne očekujemo da nam roboti kuhaju ručak, suosjećaju s nama poput prijatelja zbog doživljene nepravde ili kupuju namirnice u trgovini, no u budućnosti ni to neće biti nemoguće
U srpnju je održana zanimljiva konferencija u Seulu, Južna Koreja, pod naslovom Roboti, znanost i sustavi na kojoj su, među ostalim, predstavljena postignuća u području povezivanja robotike i umjetne inteligencije. Naravno, još ne očekujemo da nam roboti kuhaju ručak, suosjećaju s nama poput prijatelja zbog doživljene nepravde ili kupuju namirnice u trgovini, no u budućnosti ni to neće biti nemoguće. Brže i lakše će, doduše, ići s učenjem praktičnih nego emocionalnih vještina, no u konačnici će robote s umjetnom inteligencijom biti moguće naučiti u određenoj mjeri i jednom i drugom. A da bi ta budućnost došla brže, timovi znanstvenika i stručnjaka, ruku pod ruku s privatnom industrijom, upravo razvijaju razne tehnološke sustave te nadograđuju postojeće. Zanimljivo mi je bilo gledati učenje robota u praktičnom prepoznavanju predmeta da bi ih on vidio najsličnije „ljudskom poimanju i spajanju s jezikom“, odnosno poput svakog od nas. Najjednostavnije rečeno, kao kad dijete učimo nazivima stvari koje ga okružuju te načinima uporabe tih stvari.
Kako roboti uče?
Tako robotima s umjetnom inteligencijom daju jednostavne naredbe poput: donesi mi onu šalicu ili stavi ovaj tanjur u sudoper. Da bi tu naredbu robot zaista i izvršio, prvo ga treba naučiti značenju tih predmeta, odnosno povezati algoritmom predmet s izgovorenim pojmom na nekom jeziku i potom s robotovim vidom. Jednostavno rečeno, da ono što vidi i čuje može i uzeti. Ono što je rutinska stvar za ljudski mozak, što svakodnevno radimo bez napora, i ne znajući na koji način u mozgu taj posao rade milijuni neurona i neurotransmitera, ljudska je privilegija i savršenstvo. Da bi se uopće postigla bilo kakva kopija ljudskog mozga, potrebne su godine truda i znanstvenih istraživanja. Ako pak govorimo i o oponašanju pokreta, onda je stvar još kompleksnija. Primjerice, robot mora imati barem jednu mehaničku ruku, s barem nekoliko zglobova i imitacijom ljudskih prstiju, što je dodatni izazov. Gledajući brojne simulacije i laboratorije u kojima se roboti s umjetnom inteligencijom pokušavaju uvježbati ljudskim pokretima i shvaćanjima, možemo samo duboko osvijestiti savršenstvo čovječjeg uma i tijela.
Oni koji pokušavaju stvoriti nešto najsličnije „ljudskoj kopiji“ toga su itekako svjesni svaki dan. Kad govorimo o robotskoj ruci koja bi trebala nešto uzeti ili dohvatiti, znanstvenici će reći da će se trenutačno zadovoljiti i onom sa sedam zglobova i dva prsta, dajući prednost praktičnosti, jer se i njome mogu uhvatiti predmeti iako nije savršena kao ljudska. A kako to roboti, odnosno njihov mozak koji čini umjetna inteligencija, uče prepoznavati predmete i baratati njima? S pomoću takozvane segmentacije, običnim riječima rečeno, to su zadaci prepoznavanja, razlikovanja i pamćenja objekata, slično kako se malena djeca uče svijetu u kojem se nalaze povezujući vid i dodir s jezikom. To je primarna funkcija potrebna robotima za obavljanje zadataka, kao i djeci za razumijevanje okoline. Samo što se umjetna inteligencija koristi algoritmima, a naš mozak ne. Oboje se pak koristi metodom „pokušaja i promašaja“. Primjerice, u laboratoriju se roboti kreću u simuliranoj kuhinji, dnevnoj sobi ili stanu te nakon što dotaknu, gurnu ili uzmu neki predmet u toj interakciji nauče ga percipirati. Tako popunjavaju svoje algoritme novim podacima. S tim podacima robot s umjetnom inteligencijom svaki će sljedeći put kada vidi taj objekt znati što je i čemu služi te ga neće ponovno morati učiti. Zvuči jednostavno, ali nije jednostavno postići.
Ponavljanje je majka znanja
Evo primjera. Da bi „naučio“ neki predmet, robot ga mora gurnuti, dotaknuti ili biti u konkretnoj interakciji s njim barem 15 do 20 puta. Nije dovoljna jedna interakcija, ponavljanje se pokazalo kao mnogo efikasniji način učenja. To ne znači da ne postoje i metode tzv. interaktivne percepcije koje se koriste samo jednim „pritiskom“, odnosno kontaktom s predmetom. No znanstvenici posvećeni toj temi kažu kako više interakcija s predmetom omogućuje robotu da snimi (memorira) više fotografija svojom RGB-D-kamerom, koja uključuje senzor dubine, kako bi saznao više o svakoj stavci. Time se smanjuje mogućnost pogrešaka. Kao i u svakom učenju, vrijedi latinska izreka: repetitio est mater studiorum, ponavljanje je majka znanja. Očito u tom nema razlike između učenja robota i učenja čovjeka. Nakon što je savladano dohvaćanje predmeta, sljedeći je korak za istraživače poboljšanje ostalih funkcija, uključujući planiranje i kontrolu.
No, ima tu još dosta posla. Roboti se koriste dubinskim kamerama, odnosno puštaju mlaz infracrvenoga svjetla na objekt kako bi odredili njegov oblik, što sasvim pristojno funkcionira kad je u pitanju prepoznavanje neprozirnih objekata. No roboti „muku muče“ s prozirnim ili reflektirajućim predmetima jer infracrveno svjetlo prolazi točno kroz te predmete i raspršuje se po reflektirajućim površinama. Stoga dubinske kamere ne mogu izračunati točan oblik, što zadaje glavobolju znanstvenicima koji ih trebaju naučiti raspoznavanju baš takvih predmeta. Tomu su doskočili na način da su razvili sustav kamera za prepoznavanje oblika na temelju boje. Standardna kamera ne može mjeriti oblike poput dubinske infracrvene kamere, no unatoč tome uspjeli su „uvježbati“ novi sustav kamere u boji da oponaša dubinski sustav. Nakon što je uvježban, sustav kamere u boji primijenjen je na prozirne i sjajne objekte. Na temelju tih slika, zajedno sa svim ostalim informacijama koje dubinska kamera može pružiti, robot bi mogao uhvatiti zahtjevne objekte s visokim stupnjem uspjeha.
I dalje ponekad promaše, priznat će znanstvenici, ali povezivanjem tih dvaju sustava kamera roboti s umjetnom inteligencijom uspijevaju daleko bolje od bilo kojeg prethodnog sustava za hvatanje prozirnih ili reflektirajućih objekata. Isto tako, robot može biti istreniran da podigne određeni predmet, ali ako taj objekt leži na boku, primjerice, možda je pao, robot to vidi kao potpuno nov scenarij te „učenje“ polazi od početka. Naravno, ovdje govorimo samo o učenju robota da barata predmetima, a pokušajte tek zamisliti što sve trebaju naučiti kad su u pitanju neke misaone odluke ili emocionalna ponašanja inherentna samo ljudskom umu. Koliko li je tu tek posla i pitanje je može li se robote ikada naučiti ljudskoj empatiji, dobroti, razumijevanju, brižnosti ili će samo moći „djelovati tužno, no ne i uistinu osjećati tugu“.
Neki primjeri koji su zaživjeli pokazuju da se već sada umjetna inteligencija može naučiti pojedinim emotivnim modelima, primjerice, Microsoftov chatbot Xiaoice uspješno je pokazao da umjetna inteligencija može oponašati ljudske emocije kako bi stvorila empatične veze s korisnicima. Chatbotovi pokretani umjetnom inteligencijom u zdravstvenom sektoru već su u samo nekoliko godina uštedjeli milijarde dolara zdravstvenim sustavima na globalnoj razini, oslobađajući vrijeme medicinskog osoblja i povećavajući učinkovitost komunikacije.
Roboti i emocije
Spomenut ću samo nekoliko poznatih činjenica. Naime, emocije su jedinstvena ljudska osobina i nedavni je napredak u umjetnoj inteligenciji prvi put u povijesti doveo do konkretnog i nikad realnijeg znanstvenog interesa za preispitivanje mogućnosti za ugradnju emocionalne inteligencije u robote. Osnovni preduvjeti već su tu: obrada prirodnog jezika, računalni vid i afektivne računalne tehnike koje su relevantne za otkrivanje i analizu ljudskih emocija. Manje je poznato da su pojedini istraživački centri diljem svijeta već dosta odmaknuli u analizi i primjeni emocija na robote s umjetnom inteligencijom. Dobro znamo da postoje algoritmi za otkrivanje i tumačenje ljudskih emocija iz različitih izvora kao što su izrazi lica, glas i fiziološki signali prikupljeni putem kamera na javnim površinama. Znamo i koliko je to delikatno i etički problematično pitanje. Ovdje ću zato stati i najaviti da ću se ovom intrigantnom temom detaljnije pozabaviti u nekoj od sljedećih kolumni.