Piše Irena Petrijevčanin, Centar za umjetnu inteligenciju i kibernetičku sigurnost Sveučilišta u Rijeci

Cijeli proces do kojeg smo došli s razvojem umjetne inteligencije nalazi se na raskrižju koje se može sažeti u jednu rečenicu: kako postaviti regulaciju da bude dovoljno stroga i jasna, da ne bude diskriminatorna i ne narušava ljudske slobode i prava, da pruži sigurnost svim ljudima, a istodobno da bude dovoljno blaga kako bi poticala inovativnost u razvoju onima koji umjetnu inteligenciju razvijaju, distribuiraju, odnosno, prodaju

Koga ne zanima kako će svijet izgledati za, primjerice, pedeset godina? Neki će tomu i svjedočiti. Dio puta kojim idemo već naziremo, no teško da itko može sa stopostotnom sigurnošću predvidjeti što bi se sve zaista moglo događati u budućnosti.

Isto je i s pitanjem kako će se razvijati primjena umjetne inteligencije u svim područjima ljudskog života, individualno i globalno. To ovisi o zaista mnogo faktora.

Ono što znamo, a potpuno je primjenjivo i na današnjicu i na put kojim idemo, ona je latinska izreka: Historia magistra vitae est. Drugo je pitanje što je zaista naučeno iz povijesnih lekcija. Je li suvremeni čovjek koji živi u visokotehnološkom svijetu postao bolji od onoga prije stotinu godina ili je temeljni način njegova razmišljanja više-manje jednak uz dodatak najnovije tehnologije dostupne u svakom trenutku u svim sferama života, od najmanje ozbiljne, industrije zabave, do znanosti, medicine, obrazovanja.

Neki će cinično reći – ljudski su nagoni ostali isti, osim što je u današnje vrijeme čak lakše prijeći na tamnu stranu. Čovječanstvo, unatoč silnom tehnološkom napretku, i danas raspolaže istom sviješću koja se koleba između vječne mogućnosti izbora između dobra i zla, baš kao i prije stotinu godina. Napredna pak tehnologija kao nikada prije u povijesti pomaže pritom, njezine su posljedice i opasnosti prisutne u svim područjima svakodnevnog života te utječu na sve nas, pojedinačno i generalno. Svi smo u tom tehnološkom loncu.

Dvije strane medalje

U našim demokracijama, posebice u europskim, stalno se naglašava potreba zaštite ljudskih prava, slobode svakog pojedinca, važnosti pravne države, solidarnosti, socijalne zaštite, izbora davanjem svog glasa, ukratko ustavnih prava i vrednota. Zvuči strašno, no neki smatraju da bi umjetna inteligencija željela upravo suprotno od zakonima zajamčenih ljudskih prava i vrednota, samo kada bismo joj dopustili da sama odlučuje bez ljudskoga moralnog nadzora.

Primjerice, povjesničar Yuval Noah Harari neprestano govori o drugoj strani medalje umjetne inteligencije i nedvosmisleno upozorava na to. Naravno, ne moramo uzeti zdravo za gotovo njegove tvrdnje, premda velikim dijelom zvuče smisleno, što dakako zabrinjava. Kaže da umjetna inteligencija više naginje totalitarnom društvu u kojemu će ljude učiniti irelevantnima, zanemarenima, riječju – suvišnima. Po njemu, umjetna inteligencija ne može imati moralni i etički kompas kao čovjek. Dodaje kako je u tijeku, premda to još ne vidimo, stvaranje tzv. nepotrebne klase, mase onih koji nikome i ničemu nisu potrebni jer roboti, automatizacija i tehnologija mogu obaviti sve poslove umjesto njih. Zvuči prilično nelagodno. Ide i korak dalje, pa kaže da nasuprot „nepotrebnoj klasi“, koju trenutačno ne prepoznajemo, stoje imućni pojedinci, financijska elita, ulagači, kapitalisti, poduzetnici, oni koji isključivo promišljaju kako povećati dobit i produktivnost, uspoređujući i važući jesu li im jeftiniji roboti odnosno umjetna inteligencija ili ljudska radna snaga. Tu elitu, kaže, trebali bismo već jasno vidjeti u svijetu, jer o njihovoj procjeni najvećim dijelom ovisi budući smjer razvoja umjetne inteligencije ili ako ćemo baš brutalno – budućnost čovječanstva. Naravno, ne za pet godina.

A koliko je običan ljudski život trenutačno u neskladu s ritmom ubrzanoga tehnološkog napretka objašnjava i Nick Bostrom u knjizi Superinteligencija. Činjenica jest da je za razvoj radno sposobna čovjeka potrebno od rođenja između 15 i 25 godina, ovisno o stručnosti, znanjima i kompetencijama koje će biti postignute. Sve to vrijeme osoba treba biti zbrinuta i školovana, što baš i nije jeftino. Na kraju se može dogoditi da osoba daje upitne rezultate jer radnika ima i dobrih i loših, zdravih i boležljivih. Često se ne može postići adekvatan reciprocitet uloženog i dobivenog. S druge strane, proizvesti digitalnog radnika, robota vođena umjetnom inteligencijom, koji može obavljati neki posao 24 sata svaki dan, nije problem. Treba li išta dodati toj usporedbi, a uzimajući u obzir ideju vodilju onih prethodno spomenutih, kojima je zarada, gomilanje kapitala, osnovna motivacija. Istodobno, njihova briga nisu eventualne posljedice po svakodnevni život ili „obične ljude“.

Što više znanja o nečemu, to manje mogućnosti za manipulacije

U svemu tome, zanimljivo, znanje o tehnologiji kod većine ljudi koji se služe tehnologijom ili čak odlučuju o njoj uglavnom je nedovoljno, a tu ubrajamo i tzv. stakeholdere (dionike). Pojedini američki mediji prenijeli su nešto što mi je zapelo za oko. Poznati američki senator pitao je direktora Facebooka Marka Zuckerberga kako to da je Facebook besplatan za korisnike, na što je dobio odgovor uz blago čuđenje; „Senatore, mi objavljujemo oglase.” Ako američki senator ne zna kako tvrtka Facebook zarađuje, zašto onda očekivati od ostalih ljudi iz drugih dijelova svijeta veću razinu znanja o funkcioniranju tehnologije kojom se koriste ili kojom su okruženi. Očito je princip najvećeg dijela korisnika najjednostavnije rečeno: sve dok mi služi za ono za što koristim, ne zanima me kako radi. Zar nije tako s većinom stvari, od automobila do računala, pa i do mnogih drugih stvari u životu.

Veća razina znanja dionika o onome o čemu odlučuju u smislu budućih naraštaja, pa i o algoritmima umjetne inteligencije i najadekvatnijim načinima da se ta tehnologija regulira, možda je teorijski idealan scenarij, no u stvarnom životu to najčešće nije pravilo. Čast iznimkama. Uostalom, ljudi danas imaju dosta svojih briga da bi se bavili takvim pitanjima. Neki bi rekli: zašto bi nam, ako se profesionalno ne bavimo time, u svakodnevnom životu uopće bilo nužno znati takve stvari? Naravno, samo je jedan ispravan odgovor – što više znanja o nečemu, to manje mogućnosti za manipulacije, prevare, iskorištavanja.

I da se vratim na ključno pitanje iz povijesti – kako će se bilo koji veliki izum koristiti, ovisi o mnogo faktora, a prije svega o tome tko će se njime koristiti. Kaže jedna poslovica: nož u ruci dobra čovjeka liječi, a u rukama zločinca ubija. Zato ne zaboravimo da se često pokazalo da stvarna namjera tvoraca tehnologije nije bila istovjetna sa smjerom u kojem je ta tehnologija otišla. Često je u povijesti postala oruđe za izazivanje katastrofe, posebice jer izumom ne upravljaju osobe koje su imale plemenite, humane nakane. Dakle, povijest pokazuje kronologiju koja se da svesti na jednu rečenicu – stvari često izmaknu kontroli i završe tragičnim scenarijem. To se zaista ne bi smjelo dogoditi s umjetnom inteligencijom. Toliko je, nadajmo se, ipak naučeno iz povijesnih lekcija.

Istodobno, sve oko nas obilježeno je informacijskom tehnologijom i nemoguće ju je izbjeći. Propitivali to ili ne, u konačnici ostaje jako malo opcija kako se njome ne koristiti u stvarnom životu, unatoč (ne)svjesnosti o rizicima i opasnostima. Neki od nas prisjetit će se onih javnih rasprava o tzv. neutralnosti interneta. Iako su bile prilično argumentirane, s vremenom se naprosto dogodio proces „odumiranja“ teme, proces u kojem nešto postaje uobičajeno te se naposljetku prihvati kao takvo, čak i od onih koji su na početku tomu oštro protivili. Internet je, jasno, stvar izbora. Možete se njime koristiti ili ne. Doduše, u današnje vrijeme odabrati nekorištenje interneta stvara prilične teškoće u svakodnevnom životu. Možemo birati za što se želimo ili ne želimo koristiti internetom. No i tu je sve manje opcija. Samim korištenjem pristali smo na ulazak u područje nad kojim zapravo nemamo kontrole, premda se čini da možemo birati opcije kontrole.

Kao i s neutralnošću interneta, tako i s našom kontrolom u virtualnom svijetu čiji smo korisnici. Čim se odlučimo za internet, nestaje naša kontrola. Nazovimo stvari onakvima kakve jesu – niti je internet neutralan, niti mi imamo kontrolu. I jedno i drugo su zapravo teorijski ideali koji nikad nisu zaživjeli u realnom svijetu. Iz jednostavna razloga – to su privatne, većinom američke tvrtke, koje proizvoljno kreiraju, razvijaju, namještaju i prilagođavaju algoritme u virtualnom svijetu. Ako niste znali, ovdje ne vrijedi ni famozni prvi amandman američkog Ustava o slobodi govora i tiska. Nije me stoga previše iznenadilo da su neki od kreatora tehnologija kojima se koristimo, u trenucima iskrenosti, odlučili reći istinu i tako javno sami odustali od prvotne ideje idealiziranja tehnologije. Za primjer navodim glavnog čovjeka Instagrama (u portfelju korporacije Meta, koja je također vlasnik Facebooka) Adama Mosserija, koji je prije dvije godine objavio na Twitteru: „Nismo neutralni. Nema te platforme koja je neutralna, svi imamo vrijednosti i te vrijednosti utječu na odluke koje donosimo. Pokušavamo biti apolitični, ali to je sve teže, osobito u SAD-u, gdje su ljudi sve više polarizirani.“ Brutalno iskreno i činjenično.

Jednako tako je i s umjetnom inteligencijom. O učincima i rizicima raspravljat će se još dugi niz godina. Ipak, bez obzira na teškoće i bojazni, umjetna je inteligencija donijela, jasno, niz pozitivnih promjena. Od svakodnevne uporabe aplikacija na mobitelima ili računalima, kojih često nismo ni svjesni u svojoj dnevnoj rutini (s ili bez našeg pristanka) do globalnih promjena u svim poljima znanosti i gospodarstva. Trenutačni je globalni utjecaj umjetne inteligencije golem – a gledajući u budućnost, utjecaj će biti eksponencijalan.

Umjetna inteligencija
svagdje je oko nas

Svagdje je oko nas – od aplikacija za online kupnju gdje odlučuje koji će nam proizvod predložiti na temelju prijašnjih kupnji, u igricama ili u uređajima poput digitalnog asistenta Alexe koji prepoznaju naš govor zahvaljujući beskrajnim satima audiomaterijala na kojima je trenirana. U dogledno će vrijeme umjetna inteligencija biti kadra vrlo precizno analizirati zdravlje pojedinca, predviđati bolesti te proizvesti individualiziran lijek. No da se vratim na pitanje vječnog izbora između dobra i zla, umjetna inteligencija ne koristi se samo u bezazlenim proizvodima nego i u situacijama u kojima određene odluke mogu imati ozbiljne posljedice za sve nas, za čovječanstvo.

Znamo da se umjetna inteligencija temelji na složenom programiranju, a to znači da će neizbježno doći do pogrešaka. Već ih je bilo. Čak i da je moguće razviti apsolutno pouzdan softver, postoje etičke dileme koje programeri softvera moraju imati na umu prilikom dizajniranja. Na primjer, autonomno vozilo moglo bi odlučiti pregaziti pješaka kako bi se izbjegao sudar koji bi mogao naštetiti njegovim putnicima. Opasnost se krije u sustavima koji rabe umjetnu inteligenciju i u autonomnom oružju, ne samo u autonomnim vozilima koja bi u budućnosti trebala samostalno odlučivati kako se ponašati u prometu.


Umjetna inteligencija kakvu poznajemo danas nije bila dostupna široj javnosti prije manje od godinu dana. Zamislimo što sve može biti u sljedećih pet, deset i više godina

Tu su i nebrojene mogućnosti umjetne inteligencije u ratovanju ili nadzoru ljudi. Rizici nisu samo potencijalno diskutabilne i/ili nehumane odluke nego i privatni podaci koje takvi sustavi koriste. Naime, umjetnom inteligencijom već se neko vrijeme koriste tvrtke pri zapošljavanju, banke za procjenu kreditne sposobnosti te osiguravajuće kuće za procjenu premija, ponekad koristeći se podacima o osiguranicima s njihovih društvenih mreža, online kupnje i drugih digitalnih tragova koje najveći dio ljudi ostavlja po internetu. Takvi sustavi otvaraju prostor za digitalnu diskriminaciju. O tom se već treba početi ozbiljno govoriti.

Zapravo, cijeli proces do kojeg smo došli s razvojem umjetne inteligencije nalazi se na raskrižju koje se može sažeti u jednu rečenicu: kako postaviti regulaciju da bude dovoljno stroga i jasna, da ne bude diskriminatorna i ne narušava ljudske slobode i prava, da pruži sigurnost svim ljudima, a istodobno da bude dovoljno blaga kako bi poticala inovativnost u razvoju onima koji umjetnu inteligenciju razvijaju, distribuiraju, odnosno, prodaju. To je pitanje aktualno u Europi i u svijetu.

Prioritetno pitanje regulacije

Pitanje kako učinkovito regulirati umjetnu inteligenciju trenutačno je prioritet diljem svijeta. Najjednostavnije rečeno, samo reguliranje trebalo bi se temeljiti na procjeni rizika koji stvara tehnologija umjetne inteligencije. No procjena rizika kompleksan je proces koji zahtijeva uključivanje stručnjaka raznih profila, uključujući i etičke, ali i privatni sektor kako bi regulatorima dali bolji uvid u pozitivne/negativne implikacije te tehnologije.

U Europskoj Uniji napravljena je stoga procjena kategorija rizika koja postaje dio legislative. Počnimo sa sustavima umjetne inteligencije s minimalnim rizikom. Velika većina sustava umjetne inteligencije koji se trenutno koriste u EU pripada u tu kategoriju. Zatim slijedi umjetna inteligencija ograničenog rizika koji se odnosi na sustave umjetne inteligencije s posebnim obvezama transparentnosti.

Kada rabe sustave umjetne inteligencije kao što su chatbotovi, korisnici bi trebali biti svjesni da su u interakciji sa strojem kako bi mogli donijeti informiranu odluku hoće li interakciju nastaviti ili prekinuti. Sustavi umjetne inteligencije koji su potencijalno diskriminatorni ili ugrožavaju, podliježu strogim obvezama prije nego što mogu doći na tržište, primjerice, specifični sustavi za nadzor ili sustavi daljinske biometrijske identifikacije, koji se smatraju visokorizičnim i podliježu strogim zahtjevima. Najstroža kategorija ili tzv. kategorija neprihvatljiva rizika, jest umjetna inteligencija koja predstavlja prijetnju sigurnosti ili kršenje ljudskih prava/sloboda, primjerice neki sustavi društvenog akreditiranja ili tzv. pametne igračke koje rabe glasovne asistente koji potiču na ili sugeriraju određeno ponašanje.

EU će, jasno, zabraniti i modele koji se koriste subliminalnim tehnikama bez svjesna pristanka osobe. Iznimke će ovisiti o svrsi, a jedna od njih je korištenje takvih modela umjetne inteligencije u terapeutske svrhe uz pristanak osobe. Isto tako, ne bi se dopustili modeli umjetne inteligencije koji na bilo koji način iskorištavaju čovjekove slabosti poput mentalnog zdravlja ili ekonomske situacije.

„Superjunaci znanja“

Da se vratim svakodnevnoj uporabi umjetne inteligencije. Većina nas iskušala je nove mogućnosti kada smo začas generirali neku digitalnu sliku uz pomoć alata umjetne inteligencije poput aplikacija Midjourney ili Stable Diffusion. I onda dolazimo do najpopularnijega svakodnevnog korištenja umjetne inteligencije u svijetu – ChatGPT ili drugih po istom principu. Tko bi odolio tim „superjunacima znanja“ koji znaju odgovor na baš svako pitanje, dopisuju se s nama, pišu tekstove, eseje i pjesme, generiraju računalne kodove, prevode, nikad ne spavaju i uvijek su na raspolaganju. Ne zaboravimo da je ChatGPT program koji je u samo dva mjeseca od javnog predstavljanja dobio više od sto milijuna korisnika. Zvuči savršeno, zar ne. Ipak, znamo da ništa u životu nije savršeno, čak i kada se tako čini.

Na prvi pogled može se logično zaključiti da će takvi programi s budućom uporabom pa i eventualnim usustavljenjem, recimo u školstvu, koje je najbolji primjer prihvaćanja nove tehnologije od strane mladih, dovesti do lakšeg i bržeg učenja. Stvarnost će najvjerojatnije biti potpuno drukčija. Ovdje je moguće povući paralelu s uvođenjem osobnog računala i interneta u širu društvenu uporabu. Nakon prvotnog vala u kojemu je pojedincima koji se znaju koristiti tehnologijom to znanje omogućilo lakši i brži rad u odnosu na druge, koji se za isti posao ne koriste računalom, s godinama ta je razlika postajala sve manja. Dodatni razlog, a i najvažniji, nalazi se u tome što je veća efikasnost posla omogućila veću količinu zadataka. Tako se tehnologija uklopila u, kako školski, tako i korporativni milje. Sad vidimo, iz današnje perspektive, da ni najoptimističniji teoretičari, kada je ta tehnologija bila u začetku, nisu doživjeli da njihova predviđanja o prepolovljivanju radnih sati čovjeka postanu stvarnost. Paradoksalno, ali danas oko sebe gledamo premorene pripravnike ili zaposlenike zatrpane poslom, koji rade osam sati kao i tada, zapravo više, a sve uz pomoć tehnologije, interneta i računala.

Dakako, nije ovaj primjer iz prošlosti kompletno primjenjiv na umjetnu inteligenciju. Ono što najvjerojatnije pokazuje, a vrijeme će potvrditi, jest da će umjetna inteligencija u svakodnevnom životu, primarno programi poput ChatGPT-ja, koji konstantno napreduju i uče, doći u široku uporabu, poput mobitela i interneta, svih nas za gotovo sve što trebamo u svakodnevnom životu. Neka vrsta osobnog asistenta. Svatko će nekad zatrebati program za generiranje fotografija ili snimki, tekstova, pisanje, traženje neke lokacije, preporuke, pomoć u školi ili naprosto još bolju verziju „Dr. Googlea“, kao i u poslovima poput projektiranja, gdje umjetna inteligencija generira tlocrte zgrada i precizno računa sve gabarite. Najvjerojatniji je scenarij u kojem je umjetna inteligencija vitalan aspekt života, koji će se često, uostalom kao mobiteli danas, u budućnosti činiti odveć zastupljenim.


doc. dr. sc. Irena Petrijevčanin

No vjerojatno neće promijeniti čitavu strukturu suvremenog društva, koje je ionako koncipirano kao ono u kojemu je efikasnost glavna vrlina, odnosno što manje uložena truda za što veće rezultate. To je princip kapitalizma uopće. Umjetna inteligencija savršeno se uklapa u takav koncept, po mnogima. Određeni broj ljudi nalazit će se u situaciji da će im posao biti maksimalno olakšan i ostat će im više vremena za odmor i razonodu. No kao što je prošlost pokazala, a budućnost će dokazati, malo je vjerojatno da će si taj luksuz moći priuštiti većina ljudi. Sva tehnologija, pa i ova, prilagođava se čovjeku do te mjere da je on može efikasno upotrebljavati. Nakon te točke čovjek se prilagođava njoj. Podsjetit ću da umjetna inteligencija kakvu poznajemo danas nije bila dostupna široj javnosti prije manje od godinu dana. Zamislimo što sve može biti u sljedećih pet, deset i više godina.

Moralni „vodiči“ umjetne inteligencije

Glede gubitka posla koji se nameće kao primarna opasnost umjetne inteligencije za „nepotrebnu klasu“, potrebno je istaknuti malo spominjan paradoks, često nepoznat široj javnosti. Riječ je o tome da, iako određen broj ljudi sve naprednijom automatizacijom umjetne inteligencije gubi svoj posao, jednako tako velik broj ljudi, primarno u nerazvijenim zemljama, nalazi nove poslove upravo u sklopu razvoja umjetne inteligencije.

Ljudi su ti koji filtriraju znanje koje uči umjetna inteligencija. Kao žito od kukolja. Računalo danas, unatoč razvoju, ne može znati sa stopostotnom sigurnošću prikazuje li slika koju je generiralo nešto nemoralno, neetično, kao i tekstualni odgovor koji je ponudila čovjeku na bilo koje pitanje. Tu nastupa tzv. proces filtracije u kojemu radnici, primjerice, u Keniji za 2 dolara na sat, filtriraju tekst koji generira ChatGPT da bi ga „očistili“ da ne potiče na mržnju, nasilje ili krši ljudska prava. Pomislite što bi bilo kada bi program poput ChatGPT-ja imao kompletan i nesmetan pristup internetu u realnom vremenu, bez cenzure, bez filtriranja, bez tih radnika koji to rade za par dolara na sat. Kakve bi tek odgovore dobivali na upite u tom slučaju. Budite uvjereni da bi količina govora mržnje, poticanja na nasilje ili kršenja ljudskih prava bila enormna. Iz tog je razloga potreban ljudski faktor.

Nažalost, taj se ljudski faktor istodobno manifestira u stotinama tisuća nedovoljno plaćenih radnika iz nerazvijenih zemalja koji u nehumanim uvjetima sjede primajući upute preko računala, obično rade više od deset sati dnevno, čitaju tekstove ili gledaju razne nelagodne ili strašne fotografije, koje potom prijavljuju i tako zapravo uče umjetnu inteligenciju moralu, etici, humanosti. Kad već spominjem humanost, malo je poznato da ti radnici nemaju mogućnost stvaranja sindikata i zahtijevanja boljih radnih uvjeta od vlasnika umjetne inteligencije, iako su paradoksalno, oni praktički moralni „vodiči“ umjetne inteligencije jer je uče što je dobro, a što nije.

Možemo otići i još korak dalje u propitivanju ovoga pa se zapitati što im je biblija po kojoj rade, tko ju je pisao i vođen kojim kriterijima. Možemo to reći i ovako: prvi je korak da netko stvori „deset zapovijedi“ umjetnoj inteligenciji, da zna što je u redu, a što nije. U drugom koraku dolaze spomenuti radnici koji slijede te zapovijedi, a u trećem koraku smo svi mi koji ćemo se koristiti i koristimo se ChatGPT-jem. Ovo me jako podsjeća na „hranidbeni lanac“ u prirodi. Kreatorima i vlasnicima treba što više korisnika i njihovih pitanja, odnosno podataka. Svi smo dio kruga koji „hrani“ umjetnu inteligenciju.

Poznato je da su velike tehnološke tvrtke požurile da naprave svoje verzije ChatGPT-ja, kao i da stručnjaci upozoravaju da bi softver mogao dovesti do brojnih problema, od toga da ga studenti koriste za pisanje seminara, što je manji problem, do toga da se koristi u masovnoj proizvodnji dezinformacija, potiče na mržnju, zlonamjerno cilja određene skupine u društvu i slična kršenja ljudskih prava. Težimo da svi proizvodi umjetne inteligencije budu etični i nepristrani, sigurni i usklađeni s normama ljudskih prava. No činjenica je da to nije moguće bez ljudskog faktora, i zato će čak i u budućnosti temeljenoj na samostalnoj umjetnoj inteligenciji ljudi ostati „vrijedna roba“ u koju vrijedi ulagati. Jer ljudi će i dalje isporučivati vrijednost koju strojevi nemaju. Zapravo, scenarij u kojem nema ljudi nije pozitivan. Štoviše, konačni cilj umjetne inteligencije da stroj ima vrstu opće inteligencije sličnu ljudskoj jedan je od najambicioznijih i najopasnijih ikada predloženih od strane znanosti u povijesti čovječanstva.

Zabraniti autonomno
oružje

U nekim slučajevima uporabu takva stroja treba zabraniti. Jasan je primjer autonomno oružje. Tri osnovna načela koja upravljaju oružanim sukobom: diskriminacija (potreba za razlikovanjem boraca i civila ili borca koji se predaje i onoga koji se priprema za napad), proporcionalnost (izbjegavanje nerazmjerne uporabe sile) i mjere opreza (minimiziranje broja žrtava i materijalne štete) teško je procijeniti i stoga ih je gotovo nemoguće razviti u sustavima autonomnog oružja.

Jedno je sigurno, put do istinski inteligentne umjetne inteligencije i dalje će biti dug i težak. Uostalom, to je područje staro šezdeset godina, a, kao što bi rekao Carl Sagan, šezdeset godina treptaj je oka na kozmičkoj vremenskoj skali. Nadamo se da su lekcije iz povijesti naučene i da rečeni revolucionarni izum neće u budućnosti raditi protiv svojih izumitelja. Svjesni svega i u procesu cjeloživotnog učenja, nastavljamo se koristiti svim dobrobitima umjetne inteligencije u svakodnevnom životu.

matica