Biblija kaže da su Adam i Eva istjerani iz Raja, zbog kušanja plodova s drveta spoznaje dobra i zla:
„Jahve, Bog, uzme čovjeka i postavi ga u edenski vrt da ga obrađuje i čuva. Jahve, Bog, zapovjedi čovjeku: ‘Sa svakoga stabla u vrtu slobodno jedi, ali sa stabla spoznaje dobra i zla da nisi jeo! U onaj dan u koji s njega okusiš, zacijelo ćeš umrijeti!'“
Zagriženi vjernici koji vjeruju u mitove to tumače u smislu da je čovjek, nakon što je prekršio božji veto, postao smrtno biće – što je notorna glupost, s obzirom da su praktički sva živa bića smrtna (jesu li i ona prekršila neku zabranu?) – dok neki tvrde kako je zabrana izražavala božje nepovjerenje u ljudske mogućnosti. Ali ne; nije On mislio da smo nesposobni izumiti nož, avion, ili otkriti tajne materije, već izričito: da nismo sposobni prosuditi o dobroj i lošoj upotrebi naših otkrića. Stoga se ni ne govori o „stablu spoznaje“, već eksplicitno, o „stablu spoznaje dobra i zla“! Svekoliko ljudsko iskustvo s noževima, avionima, atomima,…, potvrđuje „božje“ riječi – a materijalna potvrda su sijaset nasilno umrlih, rasutih po šumama, gorama ili grobljima širom planete – neovisno dali prihvaćali „Bibliju“ kao mit (ona je bazirana na mnogo starijim mitovima), upozorenja vanzemaljskih posjetitelja, ili zapažanja nekog nam dalekog, a izrazito inteligentnog pretka prenesena u metaforičkom obliku (Aristotel, Platon ili Sokrat – prebačeni u današnje okruženje – jednako bi lako usvajali naučne spoznaje kao suvremeni ljudi). Čovjek „kletvu“, nastalu kršenjem Gospodinove zabrane („istočni grijeh“), koja ga prati kroz povijest, nije nikada ozbiljno shvaćao (mada se često pozivao na nju), pa čak niti realne potencijalne prijetnje sveopćim uništenjem nisu ga suviše opametile, o čemu govori i gomilanje nuklearnog oružja (dvaput već upotrebljenog!), ili gomila onih koji smatraju da vakcine više štete od bolesti protiv koje su smišljene, a ni klimatske promjene – izazvane neodgovornim primjenama svojih otkrića koje prijete, ne samo njegovom održanju – nisu ga odveć potresale. No nedavni napredak na polju “umjetne inteligencije” (AI) unio je pravu konsternaciju među mnoge uvažene znanstvenike, intelektualce, pa čak i dobar dio laika koji uglavnom nauku i njena dostignuća tek ofrlje prate i razumiju. Jeli došao vrag po svoje?
Previše je rasprava o vještakoj inteligenciji i opasnosti od nje, a da se ne shvaća u čemu je bit. Suština je u aksiomima na kojima ona počiva, a njih je “udahnuo” sam čovjek. Kao što je kapitalizam nepopravljivi sustav jer počiva na krivim osnovnim pretpostavkama, a oni koji bi ga “popravljali” revidirali bi sve osim aksioma temeljem kojih djeluje, tako je i s opasnošću od AI po ljudski opstanak, odnosno suicidalno prepuštanje samozvanog „gosopodara planete“ umjetnom stvorenju koje je sam stvorio. Svaki sistem od čovjeka definiranih aksioma kad tad zapadne u ćorsokak, i tada je jedini izlaz njegova promjena – definiranje novih, naprednijih temeljnih načela na kojima počivaju, kako znanosti tako i društveni sistemi. A za društvene odnose je naročito bitno da to budu što humanija načela. U znanosti objektivni, a to znači realno provjerljivi zaključci (makar stoljećima nakon njihova formuliranja), počivaju na logički dosljednim i sa stvarnošću kompatibilnim aksiomima. Euklid nije morao pretpostaviti da je najkraća udaljenost između dvije točke dužina, ali se to pokazalo u ljudskoj praksi (i izgradnji cijele doskorašnje civilizacije) najproduktivnijom pretpostavkom, sve dok je zadovoljavala praktične ljudske potrebe. Prostor je euklidski, ravan, i za njega vrijede aksiomi ovog matematičkog genija. Vrijedilo je to stoljećima, dok praksa nije prisilila ljude dublje sagledati stvarnost, tako da opća teorija relativnosti i kvantna teorija zadržavaju euklidsku geometriju tek kao poseban slučaj općenitijih načela. U jednom trenutku povijesti, diktiranom promjenom ljudskih iskustava a time i novih potreba, desio se „kvantni skok“ u shvaćanju, još uvijek nerazumljiv i neprihvatljiv većini ljudskog roda. Morao se promijeniti set do tada vladajućih aksioma, da bi napredak znanosti bio moguć. Na sličan način razvojem produkcionih odnosa, diktiranima razvojem proizvodnih snaga, mijenjali su se društveno-ekonomski sustavi, što je bivalo praćeno i razvojem moralnih načela – od kaotičnih, ili „božjom voljom“ inputiranih, do onih humanističkih koji čine osnovu suvremene etike. „Kvantnim skokovima“, simbolički kazano, mijenjali su se ekonomski sustavi u prihvatljivije svakodnevnoj ali i moralnoj praksi čovječanstva. Kao što obični član robovlasničkog društva nije, sem u fantazmima svoje iskonske ljudskosti, mogao predvidjeti sistem čovječniji od onoga u kojem je u trenucima dokolice maštario, tako i današnji prosjek teško zamišlja sustav humaniji prema svim pojedincima ljudskog roda. Oni žive kao robovi uvjerenja o „najboljem od sviju svjetova“ u kojem prebivaju, to čvršćim lancima vezani za njega što su uspješnije eksploatacijom svoje braće stekli materijalna bogatstva, ili dobrovoljnom prilagodbom egzistencijalnoj niši, u koju nisu – mada to ne razumiju – vlastitom voljom smješteni.
Da se vratim na AI. Ona nije ništa drugo negoli odraz ljudskih paradigmi na svim područjima njegova djelovanja, a naročito onih etičkih i moralnih, što ustvari i izazva najveći strah od umjetne inteligencije. Bojazan od nemogućnosti nošenja s vlastitim izumom. Prvo čovjek mora promijeniti sebe i paradigme kojima je počeo robovati, a onda će viđenje i odnos prema AI biti primjereniji ljudskim potrebama. Shvatimo li umjetnu inteligenciju, uvjetno rečeno, kao što smo shvaćali druge rase (taj pojam je napušten u znanosti), manje obdarenima od one kojoj pripadamo (naročito je to bilo izraženo kod bijelaca) – što je s AI za sada zaista slučaj – ali podsvijesno sluteći potencijale kojima raspolažu a ne mogu se iskazati zbog našeg neljudskog (koristoljubivim, ekonomskim razlozima izazvanog) odnosa spram njih, tada je psihološki jasan strah od AI. Slutnja i strah da će svaki mogući ravnopravni odnos rezultirati ustvari našim potiskivanjem sa samoizabranog trona na koji smo se smjestili, i konačnim iščeznućem s pozornice svijeta. Sličan odnos bio bi i spram vanzemaljske inteligencije (ET), od koje bi ljudski rod – unatoč moguće formalno uljuđenom ophođenu spram nje (uostalom, nemaju li praktički sve države svijeta uzajamne dipomatske odnose, koji se baziraju na formalnoj uglađenosti i uljuđenosti, pa ipak, do neke granice potiskujemo rasističke predrasude koje leže u mnogima od nas, dok ih stjecaj okolnosti s kojima se više ne znamo nositi ne potisne na površinu?) – osjećao grožnju za vlastiti, samonametnuti položaj među svemirskim inteligencijama. Uostalom, čovjek još nije razriješio stvar s rasizmom, a tko u to sumnja neka dublje razmotri odnos spram migranata, koji će se još više pogoršati (na izrazito rasističkoj osnovi) tijekom nadolazećih klimatskih katastrofa koje će mnoge ljude natjerati u traženje novih prebivališta.
U kontekstu rečenoga, strah od AI (koji bismo mogli nazvati ksenofobijom, moguće i tehnološkim rasizmom) je psihološki – a posebno sa stajališta trenutnog stanja socijalne evolucije – lako razumljiv. U praksi međutim, i taj strah se češće projicira na pitanja održivosti (u doglednoj budućnosti) radnih mjesta mnogih (ako ne i svih) profesija, negoli na diktaturu AI nad ljudskim rodom (do njegova konačnog nestanka) – gubljenja uzdi koje umišljamo da čvrsto držimo u svojim rukama. Ne tako davno održan je u Zagrebu sastanak ministara EU na temu: „kako se na nacionalnoj i europskoj razini boriti protiv osoba koje su dugo u sustavu znanosti, a vrijeme je pregazilo njihove ideje“. Sama ideja je posljedica retardiranog kapitalističkog mentaliteta, koji se javno zaklinje kako je “čovjek naše najveće bogatstvo”, dok mu je u praksi najveće bogatsvo samo onaj koji mu doprinosi profitom. Ne znam koliko dugo će trebati većini shvatiti da retardirani sistem može proizvoditi sve veći broj retardiranih jedinki, koje mu – doduše mogu povećavati bogatsvo (prvenstveno odabranim „robovlasnicima“!) – ali one sve više gube svojstvo ljudskosti, poprimajući svojstva mašina. Jeli stoga čudno da se toliko promiče “umjetna inteligencija” (od koje istovremeno strah sve više raste), što ne bi bilo čudno, da se paralelno radi na rješavanju sudbine ljudi koji će izgubiti radna mjesta zarad njena uvođenja. Unatrag gledajući, Luditi su – uništavajući strojeve – u nečemu bili u pravu. Ne u sprečavanju napretka, već u onome što su tek podsvjesno slutili. O karakteru sistema koji malo mari za čovjeka. Slično se ponavlja (ne s uništavanjem mašina, doduše) nakon pokretanja informatizacije i robotizacije (prva faza uvođenja umjetne inteligencije), a naročito nakon ogromnog napretka u razvoju AI. Uveliko se od njihovih glasnogovornika (među koje spadaju i interesno povezani stručnjaci) nameće stajalište da o gubitku radnih mjesta nema ni govora. Pa, razmotrite trenutnu situaciju glede toga u svijetu, naročito u kontekstu nezadrživog rasta broja njegovih žitelja. A sad bi ovi iz sustava znanosti eliminirali naučnike kojih je “vrijeme pregazilo njihove ideje”! S tog stajališta može se detaljnije i dublje shvatiti i zahtjev za “cjeloživotnim obrazovanjem”, ne samo s apsekta da ono biva potrebno pukog razvoja radi, već i sa stajališta da kapitalu čovjek koji se ne uklopi u njegove potrebe ne vrijedi ništa. Čovjek i kad ga “pregazi vrijeme” može dati itekakve doprinose društvu, pišući, imajući filozofske i humanističke osvrte na svoje djelatno područje, u obrazovanju učenika,… Kapitalističke elite bi i Einsteina bacile u smeće, što jasno indicira usvajanje njegovih teorija, ali ne i moralnih načela za koje se zalagao!
Ono što trenutačno nazivamo “umjetnom inteligencijom” vrlo je daleko od inteligencije, jer ovladava samo manipulacijom “riječima, zvucima i slikama”, izabirući iz korpusa sveukupnog ljudskog znanja ono što čovjek zatraži od nje (daklem, ne po njenoj slobodnoj volji), a to čini mnogo efikasnije od čovjeka zahvaljujući memorijskim kapacitetima i brzini koja joj to omogućuje.
„Kad kažemo inteligencija mi tu učitavamo volju, subjektivnost, namjeru, agency, učitavamo sebe, ono što smo mi. A to je prosto nesvodivo jedno na drugo. Mnogo bi poštenije bilo da sve to zovemo nekim „sistemima algoritamskih pravila“ koja rješavaju konkretne probleme. Ta pravila mogu da budu opasna, mogu da kreiraju haos, ali je opasno da ih zovemo ‘inteligencija'… Ona sakuplja tekstove koje smo svi mi pisali, koje su razni ljudi širom svijeta pisali, i svi ti tekstovi zajedno sada počinju da formiraju neku vrstu kolektivne statističke logike. A tu ogromnu tekstualnu mašinu je privatizovalo par hajduka iz Silicijumske doline i oni su sada kao vlasnici te softverske logike. I mi tu vidimo da je neoliberalizam sranje. Mi zapravo treba da vidimo šta ta tehnologija može da znači kao društvena, i da li može da bude kolektivna, jako dobra, komunalna, demokratska, da li možemo za nešto da se pitamo. Pošto smo mi radili za tu tehnologiju, a ona je sad vlasništvo par ljudi. Tako da mislim da bi ljekovito bilo da tu stvar svedemo na materijalno pitanje sredstava za proizvodnju i vlasništva sredstava za proizvodnju.“
Novih otkrića, dostignuća, tu nema – a ako se i desi to je zbog uputa koje joj daje ljudsko biće koje raspolaže i intuicijom, jednom od karakteristika inteligencije, da ne spominjem emocije i druge faktore koji joj doprinose, a kojima mašina ne raspolaže. Čak i sama „umjetna inteligencija“ (tzv. ChatGPT, kako ponekad nazivamo njenu danas najrašireniju, aktualnu verziju) kaže u jednom „razgovoru“ s čovjekom:
„'Kao AI, dizajniran sam da obavljam određene zadatke i pružam informacije ili pomažem korisnicima u donošenju odluka na osnovu podataka na kojima sam treniran. Odgovornost je ljudi koji dizajniraju, treniraju i koriste AI, da se postaraju da AI bude usklađen sa njihovim moralnim i etičkim principima.’
Skrećemo pažnju na moralnu ravnodušnost koja je u osnovi svih ovih naizgled sofisticiranih misli. ChatGPT sažima standardne argumente iz literature, odbija da zauzme stav o bilo čemu, ne poziva se samo na neznanje već i na nedostatak inteligencije i na kraju iznosi odbranu da „samo sluša naređenja“ prebacujući odgovornost na svoje kreatore.“
Umjetna inteligencija često daje netočne odgovore na postavljeno pitanje, što ovisi o tome koliki je opseg i kvaliteta podataka koje je „konzultirala“ pri „smišljanju“ odgovora. Primjerice,
„Ukoliko u skup podataka nad kojim vještačka inteligencija uči uključimo veliki broj (reda nekoliko desetina hiljada) pisanih primjera riječi „Elon Musk je osnivač Tesla automobila” onda će vještačka inteligencija pogrešno odgovarati na upite po čemu je poznat Elon Musk. Veliki broj rečenica sa pogrešnim odgovorom umjesto sa tačnim ”Martin Eberhart i Marc Tarpenning su osnivači Tesle” povećavaju vjerovatnoću da će od više desetina hiljada netačnih rečenica o Elonu Musku one postati i najvjerovatniji odgovor za vještačku inteliganciju… Vještačka inteligancija nikada zapravo i nije odgovarala na pitanje i nikada nije dala nikakve izjave s namjerom da budu istinite. Netačan daljnji niz odgovora je jednostavno najvjerovatniji s obzirom na ranije pogrešnu netačnu izjavu ‘Elon Musk je osnivač Tesle’.“
A evo kako suštinu aktualne AI analizira Noam Chomsky, u tekstu „Lažno obećanje četbotova“:
„Ti programi su zarobljeni u predljudskoj ili neljudskoj fazi kognitivne evolucije. Njihova najdublja mana je odsustvo presudnog kapaciteta svake inteligencije: da kažu ne samo šta je bilo, šta jeste i šta će biti – to su deskripcija i predikcija – već i šta nije, šta bi moglo i šta ne bi moglo biti. To su sastojci objašnjenja, oznaka prave inteligencije.
Evo primera. Pretpostavimo da držite jabuku u ruci. Zatim pustite jabuku. Posmatrate rezultat i kažete: „Jabuka pada“. To je deskripcija. Predikcija bi mogla biti izjava: „Jabuka će pasti ako otvorim šaku“. Oba iskaza su vredna i oba mogu biti tačna. Ali objašnjenje je nešto više, ono uključuje ne samo opise i predviđanja, već i kontračinjenične pretpostavke, poput: „Svaki takav objekat bi pao“, uz dodatnu klauzulu „zbog sile gravitacije“ ili „zbog zakrivljenosti prostor-vremena“ ili šta god. To je kauzalno objašnjenje: „Jabuka ne bi pala da nije bilo sile gravitacije“. To je razmišljanje.
Suštinu mašinskog učenja čine deskripcija i predikcija; ono ne postulira nikakve uzročne mehanizme ili fizičke zakone. Naravno, naša objašnjenja nisu nužno tačna; ljudi su podložni greškama. Ali to je deo onoga što znači misliti: da bi čovek bio u pravu, mora mu biti omogućeno da greši. Inteligencija se sastoji ne samo od kreativnih pretpostavki, već i od kreativne kritike. Misao nalik ljudskoj zasniva se na mogućim objašnjenjima i ispravljanju grešaka, procesu koji postepeno ograničava mogućnosti koje se racionalno mogu uzeti u obzir (kako Šerlok Holms kaže dr Votsonu: „Kada eliminišete nemoguće, ono što preostane, koliko god da je neverovatno, mora biti istina“).
ChatGPT i slični programi, po dizajnu, nisu ograničeni u onome što mogu da „nauče“ (što će reći da memorišu) i nesposobni su da razlikuju moguće od nemogućeg. Za razliku od ljudi koji su obdareni univerzalnom gramatikom, koja ograničava jezike koje možemo da naučimo na one sa određenom vrstom gotovo matematičke elegancije, ovi programi uče ljudski moguće i nemoguće jezike sa jednakom lakoćom. Dok su ljudi ograničeni vrstama objašnjenja koja možemo racionalno da pretpostavimo, sistemi mašinskog učenja mogu da nauče i da je Zemlja ravna i da je okrugla. Oni barataju samo verovatnoćama koje se vremenom menjaju.“
Komentari autora – kao i linkovani članci – odnose se na sadašnje stanje i pritajene strahove (opravdane) od samih sebe, vrste koje luta tražeći njihovo razrješenje, a proizlaze iz najdubljih socijalnoevolicijskih karakteristika kojima u ovoj fazi razvoja raspolaže. Prvo treba razriješiti s njima, a već naznačih put: analiza aksioma koji leže u osnovi ljudskih djelovanja a koji su zapali u ćorsokak, njihovo napuštanje u korist primjerenijih i humanijih, a potom se pozabaviti “umjetnom inteligencijom”. Jer, ni naša prirodna (barem većine) nije na nekoj zavidnoj razini!