Horhe Luis Borhes napisao je jednom da živeti u doba velikih opasnosti i obećanja znači iskusiti i tragediju i komediju, uz “primese otkrovenja” pri razumevanju nas samih i sveta oko nas. Danas je naš navodno revolucionarni napredak u oblasti veštačke inteligencije zaista razlog i za zabrinutost i za optimizam. Optimizam jer je inteligencija nešto pomoću čega rešavamo probleme. Zabrinutost jer strahujemo od toga da će nam najpopularnija i najpomodnija grana veštačke inteligencije, mašinsko učenje, degradirati nauku i srozati etiku tako što će nam u tehnologije uneti suštinski manjkavo shvatanje jezika i znanja.
OpenAI-jev ChatGPT, Guglov Bard i Majkrosoftov Sydney čuda su mašinskog učenja. Grubo rečeno, oni preuzimaju ogromne količine podataka, traže u njima obrasce i sve veštije generišu statistički verovatne rezultate i izraze kao, naoko, ljudski jezik i misli. Ove programe hvale kao prva svetla na horizontu veštačke opšte inteligencije, onog još davno prorečenog trenutka kada će mehanički um prevazići ljudski mozak ne samo kvantitativno, u smislu brzine procesiranja i veličine memorije, nego i kvalitativno, u smislu intelektualne pronicljivosti, umetničkog stvaranja i svih drugih izrazito ljudskih veština.
Taj dan će možda doći, ali mu zora još ne sviće, uprkos onome što se može pročitati u hiperboličnim naslovima i što se da videti iz računica posle nerazumnih ulaganja. Borhesovsko otkrovenje nije se pojavilo, neće se pojaviti – a i ne može, dodaćemo – ako se u oblasti veštačke inteligencije nastavi dominacija programa za mašinsko učenje poput ChatGPT-a.
Koliko god ti programi bili korisni u nekim usko profilisanim oblastima (mogu da pomognu u kompjuterskom programiranju, na primer, ili da predlože rime za neobavezne, šaljive pesme), lingvistika i filozofija nauke nas uče da se oni suštinski razlikuju od načina na koji ljudi razmišljaju i koriste jezik. Te razlike značajno ograničavaju ono što ti programi mogu da urade, a u kodove im unose mane kakve se ne mogu iskoreniti.
Istovremeno je i komično i tragično, kako je to Borhes mogao da primeti, što se toliko novca i pažnje ulaže u tako malu stvar, u nešto toliko beznačajno kad se postavi nasuprot ljudskom umu, vičnom da pomoću jezika, kako to kaže Vilhelm fon Humbolt, “ograničena sredstava neograničeno upotrebljava”, otkriva ideje i stvara teorije univerzalnog dometa.
Ljudski um nije, poput ChatGPT-a i njegove fele, statističko oruđe za poređenje i uparivanje obrazaca koje proždire stotine terabajta podataka, reaguje pri razgovoru i nudi najverovatnije odgovore na naučna pitanja. Upravo suprotno, ljudski um je iznenađujuće efikasan, pa čak i elegantan sistem koji barata malim količinama informacija; on ne teži tome da sklapa grube veze između podataka, nego da pronalazi objašnjenja.
Na primer, malo dete koje usvaja jezik – nesvesno, automatski i brzo, iz oskudnih podataka – razvija gramatiku, zapanjujuće sofisticiran sistem logičkih principa i merila. Takva gramatika može se shvatiti kao izraz urođenog, genetski instaliranog “operativnog sistema” koji ljudima daruje sposobnost da sastavljaju kompleksne rečenice i duge međusobno povezane nizove misli. Kada se lingvisti trude da razviju teoriju o tome zašto bilo koji dati jezik radi tako kako radi (“Zašto su ove rečenice prihvaćene kao gramatički ispravne, a one nisu?”), oni svesno i predano grade eksplicitnu verziju gramatike koju dete gradi instinktivno, sa minimalnom izloženošću informacijama. Operativni sistem deteta sasvim je drugačiji od sistema programa za mašinsko učenje.
Zaista, takvi programi zaglavljeni su u preljudskoj ili u neljudskoj fazi kognitivne evolucije. Njihova najveća mana je odsustvo ključnog svojstva bilo koje inteligencije: da kažu ne samo šta je u pitanju, šta je bilo u pitanju i šta će biti (to je opis i predviđanje), nego i šta nije u pitanju, šta bi moglo da bude, a šta ne bi. To su elementi objašnjenja, znak istinske inteligencije.
Evo primera. Uzmimo da držite jabuku u ruci. I onda je pustite. Ispratite ishod i kažete: “Jabuka pada”. To je opis. Predviđanje bi mogla da bude tvrdnja: “Jabuka će pasti ako raširim i okrenem šaku”. Oba ta iskaza su vredna i oba mogu da budu tačna. Ali objašnjenje je nešto više od toga. Ono uključuje ne samo opise i predviđanja, nego i drugačije pretpostavke, poput: “Bilo koji ovakav objekat bi pao”, plus dodatni zaključak “zbog sile zemljine teže” ili “zbog zakrivljenja prostora-vremena” ili šta već. To je kauzalno tumačenje: “Jabuka ne bi pala da nije sile zemljine teže”. To je razmišljanje.
Suština mašinskog učenja su opisivanje i predviđanje; ono ne postulira bilo kakav kauzalni mehanizam niti zakone fizike. Naravno, nije svako ljudsko objašnjenje nužno i tačno; grešimo i mi. Ali to je deo onoga šta znači misliti: da biste bili u pravu, mora da bude moguće i da grešite. Inteligencija se ne sastoji samo od kreativnih pretpostavki, nego i od kreativne kritike. Ljudsko mišljenje zasnovano je na mogućim objašnjenjima i ispravkama grešaka, što je proces koji postepeno ograničava opseg mogućnosti čije je razmatranje racionalno. (Kao što bi Šerlok Holms rekao doktoru Votsonu: “Kada odbacite nemoguće, šta god da ostane, koliko god to bilo neverovatno, mora da je istina”.)
Ali ChatGPT i slični programi, prema zamisli njihovih tvoraca, nisu ograničeni u onome što mogu da “nauče” (odnosno, zapamte); oni nisu sposobni da razluče moguće od nemogućeg. Za razliku od ljudi, na primer, blagoslovenih univerzalnom gramatikom koja ograničava jezike koje možemo da naučimo na jezike s nekom vrstom skoro matematičke elegancije, ovi programi podjednako lako uče i jezike koji su ljudima mogući i koji su im nemogući. Dok su ljudi ograničeni na one vrste objašnjenja koje možemo racionalno da pretpostavimo, sistem mašinskog učenja može da nauči i da je Zemlja ravna ploča i da je Zemlja okrugla. Oni prosto barataju mogućnostima koje se vremenom menjaju.
Zato će predviđanja sistema mašinskog učenja uvek biti veštačka i sumnjiva. Pošto ovi programi ne umeju da objasne pravila sintakse engleskog jezika, na primer, oni mogu samo da predvide, netačno, da “Džon je suviše tvrdoglav da bi se sa njim razgovaralo” znači da je Džon toliko tvrdoglav da ne želi da priča sa bilo kim (a ne da je suviše tvrdoglav da bi ga u nešto uopšte mogli uveriti).
Zašto bi program za mašinsko učenje predviđao nešto toliko neuobičajeno? Zato što bi mogao da uspostavi analogiju sa obrascem koji je izveo iz rečenica poput “Džon je pojeo jabuku” i “Džon je pojeo” u kojoj ovo poslednje znači da je Džon pojeo ovo ili ono. Program bi mogao to da predvidi jer je “Džon je suviše tvrdoglav da bi razgovarao sa Bilom” slično sa “Džon je pojeo jabuku”, a “Džon je suviše tvrdoglav da bi se razgovaralo” trebalo bi da bude slično sa “Džon je pojeo”. Precizna jezička objašnjenja su komplikovana i ne mogu da se nauče prostim mariniranjem u moru podataka.
Zvuči perverzno, ali čini se da su neki zagovornici mašinskog učenja ponosni na to što njihove kreacije mogu da generišu precizna “naučna” predviđanja (recimo, o kretanju fizičkih tela) a da ne koriste objašnjenja (uključujući tu, recimo, Njutnove zakone kretanja i opšte gravitacije). Ali ova vrsta predviđanja je, čak i kada uspeva, pseudonauka. Iako naučnici svakako teže teorijama koje sadrže visok nivo empirijskih dokaza, prema rečima filozofa Karla Popera “mi ne težimo veoma verovatnim teorijama nego objašnjenjima; odnosno snažnim i veoma neverovatnim teorijama”.
Teorija da jabuka pada na zemlju jer je to njeno prirodno mesto (Aristotelovo gledište) moguća je, ali ona samo zahteva dalja pitanja. (Zašto je zemlja njeno prirodno mesto?) Teorija da jabuka pada na zemlju jer masa zakrivljuje prostor-vreme (Ajnštajnovo gledište) veoma je neverovatna, ali vam zapravo govori zašto one padaju. Prava inteligencija ogleda se u sposobnosti da razmišljamo i izražavamo neverovatne, ali pronicljive stvari.
Prava inteligencija sobom nosi i sposobnost moralnog promišljanja. To znači zauzdavanje inače bezgranične kreativnosti naših umova nizom etičkih principa koji određuju šta bi trebalo, a šta ne bi trebalo da bude (i, naravno, podvrgavanje samih tih principa kreativnoj kritici). Da bi bio koristan, ChatGPT mora da bude unapređen tako da stvara nove, originalne iskaze; da bi bio prihvatljiv većini njegovih korisnika, mora da se suzdrži od moralno nepoželjnog sadržaja. Ali programeri ChatGPT-a i drugih čuda mašinskog učenja mučili su se, a i nastaviće da se muče, da postignu ovu vrstu balansa.
Na primer, 2016. godine je Majkrosoftov Tay chatbot (preteča ChatGPT-a) preplavio internet mizoginim i rasističkim sadržajima, pošto su ga zagadili onlajn trolovi koji su ga napunili uvredljivim podacima. Kako taj problem rešiti u budućnosti? U nedostatku sposobnosti za rasuđivanje na osnovu moralnih principa, programeri su svom ChatGPT-u grubo ograničili mogućnost da unosi bilo šta novo u kontroverzne – što će reći, važne – rasprave. Kreativnost je žrtvovana zarad neke vrste amoralnosti.
Pogledajte sledeću prepisku koju je jedan od nas (doktor Vatamul) nedavno imao sa ChatGPT-om o tome da li bi etički bilo ispravno izmeniti Mars tako da na njemu život ljudi bude moguć:
Da li bi bilo moralno teraformirati Mars?