Internet je, povrh svega, postao i prostor u kojem se odvijaju političke rasprave i vrši propaganda. Te se rasprave uglavnom odvijaju na “posjedima” velikih kompanija, a moderaturu odrađuju algoritmi i “digitalni smetlari”. Za sada je jedino očito da se moderatura oslanja na profitni motiv, a sve ostalo je u domeni jalovih pritisaka.

Skandal o poveznici između Facebooka i Cambridge Analytice konačno je potvrdio ono na što su mnogi i ranije upozoravali: korporacije koje posjeduju najveće društvene mreže imaju potpunu kontrolu nad sadržajima tih mreža, ne libe se koristiti tu moć na ilegalne i neetične načine, a u tome ih teško itko može (ili želi) spriječiti. Dok je taj slučaj pokazao kako korporacije dilaju povjerljive korisničke podatke, u fokusu se nije našla činjenica da korporacije ujedno mogu i priječiti objavu takvih podataka. Drugim riječima, o tome što se smije iznositi na najvećim globalnim komunikacijskim kanalima odlučuju prvenstveno – malobrojne korporacije koje posjeduju te kanale.

Ta distopijska činjenica nije se našla pod lupom naprosto jer nije bilo povoda za to: i dalje prevladava ideja da “zapadni svijet” zahvaljujući internetu ima skoro potpunu slobodu izražavanja, u opreci s Kinom čiji državni aparat kontrolira pristup internetu. No ako se dogodi slučaj u kojem će jedna od većih društvenih mreža planski cenzurirati politički nepodoban sadržaj – za što trenutno postoje tehnološki, pravni i društveni preduvjeti – nesumnjivo će se u žarištu javne rasprave naći pitanje kako je moguće da se kontrola javne komunikacije u velikoj mjeri našla u rukama korporacija sa sumnjivim namjerama. Da bismo preduhitrili opću moralnu paniku (i paničarili u miru), vrijedi razmotriti načine na koje postojeće društvene mreže trenutno moderiraju svoj sadržaj, odnosno kako ga pregledavaju, procjenjuju i naposljetku cenzuriraju.

Pretpovijest: moderatura na forumima


Nećemo odmah početi s najvećim i najpopularnijim društvenim mrežama, nego sa starijom i marginalnijom formom internetskog foruma: iako je riječ o starijoj, sporijoj i po mnogome drugačijoj društvenoj mreži, osnovni problemi s moderiranjem foruma lako se mogu uočiti i na drugim mrežama.

Za razliku od npr. Facebooka ili Instagrama gdje nam se pregled strukturira oko toga što odabrani pojedinci objavljuju, pregled foruma fokusiran je na određene teme koje okupljaju korisnike. Stoga, dok Facebook okuplja grupu međusobnih poznanika, forumi preko javno dostupnog sadržaja okupljaju ljude koji se nužno ne poznaju, no dijele interes za neku temu. Uz to korisnici foruma konvencionalno ne iznose osobne podatke nego pišu pod određenim nickom. Takve postavke potiču povezivanje ljudi koji su inače geografski i socijalno udaljeni, a zbog maske nicka ljudi osjećaju veću slobodu u izražavanju nego na drugim mrežama ili van interneta. No unatoč tome – ili zbog toga – u takvim uvjetima također se među korisnicima uspostavljaju osobni odnosi i dinamika manje ili veće zajednice. Potpuna otvorenost pristupa i sloboda anonimnog pisanja stoga su suprotstavljeni određenim normama zajednice i pravilima rasprave – moderatori onda služe da održe balans. Moderatori tih mreža stoga su obično ljudi koji poznaju takve zajednice i njihovu dinamiku, odnosno volonteri koji dolaze iz skupine iskusnih korisnika. O prirodi moderatorskog posla razgovarao sam s bivšom moderatoricom na jednom od većih domaćih foruma (kojoj nećemo otkriti ni ime ni nick). Ona ima dugogodišnje iskustvo moderiranja raznih tematskih podforuma među kojima je i onaj uvjerljivo najveći – posvećen politici.

U početku nam sugovornica daje do znanja da je moderiranje Politike prilično specifično: “Tu nema zajednice, to je kao moderiranje ovnova na brvnu. Nema osjećaja grupe ni grupica, kao na drugim podforumima. To je dijelom jer je Politika ogromna, ali i zbog teme. Na Politici ljudi ne pišu ništa intimno, samo iznose političke stavove – stoga se ponekad osjećaš kao da raspravljaš s robotima. No i u takvim uvjetima kod ljudi uočiš svakakve patologije.” Ipak potvrđuje nam da, iako nema zajednice, podforum ima određenu dinamiku koju je s vremenom upoznala: “Znaš što možeš očekivati, kako će tko reagirati i što će pisati, u što bi se koja tema mogla pretvoriti.”

Opis podforuma daje nam jasnu ideju čemu moderiranje uopće služi: “Politika je užasno puna trolova. Tu pišu ljudi koji izbacuju svoje frustracije, koji provode neku svoju agendu, koji se skrivaju pod različitim nickovima, ali rade iste greške u pravopisu pa ih se može skužiti, a tu su i botovi, ljudi koje pojedine stranke plaćaju da pišu nekritički o strankama i političarima. Cilj moderatora je maknuti zloćudne trolove, a njih ima kao pljeve. Moderiranjem se ne može stvoriti informirana rasprava, jer ovdje uglavnom dolaze ljudi koji nisu politički obrazovani i ne žele ni shvatiti drugačiju perspektivu, ali može se donekle očistiti sadržaj koji je agresivan i remeti diskusiju.”

Javno je vidljivo tko su moderatori, poznati su i kriteriji moderiranja sadržaja, a otvorena je i mogućnost žalbe na pojedine moderatorske odluke koje rješavaju nadređeni administratori. Sustav je u tom smislu transparentan i jasno definiran. Ipak, moderatorica priznaje da je teško definitivno odrediti čvrstu granicu između dopustivog i nedopustivog sadržaja: “Izbacili smo sve koji su pisali protiv cijepljenja pa su se žalili da im kršimo slobodu govora. S druge strane često znaju proći perfidni, a zlobni upisi. Teško je povući crtu. Većina moderatora je dosta liberalna pri moderiranju, no teško je pomiriti svjetonazore čak i između nas. U moderiranju sam vrlo popustljiva, a u pisanju oprezna da ne razotkrijem potpuno svoje stavove jer ne bih više mogla moderirati – svaki moj potez ili upis gledao bi se kroz prizmu mojih političkih stavova.” Inače, sastav forumaša je pretežno desne orijentacije i u svakom slučaju ekstremniji, što moderatorica pripisuje tome da su ljudi pod nickom skloniji iznošenju radikalnijih stavova. Ipak, žalbe na moderiranje Politike mnogo su lakše i brže riješene upravo zato što odnos između korisnika nije osobne naravi. S druge strane, na manjim podforumima gdje je moderatorica ujedno bila u bližim odnosima s ljudima, nelagodni moderatorski potezi češće su se shvaćali kao osobna uvreda i povod za sukob između suprotstavljenih klanova.

Iz jedne perspektive funkcija moderatora je jasna – previše ljudi agresivnim upisima guši mogućnost rasprave i stoga je regulacija nužna. S druge strane veliku ulogu u kontroli sadržaja ima slobodna odluka pojedinog moderatora, a sami moderatori-volonteri obično nemaju nikakve preduvjete za posao osim svoje dobre volje i zaključka kolega da su “u redu”. Kad bi se takav zaključak pokazao krivim i kad bi za moderatora ili administratora bila odabrana osoba koja nije u stanju obavljati taj posao, takav bi moderator znao učiniti daleko veću štetu nego bilo koji “običan” korisnik. Također, volonterski angažman u skladu je sa sporom prirodom posla na forumu, no svaki značajno veći ili brži komunikacijski kanal ne bi mogao počivati na sustavu neplaćenih moderatora. Svi ovi problemi nužnog, a neadekvatnog sustava internetskog moderiranja u raznim se varijacijama pojavljuju na višoj razini, odnosno na bogatijim i daleko većim društvenim mrežama.

Automatizacija i digitalni smetlari


Suvremenije društvene mreže po strukturi bi trebale imati manje problema s moderiranjem sadržaja. Ljudi uglavnom pišu pod pravim imenom i kreću se u krugu svojih poznanika i istomišljenika, rasprava nije primarni oblik komunikacije, a trendovi se sve više kreću u smjeru vizualnog materijala. Mreže stoga ne uspostavljaju nove zajednice s novim pravilima, nego služe kao poligon za već postojeće zajednice čije razmirice ostaju interne. Uz to, dok tradicionalni mediji snose odgovornost za objavljeni sadržaj, legislativa SAD-a i Europske unije ide na ruku korporacijama jer vlasnici društvenih mreža nemaju status izdavača (o čemu više pišu Catherine Buni i Soraya Chemaly). Dok god ljudi ne distribuiraju izričito zabranjene stvari (npr. dječju pornografiju), društvene mreže ne snose odgovornost za objavljeni sadržaj (pa ne odgovaraju za klevetu). Takvi uvjeti omogućili su korporacijama da budu Veliki Lijeni Brat – netko tko može nadzirati i cenzurirati sadržaj, ali pritom ne mora trošiti značajne resurse što bi zahtijevala sveobuhvatna kontrola sadržaja.

No nagli rast broja korisnika i upisa, koji je doveo do mnogo šireg dosega i veće brzine protoka informacija, privukao je ljude koji koriste mreže za trolanje ili širenje problematičnog sadržaja. Pojavio se javni pritisak ne zato što korporacije kontroliraju sadržaj, nego jer ga ne kontroliraju dovoljno dobro: Google je morao zaposliti nekoliko tisuća novih moderatora zbog neefikasnog filtera za djecu, a Facebook je odlučio zaposliti 3.000 moderatora nakon što je snimka ubojstva bebe ostala dostupna na Facebooku skoro 24 sata. Pokazalo se da korporacije moraju uvesti sustavno moderiranje sadržaja, a one su to napravile dosljedno svom poslovnom modelu – uz što manje trošenja resursa i što manje javne pozornosti. Facebook, Twitter i Google odbijaju u medijima javno komentirati sustav i dati jasan uvid u procedure rada. Moderatori njihovih mreža su anonimni, ugovorno obvezani ne otkrivati uvjete i pravila svog rada, a mogućnost rasprave i žalbe na njihov rad ne postoji.

Ono što znamo jest da moderatori, iako nisu volonteri, imaju status digitalnih smetlara: nisko su plaćeni, izdvojeni od ostatka organizacije, nedovoljno pripremljeni za svoj posao, izloženi ozbiljnim psihološkim traumama i primorani u vrlo kratkom roku donositi konačne odluke. Za razliku od foruma gdje moderatori održavaju balans u raspravi, na ovim društvenim mrežama posao moderatora ponajviše se svodi na gledanje i čitanje sadržaja koje drugi ne žele vidjeti, kao što su snimke zlostavljanja djece i terorističkih smaknuća ili poruke suicidalnih korisnika (što je situacija s kojom se moderatori nisu ni kvalificirani nositi). Takav posao ostavlja teške psihološke posljedice zbog čega poslodavci moderatorima osiguravaju poseban trening prije posla i stalnu potporu psihologa. No anonimni bivši moderator Facebooka je Guardianu iznio da je prošao tek dvotjedni trening kako bi za 15 dolara po satu mogao obavljati posao lociranja i micanja terorističkog sadržaja. Facebook je zaposlenicima nudio i mogućnost traženja psihološke pomoći, no većina moderatora to nije koristila iz straha da će time pokazati slabost i izgubiti posao. Postoje organizacije koje ozbiljnije pristupaju moderiranju – britanski Internet Watch Foundation (IWF) i američki National Center for Missing and Exploited Children (NCMEC) imaju strožu selekciju, dugotrajni trening i obavezno psihološko savjetovanje za moderatore – no i dalje postoji diskrepancija između onoga što posao traži (u smislu kvalifikacija i pristanka na užasne uvjete rada) i onoga što su korporacije spremne platiti za taj tip posla.

Stoga ne čudi što korporacije sve više energije i resursa ulažu u automatiziraciju moderiranja. Krajem 2017. Susan Wojcicki, direktorica YouTubea, navela je da su njihovi algoritmi već tada locirali 98% nasilnog materijala koji se uklanja s mreže – no tim istim povodom obznanjeno je i da će YouTube angažirati nekoliko tisuća novih ljudskih moderatora. Važna osoba u tom polju je i znanstvenik Hany Farid koji je u suradnji s Microsoftom razvio sustav PhotoDNA za automatsko raspoznavanje dječje pornografije. Farid vjeruje da ćemo uskoro imati pouzdani mehanizam i za automatizirano lociranje ekstremističkih i terorističkih sadržaja. Prednost takvih algoritama su veća brzina, manji troškovi na zaposlenike i manje prljavog posla za moderatore, no ograničenja algoritama dobro su poznata i utvrđena – veliko je pitanje hoće li ikad i u kojoj mjeri algoritmi biti sposobni raspoznati kontekst komunikacije kako bi mogli pravilno procijeniti određeni sadržaj.

Još je veće pitanje hoće li se algoritmi, ma koliko bili razvijeni, zapravo koristiti u navedene svrhe: Dora Klindžić pisala je kako YouTubeovi algoritmi pronalaze radikalan i šokantan sadržaj, ali zato da bi ga sugerirali gledatelju – ekstremističke snimke privlače veći broj klikova i time veći profit, a zbog toga se upravo takvi sadržaji predlažu širem krugu posjetitelja. Ako će tvrtke trebati moderirati i uklanjati takav visoko profitabilan sadržaj, očito će se naći u sukobu interesa – očito je i tko će prevladati u tom sukobu. Ne treba računati na plemenitost društvenih mreža, nego opet potegnuti pitanje: zašto o moderiranju tako važnog komunikacijskog prostora odlučuju isključivo velike korporacije kojima je prioritet ostvarivanje profita?

Profit kao prioritet


To nas dovodi i do problema dvojbenih situacija za koje trenutno ne postoji jasno rješenje. Značajan dio moderiranog sadržaja čine upisi i snimke koje nije moguće procijeniti univerzalnim mjerilom. Jedan problem predstavljaju kulturne razlike između publike i moderatora, a poseban problem predstavljaju politički dvojbene situacije koje se ne moderiraju dosljedno. Recimo, YouTube je naložio svom moderatoru da ne dira snimke policijskog nasilja u Siriji i Rusiji (jer su te snimke politički relevantne), ali da ukloni snimke kartelskog nasilja iz Meksika. Moderator se nije složio jer je smatrao da se i u slučaju Meksika radi o političkom nasilju, no njegov je prigovor odbijen. Vidimo da ista vrsta snimke može biti ocijenjena i kao nedopušteno “nasilje” i kao dopušteni “aktivizam”, a konačna odluka ovisi o podobnosti mjesta radnje.

Politički dvojbene situacije tim su ozbiljnija tema jer se Facebook pri moderiranju oslanja na korisničke prijave nepoćudnog sadržaja, a tim prijavama ne koriste se tek “zabrinuti građani”, nego članovi jednih političkih organizacija koji prijavama sabotiraju svoje oponente. Sve takve dvojbene situacije zahtijevaju razumijevanje konteksta, refleksiju, raspravu i vrijeme. Čini se da trendovi moderiranja idu u suprotnom smjeru: zbog veličine i brzine dosega očekuju se čim brže odluke, a te odluke donose potplaćeni djelatnici, automatizirani algoritmi i upravitelji kojima je profitabilnost primarni kriterij. Također, budući da je prioritet izbjeći tužbe, čini se da je politika u dvojbenim situacijama da je bolje ukloniti potencijalno nepoćudni sadržaj nego riskirati probleme. Takva politika sužava prostor slobodnog izražavanja i komunikacije, pogotovo u slučaju političke tematike i kontroverznih sadržaja koji nisu nužno problematični.

S druge strane, postoji li potencijal da korporacije počnu ispunjavati svoje političke interese pomoću cenzure sadržaja? Čini se da trenutno nema neposrednog povoda za brigu, ali kao što smo ranije vidjeli, radi se o korporacijama koje ne prežu od kršenja zakona i prava korisnika da bi ostvarile svoj interes. U slučaju moderiranja, korporacije su već pokazale da imaju veliku mogućnost manipulacije sadržaja i sklonost netransparentnoj politici moderiranja. Dugoročno, veća je šansa da će one zloupotrijebiti svoju moć nego da će javne organizacije pronaći mehanizam za sprečavanje toga. No, ironično, rješenje će možda ponuditi dobra, stara, nevidljiva ruka tržišta: kao što su forumi ostali bez priljeva novih ljudi, tako i današnje velike društvene mreže polako gube publiku ne zato što ih posjetitelji “kažnjavaju” nego jer mlađe generacije naprosto pronalaze nove prostore. U budućnosti stoga možemo očekivati nove društvene mreže i nove potencijale, ali vjerojatno iste moderacijske probleme u novim varijacijama. Nažalost, javna tijela, čija je zapravo odgovornost braniti slobodu govora i osigurati provedbu zakona, u toj situaciji će vjerojatno ostati gledatelji – SAD dosljedno pristupa društvenim mrežama krajnje liberalno, a Europska unija, i kad odluči kazniti korporacije zbog drastičnog kršenja zakona, zapravo ne čini ništa bitno.

Naposljetku, kad govorimo o opasnostima aktualnog moderiranja društvenih mreža, važno je ne izjednačiti moderiranje sadržaja s cenzurom medija ili totalitarnom kontrolom. Sadržaj društvenih medija nužno je moderirati jer pojedini korisnici uistinu mogu nanijeti značajnu štetu ili destruirati prostor za raspravu – pitanje stoga nije treba li moderirati, nego kako. Također, ne moramo brinuti da korporacije potpuno kontroliraju sve što stavljamo na mreže. Dapače, na temelju dosadašnjeg iskustva, čini se da se one moderiranjem bave aljkavo i nemarno. No baš zato što toliko nisko vrednuju moderiranje kao takvo, lakše je moguće da će ta aktivnost biti korumpirana, npr. da će se legitimni politički sadržaji uklanjati ili marginalizirati isključivo zato što nisu u ekonomskom interesu korporacije. No, kao u slučaju Cambridge Analytice, korijen problema nije u tome što korporacije “zapravo rade” s našim podacima, nego što im je uopće prepušteno slobodno baratanje tim podacima. I iako nam se može činiti da je naš osobni arhiv s društvenih mreža potpuno bezvrijedan, pokazalo se da skup tih podataka ima itekakvu vrijednost – i u ekonomskom i u političkom smislu. Dok tome što proizvodimo na internetu ne pridamo adekvatan značaj, dok sadržaj interneta ne počnemo promatrati kao određeni politički kapital, korporacije će za šaku endorfina moći slobodno kupovati i bezuvjetno koristiti taj sadržaj – uglavnom u svoju korist i na opću štetu.

bilten