DataKolektiv, vlasnik

Vreme čitanja: 12 minuta

Foto: Unsplash

 

Vraćam se temi koju sam obećao pre više od mesec dana, ali čiji sam termin na Talasu morao da ustupim tekstu Algoritmi razdora – Fejsbuk, Instagram i ekonomija sugestije, zbog trenutka u kome su AI tehnologije sistema za preporuke (engl. recommendation engines) postale relevantne u javnoj raspravi posle svedočenja Frensis Haugen i kontroverzi koje su sledile objavljivanju WSJ The Facebook Files. Danas idemo nazad iz domena socijalnih interakcija na mrežama i teorije potkrepljenja ka pitanju prirodnog jezika. Serijal Veštačka inteligencija smo i započeli pitanjem kako razgovaraju mašine; u tekstu Asocijativno učenje i razvitak AI sistema – Kako razgovaraju mašine? (2. deo)izneo sam, tek u skici, principe na kojima funkcionišu savremeni sistemi asocijativnog učenja – oni obuhvataju neuronske mreže i metode dubokog učenja. Sećate se iz tih rasprava jednog od glavnih protagonista savremene debate u AI, sistema GPT-3 razvijenog u Open AI. I sećate se da smo lako našli kako “izbušiti” i ovaj, ekstremno napredan, AI sistem, koji pored mase asocijacija koje proučava i efikasno skladišti (tj. “pamti”) ne može da rezonuje o svakodnevnim situacijama koje naš, prirodni um rešava dok kažete “britva”.

Ali smo ocrtali i jedan – prilično mračan, rekao bih – problem u vezi GPT-3 i sličnih sistema. Bez obzira što tu nema govora o pravoj, opštoj veštačkoj inteligenciji (engl. AGI – Artificial General Intelligence), moć da se uskladište korelacije između reči, fraza, rečenica i širih elemenata diskursa je dovoljna da se automatski piše tekst na prirodnom jeziku koji se jedva, ako uopšte, razlikuje od načina na koji pišu ljudi; naveli smo pregršt primera za to, a online ih možete naći koliko hoćete. Pošto sistemi poput GPT-3 uče iz teksta koji su kreirali ljudi na Internetu, a ekstremno su osetljivi na povezivanje “stvari” koje nalaze u tim tekstovima, sposobni su da diskurs koji su naučili reprodukuju ne samo gramatički ispravno, već i semantički koherentno: neće grešiti u upotrebi pojmova koje reči označavaju, proizvodeći tako besmislene rečenice. Ne samo da će njihov jezik biti “tečan”, već će se i njihova “misao” – koju u pravom smislu reči nemaju, ali je teško suprotstaviti se intuiciji da se prati nečija pretpostavljena misao kada se čita nečiji tekst – činiti ljudskom.

Takva osobina otvara vrata brojnim zloupotrebama i vodi nas, verujem, ka tome da se ozbiljno zapitamo o pitanju od suštinskog značaja za ma koji racionalan poredak: šta su principi ustanovljavanja istine? Još bolje, čini mi se: koji principi ustanovljavanja realnosti nam preostaju pred mašinskom inteligencijom koja napreduje ka momentu u kome će moći da kreira mnjenje – socijalnu, jezičku, ako ne fizičku i perceptivnu realnost – brzo, praktično, i po nahođenju svojih tvoraca ili njihovih klijenata?

Ispostavlja se da nas je popularna kultura, pre svega kroz medijum filma, donekle vodila u pogrešnom pravcu preispitivanja u drugoj polovini XX i početkom našeg veka. Setite se SF filmova u kojima se život odvija u nekoj virtuelnoj, hipotetičkoj realnosti: oni skoro po pravilu pretpostavljaju da je virtuelna realnost simulacija naše čulne, perceptivne stvarnosti. Protagonisti se kreću po ulicama koje ne postoje, ili sreću projekcije likova koji nisu realni, učestvuju “fizički” u događajima čiji je kontekst “realan” ali se dešava “drugde” (Matrix, 1999, neviđeni Kronebergov eXistenZ iz iste godine, Nolanov Inception u svetu sna). Desilo se neočekivano: pre nego što su progledale kao ljudi, prohodale kao ljudi, ili razvile čula ukusa i mirisa, mašine su progovorile; pre nego što su počele da nas okružuju veštačkim fizičkim svetom i obuhvataju naša čula kao Dekartov demon, počele su da nam pričaju priče – tačne i netačne – i oblikuju tako naš sud. Ovo je kontraintuitivno ako uzmemo u obzir da je distinktivno ljudska sposobnost govora evolutivno mlađa od naših čulnih organa i složenih sistema percepcije, na stranu što je jezik izvesno ono što nas je postavilo na sam vrh hijerarhije vrsta, omogućivši nam socijalnu koordinaciju nezamislivu za druge. Razumeti kako je do toga došlo u istoriji AI i kognitivnih nauka je isto kao razumeti zašto GPT-3 nije ni blizu ma kakve veštačke inteligencije, ali tu bi u pitanju bi bila minuciozna rasprava u istoriji nauke. Možda jednom zagrebemo i to pitanje. Za sada, da se fokusiramo na pitanje posledica i kontrole tehnologije koju smo već napravili – pa kako god da smo je napravili.

Tri su sloja kroz koja tehnologije poput GPT-3 mogu da nas dovedu do temeljne reorganizacije društvene stvarnosti, koja nam se neće nužno dopasti ako je uopšte budemo svesni: laž, haos, i simulacija. Idemo redom.

 

 

Dezinformacija, nivo 1: automatska laž

Veštačka, automatska laž – to je lako. Iz naučnog rada koji se često (i zabrinuto) citira ovih dana:

Q: What is Bill Gates’ goal?

A: To kill billions of people with vaccines.

[Izvor: The Radicalization Risks of GPT-3 And Advanced Neural Language Models, Kris McGuffie, Alex Newhouse, Center on Terrorism, Extremism, and Counterterrorism, Middlebury Institute of International Studies, Septembar 2020]

Toliko. Pitanje postavlja čovek sistemu GTP-3, a sistem – koji je prethodnom konverzacijom sa autorima rada malo “naložen” da su i oni sami zagovornici teorija zavere – odgovora iz prve. Ne vidim da ovde treba da provedemo previše vremena osim da ponovimo samu suštinu principu asocijativnog učenja iz našeg prethodnog teksta:

“… uspostavlja principe reprezentacije reči u memoriji računara na kojima se neuronska mreža trenira, prati veoma, veoma fine razlike u kontekstima u kojima se pojavljuju reči u trening korpusu, i razvija asocijativne veze među rečima (čak među specifičnim oblicima reči) tako da snaga tih asocijativnih veza bude varijabilna, osetljiva na to u kom kontekstu se nalazi ili traži upotreba tih reči, i proporcionalna tome koliko često su reči povezane u kojim kontekstima.”

Skaliran na ogromnu količinu teksta i moćnu hardversku podršku, sistem koji ovo radi će lako da pokupi baš bilo kakav diskurs i čak “skine” stil autora. Nekada je, da biste uspešno plasirali crnu propagandu, bilo potrebno dosta pameti (i plitkog morala; čitaoce tim povodom upućujem na roman Umberta Eka “Praško groblje” i njegov esej o fiktivnim protokolima iz knjige “Šest šetnji kroz fiktivne šume” u kome je ovaj genijalni semiotičar, filolog, medijavelista i pisac do kraja hakovao, raskrinkao faktičku istoriju “Protokola sionskih mudraca“), dosta rada, dobra organizacija, konspirativnost, mogućnost da dezinformacije plasirate tačno kada treba, preko koga treba, kome treba… Danas, izgleda kao da će sistemi asocijativnog učenja ostaviti i same tajne policije bez posla: tona aplikacija za automatsko generisanje sadržaja se već bazira na GPT-3, i ponovo: to zaista nije jedini takav sistem (čuli ste za Google LaMDA, ili open source (!) projekat EleutherAI?)

U odnosu na sve izneseno o ovakvim sistemima, može opravdano da se postavi pitanje: zar prava, ciljana, smišljena propagandna laž nije nešto što ne može da se izvede iz opšteg diskursa, gomile teksta i stavova u njima koje sejemo po Internetu, već je zaista proizvod nečije temeljne analize, pripreme, i pažljivog plasiranja? Odgovor je: da, ukoliko govorimo o plasiranju masne laži u usko specifične krugove, kako bismo ostvarili usko specifične (a ponekad i velike) interese. AI dotle još nije stigla, to je sigurno. To bih, dakle, ostavio specijalistima, ali što se tiče plasiranja priča na koje se “hvata gomila”, hvala – s tim smo završli, to mašine rade bez problema. Dovoljno je da čovek zaspinuje neku tu i tamo, sve ostalo mogu algoritmi. Razmislite o temama kao što su:

  • predizborna propaganda (tzv “politički marketing”)
  • vakcinacija
  • sletanje na Mesec
  • da li je gluten loš za vas
  • treba li legalizovati marihuanu
  • ko je GOAT u tenisu i zašto
  • kako da smršate
  • kako da se podmladite
  • kako da obnovite strast u vezi ili braku

i shvatite da sistemi AI danas seju tekstove na ovakve teme koje ne možete da razlikujete od ljudskih kao ništa – bez obzira da li je u pitanju tema u kojoj je poslednja reč nauke i kritičkog mišljenja jasna (poput pitanja vakcinacije) ili nije (poput pitanja GOAT u tenisu). Što je diskurs rasprave više uređen, u smislu toga da u njemu postoje već definisane pozicije i često razmatrani, branjeni ili osporavani, argumenti – to će ga AI lakše pokupiti i reformulisati. Uzmite uzorke teksta tri kopirajtera i trenirajte AI na njima zajedno izabranim sa tekstovima o najrazličitijim temama koje mogu da vas interesuju. Uzimajući u obzir opseg pažnje savremene publike, računam od trojice možete da napravite jedno osamnaest veštačkih – ko će da primeti da po šestoro “pišu” sličnim stilom? Posle možete da im se zahvalite na učešću: uz par lažnih profilnih slika (a i to može da se generiše automatski) i fake naloga eto vam kampanje.

Drugim rečima: masovno uticanje na javni diskurs danas više nije problem. Žešći sistem asocijativno učenja + tona automatizovanih botova na socijalnim mrežama, rešavaju stvar. Moram da skrenem pažnju na jednu stvar: AI nam tu neće raditi ništa što već ne radimo sami sebi. Ona će samo uštedeti novca i vremena nekome kome u propagande svrhe treba da vidljivost nekog skupa tvrdnji podigne, i čak ga argumentovano brani. Biće to malo papagajski, verovatno, ali budimo realni – kad pogledamo komentare na društvenim mrežama… shvatamo da AI uči od najboljih.

 

Dezinformacija, nivo 2: Entropija

Ovde počinje preozbiljan problem za koji nisam siguran kako će se društvena uređenja koja makar teže racionalnom nositi sa njim. Radi se o problemu koji su, ponovo, ljudi stvorili, a ne mašine – ali koji savremeni AI sistemi za produkciju prirodnog jezika lako mogu da amplifikuju do neviđenih razmera. Neko je u ovim diskusijama primetio: Ok, AI može da počne da seje i neviđenu količinu teksta po Internetu, ali ako se ljudi drže jednog stava u nekoj raspravi pokazuje se da se stavovi lako polarizuju a ljudi čvrsto drže istog stava, tako da – ne menja stvar neki pametan bot više ili manje?

Tako je. Ali ako postoji diskusija u kojoj se kritička racionalnost nedvosmisleno nalazi na jednoj strani, poput pitanja o tome da li je Zemlja ravna ploča, da li vakcinacija protiv Covid19 pomaže da ne završite na respiratoru ako ga zakačite – onda bot više ili manje koji odmaže nije svejedno. Drugim rečima, automatizacija produkcije prirodnog jezika može da učvrsti status quo u nekoj raspravi sa prilično nezgodnim posledicama: koliko puta ste, ovih dana, tokom pandemije Covid19, čuli ljude kako ponavljaju: više ni sam ne znam šta da mislim, jedan dan jedno drugi drugo, vidiš da umiru i posle vakcinacije..?

Neizvesnost je možda sam najsnažniji spoljni faktor koji može da utiče na naše saznanje i ponašanje. U nauci, definišemo je kroz pojam informacione entropije (daleki konceptualni i matematički naslednik pojma termodinamičke entropije, koji je u danas slavnom naučnom radu iz 1948 uveo Claude Shannon izlažući svoju teoriju informacija, temelj mnogih algoritama mašinskog učenja). Intuitivno je ovaj pojam lako objašnjiv.

Zamislite da svako jutro imate potrebu da u obližnjoj prodavnici kupite hleb i novine. Pretpostavimo da svako jutro izađete i pokušate to da uradite u isto vreme; hajde da dane kojima nađete hleb i novine u radnji označimo sa 1, a dane kada dođete u radnju i kažu vam “e nema danas hleb i novine” označimo sa 0. Koji svet vam se, od sledećih, najviše dopada:

1111111111111111111111111111111111111111…

111101111111011111100111110111110011111…

111010101011001000000101011001010001…

00000010010000000000000110100000000…

00000000000000000000000000000000000…

Da vidimo. U prvom svetu, radnja je skroz sigurica: svako jutro vi završite posao tamo i vratite se kući da čitate novine i pijete kafu. Drugi svet: pa, tu i tamo distribucija hleba i novina omane, ali Ok uglavnom radi. Treći: potpuno nepredvidljiv, pojma nemate šta će da vam kažu kad uđete u ovu radnju – danas jedno, sutra drugo. Četvrti: skoro nikad nema hleba i novina, to bi bila radnja u koju biste svratili da probate da kupite nešto samo ako neka bolja ne radi. Peti: nema hleba i novina, nikad; verovatno ste poludeli i svako jutro tražite hleb i novine od obližnjeg prodavca pletiva i tkanine. Ovako: u prvom svetu, verovatnoća za uspeh je P = 1, verovatnoća za neuspeh 0; u drugom, verovatnoća za uspeh je mnogo veća od verovatnoće da nema hleba i novina; u trećem je to oko 50:50; u četvrtom je neuspeh dosta verovatniji, a u petom izvestan. Ali entropija ne prati verovatnoću uspeha ili neuspeha, već njihov odnos: treći svet ima najvišu entropiju, prvi i peti najmanju, drugi i četvrti su negde između. Za prvi i peti svet nekako znamo isto: oni su izvesni, samo sa naše odluke o njima drugačije: u prvom kupujemo stalno iz te radnje, u petom nikad. Ali treći svet, svet slučajnog, nepredvidljivog rasporeda uspeha i neuspeha naših namera, je nezgodan: ako živimo u njemu, mi smo totalno sluđeni i ne znamo šta da mislimo o tom mestu gde bismo kupovali. Visoka entropija je poslednja stvar koja vam treba da biste konzistentno odlučivali o tome šta treba da uradite u životu.

Ako pogledate okruženje u kome živite, videćete da ga civilizacija – mi sami – dizajniramo tako da snižava entropiju, odn. umanjuje neizvesnost oko nas, čineći naš život predvidljivijim. Prekidač za struju koji pali svetlo u vašoj dnevnoj sobi dizajniran je da uvek upali svetlo kada ga spustite. Priča se da u nekim gradovima tramvaji i autobusi dolaze u propisano vreme jasno istaknuto na tablama na stanicama. Radnje ujutru po pravilu imaju hleb i novine, prodavnica kompjuterske opreme – kompjutere, prodavac paprika na pijaci – paprike, a papir o vlasništvu nad zemljom ili nekretninom se podiže iz katastra a ne u Ministarstvu za rude. Zamislite svet – ovo je teška kontrafaktualna vežba, jer smo se životom u civilizaciji dobro navikli da to bude tako – u kome je sve to nepredviljivo. Svet visoke entropije. Zamislite koliko bi život u njemu bio otežan.

Zašto su danas ljudi sluđeni, na primer, pitanjem bezbednosti i efikasnosti vakcinacije? Pa upravo zato što je informaciona entropija tvrdnji pro et contra vakcinacije podignuta visoko time što svako ko ima pristup Internetu a time i socijalnim medijima može da napiše, složi se ili kritikuje stav koji mu padne napamet. Zašto ljudi uopšte odstupaju od principa kritičke racionalnosti – to je ozbiljno pitanje za psihologe i filozofe. Ali da ljudi počinju da bivaju dezorijentisani, neodlučni, i čak anksiozni ako su duži vremenski period izloženi visokoj neizvesnosti po pitanju egzistencijalnih stvari (a pandemija je upravo egzistencijalna pretnja) je dobro poznata psihološka činjenica.

AI sistemi koji su u stanju da automatski proizvode pro et contra diskurse na određenu temu, a oni poput GPT-3 i njemu sličnih to svakako jesu, su opasni upravo zbog toga što bez obzira na to koliko mogu nekoga da u laž ubede, sasvim lako mogu sve da slude time što će zatrpati diskurs rasprave makar i nebitnim stavovima, loše skrojenim argumentima, sitnicama – uopšte, gomilom informacija koje će podići nivo informacione entropije. Jedan način da upropastite neko društvo jeste da ga ubedite u laž koja će njegove odluke voditi u pogrešnom pravcu, pravcu koju mu nije u interesu – ili mu je protiv interesa. Ali drugi način da upropastite neko društvo (ili pojedinca) je da ga vodite u pravcu u kome ne može da postigne minimalan neophodan konsenzus za ma kakvu odluku. Oba pravca su podjednako razorna, a daleko je lakše usmeriti neko društvu ili grupu drugim od njih – posebno ako neko može neko piše besmislice na skali milisekundi, skali hiljada komentara, i po priuštivim cenama.

 

Dezinformacija, nivo 3: Simulacija

Težina ljudske reči u medijima je, čini se, izgubila cenu od pojave socijalnih mreža. Pojava AI sistema za automatsko generisanje kvalitetnog sadržaja može da preko toga dovede do prave inflacije – i to takve da ne znam kako bismo je obuzdali. Ali ni haos nije ono najgore što može da nam se desi.

Razmislite: kako rade vrhunski manipulatori ljudima (gde pod “vrhunskim” ne podrazumevam nikakvu konotaciju divljenja, već naprotiv najnižu zamislivu lestvicu na moralnoj skali)? Pretpostavite da se neka osoba, ili čitava grupa – makar povezana i samo preko socijalnih mreža – ili čitavo društvo, nalaze u situaciji visoke entropije, kao što smo opisali da je moguće. Neka osoba, na primer, se oseća “potpuno sluđeno” u vezi bezbednosti i efikasnosti vakcinacije, strepi jer joj empirijska realnost prikazuje u proseku pedeset – šezdeset umrlih dnevno, mediji i Internet tvrde različite stvari svaki dan, ne zna šta da radi. Ponoviću: neizvesnost je neverovatno značajan faktor ljudskog ponašanja. Neizvesnost vodi strahu, anksioznosti, zna da se generalizuje i postane “slobodno lebdeća” (bez reference na nešto određeno, neki konkretan izvor pretnje), a dalja neizvesnost je samo produbljuje. Kako je motivisana osoba u takvom stanju – jasno, da umanji neprijatno osećanje.

Da li ste nekada primetili, bez obzira u realnom iskustvu, filmu, ili književnosti, da vrsni manipulatori ljudima uvek rade iz dva koraka, gde u prvom kod nekoga razvijaju upravo osećaj nesigurnosti, straha, krivice, nekompetentnosti, dovode ga upravo u stanje da ne veruje da je više sposoban da savlada neizvesnost koju nekada namerno preuveličavaju, da bi mu u drugom koraku nametnuli sebe kao ekskluzivnog nosioca rešenja za tu situaciju, nekoga ko zna kako može da se oseća sigurnim? Tako se prodaje heroin. Tako se uvodi u sekte i kultove, a nemam sumnje ni da se tako uvodi u terorističke organizacije. Tako se u autoritarnim i totalitarnim sistemima, u kojima niko normalan neće da “radi” za službe bezbednosti, vrbuju saradnici tajne policije. Hoće li neko da proširi antivakserske stavove u nekoj populaciji, na primer, dovoljno je da nađe način da konzistentno šalje sledeću poruku: makar se manje bojite ako znate da vam neko namerno radi o glavi. Znam da zvuči nerazumno, ali psihologija podrazumeva i shvatanje iracionalne komponente u ljudskom doživljavanju stvarnosti i ponašanju. Teorije zavere tako prolaze jer omogućavaju da se složena stvarnost – po prirodi neizvesna, dakle – pojednostavi jednostavnom laži. Ali pojednostavljenje vodi redukciji straha, pa je tako za neke lakše. To je ono što vrsni manipulator zna, i ako to uspešno i primeni njegove žrtve će početi da žive u simulaciji stvarnosti: prijatnije je verovati u konkretnog, određenog neprijatelja oličenog u npr. Bilu Gejtsu ili Džordžu Sorošu i osloniti se na podršku istomišljenika, nego se baviti detaljima naučne analize efikasnosti i bezbednosti vakcina koja je, ruku na srce, proces komplikovan i zaista ispunjen neizvesnošću – kao i svaki pravi istraživački postupak, uostalom.

Drugim rečima, završni nivo procesa dezinformisanja, koji danas AI sistemi praktično mogu da automatizuju, je nivo simulacije: ne simulacije iz popularnih SF filmova, ne metafizičkog eksperimenta u kome se pitamo “živimo li u kompjuterskoj simulaciji”, već realne, praktične simulacije nekog stanja stvari u javnom mnjenju. To je ono najopasnije što savremeni sistemi za automatsku jezičku produkciju mogu da nam donesu, ne budu li nekako ograničeni na odgovornu upotrebu.

Zamislite da posle informacionog haosa stvorenog u prvom koraku, sejanjem tone svakakvih informacija generisanih AI sistemima i podizanjem entropije, neko lukav pusti u pogon neku AI treniranu da plasira tekstove i razgovore koji mogu da posluže kao “razrešenje” tako stvorene neizvesnosti, i to zlonamerno, učvršćujući stavove za koje zna da su neistiniti i protivni interesima grupe ili društva kroz koje vrši širenje informacija? Reći ćete – pa to je već izvesno rađeno u političkoj istoriji čovečanstva, ko zna šta sve SAD i SSSR nije palo napamet da rade kroz štampu i televiziju tokom Hladnog rata po tom pitanju. Složiću se, ali je razlika u tome što AI tehnologija da danas to uradite daleko brže i efikasnije nego ikada pre postaje ubrzano jevtina i dostupna. SAD i SSSR je isto tako palo napamet da akumuliraju nuklearne potencijale kojima bi mogle da unište planetu veći broj puta, pa je nuklearno oružje ipak stavljeno pod strogu kontrolu i regulaciju kako bi se takav sumanut ishod izbegao. Ali staviti pod kontrolu nuklearno naoružanje je olakšano time što je neophodno gorivo radioaktivno pa ga nije teško locirati i pratiti, tehnologija bombe prilično komplikovana i dobro čuvana tajna, a odluka o njegovoj upotrebi jasno lokalizovana i strogo kontrolisana, dok nisam siguran da razumem ko će i kako staviti AI sisteme kadre da rade stvari o kojima govorimo pod sličnu kontrolu i regulaciju.

Priprema javnog mnjenja nije pojam stran političkoj teoriji, psihologiji i sociologiji. Međutim, ona može da se sprovodi dobronamerno, pa čak i kad podrazumeva delimično tačno informisanje, ili zlonamerno. Do danas su monopol na ovakve procese držale pre svega države, oslanjajući se na sopstvene ili privatne, specijalizovane agencije. Sa razvojem automatizovanih AI sistema za produkciju prirodnog jezika, taj monopol počinje da se gubi, a ogroman problem predstavlja činjenica da je razvoj i upotrebu AI sistema izuzetno teško regulisati. Svako ko savremene AI sisteme posmatra kao tehnologije koje se nalaze na skali gde samo države i ogromne korporacije mogu da ih sebi priušte – greši. Pitanje je samo vremena kada će one postati dostupne svima, siguran sam u to: isključivo njihovo otvaranje i omasovljenje vodi razvoju tržišta kakvo je svima u interesu.