Foto: Unsplash
U dva teksta kojima sam otvorio serijal Veštačka inteligencija napravili smo uvod u to kako mašine pokušavaju da razumeju prirodni jezik i razgovaraju sa nama. Kroz diskusiju, upoznali smo se sa klasičnim simboličkim pristupom AI – iako nismo ni koristili taj termin – i sa pristupom baziranim na asocijativnom učenju, koji se još zove i konekcionizam i na kome počivaju tzv. neuronske mreže, veoma moćni sistemi AI. Videli smo kako nespretno razgovara ELIZA, jedan stari, danas tek od istorijskog značaja AI sistem, ali videli smo i sa kakvom lakoćom razgovara GPT-3, jedan savremen, skup i ekstremno složen sistem, široko baziran na asocijativnom učenju. U narednim tekstovima predstaviću još složenih problema: zašto mašine još uvek ne umeju da koriste vizuelne informacije onoliko efikasno kako to čini naše prirodno, biološko viđenje, kako se programiraju da autonomno upravljaju motornim vozilima, donose odluke, prepoznaju glas i rukopis, te o mnogim drugim izazovima u polju AI. Koliko god se trudio da se uzdržavam od upotrebe stručne terminologije, u nekom trenutku nećemo moći više da je izbegavamo – čak je i zvanični predlog regulative AI Evropske unije iz aprila 2021. – predlog od 85 članova i devet aneksa (!) – koristi na isti način na koji je koristimo naučnoj i inženjerskoj praksi AI. Uvodićemo je zato kroz primere, malo po malo.
U ovom, trećem tekstu serijala, otvoriću novi pravac diskusije, i to jedan koji je za široku publiku i stručnu javnost u oblastima van same AI značajniji od samih uvida u njenu prelepu mašineriju. Setite se drugog teksta, u kome smo videli šta sve fascinantom sistemu za analizu i produkciju prirodnog jezika, GPT-3 inicijative Open AI, može da padne na pamet da kaže u diskusiji sa čovekom. S jedne strane, lakoća kojom GPT-3 proizvodi prirodni jezik, njegove rečenice koje je zaista teško ili nemoguće razlikovati od ljudskih, je zapanjujuća. S druge strane je zastrašujuće kada pomislimo na potencijalne zloupotrebe koje su postale moguće sa dostupnošću ovakve tehnologije – a GPT-3 je i te kako dostupan za komercijalnu upotrebu. Slične tehnologije njemu nose slične probleme, već su dostupne, a buduće će biti samo još moćnije i jeftinije. Debata o regulaciji i kontroli AI sistema je zato apsolutno neizostavna, i ovom tekstu ćemo početi da je razvijamo kroz pregled nekih izazova i pretnji koje ova tehnologija predstavlja. Na osnovu pregleda koji sada započinjemo, nadam se da ću moći da skiciram linije po kojima treba razmišljati o odgovarajućem pristupu njihovoj regulativi.
AI na autoputu: smrt Elejn Hercberg
Kasno uveče 18. marta 2018. godine Elejn Hercberg je gurala bicikl, sa torbama iz kupovine, preko puta sa četiri trake van označenog pešačkog prelaza u mestu Tempe, Arizona. Izvesno je da je prešla dve od četiri trake kada ju je oko 22:00 po lokalnom vremenu, brzinom koja nije precizno ustanovljena, udario prototip Uberovog autonomnog automobila baziranog na Volvou XC90. Hercbergova je izdahnula pošto je prevežena u bolnicu. Prototip je vozio u tzv. autonomnom modu od 21:39 po lokalnom vremenu, oko 19 minuta pre nego što ju je udario. Ona je prvi pešak koji je život izgubio usled udara autonomnog vozila; prvi vozač je izgubio život u takvom vozilu dve godine pre nje.
Standardna klasifikacija autonomije vozila obuhvata pet nivoa kroz koje (a) raste stepen u kome automatski sistemi upravljaju vozilom dok (b) opada nivo zahteva za ljudskom pažnjom i intervencijama tokom vožnje. Klasifikacija se tako kreće od vozila koja tek upozoravaju vozača da treba da reaguje ili mogu da intervenišu automatski, ali nemaju kontinuiranu kontrolu nad vozilom, preko vozila koja voze automatski u tačno određenim kontekstima (npr. samo autoputem, pod određenim uslovima), do vozila koja ne zahtevaju nikakav angažman ljudskog vozača. Model koji je usmrtio Elejn Hercberg nije “pravo” autonomno vozilo pošto zahteva prisustvo i pažnju kontrolnog (“fail-safe“) ljudskog vozača tokom upotrebe. Taj vozač može da svojim komandama momentalno, u ma kom trenutku, utiče na upravljanje ovakvim tipom vozila, prekidajući lanac autonomnih, automatizovanih komandnih impulsa kojima upravlja AI sistem vozila. U okolnostima pod kojima je život izgubila Herzbergova, nažalost, kontrolni vozač – Rafaela Vaskez – je pokušala da okrene volan kako bi skrenula vozilo samo deo sekunde pre udara, a počela da koči tek deo sekunde posle.
Naknadne analize podataka su pokazale da je AI sistem vozila prepoznao Herzbergovu kako gura bicikl šest sekundi pre udara, i to: prvo kao neidentifikovan objekat, zatim ju je kategorisalo kao vozilo, i konačno kao bicikl; prema logici analizi vozila sva ta tri objekta su imala različite predviđene putanje. Najverovatnije je to ono što je dovelo do problema u lancu odlučivanja sistema: analiza jednog, pa drugog, pa trećeg prepoznatnog objekta, i predviđanje jednog, drugog, pa trećeg očekivanog ponašanja tog objekta. Po pretpostavci, sistem je izveo zaključak da bicikl koji se kreće na putu, sa leva na desno iz njegovog ugla, kao vozilo zapravo prelazi u drugu traku, i zaključio da nema potrebe za kočenjem – ili makar ne u tom trenutku. Automatski signal za aktiviranje kočnica izdat je tek 1.3 sekunde pre udara. Vozač Rafaela Velaskez je optužena za ubistvo iz nehata, pre svega zbog toga što je ustanovljeno da je gledala televiziju na svom mobilnom telefonu neposredno pre udara (i to skoro sedam minuta ukupno u oko 22 minuta vožnje pre udara, spuštajući pogled prema svom kolenu 166 puta za to vreme, kako pokazuje analiza video snimka!), ali će sudski proces protiv nje sigurno potrajati usled ekstremne složenosti pravne problematike. Trenutno nema nikakvih indicija da bi kompanija Uber mogla da snosi ma kakve pravne posledice.
Upozoravam čitaoce da ovaj video incidenta u kome je Herzcergova izgubila život sadrži uznemirujuće sadržaje:
Sledeći video, sa NVIDIA YouTube kanala, omogućava da bez ulaženja u ma kakve tehničke detalje “zavirimo” u percepciju tzv. duboke neuronske mreže razvijene da prepoznaje objekte za primenu u autonomnim vozilima. Kao što se može videti, makar iz primera koji su dati u ovom videu, duboke neuronske mreže zapravo veoma dobro segmentiraju objekte iz vizuelnog inputa kamera vozila i precizno ih klasifikuju kao pešake, vozila, prostor kojim može da se vozi ili ne. Sličnu tehnologiju koristi i Uberova verzija Volvo XC90 – prototipa koji je 2018. usmrtio Elajn Hercberg (napomena: detekcija objekata je u praksi, pa i u prototipu o kome je reč, daleko složenija od primene tek jedne neuronske mreže, i podrazumeva primenu čitavog sistema različitih algoritama mašinskog učenja; ovakva vozila su opremljena i tzv. lidar sistemom koji putem laserskih zraka obezbeđuje 360° sken fizičke okoline vozila).
Summa summarum: (a) žrtva je prelazila put sa četiri trake van obeleženog pešačkog prelaza u uslovima noćnog viđenja (oko 22:00 uveče), (b) sistem veštačke inteligencije vozila je izveo pogrešan zaključak u analizi informacija iz svoje okoline i reagovao prekasno, i (c) čovek zadužen za kontrolu i eventualnu korekciju rada AI sistema je gledao u mobilni telefon umesto u put ispred sebe. Kako podeliti odgovornost?
Podela odgovornosti između čoveka i mašine?
Prema prvim policijskim procenama, u istim uslovima vidljivosti Hercbergovu bi prepoznalo oko 85% vozača na razdaljini od oko 44 metra, što je skoro šest sekundi pre udara pri procenjenoj brzini kojom se vozilo kretalo. Zbog svog nemara, Velaskezova to nije pokušala da učini i njena reakcija je izostala – ipak, moramo da sačekamo sudsku odluku da bi ovo moglo da se odgovorno tvrdi. Pitanje koje je od ključnog značaja za nas ovde je: da li možemo AI sistemu vozila da pripišemo neku odgovornost? Odgovor zavisi od toga kakav nivo performanse očekujemo od takvog sistema. Ako AI zamenjuje ljudske mentalne i motoričke funkcije, da li bi trebalo da zahtevamo da algoritmi izvesno, ili makar sa tačnošću koja daleko prevazilazi ljudsku, prepoznaju potencijalnu opasnost za čoveka i zato reaguju adekvatnije od samog čoveka? Da li je to lestvica koju treba postaviti? U slučaju Uberovog modela o kome je reč de jure ne: eksplicitno je zahtevano da automatsko upravljanje vozilom bude pod pažnjom kontrolnog vozača. Ali koji stepen performanse treba zacrtati u potencijalnoj regulativi ovakvih i sličnih AI sistema za potpuno autonomna vozila koja očekujemo jednog dana na ulicama? Ideja upravo jeste da mi možemo da gledamo YouTube spokojno dok nas AI vozi po gradu ili autoputu, iako to u ovom konkretnom slučaju Velaskezova nije smela sebi da dopusti. Dalje, kakve standardizovane procedure za merenje nivoa performanse ovakvih vozila treba da uspostavimo? Ja ću u nekom od narednih tekstova objasniti primerima kako se mere performanse AI sistema u kategorizaciji objekata, ali ću izneti i niz problema povezanih sa tim kako bi čitaoci uvideli kako ni taj, naizgled čisto tehnički aspekt posla, nije uopšte lako rešiv – a mi ćemo uskoro morati doslovce pravno da regulišemo i standrdizujemo tako nešto. Podjednako kao što čovek sa određenim promilom alkohola u krvi ne sme da upravlja vozilom, AI sistem koji ne zadovoljava određeni nivo performanse neće to moći. Ali koji nivo performanse, i kako meren? Kao što možemo da vidimo, problematika regulative AI sistema će zakomplikovati formalno-pravnu stranu posla u AI i to naveliko.
Da se stvar zakomplikuje dodatno i uvidimo kolika će biti kompleksnost ove problematike u godinama pred nama: vozilo koje je udarilo Herbergovu nije bilo programirano da od vozača zahteva (čak ni da ga upozori) na intervenciju u situaciji hitnog kočenja. Zašto? Pa, iz sasvim opravdanog razloga: u režimu autonomne vožnje, i situaciji koja zahteva momentalnu reakciju, nagla reakcija vozača kojom se on upliće u automatski kontrolni tok vožnje može da izazove naglu, pa možda i nepredvidljivu reakciju vozila – pošto u vozač u trenucima neposredno pre potrebe za hitnim manevrom nema dobar osećaj za to u kakvom stanju se vozilo kao dinamički sistem nalazi u momentu kada bi trebalo hitno da reaguje. Ako ste vozač (ja nisam), zamislite da vozite, i da u nekom trenutku tražite od suvozača da u narednoj sekundi preuzme kontrolu nad vozilom i izbegne nešto na putu: to mora da je neprijatan i težak zahtev.
Detalj iz umetnosti i popularne kulture: najznačajnija predstava vitalizma motornog vozila u istoriji filma je verovatno data u kultnom filmu Christine iz 1983. godine, legendarnog američkog režisera Džon Karpentera. Auto-ubica iz ovog filma, bez izgovorene reči ili teksta – a to može pod palicom tako maestralnog umetnika filma kakav je Džon Karpenter – pokazuje ne samo inteligenciju, već nam ostavlja prostor i da u njemu kolaju osveta i kompetitivnost, emotivni život, strast bez kontrole vrline. Ponovo, daleko, daleko smo od suočavanja sa takvim artefaktom, ali na put ka njemu smo izašli. Sada je vreme da mislimo o mogućim posledicama i nađemo način da predupredimo one po nas nepovoljne. Christine:
U narednom tekstu našeg serijala vraćamo se razgovorima sa kompjuterima i pitanjem automatskog kreiranja sadržaja na Internetu. Zapitaćemo se u kojoj meri GPT-3, koga smo već upoznali, i njemu slične tehnologije, mogu da se zloupotrebe u širenju lažnih vesti i crnoj propagandi, da li je to moguće sprečiti i kako se protiv toga boriti, i naravno: kako na odgovarajući način postaviti regulatorni okvir koji bi nas od takvih zloupotreba zaštitio.