Šta umjetna inteligencija zapravo može učiniti danas
Šta umjetna inteligencija zapravo može učiniti danas
Anonim

Upozorenje za spojler: Još je dosta vremena do ustanka mašina.

Šta umjetna inteligencija zapravo može učiniti danas
Šta umjetna inteligencija zapravo može učiniti danas

Kada Elon Musk predstavlja humanoidnog robota Tesla Bota, čini se da je nova naučna revolucija pred vratima. Još malo - i umjetna inteligencija (AI) će nadmašiti ljudsku, a mašine će nas zamijeniti na poslu. Međutim, profesori Gary Marcus i Ernest Davis, obojica poznati stručnjaci za umjetnu inteligenciju, zamoljeni su da ne žure s takvim zaključcima.

U Reboot-u umjetne inteligencije, istraživači objašnjavaju zašto je moderna tehnologija daleko od idealne. Uz dozvolu izdavačke kuće "Alpina PRO" Lifehacker objavljuje izvod iz prvog poglavlja.

U ovom trenutku postoji ogroman jaz – pravi ponor – između naše ambicije i stvarnosti vještačke inteligencije. Ovaj ponor je nastao zbog neriješenosti tri specifična problema, od kojih se svaki mora pošteno rješavati.

Prvi od njih je ono što zovemo lakovjernost, a koja se zasniva na činjenici da mi ljudi nismo zapravo naučili razlikovati ljude od mašina, i zbog toga nas je lako prevariti. Inteligenciju pripisujemo kompjuterima jer smo i sami evoluirali i živjeli među ljudima koji svoje postupke u velikoj mjeri zasnivaju na apstrakcijama kao što su ideje, uvjerenja i želje. Ponašanje mašina je često površno slično ponašanju ljudi, tako da brzo dodeljujemo mašinama istu vrstu osnovnih mehanizama, čak i ako ih mašine nemaju.

Ne možemo a da ne razmišljamo o mašinama u kognitivnom smislu („Moj kompjuter misli da sam izbrisao svoju datoteku“), bez obzira koliko jednostavna pravila koja mašine zapravo slijede. Ali zaključci koji se opravdavaju kada se primjenjuju na ljude mogu biti potpuno pogrešni kada se primjenjuju na programe umjetne inteligencije. U odnosu na osnovno načelo socijalne psihologije, mi to nazivamo fundamentalnom greškom valjanosti.

Jedan od najranijih slučajeva ove greške dogodio se sredinom 1960-ih, kada je chatbot po imenu Eliza uvjerio neke ljude da stvarno razumije stvari koje su mu govorili. U stvari, Eliza je samo pokupila ključne riječi, ponovila zadnju stvar koju joj je ta osoba rekla i u ćorsokaku je pribjegla standardnim konverzacijskim trikovima poput "Pričaj mi o svom djetinjstvu". Kad biste spomenuli svoju majku, pitala bi vas o vašoj porodici, iako nije imala pojma šta je zapravo porodica i zašto je ljudima važna. Bio je to samo skup trikova, a ne demonstracija prave inteligencije.

Unatoč činjenici da Eliza uopće nije razumjela ljude, mnogi korisnici su bili prevareni dijalozima s njom. Neki su proveli sate kucajući fraze na tastaturi, razgovarajući na ovaj način sa Elizom, ali pogrešno tumačeći trikove chatbot-a, greškom pomiješajući govor papagaja sa korisnim, iskrenim savjetom ili saosjećanjem.

Joseph Weisenbaum Tvorac Elize.

Ljudi koji su dobro znali da razgovaraju sa mašinom ubrzo su zaboravili ovu činjenicu, kao što ljubitelji pozorišta na neko vreme odbace svoju nevericu i zaborave da radnja kojoj prisustvuju nema pravo da se naziva stvarnom.

Elizini sagovornici su često tražili dozvolu za privatni razgovor sa sistemom i nakon razgovora insistirali, uprkos svim mojim objašnjenjima, da ih mašina zaista razumije.

U drugim slučajevima, greška u proceni autentičnosti može biti fatalna u doslovnom smislu te reči. Godine 2016., jedan vlasnik automatizovanog Teslinog automobila toliko se pouzdao u prividnu sigurnost autopilota da je (prema pričama) u potpunosti udubio u gledanje filmova o Hariju Poteru, ostavljajući automobil da sve radi sam.

Sve je išlo kako treba – sve dok u jednom trenutku nije postalo loše. Prešavši stotine ili čak hiljade milja bez nesreće, automobil se sudario (u svakom smislu te riječi) na neočekivanu prepreku: bijeli kamion je prešao autoput, a Tesla je sjurio pravo ispod prikolice, ubivši vlasnika automobila na licu mjesta.. (Činilo se da je auto nekoliko puta upozorio vozača da preuzme kontrolu, ali se činilo da je vozač previše opušten da brzo reaguje.)

Moral ove priče je jasan: činjenica da se uređaj može činiti "pametnim" na trenutak ili dva (pa čak i šest mjeseci) uopće ne znači da je to zaista tako niti da se može nositi sa svim okolnostima u kojima osoba bi reagovala adekvatno.

Drugi problem nazivamo iluzijom brzog napretka: pogrešiti napredak u umjetnoj inteligenciji, povezan s rješavanjem lakih problema, za napredak, povezan s rješavanjem zaista teških problema. To se, na primjer, dogodilo sa IBM Watson sistemom: njegov napredak u igri Jeopardy! izgledalo je vrlo obećavajuće, ali se u stvari pokazalo da je sistem mnogo dalje od razumijevanja ljudskog jezika nego što su programeri očekivali.

Moguće je da će DeepMindov AlphaGo program slijediti isti put. Go, kao i šah, je idealizirana informativna igra u kojoj oba igrača u svakom trenutku mogu vidjeti cijelu ploču i izračunati posljedice poteza grubom silom.

U većini slučajeva, u stvarnom životu, niko ništa ne zna sa potpunom sigurnošću; naši podaci su često nepotpuni ili iskrivljeni.

Čak iu najjednostavnijim slučajevima postoji mnogo neizvjesnosti. Kada se odlučimo da li da odemo do doktora peške ili idemo metroom (pošto je dan oblačan), ne znamo tačno koliko će dugo trebati da čekamo voz metroa, da li se voz zaglavio na putu, da li naguraćemo se u kočiju kao haringu u buretu ili ćemo se pokisnuti na kiši napolju, ne usuđujući se da idemo metroom, a kako će doktor reagovati na naše kašnjenje.

Uvijek radimo sa informacijama koje imamo. Igrajući Go sam sa sobom milionima puta, DeepMind AlphaGo sistem se nikada nije nosio sa neizvesnošću, on jednostavno ne zna šta je nedostatak informacija ili njihova nepotpunost i nedoslednost, a da ne govorimo o složenosti ljudske interakcije.

Postoji još jedan parametar koji čini da se igre uma kao što su igre uma jako razlikuju od stvarnog svijeta, a to opet ima veze s podacima. Čak i složene igre (ako su pravila dovoljno stroga) mogu se modelirati gotovo savršeno, tako da sistemi umjetne inteligencije koji ih igraju mogu lako prikupiti ogromne količine podataka koje su im potrebne za obuku. Tako, u slučaju Go, mašina može simulirati igru sa ljudima jednostavno igrajući protiv sebe; čak i ako su sistemu potrebni terabajti podataka, on će ih sam kreirati.

Programeri tako mogu dobiti potpuno čiste simulacijske podatke uz malo ili bez troškova. Naprotiv, u stvarnom svijetu savršeno čisti podaci ne postoje, nemoguće ih je simulirati (jer se pravila igre stalno mijenjaju), a tim je teže prikupiti mnogo gigabajta relevantnih podataka probnim putem. i greška.

U stvarnosti, imamo samo nekoliko pokušaja da testiramo različite strategije.

Nismo u mogućnosti, na primjer, 10 miliona puta ponoviti posjetu doktoru, postepeno prilagođavajući parametre odluke prije svake posjete, kako bismo dramatično poboljšali svoje ponašanje u pogledu izbora transporta.

Ako programeri žele da obuče robota da pomaže starijima (recimo, da pomogne da bolesne osobe u krevetu), svaki deo podataka će vredeti pravog novca i pravog ljudskog vremena; ne postoji način da se prikupe svi potrebni podaci pomoću simulacionih igara. Čak ni lutke za crash test ne mogu zamijeniti prave ljude.

Potrebno je prikupiti podatke o stvarnim starijim osobama sa različitim karakteristikama senilnog kretanja, o različitim vrstama kreveta, različitim vrstama pidžama, različitim tipovima kuća, i tu ne možete pogriješiti, jer ispustite osobu čak i na udaljenosti od nekoliko centimetara od kreveta bila bi katastrofa. U ovom slučaju u pitanju je određeni napredak (do sada najelementarniji) u ovoj oblasti koji je postignut metodama uske umjetne inteligencije. Razvijeni su kompjuterski sistemi koji igraju gotovo na nivou najboljih ljudskih igrača u video igricama Dota 2 i Starcraft 2, gdje se u svakom trenutku učesnicima prikazuje samo dio svijeta igre i tako se svaki igrač suočava sa problem nedostatka informacija - to se Klauzevicovom laganom rukom naziva "magla nepoznatog". Međutim, razvijeni sistemi su i dalje veoma usko fokusirani i nestabilni u radu. Na primjer, program AlphaStar koji se igra u Starcraft 2 naučio je samo jednu specifičnu rasu od širokog spektra likova, a gotovo nijedan od ovih razvoja nije moguće igrati kao bilo koja druga rasa. I, naravno, nema razloga vjerovati da su metode korištene u ovim programima prikladne za uspješne generalizacije u mnogo složenijim stvarnim situacijama. stvarni životi. Kao što je IBM otkrio ne jednom, već dva puta (prvo u šahu, a zatim u Jeopardy!), uspjeh u problemima iz zatvorenog svijeta uopće ne garantuje uspjeh u otvorenom svijetu.

Treći krug opisanog ponora je precjenjivanje pouzdanosti. Iznova i iznova vidimo da čim ljudi uz pomoć umjetne inteligencije pronađu rješenje za neki problem koji neko vrijeme može funkcionisati bez kvarova, oni automatski pretpostavljaju da revizijom (i uz nešto veću količinu podataka) sve radiće pouzdano.vreme. Ali to nije nužno slučaj.

Ponovo uzimamo automobile bez vozača. Relativno je lako napraviti demo autonomnog vozila koje će pravilno voziti jasno označenom trakom na mirnom putu; međutim, ljudi su to mogli učiniti više od jednog stoljeća. Međutim, mnogo je teže navesti ove sisteme da rade u teškim ili neočekivanim okolnostima.

Kako nam je Missy Cummings, direktorica Laboratorije za ljude i autonomiju na Univerzitetu Duke (i bivši pilot borbenog aviona američke mornarice), rekla u e-poruci, pitanje nije koliko kilometara automobil bez vozača može prijeći bez nesreće, već u obimu kojima su ovi automobili u stanju da se prilagode promenljivim situacijama. Prema njenoj Missy Cummings, e-poruci autorima 22. septembra 2018., moderna poluautonomna vozila "obično rade samo u veoma uskom rasponu uslova, koji ništa ne govore o tome kako mogu da rade pod manje od idealnih uslova."

Izgledati potpuno pouzdano na milionima probnih milja u Phoenixu ne znači imati dobre rezultate tokom monsuna u Bombaju.

Ova fundamentalna razlika između načina na koji se autonomna vozila ponašaju u idealnim uslovima (kao što su sunčani dani na prigradskim putevima sa više traka) i onoga što mogu da rade u ekstremnim uslovima lako može postati pitanje uspeha i neuspeha za čitavu industriju.

Uz tako malo naglaska na autonomnu vožnju u ekstremnim uvjetima i da trenutna metodologija nije evoluirala u smjeru osiguravanja da će autopilot raditi ispravno u uvjetima koji se tek počinju smatrati stvarnim, uskoro bi moglo postati jasno da su milijarde dolara su potrošeni na metode pravljenja samovozećih automobila koji jednostavno ne pružaju pouzdanost u vožnji poput ljudi. Moguće je da su za postizanje nivoa tehničkog samopouzdanja koji nam je potreban, potrebni pristupi koji se suštinski razlikuju od sadašnjih.

A automobili su samo jedan primjer mnogih sličnih. U savremenim istraživanjima veštačke inteligencije, njena pouzdanost je globalno potcenjena. To je dijelom zbog toga što većina trenutnih dešavanja u ovoj oblasti uključuje probleme koji su vrlo tolerantni na greške, kao što je preporučivanje oglašavanja ili promoviranje novih proizvoda.

Zaista, ako vam preporučimo pet vrsta proizvoda, a vi volite samo tri od njih, neće biti štete. Ali u brojnim kritičnim AI aplikacijama za budućnost, uključujući automobile bez vozača, brigu o starima i planiranje zdravstvene zaštite, pouzdanost slična ljudima bit će kritična.

Niko neće kupiti kućnog robota koji može bezbedno da odnese vašeg starijeg dedu u krevet samo četiri od pet puta.

Čak i u onim zadacima gdje bi moderna umjetna inteligencija teoretski trebala izgledati u najboljem mogućem svjetlu, redovno se događaju ozbiljni promašaji, koji ponekad izgledaju vrlo smiješno. Tipičan primjer: kompjuteri su, u principu, već prilično dobro naučili kako prepoznati šta se (ili se dešava) na ovoj ili onoj slici.

Ponekad ovi algoritmi rade odlično, ali često proizvode potpuno nevjerovatne greške. Ako pokažete sliku automatizovanom sistemu koji generiše natpise za fotografije svakodnevnih scena, često dobijate odgovor koji je izuzetno sličan onome što bi čovek napisao; na primjer, za scenu ispod, gdje grupa ljudi igra frizbi, Google-ov sistem za generiranje titlova koji je vrlo popularan daje mu tačno pravo ime.

Slika 1.1. Grupa mladih ljudi koji igraju frizbi (uvjerljiv opis fotografije, automatski generiran od strane AI)
Slika 1.1. Grupa mladih ljudi koji igraju frizbi (uvjerljiv opis fotografije, automatski generiran od strane AI)

Ali pet minuta kasnije možete lako dobiti apsolutno apsurdan odgovor od istog sistema, kao što se dogodilo, na primjer, sa ovim saobraćajnim znakom, na koji je neko zalijepio naljepnice: kompjuter pod nazivom Kreatori sistema nisu objasnili zašto je došlo do ove greške, ali takvi slučajevi nisu neuobičajeni. Možemo pretpostaviti da je sistem u ovom konkretnom slučaju klasifikovao (možda u smislu boje i teksture) fotografiju kao sličnu ostalim slikama (iz kojih je saznao) označene kao "frižider pun puno hrane i pića". Naravno, kompjuter nije shvatio (što bi čovjek lako mogao razumjeti) da bi takav natpis bio prikladan samo u slučaju velike pravokutne metalne kutije u kojoj se nalaze različiti (pa čak i ne svi) predmeti. ova scena je "frižider sa puno hrane i pića."

Rice. 1.2. Frižider ispunjen gomilom hrane i pića (potpuno nevjerojatan naslov, kreiran istim sistemom kao gore)
Rice. 1.2. Frižider ispunjen gomilom hrane i pića (potpuno nevjerojatan naslov, kreiran istim sistemom kao gore)

Isto tako, automobili bez vozača često ispravno identifikuju ono što „vide“, ali ponekad se čini da previde ono što je očigledno, kao u slučaju Tesle, koji se redovno zaletao u parkirana vatrogasna vozila ili vozila hitne pomoći na autopilotu. Ovakve slijepe tačke mogu biti još opasnije ako se nalaze u sistemima koji kontroliraju električne mreže ili su odgovorni za praćenje javnog zdravlja.

Da bismo premostili jaz između ambicije i stvarnosti umjetne inteligencije, potrebne su nam tri stvari: jasna svijest o vrijednostima koje su u igri u igri, jasno razumijevanje zašto moderni AI sistemi ne obavljaju svoje funkcije dovoljno pouzdano, i, konačno, nova strategija razvoja mašinskog razmišljanja.

Budući da su ulozi u umjetnu inteligenciju zaista visoki u smislu poslova, sigurnosti i strukture društva, postoji hitna potreba da svi mi - profesionalci umjetne inteligencije, srodne profesije, obični građani i političari - razumijemo pravo stanje stvari u ovoj oblasti kako bi naučili kritički procijeniti nivo i prirodu razvoja današnje umjetne inteligencije.

Kao što je građanima koje zanimaju vijesti i statistike važno da shvate koliko je lako obmanuti ljude riječima i brojevima, tako je ovdje sve značajniji aspekt razumijevanja kako bismo mogli shvatiti gdje je umjetna inteligencija. samo reklama, ali gdje je to stvarno; šta je sada u stanju, a šta ne zna i, možda, neće naučiti.

Najvažnije je shvatiti da umjetna inteligencija nije magija, već samo skup tehnika i algoritama, od kojih svaki ima svoje prednosti i mane, pogodan za neke zadatke, a za druge nije. Jedan od glavnih razloga zašto smo krenuli da napišemo ovu knjigu je taj što nam se većina onoga što čitamo o umjetnoj inteligenciji čini apsolutna fantazija, koja raste iz neosnovanog povjerenja u gotovo magičnu moć umjetne inteligencije.

U međuvremenu, ova fikcija nema nikakve veze sa savremenim tehnološkim mogućnostima. Nažalost, rasprava o umjetnoj inteligenciji u široj javnosti bila je i jako je pod utjecajem spekulacija i preuveličavanja: većina ljudi nema pojma koliko je teško stvoriti univerzalnu umjetnu inteligenciju.

Hajde da razjasnimo dalju diskusiju. Iako će razjašnjavanje stvarnosti vezanih za AI zahtijevati ozbiljnu kritiku od nas, mi sami nikako nismo protivnici umjetne inteligencije, jako nam se sviđa ova strana tehnološkog napretka. Proživjeli smo značajan dio našeg života kao profesionalci u ovoj oblasti i želimo da se ona što brže razvija.

Američki filozof Hubert Dreyfus jednom je napisao knjigu o tome koje visine, po njegovom mišljenju, umjetna inteligencija nikada ne može doseći. Ovo nije ono o čemu ova knjiga govori. Djelomično se fokusira na ono što AI trenutno ne može učiniti i zašto ga je važno razumjeti, ali značajan dio govori o tome šta bi se moglo učiniti kako bi se poboljšalo kompjutersko razmišljanje i proširilo na područja u kojima sada ima poteškoća da prvo uradi.

Ne želimo da umjetna inteligencija nestane; želimo da se on, štaviše, radikalno poboljša, kako bismo zaista mogli računati na njega i uz njegovu pomoć rješavati brojne probleme čovječanstva. Imamo dosta kritika na račun trenutnog stanja vještačke inteligencije, ali naša kritika je manifestacija ljubavi prema nauci kojom se bavimo, a ne poziv da odustanemo i napustimo sve.

Ukratko, vjerujemo da umjetna inteligencija zaista može ozbiljno transformirati naš svijet; ali također vjerujemo da se mnoge osnovne pretpostavke o AI moraju promijeniti prije nego što možemo govoriti o stvarnom napretku. Naš predloženi "reset" umjetne inteligencije uopće nije razlog da se stane na kraj istraživanju (iako neki možda razumiju našu knjigu upravo u tom duhu), već prije dijagnoza: gdje smo sada zapeli i kako da izađemo iz današnja situacija.

Vjerujemo da je najbolji način da krenemo naprijed da pogledamo unutra, suočeći se sa strukturom vlastitog uma.

Istinski inteligentne mašine ne moraju biti tačne replike ljudi, ali svako ko iskreno gleda na veštačku inteligenciju uvideće da ima još mnogo toga da se nauči od ljudi, posebno od male dece, koja su na mnogo načina daleko superiornija od mašina u svetu. njihovu sposobnost da apsorbuju i razumeju nove koncepte.

Naučnici medicine često karakterišu kompjutere kao „nadljudske“(na ovaj ili onaj način) sisteme, ali je ljudski mozak i dalje znatno superiorniji od svojih silicijumskih kolega u najmanje pet aspekata: možemo razumjeti jezik, možemo razumjeti svijet, možemo fleksibilno prilagođavamo se novim okolnostima, možemo brzo naučiti nove stvari (čak i bez velikih količina podataka) i možemo rasuđivati suočeni s nepotpunim, pa čak i oprečnim informacijama. Na svim ovim frontovima, savremeni sistemi veštačke inteligencije beznadežno zaostaju za ljudima.

Ponovno pokretanje umjetne inteligencije
Ponovno pokretanje umjetne inteligencije

Umjetna inteligencija: Reboot će zainteresirati ljude koji žele razumjeti moderne tehnologije i razumjeti kako i kada nova generacija AI može učiniti naše živote boljim.

Preporučuje se: