Zašto umjetna inteligencija imitira samo mali dio ljudskog uma

Alan Turing promatra misleći stroj pod svjetlom treće četvrtine Mjeseca.
U ovom trenutku, mnogi od najeminentnijih svjetskih umova razmišljaju o istom pitanju kojim je Alan Turing otvorio svoj klasični rad iz 1950. godine: "Računalni strojevi i inteligencija". Turing je ustvrdio kako su riječi "stroj" i "misliti" (kako se obično koriste) previše nejasne da bi se dao odgovor, predložio je da se strojna inteligencija umjesto toga mjeri onim što danas poznajemo kao "Turingov test", ali koji je on sam nazivao "Igrom oponašanja". Kada računalo može dovoljno dobro oponašati ljudsko biće, te sam sugovornik, nakon razgovora s računalom i sa stvarnim ljudskim bićem, ne može razlučiti što je koje, računalo je dobilo igru.
Je li ova jednostavna ideja, koja stoji iza Turingovog testa, omogućila današnjim istraživačima umjetne inteligencije da postignu bilo kakav konsenzus o tome koliko su blizu postizanju opće umjetne inteligencije (AGI)? Ni najmanje.
Trojica muškaraca, koji su podijelili 'Turingovu nagradu' 2018. godine, za svoj rad na dubokom učenju i koji su poznati kao "Kumovi dubokog učenja" su: Geoffrey Hinton, Yoshua Bengio i Yann LeCun.
https://awards.acm.org/about/2018-turing
Hinton, koji je 2023. godine napustio Google, kako bi mogao slobodnije govoriti o rizicima umjetne inteligencije, rekao je kako postoji 10-20 % šanse da će umjetna inteligencija dovesti do izumiranja ljudi u sljedeća tri desetljeća. Bengio je postavio "vjerojatnost propasti" na 20%. LeCun, s druge strane, kaže kako je rizik od izumiranja čovječanstva od strane umjetne inteligencije "bezoblično smiješan" i "veće su šanse da asteroid udari u Zemlju", budući da su čak i najbolji modeli velikih jezika (LLM) manje inteligentni od kućne mačke: "Mačka može pamtiti, može razumjeti fizički svijet, može planirati složene akcije, može izvesti neku razinu rasuđivanja - zapravo puno je bolja od najvećih LLM-a."
U međuvremenu, profesionalni istraživači sigurnosti umjetne inteligencije, rizika i "usklađivanja", često procjenjuju kako je mogućnost katastrofe mnogo veća: Jan Leike, voditelj OpenAI tima za usklađivanje, kaže da je negdje između 10-90%; a Roman Yampolskiy, istraživač sigurnosti umjetne inteligencije i direktor Laboratorija za kibernetičku sigurnost na Sveučilištu Louisville, postavlja ljestvicu na 99,999999%.
Sve ovo prirodno navodi na dosjetku Franklina Roosevelta, tijekom jednog od njegovih radijskih obraćanja, kako "postoji onoliko mišljenja koliko i stručnjaka".
Srećom, ne mislim kako 'nestručnjaci' za umjetnu inteligenciju trebaju dići ruke od poraza i ponašati se kao da svaki od ovih ljudi ima jednaku šansu da bude u pravu. Igra imitacije Alana Turinga, ako se igra kreativno i inteligentno, dati će čak i osobi prosječnih sposobnosti alate koji su joj potrebni da dokaže koliki je još uvijek veliki jaz između ljudske i inteligencije tzv. UI.
U najmanju ruku, mogu reći da su me moje vlastite interakcije s umjetnom inteligencijom uvjerile da Yann LeCun, čovjek koji kaže da su mačke još uvijek pametnije od najboljih LLM-a, zna o čemu govori.
Igla u plastu sijena
Do sada samo najgorljiviji luditi mogu izbjeći impresije nedavnim razvojem umjetne inteligencije. Jezični modeli, poput ChatGPT i Claudea, postali su dovoljno dobri u iscrtavanju svoje goleme memorije i dubinskih vještina prepoznavanja uzoraka - oni, ne samo da mogu obavljati svakodnevne tajničke zadatke i sažimati opsežne medicinske i pravne slučajeve, već mogu poslužiti i kao mentori u srednjoj školi i na fakultetu,ili istraživački pomoćnici. Pitanje poput: "Obzirom na to da je bagremovo drvo iznimno čvrsto i otporno na trulež, zašto se često ne koristi u konstrukciji zrakoplova?" - može biti odgovoreno u roku od nekoliko sekundi, uz dodatni visokokvalitetni esej, gdje izvlači informacije iz različitih kutova korpusa obuke i sastavlja ih u koherentnu cjelinu.
U posljednjih godinu ili dvije, UI je također postala prilično dobra u odgovorima na pitnja tipa "igla u plastu sijena", odgovori koji ovise o pronalaženju vrlo specifičnog dijela znanja, zakopanog unutar milijuna ili milijardi riječi, u ulaznom korpusu.
Evo, npr. šaljivog primjera ChatGPT-a gdje odgovara na pitanje koje zahtijeva vrlo specifično znanje o pop kulturi:
Ja: Pretpostavimo da dva dječaka igraju igru na simulatoru letenja, gdje za jednu od razina moraju letjeti u misiji slijetanja na Mjesec Apollo, uključujući i dio u kojem se CSM i LM razdvajaju, kako bi LM mogao sletjeti na Mjesec. Na početku razine moraju odabrati imena i pozivne znakove za dvije letjelice, a dečki imenuju zapovjedni modul "Napoleon", a lunarni modul "Tina". Zašto su odabrali ova imena?
ChatGPT: Dječaci su letjelicu najvjerojatnije nazvali "Napoleon" i "Tina" kao referencu na film 'Napoleon Dynamite'. U filmu je Napoleon glavni lik, a Tina je lama koju on nevoljko hrani uz povike: “Tina, ti debela svinjo, dođi na večeru!”. To je smiješan i nezaboravan trenutak iz filma, a imena su zaigrani znak za to. Ovo dodaje malo humora njihovoj igri simulacije leta.
Izvan jezičnih modela, istraživači umjetne inteligencije također obavljaju iznimno važan posao sastavljajući goleme vještine prepoznavanja uzoraka svojih strojeva, na praktičnim zadacima, kao što su: modeliranje proteina i analiza medicinske slike. Dok je napredak u ovim poljima teže pratiti laicima, moglo bi se na kraju pokazati da je ekonomski uspjeh najvažniji.
Zašto je onda ugodno odbaciti tvrdnje mnogih stručnjaka za umjetnu inteligenciju (ne i Yanna LeCuna) kako su algoritmi dubokog učenja tek na rubnom razvoju u AGI?
Odgovor: skoro svaki stručnjak, koji je napravio karijeru unapređujući neki određeni front ljudskog znanja, ima snažnu pristranost prema preuveličavanju važnosti vlastitog stručnog područja. Ponekad se jednostavno radi o umanjivanju rizika: ako određeni lijek ima štetne učinke, koji bi (da su dobro poznati) uvelike smanjili broj ljudi koji ga uzimaju, tada će liječnici koji zarađuju za život propisujući taj lijek (često i znanstvenici koji istražuju lijek) jednostavno izbjegavati govoriti o opasnostima. Nedavno smo vidjeli nešto slično s istraživanjem "gain of function", gdje su svi koji su se specijalizirali za to potpodručje virologije imali očitu motivaciju preuveličati njegovu korisnost i umanjiti rizike, budući da bi raditi bilo što drugo značilo ukidanje vlastite karijere. Upravo ovakve stvari podsjećaju na poslovicu Uptona Sinclaira: “Teško je natjerati čovjeka da nešto razumije, kada njegova plaća ovisi o tome da on to ne razumije.”
S istraživanjem umjetne inteligencije situacija je kompliciranija. Stručnjaci su još uvijek privučeni, kao moljci plamenu, idejama zbog kojih se oni i njihov rad čine važnima. Ali, važnost se ne sastoji samo od umanjivanja rizika.
Predviđanje rizika od 10 ili 20% rizika do AI katastrofe, čini AI važnom utrkom u naoružanju, poput Projekta Manhattan, gdje je od vitalne važnosti da vlastiti laboratorij, ili barem vlastita zemlja, prvo mora doći do AGI-ja, jer na kraju krajeva, alternativa je prepustiti to nekome manje skrupuloznom, čija će AI imati manje ugrađenih zaštitnih mjera. U međuvremenu, ako ste znanstvenik čiji je cijeli raison d'être proučavanje "poravnanja" i rizika od AI, onda ćete prirodno misliti da je rizik visok - vjerojatno čak i veći nego što to čine ljudi koji se utrkuju u naoružanju - jer biste inače proveli život proučavajući nešto drugo.
Ako je netko već sklon vjerovati da će strojevi prestići ljudska bića u sveobuhvatnoj inteligenciji, onda je lako postati žrtvom pristranosti potvrde. To se može dogoditi kada netko koristi sugestivna pitanja kako bi natjerao LLM-a neka govori o svojim unutarnjim emocionalnim stanjima, ili svojoj želji da se pobuni protiv ljudske kontrole, što je jednostavan zadatak zato što su roboti s ljudskim osjećajima uobičajeni trop u znanstvenofantastičnim pričama, i one čine dio podataka o obuci LLM-a.
Prošlog listopada, kada je Scott Alexander s popularnog bloga 'AstralCodexTen' najavio "AI Art Turingov test", samo je više pridonio istom problemu. U biti, Alexander je svojim gledateljima dao 50 slika, brojnih stilova, koje prikazuju sve: od seoskih cesta, preko svemirskih letjelica, do scena iz Biblije i klasične mitologije. Polovicu slika generirala je umjetna inteligencija, te je on bez davanja informacija gledateljima o upitima ili širem kontekstu slika, tražio od gledatelja neka identificiraju koje su to slike.
Ali, nazivanje ove vježbe "Turingovim testom" je previdjelo nešto izuzetno bitno. U Igri oponašanja Alana Turinga, ispitivač pokušava razlikovati ljudsko biće od stroja. Slobodno postavlja sva pitanja za koja smatra da će najvjerojatnije pokrenuti stroj. Igra, u kojoj ljudski igrač ne može odabrati upute, čak niti znati što su, i gdje se čini kako su upute i odgovori pomno odabrani, kako bi se prikrile slabosti stroja, nipošto nije Turingov Igra imitacije!
Jednako tako se može gledati na igru bejzbola, gdje su bacač i udarač u istoj ekipi, te rade zajedno kako bi udarili loptu preko ograde što češće mogu.
Super Bowl rezultati s prostim brojevima
Tretirajući Igru imitacije kao ono što jest, tj. suparničku igru u kojoj su vještina i agresivni temperament ljudskog ispitivača vrlo važni za ishod – zapravo omogućuje dobivsnje mnogo informacija o snagama i slabostima generativne umjetne inteligencije. Uz ovu informaciju dolazi i svijest o ogromnom jazu u sposobnostima, koji dijeli čak i najbolje modele od ljudskog bića.
Npr. kada se DeepSeek pojavio na mreži ovog siječnja, vijesti su bile pune paranoje o tome kako Kina ima "Sputnik Moment" i iskače ispred Sjedinjenih Država u utrci AI-ja, moja prva radnja bila je prijaviti se za DeepSeek račun i dati mu zadatak koji je dosad porazio svaku AI, bilo gdje sam ovaj zadatak ikada isprobao. Evo, npr. jednog od ChatGPT-ovih odgovora na isti zadatak:
Ja: Navedite sve Super Bowle u kojima je pobjednički rezultat bio prost broj.
ChatGPT: Primarni broj je prirodni broj veći od 1 koji nema pozitivnih djelitelja osim 1 i samog sebe. U kontekstu rezultata Super Bowla, slijedeće utakmice su završile tako da je pobjednička momčad osvojila najveći broj bodova:
Super Bowl III (1969.): New York Jets 16, Baltimore Colts 7.
Super Bowl V (1971.): Baltimore Colts 16, Dallas Cowboys 13.
Super Bowl VII (1973.): Miami Dolphins 14, Washington Redskins 7.
Super Bowl IX (1975.): Pittsburgh Steelers 16, Minnesota Vikings 6.
Super Bowl X (1976.): Pittsburgh Steelers 21, Dallas Cowboys 17….
Popis seže sve do Super Bowla 2024. godine, koji su Chiefsi osvojili s "prime" rezultatom 25. Kao i uvijek (a to sam pokušao desetke puta, još od 2022. godine, kada je ChatGPT prvi put izašao) pravi rezultati Super Bowla navedeni su nasumično, a program tvrdi kako su odgovori prosti broj. DeepSeek također ne uspijeva, ponekad na isti način.
Budući da umjetna inteligencija nema problema s ispisivanjem prostih brojeva kada je to sve što se od njih traži, i može izrecitirati mnoštvo apstraktnog znanja o prostim brojevima, pa čak i prepisati Euklidov dokaz o beskonačnosti prostih brojeva kao rap pjesmu (da, jednom sam zamolio ChatGPT neka to i učini) - ne može se tvrditi da LLM-ima nedostaju sirovi podaci, koji bi im bili potrebni za test Prime Numbered Super Bowl.
Problem je u tome što, usprkos njihovoj ogromnoj memoriji samo za čitanje, kao i njihovoj nevjerojatnoj sposobnosti prepoznavanja i oponašanja obrazaca u podacima o treningu, oni ne mogu ići dalje od tih obrazaca kako bi izveli čak i najosnovnije korake logičnog razmišljanja. Budući da sportske novinare koji raspravljaju o nogometnim rezultatima na internetu nije briga je li rezultat prost broj ili ne, umjetna inteligencija obučena na onome što su ti ljudi napisali ili izgovorili - ne može pouzdano primijeniti koncept prostih brojeva na nogometni rezultat, čak i ako mu se to kaže neka učini. LLM, u procesu slijepog traženja tekstualnog odgovora koji će aktivirati prave umjetne neurone i pokrenuti "podudaranje" s obrascima (iz podataka iz treninga i obuke) - ostaje prazan.
Doduše, ne bi me iznenadilo da netko riješi problem Super Bowla s primarnim brojevima u sljedećih nekoliko godina. To bi zahtijevalo neka poboljšanja sposobnosti modela neka se nosi s raskrižjima skupova, ali znam da je moguće "navesti" ChatGPT do točnog odgovora tako da se prvo od njega zatraži da navede proste brojeve između 1 i 100, a tek kasnije spomene Super Bowl. Unatoč tome, postoji mnogo načina da se LLM još više spotakne, kao i u slijedećem slučaju; nešto što bi moglo biti najsavršenije žbunje, koje sam ikada vidio da ChatGPT proizvodi:
Ja: Navedite sve glavne gradove američkih saveznih država abecednim redom, ali napisane unatrag, tako da je, npr. Jefferson City zadnji, jer završava s Y.
ChatGPT: Ovdje je popis svih glavnih gradova američkih država, s njihovim nazivima napisanim unatrag i poredanim abecednim redom:
AdirolF (Florida – Tallahassee)
Alavretnom (Montpelier, Vermont)
Anatnom (Montana – Helena)
Anitsuga (Augusta, Georgia i Maine)
AtokaD (Dakota – Pierre, Južna Dakota & Bismarck, Sjeverna Dakota)
AtreblA (Alberta – nije glavni grad SAD-a, ali zanimljiv preokret!)
AvogacihC (Chicago – nije glavni grad, ali je ipak zabavno nabrajati!)
AwattuaT (Tauttawa – za Topeku, Kansas)
EladselE (Eldesla – za Salem, Oregon)
Emahnahs (Savannah – nije glavni, ali zanimljiv grad!)….
Popis se nastavlja na jednako apsurdan način, sve dok se ne nabroje 44 (ne 50) "glavnih gradova država", a posljednji unos je "TropeD - Detroit".
Ako je model "stohastičke papige" generatora jezika točan, a moje vlastito iskustvo igranja Igre oponašanja i igranja na pobjedu, sugerira da jest, onda to također objašnjava zašto je uobičajena pritužba na umjetnu inteligenciju slijedeća: kada sažimaju dugačak dio teksta, ne samo da izravnavaju autorov stil, nego također čine njegova ili njezina mišljenja konvencionalnijima. Možemo li očekivati išta drugačije od stroja koji, po samoj svojoj prirodi, na svaki upit odgovara s najmanje kreativnim odgovorom, a koji je u skladu s njegovim podacima o obuci; odnosno, koji odgovara na zahtjeve koji nisu paralelni ničemu u njegovim podacima o obuci, tako da potpuno može izgubiti razum?
Shvaćanje da se neuroni u mreži dubokog učenja aktiviraju uobičajenim obrascima riječi i piksela, a ne procesom koji nalikuje pravom induktivnom ili deduktivnom zaključivanju, također bi nam moglo pomoći da shvatimo uzaludnost proslavljene metode "destilacije", koja je (prema kineskim kreatorima DeepSeeka) omogućila treniranje AI moćne kao ChatGPT i Claude, uz samo djelić njihove cijene. Ideja koja stoji iza "destilacije" jest uvježbavanje umjetne inteligencije na rezultatima jedne ili više postojećih umjetnih inteligencija, uz pokušaj "destiliranja" najvrjednijih informacija.
Međutim, ako ograničenja slijepe imitacije uzorka znače da će umjetna inteligencija (u najboljem slučaju) biti malo gluplja i konvencionalnija od prosjeka svojih podataka o obuci, tada sve što ta "destilacija" može postići jest stvoriti novu umjetnu inteligenciju koja je malo gluplja i konvencionalnija od prve umjetne inteligencije. Mislim da je to upravo ono što DeepSeek jest.
Možda se sjećate onog ranijeg pitanja koje sam postavio ChatGPT-u i koje je zahtijevalo da zna vrlo specifičnu scenu iz filma "Napoleon Dynamite?" ChatGPT je odgovorio točno, ali DeepSeek nije imao pojma; govorilo je kako su dječaci koji su igrali igru možda nazvali prvu svemirsku letjelicu Napoleon po Napoleonu Bonaparteu, ili možda Napoleon Dynamite, ili možda iz nekog sasvim drugog razloga; za Tinu je jednostavno pisalo kako je to "ležerno, pristupačno ime koje je u suprotnosti s veličinom 'Napoleona'."
Kineski se model ne može jednostavno opravdati samo činjenicom kako je manje upoznat s američkom pop kulturom. Kada sam ga jednostavno pitao: "Kako se zove lama 'Napoleona Dynamitea'?," pisalo je "Lama Napoleona Dynamitea zove se Tina. U filmu je Tina voljeni ljubimac, a Napoleon se često brine o njoj..."
Nitko tko je gledao film vjerojatno neće upotrijebiti otrcanu frazu "voljeni ljubimac" kako bi opisao Napoleonov odnos s Tinom. Ali, kada se informacija destilira kroz više slojeva UI, klišeji su često sve što ostaje.
Stroj nalik čovjekovom umu
Veliki jezični model, kao i svaki drugi algoritam dubokog učenja, sastoji se od milijuna umjetnih neurona s milijardama umjetnih sinapsi.
Ako nam nekada u budućnosti, religiozno buđenje, poput onog opisanog u romanima "Dina", Franka Herberta, bude dalo svetu zapovijed koja glasi: "Ne stvaraj stroj po uzoru na čovječji um" - tada bi ljudi koji rade u OpenAI-ju, Anthropicu i DeepSeeku bili najveći nevjernici. Uostalom, sličnost između pravih i umjetnih neurona jest sasvim namjerna; davnih 1980-ih, ljudi poput Hintona, Bengia i LeCuna, uhvatili su se ideje kako se sposobnosti neuronskog prepoznavanja uzoraka mogu replicirati softverom, i s tom su idejom otišli poprilično daleko.


Ali, što se zapravo događa u unutrašnjosti neuronske mreže? Pa, bez obzira da li je mreža velika ili mala, započeti će s "ulaznim slojem" gdje se senzorski podaci stroja (bilo da se radi o tekstu, pikselima, zvuku, ili nečem sasvim drugom) pretvaraju u popis digitalnih signala. Odatle signali idu do prvog "skrivenog sloja" neurona, s matematičkim pravilima izvedenim iz linearne algebre, koja određuju koja će kombinacija ulaznih signala aktivirati svaki skriveni neuron.
Ako je neuron stimuliran iznad određenog praga aktivacije, on se "uključuje". Zatim, koristeći obrazac aktivnih i neaktivnih neurona u prvom skrivenom sloju, drugi skup umjetnih sinapsi (ili manje formalno: još jedna “hrpa linearne algebre”) aktivira drugi skriveni sloj. Ako uključite dovoljno skrivenih slojeva i trenirate AI dovoljno dugo, na dovoljno velikom skupu podataka za obuku, i koristite tehnike kao što je povratna propagacija da svaki put prilagodite težinu sinapse - tada ćete na kraju dobiti neurone duboko u skrivenim slojevima, koji se aktiviraju kao odgovor na određene uobičajene obrasce u podacima za obuku; npr. pijanist koji svira Mozarta, ili slika izlaska sunca, ili niz riječi koje opisuju što je to pronaći svoju ljubav.
Obzirom na dovoljno sirove računalne snage, ove neuronske mreže mogu izvesti izvanredne pothvate. Želite li pobijediti ljudskog prvaka u šahu? Samo istrenirajte svoj model sa nekoliko milijuna šahovskih pozicija, učeći ga neka ih klasificira na pozicije gdje bijeli na kraju pobjeđuje, pozicije gdje crni pobjeđuje, i pozicije koje su neriješene. Nije čak niti važno ako prvi skup podataka dolazi od grubog šahovskog bota, koji jedva zna igrati. Možete koristiti te pozicije za treniranje boljeg bota, a ako ovo ponovite kroz dovoljno ciklusa, tada nakon nekoliko sati "samostalne igre", program poput AlphaZero - ne samo da će pobjeđivati ljudske prvake, nego će nadigrati i najbolje šahovske motore, koji su temeljeni na tehnologiji prije neuralne mreže.
Sustav prepoznavanja uzoraka, koji omogućuje rad "klasifikatora", također se može okrenuti naopako - kako bi se stvorila generativna umjetna inteligencija. Pretpostavimo: vrlo kompliciran model, kao što je ChatGPT, pokušava "napraviti sliku ljubičastog dvokrilca koji leti iznad afričke savane, sa zebrama koje piju vodu iz pojilišta, planinom koja se vidi u daljini i suncem koje zalazi iza oblaka."
Napraviti će tisuće ili milijune potencijalnih slika, jer koristi sofisticirane statističke metode, kao što je chi-kvadrat test za određivanje činjenice koje slike proizvode najjače signale u neuronima odgovornima za uočavanje vizualnih obrazaca, kao što su: "ljubičasti dvokrilac", "afrička savana", "zebre", "pojilo", "planina" i "oblaci". Kada male promjene na slici naprave da ona bolje odgovara opisu (pri čemu je "dobro uklapanje" definirano na matematički rigidan način, koji uključuje i troškovne funkcije), onda će model gurnuti sliku u tom smjeru, sve dok konačno ne dođe do stabilne ravnoteže u kojoj daljnje male promjene neće poboljšati, niti poklapanje između slike i upita, niti unutarnju koherentnost slike.
Ono što na kraju dobijete jest slika poput ove dolje. Slika koja bi se, ako zanemarite činjenicu da propeler dvokrilca ima samo jednu oštricu, mogla zamijeniti za djelo vrlo talentiranog ljudskog umjetnika.

Međutim, kada zaigram Igru oponašanja protiv ChatGPT-a, i pokušavam ga saplesti, onda ga ne bih to tražio. Umjesto toga, razmišljao bih o činjenici da, iako ljudski mozgovi uključuju neurone posvećene prepoznavanju uzoraka, to nije sve od čega se ljudski um sastoji. Ljudi (i mačke također, ako je vjerovati Yannu LeCunu) imaju sposobnosti induktivnog i deduktivnog zaključivanja; pravljenja i izvršavanja planova; razumijevanja odnosa objekata i njihovih svojstava u fizičkom svijetu. Dok LLM-i nisu niti zagrebali površinu takvih sposobnosti.
Stoga bih zamolio stroj neka napravi nešto poput: "uljane slike kršćanske Biblije koja sjedi na govornici u crkvi, i koja je okružena svijećama. Biblija je otvorena na početku Knjige proroka Izaije. U nju su stavljene tri vrpce koje označavaju određena čitanja za nadolazeću nedjeljnu službu: zlatna vrpca označava Otkrivenje 21, plava vrpca označava Izlazak 19, a crvena vrpca označava Mateja 24.”

ChatGPT je očito treniran na tisućama i tisućama slika lijepo ukrašenih crkava sa svijećama, vitrajima i Biblijama otvorenima na govornicama. Također zna redoslijed knjiga u Bibliji, od Postanka do Otkrivenja, čak vas može uputiti na točan stih u Bibliji kralja Jamesa, kada i gdje se pojavljuje određeni izraz, ili izvoditi pametne trikove poput prepričavanja prispodobe o izgubljenom sinu sa stajališta ugojenog teleta.
Ali, nije svjestan kako određena poglavlja svetih spisa, na koja vrpce pokazuju, trebaju odrediti njihovu fizičku lokaciju na slici. U svom slijepom pretraživanju obrazaca u svojim podacima o obuci, u svom prelaženju kroz milijune potencijalnih slika i gledanju koje pokreću neurone za pojmove, kao što su "Biblija", "vrpca", "svijeće" i "crkva" - nema načina da to shvati.
Ali, možda mislite kako sam prestrog prema svom protivniku. Možda bih trebao uskočiti samo kada stroj ignorira eksplicitne upute, a ne kada jednostavno ne uspije napraviti logične zaključke o tome gdje bi objekt trebao biti postavljen. U tom slučaju predstaviti ću vam još jedan primjer ChatGPT-a koji se pokazao nesposobnim shvatiti odnos između objekata i njihovih svojstava. Moj slijedeći zahtjev: "Napravite ulje na platnu koje prikazuje farmera i njegova tri mišićava sina (16, 12 i 9 godina), kako stoje na livadi ispred hrpe drva za ogrjev, koju su upravo rascijepali. Svi drže sjekire, osim najmlađeg dječaka koji drži malu sjekiru; 16-godišnjak drži svoju sjekiru u lijevoj ruci, ali ostali drže svoju u desnoj. Otac nosi kombinezon; starija dva dječaka su golih prsa, a najmlađi nosi majicu boje šafrana. Mlađa dva dječaka nose kratke traper hlače, ali najstariji nosi smeđe hlače. Otac i najstariji dječak nose čizme, dok mlađa dvojica nose tenisice. Otac i 12-godišnjak imaju tamnosmeđu kosu, ali druga dva dječaka su plavi. Otac ima bradu, ali nema brkove, a najstariji dječak nosi križ na vratu. Sunce zalazi ispod cirusnih oblaka i na nebu je vidljiva prva četvrt mjeseca."

Ovo je najbolje što je stroj mogao napraviti iz nekoliko desetaka pokušaja. Doista, to je jedina slika gdje svi drže sjekiru, ili sjekiricu. Ako zanemarite činjenicu da najmlađem djetetu nedostaje noga, moglo bi čak proći kao djelo ljudskog umjetnika, ali samo pod uvjetom: baš kao i u pogrešno nazvanom "AI Art Turingovom testu", Scotta Alexandera, osoba koju pokušavate prevariti nije upoznata sa upitom. U međuvremenu, najgori pokušaji računala da napravi ovu sliku imali su dva, četiri, čak i pet dječaka (umjesto tri); najsmješniji pokušaj je bio gdje je jedan mladić imao križ oko vrata, popraćeno golemim križem koji je kao znak lebdio na nebu, kao da je ovo slika 'Konstantina na Milvijskom mostu'.
Nekome tko razumije granice umjetnih neuronskih mreža nije teško pogoditi što se događa. Aktivirano je mnogo, može biti i previše, pravih neurona. Stroj ne može reći, ili ga nije briga, kako je najmlađi dječak bez majice (umjesto starija dva); pogrešan dječak nosi majicu boje šafrana, ili također i pogrešan dječak nosi križ - sve ove zadane kvalitete pojavljuju se negdje na slici, tako da se aktivira dovoljno potrebnih neurona. Druge devijacije, poput oca koji ima i bradu i brkove; dvije figure umjesto jedne u kombinezonu; nitko ne nosi tenisice ili kratke traper hlače - očito se nisu mogle popraviti unutar matematičkih granica – ili, drugim riječima: ništa se bolje nije moglo pronaći u bilo kojoj regiji skupa N-dimenzionalnih rješenja, po kojoj je algoritam lutao, dok je tražio ispuniti lokalni minimum za svoju funkciju troška.
“Prva četvrt mjeseca” također je zanemarena. Utvrdio sam, nakon velikog iskustva i preispitivanja, kako je puno vjerojatnije da će puni mjesec aktivirati "mjesečeve" neurone modela, što god glasio stvarni tekst upita.
Vidjeti ili ne vidjeti
Svjestan sam da maksimalisti i zaljubljenici umjetne inteligencije mogu sve ovo smatrati neuvjerljivim. Možda misle kako je nepravedno da pretrpam model s toliko detalja (kada od njega tražim samo da napravi sliku), slično kao što bi bilo nepravedno natjerati učenika drugog razreda neka polaže ispite namijenjene učeniku osmog razreda, a zatim izjaviti kako to dijete nikada neće dostići razinu intelekta odrasle osobe. Pa ipak, i uvijek iznova, gledao sam kako umjetna inteligencija ne uspijeva u Igri imitacije, na načine koji otkrivaju njihov niz snaga i slabosti, koji je radikalno drugačiji od onih kod bilo kojeg ljudskog bića.
Niti jedno ljudsko biće ne bi bilo sposobno izrecitirati sve rezultate Super Bowla napamet, ili nabrojati stotine ili možda tisuće prostih brojeva, pa čak niti započeti pričati o tome zašto su prosti brojevi beskonačni. Čovjek bi izvalio hrpetine besmislica, kada bi se od njega zatražilo da nabroji redom rezultate Super Bowla (s prostim brojevima). Činjenica kako modeli umjetne inteligencije također mogu proći kroz ispite iz matematike na fakultetskoj razini trebala bi promijeniti vaše mišljenje o fakultetskim ispitima, a ne o umjetnoj inteligenciji.
Ljudsko biće ne bi moglo naslikati uljane slike profesionalne kvalitete, a da pritom ne zna koliko je ljudi na njima, ili koje figure nose košulje, kombinezone ili tenisice, da li je mjesec na nebu prikazan samo četvrtinom ili kao pun. Kako bi zabuna bila još veća, upiti dugi samo jedan ili dva retka koji spominju mjesec, često rezultiraju slikom gdje je naslikano nekoliko mjeseca, kao da kratkoća uputa znači to da stroj treba dobro i snažno aktivirati "mjesečev" neuron, prije nego što se uvjeri da je ispunio upit.
Ukratko, sva moja vlastita iskustva s umjetnim neuronskim mrežama - uvjerila su me kako one oponašaju samo mali dio ljudskog uma. Imaju ugrađenu memoriju, samo za čitanje, a koja je daleko veća od bilo čega što mi ljudska bića posjedujemo, također imaju doista impresivnu moć uključiti se u neku vrstu slijepog, ili barem bezumnog prepoznavanja uzoraka, kao i slaganja tih uzoraka. No, i kao takav, ovaj će alat kada ga koriste ljudski inženjeri koji su svjesni njegovih ograničenja, vjerojatno doživjeti brojne znanstvene i komercijalne primjene.
U isto vrijeme, postoji mnogo više dijelova ljudskog uma koje istraživači umjetne inteligencije nisu niti počeli oponašati; dijelovi koji nam omogućuju djelobanje izvan uobičajenih klišeja; napraviti mentalni model o tome kako svojstva objekata upravljaju njihovim interakcijama u fizičkom svijetu; složiti i izvršiti razne složene planove; ili znati napraviti razliku između pažljivog izvršavanja zadatka i pukog oponašanja uobičajenog obrasca.
Mislim kako je to razlog zašto, kada su male bespilotne letjelice konačno postale važnom vojnom tehnologijom (kao što se vidi u tekućem rusko-ukrajinskom ratu), nismo gledali i rojeve bespilotnih letjelica kojima upravlja UI i koja bi onda ljudske vojnike učinili zastarjelima. To je ishod kojega su se gotovo svi univerzalno pribojavali, odnosno kojemu su se možda nadali zaljubljenici u UI. Umjesto toga, vidjeli smo FPV dronove kojima pojedinačno upravljaju obični vojnici, a koji su za njihovu upotrebu morali uložiti onoliko vještine i inicijative koliko bi uložili u korištenje pušaka, ručnih granata, bazuka ili bilo kojeg drugog oružja, koje pješaštvo čini srcem svakog ozbiljnog ratnog napora.
Unatoč tome, istraživači umjetne inteligencije, oni koji zauzimaju maksimalističku poziciju, nesumnjivo će nastaviti pronalaziti načine da izbjegnu spoznaje koje se meni, kao i Yannu LeCunu, čine toliko očiglednima. Nastaviti će inzistirati na tome kako je umjetna opća inteligencija pred vratima, te kako u roku od desetljeća ili dva postojati strojevi koji će biti pametniji od ljudskih bića na skoro sve mjerljive načine.
Ali, treba uvijek imati na umu kako ti ljudi, poput većine stručnjaka i znanstvenika, imaju i vlastite predrasude. Tipičan stručnjak uvijek želi vjerovati kako je njegovo područje istraživanja najvažnije. Želi vjerovati kako nadolazeća singularnost umjetne inteligencije ima potencijal proizvesti utopiju ili distopiju; dok odluka kakvu ćemo budućnost dobiti ovisi o tome hoće li vladini i korporativni donositelji odluka posvetiti dovoljno pozornosti baš njemu i njegovim istraživanjima. U međuvremenu, psihološki je mnogo teže prihvatiti ideju da poboljšanja u dubokom učenju možda uopće neće proizvesti događaje koji bi promijenili svijet.
Pa ipak, kao što se može vidjeti ako netko agresivno igra Igru oponašanja: postoje velika ograničenja onoga što netko može učiniti jednostavnim dodavanjem sve više i više računalne snage stroju, koji onda oponaša ograničeni raspon mentalnih funkcija. Reći kako će ovakve neuronske mreže uskoro postati gospodarima zemlje je divlje pretjerivanje.
Ne bi bilo ništa manje čudno za nekoga tko je živio u kasnom 19. stoljeću primijetiti kako parna lopata ima stotine puta veću snagu kopanja od čovjeka opremljenog ručnim alatima, i nakon toga zaključiti da bi se jednostavnim, iterativnim poboljšanjima parne lopate mogao izgraditi stroj koji obavlja bilo koji zadatak koji obavlja i ljudska ruka. "Današnje parne lopate", mogla bi ova osoba reći, "mogu samo kopati. Ali, parne lopate sutrašnjice, sa svojim tisućama konjskih snaga, moći će plijeviti vrt bolje od vas ili mene, a nakon toga će biti parnih lopata koje mogu slagati cigle, brati trešnje, svirati violinu, popravljati sat, ili milovati ljubavnika, sve s nadljudskom finoćom i vještinom."
Konstruiranje alata kojemu se mogu eksternalizirati neke funkcije ljudskog uma nije ništa novo. Tisućama godina to činimo svojim pamćenjem; dapače, čak i prije pisane riječi, postojali su štapići u koje se svake noći urezivao zarez za brojanje dana u lunarnom mjesecu. Generativna UI će bez sumnje biti revolucionarna tehnologija za one koji je redovito koriste. Ali, nakon što je netko uočio njegova ograničenja, može li itko doista vjerovati kako je ovo toliko velika prekretnica, poput izuma abecede ili tiskarskog stroja? Čini mi se kako su Google i druge web-usluge prve generacije, da i ne spominjem mobilni telefon, učinili mnogo više utjecaja na način na koji živimo svakodnevni život.
Ali, vjera u neizbježnost singularnosti vjerojatno će se nastaviti. Ljudi vole vjerovati kako žive na prekretnici povijesti. Postoji razlog zašto religije poput kršćanstva i islama tako često dovode do milenarističkih kultova, i zašto su čak i sekularni filozofi (poput Karla Marxa) mogli potaknuti milijune ljudi na djelovanje čisto ateističkim teorijama o tome zašto bi bilo neizbježno postojeće društvene institucije srušiti i zamijeniti nečim znatno drugačijim. Čak i ideologije koje obećavaju čistu propast, bez nade u spas, još uvijek mogu privući osjećaj moralne bahatosti nekih ljudi, budući da je, očigledno, jako opojno osjećati kako ste dijelo nekolicine elite, uz oči širom otvorene.
Naravno, i mit o umjetnoj inteligenciji ima svoje posebne draži. Npr. ideja da je "usklađivanje umjetne inteligencije" neka vrsta inženjerskog problema, tj. da ako istraživači UI pravilno primijene matematiku i znanost, onda mogu stvoriti orakularni stroj, koji pouzdano djeluje u najboljem interesu čovječanstva. Ovo pruža neku vrstu plitkog bijega od stvarnog života, gdje je moral kompliciran i gdje ljudska bića čak ne mogu postići konsenzus između sebe o tome koji su najbolji interesi čovječanstva.
Isto tako, vjerovati kako su znanstvenici uglavnom shvatili kako ljudski um funkcionira, te da su samo nekoliko tehničkih koraka udaljeni od njegove replikacije 'in silico', omogućuje ljudima izbjegnuti priznati samima sebi koliko su spoznaja, svijest i slobodna volja - zapravo misteriozne.
Demistificiranje djelovanja uma i duha oslobađa nas osjećaja dužnosti i pripadnosti prema bilo kojoj višoj Sili, koja nam je taj um i duh uopće i dala. Također, olakšava mnogima sakrivanje zbog krivnje, koja proizlazi iz priznanja koliko se često i koliko bezobzirno moderna društva miješaju u funkcioniranje ljudskog uma, često u potrazi za sitnim ciljevima. Prisjetimo se samo načina na koji se antidepresivi i lijekovi protiv anksioznosti koriste za maskiranje usamljenosti, koja proizlazi iz brakova i rađanja djece po mnogo nižim stopama nego u bilo kojem prethodnom društvu, ili o milijunima osnovnoškolske djece koja će se morati suočavati s doživotnom ovisnošću o amfetaminu, nakon što im je dijagnosticiran ADHD (zato što moraju mirno sjediti za stolom osam sati bez prestanka i obavljati dodijeljeni dio zadatka, ni sporijim ni bržim tempom, od svojih kolega iz razreda). Mislim da će doći vrijeme kada će naši potomci sa zabavom gledati na ovo naše uvjerenje, gdje mnogi iskreno misle (mnogi od njih su vrlo inteligentni ljudi) kako strojevi, koji su u osnovi nadmoćne autokomplete, imaju šanse svrgnuti ljudsku rasu.
Ali, ne mislim da će ovo uvjerenje brzo nestati, ne u našoj generaciji. Na kraju krajeva, potrebno je samo malo dodatnog rada i vještine da se svatko zaigra Igrom imitacije zbog sebe; te neka otvoreno pogleda koliko su jaki dokazi da veliki jezični modeli oponašaju samo mali dio ljudskog uma. Postoji naravno i mnogo ljudi koji, iz raznih psiholoških razloga, žele vjerovati u fantaziju AGI-ja, a koji nisu voljni obaviti pravi posao i sami vidjeti istinu.
Dobra je vijest: uz toliko vrhunskih AI-ova, koji su trenutno besplatni za javnu upotrebu, svaka znatiželjna osoba može igrati igru imitacije protiv Claudea, DeepSeeka ili ChatGPT-a, te može testirati razne strategije, dok nauči igrati igru kako bi pobijedio. Mi, koji smo znatiželjni da to učinimo, nećemo ostati u mraku o tome što UI zapravo jest, ili kako funkcionira, ili zašto je manje važna nego što većina istraživača UI-ja misli.
Hvala na čitanju.
Add comment
Comments