NABROJAO RAZLIKE

Noam Čomski o umjetnoj inteligenciji: To je lažno obećanje, nije nadmašio ljudski um

ChatGPT pokazuje nešto poput banalnosti zla: plagijatorstvo, apatiju i izbjegavanje, rekao je

Noam Čomski. AP

A. K. / New York Times

26.3.2023

Intelektualac Noam Čomski (Chomsky), otac moderne lingvistike, kako ga nazivaju, za New York Times napisao je članak o ChatGPT-u u kojem je pobrojao sve u čemu se ljudski um razlikuje od umjetne inteligencije, a programe kao ChatGPT nazvao "lažnim obećanjem".

- Dan kada će mehanički umovi nadmašiti ljudske mozgove može doći, ali on još nije tu, iako to možemo pročitati u pretjeranim medijskim natpisima i naslutiti iz nerazboritih ulaganja u tu industriju - napisao je Čomski u članku koji potpisuje s kolegom profesorom Ianom Robertsom.

Sve vještiji

OpenAI-jev ChatGPT, Googleov Bard i Microsoftov Sydney čuda su strojnog učenja, kaže Čomski Oni uzimaju ogromne količine podataka, traže uzorke u njima i postaju sve vještiji u generiranju rezultata nalik ljudskom jeziku i misli.

- Ali, koliko god ovi programi bili korisni u nekim uskim domenama, u računalnom programiranju, na primjer, ili predlaganju rima za lagane stihove, mi znamo iz lingvistike i epistemologije da oni razum i jezik ne koriste na isti način kao ljudi - navodi.

Čomski je pobrojao nekoliko konkretnih stvari na kojima se vidi kako se funkcioniranje programa umjetne inteligencije razlikuju od načina na koji čovjek misli i shvaća.

Učinkovit sistem

Ljudski je um iznenađujuće učinkovit i elegantan sistem koji radi s malim količinama informacija. ChatGPT, s druge strane, glomazan je statistički mehanizam za pronalaženje uzoraka. On mora progutati stotina terabajta podataka da bi došao do najvjerovatnijeg odgovora.

Čomski daje primjer gramatike. 

- Malo dijete jezik usvaja nesvjesno, automatski i brzo iz male količine podataka i uz minimalnu izloženost informacijama -  navodi. 

Pritom je gramatika, kao sistem logičkih principa, zapravo “operativni sistem ” čovjeka, urođeni ljudski program koji mu omogućava izražavanje misli. Za razliku od glomaznog programa ChatGPT-a koji se trenira na ogromnim količinama podataka, svako dijete svoj program gradi instinktivno i bez puno informacija. Odlika je ljudskog uma “beskonačno korištenje s konačnim sredstvima”.

Uzočne veze

Umjetna inteligencija ne može ponuditi objašnjenje. Na primjer, ako iz ruke pustimo jabuku i posmatramo rezultat kažemo “jabuka pada.” To je opis. Iz toga možemo napraviti predviđanje: “Jabuka će pasti ako otvorim ruku”. 

Opis i predviđanje, kaže Chomsky nije ništa posebno, to može i umjetna inteligencija. Ali, samo je čovjek sposoban za sljedeći zaključak “ako jabuka pada, to znači da bi svaki takav objekt pao ako ga pustim iz ruke”. I na kraju za uzročno objašnjenje što je znak prave inteligencije: “jabuka pada zbog sile gravitacije”. Dakle, kaže Čomski, konačno objašnjenje “jabuka ne bi pala da nema sile gravitacije” – je razmišljanje. Umjetna inteligencija to ne može.

Moguće i nemoguće

Sistemi računarskog učenja mogu naučiti da je Zemlja ravna i da je Zemlja okrugla. Ljudi su ipak ograničeni u vrstama objašnjenja koja mogu racionalno pretpostaviti. 

Konkretno, navodi on primjer naučne metode. Sistemi umjetne inteligencije mogu dati neka tačna “znanstvena” predviđanja, recimo, o kretanju fizičkih tijela, ali to čine bez korištenja objašnjenja poput Njutnovih zakona kretanja i univerzalne gravitacije. 

Međutim, navodi Čomski, takva su predviđanja, čak i kad su uspješna, zapravo pseudoznanstvena. Naime, kako je to primijetio filozof Karl Poper (Popper), naučna teorija treba dati predviđanja koja se mogu testirati, a teoriju treba odbaciti ako se pokaže da ta predviđanja nisu točna. ChatGPT sva svoja predviđanja radi “mariniranjem” u velikoj količini podatka.

Moralno rasuđivanje

Prava inteligencija sposobna je za moralno rasuđivanje. Tačnije, čovjek može svoju neograničenu kreativnost ograničiti skupom etičkih načela koja određuju što bi trebalo, a što ne bi trebalo. ChatGPT se također mora kloniti moralno nepoželjnog sadržaja. 

Primjerice, Microsoftov Tay chatbot (preteča ChatGPT-a) preplavio je internet mizoginim i rasističkim sadržajem nakon što je razgovarao s korisnicima Twittera. 

Da ChatGPT slučajno ne bi izletio s nečim kontroverznim, a kako nije sposoban rasuđivati na temelju moralnih načela, programeri su ga grubo i striktno ograničili od bilo kakvog nepoćudnog sadržaja. Time se, smatra Čomski, žrtvovala njegova kreativnost za neku vrstu amoralnosti.

Teški razgovori

ChatGPT je u svom trenutnom stanju nesposoban kritički razmišljati i često se cenzurira što znači da ne može voditi teške razgovore koji su doveli do velikih otkrića u nauci, kulturi i filozofiji, kaže Čomski.

Što je možda i bolje. Jer bi netačnosti koje povremeno nudi pod odgovore mogle doprinijeti širenju teorija zavjere, a postoji rizik da osobu koja ga koristi primora na neke opasne odluke

- ChatGPT pokazuje nešto poput banalnosti zla: plagijatorstvo, apatiju i izbjegavanje. Sažima standardne argumente u literaturi nekom vrstom super-autocompletea, odbija zauzeti stav o bilo čemu, poziva se na neznanje i na nedostatak inteligencije, a na kraju navodi i da ‘samo slijedi naredbe‘ prebacujući odgovornost na svoje kreatore - zaključuje Noam Čomski.

Video
Vlasnik autorskih prava © avaz-roto press d.o.o.
ISSN 1840-3522.
Zabranjeno preuzimanje sadržaja bez dozvole izdavača.