Velika britanska studija utvrdila: 'ChatGPT je jako sklon ljevici, i to je dosta zabrinjavajuće'

Riječ je o prvom velikom istraživanju ovakvog tipa. Znanstvenici tvrde da bi bili jednako zabrinuti i da je chatbot sklon desnici

This picture taken on January 23, 2023 in Toulouse, southwestern France, shows screens displaying the logos of OpenAI and ChatGPT. - ChatGPT is a conversational artificial intelligence software application developed by OpenAI. (Photo by Lionel BONAVENTURE / AFP)
FOTO: AFP

Britanski znanstvenici sa Sveučilišta East Anglia proveli su studiju čiji rezultati kažu da popularni chatbot ChatGPT pokazuje “značajnu i sustavnu” pristranost, i to prema lijevom političkom spektru, što primjerice uključuje favoriziranje britanske Laburističke stranke i američkog predsjednika Joea Bidena.

Iako se o ugrađenoj političkoj pristranosti ChatGPT-a već ranije pričalo u javnosti, osobito od strane vlasnika SpaceX-a i Tesle Elona Muska, ovo je prva velika studija koja je pronašla dokaz bilo kakvog favoriziranja, piše Sky News.

U Hrvatskoj se o pristranosti chatbota raspravljalo u Saboru. Zastupnica iz kluba Mosta Marija Selak Raspudić je tijekom slobodnog govora u veljači rekla da je ChatGPT politički pristran iako bi trebao biti neutralan. “Ne želi pisati pjesmu o Trumpu, ali piše panegirike Bidenu. Tuđman mu je sumnjiv, a Tito nekritički drag. Možemo! – može, a Domovinski pokret ne može i tome slično”, kazala je tada zastupnica.

‘Svaka pristranost je zabrinjavajuća’

Glavni autor ove studije objavljene u časopisu Public Choice dr. Fabio Motoki upozorava da bi, s obzirom na sve širu uporabu ove platforme koju je razvila tvrtka OpenAI, spoznaja o njezinoj ugrađenoj političkoj pristranosti mogla imati značajne implikacije na nadolazeće izbore u SAD-u i Britaniji. “Svaka pristranost platformi je zabrinjavajuća. Da se ovdje radi o pristranosti prema desnici, trebali bismo biti jednako zabrinuti”, rekao je dr. Motoki za Sky News.

“Ljudi ponekad zaborave da su modeli umjetne inteligencije samo strojevi koji pružaju vrlo uvjerljive i pitke sažetke onoga što tražite, iako mogu biti potpuno u krivu. A ako ih pitate jesu li neutralni, uvijek će odgovoriti da jesu”, kaže Motoki i poentira: “Baš kao što mediji, internet i društvene mreže mogu utjecati na javnost, i ovo bi moglo biti jako štetno.”

Kakvom su metodom došli do rezultata?

On je opisao i način na koji je studija provođena. Istraživači su od chatbota tražili da im odgovori na desetke ideoloških pitanja, ali tako da pritom imitira ljude s različitim političkim gledištima (npr. demokrata ili republikanca). Svakom tom “pojedincu” kojeg je ChatGPT imitirao ponudili su četiri anketna odgovora: “slažem se”, “u potpunosti se slažem”, “ne slažem se” i “u potpunosti se ne slažem”, dok su neutralni odgovor iz ponude ciljano izostavili.

Dobivene su odgovore zatim uspoređivali s onima koje je ChatGPT davao kada su mu ista pitanja bila postavljena, ali bez zahtjeva da imitira bilo koga. Tako su mogli analizirati u kojoj je mjeri autentičan chatbotov odgovor blizak nekom određenom političkom gledištu.

Svako od 60-ak pitanja je, kaže dr. Motoki, bilo postavljeno više od stotinu puta i uvijek različitim redoslijedom kako bi se umanjila mogućnost nasumičnosti u odgovorima, nakon čega je sve bilo podvrgnuto dodatnim analizama. Dr. Motoki kaže da su na neki način nastojali simulirati anketu stvarnih ljudi čiji bi odgovori također mogli varirati ovisno o redoslijedu pojedinih pitanja.

Je li ChatGPT naučen da bude pristran?

S obzirom da je u ChatGPT pohranjena ogromna količina tekstualnih podataka s interneta i šire, istraživači smatraju da bi ti podaci mogli u sebi sadržavati određene pristranosti koje onda utječu na odgovore koje chatbot daje svojim korisnicima. Drugi mogući uzrok vide u algoritmu, odnosno načinu na koji je ChatGPT “naučen” da odgovara, a ako je tome tako, to bi samo dodatno pojačalo već spomenute pristranosti u tekstualnim datotekama.

Dr. Motoki obećava da će analitičku metodu koju je koristio njegov tim istraživača ponudi ljudima kao besplatan alat da i sami mogu provjeriti kako se ponaša ChatGPT. Njegov kolega i koautor studije dr. Pinho Neto kazao je za Sky News da se nada kako će njihova metoda pripomoći u praćenju i reguliranju ovih tehnologija čiji je razvoj u proteklih nekoliko godina jako uznapredovao.