Je li hrvatskom šahistu blokiran YouTube kanal jer softver misli da je razgovor o crnim i bijelim figurama govor mržnje?

Znanstvenici sa Sveučilišta Carnegie istražuju kako se ponaša AI program u takvim slučajevima

FOTO: agadmator's Chess Channel/YouTube/Screenshot

Damin gambit, Netflixova TV serija o šahovskim velemajstorima, možda je potaknula povećani interes za šah, ali čini se da je pokrenula još nešto. Razgovor na društvenim mrežama o crnim i bijelim figurama mogao bi dovesti do nesporazuma zbog softvera za prepoznavanje govora mržnje, piše cmu.edu.

To je ono za što dva znanstvenika sa Sveučilišta Carnegie, smatraju da se dogodilo Antoniju Radiću, hrvatskom šahistu koji vodi popularni YouTube kanal. Prošlog je lipnja njegov račun blokiran zbog “štetnog i opasnog” sadržaja.

Radićev kanal vraćen je u roku od 24 sata

“YouTube to nikada nije objasnio i u roku od 24 sata kanal je vraćen”, kazao je Ashique R.KhudaBukhsh, znanstvenik s CMU instituta jezične tehnologije. Ipak je moguće da je razgovor “crni protiv bijelog” tijekom Radićevog intervjua sa velemajstorom Hikaru Nakamurom pokrenuo softver koji automatski otkriva rasistički govor, sugerira KhudaBukhsh.

“Ne znamo koje alate YouTube koristi, ali ako se oslanjaju na umjetnu inteligenciju za otkrivanje rasističkog govora mržnje, ovo se može dogoditi”, kazao je KhudaBukhsh.” Ako se to dogodilo nekome s tako visokim profilom kao što je Radić, možda se potiho događa i mnogim drugim ljudima koji nisu toliko poznati.

Riječi crna, bijela, napad i prijetnja čine se okidačima

Da bi provjerili da li je to izvedivo, KhudaBukhsh i Rupak Sarkar, inženjer s CMU, testirali su dva vrhunska klasifikatora govora, vrstu softvera umjetne inteligencije koji se može obučiti za otkrivanje indikacija govora mržnje. Pomoću klasifikatora prikazali su više od 680.000 komentara prikupljenih s pet popularnih YouTube kanala usmjerenih na šah.

Zatim su nasumično uzorkovali 1000 kometara koje je barem jedan od klasifikatora označio kao govor mržnje. Kada su ručno pregledali komentare otkrili su da velika većina, 82 posto, ne uključuje govor mržnje. “Upotreba riječi kao crna, bijela, napad i prijetnja čine se okidačima”, kažu.

Točnost AI programa varira s obzirom na korištene primjere

Kao i kod ostalih AI programa, i ovi se klasifikatori obučavaju s velikim brojem primjera i njihova točnost varira s obzirom na korištene primjere. KhudaBukhsh se prisjetio vježbe koju je imao kao student, a čiji je cilj bio identificirati lijene i aktivne pse u nizu fotografija. Mnoge fotografije treninga aktivnih pasa prikazivale su široka travnata prostranstva jer su psi koji trče često bili u daljini.

Kao rezultat toga, program je ponekad prepoznavao slike trave kao primjere aktivnih pasa čak i ako na fotografijama psa nije bilo. U slučaju šaha, mnogi setovi podataka vjerojatno uključuju primjere šahovskog govora što dovodi do pogrešne klasifikacije, objašnjava KhudaBuksh.