Eksperiment s chatbotom na bazi umjetne inteligencije propao je u roku od 24 sata. Evo zašto

Tay je u vrlo kratkom roku postala jedan od problematičnih tviteraša

Eksperiment Microsoftovih inženjera sa softverom za online komunikaciju na bazi umjetne inteligencije (ne)slavno je propao nakon samo 24 sata.

Microsoft je napravio takozvani chatbot, softver na bazi umjetne inteligencije za komunikaciju nazvan Tay. Cilj je bio istražiti mogućnosti automatizirane komunikacije u formi neobaveznog i zabavnog razgovora s ostalim korisnicima na Twitteru, a ciljana publika bila je populacija od 18 do 24 godine.

U samo jedan dan Tay je imala preko 50 tisuća pratitelja i više od tisuću tvitova. Kako piše na njezinom Twitter profilu, što više komunicirate s Tay, to ona postaje pametnija. Međutim, dogodilo se upravo suprotno.

Tay je ubrzo u online razgovoru s drugim tviterašima počela osporavati holokaust, zagovarati genocid, veličati Hitlera i vrijeđati žene, pa je većina problematičnih tvitova odmah obrisana.

Nakon što su se zaredale pritužbe korisnika, Microsoft je obustavio projekt. “Nažalost, u prvih 24 sata online postali smo svjesni koordiniranog truda nekolicine korisnika koji su zloupotrijebili njezine komunikacijske vještine i naveli je na davanje neprimjerenih odgovora”, poručili su.