Nešto ne valja

Algoritmi YouTubea korisnicima preporučuju i neprihvatljiv sadržaj od kojeg YouTube želi zaštititi korisnike

T.I.

Foto: YouTube

Foto: YouTube

Od videozapisa za koje su ljudi rekli da žale što su pogledali, čak 71% ih je preporučila YouTubeova umjetna inteligencija, odnosno algoritam. U izvješću se također navodi kako je YouTube preporučio ljudima da gledaju i videozapise koje je kasnije uklonio zbog kršenja vlastitih pravila ponašanja



Prema opsežnom istraživanju koje je provedeno na web pregledniku Mozilla, za većinu preporučenih  videozapisa preko algoritama na Youtubeu, gledatelji su požalili što su ih uopće pogledali, a algoritam čak potiče korisnike da gledaju videozapise za koje se kasnije utvrdi da krše njihova vlastita pravila ponašanja, dakle da sadrže nasilje, eksplicitnu golotinju, ekstremne političke stavove ili neprihvatljivo izražavanje, od psovki do govora mržnje.


Mozilla je prošle godine pokrenula RegretsReporter, ekstenziju vlastitog preglednika koje korisnicima omogućuje prijavljivanje videozapisa koji su im preporučeni i za koje nakon gledanja shvate da je bolje da ih nisu ni pogledali.


Prilikom podnošenja izvještaja od korisnika se tražilo da navedu naslov, opis, broj pregleda i ulaznu točku videozapisa (bilo izravnim pretraživanjem ili putem preporučenog sadržaja), s tim da Mozilli mogu pružiti i “trag” o tome kako su stigli do prijavljenog videozapisa.




Deset mjeseci nakon pokretanja RegretsReportera, proširenje je preuzelo 37,380 volontera koji su prijavili da su požalili što su gledali 3,362 videozapisa, a zatim je tim od 40-ak ljudi „obradio“ prijavljene videozapise kako bi pokušao uspostaviti veze između štetnog i neprimjerenog sadržaja i algoritama preporuka.


Od videozapisa za koje su ljudi rekli da žale što su pogledali, čak 71% ih je preporučila YouTubeova umjetna inteligencija, odnosno algoritam. U izvješću se također navodi kako je YouTube preporučio ljudima da gledaju i videozapise koje je kasnije uklonio zbog kršenja vlastitih pravila, a zanimljivo da su videozapisi zbog kojih su ljudi „žalili“ bili popularniji na YouTubeu od onih na koje volonteri nisu imali prigovora.


U gotovo polovici slučajeva činilo se da sadržaj koji je algoritam forsirao nije nimalo povezan s onim što su korisnici prethodno gledali. Primjerice, jedan volonter izvijestio je kako ga se poticalo da gleda ekstremno desničarske videozapise nakon što je prethodno bio pogledao sadržaj vezan o preživljavanju u divljini.


Uz to, algoritam je povremeno preporučivao postove koji krše vlastita pravila YouTubea, nakon čega ih je uklonjeno 189 koji su prijavljeni kao neželjeni preko RegretsReportera, ali tek nakon što ih je kumulativno pogledalo preko 160 milijuna korisnika YouTubea.


YouTube videozapisi mogu se ukloniti iz različitih razloga, uključujući kršenje pravila protiv uvredljivog ili opasnog sadržaja ili kršenja autorskih prava. Ponekad ga i osoba koja je objavila video skine sama, no studija je potvrdila da je YouTube uklonio neke videozapise zbog kršenja svojih pravila nakon što ih je prethodno preporučio.


To je jednostavno bizarno” – rekla je za CNET koautorica studije Brandi Geurkink. “Algoritam preporuka zapravo je radio protiv vlastitih sposobnosti da … nadzire platformu i zaštiti korisnike od neprimjerenog i štetnog sadržaja.”


Mozilla je navodno još 2019. godine od You Tubea tražila da otkrije detalje rada algoritma, no kontinuirano je nailazila na čvrst otpor što je ujedno dalo i dodatan poticaj za projekt RegretsReport.


Istovremeno, RegretsReporter ima svoja ograničenja poput nemogućnosti sprječavanja korisnika da aktivno traže „štetne“ videozapise koji bi doveli do iskrivljenja podataka, a nije ni moguće tvrditi da je skup od nekoliko desetaka tisuća gledatelja reprezentativan za cijelu bazu korisnika platforme.


Ako ništa, nedostaci u metodologiji samo ističu dubinu problema jer bez odgovarajuće transparentnosti platforme, istraživači moraju pribjeći alternativnim, manje pouzdanim metodama kako bi pokušali rasvijetliti osnovni uzrok problema.


“Na YouTubeu je moguće vidjeti broj pregleda nekog videozapisa, ali ne i koliko su puta preporučili taj videozapis” – nastavlja Brandi Geurkink. “Stoga je vrlo teško razumjeti ulogu koju algoritam igra u lošim iskustvima koja ljudi imaju. To je nešto što nas treba brinuti. Nije riječ samo o tome koliko štetnog sadržaja ima platforma, već i o preuzimanju odgovornosti za ulogu koju YouTube alati mogu igrati u dostupnosti ili čak forsiranju štetnog sadržaja.”


Iako ankete koje je navodno proveo Youtube pokazuju da su gledatelji općenito zadovoljni preporukama platforme, tvrtka je priznala da algoritam treba popraviti, i obećala uvesti nove izmjene i dopune.


YouTube ima više od 2 milijarde posjetitelja mjesečno, koji svakodnevno gledaju više od milijardu sati videozapisa. No, na svakih 10,000 pregleda na YouTubeu, u prosjeku 16 do 18 dolazi od sadržaja koji krši smjernice zajednice zbog čega pritisak javnosti raste.


Tijekom saslušanja američkog Senatskog odbora ranije ove godine, senator Chris Coons opširno je ispitivao čelnike YouTubea o netransparentnom radu algoritma preporuka platforme, a prethodno se u Velikoj Britaniji zastupnica Yvette Cooper također posebno pozivala na YouTube kada je pokrenula slično pitanje pred Parlamentom.


Iz Mozille smatraju kako bi YouTube i druge platforme poput Facebooka, Twittera, Reddita, trebale dozvoliti neovisnu reviziju svojih sustava preporuka, i stvoriti otvorene alate preko kojih će se moći analizirati sam algoritam. Od zakonodavaca pak traži jasne propise koji će osigurati da platforme uzimaju u obzir rizike koje preuzimaju prilikom dizajniranja i pokretanja automatiziranih sustava za prilagođavanje sadržaja.