Index Vakbarát Hírportál

Fele annyi összeesküvés-elméletes videót ajánl a Youtube, mint tavaly

2020. március 3., kedd 16:03

A Youtube büszkén jelentette be tavaly, hogy az összeesküvés-elméleteket taglaló videók jelentős részénél sikerült elérni, hogy kiderüljenek az ajánlásból. De egy tanulmány szerint ez a siker csak átmeneti, a videók szépen lassan visszaszivárognak.  Ez azért is fontos, mert naponta több millió órányi videót néznek meg az emberek a Youtube-on, a megtekintett videó kétharmadához pedig úgy jutnak, hogy az algoritmus ajánlja a felhasználónak. 

A kutatók egy olyan algoritmust írtak, ami megmondja, hogy mekkora a valószínűsége, hogy egy videóban lesz-e összeesküvés-elmélet. Ezt a leírás, a szöveg és a kommentek elemzése alapján próbálja megmondani az algoritmus. 15 hónap alatt 8 millió olyan videót vizsgáltak meg, amit feldobott a videó az ajánlásokban. Azt vették észre, hogy mikor 2019 januárjában bejelentette a Youtube, hogy kikerülnek ezek a videók az ajánlásból, jobb is lett az arány.  2019 májusára valóban legalább 70 százalékkal esett vissza a konspirációs elméletet tartalmazó videók ajánlása, aztán a szám újra elkezdett emelkedni. Jelenleg olyan 40 százalékkal kevesebb összeesküvés-elmélet kerül be az ajánlások közé, mint mikor elkezdte irtani ezeket a videómegosztó. 

Bizonyos témájú összeesküvés-elméleteket sikerült kigyomlálni az ajánlásokból

Úgy tűnik, hogy a videó témájától függ, mennyire kerülnek ki azok az ajánlások közül. Szinte teljesen eltűntek azok a videók, amikben azt firtatják, hogy az amerikai kormánynak köze van a szeptember 11-i terrortámadásokhoz, vagy amiben laposföld-hívők hirdetik a saját igazukat. Viszont például az olyan videók nem kerültek ki az ajánlások közül, amik szerint a klímaváltozás csak kitaláció. A New York Times kutatói szerint ez felvetheti azt a kérdést, hogy vajon a Youtube döntött-e úgy, hogy válogat, melyik álhíreket engedi, és melyiket nem. 

A videomegosztó szerint ezeknek az ajánlásoknak az a lényege, hogy a felhasználó egyszerűen rátaláljon azokra a videókra, amik érdekelhetik, és hogy segítsenek, hogy minél több időt minél nagyobb elégedettséggel töltsenek a platformon a felhasználók. Korábban már kapott amiatt bírálatot az oldal, hogy néhányan az ilyen ajánlások miatt radikalizálódnak, de ennek ellenére sem lehet pontosan modellezni, hogyan és mi alapján ajánl videókat az oldal az egyes felhasználók számára, pont azért, mert nehéz egy felhasználót virtuálisan modellezni. 

Rovatok