Hogyan kontrollálják a megjelenő tartalmakat a világ legnagyobb közösségi oldalán? A belső használatra szánt, de nyilvánosságra került dokumentumok alapján ijesztő kép rajzolódik ki. A túlterhelt moderátoroknak gyakran másodpercek alatt kell döntést hozniuk, hogy egy gyerekbántalmazásról vagy emberevésről szóló tartalom megfelel-e az etikai irányelveknek.
A Guardian sosem látott mélységekig tárta föl a Facebook titkos szabályzatát és működési irányelveit. A lap újságírói több mint 100 belső dokumentumot – oktatóanyagokat, kézikönyveket és táblázatokat – vizsgáltak át, hogy elemezzék, a Facebook milyen irányelvek mentén szabályozza az olyan témákat, mint a gyűlöletbeszéd, a terrorizmus, az erőszak, a pornográfia, a rasszizmus és az önkárosítás.
Vagy a kannibalizmus. Képzelhetik, mi folyhat ott, ahol külön irányelvet kell kidolgozni a kannibalizmusról szóló tartalmak megosztásra.
A Facebookra óriási politikai nyomás nehezedik. A több mint kétmilliárdos felhasználóbázisa nagyobb, mint bármilyen más sajtóterméké; egy ekkora rendszerben járványszerűen terjedhetnek a sértő tartalmak és az álhírek. Az oldal szerkesztői már így is túlterheltek: a moderátorok alig győzik a munkát, és gyakran csak tíz másodpercük van eldönteni, hogy egy oldal jogsértő-e vagy sem. Az egyik belsős forrás szerint
a Facebook nem tudja kontrollálni a tartalmat; ahhoz túl hirtelen nőtt túl nagyra.
A moderátorok sokszor nem is tudják, hogy kéne eljárniuk. A szexuális jellegű tartalmak járjanak el egyes esetekben; a szexuális jellegű tartalmak kezelésére vonatkozó irányelvek sokszor félrevezetők és zavarosak. De nem csak ez a probléma. Egyik dokumentum szerint a Facebooknak hetente 6,5 millió hamisnak tűnő profilt kell ellenőriznie. Már ez hatalmas terhet ró rájuk.
A belsős dokumentumok kőkemény érveket adnak minden kritikus kezébe, akik szerint a Facebook nem egy szolgáltatás, hanem egy kiadóként, médiaként működő vállalat. Szerintük a Facebooknak a mostaninál sokkal nagyobb erőfeszítéssel kéne fellépnie a sértő, gyűlöletkeltő és erőszakos tartalmakkal szemben. Ugyanakkor a véleményszabadság-pártiak is ízekre szedhetik őket; elvégre, ha úgy vesszük,
Abban viszont minden fél egyetért, hogy a Facebook működésének átláthatóbbnak kéne lennie. Most kaptunk egy kis ízelítőt ebből az átláthatóságból, de ez nem feltétlenül megnyugtató. A Guardian röviden felvázolt néhány ellentmondásos irányelvet:
A Facebook szerint az emberek gyakran káromkodnak vagy fröcsögnek az online felületeken, és ebben nem akarják megakadályozni őket. A hivatalos állásfoglalás szerint a felhasználók úgy érzik, a fenyegetés nem üthet vissza rájuk. Nekik a másik egy indifferens valaki, mert az eszközökön zajló kommunikáció nem vált ki olyan empátiát, mint egy valódi beszélgetés. És különben is, az emberek élőszóban is rengeteget káromkodnak és használnak mocskos szavakat. Ugyan miért kéne ebben korlátozni őket?
Nagyon sokszínű globális közösségünk van, akiknek más-más elképzeléseik vannak arról, hogy mit lehet megosztani. Mindegy, hol húzzuk meg a határt, mindig lesznek szürkezónák. A szatíra, a humor és a nem megfelelő tartalom közti határterület is ilyen. Nehéz megmondani, mi illik az oldalra és mi nem.
– mondta Monika Bickert, a Facebook globális szabályzatáért felelős vezető.
Tényleg nehéz. Kanyarodjunk vissza kicsit a gyerekbántalmazáshoz. Ha kimondottan erőszakos tartalomról van szó – vagy ha a tartalom a bántalmazást felmagasztaló, bátorító (celebratory) kontextusban jelenik meg –, akkor törölni fogják. De ha a videóval a gyermekbántalmazás szörnyűségeit akarják bemutatni, az hasznos lehet; akárcsak az, ha egy videón sikerül felismerni és megmenteni egy bántalmazott gyereket.
Egy másik példa: a meztelenség, a gyerekbántalmazás és a háborús terror külön-külön is heves érzelmeket válthatnak ki. A Facebook szabályzata szerint ennek a háromnak a kombinációját is megúszhatjuk bizonyos esetekben. Vannak ugyanis hírértékű kivételek (newsworthy expections); az egyik prezentációs anyag szerint
Ebből is látszik, miért nem lehet automatizálni az ilyen tartalmak törlését, mégis visszatetsző, hogy az ennyire felzaklató anyagok simán megússzák egy disturbed címkével. A Facebook persze alkalmaz automatizmusokat - ahogy az egyszer beazonosított bosszúpornó-anyagok feltöltését is blokkolják -, de a bemutatott esetekből látszik, hogy egyes helyzetek még egy jogászt is összezavarnának, nemhogy a túlhajszolt moderátorokat, akiknek 10 másodperc alatt kell döntést hozniuk.
A Facebook helyzetét bonyolítja, hogy nem lehet jogi precedensekre hivatkozni. Ahogy a kritikusok mondják, a Facebook nemcsak közösségi oldal, hanem médiacég is. Ilyen hibridek a sajtójog történetében mostanáig nem léteztek.
Bickert szerint a Facebook nem hagyományos technológiai vállalat, nem is médiacég, és eleve nem is ők írják az oldalon megjelenő tartalmakat - ők csak a technológiát biztosítják hozzá. Az már nem az ő felelősségük, hogy az emberek mire használják a platformot.
Csakhogy kétmilliárd felhasználó kétmilliárd módon fogja használni a Facebookot. És minél nagyobb a közösség, annál nagyobb a zűrzavar és az ellentmondás. Ahogy Sarah T. Roberts, a tartalomszabályozás szakértője mondta a Guardiannek:
Egész más az, ha valaki egy kis online közösség része, ahol hasonló elveket valló, hasonló értékrendű emberek gyűlnek össze. De ha a közösséged a Föld lakosságának egy tekintélyes hányada, és azt mondod nekik, hogy mutassák meg magukat, jó nagy zűrben leszel. És amikor megpróbálsz pénzt csinálni belőle, akkor kezdődik az igazi katasztrófa.
(Címlap és borítókép: szarvas / Index)