A Facebook-csoportok a répa emojit használják arra, hogy elrejtsék az oltásellenes tartalmakat a moderáló algoritmusok elől.
A BBC több olyan csoportot is talált, ahol az „oltóanyag” szó helyett a répa emoji jelenik meg. Az ok, hogy a Facebook algoritmusai inkább a szavakra, mint a képekre összpontosítanak, így nagyon nehéz kiszűrni az ilyen tartalmakat.
A csoportokban hamis vagy meg nem erősített állításokat osztanak meg olyan emberekről, akiknek egészségügyi problémákat okoztak a vakcinák, vagy akár meg is ölték őket. Miután a BBC értesítette a Facebook anyavállalatát, a Metát, a csoportokat eltávolították.
Eltávolítottuk ezt a csoportot, mert megsértette a káros félretájékoztatásra vonatkozó irányelveinket, és minden más hasonló tartalmat ennek az irányelvnek megfelelően fogunk felülvizsgálni. Továbbra is szorosan együttműködünk a közegészségügyi szakértőkkel és az Egyesült Királyság kormányával a koronavírus-vakcinákkal kapcsolatos félretájékoztatás kezelésében
− áll a cég közleményében. A BBC szerint azonban a csoportok azóta újra megjelentek a kereséseikben.
Az egyik, általuk látott csoport már három éve létezik, de 2022 augusztusában az „ugratások, fogadások és vicces videók” megosztására létrejött oldal profilt váltott, hogy az oltóanyaggal kapcsolatos történetekre összpontosítson. Az igen nagy létszámú csoport szabályai szerint a kényes témákra kódszavakat kell használni.
A 250 ezer tagú csoport tagjait arra intik, hogy soha ne használják a „c, v vagy b betűs szavakat” (covid, vaccine, booster), ezeket inkább emojikkal helyettesítsék.
Marc Owen-Jones dezinformációkutató, a katari Hamad Bin Khalifa Egyetem docense is kapott meghívót a csoportba.
A tagok olyan rokonaikról számoltak be, akik röviddel a koronavírus elleni vakcina beadása után haltak meg. De ahelyett, hogy leírták volna a koronavírus vagy a vakcina szavakat, sárgarépa emojikat használtak. Kezdetben kicsit összezavarodtam. Aztán beugrott, hogy ezzel a Facebook álhíreket felismerő algoritmusait próbálják kikerülni
− mondta.
2021-ben a brit Nemzeti Statisztikai Hivatal adatai szerint a koronavírus elleni vakcina okozta halálozás kockázata egy az ötmillióhoz, míg a oltatlanoknál a betegség okozta halálozás kockázata 35 ezer az ötmillióhoz, ha nem oltják be.
A technológiai óriások algoritmusokat használnak arra, hogy átfésüljék platformjaikat a káros tartalmak után − de ezek elsősorban szavakra és szövegekre vannak „kiképezve” − írta Hannah Rose Kirk az Oxford Internet Institute blogján.
Rose Kirk tagja volt annak a kutatócsoportnak, amely létrehozta a HatemojiCheck nevű eszközt: egy ellenőrzőlistát azon területek azonosítására, ahol a rendszerek nem kezelik jól az emojikon alapuló visszaéléseket.
Annak ellenére, hogy lenyűgözően értik a nyelv működését, a mesterséges intelligenciák nyelvi modelljei nagyon kevés emojit láttak. Könyvek, cikkek és weboldalak, sőt a teljes angol Wikipédia korpuszán képzik őket, de ezekben a szövegekben ritkán szerepelnek emojik
– közölte.
A platformokat már korábban is támadás érte, mert nem blokkolták vagy távolították el a majmokat és banánokat ábrázoló emojikat, amikor azokat rasszista üzenetekként tették közzé fekete futballisták fiókjain.
Amennyiben az online biztonságról szóló javaslat törvényerőre emelkedik az Egyesült Királyságban, a technológiai óriások komoly büntetésre számíthatnak, ha nem azonosítják és nem távolítják el a káros anyagokat a platformjaikon. Aggályok merülnek fel azonban amiatt, hogy a jelenleg használt eszközök elég jók-e ahhoz, hogy megbirkózzanak a közzétett tartalmak hatalmas mennyiségével, valamint a nyelvi árnyalatokkal és kulturális különbségekkel, amelyek elhomályosíthatják a jelentést.
Az emojiknak többféle értelmezésük lehet amellett, hogy az Unicode, az azokat kezelő konzorcium által hivatalosan deklarált jelentéssel bírnak.
Az amerikai kábítószer-ellenes ügynökség kiadott egy plakátot, amely bemutatja, hogy az emojikat hogyan lehet használni az illegális kábítószerekről való beszédre.
Ez a steganográfia modern formája: egy üzenetet úgy írnak meg, hogy pont a szemünk előtt van, de mégsem látjuk. Mindez azt mutatja, hogy hiábavaló a tartalom moderálásának automatizálása a „káros” anyagok megosztásának megakadályozása érdekében. Ez a legjobb esetben is csak egy játék lesz, ahol az emberek új dialektusokat fejlesztenek ki, amelyekkel kommunikálni tudnak
− mondta Alan Woodward professzor, a Surrey Egyetem kiberbiztonsági szakértője. A Facebook tavaly közölte, hogy a világjárvány kezdete óta több mint 20 millió olyan tartalmat távolított el, amely a koronavírusról vagy a vakcináról tartalmazott téves információkat.
(Borítókép: Szollár Zsófi / Index)