Index Vakbarát Hírportál

A deepfake pornó lesz a jövő legnagyobb kihívása

2023. április 20., csütörtök 09:22

A mesterséges intelligencián alapuló képalkotás segítségével művészeti alkotásokat hozhatunk létre, ruhákat próbálhatunk fel virtuális próbafülkékben, vagy segíthetünk reklámkampányok tervezésében. A szakértők azonban attól tartanak, hogy a könnyen hozzáférhető eszközök sötétebb oldala egy újabb, súlyos hullámot indít el: a beleegyezés nélküli deepfake pornográfiát.

A deepfake-ek olyan videók és képek, amelyeket mesterséges intelligencia vagy gépi tanulás segítségével digitálisan hoztak létre vagy módosítottak. A technológia segítségével létrehozott pornó először néhány évvel ezelőtt kezdett el terjedni az interneten, amikor egy Reddit-felhasználó olyan klipeket osztott meg, amelyek női hírességek arcát helyezték pornószínészek vállára − írja riportjában az Associated Press hírügynökség. 

Azóta a deepfake-alkotók hasonló videókat és képeket terjesztettek, amelyek online influenszereket, újságírókat és más, nyilvános profilú személyeket céloztak meg. Több ezer videó létezik számos weboldalon. Egyesek felajánlották a felhasználóknak a lehetőséget, hogy saját képeket készítsenek − lényegében bárki bárkit beleegyezése nélkül szexuális fantáziái részesévé tehet, vagy a technológiát arra használhatja, hogy kárt okozzon korábbi partnereinek.

Meglévő képekből tanulnak és fejlődnek

A szakértők szerint a probléma egyre nagyobb méreteket ölt, ahogy egyre könnyebbé válik a kifinomult és vizuálisan lenyűgöző deepfake-ek készítése. És azt mondják, hogy ez még rosszabbá válhat a generatív AI-eszközök fejlődésével, amelyek az internetről származó képek milliárdjain keresztül tanulnak, és a meglévő adatok felhasználásával újszerű tartalmakat állítanak elő.

„A valóság az, hogy a technológia tovább fog terjedni, tovább fog fejlődni, és olyan egyszerűvé fog válni, mintha megnyomnánk egy gombot” − mondta Adam Dodge, az EndTAB alapítója, ami egy olyan csoport, amely ezzel a technológiával készült visszaélésekről tart képzéseket. „És amíg ez történik, addig az emberek kétségtelenül … továbbra is visszaélnek majd ezzel a technológiával, hogy másoknak kárt okozzanak, elsősorban az online szexuális erőszak”, a deepfake pornográfia és a hamisított aktképek révén.

Az ausztráliai Perthben élő Noelle Martin átélte ezt a tapasztalatot. A 28 éves lány 10 évvel ezelőtt talált magáról deepfake pornót, amikor egy nap kíváncsiságból a Google segítségével rákeresett egy magáról készült képre. Martin a mai napig nem tudja, hogy ki készítette a hamis képeket, vagy a róla készült videókat, amelyeken látszólag szexuális együttlétet folytat. Azt gyanítja, hogy valaki a közösségi oldalára feltett képet alakította pornóvá.

Martin kétségbeesetten lépett kapcsolatba különböző weboldalakkal, és éveken át próbálta elérni, hogy a képeket eltávolítsák. Néhányan nem válaszoltak. Mások levették azokat, de hamarosan újra felbukkantak.

Nem lehet nyerni. Ez mindig is ott lesz a világhálón. Olyan, mintha örökre tönkretenné az embert

− mondta Martin.

Elmondása szerint minél többet beszélt róla, annál inkább eszkalálódott a probléma. Néhányan még azt is közölték vele, hogy az öltözködése és a közösségi médiában közzétett képei hozzájárultak a zaklatáshoz − lényegében őt hibáztatták a képekért a készítők helyett.

Végül Martin a jogalkotókhoz fordult, és olyan nemzeti törvényt szorgalmazott Ausztráliában, amely 555 ezer ausztrál dollár (130 millió forint) bírságot szabhatna ki a vállalatokra, ha nem tesznek eleget az online biztonságot felügyelő hatóságok ilyen tartalmakra vonatkozó eltávolítási felszólításainak.

Szinte lehetetlen a szabályozás

Az internet szabályozása azonban szinte lehetetlen, amikor az országoknak csak saját területükön érvényes törvényeik vannak az olyan tartalmakra, amelyek néha a világ másik felén készülnek. Martin, aki jelenleg a Nyugat-Ausztráliai Egyetem ügyvédje és jogi kutatója, azt mondja, hogy szerinte a problémát valamilyen globális megoldással kell kezelni.

Az OpenAI azt állítja, hogy eltávolította az explicit tartalmat a DALL-E képgeneráló eszköz betanítása közben használt adatokból, ami korlátozza a felhasználók lehetőségét az ilyen típusú képek létrehozására. A vállalat a kéréseket is szűri, és azt állítja, hogy megakadályozza, hogy a felhasználók hírességeket és prominens politikusokat ábrázoló AI-képeket hozzanak létre. A Midjourney, egy másik cég, blokkolja bizonyos kulcsszavak használatát, és arra ösztönzi a felhasználókat, hogy jelezzék a problémás képeket a moderátoroknak.

Eközben a Stability AI nevű startup novemberben egy olyan frissítést adott ki, amely eltávolítja a Stable Diffusion nevű képgenerátorából az érzékeny képek létrehozásának lehetőségét. A változtatásokra azután került sor, hogy egyes felhasználók hírességek által inspirált meztelen képeket készítettek a technológia segítségével.

A Stability AI szóvivője, Motez Bishara elmondta, hogy a szűrő kulcsszavak és más technikák, például képfelismerés kombinációját használja a meztelenség felismerésére, és egy elmosódott képet generál. A felhasználók azonban manipulálhatják a szoftvert, és azt generálhatnak, amit akarnak, mivel a vállalat nyilvánosságra hozta a program forráskódját. Bishara elmondta, hogy a Stability AI licence „kiterjed a Stable Diffusionra épülő, harmadik féltől származó alkalmazásokra”, és szigorúan tiltja „az illegális vagy erkölcstelen célokra történő felhasználást”.

Néhány közösségi médiavállalat is szigorított a szabályokon, hogy jobban megvédjék platformjaikat a káros anyagokkal szemben.

A TikTok a múlt hónapban közölte, hogy minden deepfake vagy manipulált tartalmat, amely valósághű jeleneteket mutat, fel kell címkézni, hogy jelezze, hogy hamisítvány vagy valamilyen módon megváltoztatott, és hogy a magánszemélyeket és fiatalokat ábrázoló deepfake-ek többé nem engedélyezettek. Korábban a vállalat betiltotta a szexuálisan érzékeny tartalmakat és az olyan deepfake-eket, amelyek félrevezetik a nézőket a valós eseményekről és így kárt okoznak.

A Twitch játékplatform is nemrégiben frissítette az érzékeny deepfake képekkel kapcsolatos irányelveit, miután egy népszerű streamer, az Atriocot egy január végi élő közvetítésben egy deepfake pornóoldalt nyitott meg a böngészőjében. 

A Twitch már eddig is tiltotta az explicit deepfake-eket, de mostantól az ilyen tartalmak megjelenítése − még akkor is, ha az dokumentációra szolgál − „eltávolításra kerül, és eljárást von maga után” − írta a cég egy blogbejegyzésben. Az anyag szándékos népszerűsítése, létrehozása vagy megosztása pedig azonnali tiltást von maga után.

Más cégek is megpróbálták kitiltani a deepfake-eket a platformjaikról, de ezek távol tartása komoly erőfeszítéseket igényel.

Az Apple és a Google nemrég közölte, hogy eltávolítottak egy olyan alkalmazást az alkalmazásboltjaikból, amely színésznőkről készült szexuális deepfake videókat futtatott a termék marketingje érdekében. A deepfake pornóval kapcsolatos kutatások nem elterjedtek, de egy 2019-ben a DeepTrace Labs AI cég által kiadott jelentés szerint szinte teljes egészében nők ellen irányulnak, és a legtöbb célszemély nyugati színésznő, majd dél-koreai K-pop énekesnő volt.

Ugyanez a Google és az Apple által eltávolított alkalmazás hirdetéseket futtatott a Meta platformján, amely magában foglalja a Facebookot, az Instagramot és a Messengert. Dani Lever, a Meta szóvivője közleményében elmondta, hogy a vállalat irányelvei korlátozzák mind az AI által generált, mind a nem AI által generált felnőtt-tartalmakat, és korlátozták az alkalmazás oldalának hirdetését a platformjaikon.

A felnőttoldalak is küzdenek a probléma ellen

Februárban a Meta, valamint az olyan felnőttoldalak, mint az OnlyFans és a Pornhub, elkezdtek részt venni a Take It Down nevű online eszköz fejlesztésében, amely lehetővé teszi a tizenévesek számára, hogy jelenteni tudják a róluk készült érzékeny képeket és videókat. A bejelentés a hagyományos képek és a mesterséges intelligencia által generált tartalmak esetében is működik.

„Mik azok jövőbeli trendek, amik miatt aggódunk? Az első a végponttól végpontig terjedő titkosítás, és hogy ez mit jelent a gyermekvédelem szempontjából. A második pedig a mesterséges intelligencia és különösen a mély deepfake” – mondta Gavin Portnoy, a Take It Downt működtető National Center for Missing and Exploited Children szóvivője.

Még nem tudtunk … közvetlen választ megfogalmazni erre

− mondta Portnoy.

(Borítókép: Thomas Trutschel / Photothek / Getty Images)

Rovatok