A mesterséges intelligencián alapuló képalkotás segítségével művészeti alkotásokat hozhatunk létre, ruhákat próbálhatunk fel virtuális próbafülkékben, vagy segíthetünk reklámkampányok tervezésében. A szakértők azonban attól tartanak, hogy a könnyen hozzáférhető eszközök sötétebb oldala egy újabb, súlyos hullámot indít el: a beleegyezés nélküli deepfake pornográfiát.
A deepfake-ek olyan videók és képek, amelyeket mesterséges intelligencia vagy gépi tanulás segítségével digitálisan hoztak létre vagy módosítottak. A technológia segítségével létrehozott pornó először néhány évvel ezelőtt kezdett el terjedni az interneten, amikor egy Reddit-felhasználó olyan klipeket osztott meg, amelyek női hírességek arcát helyezték pornószínészek vállára − írja riportjában az Associated Press hírügynökség.
Azóta a deepfake-alkotók hasonló videókat és képeket terjesztettek, amelyek online influenszereket, újságírókat és más, nyilvános profilú személyeket céloztak meg. Több ezer videó létezik számos weboldalon. Egyesek felajánlották a felhasználóknak a lehetőséget, hogy saját képeket készítsenek − lényegében bárki bárkit beleegyezése nélkül szexuális fantáziái részesévé tehet, vagy a technológiát arra használhatja, hogy kárt okozzon korábbi partnereinek.
A szakértők szerint a probléma egyre nagyobb méreteket ölt, ahogy egyre könnyebbé válik a kifinomult és vizuálisan lenyűgöző deepfake-ek készítése. És azt mondják, hogy ez még rosszabbá válhat a generatív AI-eszközök fejlődésével, amelyek az internetről származó képek milliárdjain keresztül tanulnak, és a meglévő adatok felhasználásával újszerű tartalmakat állítanak elő.
„A valóság az, hogy a technológia tovább fog terjedni, tovább fog fejlődni, és olyan egyszerűvé fog válni, mintha megnyomnánk egy gombot” − mondta Adam Dodge, az EndTAB alapítója, ami egy olyan csoport, amely ezzel a technológiával készült visszaélésekről tart képzéseket. „És amíg ez történik, addig az emberek kétségtelenül … továbbra is visszaélnek majd ezzel a technológiával, hogy másoknak kárt okozzanak, elsősorban az online szexuális erőszak”, a deepfake pornográfia és a hamisított aktképek révén.
Az ausztráliai Perthben élő Noelle Martin átélte ezt a tapasztalatot. A 28 éves lány 10 évvel ezelőtt talált magáról deepfake pornót, amikor egy nap kíváncsiságból a Google segítségével rákeresett egy magáról készült képre. Martin a mai napig nem tudja, hogy ki készítette a hamis képeket, vagy a róla készült videókat, amelyeken látszólag szexuális együttlétet folytat. Azt gyanítja, hogy valaki a közösségi oldalára feltett képet alakította pornóvá.
Martin kétségbeesetten lépett kapcsolatba különböző weboldalakkal, és éveken át próbálta elérni, hogy a képeket eltávolítsák. Néhányan nem válaszoltak. Mások levették azokat, de hamarosan újra felbukkantak.
Nem lehet nyerni. Ez mindig is ott lesz a világhálón. Olyan, mintha örökre tönkretenné az embert
− mondta Martin.
Elmondása szerint minél többet beszélt róla, annál inkább eszkalálódott a probléma. Néhányan még azt is közölték vele, hogy az öltözködése és a közösségi médiában közzétett képei hozzájárultak a zaklatáshoz − lényegében őt hibáztatták a képekért a készítők helyett.
Végül Martin a jogalkotókhoz fordult, és olyan nemzeti törvényt szorgalmazott Ausztráliában, amely 555 ezer ausztrál dollár (130 millió forint) bírságot szabhatna ki a vállalatokra, ha nem tesznek eleget az online biztonságot felügyelő hatóságok ilyen tartalmakra vonatkozó eltávolítási felszólításainak.
Az internet szabályozása azonban szinte lehetetlen, amikor az országoknak csak saját területükön érvényes törvényeik vannak az olyan tartalmakra, amelyek néha a világ másik felén készülnek. Martin, aki jelenleg a Nyugat-Ausztráliai Egyetem ügyvédje és jogi kutatója, azt mondja, hogy szerinte a problémát valamilyen globális megoldással kell kezelni.
Az OpenAI azt állítja, hogy eltávolította az explicit tartalmat a DALL-E képgeneráló eszköz betanítása közben használt adatokból, ami korlátozza a felhasználók lehetőségét az ilyen típusú képek létrehozására. A vállalat a kéréseket is szűri, és azt állítja, hogy megakadályozza, hogy a felhasználók hírességeket és prominens politikusokat ábrázoló AI-képeket hozzanak létre. A Midjourney, egy másik cég, blokkolja bizonyos kulcsszavak használatát, és arra ösztönzi a felhasználókat, hogy jelezzék a problémás képeket a moderátoroknak.
Eközben a Stability AI nevű startup novemberben egy olyan frissítést adott ki, amely eltávolítja a Stable Diffusion nevű képgenerátorából az érzékeny képek létrehozásának lehetőségét. A változtatásokra azután került sor, hogy egyes felhasználók hírességek által inspirált meztelen képeket készítettek a technológia segítségével.
A Stability AI szóvivője, Motez Bishara elmondta, hogy a szűrő kulcsszavak és más technikák, például képfelismerés kombinációját használja a meztelenség felismerésére, és egy elmosódott képet generál. A felhasználók azonban manipulálhatják a szoftvert, és azt generálhatnak, amit akarnak, mivel a vállalat nyilvánosságra hozta a program forráskódját. Bishara elmondta, hogy a Stability AI licence „kiterjed a Stable Diffusionra épülő, harmadik féltől származó alkalmazásokra”, és szigorúan tiltja „az illegális vagy erkölcstelen célokra történő felhasználást”.
Néhány közösségi médiavállalat is szigorított a szabályokon, hogy jobban megvédjék platformjaikat a káros anyagokkal szemben.
A TikTok a múlt hónapban közölte, hogy minden deepfake vagy manipulált tartalmat, amely valósághű jeleneteket mutat, fel kell címkézni, hogy jelezze, hogy hamisítvány vagy valamilyen módon megváltoztatott, és hogy a magánszemélyeket és fiatalokat ábrázoló deepfake-ek többé nem engedélyezettek. Korábban a vállalat betiltotta a szexuálisan érzékeny tartalmakat és az olyan deepfake-eket, amelyek félrevezetik a nézőket a valós eseményekről és így kárt okoznak.
A Twitch játékplatform is nemrégiben frissítette az érzékeny deepfake képekkel kapcsolatos irányelveit, miután egy népszerű streamer, az Atriocot egy január végi élő közvetítésben egy deepfake pornóoldalt nyitott meg a böngészőjében.
A Twitch már eddig is tiltotta az explicit deepfake-eket, de mostantól az ilyen tartalmak megjelenítése − még akkor is, ha az dokumentációra szolgál − „eltávolításra kerül, és eljárást von maga után” − írta a cég egy blogbejegyzésben. Az anyag szándékos népszerűsítése, létrehozása vagy megosztása pedig azonnali tiltást von maga után.
Más cégek is megpróbálták kitiltani a deepfake-eket a platformjaikról, de ezek távol tartása komoly erőfeszítéseket igényel.
Az Apple és a Google nemrég közölte, hogy eltávolítottak egy olyan alkalmazást az alkalmazásboltjaikból, amely színésznőkről készült szexuális deepfake videókat futtatott a termék marketingje érdekében. A deepfake pornóval kapcsolatos kutatások nem elterjedtek, de egy 2019-ben a DeepTrace Labs AI cég által kiadott jelentés szerint szinte teljes egészében nők ellen irányulnak, és a legtöbb célszemély nyugati színésznő, majd dél-koreai K-pop énekesnő volt.
Ugyanez a Google és az Apple által eltávolított alkalmazás hirdetéseket futtatott a Meta platformján, amely magában foglalja a Facebookot, az Instagramot és a Messengert. Dani Lever, a Meta szóvivője közleményében elmondta, hogy a vállalat irányelvei korlátozzák mind az AI által generált, mind a nem AI által generált felnőtt-tartalmakat, és korlátozták az alkalmazás oldalának hirdetését a platformjaikon.
Februárban a Meta, valamint az olyan felnőttoldalak, mint az OnlyFans és a Pornhub, elkezdtek részt venni a Take It Down nevű online eszköz fejlesztésében, amely lehetővé teszi a tizenévesek számára, hogy jelenteni tudják a róluk készült érzékeny képeket és videókat. A bejelentés a hagyományos képek és a mesterséges intelligencia által generált tartalmak esetében is működik.
„Mik azok jövőbeli trendek, amik miatt aggódunk? Az első a végponttól végpontig terjedő titkosítás, és hogy ez mit jelent a gyermekvédelem szempontjából. A második pedig a mesterséges intelligencia és különösen a mély deepfake” – mondta Gavin Portnoy, a Take It Downt működtető National Center for Missing and Exploited Children szóvivője.
Még nem tudtunk … közvetlen választ megfogalmazni erre
− mondta Portnoy.
(Borítókép: Thomas Trutschel / Photothek / Getty Images)