Látta Rihanna legújabb pornófilmjét? Hát azt, amikor Gal Gadot a mostohatestvérével szexel? És Katy Perryt félmeztelenül, lovaglóülésben? Igen? Akkor tudja, hogy ezek trükkfelvételek – de olyan minőségben, hogy első pillantásra fel sem tűnik. Vagy ha fel is tűnik, ahogy a technológia fejlődik, úgy tűnnek majd el az árulkodó jelek. Eljön még a világ, amikor mindenkiből pornósztár lehet, aki valaha megosztott magáról egy igazolványképet az interneten. Az ehhez szükséges eszközöket már most beszerezhetjük, és egy fillérünkbe sem kerül – csak egy erős számítógép kell hozzá.
A hamis celebpornók nagyjából egy éve bukkantak fel az interneten. Első pillantásra nem volt egyértelmű, hogy ezek nem valódi felvételek. Hiszen láttuk mi már Paris Hiltont és Pamela Andersont is szex közben, meg egy csomó meztelen fotót B kategóriás celebekről; a kiszivárgó pornófilmek ebben a közegben nem szokatlanok.
Csakhogy ezek a videók mind hamisítványok voltak. És nem egy profi filmes készítette őket, hanem egy gép.
Deepfake – mondja az angol. A szóösszetétel első fele, a deep a mély neurális hálózatra (deep neural network) utal; ebben a hálózatban nagy számítási teljesítményű gépek dolgoznak komplex algoritmusok alapján. A fake pedig hamisítványt jelent – vagyis a deepfake mesterséges intelligenciával készült, hamisított filmfelvételeket jelent.
Peter Eckersley, az Electronic Frontier Foundation vezető számítógép-tudományi szakértője a Motherboardnak korábban azt mondta, hogy nagyjából egy-két évig tarthat, mire eltűnnek azok az apró jelek, amik lebuktatják a trükkfelvételt. A becslése nem jött be; a kamupornó-trend néhány hónapja robbanásszerű áttörésen ment keresztül. Ehhez két dolog kellett:
Az elmúlt két hónapban a Reddit felhasználói tovább kísérleteztek a kamupornó-jelenetekkel és az algoritmussal. Egy felhasználó alig öt óra alatt rámontírozta Jessica Alba fejét Melanie Rios pornószínésznő testére, és ehhez nem kellett semmi, csak egy jó minőségű grafikus kártya. A számítógép processzora is befogható a műveletbe, de így akár napokig is eltarthat, mire megkapjuk a végeredményt. (Ami néha katasztrofális eredményt hoz – de csak idő kérdése, hogy az eljárás egyre kifinomultabbá váljon.)
A csúcs a Rogue One eredeti jelenete, amiben Carrie Fishert CGI-vel jelenítik meg. A film költségvetése 200 millió dollár volt. A legalja meg egy húszperces kamuvideó, amit ugyanúgy kell megcsinálni egy hasonló színésznővel. Amennyibe ez nekem került: 0 dollár, meg néhány Fleetwood Mac-szám.
– mondta deepfake a Motherboardnak.
Az arccserélés technológiája alapvetően nem káros. A Snapchat már évekkel ezelőtt bevezette a Face Swapet, előtte pedig a Microsoft megboldogult mobilos platformján is volt ilyen alkalmazás. Az Nvidia tanulmányt írt arról a technológiáról, amit arra használnak, hogy fotorealisztikus képeket rendereljenek soha nem létezett hírességekről. (A lenti videóban megtekinthető a végeredmény.) A Vue.ai online divatcég mesterséges intelligenciával helyettesíti a divatügyi szaktanácsadót – és ők is az Nvidia technológiáját használják. És ott van még a macskarajzoló mesterséges intelligencia, vagy a Deepart, amiből a Prisma is kinőtte magát.
De a rosszindulat mindig ott lappang a háttérben. Csak a doppelbangher subredditnek nagyjából 36-40 ezer aktív felhasználója volt (és a félregépelt nevű dopplebangherre is több mint tízezren iratkoztak föl). Sokan közülük
hamisított pornófilmeket kéRTEK a barátaikról, ismerőseikről, expartnereikről vagy osztálytársaikról – méghozzá a beleegyezésük nélkül.
A Redditen a moderátorok kezdetben azt tanácsolták, hogy a közösségi médiából vett fotókat ne osszák meg a fórumon, hanem töltsék föl egy képmegosztóra; illetve hogy ne osszanak meg bosszúpornót (revenge porn), különben kitiltják őket. Úgy tűnt, alapvetően nem akarták megakadályozni, hogy mások használják a rendszert, de nem akartak bajt sem.
A FakeApp működési elve egyszerű: kell hozzá egy pornóvideó, illetve egy arckép. (Minél több, annál jobb: ha az algoritmus több fényképpel dolgozhat, pontosabb modellt készít az illető fejéről.) A videó elérési útvonalának megadása után megnyomjuk az Extract gombot, és a szoftver a videó minden másodpercét felbontja 30 vagy 60 képkockára, attól függően, hogy milyen képfrissítési rátát állítottunk be. (Emiatt egy 7 megabájtos, néhány másodperces videó simán felzabál másfél gigabájtot a merevlemezről.)
Ezután begépeljük, hogy hol található az arckép, amit szeretnénk belemontírozni a videóba, majd rányomunk a Create-re, és már indul is az inicializálás. A szoftver felismeri a kicsomagolt videóban feltűnő arcokat, és a feltöltött képet a pornósztárok fejére montírozza, és hozzáigazítja az eredeti arcmimikához. Minél jobban hasonlít az illető a pornószínészre, annál pontosabb lesz a végeredmény.
Ehhez a művelethez komoly számítási teljesítmény kell; tesztelés közben az alkalmazás nálam rendszeresen halálra fagyott. Szorgalmasan töltögette a hibabejelentő logfájlt, és temérdek állóképet generált egy rövid pornójelenetből, de az irodai gép grafikus kártyája és processzora nem volt elég erős a történelemhamisításhoz. Ehhez ugyanis elsősorban a GPU nyers ereje szükséges, akárcsak a kriptovaluta-bányászathoz.
A művelethez külső segítséget is igénybe lehet venni; az internetes sávszélesség már van akkora, hogy erőforrások átcsoportosítására is felhasználhassuk. Csak bejelentkezünk a Google Cloud Platformba, és egy dollár hatvan centes óradíjért a legdurvább Nvidia TESLA P100 és TESLA K80 grafikus processzorok fogják feldolgozni a feltöltött adatokat, majd némi piszmogás után visszaküldik a kért adatot a hálózaton.
Hogy a hamisított pornóvideók még nem szügyig érnek, csak bokáig, annak az lehet az oka, hogy a tavaly decemberben kiadott FakeApp még mindig gyermekbetegségektől szenved, és túl kevés a nagy teljesítményű gép, amit nagyüzemi pornóhamisításra használnának. A szoftver legfejlettebb verziója alig néhány hete jelent meg, és a jelenség egyre elterjedtebbé válik: a témával foglalkozó subredditnek több mint harmincezer feliratkozója volt. És bár nem gyártanak mindannyian álpornót, a kereslet-kínálat összefüggéseit ez a szám jól mutatja.
A Redditen sokáig aktív közössége volt a kamupornónak, de mások kezdtek egyre kevésbé toleránssá válni. A Discord – az online csetszolgáltatás, amit 25 millióan használnak, de nincs moderátora, és az online gyűlölködés nem anomália, hanem alapélmény – nemrég kitiltotta az összes deepfake-et az oldalról; az ezt megosztó felhasználókat ki fogják tiltani. Eddig több mint 150 embert bannoltak, akik több száz képet és videót osztottak meg. Ez már nekik is sok volt. Utoljára akkor rendeztek ekkora tisztogatást, amikor a charlottesville-i balhé után kilőtték az alt-right szervereket.
Persze lehet, hogy nem a jó ízlés motiválta őket, hanem attól féltek, hogy szerzői és személyiségi jogi perek szakadnak a nyakukba. Ettől más tartalomszolgáltatók is tartanak.
A legnagyobb oldalak – alighanem azért, hogy megelőzzék a törvényhozás pofonját – öncenzúrát gyakoroltak, és közölték, hogy nem tűrik meg a deepfake-ek megosztását. Az egyik legnagyobb pornómegosztó oldal, a napi 75 millió látogatót fogadó PornHub közölte, hogy a bosszúpornóval egy kategóriába sorolják a deepfake-eket, és az összes ilyen jelenetet törölni fogják. Ugyanígy döntött a Twitter is; ők szerdán hirdettek dzsihádot, pedig – más közösségi oldalakkal szemben – a Twitternek nincs különösebb gondja a hardcore pornó megosztásával.
Végül A Reddit is megtört: Múlt Csütörtökön felszámolták a deepfake-közösséget.
Töröltek minden fórumot, minden technikai dokumentációt, minden képet és videót. A csatornáknak addigra már több mint 90 000 feliratkozója volt.
Clare McGlynn, a Durham Law School jogi szakértője a Wirednek azt mondta, hogy a jelenség nem meglepő; csak idő kérdése volt, hogy a technológia fejlődése lehetővé tegye. Az eszközök hozzáférhetősége viszont garantálja, hogy rövidesen népőrület legyen belőle. És talán már most is sokkal többen használják, mint sejtenénk.
A FakeApp szoftvert a Google Drive hosztolja, de más forrásokból és torrentszájtokról is elérhető. A Google még nem válaszolt arra az újságírói kérdésre, hogy nem sérti-e az általános felhasználási feltételeket egy ilyen jellegű program megosztása. Ami, lássuk be, kissé provokatív kérdés: a FakeApp ugyanis nemcsak arra használható, hogy pornót hamisítsanak vele, hanem olyan röhejes tartalmak is készíthetők vele, mint a saját magával beszélgető Nicolas Cage...
...aki, hála a gépesítésnek, végre kiélheti azt az ambícióját, hogy minden filmben szerepeljen.
De vannak országok, ahol ez bűncselekménynek számít. Mármint nem Nicolas Cage, hanem a pornóhamisítás. A beleegyezés nélkül készült pornófelvételekkel való visszaélés, hogy pontosak legyünk. Hogy miért bűncselekmény Jennifer Lawrence meztelen képeit kilopni a telefonjáról, és feltölteni az internetre, az nem szorul magyarázatra: Lawrence-re nézve kellemetlen következményekkel jár, ha ilyen jellegű képek jelennek meg róla. Hitelrontás, a jó hírnévhez való jog lábbal tiprása, a magánszféra megsértése; napestig lehetne sorolni az indokokat.
Ha az Industrial Light & Magic szakembere higanyembert renderel a Terminátor 2-be, az vizuális művészet. A fénykép- és videóhamisítás nem az.
McGlynn szerint ez a feldolgozások minőségétől is függ, de ha a kész tartalom a megszólalásig hasonlít az eredetire, az már büntetőjogi kérdés.
Ha az emberek nem tudják, hogy ez Photoshop, azt feltételezik majd, hogy tényleg te vagy a képen. Az ebből fakadó visszaélések és zaklatások ugyanolyanok lesznek, és ugyanolyan kedvezőtlen hatásuk lesz a munkáltatóra és a családra nézve. Nem hiszem, hogy van jogalapja annak a hivatkozásnak, hogy ez csak Photoshop, tehát nem okoz károkat.
A képhamisítás már sima fotókkal is elég nagy kárt tud okozni. Januárban egy ausztrál férfi azért került bíróság elé, mert a 13 éves mostohalánya arcképét montírozta pornográf fotókra, amiket szex közben készített más nőkről. Az 51 férfi azzal védekezett, hogy a fotók műalkotások voltak. A bírónak sehogy sem fért a fejébe, hogy mi abban a művészet, ha valaki képet hamisít ilyesmiről, úgyhogy két év szabadságvesztésre ítélte a férfit.
Nem ez az egyetlen ilyen eset. Egy North Jersey-i nő elmesélte, hogy a potenciális munkaadói hamisított meztelen képeket találtak róla az interneten; az eredeti fotóit a MySpace-profiljáról gyűjtötték be. Az elkövető bírósági tárgyalás előtt áll. A hasonló példákat napestig lehetne sorolni. Az indiai színésznő, Jyothi Krishna elmondta, hogy az ő fotóit is pornóképekké degradálták. 2015-ben pedig két indiai tinédzser fiút tartóztattak le, amiért videókat hamisítottak színésznőkről.
Max Campbell, a becsületsértési, magánélet-megsértési és zaklatási ügyek specialistája szerint a filmek készítőit számos bűncselekménnyel lehet vádolni, és polgári perek indíthatók ellenük.
McGlynn szerint fontos, hogy a törvényi szabályozás felkészüljön a visszaélésekre. Tisztázni kell, hogy mit gondoljunk azokról, akik ilyen szoftvereket használnak, és hogy milyen hatást gyakorol ez a gyakorlat az áldozatokra. A jövőbeli törvényi szabályozásnak erre is ki kell térnie.
A FakeApp helyzete – jogilag – kicsit hasonlít a torrentére. A torrent technológiáját nagy méretű állományok gyors megosztására hozták létre – más kérdés, hogy többnyire illegális fájlcserélésre használják. A mesterséges intelligenciával felturbózott videómanipuláló szoftvereket sem arra tervezték, hogy hírességek fejét montírozzák pornófilmekbe, de bármire lehet használni őket. Vagyis szándékosan bajba keverhető vele akárki, anélkül, hogy filmipari szakember lenne.
A szoftverek fejlesztői viszont nem foglalkoznak etikai aggályokkal. Egy pornóoldal, a MegaCams olyan applikációt fejlesztett, ami az ismerőseink vagy hírességek arcképét hasonlítja össze ismert pornósztárokéval. A MegaCamst nem érdekli, hogy ez visszaélésekre ad lehetőséget; azt mondják,
nem a mi dolgunk eldönteni, hogy ez etikus-e vagy sem; ez a felhasználóinkon múlik.
Hasonló véleményen van az egész jelenséget mozgásba hozó deepfakes is. Amikor a Verge stábja interjút készített vele, semmit nem árult el, ami felfedte volna az anonimitását, de elmondta, hogy nem mások bántalmazása vagy megkárosítása volt a célja. Nem profi kutató, csak érdekli a gépi tanulás módszertana. És ő is úgy látja, hogy
minden technológiát lehet ártó szándékkal használni, de ezt lehetetlen megakadályozni.
A jelenség egyébként a pornósztárokat is zavarja. Grace Evangeline szerint a felnőttfilmesek hozzászoktak, hogy megosztják a róluk készült szexvideókat, de ez teljesen más kategória.
Fontos, hogy a beleegyezésre mindig szükség van. A magánéletben ugyanúgy, mint a filmen. Ha szexjeleneteket készítünk hírességekről, ahhoz nem adták a beleegyezésüket. Ez rossz.
Ugyanerre, mármint a beleegyezés hiányára hivatkozott a PornHub is, amikor a deepfake-ek kitiltását indokolták. Még náluk is korábban lépett a Gyfcat – az Imgurhez hasonló, animált gifek megosztására tervezett oldal –; ők azt mondták, a deepfake-ekből kivágott animált jelenetek megosztása összeegyeztethetetlen az oldal működési szabályzatával. (Nem tudni, pontosan mire gondolhattak. A Gyfcat szabályzata nem tiltja az explicit tartalmakat – a Redditen évek óta használják pornójelenetek megosztására –, de a szerzőijog-sértést valóban szankcionálják. Akárcsak a mások elleni uszítást, a gyűlöletkeltést vagy a magánélethez fűződő jog megsértését.)
A megosztásra használható felületek száma egyre csökken, így a legelterjedtebb platformokon alighanem visszaszorul majd a bosszúpornó-megosztás. De a szellem már kikerült a palackból. Jó esély van rá, hogy a média arculata örökre megváltozik, ha ezek az eljárások és szoftverek egyre elterjedtebbek lesznek. Hogyisne: hiszen életre kelthetünk rég halott színészeket, fiktív bosszúpornó-jeleneteket forgathatunk, vagy akár politikusok beszédeit is manipulálhatjuk.
Ez a folyamat visszafordíthatatlan, és komoly károkkal járhat. Elvégre egyre elterjedtebb a nyílt forráskódú hálózatok kutatása; egyre nehezebb megkülönböztetni az álhíreket a valódiaktól; és úgy osztjuk a kamut a közösségi médiában, mintha fizetnének érte.
Andy Warhol biztos nem erre gondolt, amikor azt mondta, hogy a jövőben BÁRKI híres lehet 15 percre.
Ne maradjon le semmiről!