Index Vakbarát Hírportál

Ellopja és meghamisítja identitásunkat a mesterséges intelligencia

2023. október 10., kedd 13:11

Kipróbálta már ön is, hogy nézne ki harminc évvel később, vagy ha épp ellenkező neműként született volna? Esetleg megnézte magát valamelyik kedvenc filmje főszereplőjeként? Ha a válasz igen, akkor már kipróbálta a deepfake technológiát, ami eleinte egyszerű, ártatlan játéknak tűnt, mára azonban már a vártnál is nagyobb problémát jelent – a mesterséges intelligencia robbanásszerű fejlődése következtében.

Idén október 11. és 12. között gyűlnek össze a hazai kiberbiztonsági szakma legjobbjai, ekkor rendezik meg ugyanis az ITBN-t, azaz az IT Biztonság Napját, amelynek ezúttal a Groupama Aréna ad otthont. Az esemény középpontjában elsősorban a mesterséges intelligencia fog állni, illetve annak múltja, jelene és jövője.

A témában korábban már beszélgettünk Köves Slomóval, aki az Egységes Magyarországi Izraelita Hitközség vezető rabbijaként abba avatott be minket, hogyan viszonyul az egyház a mesterséges intelligenciához – ezúttal pedig Veszelszki Ágnes nyelvészt, kommunikációkutatót, a Nemzeti Közszolgálati Egyetem ÁNTK Digitális Média és Kommunikáció Tanszékének tanszékvezető egyetemi docensét kérdeztük a deepfake-ről és az MI-alapú képmanipulációról.

De mi az a deepfake?

A mesterséges intelligencia már jelenleg is képes arra, hogy egy videóban a neurális hálózat és a fellelhető információk alapján egy szereplő arcát egy másikéra cserélje, az eredeti szereplő hangját utánozza oly módon, hogy az arc- és hangcsere a hétköznapi felhasználó számára felismerhetetlen legyen, azaz deepfake-et állítson elő.

A deepfake tehát digitálismédia-manipulációt jelent: ultrarealisztikus, gépi tanulással létrehozott hamis(ított) videót, amelynek a szereplői olyan dolgokat tehetnek vagy mondhatnak, amit nagy valószínűséggel nem tennének vagy mondanának – amint ezt a 2023 szeptemberében megjelent, Aczél Petra professzorral közösen szerkesztett Deepfake: A valótlan valóság című kötetünkben megjelent cikkben is megfogalmaztam

– magyarázta Veszelszki, hozzátéve, hogy a deepfake abban különbözik a photoshopolt, szerkesztett, módosított képektől, hogy nem csupán a szemre, hanem a fülre is hat, ráadásul a mozgókép is mindig valószerűbbnek tűnik, így a gyanútlan és gyakorlatlan videónézőt az egyre jobb és jobb minőségben előállított deepfake videók könnyen becsapják.

Bosszú és identitáshamisítás

Veszelszki elmondása szerint a deepfake a visszaélések esetén visszatérhet a kiindulópontjához, ahol először megjelent, mégpedig a pornóhoz. Az első, amatőr deepfake videók pornófelvételekben jelenítették meg arccserével ismert színésznők arcát, miközben ők valójában nem szerepeltek ezekben a felnőttfilmekben. Az újabb fejlesztések azonban már nemcsak az arccserével „hamisított”, hanem a teljes mértékben a minták alapján generált, de új tartalomként megjelenő pornográf képek megalkotását is lehetővé teszik.

Ez nem csupán a közszereplőket, hanem bárkit érinthet, például a bosszúpornó jelensége révén.

A deepfake széles körű jogi-morális problémákat is felvet: újfajta – ember vagy akár robot kontrollálta – csaló, megtévesztő tevékenységekre kell felkészülni, figyelmeztet a szakértő.

A deepfake az elemzések szerint a közeljövőben nagy szerepet fog játszani a magán- és közéleti bosszúvideók előállításában, különböző bűnügyek feltárásában valódi vagy hamis bizonyítékként, továbbá kiberbiztonsági aggályok merülhetnek fel általa. Ezzel viszonylag könnyedén utánozható bárki digitális identitása. A biometrikus hangazonosítást veszélyeztetheti a hangutánzás, amely által a csalók beléphetnek az adott személy különböző felhasználói fiókjaiba, és szenzitív információ (hitelkártyaadatok, jelszó) is kicsalható a kiszemelt személytől

– fogalmazott Veszelszki. A deepfake használatával további bűncselekmények is elkövethetők: hamisított kínos tartalom eltüntetéséért pénzt követelhetnek rágalmazók, továbbá a deepfake a cyberbullying, vagyis az online zaklatás alapjává is válhat. Mindezek mellett a bizonyítékok valóságtartalmára is kihatással van a deepfake: a bírósági eljárások, bűnügyi perek során azt is ellenőrizni kell majd, a bizonyítékként felmutatott kép-, hang- és videófelvétel nem hamisítás eredménye-e. A politikai kommunikációban és a háborús dezinformációban játszott szerepével már ugyancsak foglalkoznak kutatók.

Van pozitív oldala is?

Manapság a deepfake-kel kapcsolatban leginkább csak annak negatív hatásairól lehet olvasni, így kíváncsiak voltunk, Veszelszki Ágnes szerint lehet-e jó dolgokra is használni a technológiát. Az NKE docense úgy véli, az átlagos felhasználók elsősorban a szórakoztató szándékú, paródia- vagy zenés videók készítésében találják meg a deepfake hasznosítási módját, amelyekben az eredeti szereplő arca helyére a saját vagy bárki más arcképét tudja a felhasználó egy applikáció használatával beilleszteni.

Kísérleteznek azonban a deepfake tudománykommunikációs, oktatási felhasználási lehetőségeivel is: egyfajta virtuális oktatóként hallható előadás ismert tudósoktól, megszólalhatnak már elhunyt hírességek. Ennek egyik példája a floridai St. Petersburgban található Dalí Museum, ahol deepfake-et használtak a művész »megtestesítéséhez«: Dalí köszönti a múzeumba látogatókat, megosztja velük a gondolatait a művészetről, és még szelfizhetnek is vele a látogatók

– magyarázta.

Az október 12-i kerekasztal-beszélgetés során Veszelszki Ágnes két kollégájával, Guld Ádámmal és Királyházi Csabával részletesebben mesél majd a vizuális képmanipulációról és a generatív AI kommunikációs kihívásairól – így amennyiben érdekli, hogy a technológia miként fogja átformálni a nem is olyan távoli jövőt, mindenképp érdemes lesz kilátogatnia a 2023-as ITBN-re.

Rovatok