Forradalmasította az ember és a mesterséges intelligencia kapcsolatát a ChatGPT, de vajon mennyire átlátható a működése? Erre a kérdésre olyan szakember segítségével kereste a válaszokat az Index, aki alaposan beleásta magát a témába. Az OpenAI eredetileg a technológia demokratizálását ígérte, mára azonban egyre zártabb rendszert alakított ki. Sokan aggódnak a szerzői jogi és adatvédelmi kérdések miatt, miközben a vállalat titkolja a modell működésének részleteit. A centralizált AI-rendszerek egy szűk elit kezébe helyezik az irányítást, miközben a decentralizált alternatívák új lehetőségeket kínálhatnak az átláthatóság és az egyenlő hozzáférés érdekében. Immár a kínai DeepSeek is a porondon van, de van-e valódi esély egy nyitottabb, biztonságosabb AI-jövőre?
A mesterséges intelligencia (AI) példátlan sebességgel formálja jövőnket, jelentősen növelve a hatékonyságot számos területen. Elengedhetetlen, hogy megértsük az innováció mindkét oldalát, megfigyelések szerint ugyanis az emberek többsége alábecsüli az AI-technológiákban rejlő potenciális kockázatokat. Az Index érdeklődésére Vidákovics Attila, a DLabs alapítója és vezetője arra hívta fel a figyelmet, hogy a mesterséges intelligencia önmagában nem feltétlenül jelent veszélyt, a felhasználás módja a kulcs, illetve az, hogy ki gyakorol ellenőrzést a rendszer felett.
A fintechszakember lapunknak felidézte: az OpenAI 2015-ben azzal az ambiciózus céllal jött létre, hogy demokratizálja a mesterséges intelligencia erejét. Már akkoriban komoly aggályok merültek fel, hogy egy magánvállalat olyan fejlett AI-rendszert hozhat létre, amely túlságosan nagy hatalmat összpontosítana egyetlen szervezet kezében. Az eredeti elképzelés szerint minden AI-fejlesztésnek nyílt forráskódúnak kellett volna lennie, biztosítva, hogy a technológia előnyeiből mindenki egyenlően részesülhessen, és bárki szabadon versenyezhessen a legfejlettebb modellekkel.
Az OpenAI ChatGPT-je, amely jelenleg az egyik legbefolyásosabb AI-rendszer, paradox módon az internet korszakának egyik legkevésbé transzparens és hozzáférhető projektjévé vált. Ezt jól szemlélteti a GPT-4-ről kiadott, látszólag terjedelmes, 100 oldalas technikai dokumentáció, amely valójában meglepően kevés konkrét információt tartalmaz.
Vidákovics Attila sorolni kezdte: nem találhatók benne technikai részletek a modell működéséről, hiányzik a képzési folyamat leírása, nem ismerjük a modell méretét, és homály fedi az alkalmazott algoritmusokat, adatkészleteket, valamint a betanítási módszereket. A rendszer működésének kritikus algoritmusai is rejtve maradnak a nyilvánosság elől.
Az Indexnek nyilatkozó blokklánc-specialista szerint az OpenAI megbízhatósága súlyos kérdéseket vet fel. A vállalat működésének átláthatatlansága különösen szembetűnő a szellemi tulajdonjogok és személyes adatok kezelése terén. A szakértő megítélése szerint művészek alkotásait és szerzői joggal védett munkákat használtak fel kompenzáció és hozzájárulás nélkül, miközben a személyes adatok felhasználásának részleteiről is hallgatnak, ezt üzleti titokra hivatkozva teszik.
Kutatói vizsgálatok feltárták, hogy a ChatGPT képzési adatbázisa személyazonosításra alkalmas információkat tartalmaz, beleértve telefonszámokat, címeket és felhasználói fiókadatokat. Az adatbázis tartalmaz továbbá könyveket, regényeket, valamint munkahelyi környezetben nem biztonságos (NSFW) tartalmakat, valamint társkereső oldalakról származó szövegeket is.
Vidákovics Attila szerint a helyzet súlyosságát jelzi több folyamatban lévő per, amelyeket programozók és művészek indítottak. Ezek szerint az OpenAI mintegy 300 ezer könyvet használt fel, részben illegális forrásokból, úgynevezett árnyékkönyvtárakból származó, szerzői joggal védett anyagokat. Az OpenAI védekezése erre mindössze annyi, hogy ez „méltányos használat". Ugyanakkor a vállalat határozottan fellép saját szerzői jogainak védelmében, ha valaki az ő kódját próbálná felhasználni származékos művek létrehozására.
A személyes adatok kezelése még aggasztóbb terület a szakértő szerint. Az OpenAI elismeri, hogy „véletlenszerűen" gyűjt és használ személyes információkat modelljei képzéséhez. Míg a nyilvánosan elérhető internetes adatok felhasználása várható volt, a harmadik felektől licenszelt adatok és a felhasználóktól gyűjtött információk felhasználásának részletei homályban maradnak.
Az OpenAI állítása szerint modelljük nem memorizálja a képzési adatokat, csupán súlyozott paramétereket tárol az információk értelmezéséhez. Azonban több kutatási tanulmány is bizonyította ennek ellenkezőjét.
A ChatGPT nemcsak megőrzi az információkat, hanem különböző promptolási technikákkal lehetséges a képzési adatok kinyerése. A rendszer sebezhetősége lehetővé teszi identitásának megváltoztatását, a cenzúra megkerülését, és rosszindulatú promptokkal való támadását, ami bárki számára potenciálisan hozzáférhetővé teheti a felhasználói információkat.
A DLabs vezetője szerint ez a probléma nem igényel különösebb technikai szakértelmet – bárki, aki képes promptokat megfogalmazni a ChatGPT számára, megfelelő türelemmel vagy szerencsével rátalálhat olyan módszerekre, amelyekkel kijátszhatja a rendszer védelmét. A képzési modellek személyes adatokat tartalmaznak, és ennek megfelelő védelmet igényelnének. Adja magát a kérdés: valóban megfelelően kezelik ezeket az adatokat? És ami még fontosabb: milyen lehetőségei vannak a felhasználóknak, ha nem szeretnék, hogy adataik bekerüljenek egy ilyen adathalmazba?
Jelzésértékű, hogy a közelmúltban a kaliforniai Clarkson ügyvédi iroda csoportos keresetet nyújtott be az OpenAI ellen, a ChatGPT fejlesztőjével szemben, a felhasználók magánéletének megsértése miatt. A kereset középpontjában az a súlyos vád áll, hogy a vállalat megsértette internetfelhasználók millióinak jogait és magánszféráját. Az ügyvédi iroda hivatalos közleménye hangsúlyozta, hogy
olyan valódi emberek képviseletét vállalták, akiknek személyes információit jogtalanul használták fel egy rendkívül hatékony technológia kereskedelmi célú fejlesztéséhez.
Az ügy különös megvilágításba helyezi az OpenAI ellentmondásos magatartását. A vállalat, amely korábban jelentéktelennek próbálta feltüntetni a szerzői jogok megsértésével és a személyes adatok jogosulatlan felhasználásával kapcsolatos vádakat, most határozott felháborodását fejezi ki a DeepSeek megjelenése kapcsán. A kínai versenytárs ugyanis nyíltan beismerte, hogy rendszerük betanításához a ChatGPT-ből kinyert adatokat használtak fel. Ez az eset különösen pikáns, hiszen olyan adatokról van szó, amelyeket eredetileg az OpenAI maga is vitatható módon szerzett meg.
Az AI-modellek fejlődésével exponenciálisan nő az adatigényük, ami számos etikai és biztonsági kérdést vet fel. Az OpenAI médiaszervezetekkel és egészségügyi intézményekkel kötött partnersége lehetővé teszi a felhasználók olvasási szokásainak, reakcióinak, politikai nézeteinek, ideológiai beállítottságának és egyéb preferenciáinak részletes elemzését. A fejlődés iránya egy olyan rendszer felé mutat, ahol minden digitális interakció – legyen szó elolvasott cikkről vagy megtekintett videóról – nyomon követhetővé válik, és beépül az egyének profilozását végző AI-modellekbe.
Vitathatatlan, hogy a fejlett mesterséges intelligencia alkalmazása az egészségügyben jelentős előrelépést hozhat: felgyorsíthatja a diagnosztikai folyamatokat, növelheti azok pontosságát, és forradalmasíthatja a gyógyszerkutatást. Ugyanakkor az adatkezelés módja több mint aggályos. A vállalat hozzáférést kapott a HIPAA (az 1996-os Health Insurance Portability and Accountability Act vagyis az egészségbiztosítás hordozhatóságáról és elszámoltathatóságáról szóló törvény) és az EHDS (European Health Data Space, tehát az európai egészségügyi adattér) adatbázisaihoz is, melyeket számos partnerrel és egyetemmel osztanak meg. Bár speciális adatvédelmi garanciákat ígérnek, a korábbi precedensek – mint például a Google DeepMind jogi ügyei a nem megfelelő adatkezelés miatt – megkérdőjelezik ezen biztosítékok megbízhatóságát. A lapunknak nyilatkozó fintechszakértő szerint:
ez egyértelműen a hiperperszonalizált adatgyűjtés irányába tett újabb lépés, ami mellett nem mehetünk el szó nélkül, még akkor sem, ha a technológia potenciális előnyei jelentősek.
Az adatgyűjtés kiterjedt a különösen érzékeny biometrikus és egészségügyi információkra is. Az OpenAI befektetése az Opal webkamera startupba azért ad okot a kétkedésre, mivel az AI-vezérelt kamerák képesek biometrikus adatok, arckifejezések rögzítésére, sőt potenciálisan érzelmi állapotok azonosítására is. Ez egy olyan jövő felé mutat, ahol az AI nemcsak tevékenységeinket, hanem érzelmi reakcióinkat is monitorozhatja.
Az OpenAI vezérigazgatója, Sam Altman Worldcoin nevű projektje külön figyelmet érdemel: ez egy olyan kriptovaluta-kezdeményezés, amely íriszszkennelésre épülő biometrikus azonosítást alkalmaz. A projekt már több mint 6,5 millió ember biometrikus adatait gyűjtötte össze. A határokon átívelő adatgyűjtés elsősorban a gazdaságilag kiszolgáltatott réteget célozza, amelynek tagjai minimális anyagi ellenszolgáltatásért cserébe adják át biometrikus adataikat.
Figyelemre méltó, hogy az OpenAI nemrég ellenezte egy olyan kaliforniai törvényjavaslat bevezetését, amely alapvető biztonsági sztenderdeket határozott volna meg az AI-fejlesztők számára. Ez jelentős eltérés Sam Altman korábbi, szabályozáspárti álláspontjától.
Mira Moradi, az OpenAI technológiai igazgatója fontos nyilatkozatot tett a jelenlegi AI-modellek kockázatairól, különös tekintettel azok felhasználókra gyakorolt befolyásolási képességére. A szakember rámutatott, hogy ezek a rendszerek jelentős potenciállal rendelkeznek a meggyőzés és irányítás terén. Vidákovics Attila erről az Indexnek elmondta:
a jelenlegi AI-modellek már most is alkalmasak összetett befolyásolási műveletek végrehajtására, beleértve a nagyobb társadalmi csoportok célzott manipulációját. Bár ezek a technikák korábban is léteztek, az AI jelentősen fokozza hatékonyságukat. Fontos azonban megjegyezni, hogy a manipulációs kísérletekkel szemben kialakítható egyfajta immunitás: azok, akik tisztában vannak ezekkel a mechanizmusokkal, nagyobb valószínűséggel ismerik fel és állnak ellen a befolyásolási kísérleteknek.
A fintechszakértő szerint a Google Jigsaw-projektje szemléletes példája az adatalapú viselkedésbefolyásolásnak. A projekt eredetileg londoni szélsőségesek azonosítására irányult, együttműködésben a brit titkosszolgálattal (GCHQ). A rendszer keresési szokások alapján azonosította a célcsoportokat, majd módosította számukra a keresési eredményeket, hogy ellensúlyozza szélsőséges nézeteiket. Ezt a technológiát azóta szélesebb körben is alkalmazták, potenciálisan a népesség jelentős részét érintve.
Moradi külön kiemelte, hogy az OpenAI modelljeinek elfogultsága nem kizárólag a betanítási adatokból ered. Az AI-modellek alapértelmezetten tükrözik készítőik elfogultságait, bár ezek finomhangolással módosíthatók. A kontrolláló szervezetek, mint például a Microsoft vagy az Apple, amelyek az OpenAI modelljeit használják alapként, szabadon alakíthatják azokat saját céljaiknak megfelelően.
A RAG (Retrieval Augmented Generation, tehát adatkérésre alapozott mesterséges intelligenciák) technológia tovább növeli az AI-ok személyre szabott befolyásolási képességét. Ez a módszer ötvözi a nagy nyelvi modellek generatív képességeit a külső adatbázisokból történő információkereséssel, lehetővé téve a rendkívül célzott, személyre szabott kommunikációt. Nagy techvállalatok, mint a Facebook és a Google, különösen hatékonyan alkalmazhatják ezt a technológiát, mivel kiterjedt személyes adatbázisokkal rendelkeznek.
Míg az adatvédelem-tudatos felhasználók nagyobb védelmet élveznek ezekkel a technikákkal szemben, az átlagfelhasználók különösen sebezhetők. A társadalom ellenálló képességének növelése szempontjából kulcsfontosságú az adatvédelmi tudatosság széles körű terjesztése, mivel ez csökkentheti a manipulációs kísérletek hatékonyságát.
Január 21-én jelentős bejelentés érkezett a Fehér Házból: Donald Trump elnök, Sam Altman, valamint az Oracle és a SoftBank képviselői elindították a Stargate-projektet. Ez az 500 milliárd dolláros befektetési program egy centralizált mesterségesintelligencia-infrastruktúra létrehozását célozza, különös tekintettel az általános mesterséges intelligencia (AGI) fejlesztésére. Sam Altman korunk legmeghatározóbb projektjeként jellemezte a kezdeményezést, míg Szon Maszajosi a SoftBank részéről egy új aranykor kezdetének nevezte. A projekt túlmutat a puszta technológiai fejlesztésen; átfogó hatást ígér a nemzetbiztonság, az egészségügy és a gazdasági növekedés területén.
A jelentőségében a Manhattan-projekthez vagy az Apolloprogramhoz hasonlított kezdeményezés elsősorban az AI infrastruktúra-fejlesztésére összpontosít. Az OpenAI együttműködésben olyan technológiai óriásokkal, mint az Oracle, az Nvidia és a Microsoft, csúcstechnológiás számítási rendszerek kiépítését tervezi az Egyesült Államokban. A végső cél az AGI megalkotása – egy olyan mesterséges intelligencia létrehozása, amely nemcsak versenyképes az emberi képességekkel szemben, hanem potenciálisan meg is haladja azokat a gazdaságilag jelentős feladatok széles körében.
Larry Ellison, az Oracle vezetője hangsúlyozta, hogy a projekt célkitűzései nem elméleti jellegűek, hanem konkrét gyakorlati eredményekre törekszenek, különösen az egészségügy és a nemzetbiztonság területén. Az utóbbi különösen hangsúlyos: egy olyan globális környezetben, ahol a technológiai fölény gyakran geopolitikai hatalommá konvertálható, a Stargate-projekt az Egyesült Államok vezető pozícióját hivatott biztosítani a nemzetközi AI-versenyben, különös tekintettel a Kínával folytatott technológiai rivalizálásra.
Vidákovics Attila azonban úgy látja, a projekt jelentős kérdéseket vet fel a megfigyelési képességek és azok potenciális felhasználása tekintetében. Az Indexnek kifejtette: bár a védelmi célok hangsúlyosak, nem lehet figyelmen kívül hagyni azt a lehetőséget, hogy a rendszer támadó jellegű alkalmazásokra is felhasználható lehet. A technológia kettős felhasználhatósága és a koncentrált hatalmi struktúra komoly etikai és biztonsági megfontolásokat igényel.
Különösen elgondolkodtató Larry Ellison, az Oracle és a Stargate-projekt társalapítójának nyilatkozata, amit egy Oracle pénzügyi elemzői találkozón tett a kaliforniai Redwood Cityben. Víziójában egy olyan jövőt vázolt fel, amelyben a mesterséges intelligencia által vezérelt megfigyelőrendszerek folyamatos ellenőrzés alatt tartják mind az állampolgárokat, mind a rendfenntartó szerveket. Ellison érvelése szerint ez a mindenre kiterjedő felügyelet és dokumentáció arra ösztönözné az embereket, hogy „legjobb viselkedésüket" mutassák, ezáltal elősegítve egy biztonságosabb társadalom kialakulását.
A Stargate-projekt már jóval a hivatalos bejelentés előtt megkezdődött: jelenleg tíz adatközpont áll építés alatt a texasi Abene-ben, és további terjeszkedés várható más államokban is. A projekt tényleges kivitelezése már két éve folyamatban van.
A magánszektorban eddig példátlan nagyságrendű befektetésről van szó, ami az Apollo-program inflációval korrigált költségvetésének kétszeresét teszi ki. Mindezt elvileg teljes egészében magánbefektetésből finanszírozzák, látszólag mentesítve az amerikai adófizetőket. Igaz, a projekt infrastruktúrájának központi elemei – a csipek és szerverek – mindössze 3-5 éves élettartammal rendelkeznek. Ez a rövid amortizációs időszak hagyományos üzleti modell mellett gyakorlatilag lehetetlenné tenné a befektetés megtérülését, ami arra utal, hogy a projekt valódi értéke a geopolitikai előnyökben keresendő.
Az elmúlt év során jelentős változások történtek az OpenAI működési alapelveiben. A vállalat eltávolította alapszabályzatából a magas kockázatú, fizikai sérüléssel járó tevékenységekre vonatkozó tilalmat, különös tekintettel a katonai és hadviselési célú fejlesztésekre. Ezt követően nemrég bejelentette együttműködését egy kaliforniai fegyvergyártó vállalattal mesterséges intelligenciával működő fegyverek fejlesztése céljából.
Ez összhangban állhat az amerikai hadsereg törekvéseivel, amelyek a mesterséges intelligencia harctéri alkalmazásának legitimizálására irányulnak.
Eric Schmidt, a Google egykori vezérigazgatója nemrég bejelentette, hogy vállalata az ukrajnai konfliktus következtében hivatalos fegyverkereskedői engedélyt szerzett, elsődleges célja pedig Ukrajna támogatása az AI harctéri alkalmazásában.
Schmidt, aki az SCSP (Special Competitive Studies Project, azaz különleges versenyképességi tanulmányok projekt) tanulmányában arra figyelmeztetett, hogy az Egyesült Államok négyéves lemaradásban van Kínához képest az AI-fejlesztések terén, különös hangsúlyt helyezett a megfigyelési, adatgyűjtési és ellenőrzési képességek fontosságára. Ez a geopolitikai kontextus új megvilágításba helyezi a Stargate-beruházást, magyarázatot adva annak látszólag gazdaságtalan méretére és sürgősségére.
A Stargate-projekt bejelentését megelőző napon Kína fontos lépést tett az AI-versenyben a DeepSeek R1 AI modell elindításával. Ez a rendszer nemcsak felveszi a versenyt az OpenAI legfejlettebb modelljével, hanem hat teljesítménymérési kategóriából háromban felül is múlja azt – néhol minimálisan, máshol jelentősen. Ez az eredmény megkérdőjelezi az OpenAI feltételezett technológiai fölényét az AI-szektorban.
A teljesítmény mellett Kína valódi üzenete a hatékonyságban rejlik: a DeepSeek R1 képes hasonló teljesítményt nyújtani mindössze 2000 másodrangú csip felhasználásával, szemben az OpenAI 16 ezer csúcskategóriás csipjével. Az állítás hitelességét erősíti, hogy a DeepSeek nyílt forráskódú természete lehetővé teszi a független ellenőrzést.
A DeepSeeket olyan licenc alatt adták ki, amely teljes szabadságot biztosít a felhasználóknak: bárki szabadon használhatja, módosíthatja, terjesztheti, vagy akár értékesítheti a szoftver másolatait. Ez paradigmaváltás, a vállalat nemcsak bizonyította, hogy lehetséges csúcsminőségű AI-t építeni töredék költséggel, de részletes, 22 oldalas dokumentációban meg is osztotta módszereit. Míg a Microsoft, a Google és az OpenAI zárt rendszerekben gondolkodik, addig a DeepSeek transzparens megközelítése lehetővé teszi állításai független ellenőrzését. A modell várhatóan globális kutatási platformmá válik, mivel ez az egyetlen nyilvánosan elérhető rendszer, amely versenyképes a vezető kereskedelmi megoldásokkal. Ez azt jelenti, hogy kutatócsoportok, vállalatok és fejlesztők világszerte erre a platformra építhetnek, ami jelentős előnyt biztosíthat Kínának az AI-fejlesztés terén.
Ugyanakkor a DeepSeek, hasonlóan amerikai versenytársaihoz, tartalmaz bizonyos korlátozásokat és elfogultságokat, különösen a kínai politikai rendszerrel kapcsolatos kérdések tekintetében. Ez a tény különös jelentőséggel bír, ha figyelembe vesszük a platform potenciális globális befolyását
– figyelmeztetett a szakértő. Hozzátette, a nyílt forráskódú megközelítés hosszú távú előnyei kétirányúak: míg a technológia szabadon hozzáférhető és fejleszthető, az eredeti fejlesztők részesülnek minden későbbi fejlesztés előnyeiből anélkül, hogy azokért fizetnének. Ez a stratégia, kombinálva a széles körű elfogadással, jelentős előnyt biztosíthat Kína számára az AI-fejlesztés globális versenyében.
Érdemes mérlegre tenni, hogy a decentralizált AI egyik legnagyobb előnye, hogy feloldja a hatalmi koncentrációt, így a döntéshozatal és a fejlesztés nem egy szűk elit kezében összpontosul, hanem a közösség igényeit tükrözi. Vidákovics Attila szerint ez csökkenti a manipuláció és a tömeges befolyásolás lehetőségét, hiszen egyetlen szervezet sem irányíthatja önkényesen a rendszert.
(Borítókép: SOPA Images / Getty Images)