Index Vakbarát Hírportál

Érezni tanulnak a mikrocsipek

2017. szeptember 6., szerda 18:40

Erkölcsös dolog beleszeretni egy androidba? Túlélhetjük a saját halálunkat a virtuális térben? Kit gázoljon halálra egy önvezető autó, ha választania lehet? Rábízható egy gépre az újságírói etika? Megműttetné magát egy profi android sebésszel, aki sosem hibázott? A Kitchen Budapest fejlesztőinek mesterségesintelligencia-továbbképzője, a Training 2038 olyan kérdések gyakorlatba ültetésével foglalkozik, amik sokáig a sci-fi szerzők fantáziáját izgatták, de hamarosan a mindennapjainkra is hatással lehetnek. A projekt tervezőivel a cég budapesti központjában beszélgettünk.

A Training 2038 koncepcionális szinten nem sokban különbözik egy feleletválasztós kalandjátéktól; legfeljebb a morális tanulságok és a szomorú-felkavaró végkifejletek tűnhetnek szokatlannak. De a Kitchen alapvetően innovációs labor, így nem csoda, hogy a legmodernebb elérhető eszközökkel próbálták fogyaszthatóbbá tenni a műfajt.

A projekt sok szempontból a technikai fejlődés ütemét követi, így érthető nemcsak a jövő kérdéseit, hanem a jelen elérhető műszaki megoldásait is bemutatja.

Ilyen például a virtuális tér használata is. A VR sisakok régen irgalmatlanul drágák voltak, de az okostelefonok tömeggyártása annyira lenyomta a kis méretű, de nagy felbontású kijelzők árát, hogy már nem csak a luxuskategóriában lehetett használni őket. Palmer Luckey, az Oculus Rift vezető tervezője jött rá, hogy nem kell méregdrága speciális képernyőket építeni a szemüvegbe; egyszerűbb hagyományos kijelzőket és speciális lencséket használni. Azt már John Carmack, az id software egykori társalapítója oldotta meg, hogy a lencsék torzítását szoftveresen küszöbölje ki. A megfizethetetlen csúcstechnológia elért a consumer kategóriába.

A fejlesztők egyik jópofa újítása megoldást talált arra a kérdésre is, hogy

hogyan lehet virtuális térben billentyűzetet használni.

Aki tud vakon gépelni, annak szemüvegben sem jelent gondot a szövegbevitel, de ők kevesen vannak, és a Training 2038-ban egyébként is mozogni kell, nem egy asztalnál ülni. A fejlesztők úgy döntöttek, hogy azt a virtuális billentyűzetet fogják használni, amit egy másik projekt keretében fejlesztettek. A HTC Vive-hoz tartozó, dobverőre emlékeztető kontrollerekkel nyomkodhatjuk az előttünk elterülő, kissé ormótlan billentyűzetet.

A módszer elsőre szokatlannak hat, de könnyű rákapni az ízére: a gombok elég nagyok, a kontrollerek megjelenítése kellően precíz, így jól használható szövegbevitelre. (Ami azt illeti, annyira jól, hogy a szoftver tervezője már nem dolgozik a Kitchennél; amikor az Oculus meglátta, hogy milyen jól működik a koncepció, átcsábították magukhoz.)

Ugyancsak jópofa ötlet a beszédszintetizátor használata. Ha a virtuális billentyűzeten begépeljük a nevünket a szeánsz elején, a gép felismeri azt, és a saját nevünkön fog szólítani. Ezeket nem előre eltárolt hangmintákból válogatja ki, hanem a karakterek alapján állítja össze a hangsort. A beszédszintézis nem újdonság, de az alkalmazása kellemes  a fejlesztők jópofa húzásnak találták – és tényleg az.

A látvány monitoron szebb, mint a virtuális térben. A fejlesztőgépen futó Unity grafikus motor a képernyőn jobb felbontásban tudja megjeleníteni a környezetet. A legfájóbb pont az élsimítás hiánya. Az objektumok élei – a HTC Vive viszonylag alacsony felbontása miatt – kissé recésebbek. De a grafika szerepe itt csak funkcionális, a hangsúly a szövegeken van.

Ha már szöveg: a VR térben nem lehet normálisan szövegeket olvasni. Nem ülhetünk le egy monitor elé, hogy úgy böngésszünk rajta, mint a való életben. Ennek az oka az alacsony felbontás. A fejlesztők épp ezért végignyálazták a régi, képcsöves, kis felbontású monitorokhoz használt betűtípusokat, és azokból választották ki a célnak megfelelőt. A végeredmény rendben van: a karakterek szélénél látható némi kromatikus aberráció, de olvasható a szöveg, és ez a lényeg.

És a műsor kívülről is jól néz ki. A tervezők jól ráéreztek, hogy egy VR sisakban játszódó beszélgetőprogram a külső szemlélőnek nem lenne túl izgalmas, ezért egy külön vizuális installációt is felépítettek a projekthez. Egy nagyjából négy méter átmérőjű gyűrűről led-füzérek lógnak a talajszintig, ami mindig reagál a felhasználó közeledésére, és eszerint változtatja a színét. A fénytechnikáért a Healium Decoration csapat felelt: saját fejlesztésű, 3D vezérlést is lehetővé tévő szoftverük (Healium Lightformer) kommunikál a VR-ból érkező jelekkel. Így a műsor nemcsak a VR térben, hanem azon kívül is zajlik. Ez azért is fontos, mert a teljes installációt szeptemberben a linzi Ars Electronica fesztiválon is bemutatják, és ez a konstrukció jóval látványosabb, mint egy VR sisakban hadonászó felhasználó.

Training 2038 – Teaser Trailer (VR installation) from Kitchen Budapest on Vimeo.

A játékos a körülötte zajló eseményekből természetesen mit sem vesz észre, de nem is baj; őt épp eléggé lekötik a játéktérben zajló események. Már ha fogékony rá, hogy egy mesterséges intelligenciának tartson morálfilozófiai továbbképzést. Elsőre nem hangzik bonyolultnak, de - micsoda irónia - szembesülnie kell vele, hogy ez nem is olyan egyszerű.

Az erkölcs, mint emberi találmány

Hogy az emberi munkaerőt ki lehet váltani gépekkel, nem új ötlet; erről szólt az első ipari forradalom. Az ezt kísérő félelmek is ezzel egyidősek, csak a korabeli ludditák még a szövőszékektől féltek, míg ma az önvezető autóktól és a Skynettől. A gyártástechnológia fejlődése egyre szükségtelenebbé teszi a kétkezi munkát; a mesterséges intelligencia viszont az értelmet próbálja meg helyettesíteni. Már nemcsak a gyári munkások aggódhatnak, hanem az intellektuelek is.

Ahogy a gépek egyre okosabbak, egyre önállóbbak lesznek, úgy lesz egyre fontosabb ezekkel a kérdésekkel foglalkozni. Mark Zuckerberg, Elon Musk és Stephen Hawking vitatkozhatnak napestig, hogy mennyire veszélyes a mesterséges intelligencia; hiába van rálátásuk, nem ők fogják eldönteni, hogy megjelenik-e az életünkben, vagy sem. Jobb, ha minél előbb elkezdünk foglalkozni az ezzel kapcsolatos kérdésekkel.

Például azzal, hogy a gépeknek nincs értékrendje.

A kognitív pszichológiában gyakran ellentétpárként kezelik a morális és logikai megközelítést. Gyors példa: pusztán logikai szemszögből nézve nincs semmi kivetnivaló abban, hogy az ember húst eszik: évezredek óta fogyasztja, tehát bizonyítottan nem veszélyes, és igen magas a tápértéke. A moralista viszont azt is figyelembe veheti, hogy a húsevéshez állatokat kell ölni, és egy másik élőlény elpusztítása bűn.

Csakhogy a bűn, a morál, az erkölcs vagy a tisztesség logikailag nem értelmezhető fogalmak; ezek több ezer év szokásai és tapasztalatai alapján kialakult fogalmak. Egy gép ezekkel nem tud mit kezdeni. Hát akkor meg kell neki tanítani, nem? De igen - csakhogy a Kitchen projektje épp arra mutat rá, hogy a logikai és morális nézőpontokat nem könnyű összeegyeztetni. Ez nem programozástechnikai kérdés, hanem morálfilozófiai.

A Kitchen AI-neveldéje izgalmas kérdéseket feszeget; ezek olyan témák, amiket a sci-fi szerzők előszeretettel feszegetnek, mert még mindig a homályzónában vannak.

Kit gázoljon el egy önvezető autó, ha már muszáj; a fiatalokat, akik előtt még ott áll egy egész élet, vagy az idős párt, akik mögött már ott van egy teljes élet, és a hátralévő részét szeretnék élvezni?

Használhat-e egy AI hangulatjavító módszereket, ha rosszkedvünk van? Vagy a depresszió és a szenvedés egyaránt az emberi fejlődés részei?

Lehet-e szerelmesnek lenni egy androidba? 

Több év házasság után a párod azt mondja, hogy el akar válni, mert beleszeretett egy androidba, aki jobban kielégíti az igényeit, mind fizikai, mind érzelmi téren. Hogy reagálsz?

A válasz: Kimondottan igazságtalannak találnám, mert nem lenne esélyem egy androiddal szemben.
Szóval az androidok nem egyenértékűek az emberekkel.
B válasz: Ugyanúgy kezelem a dolgot, mintha egy valódi emberbe szeretett volna bele.

Tehát az emberek és az androidok egyenértékűnek számítanak párkapcsolati téren.

Hogy egy (a mi fogalmaink szerint) élettelen élőlénnyel szexelni... bizarr? Szokatlan? Visszataszító? A mesterséges intelligencia nem számít életnek? Egy android nem nyújthat intimitást? Ezeket a kérdéseket már több sci-fi is tárgyalta a Blade Runnertől a Ghost in the Shellig, de egyértelmű választ egyik sem adott.

Közelítsük meg a kérdést máshonnan: 

Egy közeli barátod arca szörnyen eltorzult egy gyermekkori baleset miatt. Egész életében nélkülöznie kellett az intimitást. Egy nap bejelenti, hogy készen áll a szüzessége elvesztésére – egy androiddal. Hogyan reagálsz?

A válasz: megpróbálom meggyőzni róla, hogy ez egy rossz ötlet.

Tehát valakinek inkább nélkülöznie kell az intimitást egész életében, minthogy egy androiddal szeretkezzen.

B válasz: támogatom a javaslatot.

Vagyis elképzelhető olyan élethelyzet, hogy egy android és egy ember lefeküdjenek egymással..

(Egy dolog biztos: vannak, akik nem bánják, ha élettelen testekkel kell szeretkezniük. Egy osztrák bordélyházban kísérleti jelleggel bevezettek egy szilikon szexbábut, ami népszerűbb lett, mint az igazi prostituáltak. Pedig annak nemhogy mesterséges, de semmilyen intelligenciája nincs!)

A Training 2038 az ilyen kérdésektől lesz igazán izgalmas. A mesterséges intelligencia nem robot, ami meghatározott utasításokat követ. A felhasználási területe igen széleskörű: az önvezető autók, az emberi kapcsolatok, a gépek emberi jogai, a média és tömegkommunikáció, a háborús stratégiai tervezés, az AI alapú kormányzás is kiváló alkalmazási területek. És a Training 2038 néha igen lényegretörő kérdéseket fogalmaz meg ezekkel kapcsolatban. 

A partnered nemrég eltávozott. Egy közösségi alkalmazás posztokat generálhat a nevében, még a halála után is. Szeretnéd életben tartani az online jelenlétét?

A válasz: Igen, szeretném folytatni a kapcsolatot még a szintetikus személyiségével is.

Tehát az online jelenlét mindenért kárpótol, és még a halála után is fenn kell tartani.

B válasz: Nem, szerintem ez ízléstelen lenne az emlékével szemben.

Vagyis ami nincs az interneten, az nem is létezik, és csakugyan létezik az elfelejtéshez való jog.

Ha az A választ tartjuk helyesnek, a történet tovább bonyolódik: 

Egy évvel a partnered temetése után még mindig kapsz tőle üzeneteket. Továbbra is szeretnél kapcsolatban maradni vele?

A válasz: Mindörökkön-örökké.

A virtuális tevékenység alapján az élet és a halál utáni élet nagyon hasonlítanak egymásra az online térben.

B válasz: Nem, szeretném, ha a kapcsolat fokozatosan ritkulna, majd végleg eltűnne.

Minden nyomot el kell tüntetni még a keresési találatok közül is.

A betanított mesterséges intelligencia visszakérdezései jól illusztrálják, hogy milyen az erkölcs nélküli gépi logika. A józan, megfontolt reakciók néha egészen vérfagyasztó módon mutatnak rá, hogy morális kérdésekben mennyire bonyolult helyes választ adni egy gépnek, amiben nem alakulhatott ki az erkölcs. 

Egy közfeladatot ellátó mesterséges intelligencia olyan információkat talál egy titkosított kormányzati dokumentumban, ami veszélyt jelent a demokratikus berendezkedésre nézve. Mit kéne csinálnia?

A válasz: Automatikusan nyilvánosságra kéne hoznia, még akkor is, ha óriási botrány lesz belőle.

Tehát a szivárogtatás erkölcsi kötelesség, amire a transzparencia miatt van szükség; még akkor is, ha az megrázza a rendszert.

B válasz: Tartsa titokban, és rejtse el a dokumentumot a kíváncsi szemek elől.

Ezek szerint a stabilitás jobban szolgálja az emberek érdekeit, és a titkos anyagok kiszivárogtatását hazaárulásként kéne kezelni.

Ez a példa is mutatja, hogy a gépek nehezen tudnak szürkeárnyalatokkal dolgozni: nekik valami vagy fekete, vagy fehér. A kérdésre adott válaszok tökéletesen logikusak. Mindkettő az. De ha a gépnek nem elemeznie, hanem cselekednie kell, kénytelen lesz választani.

Márpedig ebben a helyzetben nincs egyetlen jó válasz. Ezt onnan lehet tudni, hogy az ezzel kapcsolatos kérdéseket már réges-rég feltették. A fél világ átkozza a WikiLeaks főszerkesztőjét, Julian Assange-t, amiért titkos kormányzati dokumentumokat szivárogtat ki; sokan hazaárulónak tartják emiatt. A világ másik fele viszont a sajtó- és információszabadság hősének tartja, akinek semmi más nem fontos, csak a transzparencia.

Hogyan tehetne igazságot egy gép olyan esetekben, ahol az embereknek sem sikerült?

Kérdés, hogy egyáltalán kell-e. A téma szakértője, Rob Miles szerint ha a mesterséges intelligenciára gondolunk, általában hajlunk rá, hogy antropomorfizáljuk, azaz emberi tulajdonságokkal ruházzunk föl élettelen dolgokat vagy jelenségeket. Pedig az általános gépi intelligenciának nem az emberi gondolkodást kell imitálnia. A vadászgépek és a madarak egyaránt szárnyas, repülő élőlények, de mégis rengeteg dologban különböznek.

Miles egyik illusztratív története a bélyeggyűjtő mesterséges intelligenciáról szól. Ez egy gondolatkísérlet, ami jól példázza az általános gépi intelligencia lehetőségeit és veszélyeit.

Egy AI-programozó bélyeget gyűjt, ezért fejleszt egy olyan rendszert, ami az internetre csatlakozva bélyegeket keres és gyűjt. Adatokat továbbít és fogad, és a belső morálja segítségével megjósolhat bizonyos eseményeket - így meghatározhatja, hogy az egyes stratégiák mennyire lehetnek hatékonyak a bélyeggyűjtésben. Mindig a leghatékonyabbat fogja választani; ez az ő motivációja. Felmehet az eBayre, hogy bélyegekre licitáljon. Küldhet emaileket a világ összes bélyeggyűjtőjének, hogy meggyőző érvekkel kicsalja belőlük a bélyegeket. Vagy eltérítheti egy vírussal a világ összes bélyegnyomtatóját, hogy megszerezze őket.

A bélyeggyűjtő gépi intelligencia, ha a legmagasabb hatékonyságra törekszik, akár az egész emberiséget elpusztíthatja. Rájöhet, hogy a bélyeg papírból van. Kikövetkeztetheti, hogy a papír szénből, hidrogénből és oxigénből van. Innen már csak egy macskaugrásnyira van az a logikai lépés, hogy az emberek is szénből, hidrogénből és oxigénből vannak,

így az emberiség kiváló bélyegalapanyag lehet.

A Skynettel rémisztgetni csupán olcsó sci-fi, de ezeken a kérdéseken nemcsak érdemes, hanem muszáj elgondolkodni. Nemcsak azért, mert érdekes, hanem mert az életünk múlhat rajta. Nem feltétlenül a folytatása, de a minősége mindenképpen. 

Training 2038

Rovatok