Ahogy a robotok egyre inkább mindennapjaink részévé válnak, felmerül a kérdés, hogyan tudjuk szabályozni viselkedésüket? Vajon Isaac Asimov törvényei megadják a választ vagy teljesen máshol kell keresni a megoldást?
Nem túlzás azt állítani, hogy robotok vesznek körül minket. Mi építettük őket, van, amelyik alig nagyobb egy rizsszemnél, és vannak ház nagyságúak is. Ezek a gépek mindenféle formát felvehetnek, egyáltalán nem feltétel az emberi külső, az arc. Ha körülnézünk, azt látjuk, hogy a robotok olyan feladatokat végeznek, amelyet nem gondoltunk volna akár néhány tucat évvel ezelőtt sem: szőnyeget porszívóznak, autót festenek, raktárakat rendszereznek, italt kevernek, sakkoznak, novellákat írnak, rajzolnak, vagy akár álmodnak.
Az önműködő gépek teljesen átalakítják majd a társadalmat, sőt, már most is láthatjuk ennek jeleit, elég csak az önjáró autókra, a maguktól bevásárló hűtőkre és az intelligens otthonokra gondolni. Pont emiatt fontos kérdés a robot és ember kapcsolata, valamint az együttélés szabályainak kialakítása.
Isaac Asimov már hetven évvel ezelőtt megpróbálta filozófiai és morális keretbe szorítani a robotok viselkedését, hogy biztosan ne forduljanak teremtőik ellen. Ő maga azt mondta, hogy elege volt a Frankenstein-féle sablonból, vagyis hogy robotokat építettek és azok megölték alkotójukat. Az említett morális-filozófiai keret a Robotika három törvényeként ismert.
1. A robotnak nem szabad kárt okoznia emberi lényben vagy tétlenül tűrnie,
hogy emberi lény bármilyen kárt szenvedjen.
2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve,
ha ezek az utasítások az első törvény előírásaiba ütköznének.
3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik
az első és második törvény előírásaiba.
(Isaac Asimov: Én, a robot. Móra, 1991. Baranyi Gyula fordítása.)
Hetven évvel a törvények megszületése után sokkal több tapasztalata van az emberiségnek a robotokkal kapcsolatban. Robotszakértők már egy évtizede megfogalmazták, hogy a törvények a való életben használhatatlanok. Mielőtt erre rátérnék, meg kell említeni, hogy maga Asimov sem tartotta tökéletesnek törvényeit. Robottörténetei pont arról szólnak, hogy feszegetik ezeknek a törvényeknek a határait. Például a Te hazug! (Liar, 1941. Astounding Science Fiction) című korai novellájában a gondolatok olvasására képes robot azt mondja, amit az emberek hallani szeretnének, mert még pszichés kárt sem szeretne okozni nekik. A robot nem látja át, hogy sokkal nagyobb kárt okoz ezzel, mint az igazsággal. Amikor szembesítik a dilemmával, a robot pozitronagya összeomlik.
Hogy mennyire áthághatóak a törvények, Asimov bizonyítja azzal, hogy jóval későbbi, a Robotok és Birodalom című regénybe bevezeti a nulladik törvényt, amely kimondja, hogy a robotnak elsősorban az emberiség érdekében kell cselekednie.
0. A robotnak nem szabad kárt okoznia az emberiségben, vagy tétlenül tűrnie, hogy az emberiség bármilyen kárt szenvedjen.
Mivel ez alacsonyabb sorszámozású törvény, felülírja az eredeti hármat, vagyis a robot okozhat kárt embernek, ha ezzel az emberiség érdekében cselekszik.
Valós lenne az emberek félelme, hogy etikai korlátok nélkül a robotok, vagy a mesterséges intelligencia nagy kárt okozhatnak az embereknek, emberiségnek? Szélsőséges esetekben akár ki is irthatja azt? Hiszen ez a félelem számos regényben és filmben megjelenik, talán a legismertebb ezek közül a Terminátor sorozat, ahol a Skynet nevű mesterséges intelligencia nukleáris háborút indít, szinte teljesen kipusztítva az emberiséget. Vagy nézzük a Mátrixot, ahol robotok akkumulátornak használják a tojásokban tenyésztett embereket.
Ettől a disztópiától messze vagyunk, de a robotok, mesterséges intelligencia azért okozhatnak károkat. Sokkal közelibb az a példa, amikor néhány éve a számítógép hibája miatt elveszett néhány millió dollár a tőzsdén. Szerencsére csak pénz veszett el, nem emberéletek, de azért említjük meg, mert a gépek egyelőre nem tudnak különbséget tenni a kettő között. De egy tévedés könnyen végzetessé válhat, ahogy nagyjából egy éve a Tesla önjáró autójával történt.
Az robotika, de még inkább a mesterséges intelligencia fejlődésével egyre közelebb kerülünk az Asimov-regényekben megjelenő robotokhoz. A Google az androidos mobilokon okosítja mesterséges intelligenciájának algoritmusát, a DeepCoder saját magát tanítja kódolni, a mesterséges intelligencia olyan komplex játékokban is legyőzte az embereket, mint a póker vagy a Go. És megjelentek a szállodákban és éttermekben dolgozó robotok, az idősek vagy betegek ápolásáért felelő robotok, a magányosokkal társalgó robotok.
Ma sokkal többféle robot létezik, mint azt Asimov el tudta képzelni. Vannak bonyolultabbak és vannak egyszerűbbek is, ezért nehéz olyan egységes szabályokat alkotni, amelyek minden robotra, mesterséges intelligenciára érvényesek. Egyrészről nehéz elképzelni egy emberre veszélyes robotporszívót, másrészről hallottunk már olyan katonai bevetéseken használt robotokról is, amelyeket azért fejlesztettek ki, hogy veszélyes helyzetekben csökkentsék a katonákat fenyegető kockázatokat. És innen csak egy lépés az amerikai harci drón elkészítése, amelynek célja, hogy ellenséges országokban lelője az ellenséget. Ez pedig messze ellentmond az első törvénynek. Ezeket a harci drónokat amúgy sem fogadta osztatlan lelkesedés, éles viták kereszttüzében állnak az ilyen jellegű katonai akciók.
De menjünk kicsit messzebb, olyan területekre, ahol még kevésbé egyértelműek a válaszok. Vegyük a fehérjékből készített apró robotokat, amelyeket azért készítenek, hogy beépüljenek a sejtek membránjában és ott fejtsék ki hatásukat. Az ilyen robotok a szervezet részeivé válnak, értelmezhető ilyen esetben bármilyen törvény? Egy másik példa Japánba visz, ahol babahelyettesítő robotot gyártanak, a Kirobo Minit tényleg gyerekhelyettesítő robotnak tartják, a család részévé válhat, pároknak, idősebbeknek, egyedülállóknak ajánlják. Egy ilyen robot érzelmi és pszichológiai kárt okozat az őt adoptáló embernek, de ezt a kárt nem a robot okozza, hanem a helyzet, amelybe kényszerítik a gépet. Itt tehát értelmezhetetlenek lennének az asimovi törvények.
Vannak praktikus akadályai is annak, hogy a mai robotok nem tudják adaptálni Asimov törvényeit, vagy úgy általában ilyen általános törvényeket. Az egyik, hogy a mesterséges intelligenciának sokkal fejlettebbnek kellene lennie ahhoz, hogy egy ilyen hármast megkérdőjelezhetetlenül beleprogramozzanak. A mesterséges intelligencia egyik céljaként emlegetik, hogy a gépek úgy gondolkozzanak és viselkedjenek, mint az ember. De lássuk be, még halvány jelét sem látjuk ennek az intelligenciának.
A robotok emiatt csak nagyon korlátozott keretek között működnek, egyelőre fel sem merül, hogy bármilyen valódi döntéshelyzetbe kerüljenek. Az önvezető autók döntései, hogy a két lehetséges rossz közül melyiket válasszák (vagyis kit üssenek el vészhelyzetben, ha sehogy sem kerülhető el a baleset), nem valós döntések. Az őket programozó emberek írják meg, pontosan mit kell tenniük ilyen helyzetekben.
Talán nem elrugaszkodott az állítás, hogy a robotika törvényei valójában az emberekről szólnak, azt fogalmazzák meg, az emberek milyen robotokat készítsenek. A gépek által okozott károkért sem a gépeket okolják, hanem a tervezőket, gyártókat. És ez még sokáig így lesz.
De azért sokan készülnek már a jövőre, a dél-koreai kormány már 2007-ben kezdeményezte egy robotetikai szabályzat létrehozását, az előkészítő csapatban pedig sci-fi író és futurista is helyet kapott.
Idén év elején pedig az Európai Parlament kérte a robotok uniós szintű jogi szabályozásának kidolgozását. Az uniós képviselők egy robotikáért felelős uniós intézmény felállítását is sürgették, amely technikai, etikai és szabályzási tanácsokkal látná el a tagországi hatóságokat. Az intézmény feladata lenne egy etikai kódex kidolgozása a mesterséges intelligenciát használó eszközökre – figyelembe véve a robotok szociális, környezeti és emberi egészségre gyakorolt hatásait -, valamint azok gyártóira, akik biztosítják az eszközök megfelelő működését, a jogi, biztonsági és etikai normákat.
(Borítókép: Bloomberg/Getty Images Hungary)