Index Vakbarát Hírportál

Újra kell írni a robotika három törvényét

2009. július 28., kedd 10:33

A robotetika alapjait már a múlt század közepén lefektette Isaac Asimov, de most, hogy jön a robotok új generációja, illene végre tudományos alapokra helyezni őket. A robotika három törvénye ugyanis több kutató szerint csak elméletben működik, és egy igazi ember-robot társadalomban nem állnák meg a helyüket.

Isaac Asimov, a sci-fi fejedelem már több mint fél évszázada megalkotta a robotika három alaptörvényét, aztán egy egész életművet húzott fel arra, hogy ezen törvények érvényességét, gyakorlati használhatóságát és a bennük rejlő ellentmondásokat a végtelenségig boncolgassa.

A tudomány és technika történetében nem egyedülálló jelenség, hogy egy író fantáziája kijelölni látszik a fejlődés irányát – hol jóslatok formájában, ahogyan Verne Gyula úgymond előre látta az autót, a televíziót meg a légkondicionálót, hol költői képekben, ahogyan William Gibson kitalálta a cyberspace-t, amelyen kapva kapott az éppen metaforahiánnyal küzdő techszektor.

A robotetikáról folytatott diskurzus azonban hosszú évtizedeken át megmaradt a fikció szintjén, ahogy biokémia-professzor létére Asimov is megmaradt az első számú, leggyakrabban hivatkozott autoritásnak, hiszen amíg nem létezik valódi mesterséges intelligencia, vagyis nem léteznek valódi robotok, a robotetika valóban közelebb áll a sci-fihez, mint a valósághoz.

A robotika három törvénye

1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.

2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.

3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.

Ennek a helyzetnek lassan vége. „A következő két évtizedben a robotok képesek lesznek arra, hogy összetett, strukturálatlan környezetekhez alkalmazkodjanak, és emberekkel lépjenek kapcsolatba, hogy segítsenek nekik mindennapi feladataik elvégzésében” – írja három tajvani professzor egy április végén közzétett tanulmányban, amelyben megpróbálják felvázolni, hogyan élhetnének együtt biztonságban a robotok és az emberek.

„Az izolált körülmények között működő, erősen szabályozott ipari robotokkal ellentétben az új generációs robotok viszonylagos autonómiával rendelkeznek majd, és kifinomult kapcsolatba léphetnek az emberrel” – írja Yueh-Hsuan Weng, Chien-Hsun Chen és Chuen-Tsai Sun. A szerzők szerint ugyanakkor a robotok, illetve az emberekkel való kapcsolataik szabályozását nem lehet rábízni az asimovi törvényekre. „Asimov három törvénye hasznosnak bizonyult abban a tekintetben, hogy kereteket adott a robotok viselkedésére vonatkozó vitáknak. Végső soron azonban ezek a törvények nem kielégítőek. A robotikának új megközelítést kell találnia, hogy választ adjon ezekre a bonyolult kérdésekre”.

Hangyát jódlizni

A bonyolult kérdések a mindennapokban egyszerű, jól leírható esetekben nyilvánulnak meg. Két évvel ezelőtt például egy dél-afrikai lőgyakorlaton egy harctéri robot, pontosabban egy Oerlikon GDF-005 típusú, digitális tűzvezetési rendszerrel felszerelt légelhárító ágyú megölt kilenc katonát, és tizennégyet megsebesített, valószínűleg szoftverhiba miatt. Ugyancsak 2007-ben egy Dvorak típusú robotfűnyíró végzett egy dán munkással, idén áprilisban pedig egy svéd céget ítélt 25 000 koronás pénzbüntetésre a bíróság, mert egy kőszedő robot majdnem letépte egy szerelő fejét. A szerelő megúszta bordatöréssel.

Az ilyen esetekre még könnyű legyinteni azzal, hogy nem sok van belőlük, illetve hogy itt nem etikai, hanem pusztán technikai problémákról van szó. Hogyan is lehetne számon kérni egy szimpla szoftveren a morális tartást?

Mark Tilden három robottörvénye

1. A robotnak minden körülmények között meg kell védenie önmagát.

2. A robotnak meg kell szereznie, és fenn kell tartania saját erőforrásait.

3. A robotnak folyamatosan jobb erőforrások után kell kutatnia.

A mesterséges intelligencia mostani állapota alapján sehogyan. „Az a probléma, hogy a robotokat erkölccsel ellátni olyan, mint egy hangyát jódlizni tanítani – állítja Mark Tilden, a Robosapien nevű játékrobot tervezője. – Még nem tartunk ott, és mint Asimov számos története bizonyítja, a robotok és az emberek előtt álló dilemmák több tragédiát okoznának, mint amennyi hasznot.” Tilden arról híres, hogy Asimov törvényeire válaszul megalkotta a sajátjait.

Hans Moravec, a Carnegie Mellon Egyetem robotikaprofesszora szerint viszont a 2010-ben még a gyíkok szintjén mozgó robotintelligencia 2020-ra eléri az egerek szintjét, 2030-ra a majmokét, és 2040-re az emberét. Igaz, mindezt a professzor még 1998-ban jósolta, ma lehet, hogy mást mondana.

Az viszont kétségtelen, hogy a robottechnikának már most is vannak olyan alkalmazási területei, ahol felmerülnek etikai kérdések. Nem csak a hadi és az ipari robotok lehetnek veszélyesek: egy brit kutató szerint komoly pszichológiai kockázattal járnak azok a gépek is, amelyeket egyes ázsiai országokban mind gyakrabban használnak gyerekmegőrzésre és idősekről való gondoskodásra. Dél-Koreában és Japánban legalább tizennégy cég foglalkozik ilyen robotok gyártásával, és Noel Sharkey, a Sheffieldi Egyetem számítástechnika-professzora szerint ez a gyakorlat előre nem várt kockázatokhoz és etikai problémákhoz vezet.

Azokat a gyerekeket, akikre robotok vigyáznak, hosszú távon káros pszichológiai hatások érik az emberi kapcsolatok hiánya miatt. Majmokkal végzett kísérletek bizonyítják, hogy azok a fiatal egyedek, amelyeket robotok gondoznak, képtelenné válnak a fajtársaikkal való kapcsolattartásra és a szaporodásra, írta Sharkey a Science magazinban 2008 decemberében. Ugyanígy gondot jelenthetnek az időseknek szánt robotok, mint a japán My Spoon, amely megeteti a gazdáját, vagy az az elektronikus fürdőkád, amely megfürdeti és megszárítja a tolószékes pácienseket, nem beszélve a Matsushita beszélő játékmackójáról, amely időről időre feltesz egy kérdést az idősek otthonában élő ápoltaknak, és a reakcióidőből állapítja meg, hogy riassza-e a humán ápolószemélyzetet.

Csaló szövegszerkesztő, gyilkos böngésző

Amikor robotokról esik szó, nem kell feltétlenül kétlábú, egyfejű humanoidokra gondolni. Az internet egyik feltalálójaként ismert Vint Cerf, aki most éppen a Google fizetett igehirdetője, ezt mondja: „A virtuális és a valós világok össze fognak olvadni. A virtuális interakcióknak való világbeli következményeik lesznek.”

Ebből a tételből következik, hogy akár egy ártatlannak tűnő szövegszerkesztőből vagy böngészőből is válhat robotbűnöző, feltéve, hogy a virtuáliában elkövetett tettei valós következményekkel járnak. Weng és szerzőtársai Cerf viszonylag triviális elméletét azzal egészítik ki, hogy a következő robotgeneráció megjelenésével a robotok egyszerre lesznek virtuális ágensek és fizikai aktorok. „Mielőtt eljön ez a nap, számos fontos politikai és szabályozási kérdést kell tisztázni, hogy elkerüljük a jogi válsághelyzetet.”

Hiába nem léteznek még asimovi értelemben vett, intelligenciával és autonómiával rendelkező robotok, a robotetika az elmúlt évtizedekben számtalan velük kapcsolatos kérdést felvetett. És bár a szakterület művelői a fikció helyett a tudomány eszközeivel operálnak, a Weng-féle tanulmányban említett problémák jó része mintha mégis az Asimov-életműből származna.

A tervezőt vagy magát a robotot kell felelősségre vonni vajon, ha a robot bűncselekményt követ el? Egyáltalán, bűncselekmény az, amit egy robot elkövet? Megengedjük-e a robotoknak, hogy személyiségük legyen? Megengedjük-e nekik, hogy érzelmeket fejezzenek ki? És mi legyen a robotetika valódi tárgya, a robot etikája, vagy a robotkészítőké? Mi lesz a büntetéssel? Ahogy Peter Asaro tudományfilozófus írja: a robotoknak „van ugyan testük, amibe bele lehet rúgni, bár az nem világos, hogy beléjük rúgva elérnénk-e a büntetés hagyományos célját. El is pusztíthatjuk azokat, amelyek kárt okoznak, de – ahogy az embereknek kárt okozó állatok esetében – ez a további károk elkerülését célzó preventív intézkedés lenne, és nem valódi büntetés.” Na, és mi legyen a robotok jogaival, hiszen ha intelligensek és autonómok, akkor jogokkal is fel kell ruházni őket? És a kérdések kérdése: szabad legyen-e a robotoknak emberrel szexuális kapcsolatba lépniük?

Bár sokszor hivatkoznak Asimovra, Weng és szerzőtársai nem jutnak el oda, hogy újraírják a robotika három alaptörvényét, ehelyett viszont van három értelmes javaslatuk: képesnek kell lennünk arra, hogy folyamatosan értékeljük az ember-robot interakciót, és reagáljunk a való világban kialakuló bonyolult körülményekre; azonnali védekező reakciókra van szükség, hogy csökkentsük a nyelvi alapú félreértések és az instabil autonóm viselkedésből eredő kockázatot, és végül explicit interakciós szabályrendszerre és jogi felépítményre van szükség, amely minden új generációs robotra alkalmazható.

Ha mégsem sikerülne, még mindig ott vannak Asimov törvényei.

Rovatok