Index Vakbarát Hírportál

Saját döntésükből támadtak drónok emberekre Líbiában

2021. június 1., kedd 06:55

Először támadtak emberi közreműködés nélkül felfegyverzett drónok emberekre.

Egy ENSZ-jelentés szerint 2020 márciusában autonóm, azaz saját beépített feltételrendszerük alapján támadó drónok ütöttek rajta Khalifa Haftár líbiai lázadóvezér visszavonuló katonáin, méghozzá emberi beavatkozás nélkül. Bár a jelentés nem említ tényleges emberveszteségeket, de kiemeli, hogy a drónok a főváros, Tripoli ostromából visszavonuló alakulatokat támadták emberi irányítás nélkül. Nem ez lenne az első eset a (had)történelemben, hogy a technológiai fejlődés megelőzi a szabályokat.

A mesterséges intelligencia és a technológia fejlődésével már egy ideje reális veszély, hogy a fegyvereknél is megjelennek az emberi beavatkozás nélkül működő eszközök. Ezen megoldások által felvetett erkölcsi és jogi problémák nagyságrendekkel haladják meg az önvezető autók továbbra sem megnyugtatóan rendezett robotpilótájának kérdéseit.

Egy általunk megkérdezett szakértő elmondta, hogy a világ legtöbb részén még a földműveseknek is van fegyvere, ráadásul a harcoló felek egyike sem visel egyértelműen azonosítható egyenruhát. A kettejük közötti különbségtétel még kiképzett katonáknak is okozhat problémát.

A Bulletin of the Atomic Scientists szakértője, Zachary Kallenborn szerint a jelenlegi rendszereknek még 

a járműtípusok felismerése is gondot jelent,

nemhogy a harcolók és nem harcolók viselkedése közötti, sokszor nüansznyi eltérések beazonosítása. Kallenborn szerint, ha nincs a végső döntést meghozó emberi szereplő a folyamatban, akkor elfogadhatatlanul magas a tévedés esélye. 

Minden autonóm eszköznek, így a fegyvereknek is van hibaszázaléka, de ezek a tévedések az alkalmazott fegyver típusától függően akár súlyos következményekkel is járhatnak. A legnagyobb veszélyt azok a típusok jelentik, ahol könnyű elhibázni a célt, és nagy pusztító erővel rendelkeznek. Egy 357-es Magnummal elkövetett hiba is jelentős hatásokkal járhat, de egy W88 nukleáris robbanófejjel hibázni… nos annak beláthatatlan következményei lehetnek.

A tavaly márciusban bevetett török gyártmányú drón, a Kargu–2 lényegében nem nagyobb, mint a kereskedelmi célra is kapható quadcopterek legtöbbje, a fő különbség a beépített mesterséges intelligenciában van, amely képes önállóan kiválasztani a célpontjait. A gyártó honlapja szerint 30 perc üzemidővel rendelkező, legfeljebb 72 kilométer/óra sebességre képes, 7 kilogramm súlyú eszközre komoly fegyver a mérete miatt nem szerelhető fel, bár az ISIS szíriai harcokról feltöltött videóiban a hasonló kategóriájú DJI Phantomok egy vagy két darab szabvány 35-40 milliméteres gránáttal voltak felszerelve. És már ez utóbbiak is jelentős károkat tudtak okozni a váratlan irányból érkező támadásra fel nem készült katonák körében. 

Az ENSZ jelentés szerint a kormányerők által indított drónok a beépített kamera segítségével azonosították célpontjaikat, és emberi beavatkozás nélkül támadták meg azokat. A II. világháborús kamikazetámadásokról kamikazedrónoknak elnevezett eszközök már több államban is szolgálatban állnak, de a hírek szerint eddig a támadási parancsok kizárólag emberi operátoroktól érkeztek. 

A becsapódáskor robbanó töltetek által okozott károkról nincs információ, de a jelentés kiszivárgása felgyorsíthatja az önálló döntésre képes harci robotokról, drónokról és egyéb fegyverrendszerekről évek óta folyó vita lezárását és egy egységes szabályozás, sőt esetleges betiltásukról szóló megállapodás megalkotását.

Rovatok