Jogászok a robotizált fegyverek szabályozását sürgetik

2018. augusztus 29. 17:48

A nemzetközi jog egyelőre nem tud lépést tartani a folyamatosan fejlődő robotizációval és az ehhez kapcsolódó IT-s újdonságokkal. A fegyvergyárakban azonban már olyan teljes mértékben automatizált fegyverek készülnek, amelyek egyszerű algoritmusok alapján képesek lesznek embereket ölni. A nemzetközi jog szereplői igyekeznek lelassítani a folyamatot, ám a robotizált fegyverek kora lassan elkezdődik.

2018. augusztus 29. 17:48
null

Sorra emelik fel hangjukat kormányok, politikusok, szakértők és még egyes fegyvergyártó cégek is a teljes mértékben automatizált robotok készítése ellen. A probléma nagyon is égető, mivel a technológiai fejlettség és az innovációs szint odáig jutott, hogy lassan bevetésre kész robotizált fegyverek állhatnak csatarendbe. A nemzetközi jogban pedig akkora a joghézag, hogy az emberi jogok és a humanitárius jogok hamar veszélybe kerülhetnek. Jelenleg csak a Martens-klauzula megmentő erejében lehet bízni.

Mivel a nemzetközi jog csak általánosan foglalkozik a robotizált fegyverek témakörével, félő, hogy rövid időn belül beláthatatlan következményekkel jár majd a jogalkotás efféle mulasztása. Az utolsó kapaszkodó a Martens-klauzula, amelynek értelmében, ha valamely témát a kodifikációs szerződések nem tisztáznak, akkor a nemzetközi szokásjoghoz kell fordulni. A 2013 óta politikai napirenden levő ügy kapcsán a mai napig nem született megfelelő jogi szabályozás.

Az algoritmusok alapján működő robotok harctéri bevetése több szempontból is aggályos. Egyrészt a roborizált fegyverek nem tudják mérlegelni az emberi élet értékét. Nem képesek arra, hogy az emberi méltóság perspektívájából döntsenek egy adott kérdésben, minden embert csak egy előre programozott célpontként értelmeznek, az empátia legcsekélyebb jelét sem hordozva magukban. Másrészt semmilyen érzelmi faktorral nem rendelkeznek, jogi és etikai megfontolásra sem képesek.

2018 augusztusában körülbelül 80 állam képviseletével egy nemzetközi szakmai fórum ül össze azért, hogy a tárgyalások eredményeképp egy sokkal részletesebb, átláthatóbb és komplexebb joganyag szülessen az robotizált fegyverek fejlesztése, készítése és használata kapcsán. Céljuk továbbá az is, hogy a konkrét jogszabály elkészültéig egy előzetes normaszöveget alkossanak, ami a Martens-klauzulát kiegészítve időlegesen lelassíthatja az algoritmusok alapján emberéleteket kioltó robotok létrehozását. Az előzetes közvélemény-kutatásokból és felmérésekből is az látható, hogy a megkérdezettek túlnyomó többsége ellenzi az efféle technológiák használatát.

Amellett, hogy nem etikus az automatizált fegyverek használata, komoly jogi dilemmát is felvet az alkalmazásuk. A támogatók azzal érvelnek, hogy számos katona életét lehetne megmenteni a mesterséges intelligenciával rendelkező gépekkel, sőt, a gyorsabb adatfeldolgozás és hatékonyabb elemzési képesség miatt még „gazdaságosabbak” is lennének a harctéren. Nincs félelem- és dühérzetük, ami több ártatlan élet kioltását is megelőzheti.

Összességében azonban az látszik, hogy az emberi jogok kapcsán az emberélet értékessége, a felelősségre vonás elkerülhetetlensége és a morális, etikus elvek betartása jóval felülírja az önálló fegyverek oldalán felsorakoztatott érveket. Igaz, hogy többek között még az emberi jogok kapcsán is jócskán van elmaradása a nemzetközi jognak, ám a technológia rohamos léptékű fejlődése egyre inkább sürgeti a nemzetközi jogalkotókat a joghézagok „betömésére”. 

Összesen 3 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Akitlosz
2018. szeptember 04. 22:12
A háborúban a győzelem a fontos, nem pedig a jog betartása. Az Amerikai Egyesült államokkal szemben úgysem lehet semmilyen jogot sem betartatni, mert nem létezik olyan földi hatalom amelyik képes lenne rákényszeríteni a jogot.
Zsolt75
2018. augusztus 29. 22:39
Fontos dolog. Meg kell várni, míg a média csöpögtetett dezinformációk segítségével a közvéleményt a gyilkosság mellé állítja. Csak utána lehet piffpuffcsimbumm...
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!