
Gyilkos robotok: Szabályozás nélkül hamarosan globális katasztrófa következhet be!
2025-03-20
Szerző: Dániel
Az emberi történelem során egyre nagyobb hangsúlyt kapott, hogy távol tartsuk az embert a háborúk borzalmaitól – fogalmazott Kiss Kelemen Bence, a Pécsi Tudományegyetem nemzetközi jogásza. A halálos autonóm fegyverek, más néven harci robotok fejlesztése logikus lépés volt a háború modernizálásában. Ezek az eszközök képesek emberi beavatkozás nélkül érzékelni, azonosítani, sőt akár elpusztítani célpontokat. Rendelkeznek részleges és teljes autonómiával is, és a harci helyzetek különböző szakaszaiban használhatók fel.
A problémák egyik legfontosabb forrása, hogy az ember az ilyen rendszerekből egyre inkább kiiktatódhat. Ezt a veszélyt a jogászok is hangsúlyozzák, kiemelve, hogy a robotok alkalmazása néha elkerülhetetlen szükségesség is lehet egy adott harci helyzetben, hiszen csökkentheti a szándékos vagy véletlen emberi veszteségeket. Az autonóm fegyverek átláthatósága és használatának etikai kérdései azonban komoly dilemmákat vetnek fel.
Kiss Kelemen Bence előadásában érintette az aktivisták gyakori aggodalmait is, például a videójáték-szerű mentalitás hatásait. Kutatások igazolják, hogy a pilóták és döntéshozók a számítógépes katonai eszközöket játékformaként élik meg, ez pedig csökkentheti felelősségtudatukat. A jogi felelősség kérdése is sürgető, hiszen elengedhetetlen tisztázni, hogy ki felelős egy esetleges hiba esetén: a gyártó, a programozó vagy a felhasználó?
A rendezvény másik előadója, Katona Illés, aki már hat éve aktív aktivista a Stop Killer Robots kampány keretein belül, három fő problémát emelt ki a mesterséges intelligencia katonai alkalmazásával kapcsolatban. Az első a mintafelismerés sérülékenysége, amely az emberek dehumanizációjához vezethet. A második az adatok egyoldalú betanítása, amely elfogultságot hozhat előtérbe. A harmadik probléma az átláthatóság hiánya, ami a „feketedoboz-jelenségként” ismert jelenséghez kapcsolódik.
Az izraeli Lavender robot példája jól szemlélteti, hogyan használják az adatbázisokat a döntéshozatal során – a gazai övezetben például az életveszélyes személyek azonosításához. Továbbá, az orosz-ukrán háborúban is gyakori a mesterséges intelligencia alkalmazása, mindkét fél részéről. A jövő nagy kérdése, hogyan tudjuk megőrizni az emberi kontrollt ezek felett a technológiák felett?
Katona Illés hangsúlyozta, hogy Magyarországon vannak pozitív jelek a szabályozás területén, de aggasztó, hogy jelenleg nincs nemzetközi szerződés vagy politikai megállapodás a gyilkos robotokra vonatkozóan. Ez a közelgő fegyverkezési hullám kontextusában különösen aggasztó, mivel a helyzet sürgeti a döntéshozókat.
A Stop Killer Robots aktivista, Bíró Dalma szerint a legveszélyesebb gyilkos robot a taposóakna. Ő több mint húsz évet töltött háborús övezetekben, és azt állítja, hogy az emberi kontroll elvesztése digitális dehumanizációhoz vezethet. Bíró megemlítette egy ausztrál férfi tragédiáját, akinek a hitelkérelmét automatizált döntés utasította el.
A cél, hogy a nemzetközi szabályozás érdekében minél több ponton befolyásolni tudjuk a társadalmat és a döntéshozókat. A kutatások során az egyetemeknek is etikai irányelveket kellene követniük, hogy a békés célok elsődlegesek legyenek. Jelenleg azonban nincs olyan jó példa, amely segítené az ilyen irányú elköteleződést.