A robotika és a mesterséges intelligencia területének fejlődése az elmúlt években, évtizedekben jelentős változásokat hozott az élet számos területén. Az egyik legmeghatározóbb változás a hadviselés területén fog bekövetkezni, a mesterséges intelligencia területén elért fejlődés forradalmasíthatja azt, ahogyan harcolunk. Számos civil fejlesztés ? mint, az arc- és hangfelismerés, önvezető járművek, kereskedelemi drónok ? könnyen átültethető és felhasználható katonai célokra is. Mind hadászati, mind harcászati szinten át kell alakítani a háború megvívásáról alkotott képünket. Az autonóm fegyverrendszerek létrehozására irányuló kutatások kapcsán már napjainkban is aktív eszmecsere zajlik a katonai szférában, társadalmi szinten és a nemzetközi közösségben is. A vitának középpontjában a katonai alkalmazásuk előnyei illetve a használatuk etikai problémái helyezkednek el.
Az autonóm fegyverrendszerek fogalmának meghatározása kulcsfontosságú a hatásuk megértése érdekében. A probléma azonban pontosan itt kezdődik, hogy nincs egy mindenki által elfogadott definíció, hanem minden állam és az ENSZ is külön fogalmakat alkot. A fogalmak sokfélesége hátráltatja annak a meghatározását, hogy hol állnak a fejlesztések, illetve lehetetlenné teszi egy átfogó, nemzetközileg elfogadott egyezmény létrejöttét. Az ENSZ keretében a tagállamok évek óta vitatják az autonóm fegyverrendszerek betiltásának kérdését a Convention on Certain Conventional Weapons (CCW) keretében. Az általánosan elfogadott fogalom a következő:
Minden olyan fegyver, amely képes önállóan, emberi beavatkozás nélkül felderíteni, azonosítani, kiválasztani és megtámadni célpontokat.
Azaz a teljes OODA ciklust önállóan hajtja végre a fegyverrendszer. A szakirodalomban az OODA (observe-orient-decide-act) ciklussal írják le a harc menetét. Az a fél nyeri meg a küzdelmet, amelyik képes gyorsabban végrehajtani a saját OODA ciklusát és/vagy megakasztani az ellenfél ugyanezen ciklusát. Vagyis az nyer, aki gyorsabban veszi észre, azonosítja, és semlegesíti az ellenfelét. Azt követően, hogy aktiválták, a fegyverrendszer önállóan hajtja végre a feladatát. Azaz ebben az esetben már nem egy előre beprogramozott útvonal követéséről és feladat végrehajtásáról van szó, hanem a döntési jogkör is át lett adva fegyverrendszer számára. Nincs emberi operátor, aki távolról befolyásolhatja a támadás végrehajtását. Az ember szerepének kiiktatása a háborús műveletek végrehajtásából azonban komoly technikai, erkölcsi és jogi aggályokat vet fel.
A szakirodalom általában négy kategóriába sorolják a fegyvereket autonómia szerint:
- Az nulladik szint ahol az OODA ciklus minden elemét az ember végzi, ezek a hagyományos fegyverek.
- Az első szint az automatizált vagy félautonóm fegyverek, amelyek esetében az ember szerves része a folyamatnak, de a rendszer komoly segítséget nyújt a katona számára. A támogatás ellenére azonban az ember dönt az alkalmazásról. (Pl. LRASM)
- A második szint a felügyelt autonóm fegyverek, amelyek képesek önállóan észlelni, azonosítani, döntést hozni és fegyvert alkalmazni, de az ember végig követi a folyamatot és beavatkozhat amennyiben szükségesnek ítéli. Ezek a fegyverek kulcsfontosságúak például az aktív önvédelmi rendszereknél vagy a modern légvédelmi rendszereknél. (Pl. Aegis rakétavédelmi pajzs)
- A harmadik szint pedig a teljesen autonóm rendszerek, itt már teljesen önálló a feladat végrehajtása és az elindítás után a katonának nincs lehetősége közbe avatkozni. (Pl. Az izraeli Harpy)
Napjainkban még kizárólag kísérleti projektek vannak autonóm fegyverrendszerek létrehozására. Az Egyesült Államok Légiereje és Haditengerészete egy közös DARPA projektben egy olyan hajó elleni rakétán (LRASM) dolgozik, amely képes nagy távolságról indítva önállóan megtalálni, azonosítani, majd elpusztítani az ellenséges célpontot. A fejlesztés alatt álló fegyver a megadott leírás szerint a célterület és a célpontok meghatározása után önállóan odatalál a célterületre, észlelve és kikerülve az ellenséges hajóraj által tette ellenintézkedéseket és ott kiválasztja és elpusztítja a legmegfelelőbbnek ítélt célpontot. Csoportosan indítva ezek a rakéták egy 500 tengeri mérföldes hatótávon belül képesek egy teljes ellenséges hajóraj elpusztítására. Azt fontos leszögezni, hogy nem beszélhetünk még teljes autonómiáról, hiszen az ember választja ki az elpusztítandó célt, nem pedig a rakéta. Az LRASM ugyanis csak egy eleme a fegyverrendszernek, amely a műholdból, a katonából és a rakétából áll. Az ember fontos eleme a folyamatnak.
A fenti példa is mutatja, hogy kevés számban és korlátozott feladatkörben, de már ma is vannak hadrendben teljesen autonóm fegyverrendszerek. Jellemzően ilyen fegyverek az ún. ?öngyilkos drónok?, melyek elindítás után a kijelölt célterület felett körözve keres lehetséges célpontokat, majd ha talált egyet rárepül és elpusztítja azt. Ilyenre példa az izraeli Harpy drón, amely ma már számos országban van hadrendben. Ez az eszköz a fellövés után képes 2 és fél órán át a levegőben maradni egy 500 km-es terület felett, ellenséges radarokra vadászva. A drón önállóan választja ki a radarok közül a célpontját. A radarok úgynevezett kooperatív célpontok, mivel különböző jeleket bocsátanak ki magukból, amiket a drón a szenzoraival könnyedén lekövethet.
Ilyenek kooperatív célpontok még a repülőeszközök és felszíni hajók is. Ezeket a járműveket a kibocsátott elektromágneses jelek miatt könnyű észlelni és kiszűrni a lehetséges katonai célpontokat. A Harpy is ezek a kibocsátott jelek alapján deríti fel és azonosítja az ellenséges radarokat. Mivel azonban a baráti járművek is ugyanúgy bocsájtanak ki ilyen jeleket, szokás azokat ellátni egy ún. barát-ellenség megkülönböztető (IFF) jeladóval. Az IFF jeladók aktív használata könnyen csökkentheti a hagyományos és autonóm fegyverrendszerek használatából adódó ?baráti tűz? általi veszteségeket.
A célpontok zöme azonban nem-kooperatív célpont, ugyanis nem bocsájtanak ki könnyen észlelhető és a környezettől elkülöníthető jeleket. Ilyenek azok a hajók, radarok és repülőeszközök, amelyek kikapcsolják a radarjukat, tengeralattjárók, amelyek halk üzemmódban vannak vagy a szárazföldi járművek. A nem-kooperatív célpontok felderítéséhez szükségesek az aktív szenzorok, amelyek jeleket bocsátanak ki és azok visszaverődéséből következtetnek (radar, szonár). A vízi és légi célok felderítése nem-kooperatív célpontok esetében is relatíve könnyű, hiszen ezek az eszközök erőteljesen kitűnnek a háttérből.
A szárazföldi célpontok esetében a zavaros környezet miatt az észlelés sokkal nehezebb. Erre szolgálnak azok a kezdetleges eszközök, amelyeket szintetikus apertúrájú rádiólokátornak (SAR) neveznek. Jellemzően úgy történik ennek a használata, hogy egy légijármű átrepül egy terület felett, elárasztva az radarjelekkel és a visszaverődött jelekből egy fekete-fehér szemcsés képet alkot. Az ember ezeken a képeken nehezen ismeri fel a katonai célpontokat, az MI algoritmusok azonban megfelelő mennyiségű ?betanult? kép után meglehetősen nagy pontossággal képes erre. Az ún. neurális hálózatok a mélytanulás módszerével nagy mennyiségű kép vizsgálata után képesek könnyedén és gyorsan felismerni bármilyen alakzatot. Mivel azonban ezek a rendszerek továbbra sem tudnak különbséget tenni civil és katonai célpont, barát és ellenség között, valamint nagyon könnyen és ember által észlelhetetlen módon is összezavarhatók az öntudat és kontextus komplex értelmezésének hiányában, jelenleg még nagyon megbízhatatlanok. Főleg az emberekre igaz ez, hiszen még egy tapasztalt katona számára is rendkívüli nehézséget jelent az ellenséges kombatáns kiszűrése az emberek közül, nem beszélve azokat a helyzeteket, amikor az nem visel egyenruhát és próbál beolvadni a civilek közé.
Egy rosszul működő autonóm fegyverrendszer nagyon könnyen okozhat hatalmas járulékos veszteségeket, anélkül, hogy képesek lennének az leállítani a fizikai megsemmisítéstől eltekintve. Az általános szakmai közvélekedés pedig pontosan emiatt akarja megőrizni az embert a ?fegyver mögött? és megakadályozni a teljesen autonóm fegyverrendszerek alkalmazását.
Erre példa az 1988-as USS Vincennes incidens, amely az irak-iráni háború egyik legforróbb időszakában történt a Perzsa-öbölben. Az Egyesült Államok Haditengerészete többször tűzharcba keveredett az iráni féllel, mert az olajtankereket támadott. Az egyik ilyen eset során a USS Vincennes több iráni hajóval folytatott tűzharc közben két repülőgép felszállását észlelte a közeli Bandar Abbas kettős civil-katonai felhasználású repülőtérről. Az egyik az Iráni Légierő egy F-14-es vadászbombázója a másik pedig az Iran Air Flight 655-ös járata volt. A 655-ös járat hiába repült kereskedelmi azonosítóval és IFF-el, a USS Vincennes legénysége összekeverte az F-14-es radarjelével és a hajó parancsnoka engedélyt adott a tüzelésre. A 655-ös járatot lelőtték és 290 ember halt meg rajta. Pedig a hajó a kor legfejlettebb önvédelmi rendszerével az Aegis rakétavédelmi rendszerrel volt felszerelve és minden jól működött. A legénység azonban túl volt árasztva információval a fegyveres harc alatt és tévesen ítélte meg a helyzetet.
[Az Aegis egy főleg hajókra telepített ballisztikus rakétavédelmi rendszer, amely a hajó védelmének ?agyaként? szolgál. Összegyűjti a hajó szenzorjainak adatait és összehangolja a védelmet. Rugalmasan konfigurálható, mivel a rendszer autonómiáját a kézi működtetésről egyészen felügyelt autonóm működésig lehet változtatni. Az Aegist egy 10-12 fős legénység irányítja a kapitánnyal együtt, aki bármikor mechanikusan, a nyakában lógó kulccsal aktiválhatja vagy leállíthatja a rendszer működését. Ezáltal egy sokoldalú, rugalmas és megbízható rendszer.]
A USS Vincennes esete példázza, hogy korszerű technológia birtokában, az autonóm rendszer tökéletes működése mellett, akaratlanul is okozhat tragédiát egy modern haderő. A megfelelő helyzetértékelés képessége elengedhetetlen egy modern, komplex háborús környezetben, ahol egyszerre jelenhetnek meg civil, félkatonai és katonai elemek is. Még a kooperatív célpontok elleni küzdelem is okozhat problémákat, ha nem megfelelően kiképzett vagy túlterhelt a legénység. Sokan érvelnek amellett, hogy ha még egy kiképzett legénység is komoly hibákat képes elkövetni, mert rosszul értékeli a környezetét, akkor egy robot ennél még egy nagyságrenddel rosszabbul teljesítene. Ebben pedig van igazság, hiszen a mai MI nem képes a szenzorjai által gyűjtött adatok alapján egy átfogó képet alkotni a csatatérről. Nem tudja megkülönböztetni az aktív kombattánst a sebesülttől, vagy a hadifogolytól, civilektől. A komplex és ember számára számos esetben visszakövethetetlen és érthetetlen döntési mechanizmus pedig könnyen megzavarható. Ilyen robotok kezébe fegyvert adni felelőtlenség lenne. Többek között azért is, hiszen ha egy teljesen autonóm fegyver hibázik és emberek halnak meg, ki volna a felelős? A parancsnok, aki aktiválta a fegyvert? Az állam, amelyik hadrendbe állította? A gyártó? A robot?
A felelősség és számon kérhetőség talán az egyik legkomolyabb kérdés az autonóm fegyverrendszerek kapcsán és egyáltalán nem egyértelmű a válasz. A felelős megtalálásának nehézsége rosszabb esetben motiváló hatással is lehet, ha a cél a minél nagyobb civil áldozatok. Jobb esetben is a felelős hiánya bizalmatlanságot kelt a rendszerek iránt. Ha pedig egy parancsnok nem bízik a fegyverében habozni fog, akkor is, amikor indokolt és biztonságos lenne a használata. A habozás pedig a baráti oldalon kerülhet emberéletekbe egy intenzív háborús környezetben. Az autonóm fegyverrendszerekbe vetett bizalmat csak a szükséges és valós emberi irányítás megtartásával lehet elérni. A katonák is kizárólag akkor tudnának bízni egy ilyen eszközben, ha tudják, mire számíthatnak. Tudják, hogy a robot nem fog a következő pillanatban ártatlan civilek vagy baráti csapatok ellen fordulni. Ha valami balul sülne el, a kezükben a kulcs a leállításra. Jól használva a gépek gyors adatfeldolgozása és hatékonysága az ember komplex értékelési képességével karöltve képesek lennének csökkenteni is a civil és katonai veszteségeket egyaránt. A robot soha nem fárad el, nem hat rá a harci stressz, nem szeszélyes érzelmileg és bosszúvágya sincsen. Továbbá bizonyos szűk feladatkörökre jóval hatékonyabbak, mint mi, emberek. Az Aegis rendszer harminc éves fejlesztése pedig bebizonyította, hogy az ember-gép páros egyszerre hatékony és biztonságos működést tesz lehetővé. Az Aegis-közösség a USS Vincennes incidens óta se szenvedett el balesetet, annak ellenére, hogy folyamatosan használatban van aktív háborús zónákban is. Ezt úgy sikerült elérni, hogy az incidens után az Egyesült Államok Haditengerészete évekig vizsgálta az esetet. A tanulságok alapján rugalmasabbá, kezelhetőbbé, és ami a legfontosabb előre tesztelhetővé tették a rendszert. A legénységet pedig alaposabb kiképzésben részesítették. Azóta a fegyverrendszer a kihajózás előtt beprogramozzák, letesztelik és begyakorolják a használatát minden eshetőségre. A rendszer alapos ismerete által a legénység magabiztosan képes használni azt.
A fentebb leírt technikai problémák miatt az autonóm fegyverrendszerek szárazföldi célpontok, de leginkább emberek elleni bevetése megbízhatatlanságuk miatt nem javaslott egyelőre. Az autonóm fegyverrendszereket morális és hatékonysági okok miatt inkább a légi és tengeri illetve kooperatív célpontok ellen használhatók kielégítő megbízhatósággal. Ennek oka, hogy a szárazföldi harcok során sokkal nehezebb a kommunikáció, a célfelismerés és egy incidens esetén a közbelépés lehetősége is kisebb. Arányaiban sokkal nagyobb civil veszteségeket okozhatnak, mind a jól és mind a rosszul működő fegyverek, ha szárazföldi célpontok ellen kerülnek bevetésre. Ezzel szemben a légi és tengeri haderőnemekbe tartozó alegységek sokkal szigorúbb biztonsági előírásokkal rendelkeznek, könnyebb felkutatni és azonosítani ellenséges célpontokat, valamint kevesebb civil kerül veszélybe a fegyverhasználat közben. Ameddig nem fejlődik kielégítő módon a MI-t használó rendszerek helyzetértékelési képessége (másnéven öntudata) addig az ember bevonása a fegyverhasználatba mindenképpen szükséges.
A hatékonyság talán leginkább a pszichológiai hadviselés területén nőhet látványosan a következő években. A robotok és általában az új technológiai vívmányok kitűnő eszközök az ellenfél elrettentésére. Az új eszközök megjelenése a harcmezőn, mindig meglepi az ellenséget és magára vonja a figyelmét, amit könnyen ki lehet használni a fegyveres harc során. Illetve a drónok megjelenése a harcmező felett azok hosszú levegőben töltött ideje miatt akár folyamatos megfigyelés is végrehajtható. Az iraki felkelő elleni műveletek során sokszor bebizonyosodott, hogy a felkelők kezdetben állandó rettegésben éltek a folyamatos megfigyelés rémképével, ami egy plusz nyomás az egyébként is stresszes csatatéren. Emellett a robotok puszta megjelenése is demoralizáló lehet az ellenfél számára több szempontból is. Először is a tudat, hogy hiába pusztítják el a gépet az azt irányító ember továbbra is él, és ez a veszteségek illetve erőfeszítések hasztalanságának érzését eredményezheti az ellenfélben. Másodsorban pedig a robotok tervezésénél olyan audiovizuális megoldásokkal lehet élni, amelyek félelmet keltenek az ellenfélben. Ezek a hatások azonban a konfliktus hosszát tekintve rövidtávúak, hiszen, amint az ellenfél kiismeri az új eszközöket a hatás drasztikusan csökken. Sőt idővel akár ellentétes hatást is elérhetnek. A túlzott hagyatkozás az automatizált erőkre könnyen vezethet könnyelműségre és elkényelmesedéshez. Továbbá az ellenfél oldalán a félelemkeltés mellett növelheti a harci szellemet, hiszen a robotok alkalmazása gyengeség és gyávaság üzenetét is küldheti akaratlanul. A drónok megjelenése sokszor jobban elidegenítette a helyi lakosságot a nyugati erőktől, hiszen például a pastu törzsekben a személyes bátorság elsődleges fontosságú. Egy olyan ellenféllel szemben pedig, amely szintén robotokat használ, a félelemkeltés egyébként sem hatékony. Továbbra is helytálló az állítás, miszerint győzelmet aratni csak úgy lehet, ha katonák vonulnak be az ellenség területére és személyesen veszik át az irányítást.
A lakosságra gyakorolt hatás sem lehet utolsó szempont. A háború ugyan nem egy népszerűségi verseny, de a végcél eléréséhez nem szabad figyelmen kívül hagyni sem a hazai sem a nemzetközi közvéleményt. A hazai közvélemény és a szövetségesek támogatásának elveszítése, a média figyelmének felkeltése valamint az ellenfél lakosságának teljes elidegenítése negatív hatással lehet a háborús erőfeszítésekre. Könnyen a szélsőségek és a terrorizmus irányába tolhatja el az embereket az elkeseredettség, félelem és a düh.
A háborút pedig végülis emberek vívják, emberek ellen, így a túlzott robotizáció könnyen ?embertelenné? teheti azt, szó szerint és képletesen is.
Írta: Berkes Rudolf
Felhasznált irodalom:
SCHARRE, Paul: Army of None: Autonomous Weapons and the Future of War, W.W. Norton & Company, 2018.
P.W. SINGER: Wired for War: The Robotics Revolution and Conflict in the 21st Century, The Penguin Press, New York, 2009
CRS: Lethal Autonomous Weapon Systems: Issue for Congress, Congressional Research Service, Washington D.C., 2016.
BRUNDAGE Miles: The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, Future of Life Institute, 2018
Címlapkép: Tüntetés a gyilkos robotok betiltásáért Németországban. Berlin, 2019. március 21.
A gyilkos robotok betiltásáért tüntetnek aktivisták a berlini Brandenburgi kapu el?tt 2019. március 21-én. Németországban hat nappal korábban rendeztek konferenciát a fegyverellenőrzésről, ahol megvizsgálták a felmerülő technológiai veszélyeket, mint például a teljesen autonóm fegyvereket, más néven halálos autonóm fegyverrendszereket vagy gyilkos robotokat. Az ilyen fegyverek, amelyek emberi beavatkozás nélkül választják ki és támadják meg a célpontokat, komoly etikai, jogi, technikai, elterjedési és nemzetközi biztonsági problémákat vetnek fel.
(Forrás: MTI/EPA/Alexander Becher)