A mesterséges intelligencia (AI) megdöbbentő térnyerése aggodalomra adott okot világszerte, de talán egyik sem olyan markáns, mint a katonai területen való elterjedése – ahogyan azt Gázától Ukrajnáig a polgárok milliói aggódva tapasztalhatják.
Már velünk van
Csak a Pentagon jelenleg több mint 800 mesterséges intelligenciával kapcsolatos projektet futtat, amelyek az autonóm járművektől az intelligenciaelemzésig és a döntési segítségig terjednek. Kína is sokat fektet az intelligens hadviselésbe.
Ezért a mesterséges intelligencia és a hadviselés körüli viták már messze nem csupán elméleti diskurzusok. Ahogy az AI egyre mélyebben beépül a katonai tervezésbe és műveletekbe, megváltoztatja a háborúk megvívásának módját, és átformálja a konfliktusok alapvető dinamikáját, például az eszkalációt és a visszafogást.
Amikor a mesterséges intelligencia belép a hadviselésről szóló mérlegelésekbe, az első képek szinte filmszerűek. Célokat megsemmisítő autonóm drónok, támadásokat indító kiberegységek, emberi közreműködés nélkül élet-halál döntéseket hozó gépek.
Ez nem a jövő. A mesterséges intelligencia már nem egy kísérlet a perifériákon. Ez bizony már most formálja azt, hogy a hadsereg hogyan tervez, harcol és gondolkodik a hatalomról.
Mire képesek?
A felhasználási területek széleskörűek és egyre bővülnek. Az AI felügyeleti rendszerek több ezer hírfolyamot tudnak egyszerre átvizsgálni, és gyorsabban jelezni a fenyegetéseket, mint bármely emberi csapat.
Az autonóm járműveket arra képezik ki, hogy kevés közvetlen felügyelet mellett találjanak célpontokat. A mesterséges intelligencia által működtetett integrált légvédelmi rendszerek olyan sebességgel és pontossággal képesek azonosítani és semlegesíteni a bejövő légi fenyegetéseket, amelyekhez egyetlen ember által működtetett rendszer sem képes.
Mind a kibertámadások, mind a kibervédelmi stratégiák egyre inkább az AI-re támaszkodnak, hogy felülmúlják egymást a folyamatosan változó digitális csatatéren.
Fotó: Depositphotos
Civil áldozatok
Még a tényleges harctéri döntéseket is egyre inkább olyan algoritmusok irányítják, amelyek gyorsabban képesek feldolgozni az információkat, mint a hagyományos parancsnoki láncok.
E fejlemények némelyike már globális riadalmat vált ki, beleértve az olyan mesterséges intelligencia-rendszereket, mint a Gospel és a Lavender, a Gáza elleni háborúban. Ezeket a platformokat használták légicsapások célzási ajánlásainak generálására, gyakran minimális emberi felügyelet mellett.
A rendelkezésre álló bizonyítékok rámutatnak a szerepükre a magas civil halálos áldozatok számában, valamint a harcosok és a civilek közötti különbségek eróziójában. Ezekben az esetekben a tapasztalt brutalitás nem csupán a mesterséges intelligencia alkalmazásának következménye.
A központi kérdés a politikai döntéshozatalban rejlik, azzal kapcsolatban, hogy a vezetők hogyan választják ezeket az eszközöket, milyen szintű polgári kockázatot hajlandóak elviselni, és milyen mértékben kötik az AI-kimeneteket az emberi megítéléshez.
Itt a mesterséges intelligencia a hatalmon lévők tükreként szolgál, és racionalizálja azokat a politikai döntéseket, amelyek a gépi vezérelt hatékonyság leple alatt félretolnák az erkölcsi és jogi felelősséget.
Egy mélyebb váltás azonban már folyamatban van. A mesterséges intelligencia kezdi átformálni magának a konfliktusnak a dinamikáját, például a kezdeményezést és az eszkalációt, oly módon, hogy azt még csak most kezdjük megérteni.
AI és konfliktus
A konfliktusok dinamikájának alakításában régóta ismertek az olyan elemek, mint a bizonytalanság, a jelzések és a hitelesség. Az AI ezeket az elemeket komoly figyelmet igénylő módon alakítja át.
Először is, a mesterséges intelligencia gyors döntéshozatali és önálló cselekvési képessége csökkentheti a konfliktusba való bekapcsolódás küszöbét. Ha a gépek ezredmásodperceken belül képesek felmérni a fenyegetéseket, és válaszlépéseket indítani, csökkennek azok a politikai és működési költségek, amelyek egykor a vezetőket kétszeresen is meggondolásra késztették az ellenségeskedés megindításáról.
Ez az elmozdulás növeli annak kockázatát, hogy a válságok kicsúsznak az irányítás alól, mielőtt az emberi döntéshozók beavatkozhatnának. Az eszkaláció hagyományos akadályai, mint például a mérlegelési idő, az erők látható felhalmozódása és az emberi döntéshozatal súrlódása, leomlanak.
Másodszor, a mesterséges intelligencia integrálása aláássa a hagyományos elrettentő modelleket. Az elrettentés világos kommunikáción és kiszámítható megtorló kereteken múlik.
Az AI-rendszerek azonban új kétértelműségeket vezethetnek be azáltal, hogy átláthatatlan döntéshozatali folyamatokat hoznak létre, amelyek megnehezítik az ellenfelek számára a szándékok megértését vagy a fenyegetések hitelességének felmérését. Ha egy mesterséges intelligencia-kompatibilis katonai testhelyzet képesnek tűnik gyors megelőző csapások indítására, a riválisok nyomást érezhetnek, hogy még gyorsabban cselekedjenek, ami instabilitáshoz vezethet.
Harmadszor, a mesterséges intelligencia növeli az eszkaláció új formáinak kockázatát. A gépek közötti interakciók, például az autonóm drónok, amelyek az autonóm rakétavédelemre reagálnak, visszacsatolási hurkokat hozhatnak létre, amelyeket az emberek nehezen tudnak előre látni, vagy megszakítani.
Az eszkaláció pontosan azért válhat nehezebbé, mert az AI-rendszerek sebessége és összetettsége meghaladja az emberi szervezeti kapacitásokat.
Összességében ezek a tendenciák elmozdulást jeleznek, bár a tudósok továbbra is megosztottak abban, hogy pontosan hova is vezet ez az átalakulás. Mindazonáltal a veszély éppen azon struktúrák csendes átalakulásában rejlik, amelyek történelmileg irányították a konfliktusokat, mint például a visszatartó mechanizmusok, a jelzési folyamatok és a deeszkaláció útjai. A stratégiai stabilitást, amely egykor az emberi ítélettel és mérlegeléssel kapcsolatos feltételezéseken alapult, egy új valósággal felboríthatja.
A mérlegelés hátránnyá válik a háborúban
A mesterséges intelligencia részvétele a hadviselésben nem egyszerűen csak felgyorsítja a megszokott dinamikát. Fennáll a veszélye, hogy az emberi időzítésre, emberi etikára és emberi kockázati számításokra épülő világot arra kényszeríti, hogy megküzdjön egy olyan harctérrel, amelyet egyre inkább a gépek logikája irányít.
Ennek a váltásnak a középpontjában a döntési idő stratégiai lerövidülése áll. Az AI-vezérelt rendszerekkel, amelyek valós időben elemzik a harctéri adatokat, az észlelés és a válaszadás közötti ablak összeomlik.
Egy ilyen világban az emberi mérlegelés, amelyet valaha a körültekintő államforma lényegének tekintettek, hátránnyá válik. Minél gyorsabban tud egy katonaság feldolgozni és cselekedni, annál nagyobb taktikai előnye.
Ez brutális logikára utal. Egy olyan versenyben, ahol a reakcióidő a döntő, a katonák késztetést fognak érezni arra, hogy többet automatizáljanak, és kevesebbet gondolkodjanak. A hagyományos stratégiai kultúrák, amelyek a reflexió, a kommunikáció és a kalibrált válasz ciklusaira épülnek, eltérhetnek a gépek által megtervezett harctéri valóságtól.
Ebben az időrendben fennáll annak a veszélye, hogy a stratégia az automatizált interakciók maradványaivá válik, nem pedig tudatos választás kérdésévé. A mesterséges intelligencia ugyanakkor lehetővé teszi az autonómia-hiányok fegyveressé tételét.
Bárhol, ahol etikai vagy jogi keretek korlátozzák az autonóm rendszerek működését, az ellenfelek megpróbálják kihasználni ezeket a saját maguk által kiszabott korlátozásokat. Ennek eredményeként a háborúkat az is befolyásolja, hogy melyik fél hajlandó elfogadni a gépi rendszerekre vonatkozó kevesebb megszorítást.
Sőt, a katonai AI-rendszerekben megengedett autonómia szintje a kényszerítés egyik formájává válik. Azáltal, hogy bebizonyítják, hogy rendszereik humán biztosítékok nélkül is működhetnek, a szereplők nagyobb hajlandóságot mutatnak az erőszak eszkalálására, és nyomást gyakorolhatnak az ellenfelekre, hogy vállalják a kockázatot.
Még mielőtt bármilyen konfliktus elkezdődne, a nagyobb bizonyított autonómia fokozhatja a kényszerítő hatást.
Az AI integrálása a katonai ügyekbe nem csak az új technológiákról szól. A téves számítások, az ellenőrizetlen eszkaláció és az erkölcsi erózió kockázata egyre élesebbé válik. A konfliktusok jövőjét nemcsak az fogja alakítani, hogy ki építi fel a legfejlettebb rendszereket, hanem az is, hogy ki dönti el, hogyan és milyen messzire szabadítja fel őket.
(Káncz Csaba szerzői oldala itt érhető el.)