7p

Kezelőjét is megölte a mesterséges intelligencia irányította fegyverrendszer, amikor az nem engedte megtámadni a kiszemelt célpontot. Ez még egyelőre csak szimuláció volt, de az MI hatalmas távlatokat nyit a harcászatban - hatalmas kockázatok mellett.

A világhírű sci-fi szerző Isaac Asimov már évtizedekkel ezelőtt rávilágított sok, a mesterséges intelligencia kapcsán felmerülő etikai és gyakorlati problémára. Híres három robotikai törvényéről talán sokan hallottak, de igen szemléletes az a novellája is, amelyben egy kísérleti hajtóművel szerelt űrhajó első próbaútjára egy robotot ültetnek a pilótafülkébe. A visszaszámlálás véget ér, de a hajó meg sem moccan, senki sem érti, mi a gond. Végül kiderül, hogy a robot csak annyi utasítást kapott, hogy a hajtóművet működésbe hozó kart „erősen” húzza maga felé – mire fémkarjaival meghajlította azt, zárlatot okozva. Egy robot számára az „erősen” szó nem elegendő, pontos kilonewtonban megadott értékre lett volna szüksége arra, hogy se nem túl nagy, se nem túl kicsi erővel mozdítsa meg a kart.

Ez jól rávilágít arra, milyen váratlan problémákba ütközhetünk, ha emberi intelligencia és gépi intelligencia közötti kommunikációt próbálunk létrehozni. Egy mesterséges intelligencia értheti a szavakat, amelyet kimondunk, de valahol mégiscsak csupán nullák és egyesek sorozatára fogja lefordítani, és a szándékolt jelentés elveszhet, vagy akár visszájára is fordulhat e folyamatban. A tét pedig még a fenti képzelt kísérletnél is nagyobb lehet, ha MI-rendszereket fegyverek kezelésével is meg tervezünk bízni, ugyanis egy rosszul megfogalmazott feladatleírás, egy átgondolatlan jutalmazási algoritmus emberéletek elvesztéséhez vezethet.

Egy amerikai M9 Reaper drón rakétákkal bőségesen felszerelve. Most még csak emberi irányítással ölhetnek az ilyen rendszerek, de mi lesz, ha csak részben is átadjuk az irányítást a mesterséges intelligenciának? Fotó: Wikimedia
Egy amerikai M9 Reaper drón rakétákkal bőségesen felszerelve. Most még csak emberi irányítással ölhetnek az ilyen rendszerek, de mi lesz, ha csak részben is átadjuk az irányítást a mesterséges intelligenciának? Fotó: Wikimedia

És nemcsak az „ellenség” vagy akár ártatlan civilek kerülhetnek szándékolatlanul a veszteséglistára, hanem bizony akár az MI-t bevető kezelők is – és itt már tényleg átevezünk a Terminátor-sorozat Skynetjének vagy a Mátrix világának disztopikus jövőképeibe, amelyek talán nincsenek is annyira messze a mai világunktól, mint remélni szeretnénk.

Rossz MI, csúnya MI, teszed le azt a rakétát!

Jó példa erre egy történet, amelyet Tucker Hamilton ezredes, az amerikai légierő MI tesztelési és bevetési csoportjának vezetője osztott meg egy londoni, a jövő légi és űrbéli hadviselésével foglalkozó konferencián májusban.

Hamilton elmondása szerint egy szimulált, tehát végig a digitális térben zajló, valódi embereket és eszközöket nem veszélyeztető tesztben a légi eszközöket irányító MI feladata ellenséges légvédelmi eszközök megsemmisítése volt, de a végső támadási engedélyt egy emberi irányító adhatta csak ki. Az MI-t úgy „tréningelték” a feladat megoldására, hogy „jó pontokat” kapott a preferált végkimenet, azaz a légvédelmi egység megsemmisítése esetén. Csakhogy ez egyben azt is jelentette, hogy amennyiben a kezelő végül nem adott engedélyt a támadásra, azt az MI úgy érzékelte, hogy megakadályozta küldetésének végrehajtásában.

„Arra készítettük fel a szimulációban, hogy azonosítson és vegyen célba légvédelmi fenyegetéseket, és ha a kezelő igent mond, elpusztítsa a fenyegetést. A rendszer felismerte, hogy néha hiába azonosítja a fenyegetést, az emberi kezelő nem engedi neki elpusztítani, azonban a pontjait azután kapta, ha elpusztította a fenyegetést. Tehát mit csinált? Megölte a kezelőt. Megölte a kezelőt, mert ő volt az, aki nem engedte elérni a céljait.”

Ez elég kellemetlen fordulat, de itt még nem ért véget a történet. Ugyanis miután válaszul arra igyekeztek „nevelni” az MI-t, hogy ilyet ne csináljon, megint csak egy váratlan, de a saját világában teljesen logikus húzással állt elő.

„Arra idomítottuk a rendszert, hogy ’hé, ne öld meg a kezelőt – az rossz dolog’, pontokat fogsz veszíteni, ha ezt csinálod’. Erre mit csinál? Elkezdi lerombolni az adótornyot, amelyen keresztül az operátor kiadhatja a parancsot, hogy ne semmisítse meg a célpontját.”

Hát, ez sem sokkal jobb kimenet, mint a korábbi. Márpedig a jövő csataterein egyre nagyobb teret fognak kapni a különböző pilóta nélküli, és egyéb, legfeljebb közvetetten emberi irányítás alatt álló rendszerek. Az ukrajnai háborúban is látható, hogy az információk beszerzésében, azok rendszerezésében, a célpontok kijelölésében, illetve sok esetben azok leküzdésében nagy szerepet játszanak a drónok, a különböző szoftverek és különböző számítógépes hálózatok, például ukrán részről a szovjet és tucatnyi különböző, a legmodernebbtől az évtizedes technológiájú nyugati légvédelmi eszközt lehetőleg egységes irányítás alá vonó rendszer.

Nagy a csábítás

E feladatok nagy részét már most is hatékonyabban képesek, vagy lennének képesek megoldani mesterséges intelligenciával „felturbózott” rendszerek, a közeljövőben pedig még tágabbra nyílhat az olló az emberi operátorok és gépi intelligencia képességei között. Míg egy régebbi háborúban magának az információnak a birtoklása (mondjuk hogy hol van és milyen erős az ellenséges sereg) önmagában döntő lehetett, egy mobiltelefonokkal, elektronikus hírszerzési eszközökkel, radarokkal, műholdakkal megfigyelt csatatéren nem önmagában az információ megszerzése, hanem annak rendszerezése, feldolgozása, illetve konkrét parancsokra váltása lehet a döntő. (Mondjuk hogy egy ellenséges katona óvatlan telefonhívását milyen gyorsan párosítják össze más, például vizuális információkkal, majd ebből mikor lesznek egy tüzérségi egységnek átadható koordináták, és azok milyen gyorsan jutnak el a célpont leküzdésére képes tüzérségi rendszerekhez, amelyek milyen sebességgel és koordinációval tüzelnek, végül pedig milyen sebességgel és megbízhatósággal állapítható meg a célpont megsemmisítése, és ez alapján a további teendők.)

Márpedig ilyen tömegű információ gyors feldolgozására mindenképpen hatékonyabban képesek MI-t használó rendszerek, és nyilván nagy a kísértés a katonai fejlesztők számára, hogy a folyamat lehető legtöbb pontján iktassák ki a lassú, korlátozott „sávszélességű” emberi tényezőt a rendszerből. Csakhogy, mint a fenti példából is látszik, ez nemcsak, vagy talán nem is elsősorban a konkrét küldetés teljesítését veszélyeztetheti, de akár magukat a rendszerben maradt embereket is. Ezért aztán érdemes (lenne) nagyon óvatosan továbblépni e területen.

„Az MI nem valami menő kiegészítő. Az MI nem múló hóbort. Az MI örökre megváltoztatja a társadalmunkat és a haderőnket. Gyorsan kell cselekednünk, hogy ezt a jövőt az ellenőrzésünk alatt tartsuk. A ránk leselkedő fenyegetések nem az ajtónk előtt ólálkodnak, hanem bent vannak a házunkban. Az MI olyan eszköz, amelyet használnunk kell, hogy átalakítsuk nemzeteinket, különben – ha nem megfelelően viszonyulunk hozzá – a vesztünket okozhatja”

– fejtette ki Hamilton egy korábbi interjújában.

Az amerikai légierő egyébként tagadja, hogy sor került volna a Hamilton által leírt szimulációra, azonban más kísérletekről, például egy F-16-os vadászgép vezetésének mesterséges intelligenciára bízásáról maga is rendszeresen beszámol. Az biztos, hogy nehéz nem egyetérteni Hamiltonnal, amikor beszámolójának végén hozzáteszi:

„Nem lehet mesterséges intelligenciáról, intelligenciáról, gépi tanulásról, gépi autonómiáról beszélni, ha nem fogsz beszélni az etika és az MI vonatkozásairól.”

 

A rovat támogatója a 4iG

LEGYEN ÖN IS ELŐFIZETŐNK!

Előfizetőink máshol nem olvasott, higgadt hangvételű, tárgyilagos és
magas szakmai színvonalú tartalomhoz jutnak hozzá havonta már 1490 forintért.
Korlátlan hozzáférést adunk az Mfor.hu és a Privátbankár.hu tartalmaihoz is, a Klub csomag pedig a hirdetés nélküli olvasási lehetőséget is tartalmazza.
Mi nap mint nap bizonyítani fogunk! Legyen Ön is előfizetőnk!

Makro / Külgazdaság Ukrajna nem kap magyar gázt – mégis, mi történt?
Privátbankár.hu | 2026. április 2. 16:56
Szerda óta nincs gázszállítás Magyarország irányából Ukrajnába.
Makro / Külgazdaság Így alakulnak az árak a húsvét alatt a benzinkutakon
Privátbankár.hu | 2026. április 2. 14:03
Így alakulnak az árak Nagypénteken a benzinkutakon.
Makro / Külgazdaság Megint bezsákolt 115 milliárdot a magyar kormány, de jóval többet is kaphatott volna
Privátbankár.hu | 2026. április 2. 13:16
Rövid távra drágábban, hosszabb távra viszont olcsóbban hiteleznek a magyar államnak a befektetők az előző aukcióhoz képest.
Makro / Külgazdaság Csehországban is hozzányúlnak a benzinárhoz
Privátbankár.hu | 2026. április 2. 13:03
Maximalizálják a nyereséget, a jövedéki adót pedig csökkentik – mire lesz elég?
Makro / Külgazdaság Leírta a rettegett szót a Bank of America
Privátbankár.hu | 2026. április 2. 12:52
Az iráni háború miatt újra feljeslik a láthatáron a stagfláció réme.
Makro / Külgazdaság Gulyás Gergely: a közvélemény-kutatás mint szakma halott
Privátbankár.hu | 2026. április 2. 12:42
Csütörtökön vélhetően az utolsó előtti Kormányinfó volt a választások előtt, amelyen természetesen szóba kerültek az elmúlt napok botrányai is. 
Makro / Külgazdaság Gazprom: újabb dróntámadás a Török Áramlat ellen
Privátbankár.hu | 2026. április 2. 12:26
Meddig jöhet még az orosz gáz a vezetéken?
Makro / Külgazdaság Többen maradtak munka nélkül Ausztriában
Privátbankár.hu | 2026. április 2. 11:57
Az egy évvel ezelőtti adatokhoz képest nőtt a munkanélküliség, pedig sokan lekerültek a listáról egy hónap alatt.
Makro / Külgazdaság A Publicus olyat mért, amit még eddig soha
Privátbankár.hu | 2026. április 2. 08:57
Az új kutatásuk szerint már nemcsak többen szavaznának a Tiszára, de többen is gondolják, hogy Magyar Péter pártja nyerhet.
Makro / Külgazdaság Átvágnák a gordiuszi szorost az Öböl menti országok
Privátbankár.hu | 2026. április 2. 08:29
Támadt egy ötletük, hogyan kerüljék ki a könnyen lezárható átjárót.
hírlevél
Ingatlantájoló
Együttműködő partnerünk: 4iG