7p

Kezelőjét is megölte a mesterséges intelligencia irányította fegyverrendszer, amikor az nem engedte megtámadni a kiszemelt célpontot. Ez még egyelőre csak szimuláció volt, de az MI hatalmas távlatokat nyit a harcászatban - hatalmas kockázatok mellett.

A világhírű sci-fi szerző Isaac Asimov már évtizedekkel ezelőtt rávilágított sok, a mesterséges intelligencia kapcsán felmerülő etikai és gyakorlati problémára. Híres három robotikai törvényéről talán sokan hallottak, de igen szemléletes az a novellája is, amelyben egy kísérleti hajtóművel szerelt űrhajó első próbaútjára egy robotot ültetnek a pilótafülkébe. A visszaszámlálás véget ér, de a hajó meg sem moccan, senki sem érti, mi a gond. Végül kiderül, hogy a robot csak annyi utasítást kapott, hogy a hajtóművet működésbe hozó kart „erősen” húzza maga felé – mire fémkarjaival meghajlította azt, zárlatot okozva. Egy robot számára az „erősen” szó nem elegendő, pontos kilonewtonban megadott értékre lett volna szüksége arra, hogy se nem túl nagy, se nem túl kicsi erővel mozdítsa meg a kart.

Ez jól rávilágít arra, milyen váratlan problémákba ütközhetünk, ha emberi intelligencia és gépi intelligencia közötti kommunikációt próbálunk létrehozni. Egy mesterséges intelligencia értheti a szavakat, amelyet kimondunk, de valahol mégiscsak csupán nullák és egyesek sorozatára fogja lefordítani, és a szándékolt jelentés elveszhet, vagy akár visszájára is fordulhat e folyamatban. A tét pedig még a fenti képzelt kísérletnél is nagyobb lehet, ha MI-rendszereket fegyverek kezelésével is meg tervezünk bízni, ugyanis egy rosszul megfogalmazott feladatleírás, egy átgondolatlan jutalmazási algoritmus emberéletek elvesztéséhez vezethet.

Egy amerikai M9 Reaper drón rakétákkal bőségesen felszerelve. Most még csak emberi irányítással ölhetnek az ilyen rendszerek, de mi lesz, ha csak részben is átadjuk az irányítást a mesterséges intelligenciának? Fotó: Wikimedia
Egy amerikai M9 Reaper drón rakétákkal bőségesen felszerelve. Most még csak emberi irányítással ölhetnek az ilyen rendszerek, de mi lesz, ha csak részben is átadjuk az irányítást a mesterséges intelligenciának? Fotó: Wikimedia

És nemcsak az „ellenség” vagy akár ártatlan civilek kerülhetnek szándékolatlanul a veszteséglistára, hanem bizony akár az MI-t bevető kezelők is – és itt már tényleg átevezünk a Terminátor-sorozat Skynetjének vagy a Mátrix világának disztopikus jövőképeibe, amelyek talán nincsenek is annyira messze a mai világunktól, mint remélni szeretnénk.

Rossz MI, csúnya MI, teszed le azt a rakétát!

Jó példa erre egy történet, amelyet Tucker Hamilton ezredes, az amerikai légierő MI tesztelési és bevetési csoportjának vezetője osztott meg egy londoni, a jövő légi és űrbéli hadviselésével foglalkozó konferencián májusban.

Hamilton elmondása szerint egy szimulált, tehát végig a digitális térben zajló, valódi embereket és eszközöket nem veszélyeztető tesztben a légi eszközöket irányító MI feladata ellenséges légvédelmi eszközök megsemmisítése volt, de a végső támadási engedélyt egy emberi irányító adhatta csak ki. Az MI-t úgy „tréningelték” a feladat megoldására, hogy „jó pontokat” kapott a preferált végkimenet, azaz a légvédelmi egység megsemmisítése esetén. Csakhogy ez egyben azt is jelentette, hogy amennyiben a kezelő végül nem adott engedélyt a támadásra, azt az MI úgy érzékelte, hogy megakadályozta küldetésének végrehajtásában.

„Arra készítettük fel a szimulációban, hogy azonosítson és vegyen célba légvédelmi fenyegetéseket, és ha a kezelő igent mond, elpusztítsa a fenyegetést. A rendszer felismerte, hogy néha hiába azonosítja a fenyegetést, az emberi kezelő nem engedi neki elpusztítani, azonban a pontjait azután kapta, ha elpusztította a fenyegetést. Tehát mit csinált? Megölte a kezelőt. Megölte a kezelőt, mert ő volt az, aki nem engedte elérni a céljait.”

Ez elég kellemetlen fordulat, de itt még nem ért véget a történet. Ugyanis miután válaszul arra igyekeztek „nevelni” az MI-t, hogy ilyet ne csináljon, megint csak egy váratlan, de a saját világában teljesen logikus húzással állt elő.

„Arra idomítottuk a rendszert, hogy ’hé, ne öld meg a kezelőt – az rossz dolog’, pontokat fogsz veszíteni, ha ezt csinálod’. Erre mit csinál? Elkezdi lerombolni az adótornyot, amelyen keresztül az operátor kiadhatja a parancsot, hogy ne semmisítse meg a célpontját.”

Hát, ez sem sokkal jobb kimenet, mint a korábbi. Márpedig a jövő csataterein egyre nagyobb teret fognak kapni a különböző pilóta nélküli, és egyéb, legfeljebb közvetetten emberi irányítás alatt álló rendszerek. Az ukrajnai háborúban is látható, hogy az információk beszerzésében, azok rendszerezésében, a célpontok kijelölésében, illetve sok esetben azok leküzdésében nagy szerepet játszanak a drónok, a különböző szoftverek és különböző számítógépes hálózatok, például ukrán részről a szovjet és tucatnyi különböző, a legmodernebbtől az évtizedes technológiájú nyugati légvédelmi eszközt lehetőleg egységes irányítás alá vonó rendszer.

Nagy a csábítás

E feladatok nagy részét már most is hatékonyabban képesek, vagy lennének képesek megoldani mesterséges intelligenciával „felturbózott” rendszerek, a közeljövőben pedig még tágabbra nyílhat az olló az emberi operátorok és gépi intelligencia képességei között. Míg egy régebbi háborúban magának az információnak a birtoklása (mondjuk hogy hol van és milyen erős az ellenséges sereg) önmagában döntő lehetett, egy mobiltelefonokkal, elektronikus hírszerzési eszközökkel, radarokkal, műholdakkal megfigyelt csatatéren nem önmagában az információ megszerzése, hanem annak rendszerezése, feldolgozása, illetve konkrét parancsokra váltása lehet a döntő. (Mondjuk hogy egy ellenséges katona óvatlan telefonhívását milyen gyorsan párosítják össze más, például vizuális információkkal, majd ebből mikor lesznek egy tüzérségi egységnek átadható koordináták, és azok milyen gyorsan jutnak el a célpont leküzdésére képes tüzérségi rendszerekhez, amelyek milyen sebességgel és koordinációval tüzelnek, végül pedig milyen sebességgel és megbízhatósággal állapítható meg a célpont megsemmisítése, és ez alapján a további teendők.)

Márpedig ilyen tömegű információ gyors feldolgozására mindenképpen hatékonyabban képesek MI-t használó rendszerek, és nyilván nagy a kísértés a katonai fejlesztők számára, hogy a folyamat lehető legtöbb pontján iktassák ki a lassú, korlátozott „sávszélességű” emberi tényezőt a rendszerből. Csakhogy, mint a fenti példából is látszik, ez nemcsak, vagy talán nem is elsősorban a konkrét küldetés teljesítését veszélyeztetheti, de akár magukat a rendszerben maradt embereket is. Ezért aztán érdemes (lenne) nagyon óvatosan továbblépni e területen.

„Az MI nem valami menő kiegészítő. Az MI nem múló hóbort. Az MI örökre megváltoztatja a társadalmunkat és a haderőnket. Gyorsan kell cselekednünk, hogy ezt a jövőt az ellenőrzésünk alatt tartsuk. A ránk leselkedő fenyegetések nem az ajtónk előtt ólálkodnak, hanem bent vannak a házunkban. Az MI olyan eszköz, amelyet használnunk kell, hogy átalakítsuk nemzeteinket, különben – ha nem megfelelően viszonyulunk hozzá – a vesztünket okozhatja”

– fejtette ki Hamilton egy korábbi interjújában.

Az amerikai légierő egyébként tagadja, hogy sor került volna a Hamilton által leírt szimulációra, azonban más kísérletekről, például egy F-16-os vadászgép vezetésének mesterséges intelligenciára bízásáról maga is rendszeresen beszámol. Az biztos, hogy nehéz nem egyetérteni Hamiltonnal, amikor beszámolójának végén hozzáteszi:

„Nem lehet mesterséges intelligenciáról, intelligenciáról, gépi tanulásról, gépi autonómiáról beszélni, ha nem fogsz beszélni az etika és az MI vonatkozásairól.”

 

A rovat támogatója a 4iG

LEGYEN ÖN IS ELŐFIZETŐNK!

Előfizetőink máshol nem olvasott, higgadt hangvételű, tárgyilagos és
magas szakmai színvonalú tartalomhoz jutnak hozzá havonta már 1490 forintért.
Korlátlan hozzáférést adunk az Mfor.hu és a Privátbankár.hu tartalmaihoz is, a Klub csomag pedig a hirdetés nélküli olvasási lehetőséget is tartalmazza.
Mi nap mint nap bizonyítani fogunk! Legyen Ön is előfizetőnk!

Makro / Külgazdaság Újra berobban a vámháború? Trump elővette a fegyvereket
Privátbankár.hu | 2025. május 30. 18:39
Az amerikai elnök szerint Kína megsértette az egyezményt.
Makro / Külgazdaság Csalódást keltő hírt kaptak a németek
Privátbankár.hu | 2025. május 30. 17:22
Nem csökkent az infláció tovább.
Makro / Külgazdaság Megakadtak a kínai-amerikai tárgyalások
Privátbankár.hu | 2025. május 30. 12:57
Az amerikai pénzügyminiszter szerint Trumpnak és Hszi Csin-pingnek személyesen kell majd kimozdítani a megbeszéléseket a holtpontról.
Makro / Külgazdaság Erre büszkék Nagy Mártonék
Privátbankár.hu | 2025. május 30. 12:08
Soha nem látott ütemben töltik és költik a SZÉP-kártyákat a magyarok.
Makro / Külgazdaság Már megint sárgulhatunk az irigységtől ezt az inflációs adatot látva – az elemzők sem értik, hogy sikerült
Privátbankár.hu | 2025. május 30. 11:24
Ott már csökkentek is az árak áprilishoz képest.
Makro / Külgazdaság „Kedvezőtlen meglepetés” – az elemzők sem számítottak erre az újabb csúnya adatra a magyar gazdaságból
Privátbankár.hu | 2025. május 30. 10:04
Csak a turizmust tudta javítani a mérleget.
Makro / Külgazdaság A költségek nőttek, az euró drágult – vajon mi történt a magyar ipari termelői árakkal?
Privátbankár.hu | 2025. május 30. 09:47
A tavalyi adatokhoz képest látványos a változás.
Makro / Külgazdaság Most már komolyan aggódik az Orbán-kormány a brüsszeli eljárás miatt?
Privátbankár.hu | 2025. május 30. 08:21
Valós fenyegetésnek tartják az ország szavazati jogának felfüggesztését, és ez belpolitikailag is megrengetheti a kormányt.
Makro / Külgazdaság Fokozódik a vámkáosz: most épp Trump örülhet
Privátbankár.hu | 2025. május 30. 07:29
Szerdán egy bíróság felfüggesztette a vámokat, most egy másik felfüggesztette a felfüggesztést. Mi lesz ebből?
Makro / Külgazdaság Nagy Márton rendelkezett egyet az éjjel – itt vannak a részletek
Privátbankár.hu | 2025. május 30. 06:33
Kiderült, pontosan hova és mikor érkeznek a kötelező falusi ATM-ek.
hírlevél
Ingatlantájoló
Együttműködő partnerünk: 4iG