A már több mint két éve készülő AI-törvény várhatóan mérföldkő lesz a mesterséges intelligencia európai használatát szabályozó uniós jogszabályban. Az Európai Bizottság (EB) a honlapján megjegyzi, hogy „a mesterséges intelligenciához (AI) való hozzáállásunk meghatározza jövőnk világát. A „Digitális Évtizedben” az európai polgároknak és vállalkozásoknak képesnek kell lenniük arra, hogy élvezzék a mesterséges intelligencia előnyeit, miközben biztonságban és védve érezhetik magukat.”
A törvényhozók azt javasolják, hogy a különféle mesterséges intelligencia eszközöket az észlelt kockázati szint szerint osztályozzák, az alacsonytól az elfogadhatatlanig. Az ezeket az eszközöket használó kormányokat és vállalatokat a kockázati szinttől függően eltérő kötelezettségek terhelik.
A Future of Life Institute az EU AI-törvényével foglalkozó honlapja így emeli ki a kockázati szinteket: „Először is, betiltják azokat az alkalmazásokat és rendszereket, amelyek elfogadhatatlan kockázatot jelentenek, mint például a kormány által működtetett, Kínában használt típusú társadalmi pontozás.”
„Másodszor, a magas kockázatú alkalmazásokra - például egy önéletrajz-szkennelő eszközre, amely rangsorolja az állásra jelentkezőket -, meghatározott jogi követelmények vonatkoznak.
Végezetül a kifejezetten nem tiltott, vagy magas kockázatúként felsorolt alkalmazások nagyrészt szabályozás nélkül maradnak.”
Mit fed le a törvény?
A törvény kiterjedt, és mindenkire vonatkozik, aki mesterséges intelligenciát használó terméket vagy szolgáltatást nyújt. A törvény meghatározott rendszerekre fog vonatkozni: ezek olyan kimeneteket képesek generálni, mint például a tartalom, előrejelzések, ajánlások vagy a környezetet befolyásoló döntések.
A vállalatok AI-használatán kívül a közszférában és a bűnüldözésben használt AI vizsgálatára is sor kerül. Más törvényekkel, például az Általános Adatvédelmi Rendelettel (GDPR) együtt fog működni. Az emberekkel kölcsönhatásba lépő AI-rendszereket használók, megfigyelési célokra vagy „mélyhamisított” („deepfake”) tartalom előállítására használhatók, ezért szigorú átláthatósági kötelezettségekkel szembesülnek.
Az EB honlapja kijelenti, hogy az EU AI-törvénye segíti a blokkot nemzetközileg versenyképessé tenni azáltal, hogy:
- „az AI fejlesztésének és elterjedésének lehetővé tétele az EU-ban;
- „az EU-t azzá a hellyé tenni, ahol az AI virágzik a laboratóriumtól a piacig;
- „biztosítani, hogy az AI az emberek javát szolgálja, és a társadalom javát szolgáló erő legyen;
- „stratégiai vezető szerep kiépítése a nagy hatású (high-impact) ágazatokban”.
Mi számít „nagy kockázatúnak”?
Számos AI-eszköz tekinthető magas kockázatúnak, például a kritikus infrastruktúrában, a bűnüldözésben vagy az oktatásban használt eszközök. Ezek egy szinttel az "elfogadhatatlan" alatt vannak, ezért nem tiltják be őket.
Ehelyett a magas kockázatú AI használóinak valószínűleg szigorú kockázatelemzést kell végezniük, tevékenységeiket naplózni kell, és az adatokat a hatóságok rendelkezésére kell bocsátaniuk ellenőrzés céljából. Ez növeli majd a vállalatok megfelelési költségeit.
A „magas kockázatú” kategóriák közül sok, ahol a mesterséges intelligencia használatát szigorúan ellenőrizni fogják, olyan területekre vonatkozna, mint a bűnüldözés, a migráció, az infrastruktúra, a termékbiztonság és az igazságszolgáltatás.
Mi az a „GPAIS”?
A GPAIS (General Purpose AI System) egy olyan kategória, amelyet a törvényhozók javasolnak, hogy figyelembe vegyék az AI-eszközöket egynél több alkalmazás esetén, például az olyan generatív AI-modellek esetében, mint a ChatGPT.
A törvényhozók jelenleg azon vitatkoznak, hogy a GPAIS minden formája magas kockázatúnak minősül-e, és mit jelentene ez azon technológiai vállalatok számára, amelyek a mesterséges intelligencia bevezetését kívánják termékeikbe. A törvénytervezet nem tisztázza, hogy az AI-rendszerek gyártóira milyen kötelezettségek vonatkoznának.
A Politico egy közelmúltban megjelent cikke azt vizsgálja, hogy milyen nehézségekkel szembesülnek az európai törvényhozók a ChatGPT és hasonlók osztályozása során.
„A ChatGPT térnyerése most arra kényszeríti az Európai Parlamentet, hogy [újraírja a terveit]” – írja a cikk. „Februárban az AI-törvény vezető törvényhozói azt javasolták, hogy az emberi felügyelet nélkül összetett szövegeket generáló AI rendszerek szerepeljenek a „magas kockázatú” listán – a ChatGPT dezinformációt terjesztő tevékenységének megfékezése érdekében.
Mi van, ha egy cég megszegi a szabályokat?
A javaslatok szerint az AI-törvényt megsértőkre akár 30 millió euróig vagy a globális nyereség 6 százalékáig terjedő pénzbírságot szabhatnak ki, attól függően, hogy melyik a magasabb.
Egy olyan vállalat számára, mint a Microsoft, amely támogatja a ChatGPT készítőjét, az OpenAI-t, ez akár több, mint 10 milliárd dolláros bírságot jelenthet, ha a szabályokat megsérti.
Mikor lép életbe az AI-törvény?
Noha az iparág arra számít, hogy a törvényt még idén elfogadják, nincs konkrét határidő. A törvényt parlamenti képviselők vitatják meg, majd miután megegyeznek, háromoldalú egyeztetésre kerül sor az Európai Parlament, az Európai Unió Tanácsa és az Európai Bizottság képviselői között.
A feltételek véglegesítése után körülbelül két év türelmi idő áll rendelkezésre, hogy az érintett felek megfeleljenek a szabályozásnak.
A Future of Life Institute (FLI) honlapja azt sugallja, hogy nincs minden rendben az AI-törvénnyel: „Több kiskapu és kivétel van a javasolt törvényben” – írják. „Ezek a hiányosságok korlátozzák a törvény azon képességét, hogy biztosítsa, hogy az AI jótékony hatású maradjon az életünkben. Jelenleg például tilos a rendőrség arcfelismerése, kivéve, ha a képek késéssel készülnek, vagy a technológiát az eltűnt gyerekek megtalálására használják fel.”
Az FLI arra is felhívja a figyelmet, hogy a javasolt törvény nem rendelkezik a változtatás és a növekedés rugalmasságával, amikor az AI technológia elkerülhetetlenül előrehalad és a törvény hatályain túllép: „Ha két éven belül veszélyes AI alkalmazást használnak egy előre nem látható szektorban, a törvény nem biztosít olyan mechanizmust, amely „magas kockázatúnak” minősíthetné.”
(Káncz Csaba szerzői oldala itt érhető el.)