Skip to main content
közigazgatás: magyarMesterséges Intelligencia (MI)politikatechnikatudomány

A Mesterséges Intelligencia Stratégia megújítása előtt – beszélgetés Palkovics Lászlóval

Szerző: 2025. április 13.No Comments

„[Terjedelmi okokból csak néhány részletet emelünk ki a terjedelmes beszélgetésből. Szerk.] …A Nemzeti Hírközlési és Informatikai Tanáccsal, a Nemzeti Adatvagyon Ügynökséggel és számtalan ilyen szervezettel a mesterséges intelligencia kormánybiztosának mi dolga van? Hogy néz ki ez a rendszer?

A hamarosan megjelenő új stratégia két részt tartalmaz, van egy alapozó pillér része, és van egy, mondjuk azt inkább, alkalmazási vagy példa része. Az alapozó pillér része nagyon sok mindent tartalmaz, ami ahhoz szükséges, hogy egyáltalán meglegyen a megfelelő jogi, műszaki hátterünk ahhoz, hogy egyáltalán gyártani tudjunk mesterséges intelligencia alkalmazásokat. Amikor 2020-ban megcsináltuk az első stratégiát, még nem volt európai uniós szabályozás. Mi is sokat gondolkodtunk rajta, hogy mi a kormánynak, vagy a jogszabályi környezetnek itt a feladata. Amerikában nem szabályozzák a mesterséges intelligenciát, Kínában sem egyébként.

Az AI Act, ami egy rendelet európai szinten, törvényt jelent, Magyarországon az elemeinek az installálása most történik, augusztus elejéig létre kell hoznunk azt az AI Office nevű hatóságot, ami másodlagos hatóságként, de az AI-jal kapcsolatos ügyekkel foglalkozik, pont amiatt, hogyha bármilyen kérdés, jogsértés, egyéb más vetődik föl, legyen meg a megfelelő szervezetünk. Mi úgy döntöttünk, hogy erre egy önálló hatóságot hozunk létre, erről még folynak egyébként a viták, mert különböző országoknak különböző volt a meglátásuk ebben az ügyben. Több ország azt mondta, hogy az ottani adatvédelmi hatósághoz rendelték ezt a funkciót, mert azt mondják, hogy a mesterséges intelligencia adatalapú, tehát az adatok felhasználását, az adatokhoz való hozzáférést ott próbáljuk meg rögzíteni. Ez ízlés kérdése, szerintem a mesterséges intelligencia ennél sokkal több mindent jelent, a fejlődését jobban szolgálja az, ha önálló hatóság van, mintha egyértelműen egy hatósághoz rendeljük, de ez döntés kérdése a tagállamok esetében. A jogi hátteret tekintve, már 2020-ban létrehoztuk a Nemzeti Adatvagyon Ügynökséget, a NAVÜ-t. Ennek az a dolga, hogy az államnál rendelkezésre álló adatokat megfelelő bizalmassági elvárások mellett, tehát anonizálva, ne lehessen visszakövetkeztetni arra, hogy kié volt, de áruba tudja bocsátani. Az áruba bocsátás azt jelenti, hogy ha valaki üzleti célra akarja alkalmazni, fizessen azért az adatért, amit megkap, de egyébként használja egy termék kifejlesztésében. Ha valaki kutatni akarja ezeket, nyilván nem kell fizetni érte, csak azt kell garantálni, hogy ne lehessen a kutatás alatt sem visszakövetkeztetni az alanyokra, illetve ha maga az adatgazda akarja használni, azt milyen feltételek mellett teheti. Ez a NAVÜ-nek a feladata. Van még egy szereplő, egy cég, amely rendelkezik azzal a képességgel, hogy ezeket az adatokat anonimizálni tudja. Ha ezeket rendezzük, akkor tulajdonképpen olyan nagyon hátrányos helyzetet Európában nem állítottunk elő. Nagyon fontos azt is érteni, hogy ennek azért feltételei vannak. Az egyik ilyen a számítási kapacitás, ezt szuperszámítógépnek szokták nevezni. Itt Magyarország is erősen tevékenykedik, ez az én egyik feladatom is, hogy hozzuk létre azt a nagy teljesítményszámítási kapacitást, ami alkalmas arra, hogy ezt az előbb elmondott optimális feladatot végrehajtsuk. Tehát föltanítsuk ezeket a neurális hálókat.

Ha lesz ilyen hatóság, akkor mindenki az alá fog tartozni, vagy lesznek duplikátumok, meg speciális szakterületek?

Ez egy másodlagos hatóság, ha úgy tetszik. Tehát ha mondjuk a fogyasztóvédelmi hatóság egy olyan rendszerrel szembesül, ami egy olyan szoftver, ami egyébként AI alapon működik, és ez egyébként valamilyen fogyasztói problémát okozott, akkor az lesz a feladata az AI hatóságnak, hogy miután megnézte, eldöntse, hogy ez rendben van-e így. Nagyon sok mindent kell, hogy rendezzen. Nagyon az elején vagyunk ennek az útnak, tegyük ezt is hozzá, ez most kezd kialakulni Európában is. Most látjuk azt, hogy mi milyen ügyekkel fogunk szembesülni. Ez egy komoly terület, felvetődhetnek akár olyan kérdések, hogy egy tetszőlegesen valahol rögzített hangfelvétel, meg egy filmfelvétel alapján valakinek megcsinálják az avatárját, és ez az avatár egyébként politikai kijelentéseket tesz. Ezeket valamilyen formában mindenképpen kezelni kell, mert ez nem történhet meg.

Ezt ezt ki kezeli? A kibervédelmi hatóság? Az AI hatóság?

Az AI hatóság, amikor arról van szó, hogy meglévő adatok alapján, AI alkalmazással, létrehoztuk az avatárt, s az arra buzdít, hogy menjünk, nem tudom, tüntetni, akkor az nem helyes, ezt rendezni kell valamilyen formában.

Kivéve, ha a gyülekezési jog szabályait betartja.

De ha mondjuk, valaki arra biztat, hogy baltával menjünk tüntetni azt azért nyilván kezelni kell, ez az AI hatóságnak egyébként a dolga.

Az látszik-e már, hogy az európai Green Deal, meg a mesterséges intelligencia fejlesztésének áramigénye között milyen összefüggés van?

Ez egy jó kérdés. Az áramigénye egyértelműen nagy a szuperszámítógépes kapacitásoknak, ezek nagyon nagy teljesítményű számítógépek, nemcsak energiát használnak, hanem azzal is foglalkozni kell, hogy az egyébként általa generált hőenergiát mindenképpen fel kell használni…”

Forrás:
Palkovics László: szintetikus adatok és dupla MI – a jövő már elkezdődött; Exterde Tibor; Infostart / InfoRádió; 2025. április 10.
Szerkesztői megjegyzés:
A beszélgetésben elhangzottakkal szemben az Egyesült Államok és Kína igen is szabályozza a mesterséges intelligenciát, csak nem egyetlen, átfogó jogszabályban, mint az Európai Unió, hanem számos, részterület szerinti szabályozásban (horizontális szabályozás versus vertikális szabályozások).