Skip to main content
Európai Uniógazdaságjogpolitikatechnikatudomány

Mesterséges intelligencia – Kérdések és válaszok – Európai Bizottság

Szerző: 2024. augusztus 4.No Comments

Miért kell szabályozni a mesterséges intelligencia használatát?

A mesterséges intelligenciáról szóló uniós jogszabály a világ első átfogó mesterséges intelligenciáról szóló jogszabálya. Célja az egészséget, a biztonságot és az alapvető jogokat érintő kockázatok kezelése. A rendelet a demokráciát, a jogállamiságot és a környezetet is védi.

Az MI-rendszerek elterjedése komoly lehetőségeket rejt magában a társadalmi előnyök, a gazdasági növekedés, valamint az uniós innováció és a globális versenyképesség fokozása szempontjából. Bizonyos esetekben azonban egyes MI-rendszerek sajátos jellemzői új kockázatokat teremthetnek a felhasználói biztonsággal, többek között a fizikai biztonsággal és az alapvető jogokkal kapcsolatban. Egyes, széles körben használt erős MI-modellek akár rendszerszintű kockázatokat is jelenthetnek.

Ez jogbizonytalansághoz és az MI-technológiák hatóságok, vállalkozások és polgárok általi esetleges lassabb elterjedéséhez vezet a bizalom hiánya miatt. A nemzeti hatóságok eltérő szabályozási intézkedései a belső piac széttöredezésének kockázatával járna.

Ezekre a kihívásokra reagálva jogalkotási fellépésre volt szükség az MI-rendszerek jól működő belső piacának biztosítása érdekében, ahol az előnyöket és a kockázatokat egyaránt megfelelően kezelik.

Kire vonatkozik a mesterséges intelligenciáról szóló jogszabály?

A jogi keret az EU-n belüli és kívüli köz- és magánszereplőkre egyaránt alkalmazandó lesz, amennyiben az MI-rendszert forgalomba hozzák az uniós piacon, vagy használata hatással van az EU-ban tartózkodó emberekre.

A kötelezettségek hatással lehetnek mind a szolgáltatókra (pl. egy önéletrajz-szűrési eszköz fejlesztőjére), mind az MI-rendszerek alkalmazóira (pl. egy ilyen szűrőeszközt vásárló bank). A rendelet alól vannak bizonyos kivételek. Az MI-rendszer forgalomba hozatala előtt végzett kutatási, fejlesztési és prototípus-készítési tevékenységek nem tartoznak e rendeletek hatálya alá. Emellett a kizárólag katonai, védelmi vagy nemzetbiztonsági célokra tervezett MI-rendszerek szintén mentességet élveznek, függetlenül az e tevékenységeket végző szervezet típusától.

Melyek a kockázati kategóriák?

A mesterséges intelligenciáról szóló jogszabály egységes keretet vezet be valamennyi uniós tagállamban, amely a mesterséges intelligencia előretekintő meghatározásán és kockázatalapú megközelítésen alapul:

  • Elfogadhatatlan kockázat: A mesterséges intelligencia nagyon korlátozott számú, különösen káros felhasználása, amely ellentétes az uniós értékekkel, mivel sérti az alapvető jogokat, és ezért be lesz tiltva:
    • Személyek sebezhetőségének kihasználása, manipuláció és szubliminális technikák alkalmazása;
    • Társadalmi pontozás köz- és magáncélokra;
    • Kizárólag profilalkotáson alapuló egyéni prediktív rendfenntartás;
    • Az internet vagy a CCTV nem célzott webaratása (scraping) arcképmásokat tartalmazó adatbázisok kiépítése vagy bővítése céljából;
    • Érzelmek felismerése a munkahelyen és az oktatási intézményekben, kivéve, ha orvosi vagy biztonsági okokból (azaz a pilóták fáradtsági szintjének nyomon követése);
    • Természetes személyek biometrikus kategorizálása fajuk, politikai véleményük, szakszervezeti tagságuk, vallási vagy világnézeti meggyőződésük vagy szexuális irányultságuk levezetése vagy levezetése céljából. Továbbra is lehetőség lesz az adatkészletek címkézésére vagy szűrésére, valamint az adatok kategorizálására a bűnüldözés területén;
    • Valós idejű távoli biometrikus azonosítás a nyilvánosság számára hozzáférhető helyeken a bűnüldöző szervek által, szűk kivételektől eltekintve (lásd alább).
  • A Bizottság a tilalmak 2025. február 2-i hatálybalépése előtt iránymutatást fog kiadni a tilalmakról.
  • Nagy kockázatú: A javaslatban meghatározott, korlátozott számú MI-rendszer magas kockázatúnak minősül, amelyek káros hatást gyakorolhatnak az emberek biztonságára vagy (az Európai Unió Alapjogi Chartája által védett) alapvető jogaikra. A jogi aktus mellékletét képezik a nagy kockázatú MI-rendszerek jegyzékei, amelyek felülvizsgálhatók annak érdekében, hogy igazodjanak a mesterségesintelligencia-használati esetek alakulásához.
  • Ide tartoznak az uniós ágazati jogszabályok hatálya alá tartozó termékek biztonsági elemei is. Minden esetben magas kockázatúnak minősülnek, ha az említett ágazati jogszabályok alapján harmadik fél által végzett megfelelőségértékelésnek vetik alá őket.
  • Az ilyen nagy kockázatú MI-rendszerek közé tartoznak például azok az MI-rendszerek, amelyek értékelik, hogy valaki képes-e igénybe venni egy bizonyos orvosi kezelést, hogy munkát vagy kölcsönt kapjon lakásvásárláshoz.  Egyéb nagy kockázatú MI-rendszerek azok, amelyeket a rendőrség személyek profilalkotására vagy bűncselekmény elkövetése kockázatának értékelésére használ (kivéve, ha az 5. cikk ezt tiltja). A nagy kockázatot jelentő mesterségesintelligencia-rendszerek robotokat, drónokat vagy orvostechnikai eszközöket is jelenthetnek.
  • Egyedi átláthatósági kockázat: A bizalom előmozdítása érdekében fontos biztosítani a mesterséges intelligencia használatának átláthatóságát. Ezért a mesterséges intelligenciáról szóló jogszabály konkrét átláthatósági követelményeket vezet be bizonyos MI-alkalmazások tekintetében, például azokban az esetekben, amikor fennáll a manipuláció (pl. csevegőrobotok) vagy a mélyhamisítványok egyértelmű kockázata. A felhasználóknak tisztában kell lenniük azzal, hogy egy géppel kommunikálnak.
  • Minimális kockázat: Az MI-rendszerek többsége további jogi kötelezettségek nélkül fejleszthető és használható a meglévő jogszabályok szerint. E rendszerek szolgáltatói önkéntes alapon dönthetnek úgy, hogy alkalmazzák a megbízható mesterséges intelligenciára vonatkozó követelményeket, és betartanak önkéntes magatartási kódexeket.

Emellett a mesterséges intelligenciáról szóló jogszabály figyelembe veszi az általános célú MI- modellekből – többek között a nagy generatív MI-modellekből – eredő rendszerszintű kockázatokat. Ezek számos feladatra felhasználhatók, és számos MI-rendszer alapját képezik az EU-ban. E modellek némelyike rendszerszintű kockázatokat hordozhat, ha nagyon alkalmasak vagy széles körben használatosak. Az erős modellek például súlyos baleseteket okozhatnak, vagy nagy horderejű kibertámadásokkal visszaélhetnek. Sok egyént érinthet, ha egy modell számos alkalmazásban káros torzításokat szaporít.

Honnan tudom, hogy egy MI-rendszer nagy kockázatú-e?

A mesterséges intelligenciáról szóló jogszabály szilárd módszertant határoz meg az MI-rendszerek nagy kockázatúként történő besorolására. Ennek célja, hogy jogbiztonságot teremtsen a vállalkozások és más gazdasági szereplők számára.

A kockázati besorolás az egyes MI-rendszerek rendeltetésén alapul, összhangban a hatályos uniós termékbiztonsági jogszabályokkal. Ez azt jelenti, hogy a besorolás az MI-rendszer által ellátott funkciótól, valamint a rendszer használatának konkrét céljától és módozataitól függ.

Az MI-rendszerek két esetben minősíthetők nagy kockázatúnak:

  • Ha az MI-rendszer biztonsági alkatrészként van beágyazva a termékekre vonatkozó hatályos jogszabályok (I. melléklet) hatálya alá tartozó termékekbe, vagy maga is ilyen terméknek minősül. Ez lehet például a mesterséges intelligencián alapuló orvosi szoftver.
  • Ha az MI-rendszert a mesterséges intelligenciáról szóló jogszabály III. mellékletében felsorolt nagy kockázatú felhasználási esetre szánják. A lista olyan területeken alkalmazott eseteket tartalmaz, mint az oktatás, a foglalkoztatás, a bűnüldözés vagy a migráció.

A Bizottság iránymutatásokat dolgoz ki a magas kockázatú besorolásra vonatkozóan, amelyeket e szabályok alkalmazásának kezdőnapja előtt közzé fog tenni.

Milyen példák vannak a III. mellékletben meghatározott magas kockázatú felhasználási esetekre?
A III. melléklet nyolc olyan területet tartalmaz, ahol a mesterséges intelligencia használata különösen érzékeny lehet, és az egyes területek konkrét felhasználási eseteit sorolja fel. Egy MI-rendszer akkor minősül nagy kockázatúnak, ha e felhasználási esetek valamelyikéhez kívánják használni.

Példák:

  • Bizonyos kritikus infrastruktúrákban, például a közúti közlekedés, valamint a víz-, gáz-, fűtés- és villamosenergia-ellátás területén biztonsági alkatrészként használt MI-rendszerek;
  • Az oktatásban és a szakképzésben használt MI-rendszerek, például a tanulási eredmények értékelésére, a tanulási folyamat irányítására és a csalás nyomon követésére;
  • A foglalkoztatás és a munkavállalók irányításában használt MI-rendszerek, valamint az önfoglalkoztatáshoz való hozzáférés, például célzott álláshirdetések elhelyezése, álláspályázatok elemzése és szűrése, valamint a jelöltek értékelése;
  • Az alapvető magán- és közszolgáltatásokhoz és előnyökhöz (pl. egészségügyi ellátáshoz) való hozzáféréshez, a természetes személyek hitelképességének értékeléséhez, valamint az élet- és egészségbiztosítással kapcsolatos kockázatértékeléshez és árképzéshez használt MI-rendszerek;
  • A bűnüldözés, a migráció és a határellenőrzés területén használt MI-rendszerek, amennyiben azok még nem tiltottak, valamint az igazságszolgáltatás és a demokratikus folyamatok területén;
  • Biometrikus azonosításra, biometrikus kategorizálásra és érzelemfelismerésre használt MI-rendszerek, amennyiben azok nem tiltottak.

Milyen kötelezettségek terhelik a magas kockázatú MI-rendszerek szolgáltatóit?

A nagy kockázatú MI-rendszerek uniós piacon történő forgalomba hozatala vagy más módon történő üzembe helyezése előtt a szolgáltatóknak azt megfelelőségértékelésnek kell alávetniük. Ez lehetővé teszi számukra annak bizonyítását, hogy rendszerük megfelel a megbízható mesterséges intelligenciára vonatkozó kötelező követelményeknek (pl. adatminőség, dokumentáció és nyomonkövethetőség, átláthatóság, emberi felügyelet, pontosság, kiberbiztonság és megbízhatóság). Ezt az értékelést meg kell ismételni, ha a rendszer vagy annak célja lényegesen módosul.

Az ágazati uniós jogszabályok hatálya alá tartozó termékek biztonsági alkatrészeiként szolgáló MI-rendszerek mindig nagy kockázatúnak minősülnek, ha az említett ágazati jogszabályok alapján harmadik fél által végzett megfelelőségértékelés tárgyát képezik. Ezenkívül minden biometrikus rendszer esetében – alkalmazásuktól függetlenül – harmadik fél általi megfelelőségértékelésre lesz szükség.

A magas kockázatú MI-rendszerek szolgáltatóinak minőség- és kockázatkezelési rendszereket is be kell vezetniük annak érdekében, hogy a termék forgalomba hozatala után is biztosítsák az új követelményeknek való megfelelést, valamint a felhasználókat és az érintett személyeket érintő kockázatok minimalizálását.

A hatóságok vagy a nevükben eljáró szervezetek által telepített nagy kockázatú MI-rendszereket nyilvántartásba kell venni egy nyilvános uniós adatbázisban, kivéve, ha ezeket a rendszereket bűnüldözési és migrációs célokra használják. Ez utóbbit az adatbázis nem nyilvános részében kell regisztrálni, amelyhez csak az érintett felügyeleti hatóságok férhetnek hozzá.

Az MI-rendszer teljes életciklusa során a megfelelés biztosítása érdekében a piacfelügyeleti hatóságok rendszeres ellenőrzéseket végeznek és megkönnyítik a forgalomba hozatal utáni nyomon követést, és lehetővé teszik a szolgáltatók számára, hogy önkéntesen jelentsék be a tudomásukra jutott súlyos váratlan eseményeket vagy az alapjogi kötelezettségek megsértését.  Kivételes esetekben a hatóságok mentességet adhatnak egyes nagy kockázatú, forgalomba hozandó MI-rendszerek számára.

Jogsértés esetén a követelmények lehetővé teszik majd a nemzeti hatóságok számára, hogy hozzáférjenek az annak kivizsgálásához szükséges információkhoz, hogy a mesterséges intelligencia használata megfelelt-e a jogszabályoknak.

Mi lenne a szabványosítás szerepe a mesterséges intelligenciáról szóló jogszabályban?

A mesterséges intelligenciáról szóló jogszabály értelmében a nagy kockázatú MI-rendszerekre egyedi követelmények vonatkoznak. Az európai harmonizált szabványok kulcsszerepet fognak játszani e követelmények végrehajtásában.

2023 májusában az Európai Bizottság megbízta a CEN és a CENELEC európai szabványügyi szervezeteket, hogy dolgozzanak ki szabványokat e magas kockázatú követelményekre vonatkozóan. Ez a megbízatás most módosulni fog, hogy igazodjon a mesterséges intelligenciáról szóló jogszabály végleges szövegéhez.

Az európai szabványügyi szervezeteknek 2025. április végéig kell szabványokat kidolgozniuk és közzétenniük. A Bizottság ezt követően értékeli és esetleg jóváhagyja ezeket a szabványokat, amelyeket közzé fog tenni az Európai Unió Hivatalos Lapjában. Közzétételüket követően ezek a szabványok „megfelelőség vélelmét” adják az azoknak megfelelően kifejlesztett MI-rendszerek számára.

Hogyan szabályozzák az általános célú MI-modelleket?

Az általános célú MI-modellek, beleértve a nagy generatív MI-modelleket is, számos feladatra használhatók. Az egyedi modellek számos MI-rendszerbe integrálhatók.

Alapvető fontosságú, hogy az általános célú MI-modellt integráló MI-rendszer szolgáltatója hozzáférjen minden szükséges információhoz annak biztosításához, hogy a rendszer biztonságos legyen és megfeleljen a mesterséges intelligenciáról szóló jogszabálynak.

Ezért a mesterséges intelligenciáról szóló jogszabály arra kötelezi az ilyen modellek szolgáltatóit, hogy bizonyos információkat közöljenek a downstream rendszerszolgáltatókkal. Ez az átláthatóság lehetővé teszi e modellek jobb megértését.

A modellszolgáltatóknak emellett olyan szakpolitikákkal kell rendelkezniük, amelyek biztosítják, hogy modelljük képzése során tiszteletben tartsák a szerzői jogot.

Ezenkívül e modellek némelyike rendszerszintű kockázatot jelenthet, mivel nagyon alkalmasak vagy széles körben használatosak.

Jelenleg azok az általános célú MI-modellek, amelyeket több mint 1025 FLOP teljes számítástechnikai teljesítménnyel tanítottak, rendszerszintű kockázatot jelentenek. A Bizottság a technológiai fejlődés fényében naprakésszé teheti vagy kiegészítheti ezt a küszöbértéket, és további kritériumok (pl. a felhasználók száma vagy a modell autonómiájának mértéke) alapján más modelleket is kijelölhet rendszerszintű kockázatot jelentőnek.

A rendszerszintű kockázatot jelentő modellek szolgáltatói kötelesek értékelni és csökkenteni a kockázatokat, jelenteni a súlyos biztonsági eseményeket, a legkorszerűbb teszteket és modellértékeléseket végezni, valamint biztosítani modelljeik kiberbiztonságát.

A szolgáltatók felkérést kapnak, hogy működjenek együtt az MI-hivatallal és más érdekelt felekkel egy olyan gyakorlati kódex kidolgozása érdekében, amely részletezi a szabályokat, és ezáltal biztosítja modelljeik biztonságos és felelős fejlesztését. Ennek a kódexnek központi eszközt kell képeznie az általános célú MI-modellek szolgáltatói számára a megfelelés igazolására.

Miért a 10^25 FLOP megfelelő küszöbérték a rendszerszintű kockázatokkal járó GPAI számára?

Az Flop a modellképességek helyettesítője, és a pontos FLOP-küszöbértéket a Bizottság felfelé vagy lefelé frissítheti, például a modellképességek objektív mérése terén elért eredmények és az adott teljesítményszinthez szükséges számítási teljesítmény alakulásának fényében.

Az e küszöbértéket meghaladó modellek képességei még nem kellően ismertek. Rendszerszintű kockázatokat jelenthetnek, ezért észszerű szolgáltatóikat további kötelezettségek hatálya alá vonni.

Melyek a mesterséges intelligenciáról szóló jogszabályban meghatározott, a mesterséges intelligenciával kapcsolatos kimenetek vízjelzésére és címkézésére vonatkozó kötelezettségek?

A mesterséges intelligenciáról szóló jogszabály átláthatósági szabályokat állapít meg a generatív mesterséges intelligencia által előállított tartalomra vonatkozóan a manipuláció, a megtévesztés és a félretájékoztatás kockázatának kezelése érdekében.

Arra kötelezi a generatív MI-rendszerek szolgáltatóit, hogy géppel olvasható formátumban jelezzék az MI-kimeneteket, és biztosítsák, hogy azok mesterségesen generált vagy manipuláltként észlelhetők legyenek. A műszaki megoldásoknak hatékonynak, interoperábilisnak, szilárdnak és megbízhatónak kell lenniük, amennyiben ez műszakilag megvalósítható, figyelembe véve a különböző típusú tartalmak sajátosságait és korlátait, a megvalósítás költségeit és a technika általánosan elismert állását, amint az a vonatkozó műszaki szabványokban is tükröződhet.

Emellett az olyan generatív MI-rendszerek alkalmazóinak, amelyek mélyhamisítványokat alkotó kép-, audio- vagy videotartalmat generálnak vagy manipulálnak, jól láthatóan fel kell tüntetniük, hogy a tartalmat mesterségesen hozták létre vagy manipulálták. A nyilvánosság közérdekű ügyekről való tájékoztatása céljából közzétett szöveget generáló vagy manipuláló MI-rendszer alkalmazóinak azt is közzé kell tenniük, hogy a szöveget mesterségesen hozták létre vagy manipulálták. Ez a kötelezettség nem alkalmazandó abban az esetben, ha a mesterséges intelligencia által létrehozott tartalom emberi felülvizsgálaton vagy szerkesztői ellenőrzésen ment keresztül, és amennyiben a tartalom közzétételéért természetes vagy jogi személy szerkesztői felelősséget visel.

Az MI-hivatal iránymutatásokat fog kiadni annak érdekében, hogy további iránymutatást nyújtson a szolgáltatók és az alkalmazók számára az 50. cikkben foglalt kötelezettségekről, amelyek két évvel a mesterséges intelligenciáról szóló jogszabály hatálybalépését követően (2026. augusztus 2-án) válnak alkalmazandóvá.

A mesterséges intelligenciával foglalkozó hivatal ösztönözni fogja és elő fogja segíteni az uniós szintű gyakorlati kódexek kidolgozását a mesterségesen előállított vagy manipulált tartalom észlelésével és címkézésével kapcsolatos kötelezettségek hatékony végrehajtásának észszerűsítése érdekében.

Időtálló-e a mesterséges intelligenciáról szóló jogszabály?

A mesterséges intelligenciáról szóló jogszabály olyan jogi keretet hoz létre, amely reagál az új fejleményekre, könnyen és gyorsan kiigazítható, és lehetővé teszi a gyakori értékelést.

A mesterséges intelligenciáról szóló jogszabály eredményorientált követelményeket és kötelezettségeket határoz meg, de a konkrét műszaki megoldásokat és a működőképessé tételt az ipar által vezérelt szabványokra és gyakorlati kódexekre bízza, amelyek rugalmasak a különböző felhasználási esetekhez való alkalmazkodás és az új technológiai megoldások lehetővé tétele érdekében.

Ezen túlmenően maga a jogszabály felhatalmazáson alapuló jogi aktusokkal és végrehajtási aktusokkal módosítható, például a III. mellékletben szereplő, magas kockázatú felhasználási esetek jegyzékének felülvizsgálata céljából.

Végezetül a mesterséges intelligenciáról szóló jogszabály bizonyos részeit és adott esetben az egész rendeletet gyakran értékelik, biztosítva, hogy feltárják a felülvizsgálat és a módosítások szükségességét.

Hogyan szabályozza a mesterséges intelligenciáról szóló jogszabály a biometrikus azonosítást?

A nyilvánosság számára hozzáférhető helyeken tilos a valós idejű távoli biometrikus azonosítás(pl. CCTV-vel történő arcfelismerés) bűnüldözési célú használata. A tagállamok jogszabályban kivételeket vezethetnek be, amelyek lehetővé tennék a valós idejű távoli biometrikus azonosítás alkalmazását a következő esetekben:

  • 16 meghatározott nagyon súlyos bűncselekménnyel kapcsolatos bűnüldözési tevékenységek;
  • Meghatározott áldozatok célzott felkutatása, emberrablás, emberkereskedelem és szexuális kizsákmányolás, valamint eltűnt személyek célzott felkutatása; vagy
  • A személyek életét vagy testi biztonságát fenyegető veszély megelőzése, vagy a terrortámadás jelenlegi vagy előre látható fenyegetésére való reagálás.

Bármely kivételes felhasználáshoz olyan igazságügyi vagy független közigazgatási hatóság előzetes engedélye szükséges, amelynek határozata kötelező erejű. Sürgős esetben a jóváhagyás 24 órán belül megadható; ha az engedélyt elutasítják, minden adatot és kimenetet törölni kell.

Ezt előzetes alapjogi hatásvizsgálatnak kell megelőznie, és erről értesíteni kell az illetékes piacfelügyeleti hatóságot és az adatvédelmi hatóságot. Sürgős esetben a rendszer használata nyilvántartásba vétel nélkül is megkezdődhet.

Az MI-rendszereknek a vizsgálat alatt álló személyek távoli biometrikus azonosítására (a korábban gyűjtött anyagokban szereplő személyek azonosítására) való használatához igazságügyi hatóság vagy független közigazgatási hatóság előzetes engedélye, valamint az érintett adatvédelmi és piacfelügyeleti hatóság értesítése szükséges.

Miért van szükség különleges szabályokra a távoli biometrikus azonosítás esetében?

A biometrikus azonosítás különböző formákat ölthet. A biometrikus azonosítás és ellenőrzés, azaz az okostelefon felszabadítása vagy a határátkelőhelyeken a személy személyazonosságának az úti okmányokkal való összevetése céljából történő ellenőrzés/hitelesítés (egy a személy közötti egyezés) továbbra sem szabályozott, mivel nem jelentenek jelentős kockázatot az alapvető jogokra nézve.

Ezzel szemben a biometrikus azonosítás távolról is alkalmazható, például a tömegben lévő személyek azonosítására, ami jelentős hatással lehet a magánélet védelmére a nyilvános térben.

Az arcfelismerő rendszerek pontosságát számos tényező jelentősen befolyásolhatja, például a kameraminőség, a fény, a távolság, az adatbázis, az algoritmus, valamint a tárgy etnikai hovatartozása, életkora vagy neme. Ugyanez vonatkozik a járásmód- és hangfelismerő rendszerekre, valamint az egyéb biometrikus rendszerekre is. A rendkívül fejlett rendszerek folyamatosan csökkentik a téves elfogadási arányukat.

Bár a 99%-os pontossági arány általában jónak tűnhet, az jelentősen kockázatos, ha az eredmény ártatlan személy gyanújához vezethet. Még a 0,1%-os hibaarány is jelentős hatással lehet nagy sokaságokra, például vasútállomásokon.

Hogyan védik a szabályok az alapvető jogokat?

Az alapvető jogok és a megkülönböztetésmentesség már most is erős védelmet élvez uniós és tagállami szinten, de bizonyos MI-alkalmazások („fekete dobozok”) összetettsége és átláthatatlansága problémát jelenthet.

A mesterséges intelligencia emberközpontú megközelítése azt jelenti, hogy az MI-alkalmazásoknak meg kell felelniük az alapvető jogokra vonatkozó jogszabályoknak. Az elszámoltathatósági és átláthatósági követelményeknek a nagy kockázatú MI-rendszerek fejlesztésébe való integrálásával és a végrehajtási képességek javításával biztosíthatjuk, hogy ezeket a rendszereket már a kezdetektől fogva a jogszabályoknak való megfelelés szem előtt tartásával tervezzék meg. Jogsértés esetén a követelmények lehetővé teszik majd a nemzeti hatóságok számára, hogy hozzáférjenek az annak kivizsgálásához szükséges információkhoz, hogy a mesterséges intelligencia használata megfelelt-e a jogszabályoknak.

Emellett a mesterséges intelligenciáról szóló jogszabály előírja, hogy a nagy kockázatú MI-rendszerek egyes alkalmazóinak alapjogi hatásvizsgálatot kell végezniük.

Mi az alapjogi hatásvizsgálat? Kinek kell elvégeznie ezt az értékelést, és mikor?

A nagy kockázatú MI-rendszerek szolgáltatóinak kockázatértékelést kell végezniük, és úgy kell megtervezniük a rendszert, hogy a lehető legkisebbek legyenek az egészséget, a biztonságot és az alapvető jogokat érintő kockázatok.

Az alapvető jogokat érintő bizonyos kockázatok azonban csak a nagy kockázatú MI-rendszer használatának kontextusát ismerve azonosíthatók teljes mértékben. Ha nagy kockázatú MI-rendszereket használnak az esetleges teljesítménybeli aszimmetria különösen érzékeny területein, az ilyen kockázatokkal kapcsolatban további megfontolásokra van szükség.

Ezért azoknak az alkalmazóknak, amelyek közjogi szervek vagy közszolgáltatásokat nyújtó magánüzemeltetők, valamint a nagy kockázatú MI-rendszereket üzemeltető üzemeltetőknek, amelyek hitelképesség-értékelést vagy ár- és kockázatértékelést végeznek az élet- és egészségbiztosítás területén, értékelést kell végezniük az alapvető jogokra gyakorolt hatásról, és értesíteniük kell a nemzeti hatóságot az eredményekről.

A gyakorlatban számos alkalmazónak adatvédelmi hatásvizsgálatot is el kell végeznie. Az ilyen esetekben a lényegi átfedések elkerülése érdekében az alapjogi hatásvizsgálatot az említett adatvédelmi hatásvizsgálattal együtt kell elvégezni.

Hogyan kezeli a rendelet a fajon vagy nemen alapuló méltánytalan előítéletek kérdését a mesterséges intelligencia összefüggésében?

Nagyon fontos hangsúlyozni, hogy az MI- rendszerek nem teremtenek vagy reprodukálnak torzításokat. Az MI-rendszerek megfelelő tervezésük és használatuk esetén sokkal inkább hozzájárulhatnak az elfogultság és a meglévő strukturális megkülönböztetés csökkentéséhez, és ezáltal méltányosabb és megkülönböztetésmentesebb döntésekhez vezethetnek (pl. a munkaerő-felvétel során).

Az összes nagy kockázatú MI-rendszerre vonatkozó új kötelező követelmények ezt a célt szolgálják. Az MI-rendszereknek műszakilag stabilnak kell lenniük annak biztosítása érdekében, hogy megfeleljenek a célnak, és ne hozzanak olyan elfogult eredményeket, például hamis pozitívokat vagy negatívokat, amelyek aránytalanul érintik a marginalizált csoportokat, beleértve a faji vagy etnikai származáson, nemen, életkoron és más védett jellemzőkön alapuló csoportokat.

A nagy kockázatú rendszereket is megfelelően reprezentatív adatkészletekkel kell képezni és tesztelniannak érdekében, hogy minimalizálják a modellbe ágyazott tisztességtelen torzítások kockázatát, és biztosítsák, hogy ezeket megfelelő torzításfelderítéssel, korrekcióval és egyéb enyhítő intézkedésekkel lehessen kezelni.

Emellett nyomon követhetőnek és ellenőrizhetőnek kell lenniük, biztosítva a megfelelő dokumentáció megőrzését, beleértve az olyan algoritmus képzéséhez használt adatokat is, amelyek kulcsfontosságúak lennének az utólagos vizsgálatok során.

A megfelelőségi rendszernek a forgalomba hozatal előtt és után biztosítania kell e rendszerek rendszeres nyomon követését és az esetleges kockázatok gyors kezelését.

Mikor lesz teljes mértékben alkalmazandó a mesterséges intelligenciáról szóló jogszabály?

A mesterséges intelligenciáról szóló jogszabály a 2026. augusztus 2-i hatálybalépését követő két év elteltével lesz alkalmazandó, a következő különös rendelkezések kivételével:

  • A mesterséges intelligenciával kapcsolatos jártassággal kapcsolatos tilalmak, fogalommeghatározások és rendelkezések a 2025. február 2-i hatálybalépést követő hat hónap elteltével lesznek alkalmazandók;
  • Az irányításra vonatkozó szabályok és az általános célú MI-kötelezettségek 12 hónappal a hatálybalépésüket követően, 2025. augusztus 2-án válnak alkalmazandóvá;
  • A II. mellékletben (az uniós harmonizációs jogszabályok jegyzéke) felsorolt, szabályozott termékekbe beágyazott nagy kockázatú MI-rendszerekre vonatkozó kötelezettségek a 2027. augusztus 2-i hatálybalépést követően 36 hónappal alkalmazandók.

Hogyan hajtják végre a mesterséges intelligenciáról szóló jogszabályt?

A mesterséges intelligenciáról szóló jogszabály kétszintű irányítási rendszert hoz létre, amelyben a nemzeti hatóságok felelősek az MI-rendszerekre vonatkozó szabályok felügyeletéért és érvényesítéséért, míg az uniós szint felel az általános célú MI-modellek irányításáért.

Az uniós szintű koherencia és együttműködés biztosítása érdekében létrejön a Mesterséges Intelligenciával Foglalkozó Európai Testület (MI Testület), amely a tagállamok képviselőiből, valamint a nemzeti szabályozók és más illetékes hatóságok szakosodott alcsoportjaiból áll.

A mesterséges intelligenciával foglalkozó hivatal, a mesterséges intelligenciáról szóló jogszabály bizottsági végrehajtó szerve stratégiai iránymutatást fog nyújtani az MI-testület számára.

Emellett a mesterséges intelligenciáról szóló jogszabály két tanácsadó szervet hoz létre, amelyek szakértői hozzájárulást nyújtanak: a tudományos testület és a tanácsadó fórum. Ezek a szervek értékes betekintést nyújtanak az érdekelt felektől és az interdiszciplináris tudományos közösségektől, információkkal szolgálnak a döntéshozatalhoz, és biztosítják a mesterséges intelligencia fejlesztésének kiegyensúlyozott megközelítését.

Miért van szükség a mesterséges intelligenciával foglalkozó európai testületre, és mit fog tenni?

A Mesterséges Intelligenciával Foglalkozó Európai Testület a tagállamok magas szintű képviselőiből és az európai adatvédelmi biztosból áll. Kulcsfontosságú tanácsadóként a mesterséges intelligenciával foglalkozó testület iránymutatást nyújt a mesterséges intelligenciával kapcsolatos szakpolitikával kapcsolatos valamennyi kérdésben, különösen a mesterséges intelligenciára vonatkozó szabályozással, az innovációval és a kiválósággal kapcsolatos politikával, valamint a mesterséges intelligenciával kapcsolatos nemzetközi együttműködéssel kapcsolatban.

A mesterséges intelligenciával foglalkozó testület döntő szerepet játszik a mesterséges intelligenciáról szóló jogszabály zökkenőmentes, hatékony és harmonizált végrehajtásának biztosításában. A Testület olyan fórumként fog szolgálni, ahol a mesterséges intelligenciával foglalkozó szabályozók, nevezetesen az MI-hivatal, a nemzeti hatóságok és az EPDS koordinálhatják a mesterséges intelligenciáról szóló jogszabály következetes alkalmazását.

Milyen szankciókra lehet számítani jogsértés esetén?

A tagállamoknak hatékony, arányos és visszatartó erejű szankciókat kell megállapítaniuk az MI-rendszerekre vonatkozó szabályok megsértése esetére.

A rendelet meghatározza azokat a küszöbértékeket, amelyeket figyelembe kell venni:

  • A tiltott gyakorlatokkalkapcsolatos jogsértések vagy az adatokra vonatkozó követelményekkel kapcsolatos meg nem felelés esetén legfeljebb 35 millió EUR vagy az előző pénzügyi év teljes éves világpiaci forgalmának 7% -a (amelyik magasabb);
  • Legfeljebb 15 millió EUR vagy az előző pénzügyi év teljes éves világpiaci forgalmának 3% -a a rendelet bármely egyéb követelményének vagy kötelezettségének való meg nem felelés miatt;
  • Legfeljebb 7,5 millió EUR-t vagy az előző pénzügyi év teljes éves világpiaci forgalmának 1,5% -át a kérelem nyomán a bejelentett szervezetek és az illetékes nemzeti hatóságok részére helytelen, hiányos vagy félrevezető információk szolgáltatása miatt;
  • A jogsértés minden egyes kategóriája esetében a küszöbérték a kkv-k esetében a két összeg közül az alacsonyabb, más vállalatok esetében pedig a magasabb.

A Bizottság bírságokkal is érvényre juttathatja az általános célú MI-modellek szolgáltatóira vonatkozó szabályokat, figyelembe véve a következő küszöbértéket:

  • Legfeljebb 15 millió EUR vagy az előző pénzügyi év teljes éves világpiaci forgalmának 3% -a a Bizottság által a rendelet alapján előírt kötelezettségeknek vagy intézkedéseknek való meg nem felelés miatt.

Az uniós intézményeknek, ügynökségeknek vagy szerveknek jó példával kell elöl járniuk, ezért rájuk is vonatkoznak majd a szabályok és az esetleges szankciók. Az európai adatvédelmi biztos hatáskörrel rendelkezik arra, hogy meg nem felelés esetén bírságot szabjon ki rájuk.

Hogyan készül el a mesterséges intelligenciára vonatkozó általános gyakorlati kódex?

Az első kódex kidolgozása inkluzív és átlátható folyamatot követ. A gyakorlati kódex plenáris ülése jön létre az iteratív szövegezési folyamat megkönnyítése érdekében, amely magában foglalja az összes érdekelt és támogatható általános célú MI-modellszolgáltatót, az általános célú MI-modellt az MI-rendszerükbe integráló downstream szolgáltatókat, más ipari szervezeteket, más érdekelt szervezeteket, például a civil társadalmat vagy a jogtulajdonosi szervezeteket, valamint a tudományos köröket és más független szakértőket.

A mesterséges intelligenciával foglalkozó hivatal pályázati felhívást tett közzé az első gyakorlati kódex kidolgozásában való részvételre. A részvételi szándék kifejezésére való felhívással párhuzamosan több érdekelt fél részvételével zajló konzultáció indul, amelynek célja, hogy összegyűjtse az összes érdekelt fél véleményét és észrevételeit az első gyakorlati kódexről. A gyakorlati kódex első szövegezési iterációjának alapját a válaszok és a beadványok képezik. A kódexet ezért a kezdetektől fogva széles körű nézőpontok és szakértelem támasztja alá.

A plenáris ülés négy munkacsoportból fog állni, hogy célzott megbeszéléseket lehessen folytatni az általános célú MI-modellek és a rendszerszintű kockázatot jelentő általános MI-modellek szolgáltatóira vonatkozó kötelezettségek részletes meghatározása szempontjából releváns konkrét témákról. A plenáris ülés résztvevői szabadon választhatnak egy vagy több munkacsoportot, amelyben részt kívánnak venni. Az ülésekre kizárólag online kerül sor.

A mesterséges intelligenciával foglalkozó iroda a plenáris ülés mind a négy munkacsoportjának elnökeit és adott esetben alelnökeit nevezi ki, akiket érdekelt független szakértők közül választanak ki. Az elnökök összegzik a plenáris ülés résztvevői által az első gyakorlati kódex ismétlődő tervezetéhez benyújtott beadványokat és észrevételeket.

A kódex fő címzettjeiként az általános célú mesterségesintelligencia-modellek szolgáltatói meghívást kapnak arra, hogy a plenáris ülésen való részvételük mellett részt vegyenek az egyes iteratív szövegezési fordulók tájékoztatásában.

9 hónap elteltével az első gyakorlati kódex végleges változatát a várhatóan áprilisban tartandó záró plenáris ülésen terjesztik elő és teszik közzé. A záró plenáris ülés lehetőséget biztosít az MI-modellek általános célú szolgáltatóinak, hogy kifejezzék, tervezik-e a kódex használatát.

Jóváhagyás esetén hogyan szolgál az általános célú MI-modellszolgáltatók gyakorlati kódexe a megfelelés központi eszközeként?

A gyakorlati kódex kidolgozási folyamatának végén az MI-hivatal és az MI-testület értékelni fogja a kódex megfelelőségét, és közzéteszi értékelését. Az értékelést követően a Bizottság végrehajtási jogi aktusok útján dönthet a gyakorlati kódex jóváhagyásáról és általános érvényességéről az Unión belül. Amennyiben a rendelet alkalmazandóvá válásáig az MI-hivatal nem tekinti megfelelőnek a gyakorlati kódexet, a Bizottság közös szabályokat állapíthat meg a vonatkozó kötelezettségek végrehajtására vonatkozóan.

Az általános célú MI-modellek szolgáltatói ezért támaszkodhatnak a gyakorlati kódexre a mesterséges intelligenciáról szóló jogszabályban meghatározott kötelezettségeknek való megfelelés bizonyítása érdekében.

A mesterséges intelligenciáról szóló jogszabály értelmében a gyakorlati kódexnek célkitűzéseket, intézkedéseket és adott esetben fő teljesítménymutatókat kell tartalmaznia.

A kódexet alkalmazó szolgáltatóknak rendszeresen jelentést kell tenniük az MI-hivatalnak a meghozott intézkedések végrehajtásáról és azok eredményeiről, adott esetben a fő teljesítménymutatókkal összevetve is.

Ez megkönnyíti a mesterséges intelligenciával foglalkozó hivatal általi végrehajtást, amelyet a mesterséges intelligenciáról szóló jogszabály által a Bizottságra ruházott hatáskörök támasztanak alá. Ez magában foglalja az általános célú MI-modellek értékelésének elvégzését, a modellszolgáltatóktól információk és intézkedések bekérését, valamint szankciók alkalmazását.

A mesterséges intelligenciával foglalkozó hivatal adott esetben ösztönözni fogja és elő fogja segíteni a kódex felülvizsgálatát és kiigazítását, hogy az tükrözze a technológiai fejlődést és a legkorszerűbb megoldásokat.

Amint egy harmonizált szabványt közzétesznek, és azt az MI-hivatal a vonatkozó kötelezettségek teljesítésére alkalmasnak minősítette, az európai harmonizált szabványnak való megfelelésnek biztosítania kell a szolgáltatók számára a megfelelőség vélelmét.

Az általános célú MI-modellek szolgáltatóinak továbbá képesnek kell lenniük arra, hogy alternatív megfelelő eszközökkel bizonyítsák a megfelelést, ha nem állnak rendelkezésre gyakorlati kódexek vagy harmonizált szabványok, vagy úgy döntenek, hogy nem támaszkodnak ezekre.

Tartalmaz-e a mesterséges intelligenciáról szóló jogszabály a környezetvédelemre és a fenntarthatóságra vonatkozó rendelkezéseket?

A mesterséges intelligenciáról szóló javaslat célja a biztonságot és az alapvető jogokat érintő kockázatok kezelése, beleértve a magas szintű környezetvédelemhez való alapvető jogot is. A környezet a kifejezetten említett és védett jogi érdekek egyike.

A Bizottság felkérést kap, hogy kérje fel az európai szabványügyi szervezeteket, hogy készítsenek szabványosítási dokumentumot az MI-rendszerek erőforrás-teljesítményének javítását célzó jelentéstételi és dokumentációs folyamatokról, például a nagy kockázatú MI-rendszer energia- és egyéb erőforrás-fogyasztásának a rendszer életciklusa során történő csökkentéséről, valamint az általános célú MI-modellek energiahatékony fejlesztéséről.

Ezenkívül a Bizottság felkérést kap, hogy legkésőbb két évvel a rendelet alkalmazásának kezdőnapját követően, majd azt követően négyévente nyújtson be jelentést az általános célú modellek energiahatékony fejlesztésére vonatkozó szabvány jellegű dokumentumok kidolgozása terén elért előrehaladás áttekintéséről, és értékelje további intézkedések vagy fellépések szükségességét, beleértve a kötelező erejű intézkedéseket vagy fellépéseket is.

Emellett az általános célú mesterségesintelligencia-modellek szolgáltatói, amelyek nagy adatmennyiségekkel rendelkeznek, és ezért nagy energiafogyasztásnak vannak kitéve, kötelesek közzétenni az energiafogyasztást. A rendszerszintű kockázatokkal járó általános célú MI-modellek esetében értékelni kell továbbá az energiahatékonyságot.

A Bizottság felhatalmazást kap arra, hogy e közzétételi kötelezettségekhez megfelelő és összehasonlítható mérési módszertant dolgozzon ki.

Hogyan segíthetik elő az új szabályok az innovációt?

A szabályozási keret kétféleképpen mozdíthatja elő a mesterséges intelligencia elterjedését. Egyrészt a felhasználók bizalmának növekedése növelni fogja a vállalatok és a hatóságok által használt mesterséges intelligencia iránti keresletet. Másrészt a jogbiztonság növelése és a szabályok harmonizálása révén a mesterséges intelligencia szolgáltatói nagyobb piacokhoz fognak hozzáférni, olyan termékekkel, amelyeket a felhasználók és a fogyasztók nagyra értékelnek és megvásárolnak. A szabályok csak akkor lesznek alkalmazandók, ha feltétlenül szükség lesz rájuk, és oly módon, hogy a gazdasági szereplők terhei a lehető legkisebbek legyenek, és laza legyen az irányítási struktúra.

A mesterséges intelligenciáról szóló jogszabály továbbá lehetővé teszi szabályozói tesztkörnyezetek és valós tesztelések létrehozását, amelyek ellenőrzött környezetet biztosítanak az innovatív technológiák korlátozott ideig történő teszteléséhez, ezáltal előmozdítva a vállalkozások, a kkv-k és az induló innovatív vállalkozások innovációját a mesterséges intelligenciáról szóló jogszabálynak megfelelően. Ezek más intézkedésekkel, például az MI -kiválósági központok további hálózataival és a mesterséges intelligenciával, az adatokkal és a robotikával foglalkozó köz- és magánszféra közötti partnerséggel, valamint a digitális innovációs központokhoz és tesztelési és kísérleti létesítményekhez való hozzáféréssel együtt hozzá fognak járulni a vállalkozások számára a mesterséges intelligencia fejlesztéséhez és bevezetéséhez szükséges megfelelő keretfeltételek megteremtéséhez.

A nagy kockázatú MI-rendszerek valós körülmények közötti tesztelése legfeljebb 6 hónapig végezhető (amely további 6 hónappal meghosszabbítható). A vizsgálatot megelőzően tervet kell készíteni, és azt be kell nyújtani a piacfelügyeleti hatósághoz, amelynek jóvá kell hagynia a tervet és a konkrét vizsgálati feltételeket, alapértelmezett hallgatólagos jóváhagyással, amennyiben 30 napon belül nem érkezik válasz. A vizsgálatot a hatóság előre be nem jelentett ellenőrzésnek vetheti alá.

A valós körülmények közötti tesztelést csak konkrét biztosítékok mellett lehet elvégezni, pl. a valós körülmények között tesztelt rendszerek felhasználóinak tájékoztatáson alapuló beleegyezést kell adniuk, a tesztelésnek nem szabad negatív hatást gyakorolnia rájuk, az eredményeknek visszafordíthatóknak vagy figyelmen kívül hagyhatóknak kell lenniük, és adataikat a vizsgálat befejezése után törölni kell. Különleges védelmet kell biztosítani a veszélyeztetett csoportok számára, például koruk, testi vagy szellemi fogyatékosságuk miatt.

Milyen szerepet játszik a mesterséges intelligenciáról szóló paktum a mesterséges intelligenciáról szóló jogszabály végrehajtásában?

A Breton biztos által 2023 májusában kezdeményezett MI-paktum célja, hogy fokozza a mesterséges intelligenciával foglalkozó hivatal és a szervezetek közötti együttműködést (I. pillér), és ösztönözze az ágazat arra irányuló önkéntes kötelezettségvállalását, hogy a jogszabályban előírt határidő (II. pillér) előtt megkezdi a mesterséges intelligenciáról szóló jogszabály követelményeinek végrehajtását.

Az I. pillér keretében a résztvevők hozzájárulnak egy együttműködésen alapuló közösség létrehozásához, amely megosztja tapasztalataikat és tudásukat. Ez magában foglalja az MI-hivatal által szervezett munkaértekezleteket is, amelyek lehetővé teszik a résztvevők számára, hogy jobban megértsék a mesterséges intelligenciáról szóló jogszabályt, felelősségi körüket és a végrehajtására való felkészülés módját. A mesterséges intelligenciával foglalkozó hivatal pedig betekintést nyerhet a résztvevők előtt álló bevált gyakorlatokba és kihívásokba.

A II. pillér keretében a szervezeteket arra ösztönzik, hogy önkéntes vállalások révén proaktív módon tegyék közzé azokat a folyamatokat és gyakorlatokat, amelyeket a megfelelés előrejelzése érdekében hajtanak végre. A vállalások célja „kötelezettségvállalási nyilatkozat”, és olyan (tervezett vagy folyamatban lévő) intézkedéseket tartalmaznak, amelyek célja a mesterséges intelligenciáról szóló jogszabály egyes követelményeinek teljesítése.

A mesterséges intelligenciáról szóló jogszabály szabályainak többsége (például a nagy kockázatú MI-rendszerekre vonatkozó egyes követelmények) egy átmeneti időszak végén (azaz a hatálybalépés és az alkalmazás időpontja közötti időszakban) lesz alkalmazandó.

Ezzel összefüggésben és a mesterséges intelligenciáról szóló paktum keretében a mesterséges intelligenciával foglalkozó hivatal felszólítja az összes szervezetet, hogy proaktívan előre jelezzék és hajtsák végre a mesterséges intelligenciáról szóló jogszabály egyes kulcsfontosságú rendelkezéseit azzal a céllal, hogy a lehető leghamarabb csökkentsék az egészséget, a biztonságot és az alapvető jogokat érintő kockázatokat.

A 2023 novemberében közzétett pályázati felhívást követően már több mint 700 szervezet fejezte ki érdeklődését a mesterséges intelligenciáról szóló paktum kezdeményezéséhez való csatlakozás iránt. Az első tájékoztató előadásra május 6-án került sor az interneten, 300 résztvevővel. Az önkéntes kötelezettségvállalások hivatalos aláírására a tervek szerint 2024 őszén kerül sor. Szeptember első hetében munkaértekezletre kerül sor a mesterséges intelligenciáról szóló paktumról.

Mi az uniós megközelítés nemzetközi dimenziója?

A mesterséges intelligencia határokon átnyúló következményekkel és kihívásokkal jár; ezért fontos a nemzetközi együttműködés. A mesterséges intelligenciáról szóló jogszabály és a mesterséges intelligenciáról szóló összehangolt terv alapján az MI-hivatal felel az Európai Uniónak a mesterséges intelligencia területén való nemzetközi szerepvállalásáért. Az EU arra törekszik, hogy a nemzetközi partnerekkel együttműködve, valamint a szabályokon alapuló multilaterális rendszerrel és az általa képviselt értékekkel összhangban előmozdítsa a mesterséges intelligencia felelős kezelését és jó kormányzását.

Az EU kétoldalú és többoldalú együttműködést folytat a megbízható, emberközpontú és etikus mesterséges intelligencia előmozdítása érdekében. Következésképpen az EU részt vesz a mesterséges intelligenciával foglalkozó többoldalú fórumokon – nevezetesen a G7-ekben, a G20-akban, az OECD-ben, az Európa Tanácsban, a mesterséges intelligenciával foglalkozó globális partnerségben és az ENSZ-ben –, és az EU szoros kétoldalú kapcsolatokat ápol például Kanadával, az Egyesült Államokkal, Indiával, Japánnal, Dél-Koreával, Szingapúrral, valamint a latin-amerikai és karibi régióval.”

Forrás:
Mesterséges intelligencia – Kérdések és válaszok; Európai Bizottság; 2024. augusztus 1. (utolsó frissítés)
[Ennek az oldalnak a szövege gépi fordítással készült. Vissza az eredeti nyelvre. Az Európai Bizottság nem vállal felelősséget a gépi fordítás minőségéért és tartalmáért. Fontos tudnivalók a gépi fordításról!]