Európai Unióinformatikaszakirodalomtechnikatudomány

Az MI szabványosítása és az Európai Bizottság javaslata a mesterséges intelligenciáról szóló jogszabályról – elemzések és problémák

Szerző: 2021. október 17.No Comments

Martin Ebers könyvfejezete egy várhatóan 2022-ben megjelenő, az MI jogi és etikai kérdéseinek szentelt kötet egyik fejezete. Szerzője a Tartui Egyetem és a Humboldt Egyetem munkatársa, a Robotics and Artificial Intelligence Law Society (RAILS) vezetője. Tanulmánya csatlakozik azoknak a kritikus hangoknak a sorához, amelyek a mesterséges intelligenciáról szóló uniós jogszabály kulcsfontosságú javaslatát (a továbbiakban: javaslat) kritizálják. Nevezetesen azt, hogy a szabályozás kritikus fontosságú célkitűzéseit az európai szabványügyi testületek (European Standardisation Organisation, ESO) magánjogi aktusként megvalósított szabványalkotó tevékenysége fogja számon kérhető, gyakorlati követelményekként megfogalmazni. (A könyvfejezet megjelenés alatt áll a The Cambridge Handbook of Artificial Intelligence: Global Perspectives on Law and Ethics című kötetben).

2021. április 21-én hozta nyilvánosságra az Európai Bizottság javaslatát a mesterséges intelligencia szabályozására. A jelen könyvfejezet kritikus elemzését nyújtja e javaslatnak, különös tekintettel arra, hogy a tervezett társszabályozási, szabványosítási és tanúsítási rendszer hogyan járulhat hozzá a mesterséges intelligencia európai irányításához, és hogyan kezelheti a (nagy kockázatú) mesterséges intelligencia sokrétű etikai és jogi aggályait.

A javaslat kockázatorientált megközelítésen alapul. Eszerint míg az „elfogadhatatlan kockázatot” jelentő mesterséges intelligencia-rendszereket betiltják, a „nagy kockázatú” MI-rendszerek szigorú kötelezettségek teljesítése mellett forgalomba hozhatók. A jogszabály legtöbb rendelkezése a nagy kockázatú rendszerekkel foglalkozik; kötelezettségeket telepít a szolgáltatókra, a felhasználókra és az MI-értéklánc többi résztvevőjére. Különös figyelmet fordít a megfelelőségértékelési eljárásokra, amelyeket követni kell a magas kockázatú MI-rendszerek minden típusa esetében.

A javaslat középpontjában az új jogalkotási keret (New Legal Framework) szerinti szabványosításon nyugvó társszabályozás ötlete áll. A jogszabálytervezet preambulumának 61. bekezdésében olvashatóak szerint „a szabványosításnak kulcsszerepet kell játszania abban, hogy az e rendeletnek való megfelelés biztosítására megfelelő műszaki megoldások álljanak a szolgáltatók rendelkezésére. A szolgáltatók az 1025/2012/EU Európai Parlamenti és Tanácsi rendeletben meghatározott harmonizált szabványoknak való megfelelés révén bizonyíthatják az e rendelet követelményeinek való megfelelést.”

A tanulmány röviden felvázolja az MI-rendszerek által felvetett etikai és jogi problémákat, a meglévő jogi szabályozást és a mesterséges intelligencia szabályozására kibontakozó kezdeményezéseket. Ezt követően áttekinti a nemzetközi szabványügyi szervezetek tevékenységét az MI területén, különös tekintettel a már megfogalmazódott elvekre. A továbbiakban elemzi magát a jogszabályt, hangsúlyosan a kockázatok szempontjából, ezen belül is a nagy kockázatú MI-rendszerekkel kapcsolatban megfogalmazott tételeket. A következő szakaszban a Jogszabály szabványosításra vonatkozó rendelkezéseinek (erősen) kritikus értékelése olvasható. Ennek keretében értékeli a hatáskör-átruházással (ami a szabványosítás vázolt szerepéhez szükséges) kapcsolatos jogi problémákat – a szabványok bevezetésével kvázi a szabályozás hatáskörét korlátozza, de magát a hatáskört nem ruházza át. A tanulmány végkövetkeztetése az, hogy az Európai Bizottságnak felül kell vizsgálnia azt az elképzelését, hogy a magas kockázatú mesterséges intelligencia-rendszerek szabályozását főként szabványosítás útján kívánja biztosítani. Specifikusan azért, mert ezeknél a rendszereknél az Európai Bizottság elsősorban egy előzetes megfelelőség-értékelésre kíván támaszkodni, amelyet nem külső harmadik felek végeznek, hanem maguk a vállalatok – kombinálva egy megfelelőségi vélelemmel, amennyiben a szolgáltató az európai szabványügyi testületek által az új jogalkotási keretnek megfelelően kidolgozott, harmonizált szabványokat követ.  Azonban az MI rendszerek szabványosítása nem pusztán technikai döntések kérdése. Olyan etikai és jogi döntések sorát kell meghozni, amelyeket nem lehet kiszervezni magán szabványosítási szervezetekbe, mert a társadalom egészét érintő politikai vitát igényelnek.

A technikai szabványok minél inkább túllépnek a puszta technikai jellemzők meghatározásán, és olyan közpolitikai területeket érintenek, mint például az egészségügy, a biztonság, az alapvető jogok és a fogyasztóvédelem, annál égetőbbé válik a kérdés, hogy vajon az új jogalkotási keret mennyiben valósítja meg az EU szabályalkotási jogkörének jogellenes átruházását magánszervezetekre. Mindez „ingatag jogi alapokra” helyezi a jogszabálytervezetet.

E megfontolások fényében az Európai Bizottságnak felül kell vizsgálnia megközelítését. Minden bizonnyal igaz, hogy a technikai szakértelem nem a jogalkotóé, hanem a gyártóké és az iparágaké. Ezért a szabványok társszabályozással történő kidolgozása valóban nélkülözhetetlen építőköve a jövőbeli szabályozásnak. Az alapvető etikai és jogi döntéseket azonban nem szabad átruházni magán szabványosítási szervezetekre, hanem rendes jogalkotási eljárás és politikai vita tárgyát kell képezniük, amelyet az ipar, a civil szervezetek, a fogyasztói szövetségek és más szereplők alakíthatnak. Ennek megfelelően a jogszabálytervezetnek jogilag előírt kötelezettségeket kell megállapítania a magas kockázatú MI-rendszerekre vonatkozó alapvető követelmények tekintetében. Például, hogy milyen típusú elfogultságok tiltottak; hogyan kell enyhíteni az algoritmikus torzításokat; milyen típusú és fokú átláthatósággal kell rendelkezniük az MI-rendszereknek, hogy csak néhányat említsünk.

Ezeket a jogilag előírt kötelezettségeket ezután a szabványosítási szervezetek egyedi alkalmazásokra vonatkozó harmonizált szabványai tovább pontosíthatják. Mivel az ilyen harmonizált szabványoknak messzemenő társadalmi és jogi következményei lehetnek, az európai döntéshozóknak megalkotásukkal egyidejűleg meg kell tenniük a szükséges lépéseket a szabványosítási folyamat javítása érdekében. Jelenleg az érdekelt szervezetek tényleges bevonása a szabványalkotási folyamatba az egyes szabványosítási szervezetek belső mechanizmusaitól függ. Tekintettel a fenti kritikára, nyugodtan ki lehet jelenteni, hogy az általános szabványosítási folyamat módosítására van szükség az inkluzív szabványosítási rendszer elősegítése érdekében. Elengedhetetlen, hogy az európai szabványosítási folyamat tükrözze az európai értékeket és alapvető jogokat, beleértve a fogyasztóvédelmet is azáltal, hogy az érdekelt szervezeteknek tényleges részvételi jogokat biztosít. Ebből a célból néhány civil szervezet már ajánlásokat tett egy átláthatóbb és befogadóbb szabványosítási rendszerre vonatkozóan, amely többek között magában foglalja azt, hogy külön partnerségi kategóriát hoznak létre az érdekelt társadalmi szervezetek számára, amelyek a szabványosítási szervezetek mellett működnek, egy sor különleges joggal (és kötelezettséggel). Az ilyen módosítások elfogadása valóban hozzájárulhat az érintett felek érdekeinek jobb képviseletéhez, és legalább részben ellensúlyozhatja a magánszabályozás negatív hatásait, miközben fenntartja a legmagasabb szintű műszaki szakértelmet.

Standardizing AI – The Case of the European Commission’s Proposal for an Artificial Intelligence Act (Megjelenés alatt a The Cambridge Handbook of Artificial Intelligence: Global Perspectives on Law and Ethics című kötetben)”

Forrás:
Az MI szabványosítása és az Európai Bizottság javaslata a mesterséges intelligenciáról szóló jogszabályról – elemzések és problémák; Ludovika.hu, ITKI blog; 2021. október 12.