„Az Európai Unió régóta szabályozza a közbiztonságot és a közegészségügyet komolyan veszélyeztető technológiákat. Legyen szó gépjárművekről, repülőgépekről, élelmiszerbiztonságról, orvostechnikai eszközökről vagy gyógyszerekről, az EU olyan termékbiztonsági jogszabályokat hozott létre, amelyek egyértelmű szabályokat írnak elő a vállalatok számára.
Ezek a szabályok megóvják az emberek biztonságát, védik alapvető jogaikat, és biztosítják, hogy a közvélemény eléggé megbízzon ezekben a technológiákban ahhoz, hogy használja őket. Szabályozás nélkül az alapvető köz- és üzleti szolgáltatások nagyobb eséllyel működnek rosszul, vagy élnének velük vissza, ami jelentős károkat okozhat az embereknek és a társadalomnak.
Ez alól a mindennapi életünkbe egyre inkább beépülő mesterségesintelligencia-technológiák sem képeznek kivételt.
Ezen a szemüvegen keresztül kell szemlélni az EU-ban jelenleg zajló vitát az MI-törvényről, amely harmonizált termékbiztonsági szabályokat kíván megállapítani az MI-re vonatkozóan. Magában foglalja az alapmodelleket is, amelyek jelentős kockázatot jelentenek, mivel potenciálisan olyan MI-infrastruktúrát alkotnak, amelyre a későbbiekben a kkv-k szolgáltatást építenek. Ezért javasoltak az uniós jogalkotók védőkorlátokat az alapmodellek szolgáltatói számára, beleértve a független auditálást, a biztonsági és kiberbiztonsági tesztelést, a kockázatértékelést és -csökkentést. Tekintettel az alapmodellek által felvetett kockázatok körére és súlyosságára, ezek a javaslatok ésszerű lépések a közbiztonság és a közbizalom garantálására – és annak biztosítására, hogy az ezeket a termékeket használó kkv-k biztosak lehessenek abban, hogy biztonságban vannak.
A múlt héten azonban Franciaország, Németország és Olaszország elutasította ezeket a követelményeket, és azt javasolták, hogy az alapítványi modelleket mentesítsék minden hatósági kötelezettség alól.
Ez az álláspont felvetette annak a lehetőségét, hogy határozatlan időre elhalasztják a teljes EU MI-törvényt – amely mindenfajta MI-rendszerre kiterjed, a biometrikus technológiáktól a választási folyamatainkat befolyásoló rendszerekig.
Franciaország és Németország azt állítja, hogy ezek a szabályozási kötelezettségek túlságosan megterhelőek lesznek néhány vállalat számára, amelyek több százmilliós finanszírozást gyűjtöttek össze nyílt forráskódú alapmodellek felépítéséhez.
De felelőtlenség lenne, ha az EU elvetné a nagy alapmodellek szolgáltatóinak szabályozását, hogy megvédjen pár „nemzeti bajnokot”. Ez végső soron elfojtja az innovációt az EU mMI-ökoszisztémájában – amelynek túlnyomó többsége az alapmodelleket integrálni vagy azokra építeni kívánó kkv és startup. Ezek nem rendelkeznek megfelelő szakértelemmel, kapacitással vagy – ami még fontosabb – a modellekhez való hozzáféréssel ahhoz, hogy MI-alkalmazásaikat az MI-törvénynek megfelelővé tegyék.
A modellszolgáltatók lényegesen jobb helyzetben vannak a robusztus biztonsági tesztek elvégzéséhez, és csak ők vannak tisztában a modellek képességeinek és hiányosságainak teljes mértékével. Érthető, hogy a biztonsági vizsgálatok elvégzésére vonatkozó kötelezettségek rájuk vonatkoznak, mivel ezek a rendszerek több ezer továbbfelhasználójának javát szolgálják.
Ezért a DIGITAL KKV Szövetség (DIGITAL SME Alliance), amely 45 000 európai IKT KKV-t képvisel, a felelősség méltányos megosztására szólított fel az értékláncban, beleértve a modellszintet is.
E nélkül a kkv-k számára rendkívül nehéz lesz megfelelni az MI-törvény követelményeinek, ami oda vezethet, hogy teljesen felhagynak az alapmodellek használatával, vagy más módon aránytalanul nagy terhet ró rájuk a megfelelés és a felelősség.Franciaország és Németország alapmodellekkel kapcsolatos álláspontja azon a bizonyítatlan, de elterjedt mítoszon alapul, hogy a szabályozás ellentétes az innovációval. A különböző ágazatokban a szabályozás hatásait vizsgáló kutatások azonban számos példát mutatnak arra, hogy a szabályozás lehetővé teszi a nagyobb innovációt, a piaci versenyt és bizonyos technológiák társadalmi elterjedését. Saját közvélemény-kutatásaink azt mutatják, hogy az emberek elvárják, hogy az MI termékek és szolgáltatások biztonságosak legyenek, és azt szeretnék, ha szabályoznák őket.
A közelmúltbeli nemzetközi megállapodások, például a Bletchley-i Nyilatkozat (Bletchley Declaration) és a G7-ek kötelezettségvállalásai elismerik a fejlett alapmodellek kockázatait, és önkéntes bevált gyakorlatokat határoztak meg az ipar számára.Ezek a kezdeményezések kifejezetten elismerik, hogy a legtöbb kockázatot az alapmodellek fejlesztőinek kell kezelniük. Bár ezek a javaslatok üdvözlendők, az érdemi védelemhez kemény szabályozásra van szükség e gyakorlatok megerősítése érdekében. Amint azt a technológiai vállalatok a múltban az önkéntes kötelezettségvállalásokkal bizonyították, a nem kötelező erejű politikák nem jelentenek érdemi elszámoltathatósági formát. Erős szabályozási keret hiányában a vállalatok úgy döntenek majd, hogy a vállalati ösztönzőket helyezik előtérbe a biztonsággal szemben.
A spanyol elnökség által javasolt „többszintű” megközelítés méltányos kompromisszumot kínál: a nagyszabású alapítványi modellek esetében biztosítja a megfelelőséget és a biztosítékokat, míg a kisebb modelleket építő uniós vállalkozások számára könnyebb terhet jelent, amíg modelljeik nem lesznek ugyanolyan hatásosak.
A tét nem is lehetne nagyobb ezen a héten. Európának ritka lehetősége nyílik arra, hogy harmonizált szabályokat, intézményeket és eljárásokat hozzon létre az alapmodelleket alkalmazó vállalkozások tízezreinek érdekeinek védelmére, valamint a lehetséges károk által érintett emberek millióinak védelmére.
Európa a múltban más ágazatokban is megtette ezt anélkül, hogy gazdasági előnyeit feláldozta volna, például a polgári repülésben, ahol a biztonságon alapuló szabályozás 1998-2008 között 83%-kal csökkentette a halálos balesetek kockázatát, miközben a repült utaskilométerek száma évente 5%-kal nőtt.
Ez a lehetőség hosszú ideig nem fog ismétlődni. Az elmúlt néhány év megmutatta, hogy a szabályozatlan MI milyen széles körű társadalmi károkat és gazdasági egyenlőtlenségeket okozhat. Az emberek és a kkv-k védelme érdekében Európának el kell fogadnia ezt a törvényt.”
Forrás:
Regulating AI foundation models is crucial for innovation; Connor Dunlop; EURACTIV.com; 2023. november 16.
(Connor Dunlop az Ada Lovelace Institute EU-szakpolitikai vezetője.)