Skip to main content
Európai Uniógazdaságinformatikapolitikatársadalomtechnikatudomány

Jelentős kutatók, agytrösztök, civil szervezetek támogatják a spanyol elnökség javaslatát az alapmodellek kockázatainak kezelésére (MI-szabályozás, AI Act)

Szerző: 2023. november 27.No Comments

„Az európai jogalkotókhoz!

A kkv-kat, munkavállalókat, fogyasztókat, polgárokat, agytrösztöket, a mesterséges intelligenciával kapcsolatos digitális jogokkal és etikával, kockázatokkal és magánélet védelmével foglalkozó szervezeteket tömörítő európai érdekelt felekként e levélben támogatjuk a spanyol elnökség azon erőfeszítéseit, hogy a mesterséges intelligenciáról szóló törvényen belüli többszintű megközelítéssel kezelje az alapmodellek által támasztott egyedi kockázatkezelési kihívásokat.

Európa szabályozási vezető szerepe megbecsülendő érték

Az alapmodell-kockázatok kezelésére irányuló globális, nem szabályozási MI-kormányzási erőfeszítések – mint például a G7-országok magatartási kódexe, az MI biztonsági intézetek az Egyesült Királyságban és az Egyesült Államokban, valamint a Fehér Ház elnöki utasítása az MI-szabályozásáról – közepette Európa egyedülálló helyzetben van ahhoz, hogy megvalósítsa az MI első horizontális szabályozását, beleértve a globális jelentőségű alapmodelleket. Mint ilyen, a spanyol elnökség javaslata lehetővé teszi az alapmodellek szabályozásának kiegyensúlyozott megközelítését, finomítva az Európai Parlament pártokon átívelő álláspontját, hogy az EU MI-jogszabályában kötelezettségeket írjon elő az ilyen modellekre vonatkozóan.

Az alapmodelleknek technológiaként egyedi, kezelendő kockázati profiljuk van

Az alapmodellek jelentősen eltérnek a hagyományos MI-tól. Általános használhatóságuknak, fejlesztési költségeiknek és annak ténynek, hogy alkalmazások ezrei épülnek majd rájuk, és így az esetleges hibáik alkalmazások ezreit érintik majd, az következménye, hogy sajátos kockázati profillal rendelkeznek – ez rendszerszintű, teljesen még nem kiismert, és alapvetően érinti a társadalom minden szektorát (és több száz millió európai polgárt). Ezeket a kockázatokat átfogóan fel kell mérnünk és kezelnünk az értéklánc mentén, a felelősség pedig azok kezében van, akik képesek a hatékony kezelésükre. Amikor egy alapmodellt egy adott feladathoz igazítanak és alkalmazásba vesznek, akkor már nincs műszaki lehetőség az alapmodell hibáinak kijavítására. Ezért a kockázatkezelés egyetlen ésszerű módja az, hogy az az alapmodellek fejlesztőire hárul.

Az alapmodellek technológiájára alkalmazott szabályozás messze nem jelent terhet az európai ipar számára, hanem alapvető védelmet kínál, amely az EU iparának és a feltörekvő mesterséges intelligencia ökoszisztémának is előnyös. A nagy hatású modellek képzéséhez szükséges hatalmas erőforrások korlátozzák a szabályozandó fejlesztők számát, ezért az ilyen szabályozás hatóköre szűk lenne: kevesebb mint 20 olyan szabályozott szervezet lenne a világon, amelynek a tőkéje meghaladja a 100 millió dollárt, szemben a több ezer potenciális uniós rendszertelepítővel. Ezek a nagy fejlesztők vállalhatják és kell is vállalniuk a kockázatkezelési felelősséget a jelenlegi hatékony modellekért, ha a törvény célja a terhek minimalizálása a tágabb uniós ökoszisztémában. A nagy alapmodellek fejlesztőivel szemben támasztott követelmények átláthatóságot és bizalmat biztosítanak számos kisebb vállalkozás számára, amelyek ezekre a modellek alapozva készítik rendszereiket. Ellenkező esetben az európai polgárok számos olyan kockázatnak lennének kitéve, amelyeket ezek telepítők és különösen a kkv-k technikailag valószínűleg nem tudnának kezelni: a robusztusság, a magyarázhatóság és a megbízhatóság hiányának. A modellkártyák és az önkéntes – ezért nem végrehajtható – magatartási kódexek nem elegendőek. Az e modelleket további célokra alkalmazó vállalatokra hárulna a felelősség. Az alapmodellek szabályozása fontos biztonsági védőpajzs az uniós ipar és a polgárok számára.

A spanyol elnökség megközelítése egyensúlyt teremt a kockázatkezelés és az innováció között

Támogatjuk a javaslatot, mint megfelelő kompromisszumot az Európai Parlament és a tagállamok között, a többszintű megközelítés révén. A számítási kapacitási küszöbök, a kockázatokkal jól korreláló, könnyen mérhető kritériumok javasolt alkalmazása gyakorlati alapot kínál a szabályozáshoz, amely kockázatkezelési szempontból logikus, miközben megőrzi a kkv-k mesterséges intelligencia fejlesztési erőfeszítéseit. A jövőbiztosság érdekében a technológia fejlődésével és a kockázatok mérésének tudományának fejlődésével a küszöbértékeket módosítani kell, a kritériumokat pedig kiegészíteni kell, de ez jó kiindulópontot ad. Meggyőződésünk, hogy ez döntően mértékben teszi lehetővé, hogy az EU MI-jogszabálya kezelni tudja az európai polgárokat fenyegető kockázatokat.

Ellenállás a szűk lobbiérdekekkel, a demokratikus folyamat védelme érdekében

Az EU MI-jogszabálya több mint két éves konzultációs folyamat eredménye, Ennek során az érdekelt felek széles köre mondott véleményt: fejlesztők, az európai ipar, kkv-k, a civil társadalom, agytrösztök. Ezért döntő fontosságú, hogy megakadályozzuk, hogy a Big Tech és néhány nagy MI-cég lobbitevékenysége megkerülje ezt a demokratikus folyamatot. Néhány kiválasztott érdeke nem veszélyeztetheti az európai szabályozók azon képességét, hogy megvédjék a társadalmat és támogassák a kkv-kat.

Az alapmodellek integrálása az MI-jogszabályba nem csupán szabályozási szükségszerűség, hanem demokratikus kötelezettség és szükséges lépés a felelős MI-fejlesztés és -telepítés felé. Arra buzdítunk minden érintett felet, hogy a spanyol javaslatra és az október 24-i háromoldalú egyeztetés konszenzusára építve konstruktívan dolgozzanak, hogy megfelelő szabályozási megoldást találjanak egy biztonságosabb, megbízhatóbb és szuverén európai mesterségesintelligencia-környezet előnyére.

Aláírók

Szervezetek
Centre for Democracy & Technology, Europe, Brussels
The Future Society, Brussels
AI Ethics Alliance, Brussels
SaferAI, Paris
Open Markets Institute, Europe, Global
Privacy Network, Italy
Avaaz Foundation, Global
Pax Machina, Italy
Defend Democracy, Global

Személyek
„Julia Reinhardt, Fellow, European New School of Digital Studies, Europa-Universität Viadrina & among the 100 Brilliant Women in AI Ethics 2023
Yoshua Bengio, 2nd Most Cited AI Scientist, Chair of State of Science Report (an “IPCC for AI”), Professor – University of Montreal, Scientific Director – Mila Quebec AI Institute
Raja Chatila, Professor emeritus, Sorbonne University, Paris. Former member of the EU High-Level Expert Group on AI.
Francesca Bria, President of the National Innovation Italian Fund, Innovation Economist, UCL
Anka Reuel, Computer Science PhD Researcher & KIRA Founding Member, Stanford University
Gary Marcus, Founder and CEO, Geometric Intelligence, Professor Emeritus, NYU
Marietje Schaake, former MEP, International Policy Director at Stanford University Cyber Policy Center
Huberta von Voss, Executive Director, ISD Germany
Wolfgang M. Schröder, Prominent Professor of Philosophy, University of Wuerzburg, German expert in CEN-CENELEC and ISO/IEC through the DIN AI Standardization Committee
Marc Rotenberg, President & Founder, Center for AI and Digital Policy
Philip Brey, Professor of Philosophy and Ethics of Technology, Winner of 2022 Weizenbaum Award, University of Twente, The Netherlands
Nicolas Miailhe, Founder & President, The Future Society (TFS), Member of the Global Partnership on AI (Responsible AI Working Group), Member of the UNESCO High Level Expert Group on AI Ethics implementation, Member of the OECD Network of Expert on AI Governance
Max Tegmark, MIT Professor, Center for Brains, Minds & Machines, Swedish Citizen
John Burden, Senior Research Associate, Cambridge Institute for Technology and Humanity
Jan-Willem van Putten, Co-Founder and EU AI Policy Lead at Training for Good
Diego Albano, Analytics leader, ForHumanity, Spain
Dr. Aleksei Gudkov, AI Governance Counsellor
Greg Elliott, HZ University of Applied Sciences
Janis Hecker, NERA Economic Consulting
Alexandru Enachioaie, Head of Infrastructure at Altmetric
Mathias Ljungberg, Product Owner AI Products at Ahlsell (Swedish), Data Scientist, PhD in Physics””

Forrás:
Major researchers, think tanks, CSOs support Spanish foundation models risk management approach for EU AI Act; EURACTIV.com; 2023. november 22.
Lásd még:
AI Act: MEPs close ranks in asking for tighter rules for powerful AI models; Luca Bertuzzi; EURACTIV.com; 2023. november 24.