Skip to main content
Uncategorized

Áldás vagy átok? A Janus-arcú MI kormányzásának kérdései – 2023. július 24.

Szerző: 2023. július 24.No Comments

#Szabályozás, országok

Vezető amerikai MI-cégek önkéntes szabályozásban állapodtak meg az amerikai kormányzattal
Hét vezető amerikai vállalat önkéntes szabályozásban állapodott meg az amerikai kormányzattal, megerősítik MI-rendszereik biztonságos és megbízható működését. Az érintett vállalatok: Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI.
FACT SHEET: Biden-⁠Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI; The White House; 2023. július 21.
Ensuring Safe, Secure, and Trustworthy AI (a kötelezettségvállalás, PDF)
Moving AI governance forward; OpenAI; 2023. július 21.
Top tech firms commit to AI safeguards amid fears over pace of change; Kari Paul, Johana Bhuiyan, Dominic Rushe; The Guardian; 2023. július 21.

Az MI-kormányzás kínai és nemzetközi megközelítései, konkrét szakpolitikai törekvések és szabványok szempontjából
A szerzők részben az Alibaba, kínai digitális óriáscég, szabványosítási részlegénél, illetve a Kínai Információs és Kommunikációs Technológiai Akadémia biztonsági kutatóintézeténél dolgoznak. A dokumentum kooperatív fordítás, amely elérhető a Google Docs-on.
A cikk négy fő témát ölel fel:
* a globális MI-kormányzás szakpolitikai kérdései a szerzők és intézményeik szempontjából,
* az MI-szakpolitikák kormányzási és biztonsági kérdéseinek kezelése,
* az MI-kormányzással kapcsolatos fontos kínai és nemzetközi szabványokat,
* ajánlások a kínai MI-kormányzási szakpolitikákra és szabványokra.
Special Topic AI Security | Analysis of Domestic and Foreign Policies and Standards on AI Governance;  Zhu Hongru, Peng Juntao, Sun Yong, Jing Jing; China Information Security; 2023/5, Angol fordítás: 2023. június 12., Google Drive

MI-szabályozás Kínában, mit szabályoznak és hogyan?
A három cikkből álló sorozat megpróbálja visszafejteni a kínai MI-kormányzást. A szabályozást alkotóelemeire – terminológia, kulcsfogalmak és specifikus követelményekre – bontja, majd nyomon követi ezeket a gyökereikig, feltárva, hogy hogyan alakították ki a szabályozást a kínai tudósok, közigazgatási és politikai szakemberek és újságírók. Ennek során a szerző kialakítja annak konceptuális modelljét, hogy Kína hogyan alakítja ki az MI-kormányzási politikáját.
China’s AI Regulations and How They Get Made; Matt Sheehan; Carnegie Endowment for International Peace; 2023. július 10.

#Szabályozás, nemzetközi szervezetek

Az ENSZ Biztonsági Tanácsának ülése az MI-ről
Az ENSZ Biztonsági Tanácsának történelmi ülése, melynek tárgya az MI potenciális veszélyei és a nemzetközi béke és stabilitás. Sürgős biztosítékokra szólított fel a „példátlan” technológia ellen.
Artificial Intelligence: High-level Briefing; Security Council Report;  2023. július 17. (az ülés előzetese)
Artificial intelligence: opportunities and risks for international peace and security – Security Council, 9381st meeting; Egyesült Nemzetek; 2023. július 18. (A teljes ülés videón, felvételről)
Remarks by Ambassador Zhang Jun at the UN Security Council Briefing on Artificial Intelligence: Opportunities and Risks for International Peace and Security; Permanent Mission of the People’s Republic of China’s to the UN; 2023. július 18.
Remarks at a UN Security Council High-Level Briefing on Artificial Intelligence; United States Mission to the United Nations; 2023. július 18.
UN Security Council meets for first time on AI risks; Michelle Nichols; Reuters; 2023. július 18.
UN Security Council convenes historic session to discuss AI threat to global peace; Euronews & AP; 2023. július 19.
AI for the good of international peace and security; Zeng Yi;  Global Times; 2023. július 19. (kínai szakértő)

#Szabályozási kérdések

A nagy MI-modellek nemzeti nyilvántartása
A közvélemény számára nem átlátható, hogy ki lehet felelős a generatív MI előnyeiért és kockázataiért. E modellek megértésének első lépéseként össze kell gyűjteni az alapvető információkat egy egyszerű nyilvántartási folyamat segítségével.
It’s Time to Create a National Registry for Large AI Models; Gillian Hadfield,  Mariano-Florentino (Tino) Cuéllar,  Tim O’Reilly; Carnegie Endowment for International Peace; 2023. július 12.

Az általános célú MI kormányzása – Átfogó térkép a megbízhatatlanságról, a visszaélésekről és a rendszerszintű kockázatokról
A politikai döntéshozóknak átfogó ismereteket kell szerezniük az általános célú MI-modellekhez kapcsolódó kockázatok teljes skálájáról, hogy proaktívan csökkentsék ezeket a veszélyeket. Ez a jelentés három kategóriába sorolja fel ezeket a lehetséges kockázatokat: megbízhatatlanságból, helytelen használatból és rendszerszintű kockázatokból származó kockázatok. A jelenleg megfigyelhető példákkal és releváns forgatókönyvekkel illusztrálva kilenc releváns kockázatot vázolnak fel három elsődleges kockázati kategóriában. Ez a kockázati térkép strukturált forrást biztosít a döntéshozók számára az általános célú MI sokrétű kihívásainak és potenciálisan messzemenő hatásainak megértéséhez.
Governing General Purpose AI — A Comprehensive Map of Unreliability, Misuse and Systemic Risks; Pegah Maham, Sabrina Küspert; Stiftung Neue Verantwortung; 2023. július

Szakértők irányelveket javasolnak a biztonságos MI-rendszerekhez
A World Ethical Data Foundation új, önkéntes keretrendszert adott ki az MI-termékek biztonságos fejlesztésére. A keretrendszer 84 kérdésből álló ellenőrzőlistát tartalmaz, amelyet a fejlesztőknek meg kell fontolniuk egy MI-projekt kezdetekor.
Artificial intelligence: Experts propose guidelines for safe systems; Zoe Kleinman; BBC; 2023. július 20.
Me-We-It: An Open Standard for Responsible AI; World Ethical Data Foundation

Magatartási kódex az egészségügyben, orvosi ellátásban és egészségügyi kutatásban használt MI-hez
Az MI Magatartási Kódex ( Artificial Intelligence Code of Conduct, AICC) projekt az amerikai Nemzeti Orvostudományi Akadémia (NAM) kulcsfontosságú kezdeményezése, amelynek célja, hogy irányadó keretet biztosítson ahhoz, hogy az MI -algoritmusok és alkalmazásaik az egészségügyben, az orvosi ellátásban és az egészségügyi kutatásban pontosan, biztonságosan, megbízhatóan és etikusan működjenek.
Toward a Code of Conduct for Artificial Intelligence Used in Health, Medical Care, and Health Research; National Academy of Medicine; 2023. június 20.

#Problémák, kockázatok, veszélyek

Több mint 1300 angol szakértő állt ki az MI jótékony hatásai mellett
A BCS,  Chartered Institute for IT (angol IVSZ), szervezte nyílt levelet több mint 1300 szakértő írta alá. Tanúsítva, hogy az MI „jót szolgáló erő, nem pedig fenyegetés az emberiségre”. A szervező szerint ez azt mutatja, hogy az Egyesült Királyság szakmai közössége nem hisz „a felettünk uralkodó gonosz robot urak rémálomszerű forgatókönyvében”.
More than 1,300 experts call AI a force for good; Chris Vallance; BBC; 2023. július 19.

Az MI egzisztenciális kockázatának illúziója
Ha arra összpontosítunk, hogy az MI miatt a távoli jövőben az emberiség el fog pusztulni, akkor ez megakadályozhat bennünket abban, hogy az MI által most okozott, a társadalmat fenyegető veszélyekkel foglalkozzunk.
The Illusion of AI’s Existential Risk; Blake Richards, Blaise Agüera y Arcas, Guillaume Lajoie, Dhanya Sridhar; Noema; 2023. július 18.
Kritika: Ryan Carey (Twitter)

Az MI egyik keresztapja aggodalmait hangoztatja
Yoshua Bengio azzal érvel, hogy a katasztrófa kockázata eléggé valós ahhoz, hogy azonnal cselekedjünk.
One of the “godfathers of AI” airs his concerns; The Economist; 2023. július 21. (alternatív elérés)

Automatizált elbocsátás és algoritmikus menedzsment
Hogyan hatnak az algoritmikus rendszerek a dolgozókra?Egyértelműek a következtetések – ezeket a technológiákat a nyereség növelésére és a dolgozói kontrol (saját tevékenységük felett)csökkentésére használják, a dolgozók megfigyelése és nyomon követése révén. „Amikor a hatalom központosított, az adatok felerősítik ezt a hatalmat”. A dolgozók legtöbbször azt sem tudják, mikor alkalmazzák az MI-rendszereket, vagy hogyan értékelik teljesítményüket.
Automated Firing & Algorithmic Management: Mounting a Resistance, with Veena Dubal, Zephyr Teachout and Zubin Soleimany; AI Now Salons; 2023. július 20.

Miért gondolják az MI-vel írt szövegek leleplezésére szolgáló szoftverek, hogy az Egyesült Államok alkotmányát egy MI-rendszer írta?
Ha Amerika legfontosabb jogi dokumentumát – az Egyesült Államok alkotmányát – betápláljuk egy olyan eszközbe, amelyet az MI-modellek (például a ChatGPT) által írt szövegek észlelésére terveztek, akkor az azt fogja mondani, hogy a dokumentumot szinte biztosan egy MI-rendszer írta. Miért adnak hamis pozitív eredményeket ezek a szoftverek? Beszélgetés szakértőkkel, köztük a GPTZero nevű speciális eszköz megalkotójával.
Why AI detectors think the US Constitution was written by AI; Benj Edwards; Ars Technica; 2023. július 14.

A Google szakértője un. „adatmérgezésre” figyelmeztet, kínai tudósok a fenyegetés elhárításán dolgoznak
Csak egy töredékét kell manipulálni egy adott MI-rendszer tanítási adatainak ahhoz, hogy kritikus módon sérüljön a rendszer funkcionalitása. A kísérletek szerint az adathalmaz mindössze 0,1 százalékának megváltoztatásával adatmérgezés fordulhat elő. Apró változtatásokkal az adatkészlet tulajdonosa megszerezheti az irányítást a gépi tanulási modell felett.
Google AI expert warns of ‘data poisoning’ as Chinese scientists work to ward off emerging threat; Zhang Tong; South China Morning Post; 2023. július 11.