Skip to main content
jogpolitikaszakirodalomtechnikatudomány

Hogyan szabályozhatunk valamit, amit nem is ismerünk? (A Collingridge-dilemma működés közben)

Szerző: 2023. augusztus 26.No Comments

A technológiaszabályozással foglalkozók körében régóta ismert a Collingridge-dilemma. Ennek az a lényege, hogy amikor egy technológia megszületik, de még nem terjed el, nincsen kellő tapasztalat a szabályozásához, nem ismerjük az összes kockázatot és veszélyt, amiket kezelnünk kellene. Amikor pedig kifejlődik, elterjed és már láthatók a kockázatai, akkor pedig már különböző okok miatt, főként azért, mert bizonyos folyamatokat nem lehet már visszafordítani, befolyásolni, nagyon nehéz felette kontrollt gyakorolni és hatékonyan szabályozni. 

A közelmúlt technológiai változásai és a rájuk adott szabályozói válaszok remekül illusztrálják a Collingridge-dilemmát. Amíg a technológia új, nem ismerjük, ezért nem tudjuk szabályozni, amikor pedig már elterjedt, akkor már túl erős és megállapodott – ekkor pedig már ezért nem tudjuk (hatékonyan) szabályozni.

Az internet hajnalán például az online szolgáltatásokkal kapcsolatos legnagyobb probléma az illegális tartalmak feltöltése és a személyiségi jogi jogsértések voltak. Az amerikai Communications Decency Act nevezetes 230-ik szakasza és az európai E-ker irányelv ezt a problémát próbálta meg kezelni oly módon, hogy kisebb vagy nagyobb mértékben, de felelőtlenné tette a weboldalakat, webes szolgáltatásokat a rajtuk keresztülmenő vagy rájuk feltöltött tartalmak kapcsán, azzal az érveléssel, hogy egy szorosabb kontroll megfojtaná az interneten az innovációt és a szólásszabadságot. Ki gondolta még akkor, hogy megszületnek majd a platformok, amelyek – bár első ránézésre csupán „tárhelyszolgáltatók”, azaz mások tartalmait tárolják és mutatják meg –, teljesen másképp viszonyulnak ezekhez a tartalmakhoz, mint a tárhelyszolgáltató szolgáltatások. Például nem passzívan tárolják, hanem szelektálják, hírfolyamba rendezik és legfőképp közvetlenül monetizálják ezeket. Az általuk okozott problémák és kockázatok közül a szerzői jogokat sértő tartalmak és a személyiségi jogsértések egyáltalán nem a legjelentősebbek. Gondoljunk csak a buborékhatásra, az álhírekre vagy a hagyományos média „kiszárítására” – ezeket az új hatalmas problémákat mind a platformok okozzák. Csakhogy mire ezek jelentkeztek, a platformok már túl nagyok és túlságosan népszerűek lettek ahhoz, hogy komoly jogi korlátozásokkal sújthassák őket.

Más példa: régóta hangoztatom (például legújabb könyvemben is), hogy adatvédelmi szempontól a közösségi média egyszerűen nem létezhetne, mert sem a célhozkötöttség, sem az adattakarékosság elveinek nem képes megfelelni tekintve, hogy ezek megsértése éppenséggel a szociális médiát hajtó üzleti modell lényege. Itt ugyanez a dilemma érzékelhető: ma már egyetlen komoly szabályozó számára sem valós alternatíva, hogy betiltja vagy jelentősen korlátozza, esetleg egy jogalkotói döntéssel teljesen más üzleti modellbe kényszeríti például a Facebookot. A Facebookot nem lehet „visszacsinálni”. Marad a folyamatos bírságolás, de ezt nemigen nevezném „szabályozásnak”. És a példákat hosszasan lehetne sorolni még.

A Collingridge dilemma egyre inkább beigazolódni látszik a mesterséges intelligencia szabályozása kapcsán is. A Bizottság Mesterséges Intelligencia Kódexének eredeti szövegtervezetéből szinte ordított, hogy melyek azok a problémák és kockázatok, amelyeket a Bizottság szem előtt tartott, amikor nekifogott a kodifikácónak. A legfőbb problémának az algoritmikus mesterséges intelligenciák által előidézett diszkriminációt látták, ezen a területen már korán megjelentek látható kockázatok, például a munka világában, a pénzintézetek hitelkihelyezési gyakorlatánál, a rendészetben vagy az igazságszolgáltatásban. Ráadásul a Bizottság egy olyan modellt alkotott, amelyben az MI-ket egy meghatározott specifikus célra fejlesztik (hitelbírálat, munkakiosztás és értékelés vagy a visszaesési kockázat becslése). Ezek közül a célok és területek közül sorolt be egy tucatnyit a „kockázatos” kategóriába, kimondva, hogy az ezeken a területeken „tevékenykedő” MI-k magas kockázatúnak minősülnek, és a jogszabályban előírt megfelelőségértékelési eljáráson kell, hogy átessenek.

Ebbe a remekül felépített rendszerbe robbant be 2022 októberében a ChatGPT, és vele együtt a többi, képgeneráló szolgáltatás, a generatív MI-k. A történet ismerős, a ChatGPT a valaha volt leggyorsabban növekvő felhasználószámú szolgáltatás lett, az internetet pedig elárasztották a különböző képgeneráló algoritmusokkal rajzolt képek. És ezzel együtt kiderült az is, hogy egyrészt újfajta kockázatok tűntek fel a láthatáron, és az is, hogy az AI Act teljes logikája, ha nem is hibás, de legalábbis nagyon lukas, mert a generatív MI-k általános célúak – nem lehet mintegy „visszafelé”, a kockázatos területekből kiindulva fejleszteni őket (ami az MI kódex logikája), hiszen egy szöveggeneráló szoftver ezernyi (szó szerint több ezer app épült már a Chat GPT-re) célra használható.

Az újfajta, előre nem látható mesterséges intelligencia kockázatokra két példa: az egyik, hogy a képgeneráló algoritmusok irdatlan mennyiségben „ettek meg” szerzői jogilag védett alkotásokat, amelyekből azután outputokat (jellemzően képeket) generálnak. A generált kép nem szimpla másolása („ellopása”) az eredeti alkotásnak, nem a hagyományos értelemben vett szerzői jogsértés, ahogy mondjuk egy illegális fájlmegosztó oldal az. Ugyanakkor a szerzői jogtulajdonosok jogosan mondják mégis, hogy súlyosan csorbulnak a jogaik, mivel milliószámra használták a képeiket a modell kialakításához. Be is perelték az MI cégeket. Egy másik példa a teljesen újfajta, senki által meg nem jósolható kockázatra, hogy a szöveggeneráló szoftverek újabban mindenféle rágalmakat hallucinálnak magánszemélyekről. Szintén per lett egy ilyen esetből is.

Az újonnan megjelent kockázatok olyan látványosak, hogy a szöveggeneráló MI-k kapcsán az amerikai versenyhatóság, az FTC az Open AI ellen a ChatGPT miatt és ezzel szinte egyidőben a magyar Versenyhatóság a Microsoft ellen a Bing miatt is vizsgálatot indított. Ahogy az az FTC információkérő dokumentumából kitűnik, a feltett 49 kérdésből, amelyek mindegyike valamilyen kockázathoz köthető, számos olyan van, ami csak most, a szöveggeneráló MI-k kapcsán merült fel. Ilyen például a fentebb említett rágalmazó hallucinációk problémája és általában a hallucináció kérdése. Soha senki korábban nem gondolt arra, hogy majd jön egy MI, amelyik összevissza „hazudozik” butaságokat vagy épp veszélyes és sértő dolgokat. Hogyan is gondolhatott volna?

Vissza a Collingridge dilemmához: ugyanakkor elég valószínű, hogy ez a „keménykedés”, legalábbis részben, már elkésett, a kontroll már (részben) kicsúszott a szabályozók kezéből. Hiszen magából a modellből, amelybe beépültek az internetről learatott tartalmak, nagyon nehéz, ha nem egyenesen lehetetlen utólag „kiszedni” egyeseket. Illetve a legnagyobb probléma: a ChatGPT esetében a fejlesztés már lezajlott, nem lehet a kockázatos területekre tekintettel újra lefolytatni. Persze felelősségi (ex post) szabályokat lehet hozni, lehet azt mondani, hogy az Open AI felelős a hamis tartalmakkal okozott kárért, de ex ante (elővigyázatossági, a termék létrehozásának folyamatára és minőségére vonatkozó) szabályokat már késő. Az EU döntéshozói zavarba is jöttek, aztán egy újonnan beszúrt bekezdéssel elintézettnek vélték a dolgot. Erős kétségeim vannak, hogy valóban el van-e a dolog intézve ezzel.

Persze mindig nyitva áll a radikális, harcos út is: tiltsuk be az egészet, ahogy az olaszok tették! Nem úgy tűnik, hogy sok értelme lenne, ők is hamar visszakoztak, nyilván azért is, mert az IP-cím alapú blokkolás könnyedén megkerülhető VPN-nel. Collingridge úrnak megint igaza lett.

Hogy mi a megoldás? Talán csak annyi, hogy tudomásul kell vennünk, a jog nem csodaszer, a szabályozók nem tudnak bennünket minden kockázattól megóvni (bármennyire is ezt sugallják, és szeretnénk mi is ezt hinni), és olykor bekövetkeznek kellemetlen dolgok. Sőt, olykor katasztrófák is történnek, akármit csinálunk. Nem arról van szó, hogy nem kell a jog vagy hogy alkalmatlan lenne a kockázatok kezelésére. Csak arról, hogy ne várjuk azt, hogy minden problémát megold. Az innováció olykor kockázatokat rejt és nekünk magunknak is résen kell lennünk, nem várhatunk mindent a kormányzatoktól.

De akár az is lehet egy tanulság – persze ez már igen messze vezet, és csak azért írom ide, hogy jobb kedvem legyen –, hogy a technológia, a növekedés, az „innováció” és a profit feltétlen fetisizálása és hajszolása helyett lehet, hogy ideje lenne egy lassúbb, humánusabb, szelídebb, a föld erőforrásait és az ember pszichéjét, lelkét is jobban tiszteletben tartó, fenntartható gazdaságot és életet teremteni.”

Forrás:
A Collingridge dilemma működés közben. Hogyan szabályozhatunk valamit, amit nem is ismerünk?; Ződi Zsolt; ITKI Blog, Ludovika.hu; 2023. július 31.
(A szerző az NKE Információs Társadalom Kutatóintézet (ITKI) tudományos főmunkatársa)
Szerkesztői megjegyzés:
A cikkben említett olasz eset ennél összetettebb volt. Lásd: OpenAI gives in to Italy’s data privacy demands, ending ChatGPT ban; Ashley Belanger; Ars Technica; 2023. május 1.