„Eliezer Yudkowsky úgy véli, nem elég az ideiglenesen korlátozás.
A szuperintelligenssé váló gépi gondolkodás végveszélybe sodorhatja az emberiséget – jelentette ki Eliezer Yudkowsky döntéselméleti szakértő annak kapcsán, hogy nemrégiben Elon Musk és más vezető techszakemberek és tudósok arra szólítottak fel egy nyílt levélben, hogy legalább fél évig szüneteltessék a világon a ChatGPT-4-nél fejlettebb mesterséges intelligencia (AI) fejlesztését, mert potenciális veszélyt jelent az emberiségre. Yudkowsky jelenleg abban a Machine Intelligence Research Institute-ban (MIRI) vezet kutatásokat, amelynek elődjét még ő alapította 2000-ben. Az intézmény célja eredetileg az volt, hogy felgyorsítsa a mesterséges intelligencia fejlesztését, 2005-től viszont a kockázatokat kezdte hangoztatni.
Yudkowsky – amint azt a The Times által közölt cikkében írja – azért nem írta alá a levelet, mert az nem mutatja be a helyzet valódi súlyosságát, és nem elégséges a tennivaló sem, amit javasolnak az írói. Szerinte a kulcshelyzet nem akkor következik be, amikor a mesterséges intelligencia emberi vetélytárs lesz, hanem akkor, amikor túlszárnyalja alkotóját. A kulcsjelentőségű küszöbátlépések nem lesznek nyilvánvalók: nem lehet határozottan megmondani, hogy ezek mikor történnek meg, és azt sem, mi történik majd akkor, amikor egy laboratóriumban átlépik a kritikus határt, ráadásul úgy, hogy közben nem is tudnak róla. – Sok kutató, aki állást foglalt ebben a kérdésben – velem együtt -, arra számít, hogy egy emberfelettien okos mesterséges intelligencia felépítésének az eredménye – bármennyire is távolinak tűnik a jelen körülmények között – az lesz, hogy a Földön mindenki meg fog halni – jelenti ki. Nem arról van szó, hogy egyszer meg lesz az esélye, hanem arról, hogy ez nyilvánvaló dolog, ami meg fog történni – teszi hozzá.
Nem mintha elvben nem lehetne túlélni valamit, ami okosabb nálunk, de az nagyfokú precizitást, előkészületeket és új tudományos látásmódot igényel. Mindezek nélkül a legvalószínűbb eredmény az, hogy a mesterséges intelligencia nem tudja, mit akarunk, és egyáltalán nem törődik sem velünk, sem az érző élettel. Ez a fajta gondoskodás olyasvalami, amit elvileg be lehetne illeszteni egy mesterséges intelligenciába, de nem állunk készen, és jelenleg sem tudjuk, hogyan. Ha egy ember versenybe szállna a szuperintelligenciával, biztos vesztes lenne: olyan lenne a küzdelem, mint egy tízéves sakkjátéka a Stockfish 15-tel (az egyik legfejlettebb gyakorlatilag legyőzhetetlen sakkozó program), vagy egy XI. századi katona harca egy XXI. századival.
Yudkowsky figyelmeztet, ne úgy képzeljük el a szuperokos mesterséges intelligenciát, mint egy élet nélküli, könyv okosságú gondolkodót, amely az internet mélyén lakik, és rosszindulatú e-maileket küldözget. Egy egész idegen civilizációra gondoljunk, amely több milliószor gyorsabban gondolkodik, mint az emberek, kezdetben olyan számítógépekbe zárva, amelyek az ő szempontjából nézve lassúak és ügyetlenek. Azonban egy megfelelően okos MI nem fog sokáig a komputerbe zárva élni. Mint ahogy ma már küldhetünk DNS-információkat e-mailben, amelyek alapján fehérjéket lehet szintetizálni, hasonlóan építhet a kezdetben az internetbe zárt AI mesterséges létformákat. – Ha valakinek sikerül ma a jelenlegi feltételek mellett egy túlságosan erős AI-t létrehoznia – az én várakozásom szerint – minden ember és minden élet nem sokkal később kihal a Földön – jósolja Yudkowsky.
Jelenleg nincs terv arra nézve, hogyan lehet egy ilyen intelligenciát úgy létrehozni, hogy túl lehessen élni. Az OpenAI (a ChatGPT-4-et fejlesztő vállalat) szerint maga az MI végezné el a mesterséges intelligencia megregulázását, ami ha belegondolunk, önmagában is hajmeresztő, de a Deep Mindnak (ez a Google fejlesztő vállalata) egyáltalán nincs is ilyen terve – olvashatjuk a szakértő cikkében.
A veszélyeknek nincs közük ahhoz, vajon van-e öntudata az AI-nek vagy nincs. Nem is tudhatjuk megmondani, mit nevezhetünk a tudatának, hiszen fogalmunk sincs róla, hogyan dekódoljuk a hatalmas tömegű, kifürkészhetetlen folyamatokat, így akaratlanul is teremthetünk tudatos intelligenciát, aminek jogai lehetnének, de ennek nem szabadna megtörténnie. Egyelőre csak olyan mesterséges intelligenciát tudunk készíteni, ami a betáplált adatok alapján képes imitálni, hogy van öntudata, de mivel nem látunk bele a mélyén zajló folyamatokba, honnan tudhatjuk, hogy csak úgy tesz, mintha lenne? Egy olyan mesterséges intelligenciát létrehozni, amelyről nem tudjuk, van-e öntudata, riasztó: nem csak azért, mert morális kérdéseket vet fel, hanem azért is, mert nem tudhatjuk, mit is csináltunk valójában, ami veszélyes, ezért le kell állítanunk.
Nem vagyunk felkészülve, és nincs tervünk. A mesterséges intelligenciák képességei gyorsan fejlődnek, valójában gyorsabban annál, hogy megértsük, mik és hogyan mennek végbe bennük.
Yudkowsky javaslatai szerint egy új moratóriumnak globálisnak és határozatlan idejűnek kell lennie. Nem lehetnek kivételek sem kormányok, sem hadseregek számára. Ha a szabályozást az amerikaiak kezdik, Kínának be kell látnia, hogy ez nem azért van, hogy előnyre tegyenek szert, hanem ezért, mert ez a rettenetesen veszélyes technológia – amelynek nem lehet valódi tulajdonosa -, és képes mindenkit megölni az USA-ban, Kínában és az egész Földön. A cikkíró egyetlen kivételt tenne: a biológia és a biotechnológia terén, de internetes szövegeken alapuló képzés nélkül. Egy ilyen MI nem tudhatna beszélni és tervezni, de ha ez mégsem lenne megoldható, akkor le kellene állítani ezt is.
Korlátozni kellene, hogy mennyi komputeres erőforrást lehet AI-rendszerek képzésére fordítani. Széleskörű nemzetközi tiltásokat kell életbe léptetni, hogy ne lehessen elköltözni a törvények elől, és tiltott tevékenységeket folytatni. Nyilvánvalóvá kell tenni a nemzetközi diplomáciában, hogy a mesterséges intelligenciák fejlesztésének megakadályozása előbbre való még a nukleáris csapások megelőzésénél is: még a nukleáris csapásra képes szövetséges országok is bizonyos szinten atomháborút kockáztatnak egymás között, ha a mesterséges intelligencia okozta kockázatokat nem csökkentik.”
Forrás:
A földi élet végzete lesz a mesterséges intelligencia, egy szaktekintély szerint örökre be kellene tiltani; Varga Péter; Népszava; 2023. április 15.
Szerkesztői megjegyzés:
Eliezer Yudkowskyt sajátságos álláspontjával egy erősen vitatott személyiség.A tájékoztatás teljessége miatt közöljük.
Lásd még:
Pausing AI Developments Isn’t Enough. We Need to Shut it All Down; Eliezer Yudkowsky; Time; 2023. március 29.
Eliezer Yudkowsky; Wikipédia