„Paolo Benanti ferences szerzetes évek óta foglalkozik a mesterséges intelligenciával és annak etikájával. Az eredetileg mérnöknek tanuló Benanti az ember és a technológiák találkozásának etikai vetületeiből írta doktori disszertációját, és több mint három éve tevékenyen részt vesz a Vatikán mesterséges intelligenciára vonatkozó álláspontjának kialakításában, sőt ő Ferenc pápa főtanácsadóinak egyike. Annak érdekében, hogy összegyűjtse, mit tartanak etikusnak a nagy algoritmus-fejlesztő cégek, Benanti személyesen találkozott többek között az IBM alelnökével, a Google-féle Alphabet tulajdonában álló DeepMind társalapítójával és a Facebook AI-etikával foglalkozó vezetőjével is.
2020. február 28-án Rómában a katolikus egyház képviseletében a Pápai Életvédő Akadémia, a Microsoft, az IBM, az ENSZ Élelmezési és Mezőgazdasági Szervezete és az olasz innovációs minisztérium aláírta az azóta Római Felhívásként (Rome Call) ismertté vált dokumentumot, ami a mesterséges intelligencia etikus fejlesztésére szólít fel. A terv a szervezetek, kormányok, intézmények és magánszektor felelősségérzetének felélesztését célozza, és azt, hogy olyan jövőt teremtsünk, ahol a digitális innováció és a technológiai előmenetel az ember zsenialitását és kreativitását szolgálja, és ne az ember fokozatos helyettesítését eredményezze. Ennek az etikai kötelezettségvállalásnak a megszövegezésében Benanti atya is részt vett.
A Római Felhívás folytatásaként 2022 májusának közepén a Vatikán kezdeményezésére az ábrahámi vallások, a zsidó, a muszlim és a keresztény vallás vezetői nem mindennapi találkozón gyűlnek össze Abu-Dzabiban, hogy a történelemben először aláírjanak egy etikai chartát, amelynek célja, hogy megvédjék az emberi társadalmakat a mesterséges intelligencia okozta potenciális ártalmaktól. Benanti atyával erről a nem mindennapi eseményről, a Vatikán és a technológia kapcsolatáról, a mesterséges intelligencia etikájáról beszélgettünk.
Qubit: A katolikus egyházat hogyan kezdte el érdekelni a mesterséges intelligencia?
Paolo Benanti: Egyrészt a katolikus egyház tudósai kezdtek el foglalkozni a témával, másrészt a Vatikánnak vannak olyan hivatalai, amelyek folyamatosan szondázzák, mi történik a társadalomban, mik a legnagyobb kihívást jelentő jelenségek a társadalomtudományban, a közgazdaságtanban és a technológiában.
Szóval amikor a Vatikán különböző entitásai összegyűltek, és feltették a kérdést, mi folyik a világban, különösen a Pápai Életvédő Akadémia nagyon felvillanyozódott az emberi élet és a mesterséges intelligencia összefonódásának említésekor, különösen annál a problémánál, pótolhatja-e az embert az AI. Ebből az érdeklődésből nőtt ki a The ‘good’ algorithm? Artificial Intelligence: Ethics, Law, Health című workshop 2020 februárjában, és ezen született meg a Római Felhívás gondolata, vagyis hogy az algoritmus és etika szavak angol változatából összegyúrt „algoretika” (algor-ethics) kérdését helyezzük az egyház érdeklődésének a középpontjába. Maga az algoretika pedig a mesterséges intelligencia etikus használatát jelenti a transzparencia, inklúzió, felelősségvállalás, pártatlanság, megbízhatóság, biztonság és adatvédelem elvei szerint.
A Római Felhívást teljes egészében a Vatikán szponzorálta, és május közepén Abu-Dzabiban a muszlim és a zsidó vallás képviselői is aláírják. Szóval nem csupán katolikus és keresztény, hanem reményeink szerint egész vallásokon átívelő is lesz egyben.
Mindennek az az oka, hogy a koronavírus-járvány az elmúlt két évben új szintre emelte a technológiák jelentőségét, hiszen az tette az utca embere számára mindennapossá például a telekonferenciákat, azt, ahogy mi itt most egymással Zoomon keresztül beszélgetünk. A kollégáimmal szoktunk viccelődni azon, hogy korábban sosem gondoltuk volna, hogy tarthatunk digitálisan konferenciát, ma pedig már úgy gondolunk a jelenléti konferenciákra, mint a digitális kiegészítőire. A második ok pedig az orosz-ukrán háború, ami miatt annyira relevánssá válik az emberek nélkül irányított gépek, a mesterséges intelligencia és a digitalizáció kérdése.
Qubit: Homo Faber című könyvében a techno-humán állapotról ír, ami egyben mesterséges intelligenciáról való gondolkodásának is az alapja. Kifejtené, ez mit takar, és hogyan kapcsolódik hozzá a vallás?
Paolo Benanti: A technológiáról való reflexió a 18. század végétől, 19. század elejétől kezdve egyre jellemzőbb, számos filozófus foglalkozik vele. Az emberi állapot természetét viszont leginkább az emberi tudás és jellemvonások alapján vizsgálták. Tudjuk, hogy az előző évszázad elején sok filozófus, főleg német filozófusok gondolkodtak az emberi állapotról, például Arnold Gehlen azt mondta, hogy az ember egyszerűen az, akiből hiányoznak képességek. Nem futunk olyan gyorsan, mint egy leopárd, nem repülünk úgy, ahogy egy sas, nem mászunk úgy fára, mint egy majom, szóval a technológiának kell megsegítenie a hiányoktól hemzsegő emberi természetet.
Az emberi hit felől és az emberhez egyfajta filozófiai-ontológiai nézőpontból közelítve ezzel én nem értek egyet. A hiányokon alapuló természetből nem magyarázható az a rengeteg csodálatos dolog, amit az ember teremtett. Ehelyett én egy másik perspektívát javaslok.
Egy elefántnak minden megvan a természetében ahhoz, hogy boldoguljon – beleértve a híres elefántmemóriát is. Egyszer ferences szerzetesként ellátogattam Srí Lankára ferences testvéreimhez. A szigeten van egy elefántmenhely, ahol megitattam tejjel egy kiselefántot – ez 25 liter tejet jelent ezeknek a kisautó méretű állatoknak. Ez a kiselefánt sosem fog engem elfelejteni. Srí Lanka tele van olyan csodálatos történetekkel, amikor ezek a nagytermetű elefántok a tömegben kiszúrnak egy embert, odaszaladnak hozzá és puszit adnak neki, csak hogy kifejezzék hálájukat amiatt, mert a múltban valaha kaptak tőle valamit.
Ehhez képest az ember több, mint a biológiai állapota. Ahhoz, hogy mi emlékezzünk valamire, nekünk szükségünk van például egy tollra és egy jegyzetfüzetre, valamire ahhoz, hogy hátrahagyjunk magunkból egy darabot. Én úgy vélem, ez nem hiányosság, hanem egyfajta felülkerekedés. Mivel emberként több vagyok, mint a biológiai állapotom, a technológia segítségével fejezem ki önmagam. Ez egy eléggé pozitív technológiaszemlélet. Tehát a technológia nem az ember ellensége, hanem éppenséggel az emberi természet része. Már ha csak arra gondolunk, hogy az előző földtörténeti korszaknak, a pleisztocénnek van olyan része, a pattintottkő-korszak, amelyet eszközhasználatról neveztünk el. Ez ennyire az emberi természet velejárója.
Ez egy naív, optimista szemlélet, ami legalábbis feltételezi, hogy az ember több mint a biológiai rétegei, és ezzel együtt nem tökéletes. Emiatt alakult ki az etika, ami az állatoknál teljesen hiányzik. A farkasok nem ölnek élvezetből, az emberben megvan ez a hajlam, és néha sajnos enged is neki. Így az az elképzelés, hogy felülkerekedhetünk a biológián – ami valójában utat is nyit az élet vallásos megközelítéséhez –, egyben magában hordozza a szabadság, a szabad döntés gondolatát is.
Amikor a barlangban az első ember felvett a földről egy botot, ez fegyver volt vagy eszköz? Mindegyik funkció összekapcsolható azzal a felvetéssel, hogy az az ember több volt, mint a biológiai természete, de egyszerűen nem vehetjük készpénznek, hogy jóra használta. Tehát amikor techno-humán állapotról beszélünk, akkor elismerjük azt is, hogy minden egyes technológiai fejlesztés a valóságra adott válasz, és legtöbbször minden egyes technológiai artifaktum eszköz és fegyver is lehet.
Qubit: Manapság azt vehetjük észre, hogy az AI-fejlesztő cégek körében mindenhol pezseg a terület, rengetegen írják meg saját etikai kódexüket. A Microsoft és az IBM is csatlakozott a Római Felhívás törekvéseihez, szóval érzékelik, hogy valamit tenni kellene. Lehet ezt a rengeteg etikai kódexet egyetlen keretrendszerben egyesíteni?
Paolo Benanti: Egyetértek, mindenhol ott az etika. Egyrészt a vállalatokat emberek alkotják, és ahogy mi is, a vállalatok is mélyebb értelmet keresnek. Másrészt a vállalatok azt is tudják, hogy egy önszabályozó, „puha” etikai kódex sokkal kényelmesebb lehet, mint megvárni a „kemény”, kötelező érvényű szabályozást.
És igen, az etika önmagában nem elég. Ez azonban nem jelenti azt, hogy ne használhatnánk arra, hogy előnyökhöz jussunk, hiszen ha a vállalatok ezt a puha szabályozást bevezetik, ezt mi, etikával foglalkozók arra használhatjuk, hogy korlátokat állítsunk fel a mesterséges intelligenciának, ez pedig valójában win-win szituáció. Elegek ezek az etikai előírások? Természetesen nem. Szabályozásra van szükség, és az Európai Unió dolgozik ilyenen.
Az etika azonban nem csupán valami, ami a szabályozás előtt és után lép be a képbe, ez a szabályozásnak egy egész más szintje. Van egy idős brit bíró, Lord Malton, aki úgy gondolta, hogy minden etika, amit a jog nem képes kikényszeríteni. Azt a példát hozta fel, hogy amikor a Titanic nekiment a jéghegynek, valaki a fedélzeten elkiáltotta magát, hogy először a nőket és a gyerekeket mentsék. Erre nincsen törvény, mégis mindenki hagyta, hadd menjenek a nők és a gyerekek. Ez az etika.
Szóval először ezt a win-win helyzetet kell megteremtenünk addig, amíg a mesterséges intelligenciára nem létezik szabályozás. És mivel utána is lesznek olyan helyzetek, amelyekre a szabályozás nem nyújt száz százalékos megoldást, az etika teremtheti meg azt a szükséges kultúrát, amivel a nem szabályozott helyzetek megoldhatóak lesznek. Nem véletlen, hogy Európában, ahol mélyen gyökereznek a szabályozás hagyományai, és ennek az etikai kultúrának a gyökerei, ennyire éles a mesterséges intelligencia etikájáról szóló vita. Ez az örökségünk.
Qubit: Erre hallottam már egy másik magyarázatot is, méghozzá azt, hogy az Egyesült Államok és Kína annyival versenyképesebb a mesterséges intelligencia fejlesztésében, hogy az Európai Unió inkább az etikai szabályozással igyekszik behozni a lemaradását.
Paolo Benanti: Igen, de ez a szabályozás mögött álló magyarázat. Az etika mélyebben gyökerezik. Etikai kódexeket nem állítanak össze ott, ahol kényelmetlenül érzik magukat ettől, ahol ez nem része a kultúrának. Természetesen el kell ültetni a magokat, de termékeny talajba kell ültetni őket ahhoz, hogy aztán növekedjenek. Szóval valóban, az Európai Uniónak szüksége van a mesterséges intelligencia szabályozására ahhoz, hogy ne falják föl a hatalmas algoritmusfejlesztők, de önmagában a szabályozás nem elég.
Qubit: El tudja azt képzelni, hogy ha minden jól megy a májusi megbeszélésen Abu-Dzabiban, akkor sikerülhet egyetlen etikai keretrendszerbe, méghozzá az ábrahámi vallások keretrendszerére alapozva kialakítani egy etikai kódexet, ami majd az elkövetkező években egyengeti a mesterséges intelligencia útját?
Paolo Benanti: Egyelőre arra jutottak, hogy a 2020-as római deklaráció alapelveit ők is osztják, el tudják fogadni. Látni kell azonban, hogy ezek nagyon általános alapelvek, amelyeket aztán sokkal részletesebbre kell majd lefordítani az alkalmazhatósághoz, de az elképzelés és ennek a hatalmas megállapodásnak a szimbolikus ereje lehetővé teszi számunkra, hogy elképzeljük, hogy a különböző vallási hátterű informatikusok egy oldalra kerüljenek, és ez elindítson egy folyamatot. Szóval ez nem olyan, hogy megtervezzük és kontrolláljuk az eseményeket, sokkal inkább egy nyitott folyamat, amelyben megnézzük, mi történik majd 5-10 év múlva.
Qubit: Hogyan képzeljük el az egyház által támogatott Al-etikát, vagy az Ön kifejezésével élve, az algoretikát a gyakorlatban?
Paolo Benanti: A központi alapelveken túl, mint amilyen a transzparencia és a gyengék védelme, az elveket a mesterséges intelligencia különféle használati területein kell alkalmazni. Nem lehet olyan elveket felállítani, amelyek a helyzetek száz százalékára igazak lennének.
Hadd fogalmazzak másképp. Az álhírek tollal és papíron is terjednek, de ennek nem kerítünk akkora feneket, mint a mesterséges intelligenciának. Viszont ha az AI mint a fake news mindent átható, hatalmas erejű gyártója tűnik fel a színen, az algoretika tud majd mondani valamit az embernek az adatvédelemhez való jogáról, az adatok megbízhatóságáról. Amikor egy olyan algoritmus esetén alkalmazzák, amely képes eltolni a közvéleményt valamilyen irányba, azt az elvek alapján a célokhoz lehet majd igazítani, és el lehet vinni egy olyan irányba, ahol már konkrét szabályozások vonatkoznak majd rá. Olyan, mint amikor a fény eléri a prizmát, és a szivárvány színeire bomlik szét.
Viszont ez nagyon-nagyon lassan fog megtörténni, mert az etikában mindig új dolgokat fedezünk fel, és néha arra is rá kell jönnünk, hogyan használhatunk a lehető legrosszabbul valamit, hogy a jövőben azt kizárjuk – például egyes algoritmusok fejlesztése után jöttünk csak rá, hogy az adatok előítéletesek.
Qubit: Mit gondol, az algoritmus-fejlesztés melyik területén van a legnagyobb szükség az etikai iránymutatásokra?
Paolo Benanti: Valószínűleg azoknál az algoritmusoknál, amelyek ítéletet hoznak az emberek felett. Például figyelemmel kísérünk egy kutatást, amely egy olyan algoritmussal foglalkozik, ami az emberek menekültstátuszáról dönt. Számos ország használ már efféle algoritmust. Képzelje el azokat az embereket, akiktől egy adott országban megtagadták a jogaikat, és akiknek egy másik országban úgy kell boldogulniuk, hogy adatokat kell produkálniuk ahhoz, hogy elfogadják őket. Ezek az emberek nagyon bizonytalan helyzetben vannak: egy jog nélküli területről lépnek be egy másik országba úgy, hogy nem állampolgárai az adott államnak. Ez tökéletes helyzet arra, hogy megnézzük, mennyire értünk egyet abban, hogy döntsön-e egy gép az emberi lények életéről.
Szóval minden olyan algoritmust, ami az ember életéről hoz döntést, árgus szemekkel kell figyelnünk. Ez történhet a bíróságokon, a bankokban, amikor az ember hitelt szeretne felvenni, biztosítási kérelem értékelésekor, stb. Például az Egyesült Királyságban már használnak olyan algoritmust, ami a középiskolás diákokat egyetemekhez rendeli. Rengeteg kódolt előítéletet találtak a rendszerben, és ehhez képest hangsúlyoznom kell, gyerekek jövőjéről dönt a gép.
Qubit: Az algoritmusoknál, amelyek ilyen döntési folyamatokat automatizálnak, a döntés pillanatában már nem lehet mit tenni, viszont az algoritmus tervezésekor van még esély arra, hogy kiküszöböljék a potenciális hibákat és etikai problémákat. Szóval az etikai iránymutatásnak meg kellene előznie még az algoritmusfejlesztést. Jelentheti ez az ön olvasatában az informatikusok etikai oktatását?
Paolo Benanti: Igen, a Római Felhívás keretén belül van erre törekvés, és terveink szerint hamarosan etikaórákat fogunk tartani mérnököknek. Ez a kérdés azonban az algoritmusok tervezéséhez technikailag is kapcsolódik. Tervezhetünk igen-nem válaszokra optimalizált algoritmusokat, például kaphatok-e 5000 eurót (igen/nem), vagy kontrafaktuális algoritmusokat, például akkor kaphatom meg az 5000 eurót, ha megadok néhány feltételt, amelyek teljesülése esetén a nem válaszból igen lesz. Ha kontrafaktuális algoritmust tervezünk, akkor ha azt mondják, hogy csak akkor kaphatok 5000 eurót ettől a banktól, ha van 3000 euró a bankszámlámon, az én számlámon viszont 3500 euró van, mégis elutasítottak, akkor valami hiba történhetett, úgyhogy ezek után folyamodhatok felülbírálatért. Vagy ha a jelentkező neme vagy bármely más tulajdonsága miatt tagadták meg az engedélyt, ez már a döntési folyamatba beépített társadalmi előítélet, és szintén folyamodhatok felülvizsgálatért.
Szóval ha az algoritmusokat nem eldöntendő válaszokra optimalizáljuk, hanem nyitott végű döntési helyzetekre, amikor is a döntés megkérdőjelezésére egy emberi lényhez fellebbezhetnek, ez enyhíthet a kialakuló helyzeteken. Ez az algoretika egyik működési mechanizmusa, vagyis az embernek a folyamatban tartása.
Qubit: Korábban említette, hogy a mesterséges intelligenciára tekinthetünk eszközként és fegyverként is, attól függően, hogyan használjuk a jövőben. Tekintsünk el egy pillanatra az eltúlzott végítélet-szcenárióktól. Ha minden jól megy, hogyan tudná elképzelni, mire használhatja az emberiség 10-20 év múlva az MI-t?
Paolo Benanti: A jövő kezdete a mesterséges intelligencia legutóbbi két fejlesztése, a GPT-3 és az AlphaFold lehetne. De valószínűleg amilyen gyakran csak tudjuk, interfészként használni fogjuk a mesterséges intelligenciát, folyamatosan ott lesz az ember és a gép között. A gépek használata és a reakciója olyan lesz, mintha folyékonyan egy másik nyelven tudnánk valakivel kommunikálni.
A tudományos kutatásokat szintén a mesterséges intelligencia fogja támogatni, én azt is elképzelhetőnek tartom, hogy az AlphaFold megkapja a Nobel-díjat. Készen állunk rá, hogy egy gép kapja meg a Nobel-díjat? Ebből a szempontból viszont kihívások és lehetőségek ugyanúgy rendelkezésre állnak, hiszen felfedezhet olyan gyógyszereket, amellyel emberéleteket menthetünk meg, viszont felvetődik a kérdés, mi lesz az emberi kreativitással, kihez fog tartozni a végtermék tulajdonjoga, és mit is jelent majd a jövőben tudósnak lenni.
A másik oldalról pedig felvetődik, mit is jelent a számítógép kezelésének képessége, ha a gép és az ember közötti, középső réteg valójában az algoritmus, amit egy vállalat tulajdonol. Valójában az a cég teljes mértékben kontrollálni tud engem, amikor a géppel interakcióba lépek. Például a GPT-3-mal mint interfésszel arra is képesek lehetünk, hogy olyanoknak is lehetővé tegyük a számítógép használatát, akik képtelenek rá. Ehhez is ez a legjobb irányítórendszer, de vissza is lehet élni vele.
Qubit: Néhányan azt mondják, hogy akár 2050-re is elérhetünk a tudatra ébredő mesterséges intelligenciához, mások úgy vélik, inkább 2100 körül, megint mások szerint sosem fog eljönni ez az időszak. Ön mit gondol erről?
Paolo Benanti: Abban egyetértünk, hogy ez a téma sokakat foglalkoztat. Szerintem a tudat egy olyan jelenség, amely nem fordítható le számítógépek nyelvére. Egyetlen okból: a tudat sosem fut le, a „programjának” nincs vége. Ahhoz, hogy egy Turing elvei alapján számítógépekkel értelmezhető problémát kapjunk, arra van szükség, hogy a program lefusson, és egyszer csak vége szakadjon. Ez itt elképzelhetetlen. Én emiatt a tudatára ébredő AI-tól másokkal ellentétben egyáltalán nem tartok.
Más a helyzet, ha egy olyan algoritmikus modellt építünk, ami ok-okozati összefüggéseket lenne képes felállítani. Ez valószínűleg megépíthető, és ténylegesen forradalmasíthatná a gondolkodást. Nem tudatra ébredt gépről lenne szó, hanem egy olyan algoritmusról, ami megmondaná nekem, hogy A okozza B-t.
Qubit: És mit gondol, hogyan viszonyulna a keresztény vallás egy efféle algoritmushoz? Beszélhetnénk itt az emberhez hasonló ágensről?
Paolo Benanti: Az intelligencia azért nem csak az ember sajátja. A mesterséges intelligencia, aminek a birtokába jutunk, valószínűleg úgy lesz intelligens, ahogy a kutyák vagy a lovak. Gondoljunk csak arra, amikor hirtelen jön egy lavina, és ember kerül a hóréteg alá, a kutyák mutatják meg, hol kell elkezdenünk ásni. Nem tudjuk megmagyarázni, miért és hogyan csinálják, egyszerűen bízunk bennük, és megkapjuk az eredményt.
Valamilyen szinten ez történik a mesterséges intelligenciával is. Szóval a kutyához tudnám hasonlítani és ahhoz, ahogyan azzal bánunk: nem zaklatjuk vagy bánunk velük erőszakosan, de nem is tartjuk egyenrangúnak az emberrel.”
Forrás:
Íme az ember, aki magának a pápának ad tanácsot arról, hogy milyen legyen a mesterséges intelligencia etikája; Radó Nóra; Qubit.hu; 2022. május 12.
Lásd még: The Franciscan monk helping the Vatican take on — and tame — AI; Madhumita Murgia; Financial Times; 2022. április 7.