Skip to main content
gazdaságjogpolitikaszakirodalomtársadalom

Algoritmusok társadalma – beszélgetés Frank Pasquale-val

Szerző: 2021. május 24.No Comments

„…Frank Pasquale a Brooklyn Law School professzora, a mesterséges intelligencia és gépi tanulás jogának nemzetközileg elismert szakértője. A mérföldkő jelentőségű The Black Box Society: The Secret Algorithms That Control Money and Information és a New Laws of Robotics: Defending Human Expertise in the Age of AI című könyvek szerzője. Számos üzleti vállalat, valamint az amerikai kormányzat és az Európai Bizottság tanácsadójaként is szolgált. Munkássága úttörő az algoritmikus döntéshozatal „elszámoltathatósága”, az internetes platformok szabályozhatósága, illetve a magánszférához fűződő jog terén.

A digitális forradalom során az algoritmikus döntéshozatal szinte egy évtized leforgása alatt álomból valósággá vált. A The Black Box Society: The Secret Algorithms That Control Money and Information című könyvében arra tett kísérletet, hogy feltárja az algoritmusok életünkre és társadalomra gyakorolt hatásait. Milyen következtetéseket fogalmazott meg ezen a téren?

A digitalizáció sokrétű hatást gyakorol életünkre. Azonosítani lehet néhány olyan kulcsfontosságú mozzanatot, amely révén ez a hatalmi átformálódás befolyást gyakorol a mindennapi életünkre. Ezek közül az egyik a központosítás fele mutató tendencia. Mindebben persze az az irónia, hogy az internet első apostolai még a decentralizációs hatást hangsúlyozták. Vagyis a kiinduló pont a hierarchikus rend feloldása, a közvetítő vállalatok számának csökkentése volt. Ugyanakkor jelenleg éppen ennek az ellenkezőjét láthatjuk. Hatalmas amerikai és kínai vállalatok kezdik uralni a „digitális köztereket”, valamint emellett a kereskedelem „digitális üzleteit”.

Az amerikai, kínai és európai politikai döntéshozók előtt álló legnagyobb kihívás, hogy felveszik-e kesztyűt, és megküzdenek-e a hatalmas vállalatok centripetális erejű központosításával és megerősödésével szemben úgy, hogy feldarabolják vagy szabályozzák őket. Az első megoldást az jelentheti, ha a platformok és a kereskedelmi tevékenységet elkülönítjük egymástól. A második, Sabeel Rahman nevéhez köthető javaslat szerint, monopóliumoknak lehet őket tekinteni, amely alapján a működésük tekintetében szigorú szabályok alkothatók.

Egyre inkább olyan világban élünk, ahol az információ „egyénre szabott”. Ez azonban nem növeli, hanem éppen ellenkezőleg, csökkenteni a közpolitikai mérlegelési lehetőségeinket. Hogyan látja ezt a dilemmát?

Az automatizált „közterek” jelentős mértékben roncsolják a közakaratképzés folyamatát. Jómagam azt látom, hogy ez különböző szinteken zajlik. Ezek közül az egyik az információ szélsőséges méreteket öltő „egyéniesítése”, amely az üzenetközlés és az üzenetek értelmezésének fragmentálódását eredményezi.
Ez túlmutat a „szűrőbuborék” már jól ismert problémáján, amely miatt én személy szerint nem aggódom annyira. Az emberek hiteles politikai közösséget különféle méretű csoportokból tudnak építeni. Ugyanakkor mindez jóval nehezebb, ha mikroszinten zajlik egy politikai manipuláció. Vagyis például akkor, ha ugyanabban a háztartásban élő két ember egymástól teljesen eltérő hirdetéseket lát vagy ugyanabban az utcában sétálók teljesen eltérő információkkal rendelkeznek ugyanazon politikusról. Ráadásul úgy, hogy ezeknek az információknak egy része egyszerűen hamis vagy csak propaganda.

Ezek a problémák több szinten is kitapinthatók: az internetes közvetítő cégeknél, a médiában, a digitális pártoknál, amelyek manipulálják a közfelfogást és elterelik a figyelmet a valódi problémamegoldásról. Ugyanakkor a múltat sem szabad idealizálni.

Úgy vélem ugyanis, hogy komoly gondok voltak a demokratikus akaratképzéssel az 1990-es években főként azért, mert az újságok és a televíziós csatornák elhanyagolták a közérdekű kötelezettségeik teljesítését. Nehéz a két helyzet összehasonlítása, ugyanis ez a két „köztér” nem mérhető össze. Mégis azt gondolom, hogy most nagyobb veszélyben vagyunk a hírértelmezés „fragmentációja” miatt.

A 22-es csapdájához szokták hasonlítani a nagy technológiai vállalatok felelősségre vonhatóságát. Ha kiadóként akarják felelősségre vonni őket, akkor arra hivatkoznak, hogy ők valójában csak közvetítők. Ugyanakkor, ha a platformjaikhoz való hozzáférésről van szó, akkor ahhoz ragaszkodnak, hogy kiadók. Milyen kihívás elé állítja ez a jogalkotót?

Az egyik legalapvetőbb hibának tartom, ha a káros tartalom, mind például a gyűlöletbeszéd vagy a „fake news” szabályozása szempontjából a platformokat kiadókként vagy közvetítőkként csoportosítjuk. Ennek a különbségtételnek talán volt valami alapja az 1930-as évektől a korai 2000-es évekig.
Olyan szabályozást rendszert kellene tehát alkotni, amely egyensúlyt teremt a véleménynyilvánítás szabadságának értéke és a dezinformáció veszélyei között.

Ez az egyik oka az olyan jogi szabályozási rendszerek népszerűségének, amelyekben a veszélyes tartalmakat a platformoknak rövid idő alatt – 2 és 24 óra között – el kell távolítaniuk. Ha pedig ezt nem tennék meg, akkor felelősség terheli őket. Egy ilyen jogi rendszer ugyan nem lenne tökéletes, de jelentősen csökkentené a legkárosabb tartalmak terjedését. Egyszerűbben fogalmazva a médiaszabályozás kreativitására van szükség az újszerű kihívások kezelése terén.

Melyek a legnagyobb előnyei és hátrányai az európai, illetve az amerikai szabályozási és alkotmányos megközelítéseknek?Az amerikai megközelítés majdhogynem mindenkinek lehetővé teszi, hogy szinte mindent elmondhasson. Mindezzel elkerülhetők a politikai beszéd határvonaláról folytatott keserű viták. Ugyanakkor, ha valaki összehasonlítja, hogy mi az, ami még engedélyezett Amerikában, és mi, ami már tiltott Európában, akkor ez a mező nem is olyan nagy. A közéleti beszédnek vannak olyan részei, amelyek különös aggodalomra adnak okot, és az EU, illetve az uniós tagállamok komolyan elejét szeretnék venni ennek. Ehhez azonban az értékítéletekhez tartozó „nehéz kérdésekben” kell állást foglalniuk. Az amerikai megközelítés kulcsproblémája, hogy kedvez a demagógok felemelkedésének, akik végső soron lerombolják a véleménynyilvánítás szabadsága által nyújtott védelmet. Ezzel szemben az európai megközelítés dicséretre méltó eleme a kulturális támogatások közérdekként való elismerése. A sajtó és a kultúra támogatása ugyanis létfontosságú az egészségéhez közélet kialakulásához.

Az előző évszázad elején élt híres amerikai bíró, Louis Brandeis óva intett a „nagyság átka” kapcsán. Véleménye szerint ugyanis a nagy trösztök azon túl, hogy gazdasági értelemben nem hatékonyak, fenyegetést jelentenek a jogokra és a politikai rendszerre. Ennek fényében milyen szerepet játszhat a versenyjogi szabályozás a „Big Tech” alkotmányos értékekre gyakorolt káros hatásainak orvoslása terén?

Dacára annak, hogy ritkán hozzák fel, a versenyjogi szabályok és az alkotmányos értékek közötti összefüggés rendkívül fontos. Amennyiben ezek a platformok dominánssá válnak, és így teljes ellenőrzést gyakorolnak a digitális társadalmi élet egy-egy szelete fölött, mint ahogy például a Twitter a mikro blogok, a Google az internetes keresés vagy a Facebook a közösségi média fölött, úgy államokhoz kezdenek hasonlítani. Erről a jelenségről a „functional sovereignty” című korábbi írásomban már felhívtam a figyelmet. A platformok úgy működnek a társadalomban, hogy közben a közélet bizonyos funkciói felett monopóliumot gyakorolnak. A versenyjogi szabályok optimális esetben azt biztosíthatják, hogy a felhasználók szabadan hagyhatják el a platformot, ha annak szabályait túlságosan nyomasztónak találnák. További fontos lépést jelentene a Facebook, a WhatsApp és az Instagram szétválasztása, amely véget vethet a felhasználók teljes megfigyelésének.

A kormányzati beavatkozás további területe a szélsőséges vélemények és a demokratikus berendezkedés közötti feszültséget érinti. Amikor a Twitter kitiltotta Donald Trumpot, sok liberális, centrista és mérsékelt jobboldali azon a véleményen volt, hogy ez egy magáncég, és így végtérre azt tesz, amit akar. Ez azonban túlságosan leegyszerűsítő nézet. Valójában a Twitter közfeladatot vállalt magára és ezért ez a döntése egy közhatalmi, állami döntéssel ér fel.

Hogyan lehet előmozdítani az algoritmikus döntéshozatal „elszámoltathatóságát”, és milyen etikai megfontolások érvényesíthetők a mesterséges intelligencia terén?

Mihelyst a „The Black Box Society” könyvem megjelent számos szakértő azt rótta a terhére, hogy „valójában ami miatt aggódom, az a technológiai ökoszisztéma, nem pedig csak az algoritmusok.” Ezt a kritikai meglátást igaznak tartom, és úgy vélem, hogy látens módon a könyvben is elismertem. Ugyanakkor mindenképpen érdemes szem előtt tartani, ugyanis ez a kritika rávilágít arra, hogy az algoritmusok akkor jutnak szerephez, amikor az emberek vagy vállalatok „távolról” akarnak diagnózist felállítani, értékelni vagy döntéseket hozni. Ahelyett, hogy közvetlenül vizsgálnának meg vagy döntenének el egyéni eseteket, a döntéshozók ezekben az esetekben egy képletet vagy szabályt készítenek, amely a személyeket adathalmazzá alakítja. Ráadásul gyakran kis, részben és pontatlan adatsorrá.
A technológiai vállalatok automatikusan döntést hoznak még azt megelőzően, hogy az érintett személynek lehetősége lenne jogorvoslatért folyamodnia olyan fórumhoz, amely rugalmasan és az egyéni szempontjaikat mérlegelve járhat el. Emiatt gondolom azt, hogy a jogorvoslat biztosítása az elszámoltathatóság alapvető pillérét jelenti. Az antidiszkriminációs törvények szintén kulcsjelentőségűek. A téves adatok ugyanis számos társadalmi csoport sérelmére diszkriminálhatnak. A prediktív technológiák alkalmazása rémisztő jövőt sejtet, ha egyfajta „fekete doboz” módjára befolyásolhatják az emberek megélhetését és lehetőségeit. Éppen ezért olyan garanciákat kell az algoritmusokba építeni, amelyek felismerik a fontos emberi érdekeket és védik az emberi jogokat. Azokat a rendszereket kell kiküszöbölni, amelyekben az ember kiszolgáltatott, tehetetlen, és ennél fogva az elidegenedés veszélye fenyegeti.

Napjaink egyik filozófiai jellegű kérdése, hogy hol is húzódik a határvonal az emberi képességek javítása és kiváltása között. A nemrégiben publikált könyve a New Laws of Robotics: Defending Human Expertise in the Age of AI éppen ezt a dilemmát feszegeti. Véleménye szerint hol húzható meg ez a határvonal?

Engedje meg, hogy egy példát hozzak a könyvemből. Az orvoslás terén érdekes partnerségek alakulnak ki az ápolók és a robotok között. Az egyik ezek közül a Robear, egy olyan robot, amelyet azért alkottak, hogy segítsen az ápolóknak az ágyból felemelni a betegeket, különösen a nehezebb betegeket. Ez azért fontos találmány, mert sok ápoló ortopédiai problémákkal küzd, ugyanis nehéz betegeket vagy olyan betegeket emel, akikkel óvatosan kell bánni. A robotot arra tervezték, hogy a beteget az egyik ágyból a másikba vagy az ágyból a székbe emelje anélkül, hogy az ápolónak különösebb fizikai erőfeszítést kellene kifejtenie. Ez jó példa arra, hogyan nyújt segítséget a mesterséges intelligencia és a robotika anélkül, hogy helyettesítené vagy kiváltaná a szakmabélieket. Ez egy viszonylag szűk és jól körülhatárolt terület, az ápoló folyamatosan jelen van és a robot csak segítséget nyújt számára. Úgy gondolom, hogy egyre több olyan példával találkozhatunk majd, amikor egy-egy rutinfeladatot robotok látnak el.

És mikor beszélhetünk arról, hogy a robot már nemcsak segít, hanem emberi funkciókat vesz át?

A mesterséges intelligenciát fejlesztők olyan rendszereken is dolgoznak, amelyek nemcsak fizikai feladatot látnak el, hanem például a gondozási funkciókat is betöltenek, így például empátiát próbálnak sugározni. Képzeljük el azt a robotot, ami szomorúan néz, amikor a betegnek fájdalmai vannak vagy boldog vonások jellenek meg „arcán”, amikor a beteg jobban van. Ez az a határvonal, amikor azt gondolom, hogy a robot már nemcsak kiegészíti, hanem átveszi az ápolók funkcióit. Emberiességhez tartozó vonásokat hamisít, emberi érzéseket színlel. Másként fogalmazva a robot emberi érzéseket utánoz még akkor is, ha nincsenek ilyen érzései.

Ez egy rossz szolgálat mind a betegekkel, mind az ápolókkal szemben, akik hivatásuknál fogva arra képeztek ki, hogy megfelelően bánjanak a betegekkel és empátiát mutassanak feléjük. Azért csak az emberek képesek ezt a feladatot ellátni, mert ők tapasztaltak fájdalmat és csalódást, valamint örömöt és elégedettséget a saját életükben. A robot ilyet soha nem érzett. A szabályozásnak ezt szem előtt kell tartania.”

Forrás:
Algoritmusok társadalma – beszélgetés Frank Pasquale-val; Sándor Lénárd; Mandiner Precedens; 2021. május 14.