Skip to main content
Uncategorized

A mesterségesintelligencia-rendszerek határozott szabályozását sürgették az Egyesült Államok szenátusában

Szerző: 2023. május 22.No Comments

„A ChatGPT-t kifejlesztő cég vezérigazgatója szigorúbb szabályokat kért magára. Az amerikai szenátus előtt tanúskodott Christina Montgomery, az IBM alelnöke és adatvédelmi igazgatója, valamint Gary Marcus, a New York-i Egyetem volt professzora, az MI „hype” önjelölt kritikusa is. [A nyegle megfogalmazás által sugalltak ellentétben, nincs olyan, hogy hivatásos és hivatalos kritikus.Szerk.]

Meghallgatást tartott a mesterséges intelligencia témájában az amerikai szenátus igazságügyi bizottsága, mert az OpenAI által készített ChatGPT sikere aggodalmakat váltott ki egyes törvényhozókból a technológia jelentette kockázatokkal kapcsolatban. Az elmúlt hónapokban kiderült, hogy gyakorlatilag minden IT-cég a technológia valamilyenfajta implementálásán dolgozik a saját alkalmazásaiba, és amelyik nem így tesz, azt a tőzsde keményen megbünteti. Ezek az új alkalmazások megváltoztatják a munkavégzés, a vásárlás és az egymással való interakcióink módját, de egyben munkahelyek millióinak megzavarására, téves információk terjesztésére és előítéletek fenntartására is alkalmasak.

A keddi meghallgatást Richard Blumenthal szenátor saját hangjának hamisított felvételével indította. Ennek szövegét – mely szerint nem szabad megengedni, hogy a mesterséges intelligencia szabályozatlan környezetben bontakozzon ki – a ChatGPT írta és Blumenthal korábbi tényleges felszólalásairól készült hangfelvételek betanításával saját hangjának ritmusát és hangszínét másolták le. Blumenthal kifejtette, hogy bár a ChatGPT a törvényhozó valódi nézeteinek megfelelő szöveget írt, ugyanilyen könnyen előállíthatta volna „Ukrajna megadásának vagy Vlagyimir Putyin vezetésének támogatását8. Ez – mondta – „igazán ijesztő lett volna”.

Sam Altman nyitóbeszédében a törvényhozókat a mesterséges intelligencia szabályozására szólította fel, és a technológia jelenlegi fellendülését a könyvnyomtatás feltalálásához hasonlította. „Úgy gondoljuk, hogy a kormányok szabályozói beavatkozása kritikus fontosságú lesz az egyre erősebb modellek kockázatainak mérsékléséhez” – mondta Altman. Szerinte az amerikai kormánynak meg kellene fontolnia olyan szabályok bevezetését, amelyek megkövetelnék a vállalatoktól, hogy engedélyt szerezzenek olyan MI-modellek létrehozására, amelyek egy bizonyos küszöbértéket meghaladó fejlett képességekkel rendelkeznek. Dick Durbin szenátor ezen a ponton „történelmi pillanatnak” nevezte a meghallgatást. „Nem emlékszem, hogy valaha is előfordult volna, hogy nagyvállalatokat vagy magánszervezeteket képviselő emberek eljöttek volna, és könyörögtek volna, hogy szabályozzuk őket8 – mondta Durbin.

Ez az álláspont meglehetősen meglepő az OpenAI vezetőjétől, amely cég nagy teljesítményű gépi tanulási modellekre tette fel a jövőjét, de talán van benne logika, ha azt nézzük hogy ez a riválisok kizárásához vezethet a piacról. A követelmények túl keménynek bizonyulhatnak a kisebb cégek számára, míg az OpenAI-hoz hasonló, jól finanszírozott szervezetek továbbra is virágozhatnak. Amikor Altmant az engedélyezési küszöbértékkel kapcsolatban kérdezték, azt válaszolta: „Szerintem egy olyan modell, amely képes meggyőzni, manipulálni vagy befolyásolni egy személy viselkedését vagy meggyőződését – ez lenne a jó küszöbérték. Vagy egy olyan modell, amely segíthet új biológiai szerek létrehozásában – ilyen dolgok.”

A legmodernebb mesterséges intelligencia-rendszerek kifejlesztése nehéz, és jelentős, drága és szűkös hardverforrásokat igényel. Sok szakértő attól tart, hogy a technológiát monopóliumokat létrehozó óriásvállalatok fogják ellenőrizni. Altman elismerte, hogy a fejlesztők nagyszerű nyílt forráskódú technológiát építenek, de általában nem képesek versenyképes modelleket építeni. Szerinte ha csak néhány nagy szereplő van, akkor a mesterséges intelligenciát könnyebb lesz szabályozni – de a hatalom koncentrációjának vannak hátulütői is.

Gary Marcus, a New York-i Egyetem pszichológia és idegtudományok nyugalmazott professzora, a Robust AI és a Geometric Intelligence startupok alapítója elmesélte, hogy a chatrobotok milyen módon tudják az embereket hamis információk elhitetésébe vagy káros és kockázatos viselkedésbe kergetni. Marcus rámutatott egy esetre, amelyben a ChatGPT hamisan vádolt meg egy jogászprofesszort szexuális zaklatással, egy másik esetben pedig a Snapchat mesterséges intelligenciája azt tanácsolta egy 13 éves lánynak, hogy hazudjon a szüleinek egy 31 éves férfival való találkozóról. „Az ilyen válaszok azért lehetségesek, mert a mesterséges intelligencia ugyan képes nyelvtani hibáktól mentes, összefüggő szöveget generálni, de nem érti a nyelvet” – vélekedett. „Nem tudja, mi a valóság és mi nem. A generatív mesterséges intelligencia ezért gyakran tényeket gyárt és nem megfelelő válaszokat ad.”

A mesterséges intelligencia rendszerek hatalmas adathalmazokat használnak a nyelvi modellek betanításához. Ezek az adatkészletek alakítják ki, hogy a chatbot hogyan válaszol a felhasználó lekérdezésére. „Akik az adatokat kiválasztják, azok fogják a szabályokat is megalkotni” – mondta Marcus. „Valós veszélye van egyfajta technikai technokrácia és oligarchia kombinációjának, ahol egy kisszámú vállalat befolyásolja az emberek meggyőződését ezeknek a rendszereknek a természetén keresztül. Ezek finoman alakíthatják a meggyőződésünket, és óriási befolyással lehetnek arra, hogy hogyan éljük az életünket. És ha ezt egy kisszámú szereplő teszi olyan adatokkal, amelyekről nem is tudunk… ez megrémít engem” – mondta Marcus.

Az emberek ennek ellenére egyre inkább a mesterséges intelligenciával működő chatbotokhoz fordulnak információért, aminek nyilvánvaló hátrányai vannak, ha ez félretájékoztatás terjedését eredményezi. „Minél inkább ez történik, annál inkább bárki bármit letagadhat. Egy neves ügyvéd arról panaszkodott nekem, hogy az alperesek kezdik azt állítani, hogy a felperesek bizonyítékokat találnak ki. Az ilyen állítások aláássák az esküdtek képességét, hogy eldöntsék mit vagy kinek higgyenek, és hozzájárulnak a demokrácia aláásásához” – mondta Marcus. Altman azonban más platformok szerepét emelte ki. „Ez egy olyan eszköz, amelyet a felhasználó arra használ, hogy a korábbinál hatékonyabban segítsen neki tartalmat generálni” – mondta Altman a ChatGPT-ről. „De ez a tartalom – beleértve a dezinformációt is – továbbra is a közösségi médián keresztül terjed.”

A felszólalók elismerték, hogy a mesterséges intelligencia megszüntethet néhány munkahelyet, de újakat is teremthet. „Lesz hatása a munkahelyekre” – mondta Altman Blumenthalnak. „Ezt igyekszünk nagyon világosan kommunikálni, és úgy gondolom, hogy az ipar és a kormányzat közötti partnerségre lesz szükség, de leginkább a kormányzat fellépésére, hogy kitaláljuk, hogyan akarjuk ezt mérsékelni. De nagyon optimista vagyok azzal kapcsolatban, hogy a jövő munkahelyei nagyszerűek lesznek.” Hangsúlyozta, hogy az MI egy eszköz, nem pedig „teremtmény8, és hogy az MI „a feladatokban segíthet, nem pedig a munkahelyekben”.

Christine Montgomery, az IBM adatvédelmi és bizalmi igazgatója sürgette a kongresszust, hogy a széles körű, az innovációt korlátozó politikák helyett olyan szabályokat állapítson meg, amelyek a mesterséges intelligencia konkrét felhasználási esetekben történő alkalmazását szabályozzák. Azt javasolta, hogy az amerikai kormány „különböző kockázatokra különböző szabályokat” alkalmazzon. „A legerősebb szabályozást az emberekre és a társadalomra nézve a legnagyobb kockázatot jelentő felhasználási esetekre kell alkalmazni. Egyértelmű iránymutatást kell adni az MI felhasználására vagy az MI által támogatott tevékenységek azon kategóriáira, amelyek eleve magas kockázatúak. Ez a közös meghatározás kulcsfontosságú ahhoz, hogy világosan lehessen érteni milyen szabályozási követelmények vonatkoznak a különböző felhasználási esetekre és összefüggésekre” – érvelt beszédében.

Montgomery óva intett attól, hogy a Szilícium-völgyi óriások, például a Facebook régi mantrája diadalmaskodjon, miszerint „gyorsan lépj és törj össze dolgokat”. Kiemelte azokat a lépéseket, amelyeket a vállalatok már megtettek a mesterséges intelligencia jövőjére való felkészülés érdekében. Megjegyezte, hogy az ő munkája, amely az IBM-nél az adatvédelemre és a bizalomra összpontosít, egy évtizeddel ezelőtt még nem létezett. „Új munkahelyek jönnek létre, mások helyébe újak lépnek, és fontos, hogy a mai munkaerőt felkészítsük erre a jövőre” – mondta Montgomery.

Az adatvédelmi, technológiai és jogi albizottság meghallgatását vezető szenátorok, valamint a három meghívott felszólaló nagyrészt támogatták egy olyan intézmény létrehozásának gondolatát, amely a mesterséges intelligencia szabályozására és ellenőrzésére összpontosítana. Abban azonban nem értettek egyet, hogy kinek kellene szabályozóként eljárnia. Marcus szerint egy kutatókból álló semleges nemzetközi szervezetre lehet szükség. Néhány szenátor és az OpenAI vezérigazgatója, Altman egy erre szakosodott szövetségi ügynökség felállításáról beszélt. Altman szerint az ügynökség feladata lehetne, hogy engedélyeket adjon a vállalatoknak, amelyek lehetővé teszik számukra, hogy olyan modelleket készítsenek, amelyek biztonsági korlátokkal rendelkeznek, és hatáskörrel rendelkezne az engedélyek visszavonására, ha a modellkészítők megszegik a szabályokat.

John Kennedy szenátor odáig ment, hogy megkérdezte Altmant, hogy ő maga alkalmas-e egy ilyen csoport vezetésére. „Szeretem a jelenlegi munkámat” – válaszolta. Josh Hawley szenátor a perekben hisz. „Miért nem hagyjuk, hogy az emberek bepereljék? Miért nem tesszük egyszerűen felelőssé önöket; létrehozunk egy szövetségi kereseti jogot, amely lehetővé teszi, hogy azok a magánszemélyek, akiket ez a technológia károsít, bíróság elé álljanak, és bizonyítékokat vigyenek be a bíróságra. És ez bárki lehet” – folytatta. Hawley elmondta, hogy szeretné megkönnyíteni a mesterséges intelligencia által megkárosított fogyasztók számára – mint például az orvosi vagy választási félretájékoztatás generálása -, hogy csoportos kereseteket indíthassanak a technológiát kifejlesztő vállalatok ellen.

Marcus azonban nem értett egyet, szerinte a jogrendszer túl lassan mozog ahhoz, hogy hatékonyan szabályozza a technológiát. Az sem világos, hogy a jelenlegi jogszabályok képesek-e kezelni a mesterséges intelligencia hatását az aktuális kérdésekre, például a szerzői jogokra, a félretájékoztatásra, vagy hogy a vállalatok felelősségre vonhatók-e azért, amit a chatbotok mondanak, vagy hogy védelmet élveznek-e az amerikai törvények értelmében, amelyek mentesítik a kiadókat a felelősség alól az általuk befogadott, de harmadik fél által létrehozott tartalmakért. „Sok olyan helyzet adódik, amikor nem igazán tudjuk, hogy mely törvények alkalmazandók. Lesznek kiskapuk, a rendszer nincs jól átgondolva” – mondta.

Montgomery optimistább volt az amerikai kormány ellenőrzési képességével kapcsolatban, és kifejezte meggyőződését, hogy a jelenlegi szabályozók képesek kezelni a jelenlegi problémákat. „Úgy gondolom, hogy nem akarjuk lelassítani a szabályozást, hogy a valós kockázatokat most kezeljük. Meglévő szabályozó hatóságaink vannak, akik világosan megmondták, hogy a saját területükön képesek szabályozni”. Az elmúlt hónapokban olyan ügynökségek, mint a Szövetségi Kereskedelmi Bizottság és az Igazságügyi Minisztérium határozottan megfogalmazott nyilatkozatokat adtak ki, amelyekben arra figyelmeztettek, hogy le fognak csapni azokra az MI-vállalkozásokra, amelyek megsértik a polgári jogokat és a fogyasztóvédelmi törvényeket.

A törvényhozók párhuzamot vontak a mesterséges intelligencia és a közösségi média között. Blumenthal hangsúlyozta, hogy nem szabad „megismételni a hibáinkat” a közösségi média gyors terjedésének kezelésében, amely a gyermekek és a személyes adatok védelme terén beláthatatlan károkat okozott. „A kongresszusnak van választási lehetősége. A közösségi médiával kapcsolatban is megvolt ez a lehetőségünk, és nem tettünk eleget ennek a pillanatnak” – mondta a szenátor.

A mesterséges intelligenciamodellek betanításához használt adatok nagymértékben befolyásolják a képességeket, a teljesítményt és a viselkedést. A döntéshozók az adatok ellenőrzését javasolták a modell megértése érdekében, valamint annak biztosítására, hogy a felhasznált adatkészletek jó minőségűek legyenek, és ne sértsenek szerzői jogvédelem alatt álló tartalmakat. A magánélet védelme szintén kiemelt aggodalomra ad okot. Olaszország, Franciaország, Spanyolország és Kanada hatóságai vizsgálatot indítottak annak kiderítésére, hogy a ChatGPT adathalmaza miért tartalmaz személyes adatokat, például telefonszámokat és címeket. Az sem világos, hogy a felhasználók által megadott – önmagukban is érzékeny – információkat hogyan használják fel vagy tárolják. A Samsung például ideiglenesen megtiltotta az alkalmazottaknak az eszköz használatát, miután az egyik dolgozó kiszivárogtatott egy védett forráskódot.

Altman elmondta, hogy szerinte a felhasználóknak lehetőséget kellene adni arra, hogy ne használhassák fel adataikat a modellek képzéséhez, és hogy az OpenAI-hoz hasonló vállalatoknak meg kellene könnyíteniük az emberek számára az adataik törlését. A múlt hónapban a San Francisco-i székhelyű startup bevezetett egy olyan funkciót, amely lehetővé teszi a felhasználók számára, hogy kikapcsolják a ChatGPT-ben a csevegési előzményeiket, hogy megakadályozzák az adataik felhasználását.

„Olyan lesz, mint a nyomdagép, amely széles körben terjesztette a tudást, a hatalmat és a tanulást, és amely a hétköznapi emberek számára lehetővé tette a mindennapi életet? Ami nagyobb virágzáshoz, és mindenekelőtt nagyobb szabadsághoz vezetett? Vagy inkább olyan lesz, mint az atombomba: hatalmas technológiai áttörés, de a következmények súlyosak, szörnyűek, és a mai napig kísértenek minket?” – kérdezte Hawley szenátor. „Nem hiszem, hogy a teremben ülők közül bárki is tudja a választ erre a kérdésre. Úgy gondolom tehát, hogy ez a válasz még nem íródott meg. És bizonyos mértékig rajtunk, itt és rajtunk, az amerikai népen múlik, hogy megírjuk a választ” – tette hozzá.

Az ipari és akadémiai szakértők egyetértenek abban, hogy a mesterséges intelligencia gyorsan fejlődik, és újszerű társadalmi kockázatokat és kihívásokat jelent. Azt akarják, hogy a szabályozási politikák a biztonsági kérdéseket kezeljék, anélkül, hogy akadályoznák a kutatást és a fejlesztést. „Szerintem fontos, hogy bármilyen új megközelítés, bármilyen új törvény ne akadályozza meg az innovációt a kisebb vállalatoknál, a nyílt forráskódú modelleknél, a kisebb léptékben dolgozó kutatóknál. Ez egy csodálatos része ennek az ökoszisztémának és Amerikának. Nem akarjuk ezt lelassítani” – zárta szavait Altman. A meghallgatás láthatóan hozzájárult Altman közmegítélésének javításához. Az OpenAI vezetőjét a ChatGPT-őrület kezdete óta néha úgy ábrázolták, mint egy olyan újabb technológiai startup vezető, aki meglovagolja az erőteljes iparági hullámot. Marcus elmondta, hogy Altmannal együtt megjelenni a bizottság előtt pozitív élmény volt. „Hadd tegyem hozzá a jegyzőkönyv kedvéért, hogy Sam mellett ülök” – mondta Marcus – „és az őszintesége, ahogyan ezekről a félelmekről beszél, nagyon nyilvánvaló”.”

Forrás:
Engedélyhez kötné a mesterséges intelligenciák létrehozását az OpenAI vezetője; SG.hu; 2023. május 17.
Lásd még:
Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI; Tech Policy Press; 2023. május 16.