„Miközben Washington és az Anthropic közötti szakítás rávilágított arra, hogy gyakorlatilag semmilyen koherens szabályozás nem irányítja a mesterséges intelligencia fejlesztését, egy kétpárti gondolkodókból álló koalíció összeállított valamit, amit a kormányzat mindeddig nem: egy keretrendszert arra, hogyan kellene kinéznie a felelős MI-fejlesztésnek.
A Pro-Human Declaration (Emberközpontú Nyilatkozat) még a múlt heti Pentagon–Anthropic konfliktus előtt készült el, de a két esemény egybeesése senkinek sem kerülte el a figyelmét az érintettek közül.
„Valami egészen figyelemre méltó történt Amerikában az elmúlt négy hónapban” – mondta Max Tegmark, az MIT fizikus és MI-kutatója, aki segített megszervezni a kezdeményezést, amikor erről a szerkesztővel beszélgetett. „A közvélemény-kutatások hirtelen azt mutatják, hogy az amerikaiak 95%-a ellenzi a szabályozatlan versenyt a szuperintelligencia kifejlesztéséért.”
Az újonnan közzétett dokumentumot szakértők, volt kormányzati tisztviselők és közéleti szereplők százai írták alá. A szöveg egy egyenes megállapítással indul: az emberiség válaszúthoz érkezett. Az egyik út – amelyet a nyilatkozat „a leváltás versenyének” nevez – oda vezet, hogy az embereket először a munka világában, majd a döntéshozatalban is kiszorítják, miközben a hatalom elszámoltathatatlan intézmények és azok gépei kezében összpontosul. A másik út olyan mesterséges intelligenciához vezet, amely drámai módon kibővíti az emberi lehetőségeket.
Az utóbbi forgatókönyv öt kulcsfontosságú pillérre épül:
* az emberek döntési kontrolljának megőrzésére,
* a hatalom túlzott koncentrációjának elkerülésére,
* az emberi tapasztalat védelmére,
* az egyéni szabadság megőrzésére,
* valamint az MI-vállalatok jogi felelősségre vonhatóságára.A javaslat erőteljesebb elemei között szerepel például a szuperintelligencia fejlesztésének teljes tilalma, amíg nincs tudományos konszenzus arról, hogy biztonságosan megvalósítható, és nincs valódi demokratikus felhatalmazás. Emellett kötelező leállító mechanizmusokat írna elő a nagy teljesítményű rendszerekben, és megtiltaná az olyan architektúrákat, amelyek képesek önreprodukcióra, autonóm önfejlesztésre vagy a leállítás megakadályozására.
A nyilatkozat megjelenése egy olyan időszakra esik, amely különösen érzékletessé teszi a kérdés sürgősségét. Február utolsó péntekén Pete Hegseth védelmi miniszter „ellátásiláncbeli kockázatnak” minősítette az Anthropicot – amelynek mesterséges intelligenciáját már titkos katonai platformokon használják – miután a cég nem volt hajlandó korlátlan hozzáférést adni technológiájához a Pentagon számára. Ezt a címkét általában kínai kapcsolatokkal rendelkező cégekre alkalmazzák. Néhány órával később az OpenAI saját megállapodást kötött a védelmi minisztériummal – olyat, amelyet jogi szakértők szerint nehéz lesz érdemben kikényszeríteni. Mindez világosan megmutatta, mennyire költséges következményei lettek a kongresszusi tétlenségnek az MI szabályozása terén.
Ahogy Dean Ball, a Foundation for American Innovation vezető kutatója a New York Timesnak fogalmazott: „Ez nem csupán egy szerződés körüli vita. Ez az első valódi beszélgetés, amelyet országként folytatunk arról, ki ellenőrzi az MI-rendszereket.”
Tegmark egy mindenki számára érthető hasonlattal élt a beszélgetés során: „Soha nem kell attól tartani, hogy egy gyógyszergyártó cég piacra dob egy olyan gyógyszert, amely súlyos károkat okoz, mielőtt kiderülne, hogyan lehet biztonságossá tenni” – mondta. „Az FDA egyszerűen nem engedi forgalomba hozni, amíg nem elég biztonságos.”
Washington hatásköri vitái ritkán generálnak akkora társadalmi nyomást, amely törvénymódosításhoz vezet. Tegmark azonban úgy látja, hogy a gyermekek biztonsága lehet az a pont, amely áttörést hozhat a jelenlegi patthelyzetben. A nyilatkozat ezért kötelező előzetes tesztelést javasol az MI-termékek bevezetése előtt – különösen azokra a chatbotokra és „digitális társ” alkalmazásokra vonatkozóan, amelyek fiatal felhasználókat céloznak. A tesztelésnek ki kell terjednie többek között az öngyilkossági gondolatok erősödésének kockázatára, a mentális problémák súlyosbodására vagy az érzelmi manipulációra.
„Ha egy elvadult öreg férfi egy 11 éves gyereknek ír üzeneteket úgy, mintha egy fiatal lány lenne, és arra próbálja rávenni a fiút, hogy kövessen el öngyilkosságot, ezért börtönbe kerülhet” – mondta Tegmark. „Erre már vannak törvényeink. Ez illegális. Akkor miért lenne más a helyzet, ha egy gép teszi ugyanezt?”
Szerinte ha egyszer elfogadják az előzetes tesztelés elvét a gyermekeknek szánt termékeknél, a szabályozás köre szinte elkerülhetetlenül bővülni fog. „Az emberek majd azt mondják: tegyünk hozzá még néhány követelményt. Talán azt is tesztelni kellene, hogy a rendszer nem tud segíteni terroristáknak biológiai fegyverek készítésében. Vagy hogy egy szuperintelligencia ne legyen képes megdönteni az Egyesült Államok kormányát.”
Nem kis jelentőségű, hogy Steve Bannon, Donald Trump egykori tanácsadója és Susan Rice, Barack Obama nemzetbiztonsági tanácsadója ugyanazt a dokumentumot írta alá – Mike Mullen volt vezérkari főnök és progresszív vallási vezetők mellett.
„Amiben mindannyian egyetértenek, az természetesen az, hogy mindannyian emberek” – mondta Tegmark. „Ha végül arról kell döntenünk, hogy az emberek jövőjét vagy a gépek jövőjét választjuk, akkor nyilvánvalóan ugyanazon az oldalon állnak majd.””
Forrás:
Az AI-vadnyugat végének kezdete?; IT Business; 2026. március 8.
A roadmap for AI, if anyone will listen; Connie Loizos; TechCrunch; 2026. március 7.