Skip to main content
gazdaságinformatikatechnikatudomány

Elon Musk és társai szerint az MI-rendszerek veszélyesek lehetnek a társadalomra, ezért időlegesen, bizonyos rendszerek fejlesztését le kellene állítani

Szerző: 2023. április 3.No Comments

„Elon Musk és más szakértők, cégvezetők szerint az AI veszélye

Továbbra is tucatnyi bejelentés érkezik napi szinten a nagyobb tech cégektől AI-funkciók és -fejlesztések terén, ezeket gyakorlatilag követni is egész napos elfoglaltsággá válik.

A Microsoft nem hajlandó lassítani, mindenbe beépíti a legújabb OpenAI nagy nyelvi modellt, a GPT-4-es generatív AI-t. A kiberbiztonsági szakembereknek például a Security Copilot AI-alapú eszközzel segítene azonosítani a szivárgásokat, támadásokat, fenyegetéseket, segíteni az elemzéseket.

A trend persze rég szemet szúrt a politikusoknak is, minden országban készülnek már a szabályozásokra, és az EU is dolgozik az AI-törvénycsomagot képviselő javaslatokon, új AI-hatóságon. A jelentések szerint azonban annyira gyorsan változik a technológia, hogy problémát jelent ezek összeállítása.

Az USA-ban már nemzetbiztonsági kockázatként elemzik az AI-t, és az oktatásra is veszélyesnek látják. Az Europol pedig sötét jövőre figyelmeztet a kiberbűnözés, adathalászat, tévinformációk, propaganda kapcsán.

Ideje leállni

Ahogyan arra itt is kitértünk a korábbi írások egy részére hivatkozva, mindent átformál az AI-őrület, a közösségi médiától és újságírástól kezdve az autóiparon, üzleti életen át az ügyvédi és irodai munkáig, videojátékok fejlesztéséig, párkapcsolatokig, megfigyelésig, szabadalmi jogokig.

Elon Musk már korábban is jelezte, hogy fél az AI-őrülettől, most pedig egy csoport más szakértővel és cégvezetővel együtt aláírt egy levelet, amelyben mindenkit felszólítanak az AI-rendszerek fejlesztésének leállítására, legalább 6 hónapra. Konkrétan tiltanák a GPT-4-nél erősebb rendszerek fejlesztését, ugyanis meglátásuk szerint ezek veszélyesek az emberiségre, a társadalomra.

A GPT-4 újdonságai közé tartozott, hogy emberszerű beszélgetésre, dalok szerzésére és hosszú dokumentumok összegzésére is képessé vált. A Future of Life Institute levele szerint azonban ilyen rendszereket csak akkor szabadna fejleszteni, ha biztosak vagyunk abban, hogy pozitív hatásokat és kezelhető kockázatokat hoznak. A non-profit szervezetet több csoport hozta létre, egyik legnagyobb alapítója a Musk Foundation. Musk pedig tudja miről beszél, hiszen társalapítója az OpenAI-nak és a Tesla is AI-t használ az önvezetőnek mondott rendszeréhez. Utóbbi hatósági kritikáját és a sorozatosan előírt, hibás működés és balesetek miatti visszahívásokat folyamatosan bírálja ugyan, de az AI-fejlesztések azonnali törvényi szabályozását sürgeti.

A nyílt levél szerint mindenki által átvett biztonsági protokollokra van szükség, amelyeket független szakértők alakítanak, a fejlesztőknek pedig a kormányzatokkal és hatóságokkal kellene együtt dolgozniuk. Felhívják a figyelmet arra is, hogy gondoljuk át, akarjuk-e, hogy ellepje az életünket a propaganda, a tévinformációk és az álhírek, amelyek valódiságát közel lehetetlen lesz ellenőrizni. A választ arra, hogy akarunk-e fejleszteni nálunk okosabb és több, minket leváltó nem emberi elméket; a levél szerint nem az önjelölt tech vezéreknek kell eldönteni.

Szakértők szerint ha a levél nem is tökéletes, de jó irányt mutat: le kell lassítani, amíg mindent megértünk, már csak azért is, mert a fejlesztések egyre nagyobb titoktartások mellett folynak, így a társadalom sem tud reagálni a várható károkra, mondják a szakemberek. Pedig a tech cégek és befektetők szeme előtt jelenleg kizárólag a további gyorsítás és AI-verseny lebeg, a legjobb technológiák, erőforrások és rendszerek pedig egy pár óriáscég kezében vannak.”

Forrás:
Musk szerint ideje leállni, az AI veszélyes az emberiségre; Harangi László; IT café; 2023. március 30.