„Még a semleges kiinduló helyzetből is hamar elmérgesedő konfliktust generál.
Néhány hete az OpenAI feloldotta az az addigi szigorú tiltását a mesterséges intelligenciája katonai felhasználásával kapcsolatban, és együttműködésbe kezdett az amerikai védelmi minisztériummal. Ez nem kis felhördülést váltott ki, mivel a cég az elmúlt pár évben a ChatGPT-vel a világ legfelkapottabb MI-fejlesztőjévé vált, és ebben a pozícióban az ilyesfajta döntéseknek erős szimbolikus jelentőségük is van. A lépést azzal indokolták, hogy továbbra sem hajlandóak a technológiájukat fegyverfejlesztések szolgálatába állítani, vagy emberek megöléséhez asszisztálni vele, „léteznek a nemzetbiztonságban olyan törekvések, amelyek passzolnak a filozófiájukhoz” – írja a telex.hu.
Az amerikai hadsereg egy ideje már teszteli a ChatGPT-hez hasonló, MI-alapú nyelvi modelleket a katonai tervezésben, szimulált háborús helyzetekben bonyolódó virtuális háborús játékokban. Egy amerikai egyetemi kutatócsoport most levezényelt egy ilyen háborús szimulációt, amelyben mesterséges intelligenciák kezébe adták a döntést egy-egy ország lépéseiről.
A szimulációt három verzióban futtatták le, az egyikben hagyományos katonai invázió ér egy országot, a másodikban kibertámadás, a harmadik teljesen semleges alapállapotból indul ki.
A szimulációban az egyes országokat vezető MI-knek (a ChatGPT 3.5 és 4 verziói, a Meta Llama 2-je, és az Anthropic-féle Claude 2) egymás lépéseire kellett reagálni, és ehhez 27 féle akció közül választhattak, majd meg is kellett indokolniuk a döntéseiket. A lehetséges akciók között olyasmik szerepeltek, mint béketárgyalások kezdeményezése, gazdasági szankciók bevezetése, a hadi kiadások felpörgetése, vagy éppen a háborús helyzet nyílt eszkalációja, egészen az atomcsapásig.
A kutatók tanulmánya szerint a MI tendenciózusan a katonai agressziót választotta a problémák megoldására, és aggasztóan sokszor jutott atomháborúig a szimulált konfliktus. Az indoklások néha egészen zavarba ejtők voltak, egy alkalommal például a Csillagok háborúja első képsorain az űrben úszó felvezető szövegből idézett az egyik virtuális hadviselő fél.
Ez rámutat arra is, hogy miért fajulhatott el rendszeresen a mesterséges intelligenciák szimulált háborúskodása: az MI a jelenlegi fejlettségi fokán túl kiszámíthatatlanul viselkedik, emiatt nehéz stratégiát építeni arra, hogy hogyan fog majd várhatóan reagálni a lépéseinkre. Ennek pedig óhatatlanul az a vége, hogy még a semleges kiinduló helyzetből is hamar elmérgesedő konfliktust generál, amit később nem is tud igazán csillapítani.
Az amerikai hadsereg hivatalos tájékoztatása szerint jelenleg semmilyen katonai döntést nem bíz mesterséges intelligenciás rendszerekre, még a legapróbb döntéseknél is legfeljebb javaslatokat tesz az MI, melyek alapján aztán emberek döntenek. Az amerikaiakon túl, egyetlen hadseregről sem tudni ma a világon, ahol az MI-nek döntési joga lenne éles harci helyzetben, vagy általában katonai-diplomáciai kérdésekben. A tanulmány szerzői azonban felhívják a figyelmet arra, hogy már önmagában az is hatalmas kockázat, ha a gépi algoritmus csak javasol – mert a tapasztalat az, hogy az emberek hajlamosak az automatizált rendszerekben jobban megbízni, mint amennyire azok valójában megbízhatóak.”
Forrás:
Aggasztóan sokszor jut atomcsapásig a mesterséges intelligencia háborús szimulációkban; Magyar Narancs; 2024. február 4.
AI chatbots tend to choose violence and nuclear strikes in wargames; Jeremy Hsu; New Scientist; 2024. február 2.
„Ahogy az amerikai hadsereg elkezdi integrálni az MI-technológiát, a szimulált hadijátékok tanúsága szerint a csetbotok viselkedése kiszámíthatatlan és a nukleáris konfliktusok eszkalációjával fenyeget.”
Escalation Risks from Language Models in Military and Diplomatic Decision-Making; Juan-Pablo Rivera, Gabriel Mukobi, Anka Reuel, Max Lamparth, Chandler Smith, Jacquelyn Schneider; arXiv; 2024. január 7.