„Már most is lenyűgöző a mesterséges intelligencia fejlődése, de az általános MI-től még nagyon messze vagyunk, a legnagyobb kérdés pedig az, hogy mennyire bízhatunk meg a primitív hibákat elkövető, sokszor megmagyarázhatatlan kimeneteket gyártó modellekben. A dolog nem tűnik annyira súlyosnak, amíg ezek a programok csak a Bing vagy a Bard felhasználóinak szórakoztatásáért felelnek, de mindjárt másképpen fest, amikor akár életek múlhatnak rajta. Az amerikai védelmi minisztérium védelmi kutatásokért felelős részlege, a Defense Advanced Research Projects Agency (DARPA) is éppen azért indította el AI Forward nevű kezdeményezését, hogy felvázolja egy olyan MI-rendszer felépítését, amelyet tényleg megbízhatónak lehet tekinteni.
A The Register csütörtökön közölt interjút a DARPA információs innovációért felelős igazgatóhelyettesével, aki az MI fejlesztését a hidak építéséhez hasonlította. Utóbbinál ma már nincs helye a próbálgatásnak vagy a tévedéseknek, mert az alapvető fizikai vagy anyagtudományi ismeretek révén olyan szabványokat dolgoztak ki, amelyek egyszerűvé és kiszámíthatóvá teszik ezeket a projekteket. Matt Turek szerint azonban az MI esetében nem pont ugyanez a helyzet: nem csak szabványaink nincsenek, hanem a mesterségesintelligencia-modellek még a saját készítőiket is rendszeresen meg tudják lepni. Ez pedig a fejlődés ütemét figyelembe véve azt vetíti előre, hogy a dolgok nagyon gyorsan és nagyon nagy léptékben mehetnek félre.
Számításokon alapuló bizalom
Itt nem feltétlenül az embereket gyilkoló gépek víziójára kell gondolni, hanem elég visszaemlékezni például arra a 2016-os esetre, amikor az angol font estéről reggelre 6 százalékot gyengült a rossz algoritmikus döntéshozatal miatt, vagy arra, hogy a Tesla rendszeresen a sofőrökre hárítja a felelősséget az Autopilot baleseteinél, vagyis úgy tűnik, hogy a gyártó sem kifejezettem bízik a saját mesterséges intelligenciájában. Turek ehhez hozzáteszi, hogy a nagy szoftverrendszereknek már a működési sebessége is kihívásokat jelenthet az emberi felügyelet tekintetében, így még fontosabb, hogy tisztába jöjjenek az MI-fejlesztés alapjaival. Szerintük a megbízható rendszereket három dolog határozza meg: az érthető működés (amiben sehogy sem állunk), a megfelelő interakció az emberekkel, illetve az etikus viselkedés.
Ezt megfogalmazni természetesen könnyebb, mint megvalósítani, így a DARPA ugyancsak három területre igyekszik koncentrálni a forrásait. Az első a megalapozó elméletek kidolgozására, a második a megfelelő MI-mérnöki gyakorlatok megfogalmazása, a harmadik pedig az emberekkel való interakció szabványainak kidolgozása lenne. A cikkben egyébként szó esik a mesterséges intelligencia katonai felhasználásáról is, amelynek egyik nyilvánvaló ága a kiberbiztonság, de a harctéri alkalmazások közül is kiemelték az élet védelmére irányuló eszközöket. Az ügynökség ebben is megpróbálja azonosítani és számításilag reprezentálni a megbízható döntéshozatal alapjául szolgáló attribútumokat, más szóval modellezni és számszerűsíteni akarja a bizalmat.”
Forrás:
Az amerikai védelmi minisztériumnál az alapoktól gondolnák újra az MI fejlesztését; Bitport.hu; 2023. április 21.
How DARPA wants to rethink the fundamentals of AI to include trust; Brandon Vigliarolo; The Register; 2023. április 20.