„Az AI gyors előretörése növeli a kockázatát annak, hogy a technológiát rossz célra: automatikus hackertámadásokra, önvezető autók balesetének előidézésére, a kereskedelemben kapható drónok célzott fegyverként való alkalmazására használják fel.
Tizennégy intézmény, köztük a Cambridge-i, Oxfordi és Yale Egyetem 26 kutatója szerdán nyilvánosságra hozott innen letölthet tanulmányában aggodalmának adott hangot amiatt, hogy autoriter államok, bűnözők és magányos támadók visszaélhetnek az új technológiával.
Az AI rossz célú használata küszöbön álló veszélyt jelent a digitális, fizikai és politikai biztonságra, mivel lehetővé teszi a nagyméretű, pontosan célzott, nagy hatékonyságú támadásokat – írták tanulmányukban, amelyben a következő öt évben valószínűsíthető fejleményekre összpontosítottak.
“Valamennyien egyetértünk abban, hogy a mesterséges intelligenciának sok pozitív alkalmazási lehetősége van. A szakirodalom azonban hiányos annak rossz célú felhasználásáról” – magyarázta Miles Brundage, az Oxfordi Egyetem emberiség jövőjét kutató intézetének szakembere.
A mesterséges intelligencia számítógép használatával hajt végre olyan emberi intelligenciát igénylő feladatokat, mint a döntéshozatal, szöveg, beszéd vagy vizuális képek felismerése. A technikai lehetőségek tárházát nyitja meg, de heves vitákat váltott ki az elmúlt években arról, hogy az általa megvalósítható tömeges automatizálás jelentősen növelheti-e a munkanélküliséget és más szociális hátrányokat.
A mintegy százoldalas tanulmány felhívta a figyelmet arra, hogy az AI alkalmazása csökkentheti a végrehajtott támadások költségeit emberi munkát, szakértelmet igénylő esetekben. Olyan új támadási formák kerülhetnek felszínre, amelyek eddig egyetlen ember által kivitelezhetetlenek voltak, vagy olyan támadási formák, amelyek kihasználják magának a mesterséges intelligenciának a sérülékenységét.
A tanulmány készítői áttekintették az eddigi tudományos kutatásokat az AI jelentette biztonsági kockázatokról, és együttműködésre szólították fel a kormányokat, politikai és műszaki szakembereket ezen veszélyek elhárítására.”
Forrás:
Ellenünk fordíthatják a mesterséges intelligenciát; Híradó.hu/MTI; 2018. február 21.
The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation; Future of Humanity Institute (University of Oxford), Centre for the Study of Existential Risk (University of Cambridge), Center for a New American Security, Electronic Frontier Foundation, OpenAI; 2018. február (pdf)
Lásd még: What’s missing from the Malicious Use of Artificial Intelligence report?; Jon Collins; Gigaom; 2018. február 21.
Here are some of the ways experts think AI might screw with us in the next five years; James Vincent; The Verge; 2018. február 20.
Terrorbotok, dróneltérítések, kamu nagybácsik: vészjósló jelentés a mesterséges intelligencia veszélyeiről; Bodnár Zsolt; Qubit; 2018. február 23.