„Szkeptikusok szerint az Anthropic, a Google, a Microsoft és az OpenAI csak azt szeretné elkerülni, hogy a hatóságok alakítsák ki a szabályokat.
A világ négy legfejlettebb mesterséges intelligenciával foglalkozó vállalata munkacsoportot hozott létre a mesterséges intelligencia kutatására és az ellenőrzésére vonatkozó legjobb gyakorlatok kialakítására, mivel az egyre nagyobb teljesítményű technológia hatásai miatt aggódó közvélemény nyomását a szabályozó hatóságok sem hagyhatják figyelmen kívül, így a törvényi beavatkozás veszélye is egyre nagyobb. Az Anthropic, a Google, a Microsoft és az OpenAI által elindított Frontier Model Forum célja „a határmezsgye-modellek biztonságos és felelős fejlesztésének biztosítása”.
Az elmúlt hónapokban az amerikai vállalatok egyre nagyobb teljesítményű MI-eszközöket állítottak elő, amelyek az internetről innen-onnan összegereblyézett anyagokból merítve eredeti tartalmat állítanak elő kép, szöveg vagy videó formájában. A fejlesztések problémásak mind szerzői jogi, mind adatvédelmi szempontból, de még inkább azzal kapcsolatban, hogy az így betanított mesterséges intelligencia végső soron számos munkakörben helyettesítheti az embert. „A mesterséges intelligenciát létrehozó vállalatoknak felelősségük, hogy biztosítsák, hogy a technológia biztonságos maradjon és emberi ellenőrzés alatt álljon” – mondta Brad Smith, a Microsoft alelnöke. „Ez a kezdeményezés létfontosságú lépés a technológiai szektor összefogása érdekében, hogy felelősségteljesen fejlesszük az MI-t, és úgy kezeljük a kihívásokat, hogy az az egész emberiség javát szolgálja.”
A fórum tagsága az alapítók szerint csak arra a maroknyi vállalatra korlátozódik, amely „olyan nagyméretű gépi tanulási modelleket épít, amelyek meghaladják a legfejlettebb létező modellekben jelenleg meglévő képességeket”. Ez arra utal, hogy a fórum munkája a lényegesen nagyobb teljesítményű mesterséges intelligenciából eredő potenciális kockázatokra fog összpontosítani, szemben a szerzői jog, az adatvédelem és a magánélet védelmével kapcsolatos kérdések megválaszolásával, amelyek ma a szabályozókat foglalkoztatják. Az amerikai Szövetségi Kereskedelmi Bizottság már vizsgálatot indított az OpenAI ellen „tisztességtelen vagy megtévesztő” adatvédelmi gyakorlatok után kutatva, és hogy károsította-e az embereket azáltal, hogy hamis információkat hozott létre róluk. Joe Biden elnök jelezte, hogy végrehajtó intézkedések fogják segíteni a „felelős innováció” előmozdítását.
Az MI-vezetők igyekeztek hangsúlyozni, hogy tisztában vannak a veszélyekkel és elkötelezettek azok mérséklése mellett. Az új fórumot indító négy vállalat vezetői a múlt héten a Fehér Házban elkötelezték magukat a „mesterséges intelligencia technológiájának biztonságos és átlátható fejlesztése” mellett. A Frontier Model Forum célja a biztonsági kutatások előmozdítása és kommunikációs csatorna biztosítása az iparág és a politikai döntéshozók között. Hasonló csoportokat már korábban is létrehoztak, például 2016-ban alakult meg a Partnership on AI, amelynek a Google és a Microsoft is alapító tagja volt, a civil társadalom, a tudományos élet és az ipar képviselőiből álló résztvevőkkel és azzal a küldetéssel, hogy előmozdítsa a mesterséges intelligencia felelős használatát.
Emily Bender, a Washingtoni Egyetem számítógépes nyelvésze, a nagy nyelvi modellek kutatója szerint viszont a vállalatok megnyugtató nyilatkozatai „csak kísérletet jelentenek a szabályozás elkerülésére, az önszabályozás képességének bizonyítására”. Azzal, hogy a figyelmet azokra a félelmekre összpontosítják, hogy „a gépek életre kelnek és átveszik az irányítást”, elterelik a figyelmet „a tényleges problémákról, amelyek az adatlopással, a megfigyeléssel és azzal kapcsolatosak, hogy megváltozik a gazdasági környezet” – mondta. „A szabályozásnak kívülről kell jönnie. Az embereket képviselő kormánynak kell megalkotnia, hogy korlátozza, mit tehetnek ezek a vállalatok” – tette hozzá. ”
Forrás:
Önszabályozó csoportot alakítottak az MI-ben élenjáró cégek; SG.hu; 2023. július 27.