Skip to main content
gazdaságinformatikaközigazgatás: magyartechnikatudomány

Bizonyos értelemben zsákutca a ChatGPT által képviselt technológia a szakértő szerint

Szerző: 2024. június 23.No Comments

„A Szegedi Tudományegyetem kutatói nem fogalmaznak olyan karcosan, mint a neves elméleti fizikus, Michio Kaku, de a technológia lehetőségeit erősen korlátosnak tartják.

Bizonyos értelemben zsákutca a ChatGPT által képviselt technológia, mondta Farkas Richárd, a Szegedi Tudományegyetem Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszékének egyetemi docense, aki a MILAB nyelvtechnológiai alprojektjének vezetője is. A meglepő mondat azon a szegedi rendezvényen hangzott el, melyen a K&H Bank szerette volna újságírókkal is megértetni, miért olyan a bank MI chatbotja, amilyen. Másképp fogalmazva: miért nem ültetik a „mindentudó” ChatGPT-t Kate helyére?

A válasz azonban nem egészen az, amit egy tavalyi interjújában a neves japán származású amerikai fizikus, Michio Kaku adott, miszerint a ChatGPT legfeljebb egy túlértékelt, bár bizonyos helyzetekben a termelékenységet javító magnetofon. Farkas Richárd és kollégája, a tanszéket vezető Jelasity Márk szerint a mai LLM (large language model) egyik alapvető korlátja, hogy valójában továbbra is gépi tanulási algoritmusok, amelyek fekete dobozként működnek, és erősen függnek attól az adatkészlettől, amelyen tanították őket.

Az MI nem tudja, hogy mit nem tud

A tanszékvezető az ebből eredő problémát egy egyszerű példával illusztrálta. Ha van egy modellünk, amit kutya- és macskafotókkal a két állat felismerésére tanítottunk be, az algoritmus csupán azt becsüli meg, hogy az adott fotó nagyobb valószínűséggel macska, vagy nagyobb valószínűséggel kutya. Ám ha egy kacsát próbálunk felismertetni vele, akkor a madarat is vagy kutyaként, vagy macskaként fogja azonosítani. Az egyetemen azt is sikerült kísérletileg bizonyítani, hogy a neuronhálózatok működése speciális zajmintákkal akár szelektíven is befolyásolható úgy, hogy bizonyosan hibás kimenetet adjanak. Ezzel a módszerrel lehetne például manipulálni egy önvezető autó rendszerét.

Farkas Richárd ezt a tanszéken folyó munka bemutatásakor úgy fogalmazta meg, hogy a mai általános nagy nyelvi modellek egyet biztosan nem tudnak: hogy mit nem tudnak. Ebből következik azonban, hogy bármilyen utasításra adnak valamilyen kimenetet függetlenül attól, hogy az adott témában rendelkeznek-e tudással. Nem emberi értelemmel különítik el az állatokat, hiszen nem tudják, mitől macska egy macska, és mitől kutya egy kutya, hanem – nagyon leegyszerűsítve – csupán statisztikai eloszlást vizsgálva döntik el, hogy adott képen inkább kutya vagy inkább macska látható. Ám ha olyan szituációval, kérdéssel találkoznak (kacsa), amire vonatkozóan a tanítási adatbázisban nincs elegendő információ, a kimenet hibás lesz.

Az algoritmus ugyanis csak adatból dolgozik. Erről, az ún. statisztikai gépi tanulásról szólt az elmőlt 25-30 év és a mai MI-kutatások zöme, köztük a ChatGPT is. A ChatGPT két feladatot végez el: a hatalmas szöveges tanítási adathalmaz alapján képes megjósolni egy mondatról, hogy az mennyire angolos/magyaros/stb., azaz mennyire helyes szintaktikailag és részben szemantikailag. Ez adja mondatgeneráló képességét, ami csupán azt jelenti, hogy becslést ad arra vonatkozóan, hogy például négy szó után mi lenne a leghelyesebb ötödik ahhoz, hogy a mondat valóban „angolosan” hasson.

A másik fázisban ún. demonstrációkon, azaz előre elkészített kérdésekre-feladatokra adott emberi válaszokon tanították. Ebből megtanulta, hogy adott feladatra mi a helyes válasz, így utána az algoritmus igyekszik a demonstrációkhoz hasonló válaszokat generálni. Bár az OpenAI ezzel a módszerrel folyamatosan finomítja a modelljét, abban nincs olyan következtetési készség, amivel egy ritka, általa még nem „látott” példát képes lenne értelmezni.

A ChatGPT technológiai értelemben nem újdonság

Maga a modell egyfajta fekete dobozként működik, erejét a mögötte álló hatalmas erőforrások (óriási tanító adatkészlet és számítási kapacitás) adja. A ChatGPT egyfajta svájci bicska, mondta a kutató, sok mindenre jó, de semmire sem jó igazán. Ezért olyan környezetben, ahol az MI-használatnak nagyobb a tétje – például egy banki chatbotnál, ahol ügyfélkérésekkel kapcsolatos „üzleti” döntéseket kell hoznia –, sokkal kontrollálhatóbb működésű modellekre van szükség.

Az egyetemen is ilyen modelleken dolgoznak. Ennek egyik eredménye HusSpaCy, amelynek egyes elemeit a K&H mesterséges intelligenciája is használja. A modell szintén neurális hálókon és mélytanuláson alapul, de nem generatív, hanem nyelvészeti elemzésre alkalmas. Képes azonosítani egy mondatban az alanyt, az állítmányt, illetve meg tudja mondani a szavak mondatbeli jelentését, például hogy adott szó szervezetet vagy helyszínt jelöl. Ha ilyen elemzéseket el tudunk végezni, akkor már meg lehet határozni olyan szabályokat, hogy adott jelentésű alanyt tartalmazó szóra mit kell válaszolnia az MI-nek, állította Farkas Richárd.

Ezzel a módszerrel például meg lehet oldani, hogy egy MI-alapú chatbot pontosan adjon időpontot az ügyfeleknek, ha azok bankfiókban akarnak ügyeket intézni, a szövegelemzési képessége révén ugyanis képes helyesen beazonosítani, hogy az ügyfél mit szeretne.

Az sem elhanyagolható, hogy az ilyen modellek futtatásához lényegesen kevesebb erőforrás szükséges, mint ahhoz, hogy a ChatGPT legeneráljon egy mondatot.

Az előadások utáni beszélgetésen, amelybe a két kutató mellett bekapcsolódott az egyetemről Becsei Péter projektvezető, valamint Németh Balázs, a K&H Csoport innovációs vezetője és Vadócz Zsolt, a bank digitális vezetője, mindenki egyetértett abban, hogy a ChatGPT talán legfontosabb szerepe az, hogy széles körben kézzelfoghatóvá tette az MI technológiát, és ezzel az üzleti elfogadottságát is növelte.

Ugyanakkor Farkas meglehetősen szkeptikusan fogalmazott az általános generatív MI használhatóságával kapcsolatban. Szerinte egyelőre a ChatGPT-nek és társainak az üzleti felhasználása meglehetősen korlátos (mint arra a legfrissebb kutatások is kezdnek rámutatni), és kimenetük sokszor nem több az emberi kommunikáció imitációjánál. Az pedig nem teszi emberi értelemben értelmessé a modellt, ha még több adaton tanítjuk.”

Forrás:
Mégiscsak egy túlértékelt magnetofon lenne a ChatGPT?; Dervenkár István; Bitport; 2024. június 21.