„Irtózatos számítási kapacitás, következésképpen rengeteg energia és víz kell ahhoz, hogy fél világ az AI-jal írassa a leveleit, a nagy tech-cégek az atomenergia rehabilitációját látják a megoldásnak.
A múlt héten robbant a hír, hogy hat vagy hét kisméretű nukleáris erőművet vásárol a Google anyavállalata, hogy el tudja látni energiával a Mesterséges Intelligencia (a továbbiakban az angol rövidítést, az AI-t használjuk) működtetéséhez szükséges adatközpontjait. A hír több szempontból is elképesztő: egyrészt az atomerőművekhez óriási energiatermelési kapacitást társítunk, Pakson egyetlen atomerőmű a magyar elektromos energiaigény hozzávetőleg 40%-át fedezi. Másrészt az Alphabet lépése jelzi azt is, hogy évtizedek után újra fellendülhetnek az atomenergia-beruházások, amelyek a nukleáris balesetek miatt a világ nagy részén háttérbe szorultak. A Google mögött sorban áll a Microsoft és az Amazon, amelyek már most létező atomerőművek mellé húzzák fel az adatközpontjaikat, de az AI-versenybe szinte valamennyi nagy tech-cég beszállt, és az energia kérdését mindegyiknek meg kell oldania.
Miért kell annyi energia az AI-nak?
A Mesterséges Intelligencia-rendszerek ugyanazon az alapelven működnek, mint a számítástechnikában bármi: mindent egyesek és nullák sorozatává alakítanak. Csakhogy míg egy betű eltárolásához egy nyolc egyesből vagy nullából álló számsor (bit) elég, és egy szóhoz a karaktereit és azok sorrendjét kell csak tárolni, az AI működéséhez el kell tárolni a szavakon kívül azok lehetséges kapcsolódási módjait – és ez csak a szöveges működés. Egy fotó egyetlen képpontja csak néhány bit, de ha azt akarjuk, hogy a számítógép magától képeket hozzon létre, akkor a képpontok egymáshoz viszonyított helyzetére, mintázatára kell megtanítani, hogy a végén utánozni tudja mondjuk Salvador Dali festészetét – el lehet képzelni, ehhez mennyi adatra van szükség. Ezeket az alapegységeket nevezik tokeneknek, és azzal mérik az egyes AI-modelleket, hogy hány tokent tudnak kezelni – a legjobbak már bőven 100 milliárd fölött tartanak.
Mivel jelenleg az AI felfutó fázisában van, sok cég ingyen vagy nagyon olcsón kínálja a modellek szolgáltatásait, cserébe azok tanítására használja a betáplált adatokat. Ennek következményeként – különösen az angolszász világban – minden tele van AI-generálta tartalommal: automatizáltan készülnek a reklámanyagok, amelyeket AI-vezérelt automaták posztolgatnak a közösségi hálózatokon AI-generálta képek kíséretében, AI írja a hivatalos levelet és a főiskolai beadandót.
Egy generatív AI-jal megtámogatott internetes keresés – amit a Bing nevű keresővel az Edge böngésző alapfunkciójává tett a Microsoft – egy egyszerű Google-keresésnél 10-40-szer annyi energiát igényel. És akkor nem beszéltünk a vállalkozások által működtetett AI-ügyfélszolgálatról, vagy a kutatók által futtatott MI-ről, ami például a génszerkezetben segít visszatérő mintázatokat találni. Az AI szolgáltatások számítási kapacitás-igénye az elmúlt időszakban körülbelül száznaponta megduplázódott.
Energiát, de honnan?
Az internet, az adattárolás, vagyis összességében az informatikai infrastruktúra már most is a világ energiaszükségletének körülbelül 3%-át emészti fel. A nagy adatközpontoknak nem csak az áramellátása, hanem a hűtése is energiaigényes. Ha az AI felhasználása olyan ütemben fejlődik, ahogy most sejtjük, akkor ez a részarány tovább fog nőni, miközben a világon az energiafelhasználás bővülését 2050-ig 11-18% közé becsülik. Ezt a bővülést úgy kellene elérni, hogy a szénhidrogéneket közben fokozatosan kivezetik, miközben jelenleg éppen a földgáz alapú hőerőmű a legkézenfekvőbb technológiai megoldás az adatközpontok energiaellátására.
A nagy problémát az jelenti, hogy a viszonylag tisztának mondható energia legtöbb formája – például a nap és a szél – nem kiszámíthatóan és nem bármikor áll rendelkezésre, a hatékony tárolás pedig – megfelelő akkumulátorok hiányában – egyelőre nem megoldott. Márpedig az AI adatközpontok üzemeltetéséhez folyamatosan szükség van energiára, hiszen az AI sosem alszik, bekapcsolva kell tartani ahhoz, hogy ne felejtse el, amire megtanították.
Hosszabb távon megoldás lehet, ha lesz áttörés a megtermelt energia tárolásában, az akkumulátortechnológiában. Ez a terület ugyan fejlődik, de csak apró lépésekben, márpedig léptékváltásra lenne szükség ahhoz, hogy a legzöldebb energiákkal az adatközpontokat is el lehessen látni árammal.
Hasonló a helyzet az energiatermelés Szent Gráljával, a fúziós energiával. Franciaországban az első ilyen kísérleti létesítmény, a már méreteivel is felfoghatatlan ITER a kétezres évek óta épül. Hogy az emberiségnek milyen fontos lenne, azt jól mutatja, hogy a projektben az Egyesült Államok, Kína, az EU és Oroszország is benne van. Effektív fúziós energiatermelésről az ígéretek szerint a század második felében lehet majd csak beszélni, de a mondás szerint a fúziós energia az, ami még mindig húsz év távolságra van.
A kihívásra adott egyik válasz lehet az is, ha hatékonyabbá teszik a Mesterséges Intelligenciát. Ez azt jelenti, hogy az újabb modellek kevesebb számítással el tudnak érni hasonló eredményt, ezzel csökkentik az AI energiafogyasztását. Az NVidia és a Meta nyílt forráskódú új modellje (Llama-3.1-Nemotron-70B-Instruct) például az elmúlt héten pont azzal keltett feltűnést, hogy a tesztekben megközelítette vagy le is hagyta a körülbelül másfélszer több token kezelésére alkalmas nagy modelleket (ChatGPT, Claude). Nem véletlen, hogy a chipgyártás területén érdekelt NVidia is dolgozik ezen, hiszen előnyt jelent, hogy együtt tervezik meg a szoftvert és az azt futtató processzorokat. Ugyanakkor a hatékonyság növelése az alapproblémát nem fogja megoldani, legfeljebb enyhíti.
Akkor jöjjenek megint az atomerőművek
A valódi zöld energiák használatának buktatói miatt egy ideje már szó van arról, hogy az atomenergia alkalmas lenne lenne áthidaló megoldásnak addig, amíg a tiszta energiához szükséges áttörések megvalósulnak. Csakhogy az atomenergia fejlődése a balesetek – Csernobil, Fukusima és az Egyesült Államokban a Three Mile Island-en lévő erőmű kevésbé ismert meghibásodása – és a működésükkel kapcsolatos egyéb fenntartások miatt Nyugat-Európában megfeneklett, új erőművek nem épültek, a régiek elöregedtek.
Hiába jósolták már évek óta a reneszánszát, a nukleáris energia az Egyesült Államok energiamixében harminc éve stabilan 20%-ot képvisel, és a részaránya semmit nem emelkedett. Németország a közvélemény nyomására bezárta az atomerőműveit, hogy azután sokkal szennyezőbb szénnel kelljen áthidalnia az orosz szénhidrogének kiesését. Franciaország 2022-ben nagy nukleáris fejlesztéseket jelentett be, mivel a régi reaktorai elöregedtek, Lengyelország is atomerőművekkel szeretné kiváltani a szenet, ahogy hasonló terveket fontolgat Szlovákia és Csehország is.
Az igazi gond viszont az, hogy a nukleáris technológia fejlesztése elmaradt, a korszerű erőművekhez rengeteg kutatás-fejlesztésre lenne szükség. A cél a moduláris kiserőművek gyártása lenne, ami annyit tesz, hogy egy legfeljebb 300 MW teljesítményű egyszerű reaktort sorozatban lehet gyártani, majd a szükséges helyen, a fogyasztóhely közelében üzembe helyezni. Ezek a moduláris kiserőművek biztonságosabbak lennének, egyszerűbb lenne a telepítésük, és akár egyetlen nagy gyár vagy adatközpont áramellátására is lehetne őket használni anélkül, hogy csatlakoznának egy ország elektromos hálózatához.
Nagyjából 20 ilyen fejlesztés zajlik jelenleg is, de olyan moduláris kiserőmű, ami biztosan működik, egyetlenegy sincs a nyugati világban. Kína már üzembe helyezett egyet a szárazföldön, amely félmillió háztartást lát el árammal, és Oroszország is telepített egy működő kiserőművet egy hajóra, az Akademik Lomonoszovra Szibériában, amely kis népességű bányászkolóniákat és az ott működő ipari létesítményeket látja el árammal.
Kockázat kockázat hátán
A Google egy olyan technológiára szerződött, ami Nyugaton jelen pillanatban még nem létezik, de a piacok éppen most kaptak egy nagy lökést, hogy higgyenek benne. A kiserőművek fejlesztésére vállalkozó Kairos szerint az első reaktor 2030-ra el fog készülni, a hat vagy hét reaktor együtt nagyjából 500 MW áramot termel majd ( összehasonlításként: Paks jelenleg 4 darab 500 MW-os reaktorral üzemel ). Mindent elmond az energiaínségről, hogy közben a Microsoft a legsúlyosabb nukleáris meghibásodás helyszínén, a pennsylvaniai Three Mile Island-en indíttat újra már korábban lekapcsolt reaktorokat.
Ugyanakkor mint általában, amikor az emberiség túlélésének nagy kérdéseiről van szó, egy probléma megoldása mindig újabb problémákat szül. A kiserőműveknél a nagy erőművekkel kapcsolatos megválaszolatlan kérdések többsége ugyanúgy felmerül. Nukleáris fűtőanyagnak való uránt jellemzően a Föld meglehetősen problematikus országaiból lehet beszerezni (Nigéria, Oroszország), és a használt fűtőanyag tárolása sem megoldott. Az atomenergia csak azért tűnik most jó megoldásnak, mert a szénhidrogén-felhasználás csökkentése érdekében a cél jelenleg szentesíti az eszközt.
Az AI-t és a felhőalapú szolgáltatásokat működtető nagy tech-cégek saját bevallásuk szerint közel klímasemlegesen működnek, de a Guardian elemzése szeptemberben azt találta, hogy ez csak kreatív könyvelés eredménye: a valós üvegházi gázkibocsátásuk 6-7-szer akkora, mint amit bevallanak. Ráadásul ez még az AI-boom előtti állapot, amikor az adataikat a felhőbe feltöltő vállalkozások miatt kellett a rengeteg adatközpont, nem pedig azért, hogy irgalmatlan mennyiségű AI-generálta marketingtartalommal teljen meg az internet.”
Forrás:
Megindult a versenyfutás az új atomerőművekért a Mesterséges Intelligencia etetéséhez; Tanács Gábor; Euronews; 2024. október 26.