A big data előszobája

„Nagy üzlet lehet a nagy adat, erre a szállítói oldal már rájött, a felhasználók többsége viszont a dig data definíciójával is nehezen boldogul. Egyelőre legalábbis, mert az események hamarosan felpöröghetnek.

Digitális univerzumunk a nagy robbanás szakaszába került, mérete kétévente megduplázódik, így az évtized végére el fogja érni a 44 zettabájtot (azaz 44 trillió gigabájtot), a tavaly mért 4,4 zettabájt tízszeresét – mondta el Komáromi Zoltán, az International Data Corporation magyar leányvállalatának ügyvezetője a piacelemző cég idei Nagy Adat és Üzleti Analitikai Fórumán. A Föld minden lakosára 5200 gigabájt jut majd 2020-ban, és az embertelenül nagy adattömeg kétharmada akkor már a fejlődő országokban fog keletkezni. Hasonló ütemben nő majd az adatok hasznossága is – az évtized végén az adatmennyiség 37 százaléka üzletileg hasznosítható lesz, míg tavaly ez az arány 22 százalék volt.

Az IDC meggyőződése, hogy a következő két évtizedben az IT-iparág növekedésének legfőbb hajtóerejét a harmadik vállalati platformot alkotó négy technológia és alkalmazásterület – a mobilitás, a felhő, a közösségi média és a nagy adat – fogja adni, ami gyökeres változásokat fog előidézni mind szállítói, mind felhasználói oldalon.

– A robbanásszerűen növekvő digitális univerzum újszerű kiaknázásban rejlő üzleti lehetőségeket a szállítók mind szélesebb köre ismeri fel – mutatott rá Tomasz Słoniewski, az IDC regionális szoftverkutatási vezetője. – Erre utalnak a legnagyobb piaci szereplők, közöttük az IBM, az Oracle és az SAP big data és üzleti analitika vonatkozású akvizíciói, valamint a területre szakosodott start-upok fejlesztései. Ezzel együtt a felhasználói oldalról még korántsem állítható, hogy nagyadat-lázban égne, mi több, számos szervezet még a big data definícióját is vitatja.

Nagyadat-algoritmus
Leginkább elfogadottnak tekinthető meghatározás a 4 V (volume, variety, velocity és value) elve, amely szerint nem csupán az adatmennyiség a meghatározó, hanem az adatok sokfélesége, beérkezésük gyorsasága, valamint minőségük, hitelességük is fontos szempont a big data definiálásakor. A nagyadat-forgatókönyv felismerésében segíthet, ha összevetjük az üzleti intelligencia területével.

– Míg a BI-alkalmazások jellemzően 100 terabájtnál kisebb mennyiségű, elsősorban strukturált adatmennyiség elemzésére szolgálnak, addig a bigdata-megoldások ennél nagyobb, strukturált és strukturálatlan adattömeg elemzését teszik lehetővé – fejtette ki Tomasz Słoniewski. – Az üzleti intelligencia esetében korlátozott számú, jellemzősen szervezeten belüli forrásból származnak az adatok, amelyeket kötegelt módon töltenek a BI-alkalmazásokba. A bigdata-megoldások ezzel szemben nagyon sok, belső és külső adatforrásból dolgozhatnak, amelyekből (pl. a közösségi hálókból vagy az ipari internetről) gyakran valós időben érkeznek az adatok. Míg az üzleti intelligencia előre megfogalmazott kérdésekre ad választ változatlan üzleti modell mellett, addig a bigdata-megoldások mindig újabb kérdések felvetését inspirálják, a felfedezést ösztönzik, és ezzel az üzleti modell fejlődésére is kihatnak.
A big data azonban nem jelenti a BI végét, a két terület kiegészíti egymást, az üzleti intelligencia sok tekintetben nyer a big datával, mert a szervezeten belül pl. új adatforrások és elemzőeszközök válnak elérhetővé, akár külön analitikai osztály jön létre, és a múlt elemzése mellett a jövőbe tekintő kutatást jobban szorgalmazó szemlélet honosul meg.

Ugyancsak a 4 V elvét követve dolgozta ki az IDC azt az algoritmust, amelynek alapján egy alkalmazásról eldönthető, hogy illik-e rá a dig data felhasználói forgatókönyv. Eszerint nagyadat-alkalmazásról beszélhetünk, ha a begyűjtött adat mennyisége meghaladja a 100 terabájtot, vagy mennyisége évente több mint 60 százalékkal nő, vagy az adatok rendkívül nagy sebességű adatfolyam formájában érkeznek be, és mindezt dinamikus, adaptív infrastruktúra támogatja, vagy kettő, illetve annál több adatformátumról és/vagy adatforrásról, vagy nagy sebességű adatfolyamról van szó. Ennek alapján az IDC arra számít, hogy a bigdata-piac, amelynek mérete 2012-ben 10 milliárd dollárt tett ki, 2017-re megháromszorozódik, és eléri a 32 milliárd dollárt.

Alátámasztja ezt a piacelemző 2013-ban készült, 700 szervezetet felölelő, európai felmérése is, amelynek során a megkérdezettek közel negyven százaléka mondta azt, hogy 12 hónapon belül a bigdata-technológiák jelentősen nagyobb mértékű használatát tervezi. Egy évvel korábban ez az arány még 25 százalék körüli volt. A válaszok alapján ugyanebben az időszakban nőtt az új adattároló technológiákba beruházó és a közösségi hálókról gyűjtött adatokat elemző vállalatok aránya is, amely már közelebb jár a 30, mint a 20 százalékhoz.

Kimért követők
A robbanásszerűen növekvő adatmennyiség értelmezésére és üzleti hasznosítására törekvő szervezetek azonban komoly nehézségekkel szembesülnek, mondta Tomasz Słoniewski. Kihívást jelent számukra az IT-infrastruktúra kialakítása és működtetése, amely egyáltalán képes a rendkívül nagy mennyiségű, illetve nagy sebességgel beérkező adat kezelésére, ellenőrzésére és analizálására, a valós idejű vagy közel valós idejű adatgyűjtés, elemzés és válaszadás, vizualizáció támogatására. Hasonló nehézséget okoz a változatos adatformátumok és -források, valamint a kiszámíthatatlan, látszólag minden mintát vagy szerkezetet nélkülöző tartalom kezelése is. Ilyen körülmények között különösen nagy üzleti problémát jelenthet az érzékeny adatok törvényi előírásoknak megfelelő védelme éppúgy, mint a változások menedzselése, főleg, hogy a szervezeteknek mindezt úgy kell megoldaniuk, hogy a munkaerőpiacon egyelőre még nagyon kis számban érhetők el a megfelelően képzett és tapasztalat adatkutató (data scientist) szakemberek.

Visszaköszöntek ezek a nehézségek a Fórum hazai előadóit – a SAP, a SAS Institute, a Starschema, a T-Systems és a Ustream szakembereit – felvonultató kerekasztal-beszélgetésben is. A big data elmúlt három évét értékelő résztvevők szerint idehaza is érzékelhető az igény olyan nagy adattömegek megmozgatására, amelyeket hagyományos módszerekkel nem lehet feldolgozni, de mostanáig kevés projekt lépett a megvalósítás szakaszába. Magyarországon a vállalatok többsége még nem dolgozott ki adatkezelési stratégiát, így egyelőre főként az IT-szakemberek foglalkoznak komolyan a big data kérdésével, az üzleti oldal még nem feltétlenül lát értéket benne, bár ebben a tekintetben már vannak kivételek.

Kezdetnek éppen ezért érdemes egy próbaprojektet indítani, amelyen keresztül a vállalat jobban megismerheti a nagy adatban rejlő lehetőségeket, a felhőben ez minimális költségek mellett megtehető. Minden megoldásszállító kínál olyan ütemtervet, amely mentén a próbaprojekt később vállalati szintű alkalmazássá is kiterjeszthető. A big data jellegéből adódóan mindenesetre érdemes az agilis módszertant követni ezekben a projektekben.
A konferencia előadói megállapították, hogy – az informatika más területeihez hasonlóan – a magyar vállalatok a big data esetében is követőnek számítanak az egyesült államokbeli és nyugat-európai, innovatív cégekhez képest. A nyugati cégek nálunk működő elemzőközpontjai, valamint a kimondottan adatintenzív tevékenységet végző, itthoni startup-vállalkozások azonban mindenképp segítik a nagyadat-alkalmazások hazai előretörését.

Adatkutató diploma Budapestről
Az analitika ma már szinte minden üzleti területen nélkülözhetetlen, ahol stratégiai döntések születnek. A Gartner szerint 2015-ig világszerte 4,4 millió munkahelyet kell majd betölteni a big data elemzésében jártas, felkészült szakemberekkel. Az Egyesült Államok munkaügyi hivatalának becslése szerint a következő 8 évben 24 százalékkal fog bővülni az adatelemzői kompetenciát igénylő munkahelyek száma a világon. A felsőoktatás jól érzékeli a növekvő piaci igényeket, és ma már számos intézményben tanítanak nagy adat vonatkozású tárgyakat. Az IBM közreműködésével tavaly az írországi Dublin City University elsőként indított önálló bigdata-képzést.

Idén, Európában másodikként, a budapesti Közép-európai Egyetem (CEU) is bejelentette, hogy az IBM Magyarországgal együttműködve bigdata-szakot indít MSc képzésben. A mesterképzés célja, hogy megismertesse a hallgatókat az üzleti célú adathasznosítás technológiáival, valamint azokkal a lehetőségekkel, amelyeket a big data a közigazgatásban, városfejlesztésben és egyéb területeken kínál. A szak pontos neve Master of Science in Business Analytics, a tanterv elsősorban az adatelemzési és technológiai kompetenciákra összpontosít. Kiemelt tárgy lesz az üzleti intelligencia, de a hallgatók többek között adatvizualizációt, hálózattudományt is tanulni fognak, adatbiztonsági, közgazdasági, statisztikai és menedzsmentismereteket is szereznek majd. Az egyetem elsősorban közgazdász alapvégzettségű diákokra számít, de várják szociológusok, mérnökök, statisztikusok jelentkezését is.

A CEU és az IBM Magyarország képzése az ún. action based learning módszerre épül, amely igyekszik egyensúlyt teremteni az elméleti és a gyakorlati oktatás között. A labormunkákon valódi problémák megoldásán dolgoznak majd a diákok, amihez az IBM globális esettanulmányai adnak szakmai hátteret. A CEU oktatói mellett az IBM munkatársai és más vendégelőadók is tartanak majd órákat a világ minden tájáról, az informatikai cég emellett az oktatási anyagok elkészítéséből is részt vállal. A képzés a nemzetközi felsőoktatási akkreditációt követően 2015-ben indulhat.”

Forrás:
A big data előszobája; Kis Endre; Computerworld; 2014. május 25.

A bejegyzés kategóriája: gazdaság, informatika
Kiemelt szavak: , , , , , , , , , , .
Közvetlen link.