BÉT logóÁrfolyamok: 15 perccel késleltetett adatok

Jönnek a virtuális szuper PC-k

A közeljövÕben újabb méretcsökkentési folyamatra számít a szerverek világában Kónya István, a Polygon Informatikai Kft. üzletágvezetÕje. A jövÕ rendszereit, amelyeket már csak fenntartásokkal lehet majd szervernek hívni, a virtuális szuper számítógépek alkotják. Ezek egyenként viszonylag szerény kapacitású gépekbÕl állnak majd, amelyek egy hatalmas sávszélességÛ hálózatra fÛzve és integrálva végzik feladataikat. EbbÕl aztán az egyes feladatokhoz mindenki akkora kapacitást használ fel, amekkorára szüksége van, és ezt a vállalati keretek vagy az országhatárok sem korlátozzák. Számítási közszolgáltatások formájában lehet majd igénybe venni a feldolgozási kapacitásokat, virtuális gépekbe csomagolva. Persze ez még a jövÕ, de egyáltalán nem olyan távoli – véli a Polygon szakembere.

A szerver fogalma a 80-as évek elején kezdett elterjedni, és egyértelmÛen a PC-forradalom szülötte. Korábban is léteztek nagygépes megoldások, de kis, asztali gépek hálózata, amely egy nagyobb, központi kiszolgálót igényelt volna, nem. Ugyanakkor a személyi számítógéprÕl nagyon hamar kiderült, hogy nem céges felhasználásra való.

Ahhoz, hogy termelésre lehessen fogni, olyan kialakítású is kellett belÕle, amely kevésbé egyéni szeszélyek szerint mÛködik. Így végül az üzleti racionalitás szempontjai hozták létre a megvalósult fogalomzavart: a közös használatú, több felhasználót kiszolgáló személyi számítógépet, a mai értelemben vett szervert. KésÕbb, amikor a PC-felépítésÛ kiszolgálógépek már többségben voltak a nagy, teljesítményorientált és drágább eszközökkel szemben, a fogalom is átalakult. A közös használatú gépeket kezdték szervernek hívni, annak ellenére, hogy a hagyományos nagy készülékek felépítése nagyon kevéssé hasonlít a PC-szerverekére – emlékezik vissza Kónya István.

A 90-es évek elején azután a számítógépektÕl korábban elvárt funkciókat elkezdték a PC-re is átültetni, ezt volt az elsÕ downsizing. Ehhez meg kellett osztani a kapacitásokat, így létrejöttek az elsÕ egyenrangú (peer-to-peer) PC-hálózatok. Az ilyen hálózatok hátrányai azonban hamar megmutatkoztak, a fejlesztÕk kapacitáskorlátokba, gyenge teljesítménybe, sérülékenységbe botlottak a megvalósítás során. Visszatért hát a központi, erÕs gép divatja, de immár a személyi számítógép alapjain. A 90-es évek végére kialakult a PC-szerver jellegzetes megoldása és paraméterei. Napjaink egyik legtöbbet emlegetett szakkifejezése a szerverkonszolidáció, amelynek eredményei teljesítményben, üzembiztonságban, bÕvíthetÕségben messze lekörözik a korábbi megoldásokat.

A megerÕsített infrastruktúrákra is két megoldás van. A elterjedtebb a „vízszintes” módszer, amikor a kapacitásokat egyenlÕ, kisebb darabokból illesztjük öszsze, a másik a függÕleges építési mód, amikor is nagy befogadóképességÛ eszközökbe zsúfoljuk a lehetÕ legtöbb kapacitást. A vízszintes irány látszik népszerÛnek – ahogy a PC elterjedése esetében, itt is az olcsóság a legfÕbb hajtóerÕ. Jóval alacsonyabb költséggel tudjuk az azonos számítási teljesítményt 1-2 processzoros gépekbÕl összerakni, mint 8-16-32 processzort fogadni képes monstrumokból. Ráadásul az így kialakított rendszer könnyebben méretezhetÕ, bÕvíthetÕ, és a nagy gyártási szériák miatt minden tekintetben olcsóbb.

Az igen kis késleltetésÛ és nagy átbocsátó képességÛ speciális hálózatok, és az együttmÛködést segítÕ hardver- és szoftvermegoldások, valamint a szervereken futó programok közötti üzenetváltó szabványok egyre reálisabb alternatívává teszik azt az építési modellt, amely a szükséges nagy kapacitást is sok – cluster vagy grid rendszerbe szervezett – kis kapacitású gép párhuzamosan összeadódó teljesítményével éri el. (VG)

Címoldalról ajánljuk

Tovább a címoldalra

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.