• Live chat
  • Facebook
  • Google Plus
  • rss

Az adatközponti operációs rendszer hajnala

×
×
Megjelent: 2015.06.02 Vissza

A szoftverek terén az elmúlt évtized minden nagyobb trendje mögött ott találjuk a virtualizációt, legyen szó keresőkről, közösségi oldalakról vagy SaaS-ról. A legtöbb általunk használt alkalmazás – ideértve napjaink cloud computingját is – nem is létezhetne a virtualizáció nélkül, amely segítségével szervereink erőforrásait optimálisan és költséghatékonyan használhatjuk ki.

Most azonban az új felhőarchitektúrák megérkezésével maga az adatközpont is alapjaiban látszik átalakulni. A virtualizáció mai formájában már nem képes tartani az iramot.

Ahogyan az adatközpontok átalakulnak, a virtualizáció alapvető gondolata – miszerint a nagy, drága szervereket virtuális gépekké alakítjuk – a feje tetejére áll. Ahelyett, hogy egyes szerverek erőforrásait osztanánk el, már rengeteg szervert kapcsolunk össze raktárméretű (bár még mindig virtuális) számítógépekké, amelyekkel elosztott alkalmazásokat futtathatunk.

Minden információtechnológiai szervezet és fejlesztő érintett ezekben a változásokban, különösen, hogy a skálázásra mutatkozó igény minden nappal egyre csak növekszik és komplexebbé válik. Hogyan boldogulhatnak a változással azok a vállalkozások, akik már elkötelezték magukat a virtualizáció jelenlegi modellje mellett? Mi áll a trend mögött? És mi jön ezután?

Virtualizáció akkor és most

A legjobb módszer arra, hogy megértsük a jelenlegi változást, talán az, ha a korábbi változásokat vesszük szemügyre – és az azok mögött álló erőket.

A történet kezdete a mainframe-korszakra tehető, amelyet az IBM uralt. Az 1960-as, '70-es években a vállalatnak szüksége volt egy megoldásra, amely segítségével régebbi szoftvereit új generációs hardverein futtathatta, és amely hatalmas gépeit egycélú gépekből olyan interaktív rendszerekké alakítja, amelyek több felhasználót és alkalmazást képesek egyszerre támogatni. Az IBM mérnökei előálltak hát a "virtuális gép" koncepciójával, amely segítségével eloszthatták a számítógépek erőforrásait és a számítási kapacitást a rendszerben futó alkalmazások és a felhasználók között, miközben megőrizhették a kompatibilitást.

Ez a megközelítés bebetonozta az IBM pozícióját a mainframe computing piacvezetőjeként.

Ugorjunk a 2000-es évekre, amikor egy új problémával kellett szembenéznie a számítástechnikának. A vállalatok olyan adatközpontokkal voltak kénytelenek dolgozni, amelyek tömve voltak rendkívül költséges és alacsony kihasználtsággal működő szerverekkel. hovatovább, a Moore-törvénynek megfelelően a processzorok órajele 18 havonta megduplázódott, maguk a processzorok pedig többmagossá váltak. Eközben viszont a szoftverek képtelenek voltak hatékonyan kihasználni az új típusú processzorokat és a sok magot.

A megoldást ismét a virtualizáció szolgáltatta. A VMware, amely akkor még csak egy stanfordi startup volt, lehetővé tette a vállalatok számára, hogy drámaian megnöveljék szervereik kihasználtságát azzal, hogy egyetlen szerveren több alkalmazást is futtatnak. Azzal, a régi és új szoftverek futtatását egyaránt lehetővé tették, a VMware egyben áthidalta a lemaradásban lévő szoftverek és a villámgyorsan fejlődő processzorok közötti, egyre csak növekvő szakadékot is. Végül lehetővé tették azt is, hogy a Windows és Linux alapú rendszerek ugyanazok a fizikai gépen fussanak – ezzel szükségtelenné téve azt, hogy az adatközpontokon belül fizikai szervereket különítsenek el a különféle klaszterek támogatására.

A virtualizáció minden vállalati adatközpontban megvetette a lábát.

A 2000-es évek végén azonban egy csendes technológiai forradalom ment végbe az olyan vállalatoknál, mint a Google és a Facebook. Ezek a vállalatok kerültek szembe azzal a korábban példátlan kihívással, hogy egyszerre kellett felhasználók milliárdjait kihasználniuk. A netóriások hamar rájöttek, hogy egyedi tervezésű adatközpontokat kell létrehozniuk, több ezer szervert tömörítő hardveres és szoftveres infrastruktúrával, amely leválthatja a korábbi hatalmas és drága rendszereket.

Amire számítókapacitás terén nem voltak képesek ezek a szerverek, azért számuk bőségesen kárpótolt, illetve a kifinomult szoftverek, amelyek az egészet összefogták, masszívan elosztott számítási infrastruktúrákat hozva létre. Az adatközpont jellege megváltozott. Talán olcsóbb elemekből építették fel őket, teljesítményben mégis nagyságrendekkel felülmúlták a hagyományos, ultramodern adatközpontokat. A hiperskálázott adatközpontok népszerű operációs rendszerévé a Linux vált, és ahogyan a fejlesztés és üzemeltetés egy platformra került, a virtualizáció elvesztette egyik alapvető jellemzőjét: hogy képes legyen egyidejűleg több rendszert (azaz Linuxot és Windowst) is egyszerre futtatni ugyanazon a fizikai szerveren.

Forrás: http://www.infoworld.com/article/2906362/data-center/dawn-of-the-data-center-operating-system.html