Myymalat pieni

28.11.2010

Snapshotit Hyper-V serverissä osa 2/2

Kategoria: Virtualisointi — Avainsanat: , , , , — Timo Haapavuori @ 20.18

Johtuen Hyper-V:n käyttämästä tekniikasta snapshotin ottaminen on erittäin nopeaa, sillä mitään tietoa ei missään vaiheessa kopioida mihinkään.Käytössä oleva virtuaalinen kiintolevy vain lukitaan. Snapshottien ottaminen on monissa tilanteissa perusteltua ja järkevää, mutta  niitä ei tulisi säilyttää turhaan. Snapshottien ottoon liittyy myös suorituskykyongelmia, sillä levyn käsittely monimutkaistuu ja virtuaalilevy pirstoutuu eri kohtiin isäntäkoneen fyysistä levyä.

Snapshotien ottaminen ja poistaminen onnistuvat virtuaalikoneen ollessa käynnissä.  Poistaminen näkyy Hyper-V:n hallinnassa välittömästi. Teknisesti delta-tiedostolle ei kuitenkaan tehdä mitään virtuaalisen koneen ollessa käynnissä, vaan deltatiedoston käyttäminen jatkuu edelleen. Toisin sanoen  poistaminen ei vapauta delta-tiedoston käyttämää levytilaa, vaan muutoksia kirjoitetaan edelleen samaan delta-tiedostoon.

Jos virtuaalikone on sammuksissa, kun snapshot poistetaan tai jos  se on poistettu koneen ollessa käynnissä,  virtuaalikoneen sammutuksen jälkeen Hyper-V konsolista nähdään status kohdassa ”merge” ja prosenttilukema. Tässä vaiheessa Hyper-V serveri yhdistää alkuperäisen virtuaalisen kiintolevyn tiedot ja delta-tiedoston tiedot  toisiinsa. Jos taas snapshoteja on otettu useita,  tarkoittaa yhden snapshotin poistaminen  käytännössä delta-tiedostojen yhdistämistä. Jos delta-tiedosto on pieni, eli sitä on yleensä käytetty vain vähän aikaa, yhdistelyprosessi sujuu varsin nopeasti. Jos taas snapshotin tuottama delta-tiedosto on ollut käytössä pitkään ja näin ollen delta-tiedosto on kasvanut jo suureksi,  yhdistely voi kestää varsin kauan. Tähän on siis hyvä varautua jo etukäteen.

Mikäli virtuaalikone käynnistetään ennen yhdistelyn valmistumista,  Hyper-V jatkaa delta-tiedoston käyttämistä edelleen ja delta-tiedoston ja snapshotin yhdistely jatkuu vasta kun virtuaalikone sammutetaan seuraavan kerran. Henkilökohtaisesti suosin yhdistelyprosessin suorittamista loppuun yhdellä kerralla, jos se vain on mahdollista.

Virtuaalisille kiintolevyille on tyypillistä, että niitä on helppoa kasvattaa suuremmiksi. Mikäli virtuaalikoneesta on snapshot otettuna ja kiintolevyä yritetään kasvattaa,  Hyper-V Manager suostuu kasvattamaan kiintolevyä aivan samalla tavalla kuin se tekee kiintolevyn kohdalla, josta ei ole snapshottia otettuna. Tässä onkin erittäin suuri vaaran paikka. Snapshotatun koneen virtuaalisen kiintolevyn kasvattaminen aiheuttaa kuitenkin sen, että virtuaalisen kiintolevyn ja deltatiedoston välinen yhteys menetetään ja kaikki tieto, joka on muodostettu snapshotin ottamisen jälkeen, on tässä yhteydessä menetetty. Microsofin virallinen ohje kuuluu, että tälläisessa tilanteessa järjestelmän tiedot tulee palauttaa varmistuksista.

Vaikka Hyper-V:ssä kiintolevyä kavatetaessa onkin maininta, että snapshotattua kiintolevyä ei saa laajentaa, tuo mainintaa jää erittäin helposti huomaamatta ja kun levyn laajennus on valmistunut, ovat katastrofin ainekset  olemassa kun havaitaan, että virtuaalikone ei toimikaan enää. Hyvin harvassa ympäristössä backupit ovat reaaliaikaisia ja aivan liian monessa ympäristössä tietojen palauttamista ei ole testattu. Tilanteessa, jossa käyttäjä törmää edellä kuvatun kaltaiseen ongelmaan,  on vaarana että aiheutunut vahinko on vieläkin suurempi, jos käyttäjä hätäännyttyään aloittaa koko virtuaalikoneen asentamisen alusta.

Jos Hyper-V:n hallintaan käytetään Microsoftin maksullista Microsoft System Center Virtual Machine Manager (SCVMM) tuotetta, on SCVMM Hyper-V Manageria sen verran kehittyneempi, että sillä kiintolevyn laajennus ei onnistu, mikäli virtuaalikoneesta on snapshotti otettuna. Tämä toiminnallisuus saattaa jossain tilanteissa maksaa helposti SCVMM:n hinnan takaisin, vaikkakin voisi kuvitella Microftin kehittävän myös Hyper-V Manager hallintaa nykyisestä siten, että kuvatun kaltainen tilanne ei olisi mahdollinen myöskään silloin kun käytössä ei ole SCVMM.

Hyper-V:n snapshotit ovat monessa asiassa erittäin tervetullut ominaisuus, mutta snapshottien käyttäminen ilman laajempaa ymmärrystä niiden toiminnasta, voi johtaa moniin ei toivottuihin tilanteisiin. Tulevissa kirjoituksissani tulen käsittelemään virtualisointia ja IT infraa laajemminkin ja pyrin nostamaan esille asioita, jotka jäävät helposti käyttäjältä huomaamatta.

21.11.2010

Snapshotit Hyper-V serverissä, osa 1/2

Kategoria: Virtualisointi — Avainsanat: , , , , — Timo Haapavuori @ 21.56

Microsoftin virtualisointialusta Hyper-V on kasvattanut suosiotaan tasaisesti tuotteen julkaisusta lähtien, joka tapahtui 2008. Hyper-V serverissä on ominaisuuksia, joista osa on kilpailijoitaan parempia, osa huonompia. Varsin monet ominaisuudet virtualisointialustoissa ovat  samankaltaisia riippumatta siitä, onko kyseessä Microsoftin, Citrixin, VMWaren, tai jonkin muun valmistajan toteuttama ratkaisu.

Hyper-V serverissä snapshottien ottaminen onnistuu varsin helposti, eikä niiden ottaminen vaadi käytännössä minkäänlaista perehtymistä Hyper-V:n taustalla olevaan tekniikkaan. Microsoftin ajatushan monessa asiassa onkin tehdä tuotteistaan varsin helppokäyttöisiä. Hyper-V:stä otettavat snapshotit ovat kuitenkin senkaltainen toiminnallisuus, että käyttäjän tulisi tietää varsin hyvin snapshotien taustalla oleva tekniikka.Muutoin käyttäjä törmää lähes varmasti myöhemmin erilaisiin ongelmiin. Ongelmat ovat usein senkaltaisia, että niiden syyseuraussuhde voi olla myös käyttäjälle hankalasti hahmotettavissa, ellei snapshotien käyttämä tekniikka ole käyttäjälle millään tavalla tuttua.

Tässä kirjoituksessa tarkoitukseni on käydä läpi Hyper-V servereissä snapshot toiminallisuus ja nostaa esiin asioita jotka tyypillisesti aiheuttavat käyttäjille ongelmia. Hyper-V serverissä voidaan käyttää kolmenlaisia virtuaalisia kiintolevyjä.Tämän lisäksi voidaan käyttää suoraan isäntäkoneessa olevaa kiintolevyä virtuaalikoneelle, mutta tähän toiminnallisuuteen en tässä kirjoituksessa paneudu. Kolme erilaista virtuaalikiintolevytyyppiä ovat fixed, dynamic ja differential tyyppiset vhd-levyt.

Fixed kiintolevyllä tarkoitetaan vhd-levyä, jossa levyn luontihetkellä isäntäkoneesta varataan koko kiintolevyn kokoa vastaava tila. Jos siis kiintolevyn koko on 20 gigaa,  Hyper-V luo vhd-päätteisen tiedoston, jonka koko on 20 gigaa. Dynaaminen levy puolestaan tarkoittaa sitä, että vhd-levyä luotaessa koko kiintolevyn kooksi määritettyä tilaa ei vielä varata, vaan vhd-tiedosto kasvaa sitä mukaa kun levyä todellisuudessa käytetään. Dynaamisia levyjä käytetään tyypillisesti testausympäristöissä, jolloin levytilaa saattaa olla saatavilla rajoitetusti. Differentiaali levyt ovat kolmas ja vähiten käytetty virtuaalinen kiintolevy tyyppi. Differentiaalilevyssä idea on, että alkuperäinen vhd levy lukitaan.Tämän jälkeen samaa differentiaalilevyä voidaan käyttää useammallekin virtuaaliselle tietokoneelle, sillä differentiaali levyn vhd tiedosto lukitaan ja kaikki muutokset kirjoitetaan tämän jälkeen erillisiin delta-tyyppisiin tiedostoihin.

Snapshotin ottaminen Hyper-V serverissä muuttaa käytössä olevan vhd-levyn käytännössä differentiaalilevyksi. Käytössä ollut vhd levy lukitaan ja muutokset levyllä kirjoitetaan delta-tiedostoon. Aina uuden snapshotin ottaminen lukitsee edellisen delta-tiedoston ja muodostaa jälleen uuden delta-tiedoston. Tämä tarkoittaa käytännössä sitä, että jos tietokoneessa käytetään ennen muuta fixed tyyppisiä kiintolevyjä, niin kiintolevy, jonka koko on esimerkiksi 100 gigaa ja josta on käytössä esimerkiksi 20 gigaa, jää 80 gigaa varattua levytilaa  käytännössä hyödyntämättä kokonaan, koska muutoksia ei tehdä snapshotin ottamisen jälkeen enää alkuperäiseen vhd-tiedostoon, vaan deltatiedostoon. Tämä puolestaan johtaa hyvin nopeasti ongelmiin kiintolevytilan käytössä.Kyseiselle virtuaalikoneelle varattu tila pysyy edelleen varattuna, mutta sitä ei enää käytännössä käytetä, vaan kaikki muutokset tallennetaan delta-tiedostoon. Ongelmia muodostuu myös dynaamisten levyjen kanssa, sillä vaikka dynaamisissa levyissä tilaa ei vielä olekaan varattu enempää kuin sitä on siihen mennessä ehditty käyttämään, niin tämän vhd-tiedoston lukitseminen ja delta-tiedoston luominen lisää levytilan kulutusta, koska kaikki tiedot joudutaan jatkossa peilaamaan lukitun vhd-tiedoston ja delta-tiedoston välillä.

Kuten jo aiemmin mainitsin,  jokainen uusi snapshot lukitsee snapshotia edeltävän tilanteen. Käyttäjä jolle Hyper-V:n snapshotien taustalla oleva tekniikka ei ole entuudestaan tuttua, tulee helposti ottaneeksi lukuisia snapshottia aina uudestaan ja uudestaan poistamatta edellisiä jo tarpeettomaksi käyneitä snapshoteja. Levytilaongelmaa ei yleensä tässä kohtaa huomaa, sillä snapshotin ottaminen sillä hetkellä ei kuluta levytilaa käytännössä lainkaan. Jokainen uusi snapshot luo aina uuden delta-tiedoston ja kaikkien delta-tiedostojen ja alkuperäisen lukitun vhd-tiedoston välillä säilyy relaatio. Tyypillistä onkin, että mitä useampia snapshoteja samasta virtuaalikoneesta otetaan, niin levytilan suhteellinen kulutus kasvaa, koska delta-tiedostojen ja alkuperäisen vhd-levyn välinen relaatio on säilytettävä. Onhan käyttäjän voitava palata mihin tahansa ottamaansa snapshotiin.

Jatkan snapshot tekniikan taustalla olevan tekniikan käsittelyä seuraavassa kirjoituksessani noin viikon kuluttua. Seuraavassa kirjoituksessani tuon esille ongelman, joka liittyy snapshotatun virtuaalisen kiintolevyn laajentamiseen ja kuinka tämä voi helposti johtaa tietojen tuhoutumiseen.

14.11.2010

Tietotekniikka yrityksissä murrosvaiheessa, osa 3/3

Kategoria: Tietotekniikan soveltaminen liiketoiminnassa — Timo Haapavuori @ 23.11

Työasemavirtualisoinnin haasteet ja mahdollisuudet

Tekniikan yleistymisen haasteena on ollut epäluulo tekniikkaa kohtaan, mutta ehkä tärkeimpänä tekijänä osaamisen puute. Esimerkiksi Citrixin XenDesktop tuotteen – jota voidaan pitää VDI ratkaisujen edelläkävijänä ja tällä hetkellä kenties vakavimmin otettavana tekijänä markkinoilla – teknisiä sertifioituja asiantuntijoita on tällä hetkellä Suomessa muutamia kymmeniä, joista suurin osa heistäkin työskentelee suurien yrityksien palveluksessa. Pk-yrityssegmentille osaamista on siis ollut tarjolla vieläkin rajallisemmin. Micro Magic on sertifioitu XenDesktop osaaja.

Työasemavirtualisointi mahdollistaa työskentelyyn myös täysin uudenlaisia ulottovuuksia. Aikaisemmissa kirjoituksissani olen käynyt lävitse lähinnä virtuaalisen työpöydän käyttämistä perinteisillä tietokoneilla. VDI teknologiat tuovat kuitenkin olemassa oleviin työskentelymenetelmiin aivan uusiakin ulottuvuuksia. Esimerkiksi kaikki ohjelmistot ovat jatkossa käytettävissä tietokoneiden lisäksi älypuhelimilla. Toisaalta nopeasti yleistyvät tablet tyyppiset laitteet kuten iPad integroituvat VDI ympäristöihin saumattomasti. Yrityksen työasemat on myös jatkossa mahdollista korvata thinclient tai zeroclient tyypisillä ”tyhmillä päätelaitteilla”. Tyhmät päätelaitteet kuluttavat sähköä perinteisiin työasemiin verrattuna murto-osan ja mikä tärkeintä, tyhmät päätelaitteet ovat parhaimmillaan laitteita jotka eivät tarvitse minkäänlaista ylläpitoa tietohallinnolta.

Työasemavirtualisoinnin lisämausteena on hyvä mainita myös kotikäytön tyypillisesti aiheuttamat tietoturvahaasteet yrityksille. Varsin usein työkonetta – ainakin jos se on kannettava – käytetään myös muiden kuin työasioiden hoitoon. Tästä aiheutuu varsin usein tietoturvariski yritykselle. Usein myös tietokoneen käyttöä muiden kuin työasioiden hoitoon on pyritty teknisestikin rajoittamaan ja tästä puolestaan on aiheutunut usein mielipahaa tietokoneen käyttäjille. Parhaimmillaan työasemavirtualisointi mahdollistaa kotitietokoneen ja työtietokoneen käyttämisen täysin tietoturvallisesti ja loppukäyttäjälle täysin näkymättömästi samassa fyysisessä laitteessa. Parhaimmillaan työasemavirtualisointi mahdollistaa työkoneen huipputieturvan säilyttämisen samanaikaisesti kun käyttäjällä on käytettävissään samanaikaisesti myös kotikäyttöön tarkoitettu järjestelmä, joka on käyttäjän vapaasti muokattavissa. Käyttäjä voi liikkua tämän kotiympäristön ja työympäristön välillä sulavasti, eikä tavallinen käyttäjä välttämättä edes itse tiedosta eroa kotiympäristön ja työympäristön välillä. Ja mikä tärkeintä, yrityksen tietoturva ei vaarannu missään tilanteessa.

Työasemavirtualisointi tulee vaikuttamaan organisaatioiden tapaan työskennellä tulevaisuudessa erittäin voimakkaasti. Vaikka kustannuksia en ole tässä kirjoituksessani ottanutkaan huomioon, niin kustannussäästöt tulevat olemaan yksi merkittävä tekijä työasemavirtualisointiin siirtymisessä. Työasemavirtualisointi vähentää merkittävästi, ellei poista kokonaan, käyttäjien tietokoneilla tehtäviä asennus- ja tukitehtäviä. Työasemavirtualisointi antaa tietotekniikan ammattilaisille mahdollisuuden keskittyä jatkossa paremmin heidän ydintehtäviinsä, kun yksinkertaisempia perustehtäviä tulee työasemavirtualisoinnin ansiosta häviämään.

Isoissa yrityksissä työasemavirtualisointia on jo joissain yrityksissä aloitettu, mutta pienemmissä yrityksissä tekniikka ei ole saanut vielä tuulta siipiensä alle. Yhtenä haasteena järjestelmän rakentamiseen liittyvien teknisten valmiuksien puuttumisen lisäksi on pidetty järjestelmän rakentamisesta muodostuvia kustannuksia. Micro Magicin kehittämä MagicDesk palvelu tarjoaa kaikki työasemavirtualisoinnin edut myös pienille yrityksille, ilman suuria investointeja, kiinteään kuukausihintaan palveluna. MagicDesk onkin yksi varteenotettava vaihtoehto yrityksen harkitessa tietotekniikan uudistamista yrityksessä.

Tulevissa kirjoituksissani tulen jatkamaan aloittamaani pohdintaa liiketoiminta näkökulmasta, sekä tuon esille omakohtaisia kokemuksia työasemavirtualisointiprojekteista, joissa olen ollut mukana.

7.11.2010

Tietotekniikka yrityksissä murrosvaiheessa, osa 2/3

Kategoria: Tietotekniikan soveltaminen liiketoiminnassa — Timo Haapavuori @ 23.08

Työasemavirtualisointi, mistä siinä on kysymys?

Suurimmassa osassa organisaatioita tietotekniikan tilanne nähdään edelleen edellisessä kirjoituksessani kuvatun kaltaisena ongelmana, johon yritysten on ollut vaikea löytää soveltuvaa ratkaisua. Termi VDI (Virtual Desktop Infrastructure) on vakiintunut tarkoittamaan perinteisten työasemien virtualisointia. VDI:hin liittyvä tekniikka ja mahdollisuudet ovat kehittyneet viimeisten vuosien aikana erittäin nopeasti, mutta tekniikkaa on otettu käyttöön varsin hitaasti. Verratessa esimerkiksi Pohjoismaita keskenään, on Suomi tämän tekniikan käyttöönotossa ehdoton peränpitäjä.

Mitä VDI termi käytännössä tarkoittaa ja minkä takia tekniikka ei ole yleistynyt organisaatioissa toivotulla tavalla? VDI termillä tarkoitetaan työaseman ohjelmiston – ennen muuta käyttöjärjestelmän, mutta myös sovellusohjelmistojen – irrottamista fyysisestä laitteesta. VDI tekniikka mahdollistaa käyttäjän työasemassaan käyttämän ohjelmiston irrottamisen käyttäjän käyttämästä fyysisestä laitteesta. Tällöin puhutaan siis työasemavirtualisoinnista, joka on vakiintunut palvelinpuolelle jo pitkän aikaa sitten. Työasemavirtualisointi irroittaa siis käyttäjän hänen omasta työasemastaan siten, että käyttäjä voi käyttää omaa tuttua ”tietokonettaan”, käytännössä millä tahansa tietokoneella, niin yrityksen sisällä kuin myös yrityksen tietoverkon ulkopuolella.

VDI tekniikassa työasemien kuorma siirretään työasemalta palvelimelle. Tämä mahdollistaa siis sen, että työntekijä voi käyttää omaa työympäristöään työpaikalla millä tahansa työpaikan tietokoneella. Tarvittaessa työntekijä voi kirjautua omalle tutulle työpöydälleen, myös kotikoneeltaan tai vaikkapa työmatkalla hotellin aulassa olevalta tietokoneelta. Koska käyttäjän tietokone on todellisuudessa palvelimella, eikä sillä koneella, jonka ääressä käyttäjä fyysisesti istuu, niin käyttäjän ei tarvitse tämän ansioista huolehtia sen enempää tietojen varmistuksesta kuin tietoturvasta muutenkaan. Tämä kaikki on mietitty käyttäjän puolesta valmiiksi ja mikäli käyttäjän tietokone sattuisi häviämään tai rikkoutuisi, niin koneen mukana ei koskaan häviäisi mitään tärkeää tietoa ja käyttäjä voisi jatkaa työskentelyä ilmaan mitään viivytyksiä miltä tahansa toiselta tietokoneelta.

Korkeatasoista multimediaa – kuten liikkuvaa kuvaa ja ääntä – on pidetty usein VDI ympäristöjen pullonkaulana. Nykyisellä olemassa olevalla tekniikalla on kuitenkin saavutettavissa erittäin korkeatasoinen multimediakokemus ja tämän päivän tekniikalla multimedian huono laatu ei ole enää esteenä VDI ratkaisuihin siirtymiselle. Tosin eri valmistajien tekniikoissa on tällä osa-alueella suuria eroja ja voitaneen sanoa että Citrixin kehittämä HDX teknologia tarjoaa tällä hetkellä parhaan käyttäjäkokemuksen.

Toisena ja kenties suurimpana ongelma VDI ratkaisuissa on pidetty offline käyttöä. Offline käytöllä tarkoitetaan tietokoneen käyttämistä tilanteessa, jossa käyttäjälle ei ole pääsyä verkkoon. Tyypillinen esimerkiksi offline käytöstä voisi olla esimerkiksi tietokoneen käyttäminen lentokoneessa. Offline käyttö on ollut todellinen ongelma VDI ratkaisuissa aina tähän päivään asti. Tämäkin haaste on vihdoin voitettu ja nyt VDI ympäristö voidaan toteuttaa myös siten, että se mahdollistaa offline tyyppisen käytön. Käytännössä tämä on tällä hetkellä mahdollista Citrixin XenClientilla, joka onkin markkinoiden ainoa aitoa offline käyttöä tukeva VDI ratkaisu.

XenClient tekniikka tarkoittaa käytännössä sitä, että käyttäjän tietokoneella – tyypillisesti kannettavalla – on jatkuvasti paikallinen kopio käyttäjän tietokoneesta, mutta sama tieto on aina samanaikaisesti myös palvelimella. Kun käyttäjä on tietoverkon ulottumattomissa, niin käyttäjä käyttää tietokoneelle tallennettua paikallista kopiota omasta tietokoneestaan ja välittömästi käyttäjän yhdistäessä tietokoneensa taas tietoverkkoon, kaikki käyttäjän tekemät muutokset synkronoidaan palvelimelle turvaan. Tekniikka on rakennettu siten, että ainoastaan muuttunut tieto synkronoidaan, jolloin liikkuvan käyttäjän tilanteessa vaatimukset käytössä olevalle tietoliikenneyhteyden nopeudelle ovat hyvin vähäiset.

Toisin kuin tyypillisessä IT-ympäristössä, VDI offline käyttöscenariossa kaikki paikallisesti tallennettu data on automaattisesti salattua ja tietokoneen hukkuminen tai varastaminen ei aiheuta tietoturvaongelmia yrityksessä. Toisaalta tilanteessa, jossa tietokone katoaa tai rikkoutuu, ei käyttäjälle tarvitse enää asentaa uutta tietokonetta, sillä koko käyttäjän ympäristö on tallessa palvelimella, josta se voidaan synkronoida uudelle tietokoneelle. VDI ja tässä esimerkissä käytetty XenClient mahdollistaa myös laitteistoriippumattomuuden siten, että esimerkiksi kannettavan tietokoneen rikkoutuessa käyttäjä voi valita minkä tahansa tietokoneen ja olemassa oleva kopio käyttäjän ympäristöstä toimii myös tässä uudessa koneessa. Aikaisemmin tietokonemallien muuttuminen työllisti tietohallintoa huomattavasti, koska käytössä olevat järjestelmät ja ennen muuta kannettavien ja työasemien ”imaget” olivat sidottuja tiettyyn tietokonemalliin. Uuden tekniikan ansiosta tätä laitteistoriippuvaisuutta ei enää ole. Toki käytettävien tietokoneiden on tuettava uuden kaltaista tekniikkaa, mutta näitä tietokonemalleja on jo nyt markkinoilla laaja määrä ja tämä määrä tulee jatkossa kasvamaan entisestään.

Jatkan aiheeseen liittyvä pohdintaa seuraavassa kirjoituksessani arviolta noin viikon kuluttua. Seuraavassa kirjoituksessani tuon esille työasemavirtualisointiin liittyviä haasteita sekä avaan työasemavirtualisoinnin tuomia täysin uudenlaisia tapoja työskennellä.