Myymalat pieni

1.2.2011

Yritysten käyttämät pankkiyhteysohjelmat tietoturvauhka

Kategoria: Tietoturva — Timo Haapavuori @ 20.18

Julkisuudessa on keskusteltu varsin paljon lähinnä kuluttajien käytössä olevista verkkopankeista, ja niihin liittyvistä tietoturvaongelmista. Totta onkin, että näistä verkkopankeista on välillä löytynyt huolestuttavia piirteitä. Tosin varsin usein verkkopankkeihin liittyvät ongelmat ovat olleet enemmän käyttäjien ymmärtämättömyydestä johtuvia kuin verkkopankkien taustalla olevaan tekniikkaan liittyviä. Vaikka verkkopankkeja onkin arvosteltu varsin laajasti, ja väärinkäytöksiäkin on tapahtunut, niin tästä huolimatta verkkopankkien tietoturva on keskimääräisesti kohtuullisen hyvällä tasolla. Verkkopankeissa on vakiintunut jo niiden alkuajoilta lähtien käytäntö, jossa jokaisella käyttäjällä on vaihtuva avainlukulista. Vaihtuva avainlukulista tarkoittaa sitä, että jokaisella kerralla verkkopankkiin kirjautumisen yhteydessä käytetään eri tunnuslukua. Tämä puolestaan tarkoittaa sitä, että vaikka yksittäinen tunnusluku pääsisikin vääriin käsiin, niin pääsääntöisesti kyseinen avainluku on tässä vaiheessa jo käytetty, eikä avainluvusta ole enää hyötyä.

Yritysten käyttämiä pankkiyhteysohjelmia tarkasteltaessa huomataan hyvin nopeasti, että kehittyneimmätkin näistä ohjelmista, ovat tietoturvan näkökulmasta kivikaudella jos ohjelmia verrataan kuluttajien käyttämiin verkkopankkeihin. Työssäni olen ollut asentamassa ja konfiguroimassa varmasti lähes kaikkia yritysten käytössä Suomessa olevia pankkiyhteysohjelmia. Yhteinen piirre näille kaikille ohjelmille on ollut salasanat, joita ei tyypillisesti tarvitse vaihtaa koskaan ja joilla ei ole mitään minimivaatimuksia. Kun tähän yhdistää keskiverto käyttäjän joka asettaa omaksi salasanakseen oman kissansa nimen ja säilyttää salasanaansa varmuuden vuoksi keltaisella muistilapulla näppäimistön alla, niin jo pelkästään tämä tilanne kuulostaa kohtuulliselta tietoturvauhalta.

Pankkiyhteysohjelmien käyttämien salasanojen säilyttäminen ohjelman sisällä vaihtelee suuresti ja vahva salaus ei välttämättä ole itsestäänselvyys. Viimeaikoina ohjelmien jakaminen ASP- tai SAAS-tyyliin on yleistynyt merkittävästi. Tällöin varsin usein kyse on siitä, että samaa ohjelmaa käytetään useiden täysin toisistaan tietämättömien yritysten pankkiasioiden hoitoon. Tällöin olisi ensiarvoisen tärkeää varmistua siitä, että yritys A ei voi missään olosuhteissa nähdä yrityksen B tietoja. Markkinoilla on useiden eri valmistajien toteutuksia, ja ikäväkseni on todettava, että kaikissa tapauksissa tämä itsestään selvyydeltä vaikuttava seikka ei tarkemmin tarkasteltuna olekaan aina kovin selvää.

Yrityskulttuurit ovat myös usein varsin kypsymättömiä tietoturvaan ja sen merkitykseen. Aikaisemmin jo viittasin tilanteisiin, joissa muutenkin varsin yksinkertaista salasanaa säilytetään esimerkiksi näppäimistön alla. Kovin harvassa ovat ainakin pienemmissä yrityksissä ne, joissa käyttöoikeuksia on mitenkään rajattu. Esimerkiksi pienelläkin tilitoimistolla saattaa olla helposti useiden kymmenien yritysten pankkitilit käytettävissään. Eikä ole mitenkään poikkeuksellista, että kaikilla yrityksen työntekijöillä on näihin tileihin pääsy ja tilien käyttöön ei liity minkäänlaisia rajoituksia. Tilannetta hankaloittaa vielä entisestään tietotekniikkaan usein liittyvät ongelmat, joissa yritykset käyttävät IT-alan yrityksiä apunaan. Asentajalle, jota yrityksessä kukaan ei välttämättä ole koskaan nähnytkään, annetaan tyypillisesti ensimmäisenä pankkiyhteysohjelman pääkäyttäjän salasanat, jotta hän pääsee ongelman selvityksen kimppuun. Ja koska näitä salasanoja ei yleensä muuteta, niin tämä paperinkulmaan kirjoitettu tunnus saattaa hyvin kulkeutua asentajan taskussa yrityksestä ulos ja antaa asentajalle mahdollisuuden käyttää salasanaansa hyödyksi vielä vuosien kuluttua. Ja kuinka moni meistä pankkiyhteysohjelmien kanssa työskennelleistä on koskaan tullut asiaa edes ajatelleeksi.

Yritysten käyttämien pankkiyhteysohjelmien käyttöön, sekä taustalla olevaan tekniikkaan, liittyy tietoturvauhkia huomattavasti enemmän kuin kuluttajien käyttämiin verkkopankkeihin. Samaan aikaan yritysten kautta liikkuvat rahasummat ovat tyypillisesti huomattavasti suurempia kuin kuluttajien tileillään liikuttelemat summat. Olen keskustellut asiasta jo useiden vuosien ajan sekä pankkiyhteysohjelmia valmistavien ohjelmistotalojen, että pankkiyhteysohjelmia käyttävien yritysten kanssa. Tyypillistä näille keskusteluille on ollut ongelman vähättely tai kiistäminen. Mitään ongelmiahan ei ole tyypillisesti ole ollut ennenkään, joten eihän niitä odoteta tulevan jatkossakaan. Pelkään, että tähän epäkohtaan puututaan todenteolla vasta sitten, kun riittävän suuri vahinko on tapahtunut ja asia on saanut riittävästi julkisuutta. Jos näin joskus tapahtuisi, niin näen jo nyt sielujeni silmillä kuinka sekä yrityksessä olevat käyttäjät, että ohjelmistotalon edustajat kertovat, kuinka kaikki mahdolliset asiat tietoturvan eteen oli tehty ja tapahtunut tuli kaikille suurena yllätyksenä. Nyt kun suuremmilta ongelmilta on vielä toistaiseksi vältytty, niin nyt jos koskaan olisi aika paneutua tähän asiaan niin yrityksissä kuin ohjelmistotaloissakin, ja tehdä tarvittavat korjaukset. Jostain syystä olen kovin skeptinen tähän oma-aloitteiseen asioiden kuntoon laittamiseen, ja uskon tämänkin asian tulevan kuntoon vasta ensimmäisen suuren kriisin kautta.

Tulevissa kirjoituksissani tulen pitämään tietoturva-aspektin mukana. Pyrin nostamaan jatkossakin esille käytännön kokemuksiani niin hyvässä kuin pahassa. Tietoturva on nykyisin erottamaton osa lähes meidän kaikkien arkipäivää, ja sen vuoksi yritän tuoda tietoturvanäkökulmaa esille myös niissä asioissa, joihin sitä ei välttämättä perinteisesti ole osattu liittää.

21.1.2011

Tietoturvan kaksi suurinta uhkaa 2/2

Kategoria: Tietoturva — Timo Haapavuori @ 17.10

Tietoturvasta puhuttaessa heikoin lenkki on aina ollut, ja uskaltaisin väittää, että tulee myös aina olemaan, ihminen. Kuinka moni päivittää tietokoneensa tietoturvapäivitykset säännöllisesti tai edes silloin kun siitä muistutetaan jonkin isomman uhan kohdalla iltauutisissa? Kuinka moni edes tietää mitä nämä tietoturvapäivitykset tarkoittavat? Virustorjuntaohjelmistojen lisenssit on yleensä uusittava tietyin väliajoin. Mutta tuleeko nuo lisenssit aina uusittua? Nämä asiat nostetaan aika usein esille, kun keskustellaan käyttäjän vastuusta. Mutta ovatko nämä niitä oleellisia kysymyksiä?

Yrityksessä nämä ovat asioita jotka tyypillisesti on annettu, tai ainakin olisi pitänyt antaa, ammattilaisten tehtäväksi. Kotikoneella noihinkin asioihin on aiheellista kiinnittää kuitenkin huomiota. Ehkä kuitenkin paljon oleellisempaa on pysähtyä miettimään miten me tietoverkossa liikumme. Pyöräillessämmekin kypärä on tärkeä suoja kaatumista vastaan. Mutta on erittäin todennäköistä, että se ei pelasta meitä, jos ajamme pyörällä vaikkapa ison rekan alle. Sama juttu pätee siis myös tietoturvaan.

Kannattaako meidän avata tuntemattomalta henkilöltä tullut sähköpostin liitetiedosto, kun viestin otsikossa meidän kerrotaan voittaneen 10 miljoonaa arvonnassa toisella puolella maailmaa, jossa emme ole koskaan edes käyneet? Onko järkevää lähettää sähköpostissa verkkopankkimme tunnusluvut tuntemattomalle henkilölle, joka yrittää kovin hyvin perustella, kuinka hän niitä tarvitsee voidakseen auttaa meitä? Netissä surffatessamme, onko järkevää tutkia niitä kaikkein epämääräisimpiä nettisivuja sen vuoksi, että siellä luvataan olevan jotain niin hyvää, että se ei mitenkään voi olla totta? Riittääkö salasanaksemme pienillä kirjaimilla kirjoitettu koiran tai kisan nimi? Jos ajattelette että riittää, niin miettikääpä hetki kauanko noin neljä merkkiä pitkän salasanan murtaminen kestää ammattilaiselta? Voin vakuuttaa ettei kovinkaan kauaa. Onko näppäimistön alla oleva keltainen muistilappu paras tapa säilyttää omia salasanoja? Tätä voisi verrata siihen, että jätämmekö me yleensä kotoa lähtiessänne avaimen kotimme oveen tai kaupassa asioidessanne avaimen auton virtalukkoon.

Kaikesta teknisestä kehittymisestä huolimatta tietoturvassa on kyse mitä suurimmassa määrin maalaisjärjen käytöstä. Tietoturvaan liittyvät ongelmat liittyvät oman kokemukseni mukaan lähes poikkeuksetta käyttäjän ajattelemattomuuteen, laiskuuteen tai väliinpitämättömyyteen. Näitä käyttäjästä johtuvia tekijöitä voidaan yrittää lieventää tekniikan avulla ja tässä tekniikka onkin kehittynyt paljon, mutta taustalla oleva ongelma ei ole muuttunut miksikään.

Siinä missä tavallinen tietoverkossa liikkuva käyttäjä on yleensä itselleen suurin tietoturvariski, niin työskennellessäni nykyisin lähinnä yritysten tietojärjestelmien kanssa, olen havainnut, että kenties vielä loppukäyttäjää suurempi riski tietoturvalle on ”huono admin”. Se henkilö, jonka vastuulla yrityksen tietotekniikka on. Näihin ”huonoihin admineihin” törmää aivan liian usein ja vaikka joskus taustalla voi olla osaamiseen liittyviä haasteita, niin paljon suurempi ongelma näissä tilanteissa on yleensä kiire ja ajattelemattomuus, joskus myös välinpitämättömyys.

Nostin ”huonon adminin” loppukäyttäjää suuremmaksi tietoturvauhaksi ennen muuta sen vuoksi, että siinä missä yksittäinen käyttäjä yleensä asettaa itsensä alttiiksi vaaroille, niin tämä ”huono admin” asettaa organisaation kaikki käyttäjät altiiksi vaaroille ja samalla tuudittaa loppukäyttäjät siihen käsitykseen, että tietoturva olisi hoidettu parhaalla mahdollisella tavalla. Varsin usein tällä ”huonolla adminilla” ei ole yrityksessä esimiestä joka osaisi arvioida tämän henkilön tekojen oikeellisuutta ja varsin harvoilla tavallisilla tietokoneen käyttäjällä on edes lähtökohtaisesti halua tai uskallusta kyseenalaistaa tämän henkilön tekemisiä, sillä kyseessähän on ammattilainen.

Tietoturva on ollut jo pitkään suuri tietotekniseen kehitykseen liittyvä uhka. Näin tulee varmasti olemaan myös jatkossa. Hyväksymällä ajatuksen, että meidän jokaisen on tehtävä oma osuutemme tietoturvatalkoissa, olemme askeleen lähempänä tietoturvallisempaa tietoyhteiskuntaa. Kyse ei ole välttämättä uudesta ja vaikeasta tekniikasta tai muutoin monimutkaisesta varautumisesta. Terve maailaisjärki ja itsestäänselvyyksien kyseenalaistaminen ovat asioita, jotka auttavat meitä jokaista kohta parempaa tietoturvaa.

Myöhemmissä kirjoituksissani pyrin pitämään tietoturva-aspektin mukana ja nostamaan esille konkreettisia käytännön esimerkkejä tietoturvasta niin hyvien kuin huonojenkin esimerkkien avulla.

14.1.2011

Tietoturvan kaksi suurinta uhkaa 1/2

Kategoria: Tietoturva — Timo Haapavuori @ 17.09

Tietoturvasta tai paremminkin sen puutteesta puhutaan nykyään jatkuvasti. Ohjelmistoista löydetään jatkuvasti uusia haavoittuvaisuuksia. Uusia viruksia ja vakoiluohjelmia syntyy nykyään enemmän kuin koskaan. Tietoturvauhat ulottuvat jatkuvasti uusille aluille, riskit matkapuhelimien haavoittuvaisuuksista alkaa olla jo vanha juttu, suosittu yhteisöpalvelu Facebook on sekin osoittanut haavoittuvaisuutensa. Kaikkein eniten luottamusta herättävät tahot, kuten ydinlaitokset, ovat joutuneet erittäin vakavien hyökkäyksien kohteeksi. Ja varmasti meistä jokainen on kuullut verkkopankkeihin liittyvistä uhista.

Normaalia tietoyhteiskunnan kansalaista uhat ja vaarat usein pelottavat, mutta sitten kuitenkin aika usein tätä pelkoa suurempi voima on usko itseensä: ”eihän minulle mitään tapahdu”. Muistan jo vuosien takaa, kun vielä työskentelin aktiivisesti myymälöissämme, kuinka tavallista olikaan kohdata ”eihän minulle mitään tapahdu” –tyyppisiä asiakkaita. Yleensä nämä kohtaamiset vain sattuivat hetkessä, jossa ihminen oli juuri huomannut, että kylläpäs se sitten sattuikin omalle kohdalle. Varsin yleinen asiakas tuohon aikaan oli keski-ikäinen mies, joka oli erehtynyt surffaamaan tietokoneellaan aikuisviihdesivustoille. Tuolloin usein tärkein liikkeelle paneva voima oli saada tietokone korjattua, ennen kuin vaimo tai tyttöystävä huomaisi tapahtuneen. Joku mahdollisesti teistäkin tunnistaa tästä itsensä. Ja ei ole tainnut tilanne noiden vuosien jälkeen hirveän paljon muuttua.

Ehkä sitten kuitenkaan tämän tyypillinen asiakas silloin ennen ei ollut ymmärtänyt, mitä tietoturva oikeasti tarkoittaa, vaikka oli sitä juuri hetkeä aikaisemmin katsonut silmästä silmään. Onko tietoturvan pettäessä suurin riski, että kenties läheisin ihminen oppii tietämään kenties jotain mitä ei vielä aikaisemmin tiennyt? Tämänkö takia tietoturvaan tehdään jatkuvasti uusia investointeja, ettei aviomies tai poikaystävä joutuisi noloon tai kiusalliseen tilanteeseen? Ja tietolähteeni kertovat, ettei tilanne ole vuosien saatossa hirveästi tästä parantunut.

Viruksia ja muita tämänkaltaisia haitakkeita ei tehdä enää nykyään – eikä muuten ole tehty enää vuosiin – pilantekomielessä. Kaiken tämän taustalla on raaka bisnes. Viruksia tehtailevat hakkerit ovat kiinnostuneita sinun luottokortin numerostasi, verkkopankin tunnuksistasi, monet heistä haluavat valjastaa sinun tietokoneesi lähettämään roskapostia yhdessä muiden saastuneiden koneiden kanssa ympärimaailmaan jne. Toisaalta hakkereilla on myös poliittisia päämääriä, kuten esimerkiksi hiljattain tehty täsmävirus, jolla pyrittiin ja ilmeisesti kohtuullisesti myös onnistuttiin vahingoittamaan Iranin yhdinohjelmaa. Ainakin minusta tuntuu, että tietoturvan kanssa meidän tulisi olla huolestuneempia muista vaikutuksista kuin nolosta tilanteesta puolison kanssa. Tilanne voi näyttää seuraavana päivänä paljon nolommalta, kun parin tonnin luottokorttilasku jonkun toisen tekemistä ostoksista kolahtaa postiluukusta tai sähkölaskua maksaessa huomaat säästötilisi saldosta kadonneen juuri useampia nollia.

Tietoturvasta puhuttaessa erilaiset ohjelmat ja niiden merkitys on korostunut. Puhutaan virustorjunnoista ja palomuureista. Tavalliselle käyttäjälle syntyy helposti vaikutelma, että tietoturva on korjattavissa pienellä investoinnilla tarvittavaan tietoturvatuotteeseen. En tässä kirjoituksessa halua vähimmässäkään määrin väheksyä näiden tuotteiden tärkeyttä tieturvasta puhuttaessa, mutta välineurheilussakaan hyvät välineet eivät takaa hyvää urheilusuoritusta.

Seuraavassa kirjoituksessani, arviolta noin viikon kuluttua, jatkan tietoturvakysymysten pohtimista, nostan esille konkreettisia tietoturvauhkia ja pyrin näyttämään, miten jokainen meistä voi omilla toimillaan olla luomassa tietoturvallisempaa tietoyhteiskuntaa.

5.1.2011

Kalliita värikasetteja vai kustannustehokasta tulostamista?

Kategoria: Tulostus — Avainsanat: , , , — Kimmo Haapavuori @ 1.02

Meistä lähes jokainen on ollut ostamassa tulostimeen uutta värikasettia tyhjentyneen tilalle. Ja uskoakseni lähes yhtä moni on manannut joko hiljaa mielessään tai ehkäpä jopa äänekkäästikin, miten pieni mustetilkka voi maksaa niin paljon. Ja tottahan se on. Litrahinnaltaan kymmenvuotias viski ja ranskalainen hajuvesi ovat halpoja tuotteita tulostinmusteen rinnalla.

Jotkut hakevatkin ratkaisua kalliisiin tulostuskustannuksiin niin sanotuista tarvikeväreistä. Tarvikeväreillä siis tarkoitetaan värikasetteja jotka on valmistanut jokin muu taho kuin alkuperäinen tulostinvalmistaja. Toisilla kokemukset näistä kaseteista ovatkin positiivisia, mutta toisenlaisiakin tapauksia on ilmaantunut. Värit ovat saattaneet kulua vielä nopeammin kuin alkuperäisissä värikaseteissa tai värikasetti on saattanut jopa päästää värit kasetin läpi tulostimen sisään. Tarvikekasettien aiheuttamat ongelmat ovat usein harmillisia siinä mielessä, että tulostinvalmistajat nostavat usein kädet pystyyn takuun osalta, kun tulostimessa on käytetty muita kuin alkuperäisiä värejä. Tulostimien takuuehdoissahan mainitaan, että takuu raukeaa, mikäli laitteessa käytetään muita kuin tulostinvalmistajan omia värikasetteja.

Mikä sitten olisi paras ratkaisu tulostuskustannuksien hallintaan? Uutta tulostinta ostettaessa monille yksi tärkeimpiä valintakriteereitä on tulostimen hinta. Tulostin saattaa lähteä tarjouksesta mukaan muutamalla kymmenellä eurolla. Tulostimen ostohetki olisi kuitenkin se, kun tulostuskustannuksia pitäisi pysähtyä miettimään ja vertailemaan. Monilla toki saattaakin olla ajatusta asiasta, ja he tarkistavat, mitä uuden tulostimen värikasetit maksavat. Valitettavasti pelkkä kasetin hinta ei kerrokaan vielä koko totuutta. Hyvin usein edullisen tulostimen värikasetitkin ovat melko edullisia. Kysymys tässä vaiheessa kuuluukin, kuinka nopeasti nämä kasetit tyhjenevät?

Karkeana nyrkkisääntönä voidaan pitää, että mitä edullisempi tulostin on hankintahinnaltaan, sitä kalliimmat ovat kyseisen laitteen tulostuskustannukset. Sama pätee niin mustesuihkutulostimissa kuin lasertulostimissakin. Nykyään monet mieltävät mustesuihkutulostimet aina kalliiksi vaihtoehdoksi ja lasertulostimet edullisemmiksi. Tämä sääntö ei tänä päivänä enää pidä aina täysin paikkaansa. Nykyään esimerkiksi 200 eurolla on mahdollista saada tulostuskustannuksiltaan järkevämpi mustesuihkulaite verrattuna samanhintaiseen värilaseriin.

Tulostinta hankittaessa on kuitenkin muistettava ottaa huomioon monia muitakin seikkoja pelkän hankintahinnan ja tulostuskustannusten lisäksi. Tärkeitä huomioon otettavia asioita ovat muun muassa mitä tulostimella tulostetaan, kuinka paljon tulostetaan, tarvitaanko välttämättä väriä ja onko tarvetta muille ominaisuuksille kuten skannaukselle, kopioinnille, faksille tai kaksipuoleiselle tulostamiselle. Vain muutamia luetellakseni.

Tulostimen hankinnassa voikin olla mietinnän arvoisia seikkoja jopa enemmän kuin tietokoneen ostoa mietittäessä. Tämä seikka vain valitettavan usein unohtuu, niin ostajilta kuin useimmilta myyjiltäkin. Toisaalta, äärimmäisen harvalla ostajalla itsellään on asiasta riittävää tietämystä, eikä sitä heiltä tietenkään voikaan edellyttää. Mutta tulostimien myyjiltä sitä toki voi ja pitää edellyttää. Ammattitaitoisen myyjän tehtävä onkin ensin kartoittaa millaiset ovat asiakkaan tarpeet ja tämän jälkeen miettiä tarpeisiin parhaiten soveltuva laite.

Uskon, että oikeilla tulostinvalinnoilla monien hampaiden kiristely tulostinvärejä ostettaessa, jos nyt ei poistu, niin ainakin vähenee huomattavasti. Ja sen kunniaksi ehkä voi kotiintuomisiksi käydä ostamassa myös pienen pullon viskiä tai vaikkapa sitten ruusun tuoksuista hajuvettä.

28.11.2010

Snapshotit Hyper-V serverissä osa 2/2

Kategoria: Virtualisointi — Avainsanat: , , , , — Timo Haapavuori @ 20.18

Johtuen Hyper-V:n käyttämästä tekniikasta snapshotin ottaminen on erittäin nopeaa, sillä mitään tietoa ei missään vaiheessa kopioida mihinkään.Käytössä oleva virtuaalinen kiintolevy vain lukitaan. Snapshottien ottaminen on monissa tilanteissa perusteltua ja järkevää, mutta  niitä ei tulisi säilyttää turhaan. Snapshottien ottoon liittyy myös suorituskykyongelmia, sillä levyn käsittely monimutkaistuu ja virtuaalilevy pirstoutuu eri kohtiin isäntäkoneen fyysistä levyä.

Snapshotien ottaminen ja poistaminen onnistuvat virtuaalikoneen ollessa käynnissä.  Poistaminen näkyy Hyper-V:n hallinnassa välittömästi. Teknisesti delta-tiedostolle ei kuitenkaan tehdä mitään virtuaalisen koneen ollessa käynnissä, vaan deltatiedoston käyttäminen jatkuu edelleen. Toisin sanoen  poistaminen ei vapauta delta-tiedoston käyttämää levytilaa, vaan muutoksia kirjoitetaan edelleen samaan delta-tiedostoon.

Jos virtuaalikone on sammuksissa, kun snapshot poistetaan tai jos  se on poistettu koneen ollessa käynnissä,  virtuaalikoneen sammutuksen jälkeen Hyper-V konsolista nähdään status kohdassa ”merge” ja prosenttilukema. Tässä vaiheessa Hyper-V serveri yhdistää alkuperäisen virtuaalisen kiintolevyn tiedot ja delta-tiedoston tiedot  toisiinsa. Jos taas snapshoteja on otettu useita,  tarkoittaa yhden snapshotin poistaminen  käytännössä delta-tiedostojen yhdistämistä. Jos delta-tiedosto on pieni, eli sitä on yleensä käytetty vain vähän aikaa, yhdistelyprosessi sujuu varsin nopeasti. Jos taas snapshotin tuottama delta-tiedosto on ollut käytössä pitkään ja näin ollen delta-tiedosto on kasvanut jo suureksi,  yhdistely voi kestää varsin kauan. Tähän on siis hyvä varautua jo etukäteen.

Mikäli virtuaalikone käynnistetään ennen yhdistelyn valmistumista,  Hyper-V jatkaa delta-tiedoston käyttämistä edelleen ja delta-tiedoston ja snapshotin yhdistely jatkuu vasta kun virtuaalikone sammutetaan seuraavan kerran. Henkilökohtaisesti suosin yhdistelyprosessin suorittamista loppuun yhdellä kerralla, jos se vain on mahdollista.

Virtuaalisille kiintolevyille on tyypillistä, että niitä on helppoa kasvattaa suuremmiksi. Mikäli virtuaalikoneesta on snapshot otettuna ja kiintolevyä yritetään kasvattaa,  Hyper-V Manager suostuu kasvattamaan kiintolevyä aivan samalla tavalla kuin se tekee kiintolevyn kohdalla, josta ei ole snapshottia otettuna. Tässä onkin erittäin suuri vaaran paikka. Snapshotatun koneen virtuaalisen kiintolevyn kasvattaminen aiheuttaa kuitenkin sen, että virtuaalisen kiintolevyn ja deltatiedoston välinen yhteys menetetään ja kaikki tieto, joka on muodostettu snapshotin ottamisen jälkeen, on tässä yhteydessä menetetty. Microsofin virallinen ohje kuuluu, että tälläisessa tilanteessa järjestelmän tiedot tulee palauttaa varmistuksista.

Vaikka Hyper-V:ssä kiintolevyä kavatetaessa onkin maininta, että snapshotattua kiintolevyä ei saa laajentaa, tuo mainintaa jää erittäin helposti huomaamatta ja kun levyn laajennus on valmistunut, ovat katastrofin ainekset  olemassa kun havaitaan, että virtuaalikone ei toimikaan enää. Hyvin harvassa ympäristössä backupit ovat reaaliaikaisia ja aivan liian monessa ympäristössä tietojen palauttamista ei ole testattu. Tilanteessa, jossa käyttäjä törmää edellä kuvatun kaltaiseen ongelmaan,  on vaarana että aiheutunut vahinko on vieläkin suurempi, jos käyttäjä hätäännyttyään aloittaa koko virtuaalikoneen asentamisen alusta.

Jos Hyper-V:n hallintaan käytetään Microsoftin maksullista Microsoft System Center Virtual Machine Manager (SCVMM) tuotetta, on SCVMM Hyper-V Manageria sen verran kehittyneempi, että sillä kiintolevyn laajennus ei onnistu, mikäli virtuaalikoneesta on snapshotti otettuna. Tämä toiminnallisuus saattaa jossain tilanteissa maksaa helposti SCVMM:n hinnan takaisin, vaikkakin voisi kuvitella Microftin kehittävän myös Hyper-V Manager hallintaa nykyisestä siten, että kuvatun kaltainen tilanne ei olisi mahdollinen myöskään silloin kun käytössä ei ole SCVMM.

Hyper-V:n snapshotit ovat monessa asiassa erittäin tervetullut ominaisuus, mutta snapshottien käyttäminen ilman laajempaa ymmärrystä niiden toiminnasta, voi johtaa moniin ei toivottuihin tilanteisiin. Tulevissa kirjoituksissani tulen käsittelemään virtualisointia ja IT infraa laajemminkin ja pyrin nostamaan esille asioita, jotka jäävät helposti käyttäjältä huomaamatta.

21.11.2010

Snapshotit Hyper-V serverissä, osa 1/2

Kategoria: Virtualisointi — Avainsanat: , , , , — Timo Haapavuori @ 21.56

Microsoftin virtualisointialusta Hyper-V on kasvattanut suosiotaan tasaisesti tuotteen julkaisusta lähtien, joka tapahtui 2008. Hyper-V serverissä on ominaisuuksia, joista osa on kilpailijoitaan parempia, osa huonompia. Varsin monet ominaisuudet virtualisointialustoissa ovat  samankaltaisia riippumatta siitä, onko kyseessä Microsoftin, Citrixin, VMWaren, tai jonkin muun valmistajan toteuttama ratkaisu.

Hyper-V serverissä snapshottien ottaminen onnistuu varsin helposti, eikä niiden ottaminen vaadi käytännössä minkäänlaista perehtymistä Hyper-V:n taustalla olevaan tekniikkaan. Microsoftin ajatushan monessa asiassa onkin tehdä tuotteistaan varsin helppokäyttöisiä. Hyper-V:stä otettavat snapshotit ovat kuitenkin senkaltainen toiminnallisuus, että käyttäjän tulisi tietää varsin hyvin snapshotien taustalla oleva tekniikka.Muutoin käyttäjä törmää lähes varmasti myöhemmin erilaisiin ongelmiin. Ongelmat ovat usein senkaltaisia, että niiden syyseuraussuhde voi olla myös käyttäjälle hankalasti hahmotettavissa, ellei snapshotien käyttämä tekniikka ole käyttäjälle millään tavalla tuttua.

Tässä kirjoituksessa tarkoitukseni on käydä läpi Hyper-V servereissä snapshot toiminallisuus ja nostaa esiin asioita jotka tyypillisesti aiheuttavat käyttäjille ongelmia. Hyper-V serverissä voidaan käyttää kolmenlaisia virtuaalisia kiintolevyjä.Tämän lisäksi voidaan käyttää suoraan isäntäkoneessa olevaa kiintolevyä virtuaalikoneelle, mutta tähän toiminnallisuuteen en tässä kirjoituksessa paneudu. Kolme erilaista virtuaalikiintolevytyyppiä ovat fixed, dynamic ja differential tyyppiset vhd-levyt.

Fixed kiintolevyllä tarkoitetaan vhd-levyä, jossa levyn luontihetkellä isäntäkoneesta varataan koko kiintolevyn kokoa vastaava tila. Jos siis kiintolevyn koko on 20 gigaa,  Hyper-V luo vhd-päätteisen tiedoston, jonka koko on 20 gigaa. Dynaaminen levy puolestaan tarkoittaa sitä, että vhd-levyä luotaessa koko kiintolevyn kooksi määritettyä tilaa ei vielä varata, vaan vhd-tiedosto kasvaa sitä mukaa kun levyä todellisuudessa käytetään. Dynaamisia levyjä käytetään tyypillisesti testausympäristöissä, jolloin levytilaa saattaa olla saatavilla rajoitetusti. Differentiaali levyt ovat kolmas ja vähiten käytetty virtuaalinen kiintolevy tyyppi. Differentiaalilevyssä idea on, että alkuperäinen vhd levy lukitaan.Tämän jälkeen samaa differentiaalilevyä voidaan käyttää useammallekin virtuaaliselle tietokoneelle, sillä differentiaali levyn vhd tiedosto lukitaan ja kaikki muutokset kirjoitetaan tämän jälkeen erillisiin delta-tyyppisiin tiedostoihin.

Snapshotin ottaminen Hyper-V serverissä muuttaa käytössä olevan vhd-levyn käytännössä differentiaalilevyksi. Käytössä ollut vhd levy lukitaan ja muutokset levyllä kirjoitetaan delta-tiedostoon. Aina uuden snapshotin ottaminen lukitsee edellisen delta-tiedoston ja muodostaa jälleen uuden delta-tiedoston. Tämä tarkoittaa käytännössä sitä, että jos tietokoneessa käytetään ennen muuta fixed tyyppisiä kiintolevyjä, niin kiintolevy, jonka koko on esimerkiksi 100 gigaa ja josta on käytössä esimerkiksi 20 gigaa, jää 80 gigaa varattua levytilaa  käytännössä hyödyntämättä kokonaan, koska muutoksia ei tehdä snapshotin ottamisen jälkeen enää alkuperäiseen vhd-tiedostoon, vaan deltatiedostoon. Tämä puolestaan johtaa hyvin nopeasti ongelmiin kiintolevytilan käytössä.Kyseiselle virtuaalikoneelle varattu tila pysyy edelleen varattuna, mutta sitä ei enää käytännössä käytetä, vaan kaikki muutokset tallennetaan delta-tiedostoon. Ongelmia muodostuu myös dynaamisten levyjen kanssa, sillä vaikka dynaamisissa levyissä tilaa ei vielä olekaan varattu enempää kuin sitä on siihen mennessä ehditty käyttämään, niin tämän vhd-tiedoston lukitseminen ja delta-tiedoston luominen lisää levytilan kulutusta, koska kaikki tiedot joudutaan jatkossa peilaamaan lukitun vhd-tiedoston ja delta-tiedoston välillä.

Kuten jo aiemmin mainitsin,  jokainen uusi snapshot lukitsee snapshotia edeltävän tilanteen. Käyttäjä jolle Hyper-V:n snapshotien taustalla oleva tekniikka ei ole entuudestaan tuttua, tulee helposti ottaneeksi lukuisia snapshottia aina uudestaan ja uudestaan poistamatta edellisiä jo tarpeettomaksi käyneitä snapshoteja. Levytilaongelmaa ei yleensä tässä kohtaa huomaa, sillä snapshotin ottaminen sillä hetkellä ei kuluta levytilaa käytännössä lainkaan. Jokainen uusi snapshot luo aina uuden delta-tiedoston ja kaikkien delta-tiedostojen ja alkuperäisen lukitun vhd-tiedoston välillä säilyy relaatio. Tyypillistä onkin, että mitä useampia snapshoteja samasta virtuaalikoneesta otetaan, niin levytilan suhteellinen kulutus kasvaa, koska delta-tiedostojen ja alkuperäisen vhd-levyn välinen relaatio on säilytettävä. Onhan käyttäjän voitava palata mihin tahansa ottamaansa snapshotiin.

Jatkan snapshot tekniikan taustalla olevan tekniikan käsittelyä seuraavassa kirjoituksessani noin viikon kuluttua. Seuraavassa kirjoituksessani tuon esille ongelman, joka liittyy snapshotatun virtuaalisen kiintolevyn laajentamiseen ja kuinka tämä voi helposti johtaa tietojen tuhoutumiseen.

14.11.2010

Tietotekniikka yrityksissä murrosvaiheessa, osa 3/3

Kategoria: Tietotekniikan soveltaminen liiketoiminnassa — Timo Haapavuori @ 23.11

Työasemavirtualisoinnin haasteet ja mahdollisuudet

Tekniikan yleistymisen haasteena on ollut epäluulo tekniikkaa kohtaan, mutta ehkä tärkeimpänä tekijänä osaamisen puute. Esimerkiksi Citrixin XenDesktop tuotteen – jota voidaan pitää VDI ratkaisujen edelläkävijänä ja tällä hetkellä kenties vakavimmin otettavana tekijänä markkinoilla – teknisiä sertifioituja asiantuntijoita on tällä hetkellä Suomessa muutamia kymmeniä, joista suurin osa heistäkin työskentelee suurien yrityksien palveluksessa. Pk-yrityssegmentille osaamista on siis ollut tarjolla vieläkin rajallisemmin. Micro Magic on sertifioitu XenDesktop osaaja.

Työasemavirtualisointi mahdollistaa työskentelyyn myös täysin uudenlaisia ulottovuuksia. Aikaisemmissa kirjoituksissani olen käynyt lävitse lähinnä virtuaalisen työpöydän käyttämistä perinteisillä tietokoneilla. VDI teknologiat tuovat kuitenkin olemassa oleviin työskentelymenetelmiin aivan uusiakin ulottuvuuksia. Esimerkiksi kaikki ohjelmistot ovat jatkossa käytettävissä tietokoneiden lisäksi älypuhelimilla. Toisaalta nopeasti yleistyvät tablet tyyppiset laitteet kuten iPad integroituvat VDI ympäristöihin saumattomasti. Yrityksen työasemat on myös jatkossa mahdollista korvata thinclient tai zeroclient tyypisillä ”tyhmillä päätelaitteilla”. Tyhmät päätelaitteet kuluttavat sähköä perinteisiin työasemiin verrattuna murto-osan ja mikä tärkeintä, tyhmät päätelaitteet ovat parhaimmillaan laitteita jotka eivät tarvitse minkäänlaista ylläpitoa tietohallinnolta.

Työasemavirtualisoinnin lisämausteena on hyvä mainita myös kotikäytön tyypillisesti aiheuttamat tietoturvahaasteet yrityksille. Varsin usein työkonetta – ainakin jos se on kannettava – käytetään myös muiden kuin työasioiden hoitoon. Tästä aiheutuu varsin usein tietoturvariski yritykselle. Usein myös tietokoneen käyttöä muiden kuin työasioiden hoitoon on pyritty teknisestikin rajoittamaan ja tästä puolestaan on aiheutunut usein mielipahaa tietokoneen käyttäjille. Parhaimmillaan työasemavirtualisointi mahdollistaa kotitietokoneen ja työtietokoneen käyttämisen täysin tietoturvallisesti ja loppukäyttäjälle täysin näkymättömästi samassa fyysisessä laitteessa. Parhaimmillaan työasemavirtualisointi mahdollistaa työkoneen huipputieturvan säilyttämisen samanaikaisesti kun käyttäjällä on käytettävissään samanaikaisesti myös kotikäyttöön tarkoitettu järjestelmä, joka on käyttäjän vapaasti muokattavissa. Käyttäjä voi liikkua tämän kotiympäristön ja työympäristön välillä sulavasti, eikä tavallinen käyttäjä välttämättä edes itse tiedosta eroa kotiympäristön ja työympäristön välillä. Ja mikä tärkeintä, yrityksen tietoturva ei vaarannu missään tilanteessa.

Työasemavirtualisointi tulee vaikuttamaan organisaatioiden tapaan työskennellä tulevaisuudessa erittäin voimakkaasti. Vaikka kustannuksia en ole tässä kirjoituksessani ottanutkaan huomioon, niin kustannussäästöt tulevat olemaan yksi merkittävä tekijä työasemavirtualisointiin siirtymisessä. Työasemavirtualisointi vähentää merkittävästi, ellei poista kokonaan, käyttäjien tietokoneilla tehtäviä asennus- ja tukitehtäviä. Työasemavirtualisointi antaa tietotekniikan ammattilaisille mahdollisuuden keskittyä jatkossa paremmin heidän ydintehtäviinsä, kun yksinkertaisempia perustehtäviä tulee työasemavirtualisoinnin ansiosta häviämään.

Isoissa yrityksissä työasemavirtualisointia on jo joissain yrityksissä aloitettu, mutta pienemmissä yrityksissä tekniikka ei ole saanut vielä tuulta siipiensä alle. Yhtenä haasteena järjestelmän rakentamiseen liittyvien teknisten valmiuksien puuttumisen lisäksi on pidetty järjestelmän rakentamisesta muodostuvia kustannuksia. Micro Magicin kehittämä MagicDesk palvelu tarjoaa kaikki työasemavirtualisoinnin edut myös pienille yrityksille, ilman suuria investointeja, kiinteään kuukausihintaan palveluna. MagicDesk onkin yksi varteenotettava vaihtoehto yrityksen harkitessa tietotekniikan uudistamista yrityksessä.

Tulevissa kirjoituksissani tulen jatkamaan aloittamaani pohdintaa liiketoiminta näkökulmasta, sekä tuon esille omakohtaisia kokemuksia työasemavirtualisointiprojekteista, joissa olen ollut mukana.

7.11.2010

Tietotekniikka yrityksissä murrosvaiheessa, osa 2/3

Kategoria: Tietotekniikan soveltaminen liiketoiminnassa — Timo Haapavuori @ 23.08

Työasemavirtualisointi, mistä siinä on kysymys?

Suurimmassa osassa organisaatioita tietotekniikan tilanne nähdään edelleen edellisessä kirjoituksessani kuvatun kaltaisena ongelmana, johon yritysten on ollut vaikea löytää soveltuvaa ratkaisua. Termi VDI (Virtual Desktop Infrastructure) on vakiintunut tarkoittamaan perinteisten työasemien virtualisointia. VDI:hin liittyvä tekniikka ja mahdollisuudet ovat kehittyneet viimeisten vuosien aikana erittäin nopeasti, mutta tekniikkaa on otettu käyttöön varsin hitaasti. Verratessa esimerkiksi Pohjoismaita keskenään, on Suomi tämän tekniikan käyttöönotossa ehdoton peränpitäjä.

Mitä VDI termi käytännössä tarkoittaa ja minkä takia tekniikka ei ole yleistynyt organisaatioissa toivotulla tavalla? VDI termillä tarkoitetaan työaseman ohjelmiston – ennen muuta käyttöjärjestelmän, mutta myös sovellusohjelmistojen – irrottamista fyysisestä laitteesta. VDI tekniikka mahdollistaa käyttäjän työasemassaan käyttämän ohjelmiston irrottamisen käyttäjän käyttämästä fyysisestä laitteesta. Tällöin puhutaan siis työasemavirtualisoinnista, joka on vakiintunut palvelinpuolelle jo pitkän aikaa sitten. Työasemavirtualisointi irroittaa siis käyttäjän hänen omasta työasemastaan siten, että käyttäjä voi käyttää omaa tuttua ”tietokonettaan”, käytännössä millä tahansa tietokoneella, niin yrityksen sisällä kuin myös yrityksen tietoverkon ulkopuolella.

VDI tekniikassa työasemien kuorma siirretään työasemalta palvelimelle. Tämä mahdollistaa siis sen, että työntekijä voi käyttää omaa työympäristöään työpaikalla millä tahansa työpaikan tietokoneella. Tarvittaessa työntekijä voi kirjautua omalle tutulle työpöydälleen, myös kotikoneeltaan tai vaikkapa työmatkalla hotellin aulassa olevalta tietokoneelta. Koska käyttäjän tietokone on todellisuudessa palvelimella, eikä sillä koneella, jonka ääressä käyttäjä fyysisesti istuu, niin käyttäjän ei tarvitse tämän ansioista huolehtia sen enempää tietojen varmistuksesta kuin tietoturvasta muutenkaan. Tämä kaikki on mietitty käyttäjän puolesta valmiiksi ja mikäli käyttäjän tietokone sattuisi häviämään tai rikkoutuisi, niin koneen mukana ei koskaan häviäisi mitään tärkeää tietoa ja käyttäjä voisi jatkaa työskentelyä ilmaan mitään viivytyksiä miltä tahansa toiselta tietokoneelta.

Korkeatasoista multimediaa – kuten liikkuvaa kuvaa ja ääntä – on pidetty usein VDI ympäristöjen pullonkaulana. Nykyisellä olemassa olevalla tekniikalla on kuitenkin saavutettavissa erittäin korkeatasoinen multimediakokemus ja tämän päivän tekniikalla multimedian huono laatu ei ole enää esteenä VDI ratkaisuihin siirtymiselle. Tosin eri valmistajien tekniikoissa on tällä osa-alueella suuria eroja ja voitaneen sanoa että Citrixin kehittämä HDX teknologia tarjoaa tällä hetkellä parhaan käyttäjäkokemuksen.

Toisena ja kenties suurimpana ongelma VDI ratkaisuissa on pidetty offline käyttöä. Offline käytöllä tarkoitetaan tietokoneen käyttämistä tilanteessa, jossa käyttäjälle ei ole pääsyä verkkoon. Tyypillinen esimerkiksi offline käytöstä voisi olla esimerkiksi tietokoneen käyttäminen lentokoneessa. Offline käyttö on ollut todellinen ongelma VDI ratkaisuissa aina tähän päivään asti. Tämäkin haaste on vihdoin voitettu ja nyt VDI ympäristö voidaan toteuttaa myös siten, että se mahdollistaa offline tyyppisen käytön. Käytännössä tämä on tällä hetkellä mahdollista Citrixin XenClientilla, joka onkin markkinoiden ainoa aitoa offline käyttöä tukeva VDI ratkaisu.

XenClient tekniikka tarkoittaa käytännössä sitä, että käyttäjän tietokoneella – tyypillisesti kannettavalla – on jatkuvasti paikallinen kopio käyttäjän tietokoneesta, mutta sama tieto on aina samanaikaisesti myös palvelimella. Kun käyttäjä on tietoverkon ulottumattomissa, niin käyttäjä käyttää tietokoneelle tallennettua paikallista kopiota omasta tietokoneestaan ja välittömästi käyttäjän yhdistäessä tietokoneensa taas tietoverkkoon, kaikki käyttäjän tekemät muutokset synkronoidaan palvelimelle turvaan. Tekniikka on rakennettu siten, että ainoastaan muuttunut tieto synkronoidaan, jolloin liikkuvan käyttäjän tilanteessa vaatimukset käytössä olevalle tietoliikenneyhteyden nopeudelle ovat hyvin vähäiset.

Toisin kuin tyypillisessä IT-ympäristössä, VDI offline käyttöscenariossa kaikki paikallisesti tallennettu data on automaattisesti salattua ja tietokoneen hukkuminen tai varastaminen ei aiheuta tietoturvaongelmia yrityksessä. Toisaalta tilanteessa, jossa tietokone katoaa tai rikkoutuu, ei käyttäjälle tarvitse enää asentaa uutta tietokonetta, sillä koko käyttäjän ympäristö on tallessa palvelimella, josta se voidaan synkronoida uudelle tietokoneelle. VDI ja tässä esimerkissä käytetty XenClient mahdollistaa myös laitteistoriippumattomuuden siten, että esimerkiksi kannettavan tietokoneen rikkoutuessa käyttäjä voi valita minkä tahansa tietokoneen ja olemassa oleva kopio käyttäjän ympäristöstä toimii myös tässä uudessa koneessa. Aikaisemmin tietokonemallien muuttuminen työllisti tietohallintoa huomattavasti, koska käytössä olevat järjestelmät ja ennen muuta kannettavien ja työasemien ”imaget” olivat sidottuja tiettyyn tietokonemalliin. Uuden tekniikan ansiosta tätä laitteistoriippuvaisuutta ei enää ole. Toki käytettävien tietokoneiden on tuettava uuden kaltaista tekniikkaa, mutta näitä tietokonemalleja on jo nyt markkinoilla laaja määrä ja tämä määrä tulee jatkossa kasvamaan entisestään.

Jatkan aiheeseen liittyvä pohdintaa seuraavassa kirjoituksessani arviolta noin viikon kuluttua. Seuraavassa kirjoituksessani tuon esille työasemavirtualisointiin liittyviä haasteita sekä avaan työasemavirtualisoinnin tuomia täysin uudenlaisia tapoja työskennellä.

31.10.2010

Tietotekniikka yrityksissä murrosvaiheessa, osa 1/3

Kategoria: Tietotekniikan soveltaminen liiketoiminnassa — Timo Haapavuori @ 21.33

Tietotekniikan haasteet yrityksen liiketoiminnassa

Lokakuun alussa Citrixin pääjohtaja Mark B. Templeton toi esille useaan kertaan Citrixin mission Berliinissä järjestetyssä Citrix Summit konferenssissa ”do whatever, whenever and wherever”. Mitä tämä oikeasti tarkoittaa ja onko tämä tekniikka jo olemassa, vai onko kyse jostain tulevaisuuden suuntauksesta? Vapaasti suomennettuna tämä tarkoittaa, että tee mitä tahansa milloin tahansa ja missä tahansa. Vaikka suurimmalle osalle tietokoneen käyttäjistä ajatus näyttääkin enemmän hienolta visiolta kuin jokapäiväiseltä tavalta työskennellä, niin todellisuudessa tekniikka tähän kaikkeen on jo olemassa ja meidän kaikkien saatavilla. Mitä tämä ”do whatever, whenever and wherever” oikeasti tarkoittaa?

Tyypillisesti työntekijä tulee aamulla töihin ja kirjautuu omalle tietokoneelleen, joka on asennettu nimenomaisesti kyseiselle käyttäjälle ja johon käyttäjä on tehnyt itselleen haluamansa kaltaiset asetukset. Käyttäjä käyttää omaa tietokonettaan päivän ja lähtee päivän päätteeksi kotiin. Vaihtoehtoisesti käyttäjällä voi olla käytössään kannettava tietokone jonka hän kytkee töissä työpaikan verkkoon ja töistä lähtiessään ottaa kannettavan mukaansa.

Käyttäjä, joka käyttää kiinteää työasemaa on sidottu sekä paikkaan, että kyseiseen laitteeseen. Töistä lähtiessään hänellä ei ole useinkaan esimerkiksi kotoa pääsyä työpaikan tietoverkkoon tai parhaimmillaankin tyypillisesti pääsy on vain joihinkin tiettyihin asioihin, kuten esimerkiksi sähköpostiin. Kannettavan tietokoneen käyttäjällä työnteko on usein sidottu kannettavaan tietokoneeseen, mutta kannettava tietokone kuitenkin kulkee käyttäjän mukana. Tyypillisesti käyttäjällä on työpaikan verkkoon kytkeytyneenä käytettävissä kaikki yrityksen tietojärjestelmät. Kuljettaessaan kannettavan yrityksen ulkopuolelle, käyttäjä ei pysty useinkaan käyttämään kaikkia niitä ominaisuuksia joita käyttäjä on voinut käyttää samalla kannettavalla tietokoneella yrityksen tietoverkossa. Joissain yrityksissä tätä ongelmaa on pyritty ratkaisemaan VPN-tyyppisillä ratkaisuilla, mutta parhaimmillaankin tämänkaltaiset ratkaisut ovat tuntuneet suuresta osasta käyttäjistä hankalilta ja hitailta. Edelleen käyttäjän työnteko on sidottu käyttäjän omaan kannettavaan tietokoneeseen.

Yritysten palvelimien vikasietoisuuteen ja varmuuskopiointiin on ainakin hieman isommissa yrityksissä kiinnitetty huomiota kiitettävästi jo pitkään. Käyttäjien omat työasemat ja kannettavat ovat puolestaan olleet tietohallinnon jatkuva painajainen. Tyypillistä on, että käyttäjät tallentavat salaisiksikin luokiteltuja tietoja omien koneidensa levyille. Tietokoneen rikkoutuminen, kannettavan tietokoneen hukkuminen tai sen varastaminen aiheuttaa yleensä monenlaisia ongelmia yrityksessä. Tietokoneen hajoaminen aiheuttaa tyypillisesti aina käyttäjälle käyttökatkon. Vaikka uusi kone käyttäjälle usein järjestyykin nopeasti, niin koneen asetusten saaminen käyttäjän toivomuksia vastaavaksi vie usein aikaa ja kuluttaa sekä työntekijän että tietohallinnon resursseja. Usein myös tässä vaiheessa käyttäjä huomaa, että elintärkeää tietoa on kadonnut vanhan tietokoneen mukana ja tästä tiedosta ei tyypillisesti ole olemassa asianmukaisia varmistuksia. Uuden tietokoneen hinta on tyypillisesti varsin merkityksetön kustannus verrattuna muihin tietokoneen rikkoutumisesta tai häviämisestä johtuviin kustannuksiin.

Kannettavien tietokoneiden lisäännyttyä kannettavien tietokoneiden hukkuminen ja jopa varastaminen on lisääntynyt merkittävästi. Kannettavan tietokoneen hukkuminen aiheuttaa äsken mainittujen ongelmien lisäksi tietoturva ongelman, sillä kannettavan tietokoneen arvo on varsin harvoin erityisen merkittävä yritykselle, mutta kannettavan tietokoneen sisältö saattaa olla yrityksen liiketoiminnan kannalta elintärkeää. Ongelmallista on sekin, että tämä elintärkeä tieto katoaa, mutta vielä ongelmallisemmaksi tilanne muuttuu tyypillisesti silloin, kun elintärkeä tieto on esimerkiksi kannettavan varastamisen seurauksena vaarassa joutua ulkopuolisiin käsiin. Tähän ongelmaan on jo pitkään ollut ratkaisuna tietokoneiden kiintolevyjen salaaminen. Isoissakin yrityksissä tämä osuus kuitenkin laiminlyödään erittäin usein. Tämä johtuu salauksen aiheuttamasta lisätyöstä tietohallinnolle, mutta ehkä ennen muuta sen vuoksi, että loppukäyttäjät pitävät salaamista toisaalta turhana – eihän minun kannettavalleni koskaan mitään tapahdu – ja toisaalta riippuen käytetystä salaustavasta, käyttäjät pitävät salausta vaikeana, sillä se saattaa tuoda käyttäjälle esimerkiksi yhden ylimääräisen salasanan. Kustannusten merkitystäkään tässä kohtaa ei pidä vähätellä.

Kaikki äsken kertomani ongelmat ovat varmasti sen kaltaisia, että meidän on helppo tunnistaa ne omissa organisaatioissamme. Asiaan on etsitty ratkaisuja pitkään. Hyvien vaihtoehtojen puuttuessa yrityksissä on jouduttu tyytymään paljolti olemassa oleviin ratkaisuihin ja tekemään valintoja toisaalta tietoturvan ja toisaalta käyttäjäkokemuksen näkökulmasta. Se on tyypillisesti tarkoittanut kompromisseja molemmilla osa-alueilla.

Seuraavassa kirjoituksessani arviolta noin viikon kuluttua pohdin uuden tekniikan mahdollisuuksia ratkaista tässä kirjoituksessani esille tuomiani ongelmia ja avaan käsitettä työasemavirtualisointi.

« Newer Posts