Virtualisering = resultatkraft for knapp ekspertise

Virtualisering = resultatkraft for knapp ekspertise

Virtualisering er en løsning på knapphet i menneskelige ressurser.

Av Leif Knutsen, senior principal i Devoteam daVinci

Etter alt å dømme så virtualisering dagens lys i 1964 i forbindelse med IBMs CP-40-prosjekt, altså for nesten et halvt århundre siden. Hensikten var å få mest mulig ut av datidens mest knappe ressurs, nemlig maskinvare. Innovasjon basert på virtualisering har i alle disse årene vært brukt for å få mer ut av det som det til enhver tid har vært minst av.

I tillegg til virtuelle maskiner (på en maskin) og virtuelt minne (på harddisker) har caching og store-and-forward-løsninger blitt brukt til å «virtualisere» knapp båndvidde.

Om nød lærer naken kvinne å spinne, lærer altså knapphet dataingeniører å virtualisere. Ettersom vi nærmer oss ubegrenset prosessorkapasitet, minne, lagring, og båndvidde, hva er det vi forsøker å optimalisere med ytterligere virtualisering?

I hvert fall to ting:

Det ene er vår kognitive evne til å håndtere kompleksitet. Systemene vi bygger og forvalter nå er avhengige av stadig flere bevegelige deler. Vi er avhengige av å kunne dele opp systemet i ulike abstraksjonsnivå for å anvende rett ekspertise og jobbe oss gjennom problemene. For ikke mange år siden var det mulig for en smart teknolog å forstå en IBM-PC fra bunn til topp: hva hver kabel ble brukt til, hvordan maskin- og assemblerkoden var oppbygd, hvilke «interrupts» virket på ulike eksterne enheter, og så videre. Og i «mainframenes» storhetsalder måtte man kjenne til begrensningene i VSAM og ISAM for å skrive effektiv kildekode.

De dagene er over.

På teknisk nivå har det vært en så rasende utvikling at det er umulig for en enkelt person å forstå, langt mindre ha en oversikt, over de mange komponentene som utgjør en typisk løsning. Og dette i tillegg til at systemene er blitt stadig mer integrerte på forretningsmessig nivå.

Dermed «virtualiserer» vi de mange maskiner, nettverk, og styringsmekanismene som faktisk utgjør en løsning (for eksempel autentisering) til en «tjeneste». Konkurransefortrinn for programvareleverandører er ikke bare feilfrie, pålitelige, og skalerbare løsninger, men også grensesnitt som «skjuler» den underliggende kompleksiteten og gir brukere mulighet til å administrere systemet på det nivået som er fornuftig for deres forretningsbehov.

Det andre er styringsverktøy, særlig for infrastruktur. For eksempel foregår det en massiv konsolidering av serverfarmer for tiden. Innen overskuelig fremtid vil det være vanlig at en leverandør betjener 100 000 servere om gangen. Dette vil ikke være mulig uten at mange maskiner virtualiseres til å se ut som noen få maskiner. Eller egentlig tjenester som tilsynelatende eksisterer (som en sky) uavhengig av jernet som får det til å gå rundt.

Dette betyr at «virtualisering» i dag i all hovedsak går ut på å få mest mulig ut av knapp ekspertise. I utgangspunktet vil det si tung og vanligvis knapp ekspertise, eksempelvis admin-oppgaver på Windows Server og Linux, DBA-oppgaver, brukeradministrasjon, og mye mer. Å utnytte denne ekspertisen er ikke bare et spørsmål om å være kostnadseffektiv, men også om det at det bare er noen få av de fremste ekspertene, altså de som kreves for å løse de virkelig viktige problemene. Jo mer man anvender spisskompetanse der det virkelig kreves, jo mer resultatkraft får det. Og jo sterkere og mer slagkraftig blir den samme ekspertisen.

Slik virtualisering muliggjør også bedre og renere samhandel mellom eksperter. En robust tjenestedefinisjon vil også innbefatte utdypende feilmeldinger som gjør det mulig for spesialister å drive målrettet feilretting under hvert sitt panser. Det vil være et kjærkomment brudd med de jaktekspedisjonene på nattetid som er blitt til legender (og vedvarende mareritt) for en hel generasjon systemingeniører.

Virtualisering vil dermed bli stadig viktigere, men av nye grunner: dagens og fremtidens knappe ressurser er menneskelige, og virtualisering er et nødvendig middel for å nyttiggjøre oss ekspertise på best mulig måte.

Spørsmålet IT-ledere må stille er derfor ikke hvilken maskinvare som virtualiseres, men hvilken ekspertise som blir mer produktiv og slagkraftig.

Ubegrenset kapasitet: – Prosessorkapasitet, minne, lagring, og båndvidde. Hva er det vi forsøker å optimalisere med ytterligere virtualisering? spør Leif Knutsen fra Devoteam daVinci seg i dagens kommentar. (Ill. stckxchng.hu)