Dags att vända på steken?
Virtuella maskiner på containerplattform ska det fortsätta vara så eller är det dags att vända på steken? Under de senaste åren har it-världen tagit emot nyheter och tekniska vidunder i ett tempo vi sällan skådat. Containerisering är ett exempel – ett koncept som många företag fortfarande inte har hunnit komma igång med, samtidigt som valmöjligheterna kring plattformar och metoder fortsätter att växa.

Traditionellt har containerplattformar körts ovanpå någon form av virtualiseringsplattform. Men nu ser vi en teknisk vändning som skapar helt nya möjligheter: vi kan istället köra virtuella maskiner i containerplattformen. Det kanske låter bakvänt – men det öppnar upp helt nya möjligheter att sänka kostnader och samtidigt förenkla, effektivisera och modernisera sin it-infrastruktur.
Kubernetes har etablerat sig som standardplattform för moderna, containerbaserade applikationer. Samtidigt körs många verksamhetskritiska arbetslaster fortfarande i traditionella virtuella maskiner. Genom att köra både containrar och VM:ar i samma kluster får man enhetlig hantering, gemensamma verktyg och en mer flexibel Iit-miljö. Det standardiserar arbetssättet och skapar broar mellan utvecklingsteam och driftteam.
Varför ska man vända på steken?
Genom teknologier som till exempel KubeVirt eller OpenShift Virtualization kan VM:ar hanteras med samma API anrop och verktyg som containers. Det betyder bland annat att man kan använda GitOps och CI/CD i större utsträckning och så även för VM:ar. Det ger oss snabbare utvecklingscykler, bättre spårbarhet och framförallt förenklad automationsflöde. Organisationer som tidigare haft separata team, processer och verktyg för containers och VM:ar kan nu arbeta i en & samma miljö i samma plattform.
Detta möjliggör stegvis modernisering. Har man applikationer som inte kan containeriseras direkt (pga exempelvis Operativsystem beroenden, licenser eller komplexitet) kan dessa ändå flyttas till plattformen. Med tiden kan delar av dessa brytas ut till containrar & det man vinner är att driften blir enhetlig redan från start. Man skapar helt enkelt en framtidssäker infrastruktur som stöder både gamla och nya tekniker på ett och samma ställe.
Utmaningar att ha koll på
Detta nya sätt att köra sin virtualisering på ställer nya krav & roller behöver sammarbeta i större utsträckning. Infrastrukturteam behöver lära sig Kubernetes, Utvecklare behöver förstå VM-drift. Den utmaningen har vi stött på tidigare men kanske blir den mera utmanande just nu. Miljön blir mer komplex initialt och för att lyckas krävs en kultur av samarbete, gemensamma arbetssätt och investering i kompetens i bolaget.
Dessutom behöver man planera för säkerhet, backup, nätverk och lagring som fungerar för både containers och VM:ar. Plattformen måste byggas med hög tillgänglighet och robusthet, särskilt när allt körs i samma kluster. Organisationer som redan arbetar med DevOps/IaC kommer att ha en fördel, men det gäller att även involvera team med bakgrund i traditionell virtualisering så att kunskap och ansvar kan delas upp effektivt.
En annan aspekt är tillgången på support och verktygsstöd. Det gäller att välja en partner & plattform som har kommersiell support och ett moget ekosystem som är framtidssäkert. Här är Red Hat OpenShift ett exempel på en Kubernetesdistribution med inbyggd virtualiseringsfunktion där redan många stora företag har hoppat på tåget.
Tips till dig som planerar Containerbaserad virtualisering
- Utför en förstudie: Vilka applikationer behöver stanna på en traditionell VM? Vilka applikationer är redo för containers?
- Börja smått! Sätt upp en testmiljö där du kan experimentera utan risk.
- Involvera rätt typ av kompetens: Hybridkompetens inom både traditionell virtualisering & inom containers är nyckeln för att lyckas.
- Säkra upp monitoring och backup: Nya miljöer kräver nya verktyg, stå inte där utan någon plan om olyckan skulle vara framme.
- Utbilda: Investerad kompetens ger direkt effekt i migrering & implementationsfasen, kunskap är ingen tung börda!
Möjliggörare för hybrid och AI
Att samla VM:ar och containers på samma plattform stärker hybridmolnstrategier. Man får en portabel, enhetlig infrastruktur där arbetslaster kan köras lokalt eller i molnet, utan att ändra applikationen. För AI är detta också viktigt. AI-applikationer körs uteslutande ofta i containers, men vissa komponenter kan kräva VM:ar (t.ex. äldre datakällor eller licensierade verktyg). En Kubernetesplattform med stöd för båda ger maximal flexibilitet.
Stöd för GPU-passthrough gör det också möjligt att köra tunga AI och ML-laster i VM på samma plattform som containerbaserade modeller. Detta förenklar hela AI-livscykeln, från datainsamling till inferens. I praktiken betyder det att verksamheter inte längre behöver välja utan kan optimera både för innovation och stabilitet. Kubernetes som gemensam grund gör det möjligt att samordna it, utveckling, datateam och affärsmål på ett effektivt sätt.
En plattform för framtiden
Vi står inför ett skifte där det inte längre handlar om att välja mellan containrar och virtuella maskiner, utan om att kunna hantera båda med samma verktyg, samma processer och samma plattform. För många verksamheter/organisationer innebär det ett stort steg mot förenklad infrastruktur, ökad skalbarhet och bättre stöd för moln, AI och automatisering.
Genom att köra virtuella maskiner i Kubernetes kan man framtidssäkra it-driften, utan att kasta bort tidigare investeringar. Det blir enklare att testa nytt, behålla det som fungerar, och skapa förutsättningar för innovation samtidigt som man upprätthåller kontroll och säkerhet.
Vad är nästa steg?
Att köra virtuella maskiner i Kubernetes är inte en lösning för alla – men för många är det ett logiskt steg mot ökad kontroll, smidighet och en kostnadsfråga där det kombinerar det bästa av gammalt och nytt.
Vill du veta hur det kan passa din verksamhet?
Vi hjälper dig navigera mellan teknik, strategi och verklighet och kan redan idag hjälpa dig att förbereda dig inför en migrering. Våra experter inom området finns över hela Sverige.

