Hur virtualisering driver effektivitet

Författare: Robert Simon
Skapelsedatum: 23 Juni 2021
Uppdatera Datum: 1 Juli 2024
Anonim
B&R Develops Virtual Sensor Technology to Improve Servo Drive Performance
Video: B&R Develops Virtual Sensor Technology to Improve Servo Drive Performance

Innehåll


Hämtmat:

Det finns fortfarande några rynkor som ska strykas ut, men IT-proffsen är glada över virtualiserings gränslösa potential.

När energikostnaderna ökar och kontorsutrymmen minskar är energi- och utrymmesbesparande lösningar en absolut premium. När det gäller ren ekonomi verkar det vara lite överflödigt att implementera en total migration till en virtualiserad miljö. Sammantaget har dock virtualisering möts med entusiasm inom IT-branschen. Det finns fortfarande några rynkor, men det är den gränslösa potentialen som har människor verkligen upphetsade. Här tittar vi på för- och nackdelar och låter dig bestämma dig.

Lite historia om virtualisering

Enligt VMwares officiella webbplats började praktiseringen av virtualisering på 1960-talet, då IBM försökte bättre partitionera mainframe-datorer i ett försök att öka CPU-användningen. Slutresultatet var en stordator som samtidigt kunde utföra flera operationer. I början av 1980- och 90-talet blev x86-arkitekturen valfri arkitektur då distribuerad datoranvändning började ta verkligen grepp inom IT-branschen. Spridningen av x86-arkitekturen orsakade effektivt en massutflykt från virtualisering då servern-klientmodellen började snabbt öka populariteten.

1998 grundades VMware av en grupp forskare från University of California Berkley som försökte hantera några av bristerna i x86-arkitekturen. Bland dessa brister var ett koncept känt som otillräckligt CPU-utnyttjande. Inom många implementationer av x86-arkitekturen är CPU-användningen i genomsnitt mellan 10 och 15 procent av den totala kapaciteten. Ett av de främsta orsakerna till detta är att man kör en server per CPU för att öka prestandan för varje enskild server. Detta förbättrade prestandan, men till en kostnad av hårdvarueffektiviteten.

Fördelar med virtualisering

Det är ingen tvekan om att virtualisering har blivit väldigt populär inom IT-branschen, men varför? Några av de mer uppenbara orsakerna innebär ökat CPU-utnyttjande, ökat rymdutnyttjande och förmågan att standardisera serverbyggande. När det gäller CPU-användning, översätts vanligtvis fler servrar på en fysisk maskin till mer arbete som utförs av CPU. Så snarare än att ta emot all webbtrafik på en maskin, all SMTP-trafik på en annan maskin och all FTP-trafik på ännu en annan, är det möjligt att ta emot all nämnda trafik på en fysisk maskin, vilket ökar CPU-användningen. Att göra detta med framgång innebär dock att man använder viss diskretion vid placering av flera virtuella maskiner på en värddator eftersom det här scenariet kan minska prestandan.

CPU-användningen som tillhandahålls av virtualisering påverkar indirekt rymdutnyttjandet. Tänk på det ovannämnda scenariot där flera servrar placeras på en fysisk maskin, är det en anledning att med virtualisering krävs färre fysiska maskiner och att det därför blir mindre plats.

Slutligen lånar virtualiseringen sig ganska lätt till begreppen kloning, spöke, ögonblicksbilder och all annan typ av replikeringsprogramvara som för närvarande finns. Värdet i detta härrör från spelrummet, det ger en systemadministratör för att skapa bilder av alla operativsystem i nätverket. Genom att skapa anpassade bilder kan en systemadministratör skapa en standardbyggnad som kan replikeras i hela nätverket. Tiden som sparar när du konfigurerar ytterligare servrar är ovärderlig. (För mer information, se Server virtualisering: 5 bästa metoder.)

Virtualisering Nackdelar

Majoriteten av de etablerade nackdelarna med virtualisering avser främst säkerhet. Den första, och kanske viktigaste, nackdelen innebär begreppet enstaka misslyckande. Enkelt uttryckt, om en organisations webbserver, SMTP-server och någon annan typ av server alla är på samma fysiska maskin, behöver en initiativrik ung hacker bara utföra en attack för denial-of-service på den värdmaskinen för att inaktivera flera servrar inom ett nätverks serverinfrastruktur. Att stänga av en organisations webbserver kan vara förödande i sig självt, men att ta ut flera servrar kan vara positivt katastrofalt.

För det andra är en vanlig säkerhetspraxis att placera ett intrusionsdetekteringssystem (IDS) på flera nätverksgränssnitt inom ett givet nätverk. Om de konfigureras korrekt kan IDS vara ett användbart verktyg när du studerar trender, heuristik och andra sådana aktiviteter i nätverket. Detta blir emellertid nästan omöjligt i en virtualiserad miljö, där flera operativsystem placeras på en värdmaskin på grund av det faktum att intrångsdetekteringssystem endast kan övervaka fysiska nätverksgränssnitt. Med andra ord, IDS fungerar som en charm när man övervakar inträde och utträffande trafik på det fysiska nätverksgränssnittet, men när trafiken rör sig mellan virtuella servrar hör IDS inte annat än syrsor i skogen. (För relaterad läsning, kolla in The Dark Side of the Cloud.)

Ett måste för IT

De flesta företags ansträngningar att hålla sig flytande tekniskt har gett upphov till en omättlig törst efter mer kapacitet och mer prestanda. Med tanke på behovet av att göra mer med mindre bör det inte överraska att virtualisering snabbt har blivit en grund för systemadministration. Tills en ny innovation inom CPU-arkitekturen tar IT-världen med storm kommer virtualisering att fortsätta att betraktas som ett absolut måste inom alla ansedda IT-nätverk.