Big Data-virtualisering

Författare: Judy Howell
Skapelsedatum: 6 Juli 2021
Uppdatera Datum: 1 Juli 2024
Anonim
vSphere Big Data Extensions and Isilon
Video: vSphere Big Data Extensions and Isilon

Innehåll

Definition - Vad betyder Big Data Virtualization?

Big data virtualization är en process som fokuserar på att skapa virtuella strukturer för big data system. Företag och andra parter kan dra nytta av virtualiseringen av big data eftersom det gör det möjligt för dem att använda alla datatillgångar de samlar in för att uppnå olika mål och mål. Inom IT-branschen kräver det virtualiseringsverktyg för big data för att hantera analys av big data. Inom IT-branschen kräver det virtualiseringsverktyg för big data för att hantera analys av big data.

En introduktion till Microsoft Azure och Microsoft Cloud | I hela denna guide kommer du att lära dig vad cloud computing handlar om och hur Microsoft Azure kan hjälpa dig att migrera och driva ditt företag från molnet.

Techopedia förklarar Big Data Virtualization

Att förklara virtualisering av big data kräver att man förstår de allmänna principerna för virtualisering som helhet. Den väsentliga idén med virtualisering är att heterogena eller distribuerade system representeras som komplexa system genom specifika gränssnitt som ersätter fysiska hårdvaru- eller datalagringsbeteckningar med virtuella komponenter. Till exempel, i hårdvara virtualisering, gör programvara ett system av fysiska datorer till ett system av "logiska" eller virtuella datorer. Detta virtualiseringssystem kan presentera delar av två eller flera olika lagringsenheter på två eller flera datorer som en enda "Drive A" som användare får åtkomst till som en enhetlig helhet. I nätverksvirtualisering kan system representera en uppsättning fysiska noder och resurser som en annan uppsättning virtuella komponenter.

Ett sätt att tänka på en virtualiseringsresurs för big data är som ett gränssnitt som skapas för att göra big data-analys mer användarvänlig för slutanvändare. Vissa proffs förklarar också detta som att skapa ett "lager av abstraktion" mellan de fysiska big data-systemen, dvs där varje bit data är individuellt inrymt på datorer eller servrar, och skapa en virtuell miljö som är mycket lättare att förstå och navigera. Big data virtualization syftar till att kombinera alla dessa distribuerade platser till ett enkelt virtuellt element.

Näringslivet har utvecklat en sofistikerad uppsättning verktyg för analys av big data, men inte alla stöder principen om virtualiserad big data, och den här typen av arbete har sina egna utmaningar. Vissa hävdar att företagen är långsamma för att ta itu med big data-virtualisering, eftersom dess implementering anses tråkig och svår. Detta kan emellertid förändras när tjänsteleverantörer fortsätter att tillverka produkter och tjänster som företag vill ha och kvalificerade IT-proffs ser på de bästa sätten att göra ändringar mellan hur ett system fysiskt installeras och hur det används genom en övergripande programvaruarkitektur.