Autonoma system och höja människor från att vara Middleware: Q&A med Ben Nye, VD för Turbonomic

Författare: Lewis Jackson
Skapelsedatum: 12 Maj 2021
Uppdatera Datum: 25 Juni 2024
Anonim
Autonoma system och höja människor från att vara Middleware: Q&A med Ben Nye, VD för Turbonomic - Teknologi
Autonoma system och höja människor från att vara Middleware: Q&A med Ben Nye, VD för Turbonomic - Teknologi

Innehåll


Hämtmat:

Vårt samtal med Ben Nye, VD för Turbonomic.

Du har kanske hört talas om autonom databehandling. Det hänvisar till en dators eller systemets förmåga att självorganisera och självhantera. Och fram till nyligen var det fortfarande lite av en futuristisk rördröm. Vi ville lära oss lite mer om hur ett autonomt system fungerar, så vi pratade med Ben Nye, VD för Turbonomic och verkställande direktören för Bain Capital Ventures. Turbonomic (tidigare VMTurbo) genomgick nyligen ett nytt varumärke för att mer exakt skildra vad deras programvara gör. Det nya namnet integrerar Turbonomics kärnämnen i sin applikationshanteringsplattform: Turbo (realtidsprestanda), autonom kontroll (självorganiserande och hantera arbetsbelastningar) och ekonomiska principer (utbud och efterfrågan). Här talar Ben om autonoma system och vikten av automatisering i allt mer komplexa, datadrivna miljöer.


Techopedia: Du har dykt upp flera gånger på Forbes Midas-listan för högsta riskkapitalister. Som VC har du en intressant utsiktspunkt för att se hela teknologilandskapet med hur mycket världen har förändrats under åren. Vad överraskar dig när du ser tillbaka på hur mycket saker som har förändrats i datacentret?

Ben Nye: Det korta svaret är att jag tror att förändringstakten i datacentret verkligen har accelererat utöver vad folk såg. Det som hände var denna utveckling av det programvarudefinierade datacentret och grundläggande abstraktionen bort från hårdvara. Det öppnade en hel tillväxtkraft inom programvaruelementen.

Så nu, istället för att ta itu med uppdateringscyklerna för hårdvaruförsäljare (som under en lång tid nästan fungerade som en portvakt till datacentret), öppnades det nu bokstavligen för att snabbt kan du skapa idéer - eftersom programvara, verkligen är idéer. Utan begränsningarna för idégenerering har det varit en mycket spännande och rolig tid, men förändringstakten i datacentret och till och med definitionen av datacentret har utvecklats materiellt och snabbare än någonsin tidigare.


Något som jag tycker är mycket intressant med det är när vi åkte till ett programdefinierat datacenter, alla styrenheter och API: er och knoppar i hårdvaruvärlden omdefinierades om i programvara. Vad vi gjorde var att tänka på detta i termer av ett nytt sätt att driva prestanda och produktivitet, vilket skulle vara att ta applikationen och den förändrade efterfrågan på den här applikationen och knyta dem till de omdefinierade styrenheterna inom programvara eftersom det i slutändan är programvara för programvara.

När du gör det kan du nu ta bort den mänskliga mellanvaran mellan applikationsskiktet och infrastrukturlagret, för nu kan du för första gången binda dem direkt - här är ett viktigt ord - autonomt, vilket betyder att bokstavligen tillåter applikationer att vara självhanterande och självorganiserande.

Det gör det också ekonomiskt i den meningen att efterfrågan nu hittar utbud och vi är fokuserade på en konsumtionsmodell av IT, en ekonomisk modell istället för en tilldelningsbaserad modell eller leveransbaserad modell. Det är en ganska grundläggande vridning i berättelsen om hur IT eller en teknisk industriförvaltningsmodell ska fungera. Och det resulterade i bättre prestanda och mer effektivitet vad gäller kostnader. Det gör också kunder mycket mer smidiga och elastiska och gör sättet bättre att använda arbetskraften på marknaden

Det är här som är så ironiskt med vad som hände 2016 med alla programvarudefinierade datacenter. Först övervakar du din hårdvara för att ta reda på när applikationerna går sönder, vilket innebär att de kränkte en servicekvalitet eller ett SLA, men medan vi använder programvara för att hitta felet, går vi tillbaka till maskinvaran för maskingenererade varningar . Den andra ledtrådan är att vi låter applikationer som driver verksamheten bryta, och sedan den tredje är att vi tar de upprepande maskingenererade varningarna och vi lämnar dessa varningar till människor.

Inga buggar, ingen stress - din steg-för-steg-guide för att skapa livsförändrad programvara utan att förstöra ditt liv

Du kan inte förbättra dina programmeringsfärdigheter när ingen bryr sig om mjukvarukvalitet.

Detta måste vara bakåt.

Och det var där vi ville ändra IT-förvaltningsmodellen bort från tilldelningar eller gissa och tillbaka till en efterfrågebaserad, konsumtionsbaserad modell.

Läs: Det begärda driven datacentret - Vad systemadministratörer kan lära sig från Wall Street

Techopedia: Nu när du nämner det, ja, vi gör programvarudefinerat vad som helst, men sedan skickas varningarna bara till den långsamma delen av processen, som, som du sa, den mänskliga mellanvaran.

Du nämnde termen autonom. Kan du kanske prata lite mer om vikten av autonoma system inom IT? Med tanke på namnbytet från VMTurbo till Turbonomic antar jag att det är viktigare än de flesta inser.

Ben Nye: Absolut. Först och främst definitionen av autonom, när det tillämpas på datorisering, handlar det om system som kan självhantera, självorganisera.

Så tänk på Bayesiska nätverk, tänk på sökalgoritmer, tänk på big data, som människor nu kallar "djup inlärning." Det är former av konstgjord intelligens. Det jag tycker är mest intressant med Turbonomic är att det är den ultimata formen av konstgjord intelligens eftersom applikationsarbetsbelastningarna fattar beslut autonomiskt i mjukvara om vilka infrastrukturelement de ska köra på och när de ska flytta sig själva, dimensionera sig själva, starta och stoppa sig själva, klona sig själva. Det är verkligen, riktigt intressant - och vi gör det genom att utnyttja abstraktionen och likviditeten som ges antingen virtualisering, eller containrar eller moln.

Sedan, med en liknande abstraktion av alla olika former av krav - så att du kan ha VM, du har containrar, kan du ha JVM: er - vi tittar på alla dessa former av efterfrågan och alla dessa former av leverans och de är abstrakt. Så låt oss låta efterfrågan sedan välja eller matcha sig själv till utbudet. Och sedan om de är på en fysisk värd och det börjar överbelastas, snarare än att börja låta det misslyckas och generera en varning och ha applikationen, vet du, spränga, varför inte bara låta den fatta ett beslut att flytta sig? Så länge du prissätter i ditt beslut - flytten och kostnaden för att flytta tillbaka - så kan du faktiskt fatta mycket mer intressanta beslut om resursallokering.

Techopedia: Jag älskar tillgång och efterfrågan analogi. I ekonomisk teori är försörjningskällorna fast på kort sikt och kan bara förändras under en lång tidsperiod. I det du beskriver - om du behåller den ekonomiska analogin - förändrar du hela paradigmet. Det vill säga, du kan byta utbud på kort sikt, eller hur? Har du full flexibilitet för att faktiskt vara effektivare och tänker på resursutnyttjandet som marknad, ha en nästan effektiv marknad i realtid?

Ben Nye: Du har exakt rätt. Det är en ekonomisk modell som blir principen kring vilken efterfrågan hittar utbud, men som IT hanteras med hjälp av ekonomiska principer. Och som John Maynard Keynes sa: "I det långa loppet är vi alla döda."

Techopedia: Jag tror inte att du skulle träffa någon CIO just nu som inte redan har flyttat eller inte seriöst överväger en flytt för att lägga mer resurser i molnet. Var ser du branschen gå under de kommande åren?

Ben Nye: Jag tror att du kommer att se ett antal förändringar. Det är ganska tydligt för oss att det inte kommer att bli en helt omformning av teknik. Precis som stordatorn fortfarande är här, tror jag inte att du någonsin kommer att se en 100% omformat. Mer än troligt kommer du att se en hybridvärld. Du kommer att ha privata och offentliga, men jag tror att offentliga verkligen skulle vara offentliga multimoln, inte offentliga enda moln. När man tittar på de största spelarna här finns det bara en handfull. Men när du åker till Europa eller resten av världen ser du många transportörer som också är moln, och så tror jag inte att det är ett stort hopp, eller hur? Den verkliga frågan är dock hur kommer kunderna att köpa rätt moln för att köra sina arbetsbelastningar? Vår teori bakom företaget är det varje arbetsbelastning ska kunna köras på vilken infrastruktur som helst, var som helst. Betydelse i förväg eller av och när som helst eftersom, kom ihåg att tiden är surrogat för efterfrågan.

Så när efterfrågan ändras kanske du vill sprida till molnet. Eller om du kommer att flytta dessa arbetsbelastningar till molnet permanent, vilka arbetsbelastningar ska du dra tillbaka i? För nu har du kapacitet i ditt datacenter. Varför betala två gånger? Och så är en av de saker vi gör idag med Verizon Intelligent Cloud Control men också med andra miljöer att låta kunderna basera sitt beslut om var de ska köra dessa arbetsbelastningar, inte bara på pris eftersom pris kan låsa in dig, men också viktigare på applikationsprestanda. Då kan du ha andra överväganden som pris, överensstämmelse eller datasuveränitet eller säkerhet och andra resurser som bara är grundläggande omsättningsbara resurser på den här marknaden som vi beskriver.

Techopedia: Det är den ekonomiska modellen?

Ben Nye: Ja. Så det är allt tillbaka till den ekonomiska modellen. Tänk bara på hur logiskt det här är. Det är förresten inte bara en analogi, det är faktiskt så som modellen fungerar. Arbetsbelastningen har budget och arbetsbelastningarna tittar på köteori och trängsel, och det är därför mycket mer utökat. Det är inte en linjär prisökning när den börjar trängas; det går upp exponentiellt, vilket tvingar budgeten att påverkas och därför arbetsbördan för att fatta ett beslut att flytta.

Så länge du har abstraktat bort alla komplexitet i datacentret kan du nu handla IOPS med en XtremIO-låda, en ren förvaringsbox och en Compellent-låda och en 3Par-låda eftersom de alla har olika IOPS-egenskaper men applikationen kan därför köpa dessa resurser på eget val. Det är inte annorlunda än att titta på CPU eller vCPU, MEM eller vMEM, eller hur? De är alla säljbara, så ska jag springa här eller här? Det spelar ingen roll! Den vanliga varan här är infrastrukturförsörjning.

Den vanliga varan här är infrastrukturförsörjningen och orsaken till att det är viktigt är - jag kommer att använda en analogi - om du kommer ihåg

tillbaka 1978 avreglerade vi flygbolagen. Innan dess var varje säte densamma, vi prissatte dem alla lika och medan det var logiskt var det fel eftersom på konsumtionssidan var betalningsviljan väldigt differentierad. Så, sätena var en handelsvara, men genom att ändra fokus till efterfrågan, priset per säte - även om sätena var desamma - kunde du konstatera olika betalningsvillighet. Så vad vi gjorde är att vi tog resursen som representerade den gemensamma varan, publicerade den på webben - först var det Saber och Apollo, men sedan blev det Travelocity, Kayak och Priceline.

Plötsligt, när du låter efterfrågan välja utbudet, se och se hela industrin. Lastfaktorerna ökade men flygkostnaderna minskade och hela flyginfrastrukturen som vi har i detta land moderniserades. Det var ett stort framsteg. Åh, och förresten, om du tittar på Priceline idag är det värt 70 miljarder dollar. Det är mer än något flygbolag och de äger inte ett enda plan.

Techopedia: Intressant. Jag har aldrig riktigt tänkt på det så ...

Ben Nye: De äger inte ett flygplan, de äger inte en grind, de äger inte en plats, de använder inte en pilot, eller hur? Och sedan säger du, "Men vilka andra exempel har vi på leveransbaserad centrerad ekonomi?" Låt oss byta. Hotell är leveransbaserade, eller hur? Du har ett hotell, du kan inte flytta det. Du har dessa rum men hur prissätter du dessa rum? Och tillsammans kommer Hotels.com, och Expedia, och Travelclick, etc. Och samma sak hände. Du tittar på restauranger och du har OpenTable. Du tittar på gula sidorna. från Google. Du tittar på annonser i tidningarna och de ersattes av eBay eller Craigslist.

Ett av mina favoritexempel är Uber. Om du går runt i någon stad så ser du en rad hyttar som väntar på människor och sedan går du upp till en annan del av samma stad och det finns en rad människor som väntar på hyttar. Och du tror, ​​det kan inte vara rätt. Sedan kommer Uber, som använder smarttelefonen för att låta efterfrågan driva utbud. Nu, med Uber, har du 90% av efterfrågan mött inom tio minuter, medan i taxitvärlden uppfylls inte 90% av efterfrågan inom 10 minuter och det är därför Ubers sista omgång var 62 miljarder dollar. Och kom ihåg att de inte äger en hytt eller en bil!

Techopedia: Så i ett typiskt datacenter gör vi i princip samma sak som att hyllas på en hytt, eller hur?

Ben Nye: Så tänk på det här sättet: Arbetsbelastningen är budgetinnehavarna, därför att vi byggde datacentret. Så de är faktiskt dina människor i detta exempel. Sedan har jag den här resursen, den gemensamma resursen, allt helt abstraherat. Det kallas leverans och det kan vara överallt - det är allt under applikationens behov, från servern och datormiljön ner till nätverket, ner till lagringsutrymmet. Vad vi nu vill är att se till att detta är en effektiv marknad. Så dessa budgetinnehavare måste kunna agera autonomt, som betyder autonomt och i realtid med tanke på mängden förändrad efterfrågan på själva arbetsbelastningen eller, i detta fall, på applikationen. Det är därför detta är mycket analogt med att hitta utbud. Genom att använda detta system avslutar du mycket bättre applikationsprestanda eftersom du inte väntar på en flaskhals för mänsklig arbetskraft för att svara på en maskingenererad varning för att fatta ett beslut om vård och matning för appen. Du gör det istället i realtid. Och du gör det i skala eftersom dessa institutioner, dessa kunder, kör tusentals appar om dagen och de måste utföra.

Så för det första får du en mycket bättre prestationsupplevelse. Dessutom har du inte människor som tillbringar sina dagar som görare. Istället går de tillbaka till att vara tänkare och de tar inte bara maskingenererade varningar, de funderar på att de faktiskt kan hjälpa verksamheten. De tänker på mikrotjänststrategin och hybrid- och multimolnstrategin och om mjukvarudefinierade nätverk och nätverksfunktioner och virtualisering - alla dessa saker som faktiskt främjar verksamheten och får dem ur världen av break-fix-applikationer och utfodring, eller varning svara.

Vi upptäcker faktiskt att var som helst mellan 40% och 60% av datacentrens kapital är överförsett och vi har råd med mycket av det för att antingen återfördelas - så att man undviker att köpa ny hårdvara - eller avveckla och anledningen som betyder så mycket är -

Techopedia: Ledsen låt mig kolla detta, 40-60%? Tyvärr, det numret är häpnadsväckande.

Ben Nye: Ja. Och det som är viktigare är att 14% av elen i detta land konsumeras av datacentra.

Techopedia: Så vi kunde spara 5-8% av landets hela elförbrukning om vi bara inte överlevererade våra datacenter?

Ben Nye: Låt mig ge dig en säkerhetskopia för att förklara varför, OK? Det går tillbaka till världen för en leveransbaserad ekonomi. Först, när du har en ny applikation och driver en IT-butik, hur gör du det?

Techopedia: Ja, du går till arkitekten och de gissar, eller hur? Och sedan väntar de tills det går sönder.

Ben: Exakt. Du går till branschen och du har en konversation och de vet ingenting som du inte känner till. Så de gissar och ni gissar, och tillsammans försöker vi gissa vad storleken ska vara.

Så du kommer att tilldela fyra eller åtta VCPU: er. Det som är intressant är att allokering inkluderar en fysisk fot eller den virtuella foten på en fysisk server. Varje gång en begäran kommer från den applikationen kommer den att stå i kö som fyra eller åtta VCPU. Det är i huvudsak som att gå på en restaurang och säga att du är ett parti på fyra eller åtta, även om du kanske bara är ett parti av en. Du får aldrig sittande.

Vi överdisponerar med våra gissningar, vilket innebär att vi får det sämsta resultatet och det är mycket dyrt. Det är problemet nummer ett. Problem nummer två är att nu kan du inte korrekt anpassa din ansökan, vilket ger upphov till frågan: hur placerar du den om du inte kan storleken på den?

Du gissar igen. OK, så nu gissar vi på den första saken, vi gissar på den andra saken, sedan finns det den här saken som kallas VM-spridning, eller en VM utan krav på det. Det är kvar i sitt tillstånd istället för att tas bort och det reserverar hårdvara också. Det vi gör är att försöka sätta ihop alla dessa saker i en mänsklig baserad historisk kapacitetsmodell och eftersom vi bara kör det en eller två gånger om året, måste vi bygga en annan häck i, så talade 20-30% säkring eftersom efterfrågan kan öka på alla dessa appar och sedan kommer vi att "stänga klustret" eftersom vi kommer att anse att det här gäng värdarna är "fulla". Just där har du nu låst in så mycket som hälften av din datacenterkapacitet och den är överutrustad.

Techopedia: Det är som om du är inställd på misslyckande, som om det inte finns något möjligt sätt i det gamla paradigmet att faktiskt inte överförsälja eller inte spruta ...

Ben Nye: Om allt du ser och hanterar är infrastrukturförsörjning, hur i världen vet du om du har tillräckligt med tillgång för att vara motståndskraftig om du inte ser och förstår och i realtid binder efterfrågan? Om allt du ser är leverans, hur vet du om du har tillräckligt? Hur vet du om du har för mycket?

Techopedia: Tja, du anställer antagligen några fler huvuden för att gissa lite mer. Du spenderar mer pengar på att undersöka problemet, eller hur?

Ben Nye: Och du avvecklar fortfarande grundläggande överförsörjning i ordning av, kallar det hälften och du köper hårdvara i onödan. Hela konceptet bakom virtualisering i sin första inställning var runt i stället för att ha en dedicerad stack av hårdvara för varje enskild app. Jag kommer att kunna flytta dessa arbetsbelastningar mellan dedikerade staplar och därför var hela idén att tillhandahålla hårdvara till genomsnittet av topparna istället för summan av topparna för allt det hårdvarukapitalet.

Men när du nu tar autonom kontroll i realtid, prestandakontroll, konsumtionssidan av VM eller behållare eller moln, och du tänker på samma sak; vad gör vi? Vi går ut och vi stresstestar varje enskild app och det finns tusentals - det finns hundratus till tusentals appar i en miljö beroende på kundens storlek - och så går vi stresstest de för CPU, för vCPU, för MEM, för vMEM, och så vidare att alla olika element eller resurser inte? Och sedan tillhandahåller vi baserat på summan av topparna igen. Skillnaden är om du inte har en fördröjning eller en flaskhals som är förknippad med arbetskraft och du nu kan tillhandahålla medelvärdet av topparna, gissa vad vi kan göra? Vi kan hantera den miljön aktivt eftersom alla appar inte någonsin spikar på en gång.

Techopedia: Wow. Det är verkligen att komma tillbaka till vad virtualisering var tänkt att handla i första hand.

Ben: Detta är virtualisering eller containerisering 2.0: Realtid, autonom prestandakontroll.

Techopedia: Så om den gamla break-fix-slingan är ett föråldrat sätt att tänka, hur förklarar du det för den genomsnittliga killen i frontlinjen?

Ben Nye: Låt mig ställa en enkel fråga: Varför övervakar en?

Techopedia: Du vill veta vad som går fel eller när något går fel, eller hur?

Ben Nye: OK. Ja. Du vill veta när det går sönder. Men varför vill du låta det gå sönder? Det är hela frågan. Titta, du kommer oundvikligen att ha en viss övervakning för vissa avdelningar eller delar av ditt datacenter, men i grund och botten, om jag kan se till att mina applikationer körs fungerande i det vi kallar önskat tillstånd, vilket är rätt mängd resurser för stödja dem i realtid, det är en mycket bättre värld än att vänta på övervakning och varning och försöka svara på det.

När virtualisering först gav upphov till programvarudefinierade datacenter var det ett riktigt intressant framsteg, men de tog det ett steg för långt eftersom de kallade sig själva framtidens operativsystem för datacenter och det var direkt från rutan, eller hur? Men om du faktiskt går igenom de fem saker som ett operativsystem ska göra är det första prestationshantering. Så låt mig fråga dig, gör en hypervisor prestationshantering?

Techopedia: Självklart inte.

Ben Nye: Ingen rätt. Sedan den andra saken det måste göra är resursallokering. Så gör hypervisorn resursallokering? Nej.

Vad sägs om jobbplanering? Vad sägs om reservationer? Vad sägs om planering? Nej, nej och nej. Så plötsligt inser du hur de åstadkom detta är att de genererar varningar och antalet varningar växer och växer när vi använder resurserna på en högre nivå men också när vi skapar fler appar och fler former av arbetsbelastning och fler platser där de kan springa. Plötsligt krossar vi människor med alla dessa varningar.

Men det största är att det vi gör genom att få människor att jaga dessa varningar vänder människor till de moderna operativsystemen för datacenter, och det är konstigt eftersom, som det visar sig, människor sover. Människor har familjer, människor tar semester och så människor kan inte vara operativsystem och det är därför vi gjorde är att vi skapade detta applikationsprestationssystem, Turbonomic, för att kunna göra exakt de fem sakerna. Vi håller med om att hypervisorn är en bra uppfinning och containrar och moln, men vi ser dem som leverantörer av likviditet; de är inte ett operativsystem. Resten av operativsystemet kommer från att ha ett applikationsprestationssystem. Det gör dessa saker, det gör resultathantering, resursallokering, jobbplanering, reservationer och planering - det är hela värdet av det vi har. Det är därför vi finns på marknaden.

Techopedia: Berätta vilken roll du tror att maskininlärning eller AI spelar i det här nästa, du vet, två till fem år? Hur ändrar Turbonomic med AI datacentret?

Ben Nye: Det finns några otroliga, intressanta slutsatser man kan göra i alla typer av olika miljöer. Jag skulle säga att det som gjorde var mycket mer exakt än det. Kom ihåg att ett av problemen med stora big data-uppsättningar är att du behöver tid för att utveckla dessa data och sedan korrelera dem och dra slutsatserna om den informationen.

Ibland drar du fel slutsatser och det är väldigt svårt att veta hur lång tid det tar innan storuppsättningen tar bort den här slutsatsen, vare sig det är rätt eller fel. Sedan i slutet är det fortfarande bakåt med en mänsklig eller någon form av statisk mänsklig arbetskomponent för att faktiskt vidta åtgärder. I vårt fall är detta autonom intelligens. Det är inte bara konstgjord intelligens och dessa arbetsbelastningar gör verkligen beslut på egen hand i modellen utan du gör det med en viss precision. Det är mycket större än vad man kan åstadkomma med helt enkelt en stordatadata.

Techopedia: Om du kan lämna en med den genomsnittliga systemadministratören, eller den genomsnittliga datacenterarkitekten eller den genomsnittliga CIO, var kommer saker att vara under nästa år eller två? Vad är det som människor inte inser nu att de behöver veta om 2017, 2018 och därefter?

Ben Nye: Jag tror att det viktigaste är att komma ihåg varför vi gick in i teknologiområdet; eftersom vi i grunden är nyfikna och vi vill göra det möjligt för den amerikanska ekonomin - eller vilken ekonomi som helst - att göra mer med mindre. Det är så som företag kör och rullar. Det kan inte vara rätt att hålla fast vid gårdagens tillvägagångssätt för en tilldelnings- eller leveransbaserad modell när den kräver att vi kör i storleksordningen ungefär 50% överutbud och i en applikationsvärld av break-fix, och där vi har vänt vårt arbeta från tänkare till doers.

Det finns ett bättre sätt. Det bättre sättet är att ta till sig nya idéer och ny teknik från nya leverantörer som ger dig möjlighet att titta på efterfrågan på ekvationen, konsumtionssidan av en VM, en container, ett moln och att köra mer prestanda på mer skala med smartare arbetskraft och bättre effektivitet i ditt kapital, och flexibilitet när det gäller både smidighet och elasticitet i din verksamhet ..

Det var därför jag tyckte att denna möjlighet var så övertygande att jag ville köra den och varför jag tror på den så fullt ut.

Om du vill ha en gratis testkörning Turbonomic's Application Performance Control Platform kan du ladda ner här.