Bädda in Analytics överallt: Aktivera Citizen Data Scientist

Författare: Lewis Jackson
Skapelsedatum: 12 Maj 2021
Uppdatera Datum: 23 Juni 2024
Anonim
Bädda in Analytics överallt: Aktivera Citizen Data Scientist - Teknologi
Bädda in Analytics överallt: Aktivera Citizen Data Scientist - Teknologi

Hämtmat: Värd Rebecca Jozwiak diskuterar fenomenet inbäddade analyser och medborgardataforskare med Dr. Robin Bloor, Dez Blanchfield och David Sweenor.



Du måste registrera dig för den här händelsen för att se videon. Registrera dig för att se videon.

Rebecca Jozwiak: Mina damer och herrar, hej och välkommen till Hot Technologies. ”Bädda överallt: Aktivera Citizen Data Scientist” är vårt ämne idag. Jag fyller i för din vanliga värd, det här är Rebecca Jozwiak som fyller i för Eric Kavanagh. Ja, det här året är varmt. Speciellt har termen "datavetare" fått mycket uppmärksamhet trots att vi brukade kalla dem tråkiga namn som "statistiker" eller "analytiksexpert", ganska mycket tacklar samma typ av aktiviteter men det har fått ett sexigt nytt namn och det är samla mycket uppmärksamhet. De är mycket önskvärda att ha på arbetsplatsen, till nytta för organisationen, och alla vill ha en. Men de är: 1) dyra, 2) svåra att hitta. Du vet, det har varit över nyheterna om bristen på dataforskare, ja, men ändå erbjuder de enormt värde för organisationen och människor är lite klaga för att ta reda på hur man får det värdet utan att behöva släppa pengarna. tala.


Men de goda nyheterna är att vi ser verktyg och programvara som kommer ut som kompenserar för den bristen. Vi har automatisering, maskininlärning, inbäddad analys, vilket är vad vi ska lära oss om i dag, och det är typ av upphov till den här nya termen, ”medborgardataforskaren”, och vad betyder det? Nej, det är inte din utbildade datavetare, det kan vara din affärsanvändare, din BI-expert, någon från IT, någon som har bakgrunden men kanske inte nödvändigtvis kompetensen.Men vad det gör, dessa verktyg och programvaran, är att det ger fler människor tillgång till dessa smarta lösningar även om de kanske inte känner till den djupa kodningen. Men det hjälper bara att förbättra prestandan totalt sett när du ger alla lite mer tillgång till den analytiska tanken. Du behöver inte ha utbildningen nödvändigtvis för att ha den typ av nyfikenhet som kan leda till goda insikter för ditt företag.


Att diskutera att med oss ​​i dag är vår egen Robin Bloor, chefanalytiker på Bloor Group, en av de svårfångade datavetenskapsmännen, Dez Blanchfield som kallar in, och sedan har vi David Sweenor från Dell Statistica kommer att ge oss en presentation idag. Och med det ska jag överföra det till Robin Bloor.

Robin Boor: Okej, tack för den introduktionen. Jag tänkte på det här i ett historiskt läge. Det vi faktiskt tittar på här är en av Leonardo da Vincis design för en slags glidflyg som en man kan sätta på ryggen. Jag har ingen aning om det faktiskt skulle fungera. Jag skulle inte komma in på det, måste jag säga. Men da Vinci, när jag tänker på da Vinci, tänker jag på honom som en av de mest nyfikna och analytiska människor som någonsin har existerat. Och det är helt tydligt om du bara tittar på den glidflygplanen att den är utformad på grundval av en fågelvinge och att han på ett eller annat sätt har studerat fågelflygningar för att bygga den.

Om vi ​​tar det historiska perspektivet - jag såg det faktiskt upp - är analytics kanske den äldsta tillämpningen av matematik. Det finns folkräkningar som går tillbaka åtminstone till babyloniska tider. Vi vet om detta eftersom det i princip finns några könsformade tabletter som har data som sådana om dem. Det är inte känt om det fanns något som gick tillbaka tidigare. Men det uppenbara är att du har fått en civilisation med en stor befolkning av människor, det kräver faktiskt planering och det är värt att veta vad du planerar för och vilka krav som dessa människor faktiskt är.

Och det är där det började och det är också där datorer började eftersom de tidiga datorerna, de tidiga mekaniska datorerna faktiskt var, jag tror att den första var folkräkningen som skapades av Hollerith, som blev IBM, tror jag. Allt detta har gått framåt. Det har förekommit något slags mellanrum mellan kanske 1970-talet och idag, där det finns ett stort antal andra applikationer och analyser, kan man säga, tog en baksäte. Ja, det fanns analyser - det hände i stora organisationer, särskilt banker och försäkringsbolag, och faktiskt General Electric och telco och liknande saker - men det användes vanligtvis inte i hela affärer och nu börjar det bli vanligt i hela företag. Och det har förändrat spelet, verkligen. Det första jag trodde att jag skulle uppmärksamma är datapyramiden, som jag särskilt gillar. Det här är, jag menar, jag drog en av dessa för 20 år sedan - åtminstone för 20 år sedan - för att försöka förstå, verkligen, vid den tiden, jag försökte förstå BI och några av de tidiga data mining som gjordes. Det jag har definierat här är idén med data och exemplen är signaler, mätningar, inspelningar, händelser, transaktioner, beräkningar, aggregeringar, enskilda informationspunkter. Du kanske tänker på dem som molekyler av information, men de är enskilda poäng. Det blir information så snart det blir svårt. Länkade data, strukturerade data, databaser, visualisering av data, plottare, schemers och ontologier - de kvalificerar alla i min mening som information, eftersom det du har gjort är en mängd olika variationer tillsammans och skapat något mycket mer än en datapunkt, något som faktiskt har en form, en matematisk form.

Ovanför har vi kunskap. Genom att undersöka information kan vi lära oss att det finns olika mönster och vi kan utnyttja dessa mönster genom att formulera regler, policyer, riktlinjer, procedurer och sedan tar det form av kunskap. Och i stort sett alla datorprogram, oavsett vad de gör, är kunskap av ett slag, eftersom de arbetar mot data och tillämpar regler för dem. Vi har dessa tre lager och det finns en ökande förfining som fortsätter mellan lagren. Och på vänster sida av det här diagrammet har du visat nya data som matas in, så många av dessa saker är statiska. Data samlas, information samlas och kunskap växer potentiellt. Överst har vi ”Förståelse” och jag skulle hålla fast, även om det är ett filosofiskt argument, att förståelse bara ligger i människor. Om jag har fel om det, kommer vi alla att ersättas av datorer vid någon tidpunkt. Men snarare än att ha debatten fortsätter jag till nästa bild.

När jag tittade på det här, det intressanta, det här är något som nyligen var, det intressanta var att försöka ta reda på vad analytik faktiskt var. Och så småningom genom att rita olika diagram och sluta med ett som såg ut så kom jag till slutsatsen, i själva verket är analytisk utveckling egentligen bara mjukvaruutveckling med en fruktansvärd mängd matematiska formler. Analytisk utforskning skiljer sig lite från mjukvaruutveckling i den meningen att du faktiskt skulle ta många, många olika modeller och undersöka dem för att generera ny kunskap om data. Men när du har genererat den implementeras den antingen i det jag tänker på som passivt beslutsstöd, vilket är information som bara matats till en användare; interaktivt beslutsstöd, som är saker som OLAP, där användaren ges en strukturerad uppsättning data som de kan undersöka och dra av saker för sig själva med hjälp av de olika tillgängliga verktygen. Mycket visualisering är så. Och sedan har vi automatisering om du bara kan förvandla lite analytisk insikt som du har samlat in i en uppsättning regler som kan implementeras, du inte nödvändigtvis behöver en människa för att vara involverad. Det är det sättet jag tittade på när jag gjorde allt detta. Och olika saker började hända mig. En gång ett aktivitetsområde, ska vi säga, när en datadomän faktiskt bryts ut, grundligen bryts, grundligt utforskas genom alla möjliga riktningar, så småningom blir det bara kristalliserad BI. Den kunskap som är uppfunnet börjar bli kunskap som informerar olika användare på olika sätt och ökar deras förmåga, förhoppningsvis, att faktiskt göra det arbete de gör.

En av de saker som jag märkte och jag har tittat på prediktiv analys i ungefär fem år, men prediktiv analys blir BI, i den meningen att det bara förvandlas till användbar information för att mata till människor och som jag redan har påpekat, det finns automatiserad BI-rapportering, BI explorative, BI, mycket olika graderingar av den och prediktiv analys går faktiskt i alla tre riktningar. Och den analytiska processen som jag påpekade är inte så annorlunda än mjukvaruutveckling, bara gjord av olika människor med lite olika färdigheter. Jag antar att jag borde betona att de färdigheter som krävs för att göra en riktigt bra datavetare tar flera år att förvärva. De är inte lätt förvärvade och inte ett stort antal människor kan göra det, men det beror på att det förstår matematik på en mycket sofistikerad nivå för att veta vad som är giltigt och vad som inte är giltigt. Analytics-utveckling, upptäckt av ny kunskap, analysimplantation, det handlar om att göra kunskapen operationell. Det är den typen av bakgrund som jag ser för hela analysen. Det är ett enormt område och det finns många, många dimensioner, men jag tror att generalisering gäller allt.

Sedan finns det affärsstörningen, som jag nämnde att det finns ett antal organisationer, läkemedelsföretag är ett annat, som har i sitt DNA de har analyser. Men det finns många organisationer som verkligen inte har det i sitt DNA, och nu har de förmågan, nu är mjukvaran och hårdvaran mycket billigare än tidigare, nu har de förmågan att utnyttja den. Jag skulle säga ett antal saker. Det första är att analys är i många fall FoU. Du kanske bara använder analyser på ett specifikt område i organisationen och det kan verka vardagligt att du på ett eller annat sätt analyserar kundorderna från olika perspektiv och förenar den med andra data. Men analys skapar faktiskt möjligheten att titta på organisationen som en helhet och att ganska mycket analysera en viss aktivitet som pågår inom organisationen och hela verksamhetskedjor. Men när du faktiskt flyttar in i det området, skulle jag hävda att det är forskning och utveckling. Och det finns en fråga som jag har ställts några gånger, som är: "Hur mycket ska ett företag spendera på analys?" Och jag tror att det bästa sättet att tänka på att ge ett svar på det är att tänka på analytik som FoU och fråga bara, "Tja, hur mycket skulle du spendera på FoU inom området för effektiviteten i verksamheten?"

Och de företag som inte har analytics, det finns många saker som de inte vet. Först och främst vet de inte hur man gör det. Normalt om de faktiskt går till ett eller annat sätt använder sig av analys inom organisationen - de har egentligen inget annat val än att gå till ett konsultföretag som kan hjälpa dem att göra det eftersom det skulle vara omöjligt eller verkligen mycket svårt för de flesta företag att faktiskt anställa en datavetare, hitta en, betala för en och faktiskt lita på dem att göra vad du vill att de ska göra. Mycket svårt. De flesta företag vet inte hur man ska anställa eller utbilda personal för att faktiskt göra detta arbete, och orsaken till detta är helt enkelt att det inte finns i deras DNA ännu, så det är inte en del av deras naturliga affärsprocesser. Detta matas till nästa punkt. De vet inte hur man gör det till en affärsprocess. Det bästa sättet att göra det är förresten att kopiera vad läkemedelsföretag och försäkringsbolag, se bara, och vissa företag i vårdcentret, titta bara på hur de använder analyser och kopierar det. Eftersom det är en affärsprocess. Vet inte hur jag ska polisera det eller granska det. Det verkligen, speciellt nu när en väldigt många mjukvaruföretag har skapat produkter som automatiserar mycket fruktan. Poängen med revision är viktig, när du har ett konsultföretag eller någon på plats som kan lita på för att förstå vad resultatet av någon analytisk beräkning är, är det ett slags val du måste göra, men om du lägger riktigt kraftfulla analysverktyg i händerna på människor som inte riktigt förstår analytik, kommer de sannolikt att hoppa till slutsatser som kanske inte är korrekta. Och som sagt, företag vet inte hur de ska budgetera för det.

Det här är smaker av analys, jag kommer bara att köra igenom dem. Statistisk analys och statistisk modellering skiljer sig väsentligt från prediktiv analys, varav de flesta förresten är kurvpassande. Maskininlärning skiljer sig från dessa saker, bananalys och tidsserier, som i princip görs på statusströmmar är annorlunda igen. Grafanalys är annorlunda igen, och analys och semantisk analys är olika igen. Detta påpekar bara att det här är en väldigt flera genrer. Det är inte, du börjar inte göra analyser, du börjar titta på problem du har och leta efter de olika verktygen och olika smaker av analyser som passar dem. Och slutligen netto. På grund av utvecklingen av hårdvara och mjukvara är enligt min mening analytics i sin barndom. Det finns mycket, mycket mer än att komma och vi kommer att se det utvecklas under de kommande åren. Jag tror att jag kan skicka bollen till Dez nu.

Dez Blanchfield: Ja, prata om en tuff handling att följa, Robin. Jag kommer att besöka det här ämnet kort från en av mina favoritvinklar, som är människans vinkel. Det finns så många förändringar som sker i våra vardagsliv. En av de största störningarna i våra dagliga liv, för närvarande enligt min åsikt, är bara vardagsarbete. Du kommer att arbeta och försöka göra det jobb du har anställts för att göra, och den ökande förväntningen att du kommer att gå från en vardag till en superhjälte och mängden information som flödar runt organisationer och släpper ut mycket, mycket snabbt, det är en betydande utmaning och mer och mer vi måste ge bättre och bättre verktyg till människor för att försöka hantera flöde av kunskap och information och så jag tänkte att jag skulle försöka komma till detta från lite rolig vinkel . Men det slår mig alltid hur vi har detta höga sinne eller flashmobbar och så vidare, som på ett slags sätt driver oss mot det vi talar om som analys men egentligen det vi talar om är att göra information tillgänglig för människor, och så att de kan interagera med det och göra det på ett sådant sätt att det är naturligt och det känns normalt.

Och i själva verket påminner det mig om en YouTube-video av ett litet barn, litet barn, sitter på golvet och sitter där och leker med en iPad och det smyger runt och klämmer och pressar och flyttar ut bilderna och leker med skärmen, uppgifterna där. Och sedan föräldern tar bort iPad och sätter en tidning, en ed tidning på barnets varv. Och det här barnet är förmodligen inte mer än två år gammalt. Barnet börjar försöka svepa med magasinets skärm och klämmer och klämmer och magasinet svarar inte. Barnet lyfter fingret upp och tittar på det och tänker, "Hmm, jag tror inte att mitt finger fungerar", och det stickar sig i armen och tänker, "Ah nej, min finger fungerar jag kan känna min arm och att ser bra ut, ”och det vrider fingret, och fingret vrider sig och svarar. Ja. Sedan försöker den interagera med tidningen igen, och låt och se att den inte klämmer och pressar och rullar. Sedan tar de tidningen bort och sätter tillbaka iPad i varvet, och plötsligt fungerar saken. Och så här är en bebis som har kommit och blivit utbildad att använda ett analytiskt verktyg eller ett direktuppspelningsverktyg för underhållning och det kan inte räkna ut hur en tidning ska fungera och hur man kan vända sidor.

Och det är ett intressant koncept i sig. Men när jag tänker på kunskap som rör sig runt organisationer, och hur data flyter och hur människor beter sig, tänker jag ofta på detta begrepp om vad folk har lärt sig vara en flashmobb, som är en händelse där och vilka sociala medier gör detta ännu lättare att göra, en idé som sådan som går till denna plats vid denna tid och datum och action, eller titta på den här videon och lära dig dessa danser, eller bära denna färgade hatt och peka norr vid klockan ett. Och du skjuter ut detta genom ditt nätverk, och alltid är en hel massa människor, hundratals av dem, dyker upp på samma plats samtidigt gör samma sak och det finns denna wow-faktor, den här: "Helig ko, det var verkligen imponerande! ”Men det är faktiskt en riktigt enkel idé och ett enkelt koncept som bara skjuts ut genom våra nätverk och vi får detta resultat som är en visuellt fantastisk och hörbart imponerande sak. Och när du tänker på en organisation, hur vi vill att människor ska bete sig och hur vi vill att de ska ta itu med informationssystem och kunder är det ofta så enkelt, det är en idé eller ett koncept eller en kulturell eller beteendemässig egenskap som vi försöker överföra genom och stärka med verktyg och information.

Och som ligger till grund för allt detta är detta mantra som jag har haft i över två och ett halvt decennium och det är, om din personal inte kan hitta det de behöver för att göra sitt jobb, vare sig det är verktyg eller information, alltid kommer de att uppfinna hjulet igen. Och så detta är en ständigt ökande utmaning nu, där vi har massor av kunskap och massor av information och saker som rör sig väldigt snabbt, att vi vill stoppa människor att återuppfinna hjulet. Och när vi tänker på vår arbetsmiljö, återvänder till folkets vinkel, som är en av mina favoriter, blev jag förvånad när vi blev förvånade över att båsarna inte var en gynnsam miljö för goda resultat, eller vi ställde upp saker som denna hemska bilder här, och det har inte förändrats mycket, bara sänkt väggarna och kallade dem öppna arbetsplatser. Men i mitten med den gula slingan runt dem, är det två personer som utbyter kunskap. Och ändå, om du tittar på resten av rummet, sitter de där pliktigt och slår där borta och lägger information på en skärm. Och oftast inte utbyta kunskap och data, och det finns många orsaker till det. Men samspelet mitt på golvet till vänster där i den gula cirkeln, det är två personer som pratar där borta, byter kunskap och förmodligen försöker hitta något, försöker säga, "Vet du var den här rapporten är, där jag kan jag hitta den här informationen, vilket verktyg använder jag för att göra den här saken? ”Och det har förmodligen inte fungerat så de har ingenting, och vandrade över golvet, bröt regeln om kontorslokalen och gjorde det personligen.

Och vi har haft liknande miljöer på kontoret som vi skämt spöker på, men verkligheten är att de är ganska kraftfulla och effektiva. Och en av mina favoriter är den mobila eller fasta analysplattformen som kallas vattenkylaren, där människor kommer upp och chiterar där och byter kunskap och jämför idéer och utför analyser medan de står vid vattenkylaren och byter idéer. De är väldigt kraftfulla koncept när du tänker på dem. Och om du kan översätta dem till dina system och verktyg får du ett fantastiskt resultat. Och vi har alltidens favorit, som i huvudsak är kontorets kraftfullaste datadistribueringsnav, även känd som receptionen. Och om du inte kan hitta något, vart ska du gå? Du går fram till kontoret och går till receptionen och säger: "Vet du var x, y, z är?" Och jag vågar någon säga att de inte har gjort det minst en gång i en ny jobb eller vid en tidpunkt då de bara inte kan hitta något. Och du måste fråga dig själv, varför är det så? Det borde vara någonstans på intranätet eller något verktyg eller vad som helst. Det borde vara lätt att hitta.

Och så när det gäller data och analys och de verktyg som vi har tillhandahållit vår personal för att göra sitt jobb och hur människor interagerar med jobb, har jag fått den uppfattningen att före den senaste tidens uppkomst av analysverktyg och big data-plattformar , eller "databehandling" liksom kallas det i gamla skolan, rapportering och kunskapsdelning var långt ifrån dynamisk eller samarbetsvillig eller öppen, och när du tänker på vilken typ av system vi förväntar oss att människor gör sina jobb med, hade vi klassiskt, vad folk kallar arv nu, men verkligheten är att det bara är arv som har pågått och fortfarande är här idag, och därför är det inte riktigt arv. Men traditionella HR-system och ERP-system - mänsklig resurshantering, företagsresursplanering, företagsdatahantering och system som vi använder för att hantera informationen för att driva ett företag. Det är alltid tyst.Och från toppen av slutet, enkla plattformar som avdelningsintranät, försöker kommunicera var saker är och hur man får dem och hur man interagerar med kunskapen på platsen. Vi dyker upp det på vårt intranät. Det är bara lika bra som de människor som gör tid och ansträngningar att sätta upp det där, annars blir det bara kvar i ditt huvud. Eller så har du data som sitter hela vägen längst ner i livsmedelskedjan, på företagets SAN och allt däremellan, så det är lagringsområdenätverk är fullt av filer och data, men vem vet var man hittar den.

Oftare än inte har vi byggt dessa slutna dataplattformar eller stängda system, och så har människor återgått till kalkylblad och PowerPoints för att skicka information runt platsen. Men det var en intressant sak som nyligen inträffade, i mitt sinne, och det var att mobila enheter och internet i allmänhet fungerar så att idén faktiskt kunde bli bättre. Och främst inom konsumentutrymmet. Och det är en intressant sak att vardagslivet började vi ha saker som internetbank. Vi behövde inte gå till en faktiskt bank fysiskt för att interagera med dem, vi kunde göra det via telefon. Ursprungligen var det klumpigt men då kom internet runt och vi hade en webbplats. Du vet, och hur många gånger har du faktiskt varit i din bank nyligen? Jag kan faktiskt inte, jag hade en konversation om det här dagen, och jag kan faktiskt inte komma ihåg förra gången jag gick till min bank, vilket jag var ganska chockad över, jag trodde att jag måste kunna komma ihåg detta, men det var så länge sedan kommer jag faktiskt inte ihåg när jag åkte dit. Och så har vi nu dessa prylar i handen i form av mobiler, telefoner, surfplattor och bärbara datorer, vi har nätverk och tillgång till verktyg och system, och konsumentutrymmet har vi lärt oss att saker och ting kan vara bättre, men eftersom av den snabba förändringen i konsumentutrymme som har varit mer dödlig och glacial förändring i företag och miljöer, har vi inte alltid tagit den förändringen till det dagliga arbetslivet.

Och jag älskar att spela kul på det faktum att du inte kan leva strömningsdata till hårddisk. I den här bilden här sitter en person som tittar på några analyser som har utförts, och det finns en vacker graf som har producerats av någon som förmodligen betalas mycket pengar som statistiker eller aktuarie, och de sitter där och försöker göra analys på en kopia och titta på den. Men här är det skrämmande för mig: Dessa människor i till exempel mötesrummet, och jag kommer att använda detta som ett exempel, de interagerar med data som nu är historiska. Och den är lika gammal från den tiden den där saken producerades och sedan redigerades, så det är kanske en vecka gammal rapport. Nu fattar de beslut om inte så mycket dålig data utan gamla data, som alltid kan vara dålig data. De fattar ett beslut idag baserat på något som är historiskt, vilket är en riktigt dålig plats att vara. Vi lyckades ersätta den här kopian med sådana som surfplattor och telefoner eftersom vi tränade väldigt snabbt inom konsumentutrymme, och nu har vi utarbetat det i företagets utrymme, att realtid är insikter är realtidsvärde.

Och vi blir bättre och bättre på det. Och det leder mig till den punkt som Robin tog upp tidigare, det var begreppet medborgardataforskare och drivkraften för detta koncept. För mig är en medborgardataforskare bara vanliga människor med rätt verktyg och information om en iPad. De behöver inte göra matematiken, de behöver inte veta algoritmerna, de behöver inte veta hur man använder algoritmerna och regeldata, de behöver bara veta hur man använder gränssnittet. Och det leder mig tillbaka till min introduktion och konceptet med småbarn som sitter där med en iPad kontra en tidning, kontra en iPad. Småbarn kan mycket snabbt, intuitivt lära sig hur man använder gränssnittet på en iPad för att dyka in i information och interagera med den, om än kanske ett spel eller streaming media eller en video. Men det kunde inte få samma svar eller interaktion från en magasinfält och bara blinkande sida efter sida, vilket inte är särskilt engagerande, särskilt om du är ett barn som är vuxen upp med iPads. Ofta kan människor se snabbt och lära sig hur man kör verktyg och saker som om vi bara tillhandahåller dem, och om vi ger dem ett gränssnitt som mobila enheter och särskilt surfplattor och smartphones med tillräckligt stora skärmar, och särskilt om du kan interagera dem i beröring, med fingerrörelser, plötsligt får du detta begrepp medborgaredataforskare.

Någon som kan tillämpa datavetenskap med rätt verktyg, men utan att behöva veta hur man gör det. Och i mitt sinne drivs mycket av detta, som sagt, av konsumentinflytande, som rörde sig och förvandlades till efterfrågan och företag. Ett par riktigt snabba exempel. Vi, många av oss skulle börja göra saker med våra bloggar och webbplatser, som att lägga i små annonser eller titta på spårning och rörelse, vi använde verktyg som Google Analytics och vi vaknade upp till det faktum att i våra bloggar och små webbplatser , vi kunde lägga lite kodkoder där och Google skulle ge oss realtidsinsikter om vem som besöker webbplatsen, när och var och hur. Och i realtid kunde vi faktiskt se människor träffa webbplatsen, gå igenom sidorna och sedan försvinna. Och det var ganska förvånande. Jag älskar fortfarande att göra det, när jag försöker förklara analys i realtid för människor så dummer jag det för att bara visa dem en webbplats med Google Analytics ansluten, och faktiskt se den interaktiva live med människor som träffar webbplatser och frågar dem, "Föreställ dig om du hade sådana insikter om ditt företag i realtid. "

Ta ett detaljhandelsexempel, och kanske ett läkemedel, jag tror att du kallar det ett apotek i Amerika, ett apotek där du går in och köper allt från huvudvärkstabletter till solkräm och hattar. Att försöka driva den organisationen utan information i realtid är ett skrämmande koncept nu vet vi vad vi vet. Till exempel kan du mäta fottrafik, du kan placera enheter runt butiken med ett smiley-ansikte på ena sidan av skärmen eftersom du är glad och en olycklig röd längst till höger och några olika nyanser i mitten. Och det finns en plattform som heter "Glad eller inte" i dessa dagar, där du går in i en butik och du kan smälla ett lyckligt ansikte eller ett sorgligt ansikte, beroende på feedback från dina kunder. Och det kan vara interaktivt med realtid. Du kan få direkta efterfrågedrivna priser. Om det är massor av människor där, kan du driva upp priserna lite, och du kan göra lager tillgänglighet och berätta till exempel till exempel - flygbolag, till exempel, kommer att berätta för folk hur många platser som finns tillgängliga nu på webbplatsen när du du bokar en flygning, du ringer inte bara slumpmässigt in och hoppas att du kan dyka upp och få ett flyg. Live HR-data, du kan se när människor klockar på och stänger av. Upphandling, om du är i upphandling och du har livedata kan du göra saker som att vänta i en timme och säkra dig mot priset på den amerikanska dollarn för att köpa din nästa mängd lager och få en lastbil med saker att dyka upp.

När jag visar Google Analytics människor och jag förmedlar den typen av anekdot, detta eureka-ögonblick, detta "a-ha!" Ögonblick, denna glödlampa slocknar i deras sinne som, "Hmm, jag kan se många platser där jag kunde göra det . Om jag bara hade verktygen och om jag bara hade tillgång till den kunskapen. ”Och vi ser detta nu på sociala medier. Alla som är en erfaren social medieanvändare än att bara visa bilder på deras frukost, tenderar att titta på hur många gillar de får och hur mycket trafik de får och hur många vänner de får, och de gör det med gillar, säg, som ett analysverktyg. Du kan gå till .com för att använda verktyget, men du skriver in Google Analytics dot com, eller klickar på den övre högra knappen och drar ner menyn och gör det, du får dessa vackra, levande grafer som säger hur många tweets du gör dig själv och hur många interaktioner med dem. Och realtidsanalys bara på dina personliga sociala medier. Föreställ dig om vi hade sådana som Google Analytics och LinkedIn och eBay-statistik som kommer till dig, men i din arbetsmiljö.

Nu har vi den direkta typen av webb och mobil till hands, det blir ett kraftkoncept. Och så det drar mig till min slutsats, och det är att jag alltid har upptäckt att organisationer som utnyttjar verktyg och teknik tidigt, de får en så betydande fördel gentemot sina konkurrenter att konkurrenter kanske faktiskt aldrig kommer ihåg. Och det ser vi nu med konflikten mellan medborgardataforskare. Om vi ​​kan ta människor med färdigheterna, den kunskap som vi anlitade dem för och vi kan ge dem rätt verktyg, särskilt förmågan att se realtidsdata och upptäcka data och veta var det är utan att behöva gå runt båset och ställa frågor högt, måste gå och stå vid vattenkylaren för att göra en jämförande analys med människor eller gå och fråga i receptionen var indexet är. Om de kan göra det till hands och de kan ta det till sina möten med dem och sitta i ett styrelserum som bläddrar igenom skärmar i realtid snarare än hårddisk, plötsligt har vi bemyndigat vår personal som inte behöver vara verklig datavetare, men för att faktiskt använda datavetenskap och driva fantastiska resultat för organisationer. Och jag tror att den här tipppunkten som vi faktiskt har gått nu där konsumenten drivs till företag, utmaningen är hur vi tillhandahåller det företaget, och det är det tema jag antar i dagens diskussion. Och med det kommer jag att packa upp min bit och överlämna för att höra hur vi kan lösa det. David, över till dig.

David Sweenor: Okej, tack så mycket killar, och tack Robin. Du vet, Robin, jag håller med om din ursprungliga bedömning. Analytisk process, det är egentligen inte annorlunda än mjukvaruutveckling. Jag tror att utmaningen inom en organisation bara är riktigt, du vet, kanske saker inte är så väl definierade, kanske det finns en utforskande komponent till det, och en kreativ komponent till det. Och Dez, du vet, jag håller med dig, det finns mycket att uppfinna hjulet igen, och du vet, det finns ingen organisation som jag går in i dag, frågar du, ja, varför gör du det på det här sättet? Varför drivs verksamheten på detta sätt? Och det är lätt att ifrågasätta och det är svårt att ändra många gånger när du är inom en organisation. Jag älskar analogien, konsumtionen av saker. Och så inte längre när jag åker till flygplatsen och vill byta plats - jag gör det på min mobiltelefon. Jag behöver inte gå upp till agenten vid monteren och titta på att agenten skriver in något på en monokrom bildskärm i 15 minuter för att ändra mitt säteuppdrag. Jag föredrar bara att göra det på min telefon, och det är en intressant utveckling.

Idag ska vi prata lite om kollektiv intelligens. För dem som inte är medvetna är Statistica en ledande analysplattform som den har funnits i över 30 år. Om du tittar på någon av publikationerna där ute i analytikerbranschen kommer den alltid ut på toppen som en av de mest intuitiva och enkla att använda avancerade analysprogramvarupaket. Så vi har spenderat de senaste åren med att arbeta med ett koncept som kallas kollektiv intelligens, och vi tar det till nästa nivå. Jag ville inleda den här konversationen med: hur görs arbete i din organisation?

Och det finns två bilder här. Den till vänster är en bild från 1960-talet, och jag startade inte min karriär på 1960-talet, men bilden till höger är - det är en halvledarfabrik där jag började arbeta. Och jag arbetade i den svarta byggnaden, svart på taket uppe till vänster. Men de tillverkade halvledare grejer. Detta är en nylig bild från Google Bilder. Men när du går tillbaka till 1960-talets bild till vänster är det väldigt intressant. Du har dessa människor som sitter i en rad och de skapar, du vet, integrerade kretsar och halvledare. Men det finns en standardisering, det finns ett vanligt sätt att göra saker och det fanns en väldefinierad process. Du vet, kanske eftersom dessa människor alla sitter i en öppen miljö, kanske det var något samarbete. Jag tror att vi har tappat lite av det inom kunskapsarbetskraften.

När jag satt i den byggnaden uppe till vänster, om jag ville samarbeta med någon, var den inte öppen. Det fanns dessa kontor, kanske en del av teamet var avlägsna, eller kanske jag var tvungen att vandra över detta campus; det var en 25 minuters promenad, och jag måste gå och prata med någon i byggnaden längst till höger. Jag tror att vi har tappat något på vägen. Och så, du vet, jag hade samma tanke är varför människor - hur många människor fortsätter att uppfinna hjulet inom din organisation? Jag tror att organisationer som helhet gjorde ett bra jobb på 1990- och 2000-talet med CRM och datalagring och till en viss grad BI. Av någon anledning har analysen försenat lite. Det fanns betydande investeringar i datalagring, och standardisering och normalisering av dina data, och allt detta, och CRM, men analysen har släppts av någon anledning. Och jag undrar varför. Kanske finns det en reklam - kanske är din process inte väl definierad, kanske du inte vet vilket beslut eller spak du försöker vända, du vet, i ditt företag att ändra saker. När vi går in i organisationer idag är det många som gör saker mycket manuellt i kalkylark.

Och du vet, jag tittade på en stat i morse, jag tror att den sa 80, 90 procent av kalkylarken har fel, och vissa av dessa kan vara mycket betydande. Som den i Whale, där JPMorgan Chase tappade miljarder och miljarder dollar på grund av fel i kalkylbladet. Så jag har den förutsättningen jag tror, ​​det måste finnas ett bättre sätt att få saker att göra. Och som vi nämnde, vi har dessa datavetare. Dessa killar är dyra och de är svåra att hitta. Och ibland är de lite udda ankor. Men jag tror, ​​om du var tvungen att sammanfatta vad en datavetare är, är det förmodligen någon som förstår uppgifterna. Jag tror att det är någon som förstår matematiken, någon som förstår problemet. Och verkligen någon som kan kommunicera resultaten. Och om du är en datavetare, har du mycket tur just nu, eftersom din lön förmodligen har fördubblats under de senaste åren.

Men sanningen sägs, många organisationer, de har inte dessa datavetare, men din organisation har smarta människor. Du har en organisation, du har många smarta människor och de använder kalkylblad. Du vet, statistik och matematik är inte deras primära jobb, men de använder data för att driva verksamheten framåt. Verkligen är utmaningen vi tar upp, hur tar du dig, om du har tur att ha en datavetare eller en statistiker eller två, hur kan du ta dem och hur kan du förbättra samarbetet mellan dessa människor och andra individer inom din organisation? Om vi ​​tittar på hur vår organisation är strukturerad, kommer jag att starta och jag kommer att gå från höger till vänster. Och jag vet att detta är baklänges, men vi har den här linjen av affärsanvändare.

Detta är huvuddelen av din kunskapsarbetarpopulation, och för dessa människor måste du bädda in analyser i din branschapplikationer. Kanske ser de analytiska utskrifter på en callcenter-skärm eller något, och det säger dem det näst bästa erbjudandet att ge till en kund. Kanske är det en konsument eller leverantör på en webbportal, och det ger dem direkt kredit eller sådant. Men idén är att de konsumerar analyser. Om vi ​​går till mitten är det dessa kunskapsarbetare. Det här är de människor som gör saker med kalkylarken idag, men kalkylarken är felutsatta och vid någon tidpunkt är de slut på bensin. Dessa medborgardataforskare, som vi kallar dem, du vet, vad vi försöker göra för dem är verkligen att öka automatiseringsnivån.

Och med analytik hör du att 80 till 90 procent av arbetet finns i datapreparatet och det är inte den faktiska matematiken, men det är datapreparatet. Vi försöker automatisera det, oavsett om du gör det, och vi har guider och mallar och återanvändbara saker, och du behöver inte ha kunskap om den underliggande infrastrukturen i din miljö. Och om vi tittar längst till vänster har vi dessa datavetare. Och som jag nämnde är de bristfälliga. Och vad vi försöker göra för att göra dem mer produktiva är att låta dem skapa saker som dessa medborgardataforskare kan göra. Tänk på det som ett Lego-block, så dessa datavetare kan skapa en återanvändbar tillgång som en medborgardataforskare kan använda. Bygg det en gång så att vi inte behöver fortsätta uppfinna hjulet.

Och då kan dessa killar också vara oroliga om vi kan göra saker i databasen och utnyttja de befintliga teknikinvesteringarna som ditt företag har gjort. Du vet, det är inte vettigt i denna dag och ålder att blanda data fram och tillbaka över hela världen. Så om vi tittar på Statistica, som jag nämnde, så är det en plattform som har funnits länge. Och det är en mycket innovativ produkt. Datainblandning, det har inte funnits en datakälla som vi inte har åtkomst till. Vi har alla saker att upptäcka och visualisera data som du kan förvänta dig; vi kan göra det i realtid. Och det har antagligen - jag tror att det finns över 16 000 analytiska funktioner i mjukvaruverktyget, så det är mer matematik än jag någonsin kunde använda eller förstå, men det är där om du behöver det.

Vi har förmågan att kombinera både affärsregler och analytiska arbetsflöden för att verkligen fatta ett affärsbeslut. Du går längre än bara, här är en algoritm, här är ett arbetsflöde, men du har affärsregler som du alltid måste hantera. Vi är mycket säkra i styrning. Vi används i många farmaceutiska kunder, eftersom FDA litar på oss. Du vet, bara bevis i puddingen att vi har kontrollerna och revisionsförmågan att accepteras av dem. Och slutligen, du vet, vi är öppna och flexibla och utsträckbara, så du måste skapa en plattform som är att du vill att dina datavetare ska vara produktiva, du vill att dina medborgardataforskare ska vara produktiva, du vill kunna att distribuera dessa analytiska output till arbetarna inom din organisation.

Om vi ​​tittar på det här är ett exempel på några visualiseringar. Men att kunna distribuera din analytiska output till användare av företag, så det första exemplet till vänster, det är ett nätverksanalysdiagram. Och kanske du är en bedrägerutredare, och du vet inte hur dessa anslutningar görs, och det kan vara människor, det kan vara enheter, det kan vara kontrakt, vad som helst. Men du kan manipulera detta med musen och interagera med den för att verkligen förstå - om du är en bedrägerutredare, för att förstå en prioriterad lista över vem du ska utreda, rätt, eftersom du inte kan prata med alla, så du har att prioritera.

Om vi ​​tittar på bilden på höger sida där, för en prediktiv underhållsinstrumentpanel, är detta ett riktigt intressant problem. Kanske är du ägare till en flygplats och du har dessa kroppsskannrar där. Dessa kroppsskannrar, om du åker till en flygplats, finns det några komponenter där som har ungefär nio månaders hållbarhet. Och dessa saker är verkligen, riktigt dyra. Om jag har flera ingångspunkter, flera skannrar på min flygplats, nummer ett vill jag se till att jag är lämpligt bemannad vid var och en av grindarna, och för de delar som finns i skannrarna, vill jag inte beställa dem också tidigt, och jag vill ha dem innan det går sönder. Vi har förmåga, kanske om du äger en flygplats, att kunna förutsäga när dessa saker kommer att bryta och förutsäga personalnivåer.

Om vi ​​tittar längst ner till höger är det om du befinner dig i en tillverkningsmiljö, detta är bara en grafisk representation av tillverkningsflödet. Och det är lite svårt att se, men det finns röda och gröna trafikljus i dessa olika processsektorer, och så om jag är ingenjör är det väldigt sofistikerad matematik där, men jag kan borras ner i den specifika processsektorn och titta på parametrarna och mata in det, kanske orsakar att det är ur kontroll. Om vi ​​tittar på våra medborgardataforskare är vårt mål verkligen att göra det enkelt för medborgardataforskaren. Vi har guider och mallar, och en sak som jag tycker är riktigt intressant är att vi har denna automatiska datahälsokontrollnod. Och verkligen vad detta gör, det har inbyggda smarts.

Jag nämnde datapreparation - det tar en betydande tid, det handlar både om datainsamling och förberedelse. Men låt oss anta att jag har mina data, jag kan köra den genom den här datahälsokontrollnoden, och den kontrollerar om invarians och sparsness och outliers, och alla dessa saker, det fyller i saknade värden och det gör mycket matte jag inte förstår inte, så jag kan antingen acceptera standardvärdena, eller om jag är lite smartare kan jag ändra dem. Men poängen är att vi vill automatisera den processen. Den här saken gör cirka 15 olika kontroller och resultat på en renad datauppsättning. Det vi gör är att göra det lättare för människor att skapa dessa arbetsflöden.

Det är här vi pratar om samarbete mellan datavetare och medborgardataforskare. Om vi ​​tittar på dessa bilder till höger ser vi detta förberedande arbetsflöde för data. Och kanske detta är väldigt sofistikerat, kanske detta är ditt företags hemliga sås, jag vet inte, men vi vet att någon inom din organisation kan komma åt en eller flera av dessa datasilo som vi har. Vi behöver ett sätt att, nummer ett, ta dem och sy ihop dem, och nummer två, kanske det finns en speciell bearbetning vi vill göra, att det är bortom vår datahälsokontroll, och det är ditt företags hemliga sås. Jag kan skapa det här arbetsflödet i vår organisation och det kollapsar som en nod. Du ser pilen peka ner, det är bara en nod, och vi kan ha hundra av dessa saker inom en organisation. Tanken är att vi har människor som vet något om ett visst utrymme, de kan skapa ett arbetsflöde och någon annan kan återanvända det. Vi försöker minimera hjulets återuppfinning.

Och vi kan göra samma sak med analytiska modelleringsarbetsflöden. I det här fallet till höger, det här arbetsflödet, kanske det finns 15 olika algoritmer, och jag vill välja den bästa för uppgiften. Och jag måste inte förstå som medborgardataforskare vad som händer i den spindelnät som är där uppe, men den kollapsar bara till en nod, och kanske säger den noden helt enkelt: "beräkna kreditriskpoäng." "Beräkna chansen av en kirurgisk platsinfektion, ”vad har du. ”Beräkna sannolikheten för att något är en bedräglig transaktion.” Som medborgardataforskare kan jag använda den här mycket sofistikerade matematiken som någon annan har byggt, kanske en av dessa datavetare har byggt i min organisation.

Från ett datavetenskapligt perspektiv, du vet, jag har pratat med datavetare som älskar att skriva kod, och jag har pratat med datavetare som hatar att skriva kod. Och det är bra, så vi har ett mycket visuellt, grafiskt användargränssnitt. Vi kan ta tag i våra data, vi kan göra vår automatiska datahälsokontroll och kanske vill jag skriva kod. Jag gillar Python, jag gillar R, men tanken är att dessa datavetare är bristfälliga och de gillar koden på ett visst språk. Vi föredrar inte särskilt vilket språk du vill koda på, så om du vill göra R, gör R; om du vill göra Python, gör Python. Toppen. Om du vill spränga din analys till Azure spränger du din analys till molnet. Och så är målet här verkligen att erbjuda flexibilitet och alternativ för att göra dina datavetare så produktiva som de kan vara.

Nu datavetare, de är ganska smarta människor, men kanske är de inte specialist på allt, och kanske finns det några luckor i vad de kan göra. Och om du tittar inom branschen finns det många olika analytiska marknadsplatser som finns där ute. Detta är ett exempel på, kanske jag behöver göra bildigenkänning och jag har inte den färdigheten, ja kanske går jag ut till Algoritmia och får en algoritm för bildigenkänning. Jag kanske går ut till Apervita och får en mycket speciell sjukvårdsalgoritm. Jag kanske vill använda något i Azure machine learning-biblioteket. Jag kanske vill använda något på den ursprungliga Statistica-plattformen.

Återigen, idén här är att vi vill utnyttja den globala analysgemenskapen. Eftersom du inte kommer att ha alla färdigheter inom dina fyra väggar, så hur kan vi skapa programvara - och det är detta vi gör - som gör att dina datavetare kan använda algoritmer från olika marknadsplatser. Vi har gjort det med R och Python länge, men detta utsträcker sig till dessa appmarknader som finns där ute. Och detsamma som du ser här på toppen av detta, vi använder H2O på Spark, så det finns många analytiska algoritmer där. Du behöver inte fokusera på att skapa dessa från grunden, låt oss återanvända dessa som lever i öppen källkodssamhälle, och vi vill att dessa människor ska vara så produktiva som möjligt.

Nästa steg, efter att vi har våra medborgardataforskare och våra datavetare, är egentligen hur främjar du och distribuerar du dessa bästa metoder? Vi har teknik inom vår programvara som gör att du kan distribuera analys var som helst. Och det här är mer en modellhanteringsvy, men jag är inte längre bunden av de fyra väggarna eller en specifik installation inom Tulsa eller Taiwan eller Kalifornien, eller vad har du. Detta är en global plattform, och vi har många, många kunder som den distribueras för att den används av flera webbplatser.

Och så, de viktigaste sakerna är, om du gör något i Taiwan och du vill kopiera det i Brasilien, det är fantastiskt. Gå in där, ta tag i de återanvändbara mallarna, ta tag i de arbetsflöden du vill ha. Detta försöker skapa dessa standarder och det vanliga sättet att göra saker, så vi gör inte saker helt annorlunda överallt. Och den andra viktiga komponenten i detta, är verkligen att vi vill ta matematiken till var data bor. Du behöver inte blanda data mellan Kalifornien och Tulsa och Taiwan och Brasilien. Vi har teknik som gör det möjligt för oss att ta matematiken till data, och vi kommer att ha en annan webbteknologi med Hot Technology om det ämnet.

Men vi kallar den här arkitekturen, och här är en sniktitt, Native Distribuerad Analytics-arkitektur. Den viktigaste tanken bakom detta är att vi har en plattform, Statistica, och jag kan exportera ett analytiskt arbetsflöde som en atom. Och jag kunde göra en modell eller ett helt arbetsflöde, så det spelar ingen roll. Men jag kan skapa detta och exportera det på ett språk som är lämpligt för målplattformen. På vänster sida av detta gör många människor detta, men de gör poäng i källsystemet. Det är bra, vi kan göra poäng och vi kan göra modellbyggnad i databasen, så det är intressant.

Och sedan på höger sida har vi Boomi. Detta är en följeslagarteknologi, vi arbetar med alla dessa. Men vi kan också ta dessa arbetsflöden och i huvudsak transportera det vart som helst i världen. Allt som har en IP-adress. Och jag behöver inte ha en Statistica installerad på det offentliga eller privata molnet. Allt som kan köra en JVM, vi kan köra dessa analytiska arbetsflöden, dataförberedande arbetsflöden eller bara modeller på någon av dessa målplattformar. Oavsett om det är i mitt offentliga eller privata moln, oavsett om det är i min traktor, min bil, mitt hem, min glödlampa, mitt internet med saker, vi har teknik som gör att du kan transportera dessa arbetsflöden var som helst i världen.

Låt oss gå igenom. Du vet, vi har en rad affärsanvändare, så dessa människor, vi har teknik som gör att de kan konsumera produktion i ett format som de är bekväma med. Vi har forskare för medborgardata, och vad vi försöker göra är att förbättra samarbetet, göra dem till en del av ett team, eller hur? Och därför vill vi att människor ska sluta uppfinna hjulet igen. Och vi har dessa datavetare, det kan finnas en kompetensgap där, men de kan koda på ett språk de vill, de kan gå till de analytiska marknadsplatserna och använda algoritmer där. Och så med detta, hur kan du inte tänka att allt är fantastiskt med det här? Det här är perfekt, det här är vad vi gör. Vi bygger återanvändbara arbetsflöden, vi ger människor instruktioner, vi ger dem Lego-blocken så att de kan bygga dessa mäktiga slott och vad de vill göra. För att sammanfatta det, vi har en plattform som gör det möjligt för affärsanvändare, medborgare datavetare, programmerare datavetare, vi har - vi kan ta itu med alla typer av IoT edge analytics användning fall, och vi möjliggör denna uppfattning om kollektiv intelligens. Med det tror jag att vi förmodligen kommer att öppna det för frågor.

Robin Bloor: Okej okej. Jag tror att det första - för att vara ärlig, menar jag att jag har informerats av Dell Statistica tidigare, och för att vara ärlig är jag faktiskt ganska förvånad över de saker som jag inte visste att du tog upp i presentationen . Och jag måste säga att den ena saken, det är någonting som har varit ett problem för mig inom antagandet av analys, är att du vet att få verktygen inte, vet du? Det finns väldigt många verktyg där ute, det finns öppen källkodsverktyg, och så vidare och så vidare, och det finns olika, vad jag skulle kalla, semi-plattformar. Men jag tror att skillnaden du har, jag var särskilt imponerad av en del av arbetsflödet.

Men skillnaden är att du verkar ge ende till slut. Det är som att analytics är en sofistikerad affärsprocess som börjar med förvärv av data och sedan går det igenom en hel rad steg, beroende på hur flagnande uppgifterna är, och sedan kan de förgrena sig i en hel serie olika matematiska attacker vid data. Och sedan uppstår resultat på ett eller annat sätt och de måste vara handlingar. Det finns en enorm mängd analyser som jag har stött på där mycket bra arbete gjordes men det är ingen åtgärd. Och du verkar ha väldigt mycket av vad som krävs. Jag vet inte hur omfattande det är, men det är långt mer omfattande än jag förväntat mig. Jag är otroligt imponerad av det.

Jag vill att du kommenterar kalkylblad. Du har redan sagt något, men en av de saker som jag noterade och jag har noterat genom åren, men det har blivit mer och mer uppenbart, är att det finns en hel del kalkylark som är skuggsystem och jag tror verkligen kalkylbladet, jag menar, det var ett underbart verktyg när det introducerades och det har varit underbart sedan dess på många olika sätt, men det är ett generaliserat verktyg, det är inte riktigt lämpligt för ändamål. Det är verkligen inte särskilt bra i BI-con och jag tycker att det är hemskt i analys-con. Och jag undrade om du hade några kommentarer att göra om, låt oss säga, exempel där, du vet, Statistica har utspolats, överdriven kalkylarkanvändning eller någon kommentar du skulle vilja göra om det?

David Sweenor: Ja, jag tror att du vet att du kan leta upp kända kalkylfel. Google eller vilken sökmotor du använder kommer tillbaka med ett antal resultat. Jag tror inte att vi någonsin kommer att ersätta kalkylblad. Det är inte vår avsikt, men många organisationer som jag går till, det finns ett par av dessa kalkylark-guider eller ninjor eller vad du vill kalla dem, men de har dessa mycket sofistikerade kalkylblad och du måste tänka, vad händer när dessa folk vinner lotto och de kommer inte tillbaka? Och det vi försöker göra är att vi känner till att kalkylblad kommer att finnas så vi kan äta in dem, men jag tror att det vi försöker göra är att utveckla en visuell representation av ditt arbetsflöde så att det kan förstås och delas med andra människor . Kalkylark är ganska svårt, ganska svårt att dela. Och så snart du skickar ditt kalkylblad till mig har jag ändrat det och nu har vi inte synkroniserats och vi får olika svar. Det vi försöker göra är att lägga några skyddsräcken runt detta och göra saker lite mer effektiva. Och kalkylblad är verkligen fruktansvärda när du kombinerar flera datauppsättningar, vet du? De faller där nere. Men vi kommer inte att ersätta dem, vi tar dem in och vi har människor som börjar växla för om vi har en nod som säger ”beräkna risk” är det vad personen som använder kalkylbladet försöker göra. Så de är borta.

Robin Bloor: Ja, jag menar, jag skulle säga att, från ett av de perspektiv som jag tittar på saker, skulle jag säga att kalkylblad är bra för att skapa information. De är till och med bra för att skapa öar med kunskap, men de är verkligen dåliga för att dela kunskap. De har ingen mekanism för att göra det som helst, och om du skickar ett kalkylblad till någon är det inte som du kan läsa det som om det är en artikel som förklarade exakt vad de gör. Det är bara inte där. Jag tror, ​​du vet, det som imponerade mig mest med presentationen och om Statisticas förmågor, det verkar vara oerhört agnostiskt. Men det har den här tråden som går igenom arbetsflödet. Har jag rätt när jag antar att du kan titta på ett arbetsflöde från slutet till slut ända, alltifrån datainsamling hela vägen till inbäddning av resultat i speciella BI-applikationer eller till och med köra applikationer?

David Sweenor: Ja, absolut. Och det har den ända kapaciteten och vissa organisationer använder det helt och hållet, och jag är under ingen illusion köper något företag idag allt från en leverantör. Vi har en blandning. Vissa människor använder Statistica för allt och andra använder den för modelleringsarbetsflöden, andra använder den för datapreparationsflöden. Vissa använder den för att distribuera hundratals tekniska rapporter till ingenjörer. Och så har vi allt däremellan. Och det är verkligen allt från slutet och det är, du vet, en agnostisk plattform, genom att om det finns algoritmer som du vill använda i R eller Python, Azure, Apervita, vad du än vet, använd dem. Det är bra, var produktiv, använd det du vet, använd det du är bekväm med och vi har mekanismer för att se till att de är kontrollerade och granskade och allt det där.

Robin Bloor: Jag gillar särskilt den aspekten av den. Jag menar, jag vet inte om du kan tala utöver vad du har sagt till den rikedom som finns där ute. Jag menar, jag har tittat på det här, men jag har inte tittat på det på ett omfattande sätt och det finns säkert en enorm mängd Python-bibliotek i våra bibliotek, men finns det något du kan lägga till den bilden? Eftersom jag tycker att det är en mycket intressant sak, du vet, idén att du skulle ha komponenter som var pålitliga, för att du kände olika människor som skapade dem och olika personer som använde dem som du kunde ladda ner. Du vet, kan du berika det du redan har sagt om det?

David Sweenor: Ja, jag tror att några av appens marknadsplatser, du vet, algoritmmarknaderna som finns där ute. Till exempel, du vet, Dr. John Cromwell vid University of Iowa, han har utvecklat en modell som kommer att förutsäga, som används i realtid medan vi drivs, kommer att ge dig poäng om du ska få en kirurgisk platsinfektion. Och om den poängen är tillräckligt hög kommer de att ta en intervention direkt i operationssalen. Det är väldigt intressant. Så kanske finns det ett annat sjukhus som inte är lika stort. Tja, Apervita är en marknadsplats för hälsa-apper för analys. Du kan antingen hitta en på många av dessa app-marknadsplatser, du kan hitta en och återanvända dem, och transaktionen är mellan dig och vem som äger det, men du kan antingen hitta en eller så kan du säga: "Här vad jag behöver. ”Jag tror att det utnyttjar det globala samhället eftersom alla är specialist idag och man kan inte veta allt. Jag tror att R och Python är en sak men den här idén om, "Jag vill göra den här funktionen, lägga en spec där ute på en av dessa appmarknadsplatser och låta någon utveckla den åt dig." Och de kan tjäna pengar på det, tror jag det är väldigt intressant och mycket annorlunda än rent open source-modellen.

Robin Bloor: Okej. Hur som helst, jag skickar bollen till Dez. Vill du dyka in, Dez?

Dez Blanchfield: Absolut och jag skulle vilja stanna kvar på kalkylbladet bara för ett ögonblick eftersom jag tror att det har fångat rätt vikt för mycket av det vi pratar om här. Och du kom med en kommentar, Robin, när det gäller övergången från typ av gamla kalkylark i deras fysiska form till elektronisk form. Vi hade en intressant sak där där, du vet, när kalkylblad ursprungligen var en sak de bara var pappersark med rader och kolumner och du manuellt skulle skriva ner saker, då skulle du slå igenom och beräkna dem, antingen genom att göra det utanför huvudet eller med någon annan enhet. Men vi har fortfarande möjligheten att få fel glida in med handskrivningsfel eller dyslexi, och nu har vi ersatt det med skrivfel. Risken är att med kalkylblad är riskprofilen snabbare och större, men jag tror att verktygen som Statistica inverterar riskpyramiden.

Jag ritar ofta den här bilden på en whiteboard av en mänsklig pinne i toppen, som en person, och sedan en samling av dem längst ner, låt oss säga, föreställa oss tio av dem längst ner på den whiteboard, och jag ritar en pyramiden där pyramidens punkt är ensamstående och foten av pyramiden är samlingen av människor. Och jag använder detta för att visualisera idén att om en person överst gör ett kalkylblad gör ett misstag och delar det med tio personer, och nu har vi tio kopior av felet. Var mycket försiktig med dina makron och var mycket försiktig med Visual Basic om du ska flytta till det. För när vi bygger elektroniska verktyg som kalkylblad är det mycket kraftfullt, men det är också kraftfullt på ett bra och dåligt sätt.

Jag tror att verktyg som Statistica skapar förmågan att invertera den riskprofilen och det är att du nu kan komma till den punkt där du fick massor av verktyg som är tillgängliga för den enskilde personen och när de går från massor av verktyg högst upp i pyramiden och sedan ner till botten där den punkt som pyramiden nu inverterar är det faktiska verktyget, om vi har ett team av människor som bygger dessa verktyg och de algoritmerna. Och datavetaren behöver inte vara specialist på regressionsanalys på deras data. De kan kanske använda verktyget, men du kanske har fem eller sex statistiker och en aktuarie och en datavetare och några matematiker som arbetar med det verktyget, den modulen, den algoritmen, den plug-in och så i kalkylbladets parlance, så föreställ dig att varje kalkylblad som publicerats som du kunde använda var faktiskt skriven av specialister som testade makron, testade Visual Basic, såg till att algoritmerna fungerade, så när du fick den kunde du bara smälla data in i den men du kunde faktiskt inte bryta den och därför har det varit bättre att kontrollera.

Jag tror att många analysverktyg gör det. Jag antar att när du kommer till det är det, ser du det ute i fältet nu, ser du övergången från kalkylblad som potentiellt skulle kunna driva fel och misstag och riskera, till den punkt där verktygen du bygger med din plattformar nu, med upptäckten av data som är korrekt i realtid och människorna som bygger modulerna och algoritmerna tar bort eller minskar den riskprofilen? Ser kundtjänst det i verklig mening eller tror du att det just händer och de inte inser det?

David Sweenor: Du vet, jag tror att det finns några sätt att svara på detta. Men vad vi ser är, du vet, i alla organisationer, och jag nämnde att analyser som jag tror kanske har släppts ut från ett företags investeringsperspektiv, typ av vad vi gjorde med datalagring och CRM. Men vad vi ser, så det krävs mycket för att förändra en organisation, för att komma över den organisatoriska trögheten. Men det vi ser är att folk tar sina kalkylblad, tar sina arbetsflöden, och jag nämnde säkerheten och styrningen, "Tja, kanske har jag ett kalkylblad," "Jag kan låsa det här och jag kan version kontrollera det." vi ser många organisationer, kanske de bara börjar där. Och om det har förändrats finns det ett arbetsflöde och jag slutar gå, nummer ett, vem ändrade det? Varför de ändrade det. När de ändrade det. Och jag kan också ställa in ett arbetsflöde så att jag inte kommer att sätta det nya kalkylbladet i produktion om det inte har validerats och verifierats av en, två, tre, hur många partier du än vill definiera i ditt arbetsflöde. Jag tror att folk börjar ta, och organisationer börjar ta barnsteg där, men jag skulle antagligen föreslå att vi har en lång väg att gå.

Dez Blanchfield: Ja, och jag tror att med tanke på att du bygger in både säkerhetskontrollerna och styrningen där, så kan arbetsbelastningen automatiskt kartlägga det och allt upp till chefen för riskchefen, som nu är en sak. Du kan börja kontrollera hur dessa verktyg och system nås och vem gör vad med dem, så det är mycket kraftfullt. Jag tror att de andra sakerna som kommer in i detta är att de typer av verktyg du tillhandahåller, för mig, lånar till mänskligt beteende mer än till de traditionella kalkylblad som vi pratar om, i det att om jag har ett rum fullt av människor med samma instrumentpanel och tillgång till samma data som de faktiskt kan få en annan vy och som ett resultat få lite olika insikter från samma information, som passar deras behov så att de kan samarbeta. Då har vi en mänskligare syn och interaktion med verksamheten och beslutsprocessen, i motsats till att alla går till samma möte med samma PowerPoint, och samma kalkylblad som redigeras, alla samma fasta data.

Ser du en övergång i beteende och kultur i organisationer som på något sätt tar upp dina verktyg nu där de ser det som äger rum, där det inte är som fem personer i rummet som tittar på samma kalkylblad och försöker bara verbalisera det och göra anteckningar om det , men nu interagerar de faktiskt med instrumentpanelerna och verktygen i realtid, med visualisering och analys till hands och får ett helt annat flöde på konversationen och interaktionen, inte bara i möten utan bara allmänt samarbete runt organisationen? Eftersom de kan göra det i realtid, för att de kan ställa frågorna och få ett riktigt svar. Är det en trend du ser just nu eller har det inte riktigt hänt ännu?

David Sweenor: Nej, jag tror att det definitivt har börjat på den vägen och jag tror att det väldigt intressanta är, vet du, om vi tar exempel på en fabrik till exempel. Kanske någon som äger en viss processsektor inom den fabriken de vill titta på och interagera med dessa data på ett visst sätt. Och kanske jag, med utsikt över alla processer, kanske den här längst ner, kanske jag vill titta på det över allt. Jag tror att det vi ser är nummer ett att människor börjar använda en gemensam uppsättning visualiseringar eller standardvisualiseringar inom sina organisationer, men det är också anpassat till den roll de är i. Om jag är en processingenjör, kanske det är en mycket annorlunda syn än någon som tittar på det ur ett försörjningskedjeperspektiv, och jag tycker att det är fantastiskt eftersom det måste skräddarsys och det måste ses på linsen som du behöver för att få ditt jobb gjort.

Dez Blanchfield: Jag antar att beslutsprocessen kommer ner, tidsmässigt och snabbt, att faktiskt fatta smarta och korrekta beslut ökar också snabbt, eller hur? För om du har analyser i realtid, instrumentpaneler i realtid, om du har statistikverktygen till hands behöver du inte springa över golvet för att fråga någon om något, har du det i papperskopia. Du kan typ av samarbeta, interagera och faktiskt fatta beslut i farten och få det resultatet omedelbart. Som jag tror att några av företagen verkligen inte har tagit grepp än, men när de gör det kommer det att vara detta eureka-ögonblick som, ja, vi kan fortfarande stanna i våra bås och jobba hemma, men vi kan interagera och samarbeta och de besluten vi gör när vi samarbetar omedelbart till resultat. Titta, jag tycker det var fantastiskt att höra vad du har att säga hittills och jag ser verkligen fram emot att se vart det går. Och jag vet att vi har många frågor i frågor och svar, så jag kommer att springa tillbaka till Rebecca för att springa igenom några av dem så att vi kan komma till dem så snabbt du kan. Tack så mycket.

Rebecca Jozwiak: Tack Dez, och ja Dave, vi har en hel del frågor från publiken. Och tack Dez och Robin för dina insikter också. Jag vet att den här deltagaren var tvungen att släppa högst upp på timmen, men hon frågar lite, ser du att informationssystemavdelningarna är mer prioriterade på sofistikerade datakontroller snarare än att vara bekväma att tillhandahålla verktyg för kunskapsarbetarna? Jag menar, är det - gå vidare.

David Sweenor: Ja, jag tror att det beror på organisationen. Jag tror att en bank, ett försäkringsbolag, kanske de har olika prioriteringar och sätt att göra saker, kontra en marknadsföringsorganisation. Jag antar att jag måste säga att det bara beror på branschen och den funktion du tittar på. Olika branscher har olika fokus och betoning.

Rebecca Jozwiak: Okej bra, det är vettigt. Och sedan ville en annan deltagare veta, vad är motorn bakom Statistica? Är det C ++ eller dina egna grejer?

David Sweenor: Tja, jag vet inte om jag kan få det specifikt med det att det har funnits i 30 år och det har utvecklats före min tid men det finns ett kärnbibliotek med analytiska algoritmer som är Statistica-algoritmer som körs. Och du såg här att vi också kan köra R, vi kan köra Python, vi kan spränga till Azure, vi kan köra på Spark på H2O, så jag antar att jag skulle behöva svara på den frågan i termer av, det är en mängd olika motorer. Och beroende på vilken algoritm du väljer, om den är en Statistica-en kör den så här, om du väljer en på H2O och Spark, använder den det, och så är det en mängd av dem.

Rebecca Jozwiak: Okay bra. En annan deltagare som frågade specifikt pekade på den här bilden, vill veta, typ av, hur vet medborgardataforskaren vilka återanvändbara mallar att använda? Och jag antar att jag kommer att göra en bredare fråga ur det. Det, vad ser du när företagsledare eller affärsanalytiker kommer in och de vill använda dessa verktyg, hur lätt är det för dem att hämta och gå igång?

David Sweenor: Jag antar att jag skulle svara på det och om du kan använda, om du är bekant med Windows, är detta en Windows-baserad plattform, så jag har klippt bort toppen av dessa skärmdumpar, men det har Windows-bandet. Men hur vet de vilket arbetsflöde de ska använda? Det ser ut som Windows Utforskaren, så det finns en trädstruktur och du kan konfigurera den och ställa in den men din organisation vill konfigurera den. Men det kan vara, du skulle bara ha dessa mappar och du skulle placera dessa återanvändbara mallar i dessa mappar. Och jag tror att det förmodligen finns en nomenklatur som ditt företag kan anta, säger här är "beräkna riskprofilen", här är "få data från dessa källor" och du namnger dem vad du vill. Det är bara en gratis mapp, du drar bara anteckningarna rakt ut på din duk. Så ganska lätt.

Rebecca Jozwiak: Okay bra. Kanske en demo nästa gång. Då kommer en annan deltagare upp, och det är vad du och Robin och Dez pratade om så vitt som felaktigheterna, speciellt på ett kalkylblad, men skräpet in / sopor ut, och han ser det som ännu mer kritiskt när det kommer till analys. Att nämna att, du vet, kan missbruk av data verkligen leda till några olyckliga beslut. Och han undrar vad dina åsikter är om utvecklingen av fler misslyckade algoritmer, antar jag för att han använder ordet, "övervågad" användning av analyser. Du vet, någon kommer in, de blir riktigt upphetsade, de vill göra dessa avancerade analyser, de vill köra dessa avancerade algoritmer, men kanske är de inte riktigt säkra. Så vad gör du för att skydda mot det?

David Sweenor: Ja, så jag antar att jag kommer att svara på det så bra jag kan, men jag tror att allt kommer till människor, process och teknik. Vi har teknik som hjälper människor att aktivera och hjälper till att aktivera vilken process du vill lägga in i din organisation. I exemplet med att sätta in en kupong till någon är det kanske inte så kritiskt, och om det är digitalt är det verkligen ingen kostnad, kanske det finns en nivå av säkerhetskontroller och kanske bryr vi oss inte. Om jag förutspår infektioner på kirurgiska platser, kanske jag vill vara lite mer försiktig med det. Eller om jag förutspår läkemedelskvalitet och säkerhet och sådant, kanske jag vill vara lite mer försiktig med det. Du har rätt, skräp in / skräp ut, så vad vi försöker göra är att tillhandahålla en plattform som låter dig skräddarsy det efter vilken process din organisation vill anta.

Rebecca Jozwiak: Okay bra. Jag har några frågor till, men jag vet att vi har gått ganska länge i timmen och jag vill bara berätta för våra presentatörer, det var fantastiskt. Och vi vill tacka så mycket Dave Sweenor från Dell Statistica. Naturligtvis Dr. Robin Bloor och Dez Blanchfield, tack för att du är analytiker idag. Vi kommer att få en annan webcast nästa månad med Dell Statistica. Jag vet att Dave antydde något om ämnet. Det kommer att handla om analys i kanten, ett annat fascinerande ämne, och jag vet att några mycket tvingande användningsfall kommer att diskuteras på den webbsändningen. Om du gillade det du såg idag, kom tillbaka till mer nästa månad. Och med det, folk, jag välkomnar dig. Tack så mycket. Hejdå.