Hem Audio Edge analytics: iotekonomin äntligen

Edge analytics: iotekonomin äntligen

Anonim

Av Techopedia Staff, 22 september 2016

Takeaway: Host Rebecca Jozwiak diskuterar kantanalys med Dr. Robin Bloor, Dez Blanchfield och Dell Statisticas Shawn Rogers.

Du är för närvarande inte inloggad. Logga in eller registrera dig för att se videon.

Rebecca Jozwiak: Mina damer och herrar, hej och välkommen till Hot Technologies 2016. Idag har vi "Edge Analytics: The IoT Economy äntligen." Jag heter Rebecca Jozwiak. Jag kommer att vara din moderator för dagens webcast. Vi tweetar med en hashtagg # HOTTECH16 om du vill gå med på Twitter-konversationen.

Så IoT, definitivt ett hett ämne i år och tingenes internet, det handlar verkligen om maskindata, sensordata, loggdata, enhetsdata. Ingen av dem är ny, vi har haft den typen av data för evigt, men det är att vi egentligen inte har kunnat använda den och nu ser vi bara massor av nya sätt att använda dessa data. Särskilt inom den medicinska industrin, de finansiella marknaderna, med olja och gas, råvaror, är det bara en mängd information som tidigare inte har utnyttjats. Och inte en hel del människor har verkligen fått ett bra grepp om hur man gör det bra. Vi pratar om mycket lite data, men det är mycket data och, du vet, det är nätverksproblem inblandade, det finns hårdvara inblandad eller måste bearbetas, och hur gör du det utan att täppa till ditt system? Det är vad vi ska lära oss om idag.

Här är vårt sortiment av experter. Vi har Dr. Robin Bloor, vår chefanalytiker på The Bloor Group. Vi har också Dez Blanchfield, vår datavetare vid The Bloor Group. Och vi är glada över att ha Shawn Rogers, chef för global marknadsföring och kanaler från Dell Statistica. Och med det kommer jag att skicka bollen till Robin.

Dr. Robin Bloor: Okej, tack för det. Jag ska trycka på en knapp och kasta upp en bild. Jag har ingen aning om varför jag skapade den här apokalyptiska bilden för tingenes internet. Kanske för att jag tror att det kommer att bli kaotiskt i slutändan. Jag går vidare. Detta motsvarar kursen i alla IoT-presentationer. Du måste på ett eller annat sätt säga något upprörande om vart det går. Och faktiskt är det mesta av detta sant. Om du faktiskt tittar på hur dessa kurvor gradvis expanderar. Du vet, persondatorer, smartphones och surfplattor kommer antagligen att fortsätta stiga. Smarta TV-apparater kommer förmodligen att stiga. Wearables, de exploderar förmodligen just nu, jämfört med vad de var för några år sedan. Anslutna bilar, oundvikligt att i stort sett alla bilar kommer att anslutas ordentligt brett och noggrant överföra data hela tiden. Och allt annat. Och just denna graf från BI Intelligence indikerar att allt annat kommer att uppväga de uppenbara sakerna mycket, mycket snabbt.

Så vad ska jag säga om IoT? Det första är bara en arkitektonisk punkt. Du vet, när du har data och har bearbetat dig, på ett eller annat sätt måste du sätta ihop de två. Och med data på de volymer det är nu, och samlar på olika platser, är de två inte naturligtvis tillsammans längre. De brukade vara i de gamla mainframe-dagarna, antar jag. Så du kan tänka i termer av att det finns ett behandlingslager, ett transportlager och ett dataskikt. Och på ett eller annat sätt kommer transportlager nuförtiden att flytta behandlingen runt eller flytta informationen över nätverk. Så här är valen: Du kan flytta data till bearbetningen, du kan flytta behandlingen till data, du kan flytta behandlingen och data till en bekväm exekveringspunkt, eller du kan skärpa behandlingen och skärva uppgifterna. Och när det gäller tingenes internet är uppgifterna i stort sett redan avskärmade vid födseln och sannolikheten är att en väldigt stor del av behandlingen kommer att skärvas för att de applikationer som behöver köras kan ske.

Så jag har målade en bild. Det intressanta för mig om IoT, jag talar om en aggregeringsdomän i detta diagram och jag påpekar att det finns underdomäner. Så du kan föreställa dig att IoT-domän 1 här är en bil av något slag, och domän 2 och domän 3 och domän 4, är bilar av något slag, och du kommer att samla data lokalt, du kommer att köra lokala appar på den informationen, och du kommer att genomföra olika saker till handling. Men för att ha analyser om alla bilar, måste du överföra data till centrum, inte nödvändigtvis alla data, men du måste aggregera i centrum. Och om du tänker på detta, kanske du vill ha många, många olika aggregeringsdomäner till samma uppsättning av IoT-saker. Och domänerna själva kan ytterligare samlas. Så du kan ha den här upprepande hierarkin. Och i grund och botten är det ett oerhört komplext nätverk. Mycket mer komplexa än någonting vi var tvungna att ha förut.

Jag har en anteckning längst ner här. Alla nätverksnoder, inklusive bladnoder, kan vara dataskapare, datalagrar och behandlingspunkter. Och det ger dig en möjlighet till distribution, liknande som vi inte har sett förut. Dez kommer att prata lite mer om det, så jag ska gå vidare till just denna punkt. När vi väl är på tingenes internet och all data faktiskt har lösts till att vara händelser, är poängen med den här bilden bara för att indikera att vi kommer att behöva standardisera händelser. Vi måste åtminstone behöva ha det här. Vi kommer att få tiden händelsen inträffade, den geografiska platsen den inträffade, den virtuella eller logiska platsen för processen som skapade den, källenheten som skapade den, enhets-ID så att du vet exakt vilken källenhet som skapade den, äganderätt av uppgifterna och aktörerna, de människor som har rätt att använda uppgifterna på något eller annat sätt, det kommer att behöva bära sina behörigheter med det, vilket verkligen betyder att det kommer att behöva bära säkerhet med det, och sedan finns det själva uppgifterna. Och när du tittar på detta inser du att du vet, även om du har en sensor som inte gör något mer än att rapportera temperaturen på något varje sekund, så finns det faktiskt en hel del data bara för att identifiera exakt var data har sitt ursprung och vad det faktiskt är. Förresten, detta är inte en uttömmande lista.

Så när det gäller det framtida IT-landskapet, så ser jag det som det är: att det inte bara är tingenes internet, det finns också det faktum att vi kommer att vara i en värld av händelsestyrd aktivitet, och därför måste ha händelsedrivna arkitekturer, och de arkitekturerna måste täcka stora nätverk. Och den andra saken är realtid allt, det är inte nödvändigtvis fallet för oss att vara realtid, men det är något jag kallar affärstid som är den tid inom vilken data faktiskt måste serveras och redo att bearbetas. Det kanske inte är, du vet, ett millisekund efter det har skapats. Men det finns alltid en sådan tid för varje uppsättning data och när du väl har en händelsestyrd arkitektur börjar det bli mer förnuftigt att tänka i termer av en realtidsinriktning på hur världen fungerar.

Så koka ner det, för det vi egentligen pratar om är analyser på IoT. Trots allt handlar det fortfarande om tid till insikt, och det är inte bara tid till insikt, insikt måste följas av handlingar. Så tid till insikt och tid till handling är det jag skulle koka ner det till. Med det sagt, ska jag skicka tillbaka bollen till Dez.

Dez Blanchfield: Tack, Robin. Insiktsfull som alltid. Jag älskar det faktum att det är en svår handling att följa i alla instanser, men jag kommer att göra mitt bästa.

En av de saker som jag ser, och jag blir ofta underhållen av det, för att vara ärlig och inte i en obetydlig och negativ snedform, men det finns en hel del oro och panik över att internet tänder över världen och slotting oss så börjar du förlora dina data, så jag vill titta lite tillbaka på några av de saker som vi har gjort tidigare under de senaste två till tre decennierna som var en nära fax för internet saker, men kanske inte riktigt i samma skala. Och bara för att visa oss att vi faktiskt har varit här och löst några av problemen, inte på denna nivå av skala och inte med denna hastighet. Eftersom det betyder att vi faktiskt kan lösa problemet och att vi vet vad några av svaren är; vi har precis kommit ner till och börja använda några av de lärdomar vi hade tidigare. Och jag vet att det här är hela konversationen vi håller på att ha och jag har en hel rad roliga saker bara för att chatta igenom i Q & A-avsnittet.

Men när vi tänker på tingenes internet i cirkeln, finns det en hel del centralisering för närvarande på en designnivå som skrivdes under de allra första början. Fitbit-enheter, till exempel, tenderar alla att gå till en central plats och det kommer sannolikt att vara värd i en molnplattform någonstans och all den informationen från alla dessa enheter träffar samma, låt oss bara säga, front end of a stack, inklusive web och app- och databaserade tjänster. Men över tid kommer den skalan att kräva en omkonstruktion för att hantera mängden data som kommer till dem och de kommer att omarbeta så att det finns flera frontändar och flera kopior av stacken på flera platser och regioner. Och vi ser detta och det finns ett antal exempel som jag kommer att ge er som vi kan diskutera.

Det viktigaste med detta är att även om vi har sett några av dessa lösningar som jag håller på att täcka, kräver brådskan och volymen på data och den nätverkstrafik som tingenes internet kommer att generera snabbt en förskjutning från centrala till distribuerade arkitekturer enligt min åsikt, och vi vet detta men vi har inte nödvändigtvis förstått vad lösningen är. När vi tänker på begreppet vad tingen är på internet är det en storskalig nätverksmodell. Det är massor av saker som nu gör ljud. Saker som inte gjorde buller förrän nyligen. Och i själva verket tror jag att det var igår, jag talade skämtigt om bunten, men jag gick för att köpa en ny brödrost och det kom med ett alternativ som kunde berätta för mig olika saker, inklusive när det behövdes rengöring. Och en ny mikrovågsugn med en mycket liknande funktion och kan till och med faktiskt pinga en app på min telefon för att säga att det som jag värmde upp var nu gjort. Och jag tycker mycket om att om det finns ett par saker jag inte vill prata med mig så är det mitt kylskåp, mikrovågsugn och brödrostar. Jag är ganska bekväm med att de är dumma enheter. Men jag har fått en ny bil nyligen, lite Audi, och den pratar med mig och jag är ganska nöjd med det, för det som det pratar om är intressanta saker. Som att uppdatera kartor i realtid för att berätta var det finns en bättre väg att komma från punkt A till punkt B eftersom det upptäcks trafik genom olika mekanismer med data som den skickas.

Jag har den här bilden. Vi har redan sett att nätverksmodeller med hög volym kräver en övergång från central till distribuerad fångst och leverans av databehandlings- och analysmodeller. Vi har sett saker flytta från de tre lilla grafdiagrammen där på den högra kanten där vi har, den till vänster av de tre, det finns en centraliserad modell med alla små enheter som kommer till det centrala läget och samla in data och skalan är inte så stor, de klarar sig bara bra där. I mitten har vi en lite mer decentraliserad modell och nav och talade, vilket är vad jag tror att vi kommer att behöva med saker och ting i nästa generation. Och på höger sida har vi detta helt distribuerade och nätade nätverk som är där tingenes internet och maskin-till-maskin kommer att gå på mycket kort sikt i framtiden, men vi är inte riktigt där av flera skäl. Och främst för att vi använder internetplattformar för de flesta kommunikationer hittills och vi faktiskt inte har byggt ett andra nätverk för att transportera mycket av denna information.

Det finns andra nätverk som redan finns, till exempel Batelco-nätverk. Många tänker inte på det faktum att telenätet inte är internet. Internet är en mycket separat sak på många sätt. De dirigerar data från smartphones över telefonnätverket och sedan över telefonnätverket och till internet i allmänhet där de faktiskt lägger dem i två nätverk. Men det är fullt möjligt och troligt att tingenes internet behöver ett annat nätverk. Vi pratar om det industriella internet som ett ämne generellt, som vi inte kommer att gå i detalj nu, men i själva verket pratar vi om ett annat nätverk som är specifikt utformat för de typer av transport för data eller internet av saker och maskin-till-maskin kommunikation.

Men några av de exempel jag ville dela där vi har sett nätverk med hög volym och distribuerade data fungerar mycket bra är saker som internet. Internet designades och arkitekterades specifikt från dag ett för att kunna överleva ett kärnkraftkrig. Om delar av USA sprängs, designades internet så att data kan röra sig på internet utan paketförlust av skäl att vi fortfarande är anslutna. Och det finns fortfarande i världen. Internet har flera funktioner kring redundans och routingpaket. Och faktiskt är internet kontrollerat av en sak som kallas BGP, Border Gateway-protokollet, och Border Gateway-protokollet, BGP, är speciellt utformad för att hantera antingen en router eller switch eller server är nere. När du skickar eller tar emot ett e-postmeddelande, om du skickar tre e-postmeddelanden i rad finns det ingen garanti för att vart och ett av dessa e-postmeddelanden kommer att följa samma väg till samma slutdestination. De kan flytta igenom olika delar av internet av olika skäl. Det kan vara ett avbrott, det kan finnas underhållsfönster där saker är offline för att uppgraderas, det kan bara vara trängsel i nätverket, och vi ser att det med saker som trafiknät med bilar och kollektivtrafik och fartyg och flygplan. Vi får innehåll till våra enheter som våra bärbara datorer och surfplattor och datorer via webbläsare och så vidare varje dag via nätverk för innehållsleverans. Innehållsleveransnätverk handlar om att ta kopior av innehåll från din primära serveringsplattform, till exempel webbservern och flytta kopior av den och cachen små mängder till kanten av nätverket och bara leverera det till dig från den närmaste delen av kanten.

Anti-spam och cybersecurity - om en spam-händelse äger rum i Kanada och Microsoft upptäcker det och ser att det finns massor av kopior av samma e-postmeddelande som skickas till en grupp slumpmässiga personer, tas kontrollsumma på det, en signatur för det meddelandet är skapas och placeras i ett nätverk och distribueras omedelbart. Och så att e-postmeddelandet aldrig kommer in i min inkorg, eller om det gör det, kommer det att taggas som skräppost omedelbart eftersom det har upptäckts någon annanstans i kanten av nätverket. Och så berättas andra delar av nätverkets kant om denna skräppost-signatur och den läggs in i en databasindex och om dessa meddelanden börjar visas på andra sidan planeten upptäcker vi dem och vi vet att de är skräppost. Och detsamma gäller cybersäkerhet. Ett hack som äger rum på ena sidan av planeten upptäcks och registreras och kartläggs och plötsligt på den andra delen av nätverket kan vi bekämpa det och arkivera regler och policyer och ändra för att se om vi kan blockera det. Särskilt med den nya inverkan av saker som avslag på tjänst eller distribuerad avslag på tjänst där tusentals maskiner används för att attackera en central webbplats.

Bitcoin och blockchain är som standard i sin natur en distribuerad huvudbok, blockchain och hanterar eventuella avbrott eller brott i nätverket. Bedrägeri upptäckt och förebyggande, kraft och vattenverktyg - vi ser, du vet kraftnätet, om en del av nätverket får ett träd på det och tar ut en stolpe och en tråd, får mitt hus fortfarande ström. Jag vet inte ens om det, jag ser ofta inte ens det i nyheterna. Och vi är alla vana vid transportnäten där det ursprungligen fanns en centraliserad modell, "Alla vägar ledde till Rom", som de säger, och så småningom var vi tvungna att gå till den decentraliserade modellen med nav och ekrar, och sedan gick vi till ett nätverk där du kan komma från ena sidan av staden till den andra genom olika nätvägar och olika korsningar. Och det vi ser här är att denna centraliserade modell av vad vi gör nu med tingenes internet kommer att behöva driva ut till kanten av nätverket. Och detta gäller analytik mer än någonsin, och det är att vi måste driva analytics ut i nätverket. Och för att göra det krävs det en helt ny metod för hur vi får tillgång till och bearbetar den informationen och dataströmmarna, enligt min åsikt. Vi pratar om ett scenario nu där jag tror att vi ser begränsad intelligens skjuts ut till kanten av nätverket på internet-anslutna enheter, men vi kommer snart att se dessa enheter öka i intelligens och öka nivån på analys de vill ha att göra. Och som ett resultat av detta kommer vi att behöva driva dessa smarts längre och längre genom nätverket.

Till exempel smarta appar och sociala medier - om vi tänker på sociala medier och några av de smarta apparna är de fortfarande mycket centrala. Du vet, det finns bara två eller tre datacenter för sådana som Facebook. Google har blivit mycket mer decentraliserat, men det finns fortfarande ett begränsat antal datacenter runt om i världen. När vi sedan tänker på anpassning av innehåll måste du tänka ner på en mycket lokal nivå. Mycket av det görs i din webbläsare eller i ett lokalt lager för innehållsleverans. Och vi tänker på hälso- och fitnessspårare - en hel del data som samlas in från dem analyseras lokalt och så de nya versionerna av Garmin- och Fitbit-enheterna du lägger på handleden, de blir smartare och smartare i enheten . De skickar nu inte all information om din puls tillbaka till en centraliserad server för att försöka få analysen; de bygger den intelligensen direkt i enheten. I bilnavigering brukade det hända att bilen ständigt skulle få uppdateringar och kartor från ett centralt läge, nu är smarts i bilen och bilens beslut är helt av sig själv och så småningom kommer bilarna att mesh. Bilarna kommer att prata med varandra via trådlösa nätverk av någon form, som kan vara över en 3G eller ett 4G trådlöst nätverk i nästa generation, men så småningom kommer det att vara enhet till enhet. Och det enda sättet vi kommer att hantera volymen på är att göra enheterna smartare.

Vi har redan nödvarningssystem som samlar information lokalt och skickar det centralt eller i ett nätverk och fattar beslut om vad som händer lokalt. Till exempel finns det i Japan applikationer som människor kör på sina smartphones med accelerometrar i smarttelefonen. Accelerometrarna i smarttelefonen kommer att upptäcka vibrationer och rörelser och kan bestämma skillnaden mellan bara normal dag-till-dag rörelse och skakningar och chocker från en jordbävning. Och den telefonen kommer att börja varna dig direkt, lokalt. Den faktiska appen vet att den upptäcker jordbävningar. Men den delar också den informationen upp genom ett nätverk i ett distribuerat nav och talar modell så att människor nära dig blir varnade omedelbart eller så snart som möjligt när data flyter genom nätverket. Och så småningom när det kommer till en central plats eller en distribuerad kopia av den centrala platsen skjuter den tillbaka ut till människor som inte är i närområdet, inte har upptäckt planetens rörelse, men måste varnas för det eftersom kanske en tsunami kommer.

Och smart stadsinfrastruktur - begreppet intelligent infrastruktur, vi bygger redan intellektet till smarta byggnader och smart infrastruktur. I går parkerade jag faktiskt min bil i staden i ett nytt område där en del av staden renoverades och byggdes om. Och de har gjort alla gatorna igen, och det finns sensorer på gatorna, och den faktiska parkeringsmätaren vet att när jag har kört in med en bil, vet det att när jag går för att uppdatera för den två timmars gränsen bilen har inte rört sig, och den skulle faktiskt inte låta mig fylla och stanna i ytterligare två timmar. Jag var tvungen att komma in i bilen, dra ut ur utrymmet och sedan dra tillbaka in för att lura den för att låta mig stanna kvar i ytterligare två timmar. Men det som är intressant är att så småningom vi kommer till den punkt där det inte bara upptäcker bilen som kommer in i området som en lokaliserad sensor, utan saker som optiska egenskaper där igenkänning kommer att tillämpas med kameror som tittar på min registreringsskylt, och den kommer att veta att jag faktiskt bara drog ut och drog tillbaka och lurade det, och det låter mig bara inte förnya och jag kommer vidare. Och sedan kommer den att distribuera den informationen och se till att jag inte kan göra det någon annanstans och lura nätverket fortlöpande. För att det i sin natur måste bli smartare, annars fortsätter vi alla att lura det.

Det finns ett exempel på detta som jag personligen har bott i där i brandväggsteknologi, i slutet av 80-talet och början av 90-talet, en produkt som heter Check Point FireWall-1. En mycket enkel brandväggsteknik som vi använde för att skapa regler och bygga policyer och regler kring vissa saker att säga att typer av trafik genom vissa portar och IP-adresser och nätverk för att komma till och från varandra, webbtrafiken från en plats till en annan, går från webbläsarens och klientens slut till vår server-slut. Vi löste detta problem genom att faktiskt ta ut logiken ur själva brandväggarna och faktiskt flytta det till ASIC, den applikationsspecifika integrerade kretsen. Det styrde portarna i Ethernet-switchar. Vi fann att serverns datorer, de datorer som vi faktiskt använde som servrar för att fatta beslut som brandväggar, inte var tillräckligt kraftfulla för att hantera trafikvolymen som går igenom dem för varje liten paketinspektion. Vi löste problemet genom att flytta den logik som krävs för att göra paketinspektion och internetdetekteringar i nätverksomkopplarna som distribuerades och kunde hantera volymen av data som går igenom nätverksnivån. Vi oroade oss inte för det på centraliserad nivå med brandväggar, vi flyttade det ut till switcharna.

Och så fick vi tillverkarna att bygga upp förmågan för oss att driva banor och regler och policyer i Ethernet-omkopplaren så att på den faktiska Ethernet-portnivån, och kanske många människor i poolen inte är bekanta med detta eftersom vi är alla lever i en trådlös värld nu, men en gång i tiden var allt tvunget att ansluta via Ethernet. Nu på Ethernet-portnivå undersökte vi paket för att se om paketen till och med fick flytta in i brytaren och in i nätverket. Några av det här är vad vi nu löser kring denna utmaning att fånga upp data i nätverket, specifikt från IRT-enheterna, inspektera det och göra analyser av det och förmodligen analysera det i realtid för att fatta beslut om det. Och något av det för att få insikt i affärsintelligens och information om hur människor fattar bättre beslut och annan analys och prestanda för saker från maskin till maskin där enheter pratar med enheter och fattar beslut.

Och detta kommer att bli en trend som vi måste titta på att lösa i den omedelbara framtiden för om vi inte gör det kommer vi bara att hamna med denna flod av buller. Och vi har sett i big data-världen, vi har sett saker som dataljöar förvandlas till datavärvor som vi bara slutar med en flod av buller som vi inte har kommit fram till hur vi löser behandlingsanalysen i en centraliserad mode. Om vi ​​inte löser detta problem, enligt min mening, med IoT omedelbart och får en plattformslösning mycket snabbt kommer vi att hamna på en mycket, mycket dålig plats.

Och med det i åtanke kommer jag att avsluta med min poäng som är att jag tror att en av de största förändringarna som äger rum i big data- och analysutrymmet nu drivs av det omedelbara behovet av att reagera på internetpåverkan av saker på högvolym och realtidsanalys, genom att vi måste flytta analysen ut i nätverket och så småningom till kanten av nätverket bara för att hantera den stora volymen, bara för att bearbeta den. Och så småningom, förhoppningsvis, lägger vi intelligensen i nätverket och kanten på nätverket i en nav och talade modell som vi faktiskt kan hantera det och få insikter i realtid och få värde av det. Och med det kommer jag att överlämna till vår gäst och se var den här konversationen tar oss.

Shawn Rogers: Tack så mycket. Det här är Shawn Rogers från Dell Statistica, och pojke, bara till att börja med, jag håller helt med alla de viktigaste ämnena som har berörts här. Och Rebecca, du började med en kring idén om, du vet, dessa data är inte nya, och det är anmärkningsvärt för mig hur mycket tid och energi som används för att diskutera data, data, data från IoT. Och det är verkligen relevant, du vet, Robin gjorde en bra poäng, även om du gör något riktigt enkelt och du knackar på en termostat en gång i sekundet, du vet att du gör det 24 timmar om dygnet och du har faktiskt, du vet, några intressanta datautmaningar. Men du vet, i slutändan - och jag tror att många människor i branschen pratar om uppgifterna på det här sättet - att det inte riktigt är så intressant och, till Rebeccas uppfattning, har det varit en bra, lång tid, men Vi har tidigare inte kunnat utnyttja det mycket. Och jag tror att den avancerade analysindustrin och BI-branschen i allmänhet börjar verkligen vända sig mot IoT. Och Dez, till din sista punkt, detta är en del av eller en av de utmanande punkterna i big data-landskapet tror jag är mycket sant. Jag tror att alla är väldigt glada över vad vi kan göra med den här typen av data, men samtidigt, om vi inte kan ta reda på hur vi ska tillämpa insikt, vidta åtgärder och, vet du, få analyser där data finns, tror jag vi kommer att ha utmaningar som människor inte ser riktigt komma.

Med det sagt är vi i det avancerade analysutrymmet stora fans av vad vi tror kan hända med IoT-data, särskilt om vi använder analyser på det. Och det finns mycket information den här bilden och jag låter alla bara jaga och plocka runt, men om du tittar på olika sektorer som detaljhandeln längst till höger, ser deras möjlighet uppstå kring att kunna vara mer innovativ eller ha lite kostnadsbesparingar eller processoptimering eller förbättringar är mycket viktigt och de ser många användningsfall för det. Om du tittar, från vänster till höger över bilden, ser du hur var och en av dessa enskilda branscher kräver nya möjligheter och nya differentieringsmöjligheter för sig själva när de tillämpar analyser på IoT. Och jag tror att i första hand är att om du ska sträva efter att gå ner på den vägen måste du inte bara oroa dig för data, som vi har diskuterat, och arkitekturen, men du måste också titta på hur du bäst tillämpa analysen på den och där analysen behöver ske.

För många av oss på dagens samtal, du vet, Robin och jag har känt varandra väldigt länge och haft otaliga konversationer tidigare, om de centraliserade databaser eller företagets datalager och så vidare, och som vi " Vi har hittat under det senaste decenniet eller så gör vi ett ganska bra jobb med att utöka begränsningarna för infrastrukturen. Och de är inte så standhaftiga eller så starka som vi skulle vilja att de ska vara idag för att stödja all den fantastiska analys som vi tillämpar informationen och naturligtvis informationen bryter också arkitekturen, du vet, datahastigheten, datamängden och så vidare, sträcker definitivt begränsningarna för några av våra mer traditionella metoder och strategier för denna typ av arbete. Och så jag tror att det börjar kräva att företag måste ta en mer smidig och kanske mer flexibel syn på detta och det är den delen, antar jag, jag skulle vilja prata lite om IoT-sidan.

Innan jag gör det kommer jag att ta ett ögonblick bara för att låta alla som ringer, ge dig lite bakgrund om vad Statistica är och vad vi gör. Som du kan se på titeln på denna bild är Statistica en prediktiv analys, big data och visualisering för IoT-plattformen. Produkten i sig är drygt 30 år gammal och vi tävlar med de andra marknadsledarna som du förmodligen känner till för att kunna tillämpa prediktiv analys, avancerad analys på data. Vi såg en möjlighet att utöka vårt räckvidd där vi placerade vår analys och började arbeta med vissa teknologier ett tag tillbaka som har placerat oss ganska bra för att dra nytta av vad både Dez och Robin har talat om idag, vilket är denna nya strategi och där du ska lägga analysen och hur du ska smälta den med data. Längs denna sida kommer andra saker som du måste kunna ta itu med plattformen, och som jag nämnde har Statistica varit på marknaden länge. Vi är väldigt bra på datainblandningssidan av saker och jag tror, ​​du vet, vi har inte pratat för mycket om datatillgång idag, men att kunna nå över dessa olika nätverk och få tag på rätt data på rätt tid blir mer och mer intressant och viktigt för slutanvändarna.

Slutligen kommer jag att kommentera ytterligare ett stycke här, eftersom Dez gjorde en bra poäng om själva nätverken, har en viss nivå av kontroll och säkerhet över analytiska modeller i hela din miljö och hur de kopplar sig till data blir mycket viktigt. När jag kom in i den här branschen för några år tillbaka - nästan 20 tror jag vid denna tidpunkt - när vi pratade om avancerad analys, var det på ett mycket kuraterat sätt. Endast ett par personer i organisationen hade sina händer på det, de distribuerade det och de gav människor svaret efter behov eller gav insikt efter behov. Det förändras verkligen och det vi ser är många människor som arbetade med ett eller flera olika och mer flexibla sätt att nå uppgifterna, tillämpa säkerhet och styrning på uppgifterna och sedan kunna samarbeta om det. Det är några av de viktiga saker som Dell Statistica tittar på.

Men jag vill dyka in i ämnet som är lite närmare dagens titel som är, hur ska vi ta itu med uppgifterna som kommer från tingenes internet och vad du kanske vill leta efter när du tittar på olika lösningar. Rutschbanan jag har tagit framför dig just nu är en typ av traditionell utsikt och både Dez och Robin berörde på det här, du vet, den här idén att prata med en sensor, vare sig det är en bil eller en brödrost eller en vindkraftverk, eller vad har du, och sedan flytta den informationen från datakällan över till ditt nätverk tillbaka till en centraliserad typ av konfiguration, som Dez nämnde. Och det nätverkar ganska bra och många företag kommer in i IoT-utrymmet börjar göra det med den modellen.

Den andra saken som följde, om du tittar mot botten av bilden, är denna idé att ta andra traditionella datakällor, förstärka dina IoT-data och sedan på den här typen av kärna, oavsett om din kärna råkar vara ett datacenter eller det kan vara i molnet, det spelar ingen roll, du skulle ta en produkt som Statistica och sedan använda analyser på den vid den punkten och sedan ge dessa insikter till konsumenterna till höger. Och jag tror att det här är tabeller på det här stället. Det här är något du måste kunna göra och du måste ha en tillräckligt öppen arkitektur för en avancerad analysplattform och prata med alla dessa, slags, olika datakällor, alla dessa sensorer och alla dessa olika destinationer där du har informationen. Och jag tror att det här är något som du måste kunna göra och jag tror att du tycker att det är sant att många ledare på marknaden kan göra den här typen av saker. Här på Statistica pratar vi lite om detta som kärnanalys. Gå hämta data, föra tillbaka data till kärnan, bearbeta dem, lägg till mer data om det är nödvändigt eller om det är fördelaktigt, och gör din analys och dela sedan den informationen för handling eller för insikt.

Och så jag tror att de verkligen är ur funktionens synvinkel, vi är förmodligen alla överens om att, du vet, detta är den nödvändiga nödvändigheten och att alla behöver göra detta. Där det börjar bli ganska intressant är där du har enorma mängder data, du vet, kommer från olika datakällor, som IoT-sensorer, som jag nämnde, vare sig det är en bil eller säkerhetskamera eller en tillverkningsprocess, det börjar bli en fördel att kunna analysera där data faktiskt produceras. Och fördelen för de flesta tror jag när vi börjar flytta analytiken från kärnan ut till kanten är denna förmåga att sprida några av de datautmaningar som händer, och Dez och Robin kommer förmodligen att kommentera detta i slutet idag, men jag tror att du måste kunna övervaka och vidta åtgärder för data ute i kanten så att det inte alltid är nödvändigt att flytta all information till ditt nätverk. Robin pratade om detta i sin typ av arkitekturbilder som han ritade, där du har alla dessa olika källor men det finns vanligtvis någon samlingspunkt. Samlingspunkten vi ser ganska ofta är antingen på sensornivå, men ännu oftare på en gateway-nivå. Och dessa gateways finns som en slags mellanhand i dataflödet från datakällorna innan du kommer tillbaka till kärnan.

En av möjligheterna som Dell Statistica utnyttjade är att vår förmåga att exportera en modell från vår centraliserade avancerade analysplattform för att kunna ta en modell och sedan köra den modellen på kanten på en annan plattform, som en gateway eller inuti av en databas, eller vad har du. Och jag tror att flexibiliteten som ger oss är vad som verkligen är den intressanta punkten i dagens konversation, har du det i din infrastruktur idag? Är du kapabel att flytta en analytik till där data bor jämfört med att bara alltid flytta data till där din analytik bor? Och det är något som Statistica har fokuserat på länge, och när du tittar närmare på bilderna ser du att det finns någon annan teknik där från vårt systerföretag, Dell Boomi. Dell Boomi är en dataintegrations- och applikationsintegrationsplattform i molnet och vi använder faktiskt Dell Boomi som en människohandel för att flytta våra modeller från Dell Statistica, via Boomi och till kant enheter. Och vi tror att detta är ett smidigt tillvägagångssätt som företag kommer att kräva, så mycket som de gillar den version som jag visade dig för en minut sedan, vilket är den typ av kärnidé att flytta data från sensorerna hela vägen tillbaka till center, samtidigt som företag kommer att vilja kunna göra det på det sätt som jag är en typ av beskrivning här. Och fördelarna med att göra detta är att några av de punkter som både Robin och Dez gjorde, vilket är, kan du fatta ett beslut och vidta åtgärder i snabbhet på ditt företag? Kan du flytta analys från ett ställe till ett annat och kunna spara dig tid, pengar och energi och komplexitet för att ständigt flytta dessa kantdata tillbaka till kärnan.

Nu är jag den första som säger att en del av kantdata alltid kommer att vara tillräckligt hög förtjänta där det skulle vara vettigt att lagra den informationen och behålla den och föra tillbaka den till ditt nätverk, men vilken kantanalys gör det möjligt för dig att gör förmågan att fatta beslut med den hastighet som uppgifterna faktiskt kommer till, eller hur? Att du kan tillämpa insikten och handlingen med en hastighet där högsta möjliga värde är. Och jag tror att det är någonting som vi alla ska leta efter när det gäller att använda avancerad analys och IoT-data är den här möjligheten att röra sig med snabbhet i verksamheten eller den hastighet som kunden kräver. Jag tror att vår ståndpunkt är att jag tror att du måste kunna göra båda. Och jag tror att ganska snart och mycket snabbt när fler företag tittar på mer olika datauppsättningar, särskilt de från IoT-sidan, kommer de att börja titta på leverantörsutrymmet och kräva vad Statistica kan göra. Vilket är att distribuera en modell i kärnan, som vi traditionellt har gjort i många år, eller att distribuera den på plattformar som kanske är utraditionella, som en IoT-gateway, och faktiskt kunna poängsätta och tillämpa analyser på data i utkanten som uppgifterna produceras. Och jag tror att det är där den spännande delen av den här konversationen kommer in. För att genom att kunna tillämpa en analytisk i kanten när data kommer från en sensor, gör att vi kan agera så snabbt som vi behöver, men tillåter oss också att bestämma, måste dessa uppgifter gå hela vägen tillbaka till kärnan omedelbart? Kan vi satsa det här och sedan skicka tillbaka det i delar och delar och göra ytterligare analys senare? Och det är vad vi ser många av våra ledande kunder göra.

Det sätt som Dell Statistica gör detta är att vi har möjlighet att utnyttja, så säg till exempel att du bygger ett neurala nätverk inuti Statistica och du ville placera det neurala nätverket någon annanstans i ditt datalandskap. Vi har förmågan att mata ut de modellerna och alla språk som du märkte i det högra hörnet där - Java, PPML, C och SQL och så vidare, vi inkluderar också Python och vi kan också exportera våra skript - och när du flyttar den från vår plattform som är centraliserad kan du sedan distribuera den modellen eller den algoritmen var du än behöver. Och som jag nämnde tidigare, vi använder Dell Boomi för att sätta det och parkera det där vi behöver för att köra det och sedan kan vi föra resultaten tillbaka, eller vi kan hjälpa till att föra tillbaka data, eller göra poängdata och vidta åtgärder med hjälp av våra regler motor . Alla dessa saker blir lite viktiga när vi börjar titta på den här typen av data och vi tänker igen.

Detta är något som de flesta av er på telefonen kommer att behöva göra eftersom det blir mycket dyrt och beskattar på ditt nätverk, som Dez nämnde, att flytta data från vänster om dessa diagram till höger om dessa diagram över tid. Det låter inte mycket men vi har sett tillverkande kunder med tiotusen sensorer i sina fabriker. Och om du har tio tusen sensorer på din fabrik, även om du bara gör dessa en andra slags tester eller signaler, pratar du om åttifyra tusen rader med data från var och en av de enskilda sensorerna per dag. Och så uppgifterna definitivt högar upp och Robin typ av nämnde det. I förväg nämnde jag ett par branscher där vi ser att människor får några ganska intressanta saker med vår mjukvara och IoT-data: att bygga automatisering, energi, verktyg är ett riktigt viktigt utrymme. Vi ser mycket arbete på systemoptimering, till och med kundservice och naturligtvis övergripande drift och underhåll, inom energianläggningar och inom byggnad för automatisering. Och det här är några användningsfall som vi ser är ganska kraftfulla.

Vi har gjort kantanalys tidigare, antar jag att termen myntades. Som jag nämnde har vi djupa rötter hos Statistica. Företaget grundades för nästan 30 år sedan så vi har fått kunder att gå tillbaka ganska länge som integrerar IoT-data med deras analyser och har varit ett tag. Och Alliant Energy är ett av våra användningsfall eller referenskunder. Och du kan föreställa dig det problem som ett energiföretag har med en fysisk anläggning. Att skala bortom tegelväggarna i en fysisk anläggning är svårt och energiföretag som Alliant letar efter sätt att optimera sin energiproduktion, i princip förbättra deras tillverkningsprocess och optimera den till högsta nivå. Och de använder Statistica för att hantera ugnarna i sina växter. Och för alla oss som går tillbaka till våra tidiga dagar i vetenskapsklassen vet vi alla att ugnarna skapar värme, värmen får ånga, turbinerna snurrar, vi får el. Problemet för företag som Alliant är faktiskt att optimera hur saker värms upp och brinner i de stora cyklonugnarna. Och optimera produktionen för att undvika extrakostnader för föroreningar, kolförskjutning och så vidare. Och så måste du kunna övervaka insidan av en av dessa cyklonugnar med alla dessa enheter, sensorer, och sedan ta alla dessa sensordata och göra ändringar i energiprocessen fortlöpande. Och det är exakt vad Statistica har gjort för Alliant sedan cirka 2007, innan ens termen IoT var superpopulär.

Till Rebeccas tidpunkt är uppgifterna verkligen inte nya. Förmågan att bearbeta den och använda den på rätt sätt är verkligen där de spännande sakerna händer. Vi har pratat lite om hälso-och sjukvård i förhandsanropet idag och vi ser alla typer av applikationer för människor att göra saker som bättre patientvård, förebyggande underhåll, hantering av försörjningskedjor och operationell effektivitet inom hälsovård. Och det är ganska pågående och det finns många olika användningsfall. En som vi är väldigt stolta över här på Statistica är med våra kunder Shire Biopharmaceuticals. Och Shire tillverkar specialläkemedel för riktigt svåra att behandla sjukdomar. Och när de skapar ett parti av sin medicin för sina kunder är det en extremt dyr process och den extremt dyra processen tar också tid. När du tänker på en tillverkningsprocess när du ser att utmaningarna är att förena hela data, vara tillräckligt flexibla på olika sätt att lägga in data i systemet, validera informationen och sedan kunna förutsäga hur vi hjälper kunden. Och de processer som hämtade mest av informationen från våra tillverkningssystem och naturligtvis enheter och sensorer som driver dessa tillverkningssystem. Och det är ett bra användningsfall för hur företag undviker förlust och optimerar sina tillverkningsprocesser med en kombination av sensordata, IoT-data och vanliga data från sina processer.

Så du vet, ett bra exempel på var tillverkning, och speciellt högteknologisk tillverkning, gynnar hälsovårdsindustrin kring denna typ av arbete och data. Jag tror att jag bara har några andra poäng som jag skulle vilja göra innan jag packar upp det och ger tillbaka till Dez och Robin. Men du vet, jag tror att denna idé om att kunna driva din analytiska var som helst inom din miljö är något som kommer att bli oerhört viktigt för de flesta företag. Att vara bunden till det traditionella formatet för ETL-ing-data från källor tillbaka till centrala platser kommer alltid att ha en plats i din strategi, men det bör inte vara din enda strategi. Du måste ta en mycket mer flexibel inställning till saker idag. För att tillämpa säkerheten som jag nämnde, undvik beskattningen av ditt nätverk, för att kunna hantera och filtrera uppgifterna när det kommer från kanten och bestämma vilka data som är värda att hålla på lång sikt, vilka data som är värda att flytta över till vårt nätverk, eller vilken information som bara behöver analyseras vid den tidpunkt som den skapas, för att vi ska kunna fatta bästa möjliga beslut. Detta överallt och var som helst analytiskt tillvägagångssätt är något som vi tänker mycket vid Statistica och det är något som vi är mycket skickliga på. Och det går tillbaka till en av de bilder jag nämnde tidigare, möjligheten att exportera dina modeller på olika språk, så att de kan matcha och anpassa sig till de plattformar där data skapas. Och sedan naturligtvis att ha en distributionsenhet för de modellerna som också är något vi tar med till bordet och som vi är väldigt glada över. Jag tror att konversationen idag är, om vi verkligen kommer att få allvar med dessa uppgifter som har funnits i våra system länge och vi skulle vilja hitta en konkurrensfördel och en innovativ vinkel för att använda dem, måste du ansöka viss teknik för det som gör att du kan komma ifrån några av de restriktiva modeller som vi har använt tidigare.

Återigen, min poäng är att om du ska göra IoT, tror jag att du måste kunna göra det i kärnan och ta med data och matcha det med andra data och göra din analys. Men också, lika lika viktigt eller kanske ännu viktigare är, måste du ha denna flexibilitet för att sätta den analytiska med data och flytta den analytiska från den centrala sidan av din arkitektur ut till kanten för de fördelar som jag har nämnt innan. Det handlar lite om vem vi är och vad vi gör på marknaden. Och vi är väldigt glada över IoT, vi tror att det definitivt kommer ålder och det finns stora möjligheter för alla här att påverka sina analyser och kritiska processer med denna typ av data.

Rebecca Jozwiak: Shawn, tack så mycket, det var en riktigt fantastisk presentation. Och jag vet att Dez förmodligen dör för att ställa några frågor så Dez, jag släpper dig först.

Dez Blanchfield: Jag har en miljon frågor men jag kommer att innehålla mig själv eftersom jag vet att Robin kommer att ha det också. En av de saker jag ser vida är en fråga som kommer upp och jag är verkligen angelägen om att få lite inblick i din erfarenhet av det här med tanke på att du har rätt i hjärtat av saker. Organisationer kämpar med utmaningen, och ser ut att några av dem har just läst liknande Klaus Schwabs "Fjärde industriella revolutionen" och sedan fått en panikattack. Och de som inte är bekanta med den här boken, det är i huvudsak en insikt av en herrar, av Klaus Schwab, som jag tror är en professor, som är grundaren och verkställande ordföranden för World Economic Forum från minnet, och boken handlar väsentligen om hela denna allestädes närvarande internet av saker explosion och en del av påverkan på världen i allmänhet. Organisationer jag pratar med är osäkra på om de ska gå och ommontera nuvarande miljö eller investera allt i att bygga all ny miljö, infrastruktur och plattformar. I Dell Statistica ser du också att människor eftermonterar nuvarande miljöer och distribuerar din plattform i befintlig infrastruktur, eller ser du dem flytta fokus till att bygga all ny infrastruktur och förbereda sig för denna flod?

Shawn Rogers: Du vet, vi har haft möjlighet att betjäna båda typerna av kunder och att vara på marknaden så länge vi har, du får de möjligheterna att gå ut i stort. Vi har kunder som har skapat helt nya fab-växter under de senaste åren och utrustade dem med sensordata, IoT, analys från kanten, från slut till slut under hela processen. Men jag måste säga att de flesta av våra kunder är människor som har gjort den här typen av arbete ett tag men har tvingats ignorera den informationen. Du vet, Rebecca gjorde poängen precis framför - det här är inte ny information, den här typen av information har varit sorts tillgänglig i många olika format under mycket lång tid, men där problemet hade varit att ansluta till den, flytta den, ta den någonstans där du kan få något smart gjort med det.

Och så skulle jag säga att de flesta av våra kunder tittar på vad de har idag, och Dez, du gjorde det här förut, att detta är en del av den stora datarevolutionen och jag tror att det det verkligen handlar om är att det handlar om allt datarevolution, eller hur? Vi behöver inte ignorera vissa systemdata eller tillverkningsdata eller bygga automatiseringsdata längre, vi har nu rätt leksaker och verktyg för att få det och sedan göra smarta saker med det. Och jag tror att det finns många förare i detta utrymme som gör det hända och några av dem är tekniska. Du vet, de stora datainfrastrukturlösningarna som Hadoop och andra har gjort det lite billigare och lite lättare för några av oss att tänka på att skapa en datasjön av den typen av information. Och vi tittar nu runt företaget för att gå, "Hej, vi har analyser i vår tillverkningsprocess, men skulle de förbättras om vi skulle kunna lägga till lite insikt från dessa processer?" Och det är, tror jag, vad mest av våra kunder gör. Det är inte så mycket att skapa från grunden, men förstärka och optimera analysen som de redan har med data som är nya för dem.

Dez Blanchfield: Ja, det finns några spännande saker som kommer igenom i några av de största industrierna vi har sett, och du nämnde, kraften och verktygen. Luftfarten går bara igenom denna boom där en av mina favoritapparater som jag pratar om regelbundet, Boeing 787 Dreamliner, och säkerligen Airbus-motsvarigheten, A330 har gått ner samma väg. Det fanns som sex tusen sensorer i 787 när den först släpptes, och jag tror att de nu talar om femton tusen sensorer i den nya versionen av den. Och det nyfikna med att prata med några av de människor som finns i den världen var att idén att sätta sensorer i vingarna och så vidare, och det fantastiska med 787 i en designplattform är att, du vet, de uppfann allt i flygplanet. Liksom vingarna, till exempel när flygplanet tar av, vingarna böjs upp till tolv och en halv meter. Men i ytterligheter kan vingarna böjas i spetsen upp till 25 meter. Den här saken ser ut som en fågel som flaxar. Men vad de inte hade tid att fixa var konstruktionen av analysen av all denna data, så de har sensorer som får lysdioder att blinka grönt och rött om något dåligt händer, men de slutar faktiskt inte med djup insikt i realtid. Och de löste inte heller problemet med hur man flyttar datamängden, eftersom det i det inhemska luftrummet i USA dagligen finns 87 400 flygningar. När varje flygplan klarar av sina uppköp av en 787 Dreamliner är det 43 petabyte per dag med data, eftersom dessa flygplan för närvarande skapar ungefär en halv terabyte med data vardera. Och när du multiplicerar de 87 400 flygningarna per dag inhemskt i USA med punkt fem eller en halv terabyte, hamnar du med 43, 5 petabyte data. Vi kan fysiskt inte flytta det runt. Så genom design måste vi driva analysen ut i enheten.

Men en av de saker som är intressant när jag tittar på hela denna arkitektur - och jag är intresserad av att se vad du tycker om detta - är att vi har rört oss mot masterdatahantering, typ av, första principer för datahantering, dra allt till ett centralt läge. Vi har datasjöar, och sedan skapar vi små datadammar om du vill, extrakt av det som vi gör analys på, men genom att distribuera till kanten, en av de saker som fortsätter att dyka upp, särskilt från databasfolk och datahanterare eller personer i branschen för att hantera information, är det vad som händer när jag har massor av distribuerade små miniatyrdata sjöar? Vilken typ av saker har använts för detta tänkande med avseende på kantanalys i din lösning, eftersom det traditionellt skulle allt komma centralt med datasjön, nu hamnar vi med dessa små pölar med data överallt, och även om vi kan utföra analyser av dem lokalt för att få lite lokal insikt, vilka är några av de utmaningar du har ställt inför och hur du har löst det, med den distribuerade datamängden, och särskilt när du får mikrokosmos av dataljöar och distribuerade områden?

Shawn Rogers: Jag tror att det är en av utmaningarna, eller hur? När vi går ifrån, vet du, att alla data går tillbaka till centrumplatsen eller det kärnanalytiska exemplet som jag gav och då gör vi den distribuerade versionen att du slutar med alla dessa lilla silor, eller hur? Precis som du skildrade, eller hur? De gör lite arbete, vissa analyser körs, men hur sätter du tillbaka dem? Och jag tror att nyckeln kommer att vara orkestrering över allt detta och jag tror att ni kommer att hålla med mig, men jag är glad om ni inte gör det, att jag tror att vi har sett denna utveckling för ganska någon gång.

Återgår till våra vänner Mr. Inmon och Kimballs dagar som hjälpte alla med arkitekturen för sina tidiga datalagerinvesteringar, varvid vi har gått bort från den centraliserade modellen under lång tid. Vi har antagit den här nya idén att låta uppgifterna visa hur allvarlig de är för var de bäst borde ligga inuti ditt ekosystem och anpassa uppgifterna till bästa möjliga plattform för bästa möjliga resultat. Och vi har börjat spendera lite, tror jag, en mer orkestrerad inställning till vårt ekosystem som ett övergripande slags sätt att göra saker, liksom där vi försöker anpassa alla dessa bitar på en gång. Vilken typ av analys eller arbete ska jag göra med uppgifterna, vilken typ av data är det, som hjälper dig att diktera var de ska bo. Var produceras den och vilken typ av tyngd har uppgifterna?

Du vet, vi ser en hel del av dessa big data-exempel där människor pratar om att ha 10- och 15-petabyte datasjöar. Tja, om du har en datasjön som är så stor, är det väldigt opraktiskt för dig att flytta den och så måste du kunna föra analyser till den. Men när du gör det, till kärnan i din fråga, tror jag att det ger många nya utmaningar för alla att orkestrera miljön och tillämpa styrning och säkerhet och förstå vad som måste göras med dessa data för att sammanställa och få ut det högsta värdet. Och för att vara ärlig mot dig - jag skulle gärna vilja höra din åsikt här - jag tror att vi är tidiga dagar där och jag tror att det finns mycket bra arbete som ännu har gjorts. Jag tror att program som Statistica fokuserar på att ge fler människor tillgång till data. Vi är definitivt fokuserade på dessa nya personligheter som medborgardataforskare som vill driva prediktiv analys till platser inom organisationen som det kanske inte varit tidigare. Och jag tror att det är några av de tidiga dagarna runt detta, men jag tror att mognadbågen kommer att behöva visa en hög nivå eller orkestrering och anpassning mellan dessa plattformar, och en förståelse för vad som finns på dem och varför. Och det är ett gammalt problem för oss alla datafolk.

Dez Blanchfield: Det är verkligen det och jag håller helt med dig om det och jag tror att det fantastiska vi hör här i dag är åtminstone framdelen av problemet med att faktiskt fånga upp data på, antar jag, gateway level vid kanten av nätverket och förmågan att göra analys vid den punkten löses väsentligen nu. Och det frigör oss nu för att faktiskt börja tänka på nästa utmaning, som är distribuerade dataljöar. Tack så mycket för det, det var en fantastisk presentation. Jag uppskattar verkligen chansen att chatta med dig om det.

Jag ska gå vidare till Robin nu för jag vet att han har det, och då har Rebecca också en lång lista med fantastiska frågor från publiken efter Robin. Robin?

Dr. Robin Bloor: Okej. Shawn, jag vill att du säger lite mer och jag försöker inte ge dig chansen att marknadsföra det, men det är faktiskt mycket viktigt. Jag är intresserad av att veta vid vilken tidpunkt Statistica faktiskt genererade modellens exportkapacitet. Men jag skulle också vilja att du säger något om Boomi för allt du sade hittills om Boomi är att det är ETL och det är verkligen ETL. Men det är faktiskt ganska kapabelt ETL och för den typ av tidpunkter vi pratar om, och några av de situationer vi diskuterar här, det är en mycket viktig sak. Kan du tala med de två sakerna för mig?

Shawn Rogers: Visst, ja, det kan jag absolut. Du vet, vår rörelse i denna riktning var verkligen iterativ och det var en typ av steg för steg. Vi är bara redo den kommande veckan för att lansera version 13.2 av Statistica. Och det har de senaste uppdateringarna av alla funktioner som vi pratar om idag. Men när vi gick tillbaka till version 13, för ett år sedan oktober, tillkännagav vi vår förmåga att exportera modeller från vår plattform, och vi kallade det NDAA vid den tiden. Förkortningen stod för Native Distribution Analytics Architecture. Vad vi gjorde är att vi lägger mycket tid, energi och fokus på att öppna vår plattform med möjlighet att använda den som ett centralt kommandocenter för din avancerade analys, men också att distribuera därifrån. Och de första platserna, Robin, som vi implementerade gjorde vi ett riktigt, riktigt bra tillägg till plattformen kring maskininlärning. Och så vi hade förmågan att distribuera från Statistica till Microsofts Azure Cloud för att använda kraften från Azure för att driva maskininlärning, som du vet, är mycket intensiv och det är ett utmärkt sätt att använda molnteknologier. Och så det var den första biten.

Nu exporterade vi våra modeller till Azure och använde Azure för att köra dem och skickade sedan data eller resultaten tillbaka till Statistica-plattformen. Och sedan flyttade vi till andra språk som vi ville kunna exportera från, och naturligtvis ett av dem är Java öppnar upp för oss att nu börja exportera våra modeller utåt till andra platser som Hadoop, så då gav det oss en lek där också.

Och slutligen fokuserade vi på att kunna producera våra modeller med den utgåvan till databaser. Och så det var den första iterationen och att vara ärlig med dig, slutspelet var IoT men vi var inte riktigt där ännu med version 13 förra oktober. Sedan dess har vi kommit dit och det har att göra med förmågan att göra alla saker jag just nämnde, men sedan ha en slags transportenhet. Och gå tillbaka till Dezs fråga om, du vet, vad är utmaningen och hur gör vi det när vi har alla dessa analyser att springa runt? Vi använder Boomi som ett slags distributionsnav och därför att det är i molnet och eftersom det är så kraftfullt, som jag nämnde tidigare, det är en datainformationplattform, men det är också en applikationsintegrationsplattform, och den använder JVM för att tillåta oss att parkera och arbeta var du än kan landa en virtuell Java-maskin. Det är vad som verkligen svängde dörren för alla dessa gateways och edge computing-plattformar och kantservrar, eftersom alla har datorn och plattformen som är tillgänglig för att driva en JVM i. Och eftersom vi kan köra JVM var som helst, har Boomi vänt ut för att vara en underbar distribution och, med mitt ord från tidigare, en orkestreringsenhet.

Och detta blir väldigt viktigt för vi har alla, ni vet, jag tror att flygplansscenariot för en minut sedan var ett fantastiskt, och jag nämnde, ni vet, tillverkare som Shire som har tiotusen sensorer i en av sina fabriker, du måste börja ta itu med typen av central inställning till avancerad analys vid någon tidpunkt. Att vara ad hoc om det fungerar egentligen inte längre. Det brukade när volymen av modeller och algoritmer som vi körde var minimal, men nu är det på det maximala. Det finns tusentals av dem i en organisation. Så vi har, en del av vår plattform är serverbaserad och när du har vår företags mjukvara har du också möjligheten att finjustera och göra poäng och hantera dina modeller i miljön. Och det är också en del av den orkestreringssaken. Vi behövde ha ett lager, Robin, på plats som inte bara tillät dig att få en modell där i första hand, utan också gav dig en ledning för att finjustera modellerna och byta ut dem fortlöpande så ofta du behövde, för detta är inte något du kan göra manuellt. Du kan inte gå runt ett raffinaderi med en tumdrift som försöker ladda upp modeller till gateways. Du måste ha ett transport- och hanteringssystem däremellan, och så kombinationen av Statistica och Boomi ger det till våra kunder.

Dr. Robin Bloor: Ja. Tja, jag kommer att vara mycket kort men du vet, detta uttalande som har gjorts tidigare om datasjön och idén om att samla petabyt på någon given plats, och det faktum att den har allvar. När du började prata om orkestrering började det bara att få mig att tänka på det väldigt enkla faktum att du sätter en datasjö som är väldigt stor på en plats förmodligen betyder att du faktiskt måste säkerhetskopiera den och det förmodligen betyder att du måste flytta mycket av data ändå. Du vet, den verkliga dataarkitekturen är enligt min mening ändå mycket mer i den riktning du pratar om. Vilket är att distribuera det till förnuftiga platser, är förmodligen det jag skulle säga. Och det ser ut som att du har en mycket god förmåga att göra detta. Jag menar att jag är väl informerad om Boomi så det är på ett eller annat sätt nästan orättvist att jag kan se det och kanske publiken inte kan. Men Boomi är enligt min mening så väsentligt när det gäller vad du gör eftersom den har applikationsfunktioner. Och också för att sanningen i saken är att du inte gör dessa analytiska beräkningar utan att vilja handla något någonstans av någon eller annan anledning. Och Boomi spelar en roll i det, eller hur?

Shawn Rogers: Ja, absolut. Och så som du vet från tidigare konversationer har Statistica en fullständig affärsreglermotor i sig. Och jag tror att det är väldigt viktigt när vi tar reda på varför vi gör detta. Vet du, jag skämtade framför att det verkligen inte finns någon anledning att göra IoT alls om du inte kommer att analysera, använda uppgifterna för att fatta bättre beslut eller vidta åtgärder. Och det vi fokuserade på var inte bara att kunna lägga ut modellen utan att kunna tagga med den, en regeluppsättning. Och eftersom Boomi är så robust i sina förmågor att flytta saker från en plats till en annan, inom en Boomi-atom kan vi också bädda in förmågan att utlösa, varna och vidta åtgärder.

Och det är där vi börjar få den typen av sofistikerad bild av IoT-data där vi säger: "Okej, det är värt att lyssna på den här informationen." Men du vet verkligen att "att ljuset är på, ljuset är på, ljuset är på, ljuset är på ”är inte lika intressant när ljuset slocknar eller när rökdetektorn slocknar eller när det som händer med vår tillverkningsprocess går ur specifikationer. När detta inträffar vill vi kunna vidta omedelbara åtgärder. Och uppgifterna blir nästan sekundära här på denna punkt. Eftersom det inte är så viktigt att vi räddade alla dessa, "det är okej, det är okej, det är okej" signaler, det viktiga är att vi märker "Hej, det är dåligt" och vi vidtog omedelbart åtgärder. Oavsett om det skickar ett e-postmeddelande till någon eller om vi kan få domänkompetens involverade, eller om vi sätter igång en serie andra processer för att vidta omedelbara åtgärder, vare sig det är korrigerande eller som svar på informationen. Och jag tror att det är därför du måste ha den här orkestrerade bilden av den. Du kan inte bara fokusera på att hantera dina algoritmer överallt. Du måste kunna samordna och orkestrera dem. Du måste kunna se hur de presterar. Och egentligen, viktigast av allt, menar jag, varför skulle du göra detta om du inte kan lägga till möjligheten att vidta några omedelbara åtgärder mot uppgifterna?

Dr. Robin Bloor: Okej, Rebecca, jag tror att du har frågor från publiken?

Rebecca Jozwiak: Jag gör det. Jag har massor av publikfrågor. Shawn, jag vet att du inte ville hänga med för länge förbi timmens topp. Vad tror du?

Shawn Rogers: Jag är glad. Varsågod. Jag kan svara på några.

Rebecca Jozwiak: Låt oss se. Jag vet att en av de saker du nämnde var att IoT är i tidiga dagar och det har en mognadsgrad som kommer att behöva äga rum och det berättar typ för denna fråga en deltagare frågade. Om IPv6-ramverket kommer att bli tillräckligt robust för att tillgodose tillväxten av IoT under de kommande fem eller tio åren?

Shawn Rogers: Åh, jag kommer att låta Dez åka av mitt svar eftersom jag tror att han är närmare denna typ av information som jag är. Men jag har alltid tänkt att vi är på en mycket snabb väg att böja och bryta de flesta ramar som vi har på plats. Och även om jag tycker att tillägget av den nya typen av specifikationer eller riktningen som vi går med IPv6-ramverk är viktigt, och det öppnar upp för oss att ha mycket fler enheter och för att kunna ge allt som vi vill ange en adress. Jag tror att allt jag läser och ser med mina kunder, och antalet adresser som krävs, jag tror att någon gång kommer att orsaka ytterligare förändringar i det landskapet. Men jag är egentligen inte nätverksekspert så jag kan inte säga hundra procent att vi kommer att bryta det någon gång. Men min erfarenhet säger att vi kommer att störa den modellen vid någon tidpunkt.

Rebecca Jozwiak: Jag skulle inte bli förvånad. Jag tror att ramverk är typ av att bryta under alla slags saker. Och det är bara logiskt, eller hur? Jag menar, du kan inte skicka ett e-postmeddelande med en skrivmaskin. En annan deltagare frågar: "Kan du använda ett Hadoop-ramverk?" Men jag antar att jag kan ändra det för att säga, hur skulle du använda ett Hadoop-ramverk för distribuerad analys?

Shawn Rogers: Tja, Robin gjorde mig fördelen att ställa mig en historisk fråga, och sedan version 13 för ett år sedan för Statistica har vi haft förmågan att driva modeller ur vårt system och till Hadoop. Och vi arbetar mycket nära med alla stora smaker från Hadoop. Vi har riktigt bra framgångshistorier kring förmågan att arbeta med Cloudera som en av de viktigaste Hadoop-distributionerna som vi arbetar med. Men eftersom vi kan mata ut i Java ger det oss denna förmåga att vara öppen och placera vår analys var som helst. Att placera dem i ett Hadoop-kluster är något vi gör på en normal och regelbunden och vardaglig basis för många av våra kunder. Det korta svaret är ja, absolut.

Rebecca Jozwiak: Utmärkt. Och jag ska bara kasta ut en till dig och låta dig gå vidare med din semester. En annan deltagare frågar, med IoT analytics plus maskininlärning, tror du att all data måste lagras för historiska ändamål och hur kommer det att påverka lösningsarkitekturen?

Shawn Rogers: Tja, jag tror inte att all information måste lagras. Men jag tycker att det är väldigt intressant att ha möjlighet att underhålla, lyssna på vilken datakälla vi vill ha inom vår organisation, var den än kommer från. Och jag tror att de förändringar som vi har sett på marknaden under de senaste åren har gjort det möjligt för oss att ta den alldata-metoden till saker och det verkar vara riktigt lönsamt. Men det kommer att bli annorlunda för varje företag och varje användningsfall. Du vet, när vi tittar på hälsodata, nu finns det en hel del lagstiftningsproblem, en hel del problem med efterlevnad att oroa oss för, och det gör att vi sparar data som andra företag kanske inte förstår varför det måste sparas, eller ? I tillverkningsprocesserna finns det för många av våra tillverkningskunder en verklig uppsida att kunna historiskt undersöka dina processer och kunna titta tillbaka på stora mängder av denna information för att lära av dem och bygga bättre modeller utifrån den.

Jag tror att mycket av uppgifterna måste behållas och jag tror att vi har lösningar som gör det mer ekonomiskt och skalbart i dag. Men samtidigt tror jag att alla företag kommer att hitta värde i data som de inte behöver hålla på en atomnivå, men de kommer att vilja analysera på ett realtidsslag och fatta beslut om det för att driva innovation inom deras företag.

Rebecca Jozwiak: Okej bra. Nej, publik, jag fick inte allas frågor idag, men jag kommer att vidarebefordra dem till Shawn så att han kan nå dig direkt och svara på dessa frågor. Men tack alla för att du deltog. Tack så mycket till Shawn Rogers från Dell Statistica och från alla våra analytiker, Dez Blanchfield och Dr. Robin Bloor. Du kan hitta arkivet här på insideanalysis.com, SlideShare, vi har börjat lägga upp våra saker där igen, och vi förnyar vår YouTube så leta efter det där också. Tack så mycket folkens. Och med det ska jag säga dig farväl så ses vi nästa gång.

Edge analytics: iotekonomin äntligen