Hem På nyheterna Dagens stora datautmaning härrör från variation, inte volym eller hastighet

Dagens stora datautmaning härrör från variation, inte volym eller hastighet

Innehållsförteckning:

Anonim

Utmaningen att hantera och utnyttja big data kommer från tre delar, enligt Doug Laney, forskningsdirektör på Gartner. Laney noterade först för mer än ett decennium sedan att big data utgör ett sådant problem för företaget eftersom det introducerar svårhanterlig volym, hastighet och variation. Problemet är att för många IT-avdelningar kastar allt de har på frågan om datavolym och hastighet, och glömmer att ta itu med den grundläggande frågan om olika dator.

Redan 2001 skrev Laney att "ledande företag i allt högre grad kommer att använda ett centraliserat datalager för att definiera ett gemensamt affärsordförråd som förbättrar det interna och externa samarbetet." Frågan om detta ordförråd - och variationen som hindrar företag från att skapa det - är fortfarande den minst behandlade aspekten av big data conundrum idag. (Kolla in vad andra experter har att säga. Kolla in Big Data-experter att följa på Twitter.)

Tre Vs big data

Många företag har hittat metoder för att utnyttja ökad datamängd och hastighet. Facebook kan till exempel analysera enorma datamängder. Naturligtvis presenteras dessa data ofta om och om igen inom samma parametrar. Detta ledde till tekniska innovationer som kolumndatabaser, som nu används i stor utsträckning av andra företag som står inför lika stora butiker av liknande dataobjekt.

Dagens stora datautmaning härrör från variation, inte volym eller hastighet