F: Är Hadoop för alla?
S: Apache öppen källkod Hadoop-datahanteringsresurs och relaterade verktyg blir inflytelserika i big data-världen. Men i loppet för att anta nyare, modernare IT-lösningar frågar företag om Hadoop är ett universellt verktyg som i stort sett bör tillämpas på big data och analysprocesser.
I verkligheten finns det flera överväganden för huruvida ett system kommer att dra mycket nytta av Hadoop-implementeringen. Det ena är om big data är relevant för branschen. Med andra ord, huruvida verksamheten kommer att drivas med förvärv och analys av extremt stora datamängder, datamängder större än vad som kan analyseras med hjälp av en traditionell relationell databas.
Dessutom kan företag välja mellan Hadoop och andra egenverktyg som kan kräva mindre intern teknisk skicklighet. Vissa andra tekniska företag bygger liknande big data-verktyg som kan ha mer intuitiva gränssnitt eller genvägar så att mindre erfarna användare kan göra mer med big data.
Samtidigt finns det enighet om att de flesta big data-projekt kan dra nytta av Hadoop med tillräcklig administration. Verktyg som Apache Hive warehouse design och Apache Pig-programmeringssyntax för big data utvidgar vad Hadoop kan göra. Andra framsteg, som Hadapt och MapR, gör syntaxen och användningen av Hadoop mer transparent för en bredare mängd användare, eller med andra ord börjar man avlägsna problemet med "teknik".
I allmänhet måste företaget titta på hur mycket big data den använder och var dessa data kommer från. Ledare och ledare måste överväga vem som kommer att arbeta med de involverade IT-projekten, och deras färdigheter och bakgrund. De måste förstå skillnaden mellan implementeringen av olika big data-verktyg. Detta hjälper ledarskapsteam att förstå om Hadoop är rätt för deras projekt.
