Innehållsförteckning:
Big data, det iögonfallande namnet på massiva volymer strukturerade, ostrukturerade eller semistrukturerade data, är notoriskt svårt att fånga, lagra, hantera, dela, analysera och visualisera, åtminstone med traditionella databas- och programapplikationer. Det är därför stordatateknologier har potential att hantera och bearbeta enorma datamängder effektivt och effektivt. Och det är Apache Hadoop som tillhandahåller ramverket och tillhörande teknologier för att bearbeta stora datamängder över kluster av datorer på ett distribuerat sätt. Så för att verkligen förstå big data måste du förstå lite om Hadoop. Här tittar vi på de översta termerna du hör i fråga om Hadoop - och vad de menar.
Webinar: Big Iron, Meet Big Data: Liberating Mainframe Data with Hadoop & Spark Registrera här |
Men först en titt på hur Hadoop fungerar
Innan du går in i Hadoop-ekosystemet måste du förstå två grundläggande saker tydligt. Den första är hur en fil lagras i Hadoop; den andra är hur lagrade data behandlas. All Hadoop-relaterad teknik arbetar främst på dessa två områden och gör den mer användarvänlig. (Få grunderna i hur Hadoop fungerar i hur Hadoop hjälper till att lösa Big Data-problemet.)
Nu vidare till villkoren.