Innehållsförteckning:
Definition - Vad betyder Hadoop Common?
Hadoop Common hänvisar till samlingen av gemensamma verktyg och bibliotek som stöder andra Hadoop-moduler. Det är en väsentlig del eller modul i Apache Hadoop Framework, tillsammans med Hadoop Distribuerat filsystem (HDFS), Hadoop YARN och Hadoop MapReduce. Som alla andra moduler antar Hadoop Common att maskinvarufel är vanliga och att dessa automatiskt ska hanteras i programvara av Hadoop Framework.
Hadoop Common kallas också Hadoop Core.
Techopedia förklarar Hadoop Common
Hadoop Common-paketet betraktas som basen / kärnan i ramverket eftersom det tillhandahåller viktiga tjänster och grundläggande processer som abstraktion av det underliggande operativsystemet och dess filsystem. Hadoop Common innehåller också nödvändiga Java Archive (JAR) filer och skript som krävs för att starta Hadoop. Paketet Hadoop Common tillhandahåller också källkod och dokumentation, samt ett bidragssnitt som innehåller olika projekt från Hadoop Community.