Hem databaser Vad är det Hadoop distribuerade filsystemet (hdfs)? - definition från techopedia

Vad är det Hadoop distribuerade filsystemet (hdfs)? - definition från techopedia

Innehållsförteckning:

Anonim

Definition - Vad betyder Hadoop Distribuerat filsystem (HDFS)?

Hadoop Distribuerat filsystem (HDFS) är ett distribuerat filsystem som körs på standard- eller avancerad hårdvara. HDFS är utvecklat av Apache Hadoop och fungerar som ett standarddistribuerat filsystem men ger bättre datauppsättning och åtkomst via MapReduce-algoritmen, hög feltolerans och inbyggt stöd för stora datamängder.

Techopedia förklarar Hadoop Distribution File System (HDFS)

HDFS lagrar en stor mängd data som placeras över flera maskiner, vanligtvis i hundratals och tusentals samtidigt anslutna noder, och ger datapålitlighet genom att replikera varje datainstans som tre olika kopior - två i en grupp och en i en annan. Dessa kopior kan ersättas i händelse av fel.

HDFS-arkitekturen består av kluster, som alla kan nås via ett enda NameNode-mjukvaruverktyg installerat på en separat maskin för att övervaka och hantera klusterets filsystem och användaråtkomstmekanism. De andra maskinerna installerar en instans av DataNode för att hantera klusterlagring.

Eftersom HDFS är skriven i Java, har det ursprungligt stöd för Java-applikationsprogrammeringsgränssnitt (API) för applikationsintegration och tillgänglighet. Det kan också nås via vanliga webbläsare.

Vad är det Hadoop distribuerade filsystemet (hdfs)? - definition från techopedia