Hem Trends Hur kan befintliga datalagermiljöer bäst skala för att möta behoven hos big data-analys?

Hur kan befintliga datalagermiljöer bäst skala för att möta behoven hos big data-analys?

Anonim

F:

Hur kan befintliga datalagermiljöer bäst skala för att möta behoven hos big data-analys?

A:

Enskilda datalagerprojekt måste bedömas från fall till fall. I allmänhet, när man försöker sträcka en befintlig datalagerdesign för att bättre hantera big data-analys, finns det en kärnprocess för att ta reda på vad som behöver göras. IT-proffs kan kalla detta "skala upp" eller "skala ut."

Webinar: Big Iron, Meet Big Data: Liberating Mainframe Data with Hadoop & Spark

Registrera här

Uppskalning innebär i allmänhet att man tittar på att få tillräcklig processorkraft, få tillräckligt med minne och anpassa till kraftfullare serveraktiviteter för att hantera alla större datamängder som verksamheten kommer att bearbeta. Däremot kan utskalning innebära att samla kluster av serverhårdvara och nätverka dem tillsammans för att korrigera big data.

Vissa IT-experter har föreslagit att den vanligaste metoden med Apache Hadoop och andra populära big data-verktyg och plattformar är att utskala och klustera hårdvara för att uppnå önskade effekter. Andra påpekar dock att med dagens teknik kan ett datalager skala upp med en upphandlingsstrategi som lägger till resurser till en server, till exempel genom att få ett högre antal bearbetningskärnor tillsammans med en större mängd RAM.

Oavsett om de skalar upp eller skalar ut, behöver datalager ytterligare fysiska hårdvarutillgångar för att kunna hantera de större dataarbetsbelastningarna. De behöver också ytterligare mänsklig administration, vilket innebär mer utbildning för interna team. En hel del planering måste gå in i projektet för att avgöra vilken typ av stress och tryck de större dataarbetsbelastningarna kommer att ha på ett befintligt äldre system för att passa det för ett nytt big data-ekosystem. En stor fråga är lagringsflaskhalsar, som kräver uppgraderingar till lagringscentra och andra typer av flaskhalsar med prestanda som kan hobba ett framväxande system om inte de inte tas upp.

Hur kan befintliga datalagermiljöer bäst skala för att möta behoven hos big data-analys?