Q:
Comment les environnements d'entrepôt de données existants peuvent-ils évoluer au mieux pour répondre aux besoins de l'analyse des mégadonnées?
UNE:Les projets individuels d'entrepôt de données doivent être évalués au cas par cas. En général, en essayant d'étirer la conception d'un entrepôt de données existant pour mieux gérer l'analyse des mégadonnées, il existe un processus de base pour déterminer ce qui doit être fait. Les professionnels de l'informatique peuvent appeler cela «évolutif» ou «évolutif».
Webinaire: Big Iron, Meet Big Data: Libération des données mainframe avec Hadoop & Spark Inscrivez-vous ici |
La mise à l'échelle implique généralement de chercher à obtenir une puissance de traitement suffisante, une quantité de mémoire suffisante et à gérer des activités de serveur plus puissantes pour gérer tous les ensembles de données plus volumineux que l'entreprise traitera. En revanche, la mise à l'échelle peut signifier la collecte de grappes de matériel serveur et leur mise en réseau pour corréler les mégadonnées.
Certains experts informatiques ont suggéré que la méthode la plus courante avec Apache Hadoop et d'autres plates-formes et outils de Big Data populaires consiste à mettre à l'échelle et à regrouper le matériel pour obtenir les effets souhaités. Cependant, d'autres soulignent qu'avec la technologie d'aujourd'hui, un entrepôt de données peut évoluer en utilisant une stratégie d'approvisionnement qui ajoute des ressources à un serveur, par exemple en obtenant un plus grand nombre de cœurs de traitement avec une plus grande quantité de RAM.
Qu'ils évoluent ou évoluent, les entrepôts de données ont besoin de ressources matérielles physiques supplémentaires pour pouvoir gérer les charges de travail de données plus importantes. Ils ont également besoin d'une administration humaine supplémentaire, ce qui signifie plus de formation pour les équipes internes. Il faut beaucoup de planification dans le projet pour déterminer le type de stress et de pression que les charges de travail de données plus importantes auront sur un système existant afin de le préparer à un nouvel écosystème de Big Data. Un gros problème est les goulots d'étranglement du stockage, qui nécessitent des mises à niveau des centres de stockage, et d'autres types de goulots d'étranglement des performances qui peuvent entraver un système naissant s'ils ne sont pas résolus.