Accueil Les tendances 6 grands mythes sur la gestion des mégadonnées

6 grands mythes sur la gestion des mégadonnées

Table des matières:

Anonim

En mai 2014, Forrester Research a publié deux rapports tirant certaines conclusions sur le battage médiatique entourant les mégadonnées. La firme de recherche a interrogé plus de 250 cadres en marketing et en développement des affaires. Selon les auteurs du rapport, la rhétorique des mégadonnées est à un niveau record et les fournisseurs de technologies vantent des produits avec ce qui semble être des affirmations incroyables.


Gartner est d'accord avec Forrester Research; un battage médiatique important entoure les mégadonnées. Dans le rapport de septembre 2014, Gartner démystifie cinq des plus grands mythes sur les données, et les analystes de Gartner donnent leur avis sur ce qui est mal compris au sujet des mégadonnées et de leur manipulation. Quels sont donc les plus grands mythes du Big Data? Regardons.

Mythe: tout le monde est en avance sur nous dans l'adoption du Big Data.

Gartner affirme que l'intérêt pour les mégadonnées est à un niveau record. Malgré cela, 13 pour cent des personnes interrogées ont des systèmes qui fonctionnent. La raison: la plupart des entreprises n'ont pas encore trouvé de moyen d'exploiter la valeur des grands référentiels de données. Ici, l'enquête de Gartner est plus optimiste que le rapport Forrester, qui a révélé que seulement 9% des participants à l'enquête ont déclaré qu'ils prévoyaient de mettre en œuvre des technologies de big data au cours de la prochaine année. (Le Big Data a beaucoup à offrir. En savoir plus sur 5 problèmes réels que le Big Data peut résoudre.)

Mythe: Nous avons tellement de données; nous n'avons pas à nous soucier de chaque petite faille de données.

Gartner s'inquiète d'une feuille que nous, les humains, avons: "Nous en avons tellement, le peu qui est mauvais n'aura pas d'importance." Ted Friedman, vice-président et éminent analyste chez Gartner estime que ce n'est pas la bonne façon de voir la situation.


"En réalité, bien que chaque faille individuelle ait un impact beaucoup plus faible sur l'ensemble de données qu'auparavant quand il y avait moins de données, il y a plus de failles qu'auparavant car il y a plus de données", a déclaré Friedman. "Par conséquent, l'impact global des données de mauvaise qualité sur l'ensemble des données reste le même."


Friedman ajoute un autre motif de préoccupation. La capture de mégadonnées comprend souvent des données extérieures à l'entreprise, dont la structure et l'origine sont donc inconnues. Cela augmente le potentiel d'erreurs.

Mythe: La technologie Big Data éliminera le besoin d'intégration de données.

Il existe deux stratégies clés d'analyse des données qui peuvent être appliquées aux mégadonnées: «schéma en écriture» ou «schéma en lecture». Jusqu'à récemment, le schéma en écriture était la seule méthode utilisée. Le schéma en lecture est l'engouement actuel dans la gestion des bases de données. Contrairement au schéma en écriture, qui nécessite un format structuré, les données sont chargées dans des bases de données de schéma en lecture dans leur format brut. Ensuite, les développeurs - utilisant des plateformes de base de données non structurées comme Hadoop - plient les données disparates dans un format utilisable. Le schéma en lecture présente des avantages évidents mais, comme le mentionne Gartner, l'intégration des données doit se produire à un moment donné.

Mythe: L'utilisation d'un entrepôt de données pour des analyses avancées est inutile.

Passer du temps à créer un entrepôt de données semble inutile pour de nombreux gestionnaires d'informations, en particulier lorsque les données nouvellement capturées sont différentes de celles de l'entrepôt de données. Cependant, Gartner avertit à nouveau que même les analyses de données avancées utiliseront des entrepôts de données et de nouvelles données, ce qui signifie que les intégrateurs de données doivent:

  • Affiner de nouveaux types de données pour les rendre adaptés à l'analyse
  • Décidez quelles données sont pertinentes et le niveau de qualité des données nécessaire
  • Déterminez comment agréger les données
  • Comprendre que le raffinement des données peut se produire ailleurs que dans l'entrepôt de données

Mythe: les lacs de données remplaceront l'entrepôt de données.

Les lacs de données sont des référentiels de données disparates, contrairement aux entrepôts de données où les données sont dans un format structuré. La création d'un lac de données nécessite peu d'efforts initiaux (pas besoin de formater les données) par rapport aux entrepôts de données, c'est pourquoi les lacs de données sont intéressants.


Gartner souligne que la possession des données n'est pas le point - être capable de manipuler les données capturées pour une prise de décision éclairée est le point. De plus, l'utilisation de lacs de données (quelque peu non prouvés) pour faciliter la prise de décision est problématique.


"Les entrepôts de données ont déjà les capacités de prendre en charge une grande variété d'utilisateurs dans une organisation", a déclaré Nick Heudecker, directeur de recherche chez Gartner. «Les chefs de file de la gestion de l'information n'ont pas à attendre que les lacs de données rattrapent leur retard.» (En savoir plus sur l'adoption du Big Data dans 7 choses que vous devez savoir sur le Big Data avant l'adoption.)

Big Data Works - De nouvelles méthodes de manipulation de données peuvent ne pas

La raison pour laquelle Gartner a déclaré que "les plus grands mythes de données" au lieu de "mythes de big data" devient claire après avoir lu le rapport. Gartner ne se méfie pas des mégadonnées. Gartner se méfie de ceux qui pensent que les nouvelles méthodes de manipulation des mégadonnées sont prêtes pour les «heures de grande écoute».

6 grands mythes sur la gestion des mégadonnées