Big Data : La mauvaise qualité des données est un problème coûteux

La mauvaise qualité des données est un problème coûteux : 3 conseils pour progresser

Selon une étude du laboratoire de recherche d’AT&T, la pauvre qualité des données coûte aux entreprises américaines 600 milliards de dollars par an. Cela n’englobe pas seulement le préjudice lié à des erreurs graves découlant d’une mauvaise qualité des données, mais aussi la quantité de temps et les laborieux efforts humains nécessaires pour corriger ces données.

Dans un monde du Big Data, les problèmes liés à la qualité des données ne font que croître de façon exponentielle. Les données générées sur le Web sont connues pour ces problèmes de manque de fiabilité et de qualité. Ajoutez à cela les données générées par les machines qui caractérisent l’internet des objets (IoT); les données ainsi générées peuvent contenir autant de charabia inutile que d’informations d’état inestimables.

Ce problème de qualité a été souligné par un consultant en données, Thomas C. Redmon, en 2013 dans un article paru dans la Harvard Business Review. Redmon utilisait l’exemple d’un responsable produit préparant un rapport clé pour son équipe de dirigeants, et constatant ensuite que les chiffres de part de marché du rapport n’avaient pas de sens. Le chef produit demandait à un assistant de vérifier les données. Ce dernier identifiait alors une erreur dans les données transmises par le département études. La bonne nouvelle, c’est que l’erreur était détectée à temps. La moins bonne nouvelle était que les salariés gaspillaient 50% de leur temps à chercher des données, à identifier et corriger les erreurs, et à rechercher des sources de confirmation pour les données dont ils doutaient. Suite …

(Source : article de Mary Shacklett publié le 22 décembre 2015 dans ZDNet)

Tagués avec : , , , , , , , , ,