Les données sont omniprésentes; elles sont au cœur des processus des organisations… avec le Big Data, elles créent de la valeur au delà des frontières de l’entreprise. Chief Data Officer et Directeurs des Systèmes d’Information tentent d’en obtenir le meilleur pour des prises de décisions agiles, opérationnelles et pro-actives. Pourtant, la mauvaise qualité des données informatiques pointe toujours et encore le bout de son nez !

Quand les données font perdre des milliards…

perte-argent-qualite-données

Selon une étude récente du laboratoire de recherche d’AT&T, la mauvaise qualité des données coûte plus de 600 milliards de dollars par an aux entreprises américaines ! Ce chiffre englobe autant les préjudices liés aux erreurs de données que le temps et les efforts humains nécessaires pour corriger ces données.

Comme le rappelle très bien ZDNet dans son article « La mauvaise qualité des données est un problème coûteux : 3 conseils pour progresser« , même si une erreur dans les données est détectée à temps, les salariés gaspillent 50% de leur temps à chercher les données, à identifier et corriger les erreurs, et à rechercher des sources de confirmation pour les données dont ils doutent.

Il existe pourtant de nombreux outils et systèmes qui permettent de nettoyer les données issues du Système d’Information et du « Big Data » que les entreprises ont déployé ces dernières années… Mais alors, comment améliorer la qualité des données informatiques ? Car, nous ne le dirons jamais assez, la qualité des données est directement impactée par les humains qui les saisissent et qui les traitent dans les systèmes d’informations : 75% des problèmes de qualité des données proviennent de la saisie d’informations par les collaborateurs (Wayne W.Eckerson de TDWI, The Data Warehouse Institute, l’Institut d’analyse et de formation pour la Business Intelligence) !

Comment améliorer la qualité des données informatiques ?

saisie-qualite-des-donnes-systemes-informations

Aujourd’hui, les DSI (Directions des Systèmes d’Informations) proposent de plus en plus d’outils et logiciels en self-service qui permettent aux opérationnels d’intégrer, de traiter et d’analyser les données de leurs entreprises. On pense ici à des outils spécifiques à l’intégration et au traitement du Big Data mais il ne faut pas oublier les logiciels du type ERP qui sont au cœur même des processus et prises de décisions des entreprises. Une vraie opportunité pour les organisations mais qui peut très vite se retourner contre elles : des usages et pratiques peuvent différer entre chaque collaborateur et peuvent créer de vraies incohérences dans les données !

Pour répondre à cette problématique, il est donc important de créer et faire vivre un guide utilisateur métier pour chaque outil, chaque logiciel. Il faut l’adapter aux différents métiers et opérationnels et le mettre à leur disposition au moment où ils saisissent des données : définitions, pratiques, standards de formats, modes opératoires, procédures…

Une action préventive et pro-active qui permet de mieux informer les collaborateurs et de garantir une meilleure qualité des données informatiques saisies. Cette solution permet aussi, par la même occasion, de responsabiliser les métiers sur les enjeux autour de la qualité des données.

Bases de connaissances, outils d’aide en ligne, assistants virtuels, … de nombreuses solutions existent pour enfin aider et accompagner les utilisateurs de logiciels et systèmes d’information. On l’oublie bien souvent mais, on aura beau mettre en place les solutions informatiques les plus sophistiquées possibles qui soient, ce sont avant tout des solutions qui doivent être faites pour les femmes et hommes qui saisissent, utilisent et exploitent les données : ce sont eux qui doivent être au cœur de la gestion de la qualité des données informatiques !