× Attention : Javascript est désactivé dans votre navigateur. L'application requiert son activation. Merci d'activer Javascript dans votre navigateur.

« PETITS ÉCRITS » SUR LE MANAGEMENT : le blog

Big data : et si nous faisions fausse route ?

Qui dit big data sous-entend la collecte massive de données. Les entreprises se sont déjà engagées sur cette voie depuis au moins 10 ans (ERP, CRM, …). Mais est-ce pour autant la bonne direction ? Tout porte à croire que plus il y a d’infos, moins elles sont fiables. Que faire d’un « big dirty data » ?



Le sujet est sur toutes les lèvres : l’analyse de masses gigantesques de données est l’avenir. Les statisticiens comme les actuaires n’ont pas attendu cette nouvelle vague pour savoir que les connaissances quantitatives peuvent aider à cerner des enjeux, orienter une politique, ou structurer une vision, charge à d’autres de transformer le cas échéant. On nous le répète : l’entreprise qui maîtrisera le big data gagnera durablement un avantage compétitif sur son marché. On entérine ainsi l’idée qu’il faut accumuler des données, massivement. Cela fera certainement le bonheur des fabricants de disques, de serveurs, des éditeurs de middleware et d’applicatifs, des intégrateurs et autres sociétés de conseil en technologies. Cela mobilisera les équipes des DSI et enchantera les directions générales qui pourront se flatter d’être à la pointe. Mais est-ce en thésaurisant l’info que les savoirs se forment et se partagent ? Et si nous faisions fausse route ?

Les 2 dernières décennies ont vu croitre de manière spectaculaire le nombre des données numérisées en entreprise. Grâce à la vague des ERP, la gestion administrative et financière s’est sensiblement consolidée. Et il faut le voir pour le croire : le nombre d’infos nécessaire à une prise de commande B2B dépasse l’entendement. La seconde vague CRM en a bien sûr rajouté une couche. Comptez le nombre d’onglets présent dans d’une fiche client ! Et les progiciels étant ce qu’ils sont, contraints de satisfaire le plus grand nombre, ils sont dans l’obligation de satisfaire la règle : qui peut le plus peut le moins, raison justifiant l’inflation galopante des zones dans n’importe quel formulaire. Si votre besoin se limite à 5 ou 6 infos, vous trouverez leurs place dans les plusieurs dizaines de champs que vous proposent la solution mise en place, éparpillées dans les onglets, sous-fenêtres, … Tout le monde s’en satisfait … ou presque, car les écrans sont parfois déroutants et mettent à rude épreuve la mémoire, qui est priée de se souvenir des seules zones à remplir (comme si elle n’avait pas des choses plus intéressantes à faire).

Cette tendance à multiplier les données ne serait qu’un détail si cette innocente déviation n’avait pas des impacts très coûteux et donc très fâcheux. Premièrement, le coût d’administration de ces formulaires. Le temps d’administration d’un formulaire n’est pas proportionnel au nombre d’infos à servir. Cela suit plutôt une loi exponentielle. Et lorsqu’il faut à un conseiller de clientèle plus de temps pour rendre compte dans son CRM d’un contact établi que la durée de l’échange, le total de ses temps administratifs l’emporte que ses temps à valeur ajoutée. Dommage. S’il reste des gains de productivité à accomplir dans les activités administratives, on peut chercher donc de ce côté. En commençant par se questionner sur l’utilité de l’accumulation de données. D’autant que tout individu face à ce genre de situation aura tendance à créer des bons et mauvais automatismes, qu’il faudra déconstruire à un moment ou à un autre.

Deuxièmement, en multipliant les données, on s’est exposé au risque de dégrader rapidement la fiabilité des fichiers. Et qui s’expose à un risque finit par déraper et en payer le prix. Le fichier prospects/clients contient des doubles ? Moins de 10% des contacts ont leur position effectivement renseigné ? 35% des mails sont erronés ? Mince. Faute de frappe ou obsolescence ? Seulement 2% des collaborateurs ont pris l’initiative d’associer une photo à leur fiche Annuaire ? Tout le monde semble s’en satisfaire. Il suffit de passer des heures et des heures pour redresser tout cela … lorsque cela est possible. Mais l’information n’a de sens que lorsqu’elle est fiable. L’information n’est exploitable que si elle fiable.

Les entreprises ont d’ores et déjà de merveilleux entrepôts de données. Mais ils sont à moitié vide, mal rangé, et il faut une armée d’ingénieurs pour en comprendre les plans. Les plus beaux reporting n’ont aucun intérêt s’ils se sourcent sur des données fausses, incomplètes. Les entreprises ont investi massivement dans les technologies. Pour enregistrer un retour sur investissement positif dans le big data,  elles devront accepter d’investir ailleurs avant. Car la fiabilité c’est moins de techno que d’intelligence.

Mais il a mieux. Quel manager a aujourd’hui, parmi les missions de sa fiche de poste, celle d’analyser les masses d’info relative à son périmètre d’activité, des flux que son entité enregistre ? Qui en a d’ailleurs le temps et les moyens ? Prenons l’exemple des cartes de fidélité. Chaque jour, leur opérateur enregistre des milliers, dizaines de milliers, centaines de milliers d’opérations. Quelles analysent en sont réellement faites au quotidien ? Avoir une offre de carte pétrolière c’est bien, car c’est générer de la fidélité. Mais ne pas en analyser finement les ventes, à commencer par les ventes « shop », avouons que c’est triste. D’autant que les technologies existent depuis bien avant l’avènement du big data. Dès aujourd’hui les masses journalières succèdent aux masses journalières, en attendant ce jour meilleur où l’on prendra le temps de les faire parler, au même rythme qu’elles sont acquises.

Il faut donc en finir avec l’idée reçue que plus on collecte d’infos, plus on en sait (*). Plus on se donne les moyens de collecter plus d’infos, plus on détourne une organisation de sa raison d’être, et ses collaborateur de leur valeur ajoutée. Notre boulimie d’information est probablement contre-productive. Il faut s’en tenir aux seules informations essentielles, offrir des modèles minimalistes, challenger l’utilité de toute donnée.

Le big data est très certainement le prochain eldorado de l’IT. Beaucoup d’entreprises suivront le mouvement, sans créer beaucoup de valeur malheureusement. Les plus éclairées emprunteront un autre chemin, se montreront plus « écologiques » quant aux informations qu’ils doivent collecter. Celles-ci auront compris qu’il est inutile d’avoir les yeux plus gros que le ventre.

Laurent HOUMEAU


(*) Google Analytics est un exemple truculent. Avec classissima.com, nous avons passé périodiquement des heures à analyser les chiffres d’audience restitués. A l’époque, en 5 langues, avec plus 800.000 pages indexées, réparties en 7 sections, et près de 2.000 visites par jour, il nous intéressait de comprendre qu’elles étaient les centre d’intérêt de nos visiteurs, quelles sections attiraient, sur lesquels il fallait s’investir au détriment des moins populaire. Et à chaque fois, la conclusion fût la même : cela ne nous apprenait rien. C’était sans valeur ajoutée. Mais Google Analytics restituait l’analyse quotidienne de données par giga.



e-media management
10 passage Marie-Michel Bioret
92220 Bagneux
France

contact@e-media-management.com

Photos: Thierry Martinot, Portraits: Studio Cabrelli

« Organiser, ce n'est pas mettre de l'ordre, c'est donner de la vie. »

Jean-René Fourtou