Comme chacun d'entre nous, les entreprises sont submergées par des masses toujours plus considérables d'informations. Certaines ont su transformer ce problème de plus en plus insoluble en avantage concurrentiel.
La quantité de données que doivent traiter les entreprises double tous les quinze mois. Cela va des courriels au suivi informatique des colis en temps réel en passant par les commentaires dans les réseaux sociaux et les multiples liens avec les sites des fournisseurs et des clients, sans oublier la veille technologique et stratégique sur le Net. Cette inflation constitue « un casse-tête pour les individus et un énorme défi pour les entreprises ». Il faut dire que le temps nécessaire pour prendre connaissance de l'information finit par devenir un bien plus rare que l'information elle-même. Mais la quantité de données constitue une belle opportunité pour ceux qui parviendront à en maîtriser le flot ininterrompu et toujours croissant. Cette hypothèse est confirmée par une étude récente qui montre qu'en s'appuyant sur l'analyse de données plus que sur l'expérience et l'intuition des dirigeants, une entreprise peut accroître sa rentabilité de 5 % à 6 % .C'est le retour en grâce de l'analyse, la fin du règne de l'intuition portée au pinacle par Kenichi Ohmae au début des années 1990. Le consultant nippon avait alors tourné le dos à la planification et aux matrices d'analyse stratégique du Boston Consulting Group et d'Arthur D. Little, expliquant que la stratégie était un art basé sur l'intuition et la volonté de réussir, un cheminement intellectuel créatif plus que rationnel. Pour lui, les stratèges ne se servaient des analyses « que pour stimuler le processus créatif, pour tester les idées qui émergent, pour élaborer leurs stratégies »
La réhabilitation de l'analyse rigoureuse
Les auteurs de l'étude réhabilitent l'analyse, et mettent en évidence l'efficacité de la « 3D », Data Driven Decisionmaking (la prise de décision basée sur les données). On quitte l'art du dirigeant visionnaire pour retrouver la lecture assidue de documents, les tableaux Excel, les logiciels de traitement de données et la rédaction de notes ultrasynthétiques.
Cette approche demande une bonne dose d'organisation : dans l'entreprise moyenne, pas encore championne de 3D, un employé consacre au moins 5 heures par semaine à chercher des informations. Même si l'effet d'apprentissage peut éviter que le temps passé croisse au même rythme que la quantité de données traitées, il est difficile de poursuivre dans cette voie.
Des start-up ont depuis longtemps compris qu'il y avait là un marché colossal. L'une des plus anciennes sur ce créneau, Sinequa, créée et dirigée par des ingénieurs français, propose un moteur de recherche sémantique permettant de trouver n'importe quelle information dans la masse de données existant à l'intérieur de l'entreprise, en minimisant le « bruit » (toutes les informations non pertinentes qui parasitent les résultats), et le « silence » (les lacunes, les informations pertinentes non repérées). Soulignons au passage que ce type de moteur est plus sophistiqué que celui de Google, d'autant que Sinequa travaille dans toutes les langues utilisées dans l'entreprise, et qu'elle gère la confidentialité : chaque information est mise à la disposition des seuls utilisateurs habilités à la consulter.
Chasseur de données, un métier d'avenir
Un autre métier nouveau est celui des « agrégateurs », dont le travail est moins complexe. Leur terrain de chasse est constitué par des milliers de médias et de bases de données existant sur Internet, auxquels ils accèdent méthodiquement. Ils réunissent, trient et fournissent un maximum d'informations pertinentes sur les thèmes intéressant leurs clients. Certains de ces agrégateurs sont relativement généralistes, assurant une veille sur l'actualité politique ou économique et sociale. D'autres se spécialisent, par exemple dans les données financières.
Ce type de service n'est pas réservé aux entreprises. Les Google News, Wikio et autres Yahoo News l'offrent au grand public. Et parmi les blogueurs actifs, on trouve des « curateurs » qui regroupent des pages concernant un sujet, les sélectionnent et les livrent à leurs lecteurs. Cette activité peut d'ailleurs être largement automatisée à l'aide d'outils simples : un agrégateur de flux sociaux ou de RSS permet de scanner les nouvelles et avec un outil de publication automatique lié à ses comptes Twitter et FaceBook, on peut facilement diffuser des informations sélectionnées à l'aide de mots-clefs. Ce mode opératoire peut suffire aux internautes qui ne veulent rater aucun écho sur les Jaguar type E ou sur Cat Stevens, mais les entreprises sont plus exigeantes, et pour leur donner satisfaction l'agrégateur doit aussi être capable d'analyser les données. Pour ce métier, des connaissances techniques, mais surtout une grande agilité intellectuelle sont nécessaires, et la demande est supérieure à l'offre. Un récent rapport de McKinsey estimait qu'il manque 140 000 à 190 000 analystes compétents sur le marché du travail américain, et qu'il faudrait former 1,5 million de managers à l'analyse de données, simplement pour leur permettre de prendre de bonnes décisions « guidées par les données », données livrées prêtes à l'emploi par des agrégateurs ou curateurs[5].