Trop de data tue-t-il la data ?

L’article d’aujourd’hui est une réac­tion à la récente pub­li­ca­tion dans le mag­a­zine L’usine dig­i­tale de l’interview du dirigeant d’une des enseignes de grande dis­tri­b­u­tion les plus impor­tantes en France, à pro­pos de sa vision du dig­i­tal. Inter­rogé sur la néces­sité de capter et d’analyser la don­née pour les dis­trib­u­teurs, il répond ain­si : « Avec le Big Data, on est dans une bulle qui, quand elle va explos­er, fera des dégâts con­sid­érables. Trop d’information tue l’information ».

Au-delà de la référence à l’économiste améri­cain Arthur Laf­fer et à sa for­mule “Trop d’impôts tue l’impôt”, laque­lle veut à la fois tout et rien dire et que cha­cun a ten­dance à récupér­er à sa façon, ce grand patron sem­ble con­sid­ér­er que l’on est piégé sous une énorme masse de don­nées qu’on ne sait pas, ou que l’on n’a pas la capac­ité de traiter, et que ces don­nées n’aident donc pas for­cé­ment à pren­dre des déci­sions éclairées.
Ces déc­la­ra­tions m’ont fait réa­gir car ma vision est autre : l’exploitation de la don­née, et, par-delà, de ce qu’on appelle Big Data, est une prob­lé­ma­tique ayant à la fois une dimen­sion humaine et une dimen­sion tech­nologique. Un trop-plein d’infos bloque la capac­ité humaine à traiter cette infor­ma­tion, mais en aucun cas celles des machines, qui ont une capac­ité de traite­ment bien supérieure à la nôtre. L’enjeu est donc ici pour moi celui de la capac­ité, et non du savoir-faire.
Une dimen­sion humaine

Il s’agit ici d’évaluer la capac­ité humaine à exploiter ces mil­liers de don­nées col­lec­tées jour après jour. De ce qui se passe en mag­a­sin au com­porte­ment d’un client sur l’application mobile de la mar­que, en pas­sant par la manière dont un con­som­ma­teur agit sur le park­ing du mag­a­sin ou bien dans les allées du super­marché, au panier moyen ou aux types de pro­duits qu’il achète… Les mar­ke­teurs ont désor­mais des mil­liards de don­nées à leur dis­po­si­tion : or, il est humaine­ment impos­si­ble de traiter ces mil­liards de don­nées, d’où l’importance de la dimen­sion tech­nologique et du recours à des out­ils adap­tés.

Une dimen­sion technologique

En réal­ité, l’enjeu n’est plus aujourd’hui de capter de l’info pour avoir de l’info, mais plutôt de récupér­er des don­nées cor­re­spon­dant spé­ci­fique­ment à des cas d’usage pour lesquels on a besoin de pro­pos­er une réponse mar­ket­ing per­son­nal­isée.

C’est notam­ment ce que per­met Adobe Ana­lyt­ics à tra­vers le mod­ule Con­tri­bu­tion Analy­sis : celui-ci s’appuie sur les don­nées col­lec­tées par Adobe Ana­lyt­ics pour traiter des infor­ma­tions qu’un cerveau humain ne serait pas en mesure d’obtenir (ou seule­ment au bout d’un très long laps de temps), et mesur­er l’impact de tel ou tel événe­ment sur un résul­tat.

Prenons l’exemple (réel mais que je ne peux hélas nom­mer) d’un com­merçant BtoB, qui réalise soudaine­ment une aug­men­ta­tion de 81% de ses com­man­des. Ce com­merçant a affec­té une équipe de 5 data sci­en­tists pen­dant tout un week­end pour essay­er d’identifier les raisons de cette hausse : mal­heureuse­ment, ils n’ont été en capac­ité d’analyser que 5 des 300 dimen­sions poten­tielle­ment en cause. En revanche, cela n’a pris que 30 sec­on­des à l’outil pour réalis­er que ce pic de com­man­des était lié à des bons de réduc­tion fraud­uleux. Cela a ensuite per­mis aux respon­s­ables de sup­primer les bons d’achats et d’annuler les com­man­des fraud­uleuses. La réso­lu­tion du prob­lème ne fut ain­si pos­si­ble ici que grâce aux capac­ités tech­nologiques du mod­ule, en rai­son du vol­ume de don­nées à traiter.

Autre exem­ple intéres­sant : une entre­prise appar­tenant à l’industrie du voy­age s’était ren­due compte qu’elle dis­po­sait d’un manque à gag­n­er quo­ti­di­en de 1,7 mil­lion de dol­lars. Après analyse de l’outil, il s’avéra que la cam­pagne la plus prof­itable de ce client avait été dés­ac­tivée suite à une mau­vaise inter­pré­ta­tion des don­nées de l’équipe Ana­lyt­ics. Le sim­ple fait de réac­tiv­er cette cam­pagne a ain­si per­mis à ce client de met­tre fin à cette perte s’élevant jusqu’ à 1,7 mil­lion de dol­lars par jour.

C’est donc dans ce sens qu’on ne peut pas dire que « trop d’infos tue d’infos » : la machine a une capac­ité de traite­ment bien supérieure à la nôtre, mais on a besoin de l’humain pour la valeur ajoutée qu’il représente et son pou­voir déci­sion­nel. Les 2 sont indis­pens­ables et les 2, asso­ciées, per­me­t­tent de pren­dre des déci­sions incroy­able­ment plus prof­ita­bles qu’il y a quelques années…

De votre côté, quelle est votre opin­ion sur l’exploitation de la Big Data ? N’hésitez pas à pour­suivre la dis­cus­sion et à partager vos avis sur le sujet au sein de la sec­tion Commentaires !