L’approche causale pour l’analyse de données dans l’entreprise reste nécessaire, y compris avec l’IA.

Pourquoi l’analyse causale n’est-elle pas au cœur des pratiques des entreprises ?

Trop souvent l’analyse de données en entreprise se focalise exclusivement sur la corrélation. Le Big data et l’IA renforcent ce centrage au détriment de l’efficience si ce n’est de l’efficacité de la démarche. Revenir à une approche causale devrait faire partie de toute démarche de modélisation prédictive, d’autant qu’il n’y a plus d’excuse pour ne pas le faire.

Une étude statistique des corrélations permet d’avoir des informations intéressantes du type « les clients qui achètent du dentifrice ont une plus forte propension à être infidèles à la marque ». Mais en connaître la cause, le « pourquoi » de cette propension à l’infidélité serait bien plus intéressant pour optimiser l’activité de l’entreprise. Tout comme il serait judicieux de connaître les raisons de la sous-performance de membres de votre réseau, de l’impact de la formation sur vos commerciaux.

La puissance du « Pourquoi ? »

Savoir pourquoi un événement se produit permet d’orienter ses actions de manière plus structurelle et plus pérenne que de réagir à des observations. Le « Pourquoi ? » est la question miracle qui peut créer de l’innovation car c’est la seule qui aille au fond des choses.  Pourquoi peut redéfinir un problème et en élargir la perspective de façon significative et ainsi amener de nouvelles alternatives.

La recherche de la causalité oblige à une meilleure compréhension de ce que l’on modélise et le modèle de prédiction tient moins à l’algorithme sélectionné qu’à la pertinence des variables.

L’analyse causale est clef pour l’analyse des données de l’entreprise. C’est elle qui lui donne du sens et de l’intérêt. Elle devrait faire partie de toute démarche de modélisation prédictive.

Alors pourquoi le réflexe causal est-il quasiment absent en entreprise ?

Cela est dû à des héritiers trop zélés des pères fondateurs de la statistique. Statisticiens et autres data scientists restent arcs boutés au fait que la corrélation entre deux observations n’implique pas de relations de causalité.

Pendant des décennies la seule méthode qu’ils ont acceptée pour envisager les relations causales était l’Essai Contrôlé Randomisé (ECR), dont la version la plus basique est le test A/B, si cher aux marketeurs du digital.

Mais l’ECR ne vient pas totalement résoudre la recherche de causalité car son application est lourde et limitée, pour des raisons tant éthiques que business. Au niveau éthique car il n’est pas envisageable de faire prendre des risques à un échantillon de personnes afin d’apporter la preuve de la nuisance de leur comportement et au niveau business ces tests peuvent impacter durablement la rentabilité de l’activité pour des résultats qui ne seront plus d’actualité quand ils auront été démontrés.

C’est pourquoi l’observation des événements et la détection de corrélations reste au cœur des outils statistiques, y compris en IA, et ce quel que soit le type d’Apprentissage Automatisé (Machine Learning – ML) utilisé.

L’IA ne crée pas d’informations nouvelles, elle ne fait que relier des informations connues.

La force brute des IA est séductrice mais leur approche reste basique car de l’ordre de l’observation. Les corrélations qu’elles mettent en lumière sont parfois intéressantes, mais pas toujours suffisantes pour prendre des décisions.

La démultiplication des données via le Big data, vue comme une compensation à la rusticité de l’approche, crée généralement plus de bruit que d’information, au risque de passer à côté de données essentielles.

Pourtant la « Révolution Causale » a eu lieu en 2018

Ce qui est surprenant c’est que l’approche causale reste taboue auprès des data scientists alors qu’il existe depuis plusieurs années un cadre mathématique à la recherche de causalité.

En effet la Révolution Causale a eu lieu, initiée par le philosophe et mathématicien Judea Pearl et ses disciples. Elle est même aisément accessible avec son ouvrage The Book of Why paru en 2018.

Pirmin Lemberger et Denis Oblin ont fait une synthèse des apports de Pearl en 2020 dans leur papier Reconciling Causality and Statistics avec comme illustrations l’efficience de campagnes de fidélisation et l’impact de la formation d’une force de vente sur le chiffre d’affaires.

Après avoir travaillé de nombreuses années sur cette thématique et utilisé également les travaux de Judea Pearl sur des cas opérationnels d’entreprises nous ne pouvons que rejoindre leur conclusion, que nous nous permettons de faire nôtre.

Les data-scientists sont devenus des serviteurs trop zélés des techniques statistiques et de l’utilisation de la donnée et ont oublié deux éléments clefs.

Les data scientists ont oublié que l’objectif d’une entreprise n’est pas de décrire le monde mais d’agir sur le monde.

Ils ont également oublié que nous autres, les êtres humains, avons quelques connaissances préalables de la façon dont le monde fonctionne et que nous avons plus d’informations disponibles que la « data ». Nous avons de l’expérience, des approches de la réalité à laquelle nous confrontés, en bref, du « métier ».

La grande leçon que nous donne Pearl est que, dans certaines situations, nous pouvons combiner notre savoir métier avec l’analyse de la donnée et ainsi prédire, par la connaissance de la causalité, les effets d’une intervention sur un système.

Cela oblige les data scientists à abandonner leur posture de démiurge, leur espoir d’automatiser la découverte de « comment fonctionne le monde » uniquement par son observation.

L’activité économique ne dévoilera pas ses secrets face à un stupide algorithme. Il nous faut la prendre à bras le corps, converser avec elle avec curiosité et inventivité, apprendre à lui poser les bonnes questions.

Cela demande définitivement plus d’expérience, de bon sens et de créativité que de science.

.

    %d blogueurs aiment cette page :