La Révolution des Plateformes : La Chute de la Maison NOKIA

Dans son article What is Web 2.0 – Design Patterns and Business Models for The Next Generation of Software, Tim O’Reilly affirme, dès 2005 qu’une Plateforme bat une Application à chaque fois.
Il se situe dans la dynamique énoncée, dès 1997, pour l’industrie manufacturière: Ce qui est important est moins le produit que la manière dont il est construit.
Pour l’industrie logicielle le modèle de la Plateforme a tout d’abord donné les preuves de son efficacité dans l’industrie du jeu puis elle a été utilisée tant par les GAFA (Google, Apple, Facebook, Amazon) que par leurs suiveurs tout aussi agressifs, les TUNA (Tesla, Uber, Netflix, Airbnb).
Ces entreprises majeures de l’économie mondiales, tant en termes de valorisation boursière que de nombre d’utilisateurs, se positionnent comme des intermédiaires entre les fournisseurs de services/produits et leurs clients.

Elles
offrent en premier lieu un service gratuit en échange de la capacité à
collecter et à exploiter les données personnelles de leurs utilisateurs. 
Leur
service consiste à mettre en relation de façon pertinente les deux
« faces » d’un marché, de façon pertinente, aisée, rapide et fiable.
Puis
elles mettent ces informations à disposition d’acteurs tiers, via des
interfaces de programmation (API), pour que de nouveaux services soient développés.
Un
écosystème d’applications se crée alors autour de leurs plateformes.
Nicolas Carr propose dès 2000 le terme d’hypermédiation pour caractériser ce qui étaient les premières plateformes sur Internet. Car tout au contraire de la doxa de l’époque Nicolas Carr annonce ce qui va se réaliser à savoir non pas la disparition de l’intermédiation (la désintermédiation) mais bien au contraire son renforcement, avec de nouveaux acteurs, via l’Internet (la réintermédiation). J’avais d’ailleurs, participé à ce mouvement dès 1994 avec la mise en place d’un portail d’accès à l’information scientifique, technique et médicale à l’intention de la recherche, via Internet (Information Quest).

En 2005 Nicolas Carr revient sur ce thème de l’hypermédiation en l’élargissant au-delà du e-commerce avec son article Hypermediation 2.0 puis en couronnant Google roi des hypermédiateurs en 2009 avec Google in the middle.

Je ne résiste pas à la tentation de vous présenter les premières lignes de cet excellent article.

“3 vérités :

1- Google est un intermédiaire fabriqué en logiciel. C’est un très très gros intermédiaire fabriqué en logiciels. Pensez à quoi Goliath ou les Cyclopes ou  Godzilla ressembleraient s’ils étaient fabriqués en logiciel : c’est Google.

2- L’intermédiaire agit dans l’intérêt de l’intermédiaire.

3- Plus le contrôle de l’intermédiaire est important sur les échanges qui ont lieu dans le marché, plus est important son pouvoir et celui des fournisseurs l’est d’autant moins.

Durant la plus grande partie de la première décennie du Web on nous a dit que le Web, en mettant en relation de façon efficiente l’acheteur et le vendeur, détruirait les intermédiaires. Les intermédiaires étaient des frictions et le Web était une machine à éliminer les frictions.

On nous a mal informés. Le Web n’a pas tué les intermédiaires. Il les a renforcés.”
Avec l’article publié en 2009 Platform rules : multi-sided platforms as regulators, Kevin Bourdreau et Andrei Hagiu reprennent un concept fondamental de Jean Tirole, les “marchés bifaces”, pour introduire un nouveau type d’acteur, le “surtraitant”.
Jean Tirole s’est intéressé très tôt aux modèles économiques des entreprises du Net, dès le début des années 2000, notamment celui des “gentils monopoles” tels que Google. Gentils car apparemment gratuits.

En 2001 il publie une article co-écrit avec Jean-Charles Rochet, Platform competition in two-sided markets, il introduit cette notion de marchés bifaces avec des sociétés comme Google qui présentent la particularité d’être “à deux faces” car s’adressant à deux marchés. Tel Sony qui vend des Playstations mais dont l’avenir dépend aussi – et surtout – des développeurs de jeux vidéos sur lesquels il prendra une commission (et leur laissera le risque de l’investissement), Apple vend ses iPhones et prend une commission sur les ventes d’applications…
La fixation des prix est alors un jeu d’équilibre entre ces deux marchés. Tel Google dont l’accès à son outil de recherche est gratuit et qui fait payer de la publicité aux annonceurs ou Amazon qui casse les prix de ses Kindle pour mieux vendre ses contenus numériques.

Le surtraitant (complementor) existe du fait de ces plateformes bifaces ou multifaces. Comme le soulignent Kevin Bourdreau et Andrei Hagiu, les Plateformes sont des produits, des services ou des technologies qui servent en tant que fondations sur lesquelles d’autres parties peuvent bâtir des produits, des services ou des technologies complémentaires. Une plateforme bi ou multifaces, ou MSP (pour Multi-Sided Platforms), par exemple Sony avec sa Playstation ou les cartes de crédit Visa, eBay ou Windows de Microsoft sont à la fois une plateforme et un intermédiaire de marché. Ainsi des groupes distincts de consommateurs et de surtraitants interagissent au travers des MSPs.

Nous avons alors les MSPs en situation d’hypermédiation, dont sont dépendants des surtraitants de plus en plus nombreux et, bien souvent, de plus en plus dépendants.
Les surtraitants ne sont ni clients ni fournisseurs de la Plateforme, ils vont vers celle-ci pour avoir accès à des clients, au marché. Chez Uber les surtraitants sont les chauffeurs, chez Amazon ce sont les e-commerçants et les auteurs, chez Apple les développeurs d’applications commercialisées via iTunes.

La plateforme ne choisit pas les surtraitants, c’est eux qui la choisissent, attirés par son potentiel d’hypermédiation. Ce potentiel consiste en un accès à la “multitude”, au marché. Mieux, les Plateformes facilitent l’appariement entre le vendeur et l’acheteur, comme Meetic, qui est bien sûr également une Plateforme, met en relation des partenaires.
La Plateforme prend bien souvent une commission sur les ventes du surtraitant tout en gardant par devers elle l’exclusivité de ce “pétrole du XXIème siècle” que sont les données – la fameuse Data. Ces données sont celles liées aux transactions, aux mouvements, aux origines, bref, à la connaissance des comportements et par-delà des préférences des utilisateurs, qu’ils soient client ou sur-traitants.


La particularité du fonctionnement des Plateformes réside notamment dans le fait que plus elles sont importantes, plus elles sont efficientes dans leur activité.


D’une part parce que plus elles sont importantes plus elles peuvent mettre en relation la multitude avec des surtraitants qui leurs conviennent car elles sont plus diversifiés.

D’autre part parce que plus elles sont importantes plus elles peuvent faire tourner leurs algorithmes d’apprentissage (de prédiction de la demande par exemple), qui ne cessent de s’améliorer avec le volume et la diversité des données traitées. Il s’agit alors d’une optimisation de l’effet de réseau, de la loi empirique de Metcalfe et de son corollaire, la loi de Reed.


La Loi de Metcalfe est une loi théorique et empirique de l’effet de réseau énoncée par Robert
Metcalfe
, fondateur de la société 3Com et à l’origine du
protocole Ethernet.
Cette loi dit que « l’utilité d’un réseau est proportionnelle au carré du
nombre de ses utilisateurs ». Cela signifie que plus il y a d’utilisateurs
dans un réseau, plus ce réseau aura de la valeur

La loi de Reed est également une loi
théorique et empirique mais concernant tout particulièrement l’Internet. Elle
a été énoncée par David Reed, Professeur adjoint au
MIT, en 1999 et part du principe que la loi
de Metcalfe
minimise la valeur des connexions ajoutées. En effet, un membre
est relié au réseau entier comme à un tout, mais également à beaucoup de
sous-ensembles significatifs du tout. Ces sous-ensembles ajoutent de la valeur
à l’individu comme au réseau lui-même. En incluant des sous-ensembles dans le
calcul de la valeur du réseau, la valeur augmente plus rapidement qu’en ne
prenant en compte que les nœuds. (source: Wikipedia)


Les Plateformes n’ont pas de relations contractuelles contraignantes avec les surtraitants. 

Ce sont ces derniers qui prennent les risques de leur exploitation sans avoir de vue directe sur le marché, en étant constamment mis en concurrence car bein souvent ne pouvant se construire un fond de commerce. Pensez aux e-commerçants sur Amazon, vendant leurs produits via le géant de Seattle mais n’ayant pas le droit de communiquer avec les clients car ces derniers sont la propriété d’Amazon. Ce dernier se gardant la possibilité de devenir leur concurrent quand le marché est détecté comme pouvant l’intéresser. Le surtraitant a alors pris le risque de la création du marché pour que, si des fruits apparaissent, Amazon n’ait plus qu’à les cueillir. En ce cas, malheur au surtraitant devenu dépendant de la Plateforme, son avenir est compromis s’il n’est  porteur ni d’une marque forte ni d’un sourcing fortement différencié.

Une stratégie de Plateforme, bi ou multifaces, présente potentiellement de nombreux avantages pour les entreprises :

– Parce que les activités des plateformes créent de la valeur à partir de ressources qu’elles ne possèdent pas forcément ou qu’elles ne contrôlent pas, elles peuvent croître beaucoup plus rapidement que les activités traditionnelles (cf AirBnB vs Mariott, nous y reviendrons),

– Par conséquent leur capacité de scalabilité est immense (d’où leur valorisation financière),

– Les innovations peuvent provenir des utilisateurs,

– Les frontières entre les surtraitants et les clients deviennent floues, les uns pouvant devenir les autres (cf chez Uber les clients peuvent également devenir des chauffeurs).


Mais les stratégies de Plateformes ne présentent pas uniquement des opportunités pour les entreprises existantes, elles représentent également des menaces de premier ordre. 

Elles tuent le modèle économique traditionnel du produit et du service.


Voyons comment.


Nous pouvons tous faire le constat qu’un changement incroyable a eu lieu au cours de ces dernières années au niveau des valorisations boursières. Nous l’avons déjà souligné mais nous pouvons l’approfondir. Les valorisation boursières sont déconnectées de l’antériorité ou des actifs tangibles des entreprises.


Voyez, BMW, une entreprise créée en 1916 et employant 116 000 personnes a une capitalisation boursière dans les 50 milliards de $. Uber, créé en 2009 et employant 5 000 personnes, ne possède aucune voiture est à plus de 60 milliards.
Marriott, la célèbre chaîne hôtelière, emploie quant à elle 200 000 salariés pour une capitalisation boursière d’environ 20 milliards. AirBnB de son côté présente le même niveau de capitalisation avec… 3 000 salariés et aucun hôtel !


Rappelons-nous que Kodak, du temps de sa splendeur, a atteint une capitalisation de 30 milliards avec un effectif de 145 000 personnes. Instagram, créée en 2010 (Kodak, c’était 1888) avait 13 employés quand la société a été achetée 1 milliard de $ en 2012 par Facebook.


Voyons l’évolution du marché des téléphones portables sur ces 10 dernières années.


En 2007, 7 entreprises contrôlaient 99% des profits du secteur d’activité : Nokia 55%, Samsung 10%, Sony Ericsson 10%, Motorola 8%, LG 7%, RIM 5%, HTC 5%.


9 ans après Apple, un nouvel entrant, contrôle plus de 90% des profits !

Que s’est-il passé ?

Toutes les entreprises se partageant les profits du secteur d’activité en 2007 ne peuvent avoir fait des erreurs stratégiques monumentales sur cette période.

Elles ont bien travaillé leurs économies d’échelle, ont créé des marques fortes, se sont protégées avec des brevets, possédaient un haut niveau logistique, maîtrisaient leurs canaux de distribution et investissaient massivement dans la R&D. Nokia a ainsi investi pour plus de 409 milliards de $ en R&D sur 20 ans.

Elles avaient construits de solides barrières à l’entrée.

Que s’est-il passé ?

Qu’est-ce que l’ensemble de ces sociétés n’a pas compris ?
.
Nous étudierons cela lors d’un prochain post.




    %d blogueurs aiment cette page :