De l’informatique au numérique : rupture ou continuité? | Eleven

De l’informatique au numérique : rupture ou continuité?09 March 2016

Innovation

Il est admis dans le langage courant que nous sommes entrés dans un « nouveau » monde, « digital » ou « numérique ». Des directeurs Digitaux, souvent issus des métiers, cohabitent avec des DSI. Les dépenses informatiques sont de plus en plus engagées par les métiers. Les sites web fusionnent avec, voire même remplacent les systèmes internes… L’informatique se diffuse dans l’entreprise, se déconcentre, se décentralise…

Mais, qu’est-ce qui a finalement changé ? Internet ne date pas d’hier, l’informatique non plus. Les smartphones ? Les objets connectés ? De nouvelles technologies de développement ? La démocratisation massive des technologies ? L’ouverture et la standardisation de « l’informatique »? Le changement de culture ? Probablement un peu de tout cela.

Le Web et l’information communautaire

Il n’y a pas si longtemps que cela, peut-être même avez-vous, comme moi, connu ce temps, pour faire une recherche documentaire ou une étude de marché, il fallait se déplacer, aller dans des bibliothèques, s’y inscrire, emprunter, acheter des livres, etc. Aujourd’hui, avec une connexion internet, la connaissance est à portée de main, instantanément.

Instantanément, et souvent gratuitement. Gratuitement, grâce à l’UGC (User Generated Content) – le web 2.0 – et à l’open source. Une nouvelle économie, basée sur des coûts fixes relativement faibles et des couts marginaux nuls.

Trois modèles permettent d’amortir les coûts fixes :

1.      le premier usage (j’ai créé ceci pour mon propre usage ou mon plaisir, par goût d’aider ou d’appartenir à une communauté)

2.      quelques clients payants (modèle freemium)

3.      un grand nombre de « clients » à faible revenu unitaire (réputation, publicité)

Les coûts marginaux nuls, grâce à la diffusion automatisée et massive sur internet, permettent au plus grand nombre un accès gratuit à l’information.

Cette révolution de la création et de la mise à disposition des contenus à destination des humains s’est aussi opérée dans les contenus « machine to machine ».

La base installée de terminaux et la facilité de déploiement

Le hardware n’est (presque) plus une question aujourd’hui. Les clients sont équipés de mobiles, avec un navigateur web et/ou un app store, des capacités de géolocalisation, des capteurs multiples, etc. Les collaborateurs ont au minimum un navigateur web, souvent un mobile avec les mêmes capacités. Dès lors, déployer un service n’est plus que logiciel, avec une standardisation et une facilité de déploiement très ou relativement élevées selon que l’on choisit l’option pur web ou application native. Plus de question d’équipement, de compatibilité, de distribution, de déploiement, de mise à jour, ni même d’infrastructure avec les possibilités offertes par le « cloud ». Je suis capable de penser, développer, tester et déployer un service en très peu de temps.

L’automatisation et les architectures web

Le Web n’a pas inventé les réseaux, ni les interfaces. Les réseaux privés d’entreprise existent depuis longtemps, et les standards type EDI[1] ont permis de développer beaucoup d’interfaces entre les entreprises. Cependant, la mise en œuvre d’interfaces a souvent été compliquée. Accès direct dans les bases de données, échanges de fichiers, firewalls, normes, transcodification, ETL[2], etc. ont donné des sueurs froides à plus d’un DSI.

Le web a permis l’émergence de standards plus universels et plus simples, notamment via les concepts d’API[3] s’appuyant sur les modèles résilients et éprouvés du web[4], accessibles durablement et en libre-service. Est-ce pour autant une question technique ? Non, pas essentiellement. S’il s’agissait juste d’un savoir-faire technique, alors la meilleure approche consisterait à mutualiser ces compétences dans des sociétés auprès desquelles les autres sous-traiteraient la réalisation des services. Mais on constate que les sociétés innovantes et qui créent de la valeur sur le marché font toutes leurs développements en interne. C’est donc une question plus profonde, plus culturelle que technique.

La culture « ouverte »

Grâce à l’ubiquité offerte par nos réseaux d’une part, et par la mutualisation des infrastructures d’autre part – le Cloud, les APIs publiques – qui abaissent à presque zéro le coût du ticket d’entrée à un marché mondial, le monde des « services » web connait la même révolution que l’UGC de type Wikipédia. Le seul investissement qu’il reste à faire pour mettre en œuvre un service, une idée, c’est le développement logiciel. Les mêmes moteurs ont été à l’œuvre, mais n’ont pu fonctionner que dans un changement complet de culture :

1.      Modèle du premier usage : j’ai créé un service pour mon usage interne, avec en tête de le rendre universel, et je le mets à disposition de tous. Ce modèle a vu le jour notamment par la révolution de l’architecture des systèmes internes des entreprises, rendue célèbre par Amazon, en client – fournisseur, dialoguant par API et web services en interne. Ensuite, internet permet l’interconnexion immédiate de ces systèmes entre les différentes entreprises.

2.      Modèle Freemium : modèle des distributions open source type Linux Redhat, Cloudera… Le modèle de l’open source a été rendu possible par les communautés de développeurs s’échangeant des astuces, informations et portions de code sur internet, où la portion de code est donnée gratuitement, comme l’article que vous êtes en train de lire, en espérant un retour via la notoriété.

3.      Modèle de masse: applications mobiles, modèle Google. Ce modèle a été rendu possible par la portée mondiale d’internet, permettant de toucher instantanément un nombre considérable de personnes, et les magasins d’application, permettant de distribuer ces programmes facilement.

Cette culture est ancrée dans l’esprit de la Silicon Valley pour qui le réseau vaut plus que l’individu, et que pour qui la valeur vient de l’échange.

Ces changements bouleversent tout : l’innovation open source est beaucoup plus rapide, et surtout l’interconnexion permet de réutiliser et de capitaliser sur les systèmes tiers avec une facilité déconcertante. Auparavant, pour utiliser un système tiers (une cartographie, des données personnelles…), il fallait contacter l’entreprise, établir un partenariat, négocier, évaluer les possibilités de connexion, etc. Aujourd’hui, on crée un compte utilisateur / développeur, et c’est fait. Plus d’humain, plus de contrat, plus de viscosité, c’est la culture OTT (Over The Top).

C’est ainsi que le développement logiciel a joué un rôle clé dans la révolution digitale, non seulement par définition (le digital – ou numérique – est ce qui a basculé dans le monde logiciel) mais aussi parce que le développement logiciel est l’arme principale de remise en cause de l’ordre établi– la révolution – qui permet à de nouveaux entrants de s’installer partout, très vite, et de court-circuiter les acteurs en place.

Cette facilité se retrouve dans des innovations telles que la publication à compte d’auteurs (ebook, blogs, ou impression en micro séries) et retombe dans le réel avec l’impression 3D.

Le développement agile, le « Test & Learn »

Un autre pan de la révolution digitale est la culture « agile », là aussi née dans le développement logiciel des « pure players », et généralisée à l’ensemble de l’économie : marketing (A/B testing…), communication et même production (micro séries) et développement général de l’entreprise (lean startup).

La source en est l’anti-taylorisation comme modèle. En effet, et contrairement aux idées reçues, le développement est une activité de conception, pas de production. En informatique, la production est assurée par des ordinateurs, très dociles et fiables. Il ne reste aux humains que la conception. Or faire une bonne conception nécessite d’avoir une vue d’ensemble, de comprendre les enjeux, de beaucoup échanger. Cela rend le développement indissociable du produit, et cela explique pourquoi le bon développeur doit être polyvalent et pourquoi il n’est pas pour autant interchangeable.

Exit les cahiers des charges, les études d’opportunités, les plans à 5 ans, qui prennent plus de temps à faire qu’à exécuter, et qui sont toujours faux.

Approche par petit pas, « Test & Learn », décentralisation et agilité ont fait leurs preuves. Quand on ne répartit plus le travail entre ouvriers spécialisés sous la supervision d’une planification globale centralisée, mais que l’on découpe les produits en fonctionnalités disjointes portées par des petites équipes pluridisciplinaires indépendantes, on va beaucoup, beaucoup plus vite.

L’entreprise Numérique : une vraie rupture

C’est tout cela qui constitue une entreprise « numérique » : réponses à des besoins anciens rendues faciles grâce au numérique, nouvelles offres, changement de business models, mais aussi et surtout culture ouverte, tournée vers l’innovation (coûts fixes puis coût marginal faible ou nul), vers la collecte de données, le partage, l’interconnexion et l’échange de données, l’agilité (« test and learn »).

Mais alors, pourquoi l’adoption de cette culture n’est-elle pas plus massive ? Sans doute parce que la séparation des rôles de décision et d’exécution est au cœur des organisations traditionnelles. Abdiquer d’un pouvoir central sur les produits et accepter de le remettre, même de façon partielle, entre les mains des artisans qui les fabriquent, est tout sauf naturel.

 

Yves Christol (VP Software Development – Orange)

Morand Studer (Partner – eleven)

 

[1] EDI: Echange de données informatisé, norme et systèmes permettant d’échanger des commandes par exemple.
[2] ETL : Extract, Transform & Load, système permettant de faciliter les interfaces
[3] API : Application Programming Interface, interface prévue dans un système pour permettre l’échange de données ou d’ordres
[4] En particulier sur le protocole HTTP et sur un modèle d’interface sans état (Rest)

Sur le même sujet

follow us

All rights reserved Eleven Strategy ©2024