Vendredi 27 août se tenait, dans le très bel écrin du Château Royal, une nouvelle conférence autour de l’intelligence artificielle en Nouvelle-Calédonie. Une nouvelle conférence ? Nos plus fidèles lecteurs auront compris que cette récurrence est ici induite en référence à une précédente table ronde, menée à la Chambre de Commerce et d’Industrie, déjà centrée autour de l’ « iA ». Un objet d’étude qui n’en finit donc plus de réunir et de susciter l’intérêt des pointures entrepreneuriales et administratives du pays. Premier motif de satisfaction : quatre chaises supplémentaires doivent être dépêchées tant la petite salle de conférence du Château est comble. Les anagrammes les plus sonnants et trébuchants du pays sont en effet de la partie : OPT, CCI, CPS, CSB, CAFAT, CIPAC, SF2I, UNC, … Du beau monde, donc.
__
Une introduction riche en données
Le conférencier du jour, Denis Peyrusaubes, béarnais d’origine et de coeur (on le comprend au nom de sa structure, Retengr, « savoir et retenir » en Occitan), prend la parole pour se présenter. Conseiller auprès de différents clients en métropole mais également formateur, Denis partage son temps entre la France et le Caillou.
La session débute sur un petit laïus d’introduction quant à la maitrise des données et au big data, à savoir ces masses colossales de données informatiques sur lesquelles reposent l’espoir d’une plus grande productivité pour leurs détenteurs. Objectif du jour : démystifier le monde de la donnée dans l’entreprise et, plus particulièrement, le lien qui devrait nécessairement exister entre big data et intelligence artificielle. Derrière tout cela, il s’agira surtout de tordre le cou à l’idée selon laquelle ces énormes volumes de données sont aujourd’hui un ticket d’entrée nécessaire pour entrer dans le jeu de la création de valeur en entreprises. Vaste programme.
Un rapide tour de salle est lancé autour d’une question simple :
Qu’est-ce qu’une donnée, et quelles sont celles que les conférenciers du jour manipulent au quotidien ?
Une question habilement éludée par la Calédonienne de Services Bancaires (CSB) et les autres financiers présents dans la salle. Premier enseignement : une donnée est à saisir dans son contexte, et la manipuler sur le plan technique est indissociable de sa compréhension et de son replacement dans un contexte. Il s’agit alors d’en apprécier les sources, la vitesse, la diversité, l’évolution dans le temps ainsi que le volume. Le « big data » repose justement sur une théorie dite des « 3V », à travers un volume, une vitesse et une variété de données proprement pharamineux.
Les bases sont posées. Manipuler, comprendre et replacer dans son contexte une donnée, tout cela est bien beau. Mais dans quel but ? Pour quel profit ? Cette angoisse quant à la finalité de notre sujet nous amène, dans le cadre de cette conférence, à une série de questions essentielles pour les acteurs réunis dans la salle : la création de nouveaux services ou de nouvelles sources de revenus liées aux données est-elle aujourd’hui indissociable de la détention de volumes de données colossaux ? Comment organiser une chaine de valeur à partir des données que l’on possède ? Quelles sont les nouvelles compétences à développer pour mettre en oeuvre ces nouvelles chaines de valeur ? Comment organiser un projet qui tourne autour de la data ? Nous avons quatre heures.
__
Intelligence artificielle et structuration de la donnée
A la suite de ce premier temps de parole, un invité manque toutefois encore et toujours à l’appel. Alors, quid de l’intelligence artificielle ? Car c’est bien dans la perspective de la valeur ajoutée promise par ce formidable outil que les invités du jour ont répondu présents. Denis Peyrusaub le sait, mais son postulat est limpide : sans maitrise de la donnée, l’intelligence artificielle n’est rien. La donnée est, à ce jour, la clef de voûte de l’amélioration de la performance des entreprises et des administrations contemporaines. Depuis quelques années, l’humanité produit plusieurs milliers de milliards de milliards de données numériques chaque semaine. En parallèle, l’intelligence artificielle occupe de plus en plus de place dans nos vies. Depuis Alan Turing et son magnifique « Computing Machinery and Intelligence », l’IA repose sur les techniques de « machine learning » et « deep learning » qui permettent aux machines d’apprendre par elle-mêmes pour devenir « pensantes ». Un apprentissage qui n’est pour le moment possible que grâce aux données fournies.
La présentation de D. Peyrusaub fait alors la part belle aux exemples les plus éloquents en matière de Big Data : les GAFAM. Amazon pour sa livraison prédictive sans commande, Netflix et son algorithme de recommandation, Facebook et son newsfeed… Ces grands acteurs de l’industrie ont bel et bien tiré grands profits de leurs volumes de données ahurissants. Mais ces volumes sont-ils vraiment un pré-requis pour créer de la valeur grâce à l’IA dans l’entreprise ?
Un constat est posé : les acteurs locaux réunis vendredi au Château Royal possèdent de la data. Est-il si rédhibitoire qu’elle ne soit pas « big » ? Pour toute réponse, le dernier temps de la conférence nous amène à envisager que, davantage que les volumes, vitesses et variétés de données disponibles, c’est bien leur maitrise et leur structuration qui leur permettront d’abord de se distinguer et d’améliorer leurs performances.
En atteste un petit jeu amusant autour des connaissances de la salle (en l’occurence, heureusement limitées) sur l’oeuvre de Victor Hugo. Deux participants se voient remettre des documents avec des volumes d’information (de données) différents : l’un se voit remettre l’intégralité des vingt-cinq pages Wikipedia consacrées à l’auteur des Misérables, l’autre une liste synthétique de ses oeuvres parues. A la question « combien de romans a-t-il publié ? », c’est évidemment la personne détentrice de la liste synthétique qui est la plus rapidement parvenue à répondre. Place à la Data Visualisation.
__
Data visualisation et data mining
Et c’est là tout l’enjeu pour les entreprises au moment de tirer profit de leur collecte de données : parvenir à les structurer et à les rendre pertinentes dans le contexte, afin de mieux en nourrir leur intelligence artificielle, et donc de mieux les utiliser pour créer de la valeur. C’est le principe selon lequel « une image vaut mille mots » et « un bon croquis vaut mieux qu’un long discours ». Si Napoléon Bonaparte et Confucius n’avaient pas d’ordinateur lorsqu’ils ont respectivement prononcé ces deux phrases, elles demeurent plus que jamais d’actualité face aux montagnes de données collectées en entreprise.
On parlera alors de « data visualisation », ou « dataviz » pour les intimes, pour qualifier un accès aux données rapides et aisément compréhensibles aux données disponibles. Alors que passer des heures à traiter des données à partir de tableaux Excel constituerait un motif de dépression pour n’importe qui (à l’exception peut-être des plus tordus d’entre nous), la dataviz vient mettre un terme à cette tâche désagréable. Un concept qui va de pair avec celui de « Data Mining », qui traduit une technique d’analyse approfondie des données pour en extraire de meilleures connaissances, de meilleurs modèles ou des informations clés. Et donc une plus grande maitrise de la donnée.
Ainsi, il serait illusoire de penser que l’intelligence artificielle pourrait précéder quelqu’un ayant la maitrise de la data. De quoi renverser la table quant à la crainte sempiternelle selon laquelle l’IA détruira le marché de l’emploi… Grand soupir de soulagement dans l’assemblée ! Blague à part, il apparait clairement ici que la structuration de la donnée est bien la pierre de touche du succès de l’IA et donc de l’amélioration de la performance induite pour l’entreprise. Notre conférencier est dithyrambique : Pas de Big Data, pas de panique ! Oeuvrer à cette structuration, en amont du développement de l’intelligence artificielle, doit représenter 80% du chemin parcouru par l’entreprise dans cette optique, là où le codage de l’IA finale ne compterait seulement que pour 20%.
Se pose alors la question de la création de valeur pour les entreprises du territoire. Que leur permettra l’accès à l’intelligence artificielle, une fois leurs données structurées ? Difficile de répondre à long terme, mais il demeure que l’IA est déjà présentement indissociable de leur activité, que ce soit en prédisant plus exactement les évolutions du marché pour le secteur bancaire ou en optimisant la consommation énergétique pour le secteur minier (entre autres exemples).
Si le Big Data n’a pas encore pénétré les arcanes économiques du Caillou, il demeure donc que la maitrise des données disponibles, à travers la dataviz ou la data mining, représente pour les entreprises du territoire une formidable opportunité à saisir.
__