Gwendal Bihan, Axionable : « Il faut donner du sens à l’Intelligence Artificielle durable »

Lorsque l’on évoque les dangers de l’Intelligence Artificielle, on imagine un scénario apocalyptique où une IA centrale prendrait le contrôle de l’humanité avec le piratage des voitures autonomes,

Article paru dans TheGood.fr

Lorsque l’on évoque les dangers de l’Intelligence Artificielle, on imagine un scénario apocalyptique où une IA centrale prendrait le contrôle de l’humanité avec le piratage des voitures autonomes, le hacking de drones et des infox (deepfake) pour manipuler des élections. Pour faire face à ces nouveaux risques, les entreprises s’agitent pour innover et surtout démontrer que leurs choix technologiques comme celui de l’IA ne vont pas nuire à leur image ou leur employabilité et vont permettre une transition sociale, écologique et solidaire de leurs activités. Entretien avec Gwendal Bihan, fondateur d’Axionable sur la question. 

En février dernier, la Commission Européenne présentait sa stratégie pour une approche éthique de l’Intelligence artificielle (IA). Décryptée dans le livre blanc de l’IA, elle avait donné les grandes exigences essentielles notamment sur le bien-être sociétal et environnemental. « Nous voulons que l’application de ces nouvelles technologies soit digne de la confiance de nos citoyens. Nous encourageons une approche responsable de l’IA, centrée sur l’Homme », insistait la présidente, Ursula von der Leyen.

Persuadé qu’il faut bâtir un monde plus durable, Gwendal Bihan Directeur Général et co-fondateur d’Axionable le spécialiste en Intelligence Artificielle durable et responsable veut réconcilier l’intelligence artificielle, tout à la fois porteuse de craintes et d’espoir et la vague de la responsabilité sociale et environnementale, synonyme de sortie de crise post-Covid. Sa mission est d’assister les entreprises dans la création de valeur durable en utilisant l’IA de manière responsable, avec un impact positif et mesurable. Explications en interview.

The Good : Pouvez-vous nous expliquer précisément la différence entre IA et IA durable ?

Gwendal Bihan : La différence est dans la finalité de l’utilisation de l’intelligence artificielle. l’IA durable vise à avoir un impact positif sur la planète et utiliser la technologie comme par exemple au service de la transition éco-énergétique.

The Good : En quoi la puissance de l’IA peut-elle être mise au service de l’environnement, de la transition énergétique ou de la lutte contre le dérèglement climatique ?

G.B. : Les cas d’applications sont quasi infinis et il y en a encore beaucoup qui vont émerger. On peut citer l’optimisation des réseaux logistiques, des réseaux électriques, des réseaux de gaz qui in fine permettent de réduire l’empreinte carbone, la décarbonation des chaînes logistiques. Par exemple dans la prévention des risques, l’IA durable permet à un assureur d’être en mesure d’anticiper les catastrophes naturelles et de le faire de façon beaucoup plus précise dans le temps et dans la localisation géographique. Dans le domaine de la finance responsable, l’IA permet une plus grande précision dans l’évaluation des actifs ou des actions sur leur caractère durable.

The Good : En quoi l’IA durable peut-elle aider les entreprises et les investisseurs ESG à mieux orienter leur stratégie RSE ? 

G.B. : On parle souvent d’analyste ESG augmentée. Au sein d’un gestionnaire d’actifs d’une banque de financement, l’analyste ESG va regarder à la loupe le caractère durable d’un actif ou d’un investissement donné. Cela signifie beaucoup d’analyses quantitatives (en milliers de documents) sur la base des rapports extra financiers, les notations des différentes agences, les données publiques venant de la commission européenne ou celle de l’OCDE. C’est un terrain de jeu pour l’IA pour automatiser des tâches répétitives, éviter les risques d’erreurs et surtout et aussi d’être un peu plus prédictif en créant des notations impossibles à faire à la main. L’IA complète vraiment bien le travail des équipes d’analystes ESG et permet des scores plus précis et plus profond sur des critères qui sont encore mal couverts comme par exemple l’impact positif ou l’impact sur la biodiversité.

The Good : Avez-vous d’autres exemples concrets à nous donner sur les bénéfices de l’IA durable ?

G.B. : Dans le domaine de la chimie, c’est par exemple d’être en mesure d’augmenter le travail de l’éco-conception des produits et l’identification des procédés industriels, des molécules, et des brevets industriels qui soient le plus durables possibles. Dans le secteur du bâtiment, l’IA durable permet d’être dans l’anticipation pour la rénovation d’une infrastructure. Elle est capable de prédire les risques de vagues de chaleur ou les inondations pour des sites industriels qui ont par exemple besoin d’eau pour se refroidir et qui peuvent être des données particulièrement importantes.

The Good : Pouvez-vous nous parler du Collectif Impact IA que vous allez piloter dans les prochaines semaines, ses ambitions et votre rôle ? 

G.B. : Le Collectif Impact IA est un collectif d’actions et de réflexion qui existe depuis 2 ans. C’est aujourd’hui 70 membres qui fédèrent un écosystème très divers et très riche : à la fois des grands groupes et des start-up mais aussi des entreprises de services du numérique (ESN), des acteurs de l’ESS (Économie Sociale et Solidaire) avec une volonté commune de développer une pratique responsable et durable de l’Intelligence Artificielle.

J’ai la chance de faire partie du conseil d’administration de ce collectif pour les deux prochaines années. Les actions concrètes du Collectif Impact IA sont de publier des documents de références ludiques et didactiques auprès des entreprises, mais aussi des pouvoirs publics avec la publication de baromètres, de livres blancs, et de boîtes à outils sur l’IA responsable. Ce collectif est très actif dans le domaine de la formation avec des webinars gratuits et le partage de catalogues de formation. C’est un super véhicule pour développer une IA durable et responsable de façon collective, même avec des entreprises concurrentes mais qui partagent cet intérêt commun.

The Good : Envisagez-vous de lancer un nouveau label IA durable et responsable ? 

G.B. : Les pratiques de l’IA sont déjà bien balisées sur les principes généraux comme L’OCDE et la Commission Européenne qui ont publiés les grands principes. Un de nos grands enjeux pour les prochaines années sera de passer des grands principes à une déclinaison très opérationnelle utile pour les entreprises.

Une fois qu’on a dit qu’un algorithme ne doit pas être raciste, doit être robuste et précautionneux de la vie privée des utilisateurs, comment cela doit-il se traduire très concrètement dans les solutions ? Notre rôle est d’apporter de la réassurance, de la preuve, et bien sur récompenser les bonnes pratiques de l’IA. Dans l’écosystème de l’IA en France et en Europe émerge l’idée d’un label ou certificat. Il y a déjà des premiers référentiels qui existent sur certains domaines de l’IA responsable.

Le chantier du label ou du certificat est un sujet que le collectif IA regarde de très près. Nous réfléchissons à une déclinaison opérationnelle en s’appuyant sur une méthodologie robuste mais surtout beaucoup plus lisible de la part de toutes les parties prenantes en s’inspirant, par exemple, des initiatives dans le bâtiment ou la nutrition qui utilisent des scores et couleurs lisibles et simples.

C’est un chantier qui prend du temps dès qu’on rentre dans des déclinaisons plus opérationnelles. Il faut se mettre d’accord avec des cas d’usage qui sont différents d’une entreprise à l’autre. Nous envisageons la création de ce label à l’horizon 2021.

De vraies ressources dans votre boite mail

MADE BY ZOG.MA

CERTIFIED BY DIGITAL.GREEN