"Il ne tient qu'à nous de définir l'IA que nous voulons en Europe" (Eneric Lopez, Microsoft)

 |   |  1557  mots
Eneric Lopez est le directeur intelligence artificielle et développeurs de Microsoft en France.
Eneric Lopez est le directeur intelligence artificielle et développeurs de Microsoft en France. (Crédits : Microsoft)
Alors que la Commission européenne présente sa stratégie en matière de numérique et d'intelligence artificielle, La Tribune a interrogé Eneric Lopez, le directeur IA et développeurs de Microsoft en France, sur les contours de cette intelligence artificielle européenne qui veut combiner éthique et innovation. Reconnaissance faciale, partage des données, impact carbone et appropriation de l'IA par les TPE/PME, les interrogations sont multiples.

LA TRIBUNE - Alors que la Commission européenne présente aujourd'hui sa stratégie en matière de numérique et d'intelligence artificielle, comment se positionne la France, et plus largement l'Europe, en matière d'IA ?

ENERIC LOPEZ - Après les systèmes d'enregistrement et les systèmes d'engagement, on est entré dans l'ère des systèmes intelligents qui sont éminemment transformationnels. L'intelligence artificielle est une forme de stade ultime de ces nouveaux systèmes technologiques et nous sommes persuadés, chez Microsoft, que la France, et plus largement l'Europe, peuvent figurer dans le top 5 mondial en matière d'IA, être l'un des très grands acteurs de l'IA. Mais il ne faut pas se tromper de direction. Par exemple, Microsoft est une entreprise dont le seul business model est de permettre à chacun de réaliser son potentiel grâce aux outils numériques et à l'intelligence artificielle. On n'a donc aucun modèle de monétisation de la donnée.

Quelles sont les forces de la France et l'Union européenne en la matière ?

Il y a un nombre incroyable de chercheurs, enseignants et scientifiques et un grand nombre de startups investies dans ce sujet, le tout avec des valeurs d'éthiques chevillées au corps, sujet le lequel la France et l'Europe sont des leaders d'opinion. Si les TPE, PME et grands groupes français et européens s'accaparent réellement ces sujets liés à l'IA, alors l'Europe construira l'innovation qu'elle souhaite et ne se laissera pas dicter la direction à suivre par les Américains ou les Chinois. Ces derniers considèrent à raison que l'Union européenne est un marché premium réunissant plus de 500 millions de consommateurs à fort pouvoir d'achat. Ils regardent donc ce gâteau avec intérêt et il ne tient qu'à nous de définir et d'imposer l'IA et l'innovation que l'on désire et pas celles qui nous soient imposées. Il ne tient qu'à nous de faire prévaloir notre vision française et européenne de l'IA en termes de respect de la vie privée, de la réglementation de l'usage de nos données personnelles et de l'encadrement des outils de reconnaissance facile par exemple.

Le sujet n'est pas tant d'avoir un nouveau Google ou Facebook français ou européen mais de faire en sorte que nos économies locales et régionales, nos organisations, nos entreprises, nos collectivités adoptent les utilisations de l'IA.

Et pour cela, dans le sillage du rapport Villani et du discours d'Emmanuel Macron sur l'IA et l'éthique, il faut accélérer très vite sur ces sujets d'innovation, d'IA et d'impact sociétal. De notre côté, chez Microsoft, à notre petite échelle, en seulement 18 mois, nous avons déjà déployé treize écoles de formation à l'intelligence artificielle, un collectif Impact AI pour travailler sur un IA responsable, on travaille avec les écosystèmes locaux pour déployer l'IA dans les filières agricoles, la mobilité, l'énergie, l'environnement, etc.

Lire aussi : Microsoft déploie son Ecole IA avec Simplon ainsi qu'un laboratoire à la Cité numérique

Cette préoccupation éthique n'est-elle pas une différenciation par défaut, faute de pouvoir rivaliser dans la course technologique avec les Etats-Unis et la Chine ?

Non, ce n'est pas mon avis. En revanche, il faut bien avoir en tête que la technologie avance beaucoup plus vite que la réglementation et que cela pose de très grosses questions. Quand nous avons créé un comité d'éthique chez Microsoft pour bâtir une IA responsable et ne pas répondre à certains appels d'offre, on a ouvert ces réflexions à tous nos partenaires et clients. De même, on est intimement persuadé qu'il faut réguler très rapidement les usages de la reconnaissance faciale parce que la technologie elle est là et elle fonctionne très bien, partout dans le monde ! Après, chacun en fait un usage en fonction de sa culture et de ce qu'il a envie d'en faire. La Chine fait primer le "bien commun" sur la vie privée mais nous, en Europe et en Occident, nous avons un autre message à porter.

Cette question de la réglementation risque-t-elle d'être un frein à l'innovation en Europe puisque les données sont précisément la matière première de l'IA ?

Nous sommes favorables à une réglementation des usages des données personnelles et de l'IA, notamment de la reconnaissance faciale, pour ne pas faire n'importe quoi ! C'est une position claire de Microsoft défendue par notre numéro 2 Brad Smith mais c'est un sujet complexe car il faut en effet placer le curseur au bon endroit. Pour entraîner des algorithmes, il faut de la donnée, c'est indispensable, mais toutes les données ne sont pas personnelles, loin de là ! Pour des applications dans le contrôle qualité industriel, dans la maintenance prédictive ou dans l'agriculture, par exemple, on peut utiliser des données non personnelles.

En ce qui concerne la donnée personnelle, il va falloir définir laquelle est strictement personnelle et ne doit pas être utilisée ; laquelle relève de la santé et doit faire l'objet d'une anonymisation, d'un stockage et d'une utilisation bien spécifiques ; laquelle nécessité d'être encryptée avant d'être utilisée.

Quelle sont les pistes de développement en la matière ?

Il ne s'agit pas d'anonymisation. Il y a des avancées sur les technologies d'encryptage homomorphe. Cela revient à crypter un jeu de données qui devient illisible mais qui peut quand même être utilisé pour des calculs et faire tourner des algorithmes. Le résultat est, lui-aussi, crypté et seul le client final dispose des clefs pour le décrypter et lire le résultat sans avoir accès aux données utilisées pour le générer. Ce sont des sujets d'avenir où l'on continue d'avancer.

Thierry Breton souhaite poser un cadre éthique clair tout en poussant des champions industriels européens. Est-il possible d'avancer simultanément sur ces deux sujets critiques ?

En tous cas on y travaille ! Avec d'autres entreprises comme Orange ou Thales, nous avons soumis aux équipes de la Commission européenne des cas d'usage qui ont é été passés au tamis de leurs projets de réglementation pour voir si c'est un cadre efficace et réaliste. Maintenant, il y a un sujet éthique qu'il faut traiter, c'est évident, mais il ne faut pas non plus se tromper de bataille en oubliant le sujet de l'innovation. En matière d'IA, ce sont les modèles algorithmiques développés qui sont intéressants, ce sont eux qui font la différence. Par exemple, la centralisation des données de santé en France n'a pas d'équivalent et on doit trouver un cadre permettant à la fois de préserver la vie privée et de les utiliser pour développer des solutions innovantes. C'est aussi vrai en matière écologique, environnementale, énergétique, etc. : il faut arriver à poser un cadre clair pour libérer ces jeux de données à l'échelle de la France et de l'Europe !

Pour nourrir l'innovation, il ne suffit pas de libérer les données mais aussi de les partager...

Oui, tout à fait. Je suis convaincu qu'il faut raisonner par filière économique en associant toutes les parties prenantes tout au long de la chaîne de production car chacune possède une partie des données et c'est le croisement de toutes ces pièces du puzzle qui permet l'innovation. Cela passe par de l'open data mais aussi par la mise en commun de données propres. Je prends l'image du thé : si vous êtes quatre avec chacun un sachet de thé différent et que vous les faites infuser ensemble : vous obtiendrez un thé qu'aucun de vous n'aurait pu élaboré seul ! Mais ça ne vous empêche pas de récupérer ensuite votre propre sachet de thé. Pour favoriser ces partages de données entre des acteurs parfois très différents, nous mettons à dispositions sur GitHub des modèles de contrat permettant de cadrer juridiquement ces partages de données afin que chaque partie s'y retrouve et soit sécurisée.

La multiplication des capteurs et des jeux de données alimente aussi le sujet de l'impact énergétique des acteurs et des usages du numérique. Comment Microsoft se positionne sur ce sujet ?

Nous avons annoncé en janvier dernier un positionnement très clair et très ambitieux sur ce sujet. Microsoft vise une empreinte carbone globale négative d'ici 2030 et l'élimination, d'ici 2050, de tout ce que l'entreprise, ses fournisseurs et ses consommateurs, ont émis dans l'atmosphère depuis sa création en 1975 ! Cela passera par une alimentation à 100 % issue des énergies renouvelables dans tous nos centres de données, bâtiments et campus d'ici à 2025 et par l'application de notre "taxe carbone interne" créée en 2012 à toute notre chaîne d'approvisionnement et de valeur. Nous allons enfin investir un milliard de dollars dans un fonds d'innovation pour le climat dans le but de développer les technologies de réduction, de capture et d'élimination du carbone ! Nous publierons chaque année un rapport présentant en détail notre empreinte carbone ainsi que notre cheminement pour la réduire.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 20/02/2020 à 11:56 :
Moins on a d'intelligence et plus elle est artificielle, on cherche toujours un but a un pédalage dans la semoule!

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :