Comment redonner confiance en l'intelligence artificielle ?

INTERVIEW. Après une percée dans le grand public, l'intelligence artificielle est-elle assez mûre pour pouvoir lui faire confiance ? Le lancement d'une nouvelle chaire de l'Université de Bordeaux sur « L'IA digne de confiance » laisse entendre que non, alors que la robotique, les entreprises et l'industrie en attendent plus pour l'intégrer dans leurs process. Entretien avec Laurent Simon, professeur en informatique et porteur de la chaire.
Laurent Simon est professeur de l'Université de Bordeaux, en charge du département informatique de l'école d'ingénieurs Enseirb-Matmeca.
Laurent Simon est professeur de l'Université de Bordeaux, en charge du département informatique de l'école d'ingénieurs Enseirb-Matmeca. (Crédits : Université de Bordeaux)

LA TRIBUNE - Vous portez une nouvelle chaire de l'Université de Bordeaux autour de « L'IA digne de confiance ». Après la percée de ChatGPT, est-ce le signe d'une crise de confiance autour de l'IA ?

Laurent SIMON - La confiance est là quand on sait utiliser l'outil et quand l'outil ne dépasse pas ce pourquoi il a été créé. ChatGPT c'est un outil qui n'est pas conçu pour la confiance, pour dire du vrai. Il produit du texte qui a l'air vrai. Les chercheurs en IA ont confiance en lui parce qu'ils comprennent ce qu'il fait. Par contre, il ne faut pas l'utiliser pour écrire un texte si on est étudiant parce qu'il commettra peut-être des erreurs factuelles, ou pour faire des recommandations médicales. Là, il n'a absolument aucune idée des retentissements ! Ça pose tout un tas de problèmes, notamment pour l'empêcher de produire du texte dangereux, biaisé ou raciste par exemple.

ChatGPT est très précautionneux : dès qu'il détecte que la conversation part dans un mauvais sens, il prend énormément de pincettes pour éviter d'aller dans des mauvaises directions. Mais il y a une impossibilité structurelle à empêcher ces systèmes de produire du texte nocif. On aimerait bien qu'ils ne puissent pas produire un texte biaisé sur le genre, qui reproduit des biais ethniques, racistes ou des recommandations suicidaires, illégales. Ça demande un changement très profond du système et on ne sait pas dans quelle direction aller. Avec la chaire, on a pour but de comprendre comment garder la précision de ces systèmes tout en essayant de garantir les propriétés.

Lire aussiDes experts, dont le créateur de ChatGPT, alertent sur les dangers de l'IA contre l'humanité

L'IA doit apporter des transformations dans le monde économique, dans l'industrie notamment. Est-elle assez mûre par rapport aux attentes de fiabilité ?

Le monde économique et professionnel ne demande pas que ça, il demande aussi le respect de la légalité des citations par exemple. Les entreprises sont un peu bloquées : le texte de ChatGPT respecte-t-il le droit en termes de droits d'auteur ? ChatGPT ne prend pas la responsabilité de ses propos, c'est ça le problème. Une société est-elle prête à mettre en jeu sa responsabilité pour libérer du temps à son personnel ? Encore une fois, on a aucune idée de comment obtenir des garanties. Mais là où ChatGPT va être très bon, c'est pour les choses qui ne sont pas dramatiques : un échange de mail pour planifier une réunion par exemple ou pour résumer une visio d'une heure. Si c'est un outil qui communique avec le client en revanche, il faut absolument vérifier qu'il ne dise pas de fausses informations.

On se dirige plutôt vers une assistance que vers une IA qui va produire une valeur ajoutée...

Cette IA va accélérer la production de l'intelligence. Le salarié équipé de cet outil passera moins de temps sur la forme, sur le bon mot à choisir, l'IA sera là pour l'aider à rédiger. Par contre, très clairement, aujourd'hui on ne voit pas comment on peut complètement donner les clés à l'IA pour gérer des échanges. Elles sont basées sur un corpus de textes, issu d'Internet, et jusqu'à présent ce texte a été produit par des humains. Si maintenant ce texte est produit par des machines, les systèmes de demain vont s'entraîner sur des données qu'ils ont eux-mêmes produit. Il a été démontré que cela devrait statistiquement mener à l'appauvrissement des langues en éliminant les subtilités.

De même qu'il y a eu de l'innovation en peinture avec l'arrivée de la photographie, on peut s'attendre à de l'innovation dans l'écriture avec l'arrivée de ChatGPT. C'est une démocratisation de l'écrivain public. Ça fait un peu peur, on ne sait pas ce qu'il va se passer mais, pour l'instant, on a encore les clés.

Comment les chercheurs vivent-ils cette percée de l'IA dans le grand public ?

Le domaine de l'IA lui-même est impacté, il opère un changement en sortant des labos. Les outils développés jusqu'à maintenant n'ont pas été conçus pour tous les usages. Ils ont été conçus pour être précis : si on veut reconnaître des chatons, on va mesurer le pourcentage de réussite de l'outil. Mais maintenant on s'aperçoit que ce n'est pas ce que demande le public car il attend de la confiance. Le public dit : « Moi ce qui m'intéresse ce n'est pas qu'il reconnaisse des chatons à 99 %, c'est qu'il soit capable de m'expliquer pourquoi c'est un chaton. » L'appropriation de ces outils par le public revient dans les labos, en changeant les thèmes et les axes de recherche prioritaires.

Lire aussiAirudit, ce « ChatGPT de la voix » qui signe avec Dassault, Thales et Solvay

Quels sont les liens entre IA et robotique ?

L'IA et la robotique sont deux sujets très connectés. Mais la robotique a des problèmes du monde réel, que n'a pas l'IA. C'est un grand paradoxe de la robotique et de l'intelligence artificielle. Si dans les années 1960 on demandait à un chercheur qu'est-ce qui serait fait en premier : une IA qui marche ou qui serait championne du monde de go ? Il aurait dit « le plus simple c'est la marche ! » Les IA sont très fortes sur des mondes mathématiques qui sont absolument incroyables, c'est ça qui a changé la donne. Les robots c'est vraiment la chose qui marche et qui ne marche pas, on n'a toujours pas un assistant robot qui vient repasser le linge à la maison...

Mais le jour où la question technologique sera résolue, il se posera la question de l'acceptabilité d'avoir des robots physiques dans nos vies, surtout dans un pays comme la France.

L'acceptabilité c'est un problème mais avoir une IA qui débarrasse la table, ce serait chouette. On ne sait pas le faire et encore une fois cette IA aurait une connaissance du monde, une idée du bon sens, c'est quelque chose qui est encore hors d'atteinte malgré les succès énormes. Mais là où l'IA va jouer un rôle avec la robotique, c'est qu'elle est capable de produire des stratégies grâce à l'apprentissage automatique, notamment pour des choses sur lesquelles on n'a pas d'introspection : si j'essaye de décrire comment mes muscles fonctionnent pour la marche, j'en suis incapable. L'IA va construire une boîte qui va permettre de déclencher les muscles sans que moi je sache comment ça fonctionne. L'apprentissage automatique change la donne sur cette robotique là.

Lire aussiRobotique : « La France a du mal à déployer des champions sur des marchés industriels »

Que manque-t-il aujourd'hui à l'IA pour résoudre le sujet des décisions critiques ?

Dès qu'on cherche à déployer l'IA, on sort de la science-fiction et on n'a plus cette question de l'IA qui mime un humain moyen. On ne veut pas quelque chose de moyen, on veut quelque chose de prouvé. Il manque encore la confiance, dans toute sa généralité : la façon dont on stocke les données par exemple. Il y a aussi la question de l'acceptabilité avec un facteur humain très important, il faut que les utilisateurs acceptent le remplacement d'un humain par une IA dans certains domaines, en médecine par exemple ou dans les usines. Comment on fait pour que l'humain collabore et comprenne les décisions de l'IA ? Il faut que l'IA arrive à lui résumer ce qu'elle est en train de faire et se mette au niveau de l'humain. C'est un problème sur lequel toute la communauté travaille. C'était un des ingrédients qui manquait à l'IA car jusqu'à présent elle était dans les labos. Pour que les usages se répandent, il faut ajouter ces ingrédients et ce sont des bouleversements scientifiques très profonds.

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 07/07/2023 à 8:57
Signaler
"c'est un outil qui n'est pas conçu pour la confiance," C'est faux puisque produit marchand d'abord et avant tout ses propriétaires l'ont conçu afin que les gens lui fassent confiance, c'est dans son fonctionnement et du coup l'objectif désigné par s...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.