À l’heure où l’intelligence artificielle cherche de nouvelles pistes à explorer, nous avons rencontré Yann LeCun, directeur de la recherche en IA chez Facebook.
À voir aussi sur Konbini
Yann LeCun est ce que l’on appelle un vétéran. Depuis près de trente ans et ses premières recherches sur l’apprentissage automatique à l’université Pierre-et-Marie-Curie, le chercheur français a été de tous les combats de l’intelligence artificielle moderne, prêchant la parole des méthodes d’apprentissage profond (deep learning) et automatique (machine learning) dans les années 1990-2000, tant dans la recherche universitaire (à l’université de Toronto puis à celle de New York), que dans le secteur privé.
Créateur en 2013 du premier laboratoire du Facebook Artificial Intelligence Research (Fair) de New York, puis celui de Paris deux ans plus tard, il est désormais responsable de la recherche en IA chez Facebook. L’interlocuteur idéal pour confronter le pragmatisme de la recherche aux mythes qui entourent le développement des machines intelligentes et explorer des pistes de réflexion autour du biais algorithmique. Nous l’avons rencontré alors qu’il était de passage en France en mai dernier, à l’occasion du festival VivaTech.
Konbini | Vous faites partie des plus réalistes en ce qui concerne le potentiel de l’IA. Vous dites qu’elle n’est pas près d’égaler l’être humain, que son intelligence n’excède pas celle d’un rat… Pensez-vous que l’engouement actuel autour de l’IA est plus le fruit d’un pari industriel que de réelles avancées en la matière ?
Yann LeCun | Il y a eu des progrès réels. C’est vers 2010-2011 qu’on a obtenu des résultats qui ont complètement changé l’avis de ceux qui s’intéressaient à ces applications, en recherche académique et dans l’industrie. L’industrie a plus rapidement saisi la balle au bond que la recherche académique, qui a une certaine inertie. Google, Facebook, Baidu et les autres ont vu les opportunités et se sont jetées dessus très rapidement en investissant massivement.
Et puis il y a eu les progrès technologiques dans les méthodes, les algorithmes, la puissance des machines et la taille des bases de données disponibles pour les entraîner. Ces progrès réels, dans des applications pratiques qu’on voit tous les jours, ont conduit des compagnies comme Facebook et Google à se réorganiser complètement autour de l’IA. On n’a peut-être pas l’impression, quand on va sur le site bleu, qu’il y a beaucoup d’IA, mais c’est vraiment central.
Mais effectivement, les possibilités des systèmes d’IA à l’heure actuelle sont très étroites. On peut entraîner une machine à reconnaître des images, elle ne fera que ça. Si on l’entraîne à jouer au jeu de go, elle ne fera que jouer au go… Si on change la taille de l’échiquier, il faut entraîner à nouveau la machine. Il n’y a pas d’abstraction vraie d’une compétence à une autre. On peut œuvrer à développer des machines qui détectent des tumeurs dans des images médicales, qui conduisent des voitures… Mais c’est très étroit. Ce qu’on ne sait pas faire, c’est des machines qui apprennent par elles-mêmes en observant le monde et qui acquièrent un certain bon sens à la manière des animaux et des humains. Il y a plus de bon sens dans un rat ou dans un chat que dans n’importe quel système.
Vous êtes donc d’accord pour dire que la prochaine étape à franchir est de développer des modèles prédictifs efficaces, à la manière de l’être humain. Comment peut-on y parvenir ? Faut-il remettre en cause les architectures actuelles ?
Il faut remettre en cause les paradigmes d’apprentissage. Pour l’instant, on a deux paradigmes : l’apprentissage supervisé et l’apprentissage par renforcement. En supervisé, on veut entraîner une machine à reconnaîtrepar exemple des avions, voitures, chiens ou chats. On lui montre une voiture : si elle dit que ce n’est pas une voiture, on lui dit « tu t’es trompée, voilà la réponse correcte », et elle ajuste ses paramètres internes. Ça, ça nécessite de collecter des données étiquetées par des humains. Ça coûte cher, et on ne peut pas le faire pour tout.
Mais vous avez Instagram maintenant.
Sur Instagram, les photos sont étiquetées, mais avec des hashtags. Et les hashtags, c’est pas très fiable, finalement. Mais cette méthode marche quand même très bien. On a battu les records de précision sur ImageNet en pré-entraînant nos machines sur la base de données Instagram de 3 milliards d’images étiquetées avec des hashtags. Ce qu’on voudrait, ce serait de pouvoir entraîner un système à reconnaître les images indépendamment de la tâche qu’on veut faire, même sans utiliser de hashtags. Un des principes sur lequel on se base, c’est la prédiction : on montre un petit morceau de vidéo à un système et on lui demande de prédire ce qu’il va se passer. Le système doit comprendre que des objets bougent indépendamment, que le monde est tridimensionnel, etc. Il va devoir élaborer une représentation interne du monde. Ça, c’est de l’apprentissage non supervisé : il n’y a pas de données produites par des humains qui interviennent pour dire à la machine quoi répondre.
Vous êtes en train de modifier les architectures, mais pas de les changer fondamentalement.
Les architectures sont toujours les mêmes – des réseaux convolutifs, récurrents, du deep learning. La question, c’est celle des critères d’entraînement qu’on utilise. Et elle est critique si on veut entraîner une machine à prédire le futur. Par exemple, vous prenez un stylo, vous le mettez à la verticale sur une table, vous le lâchez, vous ne pouvez pas prédire dans quelle direction il va tomber. [Il le fait] Et c’est très difficile d’entraîner un système d’apprentissage quand il n’y a pas une seule réponse correcte. On est obligé de lui dire « voilà toutes les réponses correctes », et on ne sait pas très bien le faire. Voilà sur quoi se concentrent les recherches : prédire des données de haute dimension (images, vidéos) en présence d’incertitude.
Comment, selon vous, peut-on résoudre le problème du biais de perception algorithmique et de l’éthique des machines, quand on sait que des algorithmes sont déjà utilisés dans le système judiciaire américain ?
C’est un problème vraiment important, mais pas aussi compliqué qu’on ne le pense. Les systèmes biaisés dont on a entendu parler, comme le système COMPAS aux États-Unis censé prédire la récidive, le sont car les données sur lesquelles on les a entraînés sont biaisées. Il faut bien comprendre que les algorithmes eux-mêmes ne sont pas biaisés, les données le sont. Les algorithmes sont génériques. Le biais intervient quand les données, ou le codage de ces données, sont fournies au système d’apprentissage. On peut coder les données avec un biais implicite, ça ne signifie pas que les entreprises sont racistes. Quand on entraîne un système de reconnaissance de visage, par exemple, ça marche moins bien sur les personnes à la peau plus sombre.
Comment vous l’expliquez ?
Sur la population américaine, par exemple, il y a 10 % de gens d’origine africaine, et peut-être un peu plus de personnes qui ont la peau sombre, toutes origines confondues. À cause de ça, les systèmes ne marcheront pas aussi bien que sur des gens à la peau claire. Il y a aussi moins de contraste dans les images, ce qui rend la reconnaissance plus difficile. Il faut s’assurer que les données sont construites de manière à ce que ce genre de biais soit évité. Comment s’assurer qu’elles ne le sont pas ? Il y a des bêtises à ne pas faire, et ça ne date pas de l’IA mais des méthodes statistiques d’il y a 20 ou 30 ans. Il faudrait établir des standards, des lignes de conduite.
Des organismes indépendants qui vérifieraient le comportement de ces systèmes avant leur mise sur le marché ?
Par exemple. Et d’autre part, obliger certaines applications à être ouvertes, pour qu’on puisse inspecter comment ça marche. J’ai œuvré dans un groupe, Partnership on AI, qui regroupe des industriels, des ONG, pour réfléchir de manière ouverte à ces questions, avoir de débats qu’il n’y a pas dans les bureaux de Google, Facebook, Microsoft ou IBM. Ce sont des questions importantes. Il faut que la technologie soit là pour aider l’humanité.
Dans ses différentes auditions, Mark Zuckerberg a réfuté le terme de monopole. N’êtes-vous pas inquiet de la concentration de l’innovation technologique ? Vous publiez, certes, vos travaux en open source, mais vous savez qu’il sera très difficile pour les organismes de recherche publique de mettre en application ces travaux, car ils n’ont ni vos moyens financiers, ni vos bases de données.
Ce n’est pas vrai. Il y a plusieurs mythes et légendes là-dedans. On publie nos travaux dans des articles – on les met sur ArXiv, c’est disponible pour tout le monde gratuitement –, ça accélère le processus de brassage des idées et de l’information. La raison pour laquelle on fait ça, c’est que construire des machines intelligentes n’est pas un problème technologique, c’est un problème scientifique, probablement un des plus grands défis scientifiques des années à venir, et ce n’est pas un problème qu’une compagnie, si puissante soit-elle, peut résoudre seule. C’est pour ça qu’on travaille en partenariat avec la recherche universitaire, la recherche publique et même certains de nos compétiteurs. Je vais peut-être vous surprendre en disant ça, mais la majorité des bonnes idées vient de l’université, pas des entreprises. Les applications, oui. Une bonne idée est proposée dans la recherche publique et reprise par l’industrie, qui la fait fonctionner : c’est comme ça que ça doit marcher. On voit ça relativement souvent.
Qu’est-ce que, selon vous, les différentes représentations de l’IA à la télévision (Westworld, Ex Machina, Altered Carbon, Blade Runner) disent des peurs et des enjeux qu’elle représente ?
Il y a beaucoup de représentations de l’IA à l’écran, et parfois les gens oublient que c’en est. Dans Star Wars, C3PO, par exemple, est un robot semi-intelligent et plutôt inoffensif. Pareil pour R2D2. Il y a une autre image, que je trouve plus réaliste et intéressante, c’est dans le film Her de Spike Jonze, qui met en scène une relation entre une personne et une entité intelligente. Bon, on n’a pas du tout la technologie qui permet ce genre de chose et ça n’arrivera pas avant plusieurs décennies, mais c’est une représentation qui n’est pas complètement irréaliste de l’interaction entre l’IA et les gens.
Par contre, les scénarios à la Terminator et autres, véhiculés par Hollywood, dans lesquels un scientifique de génie, aussi riche soit-il, pourrait découvrir le secret de l’IA et construire un robot qui d’un seul coup s’échappe et domine la planète… Il y a tout un tas d’idées fausses là-dedans. D’abord, c’est impossible que quelqu’un d’isolé puisse faire ça, ça demande la totalité de la communauté de recherche mondiale. Ce n’est pas une invention qui aura lieu dans le sous-sol d’un adolescent en Slovénie ou ailleurs. Il n’y a pas de secret qui reste secret très longtemps. Il n’y a pas de compagnie ou de labo majeur de recherche dans le monde qui soit en avance de plus de six mois sur les autres dans un domaine particulier.
Il n’y a pas d’opacité ?
Il y a très peu d’opacité parce que les gens bougent, et ce qui fait la qualité – et la carrière — d’un chercheur, c’est son impact intellectuel. Si vous dites à un chercheur « venez travailler pour nous, mais vous ne pourrez pas parler de ce que vous faites », vous n’allez pas attirer les meilleurs. C’est pour ça que des compagnies secrètes comme Apple ou Amazon ont un peu de mal. Les informations ne peuvent pas rester secrètes.
L’autre problème, c’est celui de l’IA malfaisante par défaut. La seule expérience qu’on a d’entité intelligente, ce sont les autres humains, donc on présuppose qu’une entité intelligente aura les mêmes qualités et défauts que les humains. Mais la raison pour laquelle l’humain veut dominer les autres, c’est parce que nous sommes des animaux sociaux. Pour survivre ou se placer dans la société, il faut avoir une influence sur les autres. Mais ça, c’est inversement corrélé à l’intelligence : plus on est intelligent, moins on a besoin des autres pour survivre. La volonté de dominer n’est pas liée à l’intelligence, elle est liée à la testostérone. Il n’y a aucune raison pour qu’on construise nos robots avec ce désir d’influencer d’autres entités. Leurs pulsions de base seraient plutôt d’amplifier l’intelligence humaine, pas de la remplacer, de travailler de pair avec les humains, d’avoir des valeurs morales alignées sur celles des humains, etc. Si on veut construire des machines maléfiques, ce sera prémédité.