Pionnier de l’IA en France depuis les années 80, Patrick Albert intervient au festival Futur en Seine pour parler éthique et progrès.
À voir aussi sur Konbini
C’est désormais une certitude : l’intelligence artificielle est bientôt parmi nous. Si, en 2016, les progrès effectués semblent encore nous cantonner au Moyen-Âge de l’ère des machines conscientes, les progrès sont exponentiels. Et les menaces sociétales, elles aussi, sont bien réelles.
À l’occasion du festival Futur en Seine, qui se tient du 9 au 19 juin dans différents lieux parisiens – demandez le programme ! –, nous avons rencontré l’un de ses conférenciers, Patrick Albert, chercheur en intelligence artificielle, membre de l’Association française pour l’intelligence artificielle (AFIA), fondateur du Centre d’études avancées d’IBM France et l’un des pionniers français dans le domaine.
Entre enjeux éthiques, technologiques, politiques mais aussi métaphysiques et anthropologiques, la venue de l’intelligence artificielle s’apprête à secouer toutes les fondations de la société contemporaine et à en redéfinir radicalement certains contours. Première prise de contact avec la révolution qui s’annonce.
Konbini | Aujourd’hui, les “réseaux neuronaux” sont là, des algorithmes Facebook au projet Magenta de Google, en passant par les assistants vocaux type Siri. L’intelligence artificielle a-t-elle déjà transformé l’humanité ?
Patrick Albert | Transformer, on n’en est pas encore là. Pour l’instant, on est dans l’utilisation de l’intelligence artificielle (IA) pour faciliter des choses qu’on ne sait pas faire autrement. On est à un stade assez soft. Le plus pertinent, aujourd’hui, c’est l’algorithme de classement du flux de Facebook.
Depuis DeepBlue et Watson, beaucoup de chemin a été parcouru. AlphaGo a gagné, le test de Turing a été franchi… Pensez-vous que deep learning a mis un coup de fouet à la progression de l’IA ?
Ce qu’il s’est passé, c’est qu’il y a eu une phase de plateau, pendant laquelle les technologies étaient mûres et se sont déployées, en silence. A l’époque, il ne fallait pas dire que l’on faisait de l’IA, ça faisait fantaisiste, les gens n’y croyaient pas, ça faisait rigolo qui bricole des trucs dans son coin !
“Je ne vois pas de limites à la progression de l’IA”
En parallèle, il y a eu une rupture sur l’apprentissage [des machines, le “machine learning”, ndlr]. Les gens qui travaillent dessus se sont cassé les dents pendant quelques décennies, puis un bouchon a sauté : les algorithmes de deep learning se sont mis à réellement fonctionner une fois intégrés aux processeurs graphiques (GPU).
L’autre aspect, c’est le Web, qui a offert des données disponibles à foison. Et pour apprendre, il faut des données. Une fois lancé, ce qu’il y a de bien avec l’apprentissage, c’est qu’il peut s’appliquer à lui-même, et ça accélère.
A partir de quel moment pourra-t-on réellement parler d’IA, au sens de “singularité”, ce concept théorisé par Ray Kurzweil qui évoque l’émergence d’une conscience artificielle supérieure à la nôtre ?
Ça, franchement, personne n’en sait rien. Ray Kurzweil est intéressant à écouter, mais son histoire de singularité, ça n’a rien de scientifique. Mon opinion, c’est que je ne vois pas de limites à la progression de l’IA. Les deux seuls points d’interrogation que j’ai, ce sont les émotions et la conscience. Sur le fait qu’une machine puisse intégrer un environnement et prendre de meilleures décisions qu’un être humain, je n’ai pas d’inquiétudes. Même si c’est difficile de dire quand, je pense que ça va se produire.
Pensez-vous que l’on pourra assister à l’émergence de quelque chose de radicalement nouveau dans cette génération ?
Oui, je pense que c’est l’affaire de quelques dizaines d’années.
Quels sont, selon vous, les obstacles les plus importants à la construction d’une IA ?
Il y a un truc qui résiste depuis longtemps, c’est le sens commun. C’est quelque chose que l’on a hérité de notre capital génétique et que l’on apprend en interagissant avec l’environnement : on tire une table avec quelque chose dessus, on se doute que le truc va rester dessus sauf si on tire très fort.
Pour l’instant, c’est difficile à définir et à enseigner [à une machine]. Il y a aussi l’apprentissage non supervisé, c’est-à-dire apprendre simplement grâce à son environnement et en tirer les bonnes conclusions. Ça démarre, mais il y a de gros progrès à faire.
Comme par exemple avec Tay, le chatbot de Microsoft qui a viré raciste et xénophobe sur Twitter ?
Oui, par exemple. Là, c’est parti en vrille. Mais c’est un avertissement intéressant : un truc qui apprend, ça apprend ce qu’on lui donne.
Comme un enfant en bas âge ?
Oui, voilà. L’apprentissage inclut les biais du système qui fait apprendre. On a l’image de l’informatique objective, basée sur les maths, mais elle devient de plus en plus subjective.
“La question cachée derrière l’IA, c’est : qu’est-ce qu’un être humain ?”
Quels sont, aujourd’hui, les travaux les plus intéressants et novateurs dans le monde pour le développement de l’IA ?
Les trucs les plus intéressants, c’est sur la créativité. Par exemple à Paris, le Sony Research Lab a créé un système qui apprend des styles musicaux en les écoutant, et compose ensuite des morceaux originaux dans un style donné. C’est vraiment une étude sur la création, et c’est bluffant : j’ai entendu un truc à la manière des Beatles, c’est super bien fait !
Ce qui est intéressant avec la créativité, c’est qu’on se demande où les humains peuvent être meilleurs. Et la question cachée derrière, c’est : “Qu’est-ce que c’est qu’un être humain ?”. Ça nous pousse dans nos retranchements. Et si on intègre l’IA à la robotique, on dérive vers l’émergence de compagnons robotiques.
Cette perspective est-elle envisageable ?
C’est même déjà envisagé, des tas de gens travaillent dessus. Si un robot sait comprendre les émotions humaines et les manifester, est-ce que le travail est fini ou existe-t-il réellement des émotions ?
Vous faites référence à l’affective computing, l’émergence d’une conscience émotionnelle. L’émotion est-elle traduisible en langage mathématique ?
On s’aperçoit que les émotions humaines ne sont pas des modèles mathématiques très compliqués. Avec des systèmes de vision qui savent reconnaître ce qu’il se passe sur un visage, interpréter des postures, on commence à savoir repérer l’état émotionnel d’un humain.
Si en plus de ça on peut le toucher, mesurer l’humidité de la peau, les battements du cœur, etc… On est cramés ! Ici, on touche à un débat philosophique sur le côté qualitatif des émotions, les qualia. Faut-il plus que quelques variables informatiques pour avoir une émotion ?
Vous avez signé avec 700 chefs d’entreprise et scientifiques une lettre ouverte pour mettre en garde contre les “pièges” de l’IA. Est-ce que la société est en train de réaliser qu’il faut réfléchir en termes éthiques ?
L’empreinte sociale de l’IA va être très forte dans différents domaines et il faut s’en préoccuper. Par ailleurs, il y a des projets de domination mondiale des méga-groupes de l’internet, dont Google et Facebook, et ces groupes travaillent main dans la main avec l’armée et le gouvernement américains. Du point de vue de notre souveraineté et de notre indépendance nationale, on a besoin de réagir au niveau français sous peine d’être sérieusement provincialisés.
L’image que je projette, c’est le Plan calcul de De Gaulle, dans l’après-guerre, qui visait à créer la bombe atomique française pour être indépendant des Américains. Ça a été des investissements colossaux, via notamment le CNRS, avec des retombées extraordinaires et, in fine, la bombe atomique. Même si je ne pense pas que ce soit un gros progrès, ça nous a rendus indépendants des Américains.
“Il faut davantage de transparence”
Comme la maîtrise de l’atome à l’époque, l’IA est un enjeu stratégique national. En France, il faut beaucoup plus coordonner la recherche, ça manque d’un projet global, d’une vision et de moyens.
Doit-on dès maintenant mettre en place des systèmes de régulation et de contrôle de l’IA ?
Oui, c’est certain. Il y a un mot que j’aime bien, c’est “algocratie”, qui décrit bien le phénomène : de plus en plus de parties de nos existences sont contrôlées, dirigées et régulées par des algorithmes. Les algorithmes de trading à haute fréquence, par exemple, sont de plus en plus autonomes. Ils prennent des tas de décisions d’achat et de vente qui, à la fin, peuvent déclencher des crises colossales. Il y a aussi l’algorithme qui va décider d’où votre enfant ira à l’école…
Bref, ça n’arrête pas. Et soit les gens qui les font savent ce qu’il y a dedans et ne veulent pas le dire, soit, quand il y a beaucoup d’apprentissage, ils finissent par ne plus le savoir. Il faut davantage de transparence.
Comment on fait, alors, pour garder la mainmise sur ces algorithmes ?
Pour l’instant, on ne sait pas le faire. C’est un véritable enjeu à la fois de recherche et de volonté.
Comment ça, on ne sait pas le faire ?
Une bonne partie de ces algorithmes est créée par des boîtes privées, qui les voient comme un avantage compétitif et refusent de les dévoiler en invoquant le secret industriel. On assiste à une vraie lutte entre la société et ces méga-groupes.
Ensuite, le problème technique avec les algorithmes d’apprentissage, c’est qu’ils apprennent des distributions de probabilités. La plupart des trucs qui marchent bien maintenant produisent des modèles statistiques, et ça marche très bien, mais un humain ne comprend pas ça !
“La technologie et la société sont désynchronisées”
Un style musical, par exemple, c’est une chaîne de probabilités de jouer telle ou telle note. Mais nous, les humains, on passe par une représentation symbolique, soit du langage courant, soit des maths. On oscille entre les deux, et c’est ce qu’on sait communiquer aux autres. Un des enjeux, c’est de transformer ces machins-là, les modèles d’apprentissage, en quelque chose de compréhensible pour l’humain, et on ne sait pas bien le faire.
C’est un peu inquiétant, quand même…
En termes démocratiques, c’est inquiétant. L’enjeu actuel, à mon avis, c’est de savoir si la maîtrise de ces technologies doit être confiée à des comités d’experts, qui sont de toute façon biaisés, ou placée dans un débat démocratique. Il faut que les gens comprennent ce que c’est, quels en sont les impacts et comment on le gère. Ce ne sont pas des comités d’éthique.
Mais il faudra bien leur inculquer quelque chose, à ces IA. Est-ce qu’on leur inculque la démocratie, le libéralisme, le communisme, l’anarchisme… ?
On crée des IA libertaires, c’est le seul modèle qui nous sauvera ! L’éthique, dans ce domaine, est un sujet de recherche récent. Il y a une petite prise de conscience, très timide, de la communauté. Mais donner de l’éthique à une machine, on ne sait pas ce que ça veut dire. Il n’y a pas de réponse. La technologie avance à sa vitesse, la société à la sienne, le problème c’est qu’elles sont désynchronisées. Je place ça comme un enjeu fondamental de souveraineté du peuple.
Quelles sont à votre avis les erreurs à ne pas commettre, dans les vingt ou trente prochaines années, pour accompagner le développement de l’IA ?
L’erreur principale serait de commencer trop tard à se poser les questions dont on vient de discuter. La deuxième erreur serait de demander des réponses à un comité d’experts et non pas au peuple souverain. Et qui m’intéresse, c’est que les gens deviennent compétents sur le sujet, parce que l’impact sur l’emploi va être énorme. Depuis que je fais de l’IA, je vois qu’on remplace de plus en plus des gens par des machines, sur des problèmes de plus en plus compliqués. Et cette dynamique est en train de s’accélérer.