Une étude a confronté les avis de millions de personnes.
À voir aussi sur Konbini
C’est une chose à peu près enracinée dans les esprits : pour rendre harmonieuse la cohabitation homme/machine, il faut, dès à présent, réfléchir aux outils permettant d’injecter de l’éthique dans l’intelligence artificielle (IA).
Les dilemmes moraux ne manquent pas. Quel type de hasard faut-il dans l’IA d’un site de rencontres ? Veut-on des robots autonomes tueurs (spoiler : l’ONU ne veut pas) ? Comment éviter à tout prix les biais algorithmiques ?
Pour plancher sur cette liste de questions sans fin, il y a de nombreux experts (comme ceux du Future of Life Institute) et, plus rarement, le reste du monde. En 2016, le MIT a lancé une étude à la portée internationale. Des millions de personnes se sont prononcées sur cette question cruciale : en cas de dilemme absolu, quelle catégorie de personnes une voiture autonome doit-elle sauver en priorité ?
40 millions de réponses émanant de 233 pays ont été recueillies. Les conclusions de cette étude, baptisée “The Moral Machine Experiment”, viennent d’être publiés dans la revue Nature, et The Verge nous en rapporte la substantifique moelle.
Plusieurs critères ont été soumis au vote : faut-il sauver en priorité les jeunes ? Les vieux ? Les hommes ? Les femmes ? Les individus isolés ? Les groupes ? Les piétons en tort ? Les animaux ? Les personnes favorisées ? Défavorisées ? Etc.
L’étude a permis de mettre au jour deux observations.
D’un côté, des constantes. Les peuples du monde entier sont d’accord sur le fait qu’il vaut mieux épargner un humain qu’un animal (mauvaise nouvelle pour les hérissons). Autre consensus : il vaut mieux sauver les groupes les plus nombreux. Enfin, et c’était moins gagné d’avance, il vaut mieux sacrifier un vieux plutôt qu’un jeune.
D’un autre côté et de manière moins évidente, les chercheurs ont constaté des disparités de réponses selon les régions du monde et les pays étudiés. En Chine, au Japon et en Arabie Saoudite par exemple, l’idée de sauver les jeunes allait moins de soi. Dans les pays en développement, on était moins réticent à sacrifier un piéton en tort plutôt qu’un autre dans son bon droit (l’histoire ne nous donne pas plus de détails sur le cas très épineux des piétons français).
Une conclusion s’impose : les critères universellement acceptés devraient servir de base de travail aux futurs encadrements législatifs. Pour l’instant, rappelle The Verge, c’est la boîte noire à tous les étages : les constructeurs de voitures autonomes, qui pratiquent déjà des tests avec leurs prototypes, communiquent très peu sur les comportements moraux de leurs algorithmes.
À l’échelle étatique, seule l’Allemagne s’est dotée d’un outil législatif, en 2017. Il ne concerne pas que les voitures 100 % autonomes, mais aussi les véhicules mixtes pouvant alterner conduite artificielle et conduite humaine.
Voici quelques unes des règles :
- Donner la priorité absolue à la préservation des vies humaines.
- L’IA n’a pas le droit de choisir en fonction des “qualités” de l’humain (âge, sexe, ou tout autre aspect physique).
- Définir de manière claire et identifiable qui conduit, de l’homme ou de la machine.
- Sauvegarder l’historique de la conduite en cas d’accident.
Si l’étude du MIT pose des bases précieuses pour définir la moralité des voitures autonomes, gardons-nous de la transformer en étalon absolu : seuls des individus un minimum “connectés” ont participé à ce sondage qui, dans ses choix de réponse, ne comportait pas de nuances.