Si nous n’avons pas encore détecté de civilisations extraterrestres, c’est peut-être parce qu’elles ont été détruites par une intelligence artificielle (IA) surpuissante, avance Michael Garrett, titulaire d’une chaire d’astrophysique à l’université de Manchester. Dans une récente publication dans le journal scientifique Acta Astronautica, Garrett émet l’hypothèse selon laquelle l’avènement d’une superintelligence artificielle (SIA) pourrait empêcher la survie à long terme des civilisations extraterrestres et empêcher leur évolution en “empires” interplanétaires.
Cette hypothèse serait également une réponse au moins partielle au paradoxe de Fermi, une théorie scientifique qui s’interroge sur l’absence de preuves de civilisations extraterrestres malgré l’immensité de l’Univers et l’abondance de mondes habitables. Garrett se demande ainsi si l’IA pourrait même être le “grand filtre” de l’Univers, un obstacle si difficile à surmonter qu’il empêcherait la plupart des formes de vie de devenir des civilisations capables de voyager dans l’espace.
Selon Garrett, une SIA surpasserait les capacités humaines et serait capable de s’améliorer à un rythme bien plus rapide que notre propre évolution. Les risques associés à cette situation sont immenses. Si les systèmes d’IA prenaient le contrôle des capacités militaires, les guerres qu’ils mèneraient pourraient anéantir notre civilisation. Garrett estime que la longévité typique d’une civilisation technologique pourrait être inférieure à 100 ans, période entre notre capacité à recevoir et émettre des signaux interstellaires (1960) et l’émergence prévue de la SIA sur Terre (2040).
Cette proposition n’est qu’une des nombreuses réponses possibles au paradoxe de Fermi. Il se peut également que l’Univers soit trop vaste, que l’intelligence soit trop rare ou que les échelles de temps soient trop gigantesques pour que les civilisations se rencontrent.
Cependant, cela ne doit pas minimiser les risques posés par l’IA, même si ceux-ci semblent actuellement relativement modérés. Garrett appelle ainsi à des régulations strictes sur le développement de l’IA, notamment en ce qui concerne son intégration dans les systèmes militaires. Il cite l’exemple d’Israël utilisant l’IA pour identifier des cibles de frappes aériennes à Gaza.
Garrett souligne qu’il existe déjà des preuves que les humains sont prêts à céder un pouvoir significatif à des systèmes de plus en plus capables, car ils accomplissent des tâches utiles plus rapidement et efficacement sans intervention humaine. Cela nous rapproche dangereusement d’un point où les armes autonomes pourraient fonctionner au-delà des limites éthiques et contourner le droit international.
À voir aussi sur Konbini