Comment demander aux gens des choses autres que leur santé peut conduire à une meilleure santé
May 10, 2023Les porte-serviettes en papier ont une fonction de stockage secrète, et TikTok est furieux de ne pas le savoir plus tôt
May 09, 2023Trois clés pour célébrer plus efficacement
Apr 22, 202327 offres pour la fête des pères 2023 : achetez des cadeaux pour papa
Sep 09, 2023Pour sauver la nature, concentrez-vous sur les populations, pas sur les espèces
May 18, 2023Papier prétend que l'IA peut être une civilisation
Si des extraterrestres sont là-bas, pourquoi ne nous ont-ils pas encore contactés ? Il se peut, selon un nouvel article, qu'ils – ou, à l'avenir, nous – soyons inévitablement anéantis par une intelligence artificielle ultra-forte, victimes de notre propre volonté de créer un être supérieur.
Cette réponse potentielle au paradoxe de Fermi — dans laquelle le physicien Enrico Fermi et les générations suivantes posent la question : « où est tout le monde ? – vient du chercheur de la National Intelligence University, Mark M. Bailey, qui, dans un nouvel article qui n'a pas encore été évalué par des pairs, postule que l'IA avancée pourrait être exactement le type de risque catastrophique qui pourrait anéantir des civilisations entières.
Bailey cite l'IA surhumaine comme un "grand filtre" potentiel, une réponse potentielle au paradoxe de Fermi dans lequel une menace terrible et inconnue, artificielle ou naturelle, anéantit la vie intelligente avant qu'elle ne puisse entrer en contact avec les autres.
"Pour toute personne concernée par le risque catastrophique mondial, une question qui donne à réfléchir demeure", écrit Bailey. "Le Grand Filtre est-il dans notre passé, ou est-ce un défi que nous devons encore surmonter ?"
Nous, les humains, note le chercheur, sommes "terribles pour estimer intuitivement le risque à long terme", et compte tenu du nombre d'avertissements déjà émis à propos de l'IA - et de son point final potentiel, une intelligence générale artificielle ou AGI - il est possible, soutient-il, que nous pouvons convoquer notre propre disparition.
"Une façon d'examiner le problème de l'IA est à travers le prisme de l'argument de la deuxième espèce", poursuit l'article. "Cette idée envisage la possibilité que l'IA avancée se comporte effectivement comme une deuxième espèce intelligente avec laquelle nous partagerons inévitablement cette planète. Compte tenu de la façon dont les choses se sont passées la dernière fois que cela s'est produit - lorsque les humains modernes et les Néandertaliens ont coexisté - les résultats potentiels sont sombres."
Encore plus effrayant, note Bailey, est la perspective d'une superintelligence artificielle (ASI) quasi divine, dans laquelle une AGI surpasse l'intelligence humaine parce que "toute IA qui peut améliorer son propre code serait probablement motivée à le faire".
"Dans ce scénario, les humains abandonneraient leur position d'espèce intelligente dominante sur la planète avec des conséquences potentiellement désastreuses", émet l'hypothèse de l'auteur. "Comme les Néandertaliens, notre contrôle sur notre avenir, et même sur notre existence même, peut prendre fin avec l'introduction d'un concurrent plus intelligent."
Il n'y a bien sûr pas encore eu de preuves directes suggérant que les IA extraterrestres ont anéanti la vie naturelle dans toutes les civilisations extraterrestres, bien que, selon Bailey, "la découverte d'une intelligence extraterrestre artificielle sans preuve concurrente d'une intelligence biologique préexistante serait bougez certainement l'aiguille."
La possibilité, bien sûr, soulève la possibilité qu'il y ait des IA destructrices persistantes dans l'univers après avoir éliminé leurs créateurs. À cette fin, Bailey suggère utilement que "signaler activement notre existence d'une manière détectable à une telle IA extraterrestre peut ne pas être dans notre meilleur intérêt" car "toute IA extraterrestre compétitive peut être encline à rechercher des ressources ailleurs, y compris sur Terre".
"Bien que cela puisse ressembler à de la science-fiction, il est probable qu'une technologie incontrôlable... comme l'IA serait un candidat probable pour le Grand Filtre - qu'elle soit organique pour notre planète ou d'origine extraterrestre", conclut Bailey. « Nous devons nous demander ; comment nous préparons-nous à cette possibilité ? »
Lecteur, c'est bizarre - mais encore une fois, nous sommes heureux que quelqu'un y réfléchisse.
En savoir plus sur une apocalypse d'IA :Warren Buffett compare l'IA à la bombe atomique
En savoir plus sur une apocalypse d'IA :