Singularité technologique

Un article de Wikipédia, l'encyclopédie libre.

La Singularité technologique (ou simplement la Singularité) est un concept, selon lequel, à partir d'un point hypothétique de son évolution technologique, la civilisation humaine sera dépassée par les machines - au-delà de ce point, le progrès n’est plus l’œuvre que d’intelligences artificielles, elles-mêmes en constante progression. Il induit des changements tels sur l'environnement que l’Homme d’avant la Singularité ne peut ni les appréhender ni les prédire de manière fiable.

Cet évènement est ainsi nommé par analogie avec l’impuissance de la physique moderne à proximité de la singularité gravitationnelle d'un trou noir.

Lorsqu’on les représente sur un graphe logarithmique, 15 listes différentes d’événements de l'histoire humaine montreraient une tendance exponentielle. Listes préparées entre autres par Carl Sagan, Paul D. Boyer, Encyclopædia Britannica, American Museum of Natural History et l’Université de l’Arizona, compilées par Ray Kurzweil.
Lorsqu’on les représente sur un graphe logarithmique, 15 listes différentes d’événements de l'histoire humaine montreraient une tendance exponentielle. Listes préparées entre autres par Carl Sagan, Paul D. Boyer, Encyclopædia Britannica, American Museum of Natural History et l’Université de l’Arizona, compilées par Ray Kurzweil.

De telles conséquences ont été débattues dans les années 1960 par I. J. Good (voir l’article Intelligence artificielle). Selon Ray Kurzweil[1], cette notion de Singularité technologique aurait été introduite par John von Neumann dans les années 1950[2]. La Singularité a acquis une certaine popularité dans les années 1980 grâce à Vernor Vinge. La venue éventuelle et la date de la Singularité sont sujets à débat, mais les futurologues l’attendent en général pour la troisième décennie du XXIe siècle.

D’autres, notamment Raymond Kurzweil, ont proposé des théories étendant la loi de Moore à des formes de calcul autres qu’informatique, qui suggèrent que les phases de croissance exponentielle du progrès technologique feraient partie de motifs visibles à travers toute l’histoire humaine et même avant l’apparition de la vie sur Terre. D’après Kurzweil, ce motif aboutit au XXIe siècle à un progrès technologique inimaginable.

Les hypothèses relatives à la Singularité sont régulièrement critiquées pour leur manque de solidité scientifique. Theodore Modis rappelle par exemple[3] qu'une courbe exponentielle ne débouche sur aucune singularité, mais continue à croître à l'infini. Douglas Hofstadter se montre lui aussi très critique, craignant que cette idée n'exprime en fait qu'un voeu pieux[4].

Sommaire

[modifier] Émergence du concept

Même s’il est communément admis que le concept de Singularité s’est développé au cours des deux dernières décennies du XXe siècle, l’origine du terme remonte en fait aux années 1950 :

« L’une des conversations avait pour sujet l’accélération constante du progrès technologique et des changements du mode de vie humain, qui semble nous rapprocher d’une singularité fondamentale de l’histoire de l’évolution de l’espèce, au-delà de laquelle l’activité humaine, telle que nous la connaissons, ne pourrait se poursuivre. »Stanislaw Ulam, mai 1958, au sujet d’une conversation avec John von Neumann.

Cette citation fut à plusieurs reprises extraite de son contexte et attribuée à John von Neumann lui-même, probablement du fait de sa réputation et de son influence.

En 1965, Irving John Good décrit un concept de singularité plus proche de son acception actuelle, dans le sens où il inclut l’arrivée d’intelligences artificielles qui prennent le relais (bootstrap) :

« Mettons qu’une machine supra-intelligente soit une machine capable dans tous les domaines d’activités intellectuelles de grandement surpasser un humain, aussi brillant soit-il. Comme la conception de telles machines est l’une de ces activités intellectuelles, une machine supra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans conteste une “explosion d’intelligence”, et l’intelligence humaine serait très vite dépassée. Ainsi, l’invention de la première machine supra-intelligente est la dernière invention que l’Homme ait besoin de réaliser. »

Le terme de singularité ne désigne pas une croissance devenant infinie à l'instar d'une singularité mathématique, mais représente le fait que les modèles prédictifs existants ne sont plus appropriés à sa proximité, de la même façon que les modèles physiques actuels ne sont plus adaptés au voisinage d’une singularité gravitationnelle.

[modifier] La singularité vingienne

Le concept de Singularité technologique est dû en partie au mathématicien et auteur Vernor Vinge[5]. Vinge a commencé à parler de la singularité dans les années 1980 et a formulé ses idées dans son premier article sur le sujet en 1993 : l’essai Technological Singularity (en). Il y postule que, d’ici trente ans, l’humanité aurait les moyens de créer une intelligence surhumaine mettant un terme à l’ère humaine. Depuis, la singularité a été le sujet de nombreuses nouvelles et essais futuristes.

Vinge écrit que des intelligences surhumaines, créées par des humains aux capacités augmentées cybernétiquement ou par d'autres intelligences artificielles moins développées, seraient capables d’améliorer leurs propres capacités plus efficacement que les esprits humains les ayant conçues. Ainsi, une spirale de progrès de plus en plus rapide amènerait à des progrès technologiques très importants en une courte période de temps.

La Singularité peut être vue comme la fin de la civilisation humaine et le début d’une nouvelle. Dans son œuvre, Vinge s’interroge sur les raisons de la fin de l’ère humaine et soutient que les humains pourraient s'organiser pendant la Singularité en une forme supérieure d’intelligence. Après la création de cette intelligence surhumaine, les humains isolés ne seraient plus, d’après Vinge, que des formes de vie ayant une moindre influence sur le développement du monde.

[modifier] Critique des singularistes

Plusieurs auteurs sont très critiques à l'endroit de la notion de singularité, notamment telle que développée par Ray Kurzweil. Theodore Modis écrit ainsi : « What I want to say is that Kurzweil and the singularitarians are indulging in some sort of para-science, which differs from real science in matters of methodology and rigor. They tend to overlook rigorous scientific practices such as focusing on natural laws, giving precise definitions, verifying the data meticulously, and estimating the uncertainties. [...] Kurzweil and the singularitarians are more believers than they are scientists »[3]. De son côté, Ted Gordon met également en doute les thèses de Kurzweil : « Kurzweil makes an impressive argument about the acceleration of change. He uses many exponential growth curves, primarily drawn from electronics, nano-technology and computers, but including Internet and biology. He shows similar growth in real US GDP and GDP per capita. He also uses as one major source work by Modis on the shortening time between paradigm shifts.8 He argues for the acceleration of the past rate of acceleration and by implication the inevitability that this momentum will carry on. However, extrapolation in any guise is dangerous and ultimately bound to be wrong »[3].

Drew McDermott, sans être aussi sévère, s'inquiète des conséquences de ce genre de littérature pour les recherches en Intelligence Articielle : « Although I don’t think Kurzweil has proved his case about AI (and I have had nothing to say about his arguments on genetics, nanotechnology, politics, or ecology), he may be right. But right or wrong, I wish he would stop writing these books! The field of AI is periodically plagued by “hype hurricanes” that seem to surge up from the slightest perturbation »[6].

D'autres auteurs, sans critiquer directement la notion de Singularité, remettent en question l'idée d'accélération technologique. C'est par exemple le cas de Jonathan Huebner, qui écrit en conclusion de son article que « the evidence presented indicates that the rate of innovation reached a peak over a hundred years ago and is now in decline. This decline is most likely due to an economic limit of technology or a limit of the human brain that we are approaching. We are now approximately 85% of the way to this limit, and the pace of technological development will diminish with each passing year »[7]. De telles analyses se retrouvent également chez Bob Seidensticker[8] ou chez David Bodanis[9].

Plus simplement, on peut se rappeler que les singularités prévues en histoire de la physique (effondrement de l'atome de Bohr, catastrophe de l'ultraviolet...) n'ont jamais été observées, mais ont conduit plus simplement à un changement de modèle à leur voisinage.

[modifier] Voir aussi

[modifier] Bibliographie

[modifier] Liens internes

[modifier] Liens externes

[modifier] Notes et références

  1. Ray Kurzweil, The Singularity is Near, Ed. Viking, 2005, p. 10
  2. Kurzweil appuie son propos en rapportant une citation apocryphe de Von Neuman, qui selon l'explication que donne Kurzweil (dans la 3ème note du premier chapitre de son livre The singularity is Near) serait une paraphrase de Von Neuman par Stanislaw Ulam dans "Tribute to John Von Neuman". Bulletin of the American Mathematical Society 64.3, pt. 2 (May 1958). Von Neuman aurait ainsi dit, selon Ulam : « The ever accelerating process of technology [...] gives the appearance of approaching some essential singularity. (La rapidité toujours croissante des technologies nous donne l'impression d'approcher une singularité essentielle. » Comme le relève Theodore Modis (dans Technological Forecasting & Social Change 73 (2006) 95–127), ces propos signalent plus une illusion qu'un phénomène réel, ce qui s'éloigne de l'interprétation que donne Kurzweil de la citation de Von Neuman.
  3. abc Technological Forecasting & Social Change 73 (2006) 95–127
  4. http://tal.forum2.org/hofstadter_interview
  5. Voir les romans Un feu sur l'abîme, Au tréfonds du ciel et La Captive du temps perdu.
  6. D. McDermott, Kurzweil’s argument for the success of AI, Artificial Intelligence 170 (2006) 1227–1233
  7. Jonathan Huebner, A possible declining trend for worldwide innovation, Technological Forecasting & Social Change 72 (2005) 980–986
  8. Bob Seidensticker, Future Hype: The Myths of Technology Change, Berrett-Koehler Publishers, Inc., 2006
  9. David Bodanis, Slow Forward, Is the speed of technological change an illusion? Discover, Vol. 27 No. 06, June 2006.