-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

mercredi 20 mars 2013

Qu'est-ce que la Singularité Technologique?

La Singularité technologique, ou simplement «singularité» est un concept à multiples facettes dans le futurisme avec plusieurs définitions qui se chevauchent et parfois contradictoires. La définition la plus appropriée et importante de la Singularité a été donnée par Vernor Vinge dans son essai, The Singularity venant technologique. Il se réfère à l'endroit où l'intelligence surhumaine est créé technologiquement. Ces intelligences surhumaines pourraient ensuite appliquer leur intelligence et leur expertise à la tâche de créer supplémentaire ou plus puissant surhumaine intelligences, résultant en un effet boule de neige avec des conséquences au-delà de notre capacité actuelle d'imaginer.

Le terme «singularité technologique» a été inventé par analogie à la singularité au centre d'un trou noir, où les forces de la nature deviennent si intenses et imprévisibles que notre capacité à calculer le comportement de la matière dans ces circonstances tombe à zéro. Souvent mentionnée en lien avec l'idée d'intelligence surhumaine dans les dialogues Singularity est la notion de l'accélération du changement technologique. Certains ont fait valoir que la pente de l'augmentation des progrès technologiques, il aboutira à une asymptote, semblable visuellement à une singularité mathématique

Toutefois, cette notion de singularité n'est pas le même que Vinge prévu; référant à l'émergence d'une intelligence surhumaine, avec des vitesses surhumaines pensée. (Y compris intelligence, la capacité de comprendre et de créer des concepts, transformer les données en théories, faire des analogies, faire preuve de créativité, et ainsi de suite.) Bien que la création d'intelligences surhumaines supplémentaire surhumaine intelligences en effet conduire à l'accélération du progrès technologique, le progrès devient pas infinie, dans le sens où une singularité mathématique ne le suggèrent.

Parce que intelligences surhumaines, par définition, être plus intelligent que n'importe quel être humain, notre capacité à prévoir ce qu'ils seraient capables d'un certain laps de temps, de la matière ou d'énergie, sont peu susceptibles d'être précis. Une intelligence surhumaine pourrait être en mesure de concevoir un supercalculateur fonctionnement de composants bon marché et facilement disponibles, ou développer les nanotechnologies à part entière avec rien mais un microscope à force atomique. Parce que la capacité d'une intelligence surhumaine pour concevoir et fabriquer des gadgets technologiques serait rapidement surpasser les efforts des ingénieurs de l'homme, d'une intelligence surhumaine pourrait très bien être la dernière invention que l’humanité ne doit jamais faire. En raison de leur génie surhumain et les technologies dont ils pourraient développer rapidement, les actions des intelligences qui sortent d'une Singularité technologique pourrait se traduire soit par l'extinction ou la libération de notre espèce, en fonction de l'attitude de la plus puissante intelligence surhumaine envers les êtres humains.

Oxford philosophe Nick Bostrom, directeur du futur de l'humanité Oxford Institute et l'Organisation mondiale transhumaniste, soutient que la façon dont les humains traitent les intelligences surhumaines dépendra de leurs motivations initiales au moment de leur création. Une intelligence surhumaine genre serait, en voulant préserver sa gentillesse, genre engendrent (ou kinder) versions de lui-même comme la spirale d'auto-amélioration continue. Le résultat pourrait être un paradis dans lequel les intelligences surhumaines résoudre les problèmes du monde et d'offrir des renseignements d'amélioration consensuelle pour les êtres humains. D'autre part, une intelligence malicieuse ou indifférent surhumaine serait susceptible de produire plus de la même, ce qui entraîne notre destruction accidentelle ou délibérée. Pour ces raisons, la Singularité technologique pourrait être le jalon le plus important de notre espèce pourra jamais affronter.

Plusieurs chemins à l'intelligence surhumaine ont été proposés par les analystes et les défenseurs de Singularity. La première est IA, Intelligence ou d'amplification, en prenant un être humain existant et la transformant en un non-humain étant par neurochirurgie, interface cerveau-ordinateur, ou peut-être même le cerveau du cerveau interfaçage. L'autre est l'IA, ou l'intelligence artificielle, la création d'un système dynamique cognitive surpassant l'homme dans sa capacité à former des théories et manipuler la réalité. Lorsque l'une de ces technologies atteignent le seuil de sophistication nécessaire pour produire intelligence surhumaine est incertaine, mais une variété d'experts, y compris Bostrom, citer les dates dans l'intervalle 2010-2030 que probable.

Parce que la Singularité peut être plus proche que beaucoup ne le supposent, et parce que les motivations initiales de la première intelligence surhumaine peuvent déterminer le sort de l'espèce humaine, certains philosophes-militants ("Singularitarians") voir la Singularité non seulement comme un sujet de spéculation et discussion, mais comme une objective ingénierie pratique que des progrès significatifs peuvent être accomplis en vue à l'époque actuelle. Ainsi, en 2000, le Singularity Institute for Artificial Intelligence a été fondé par Eliezer Yudkowsky de travailler exclusivement vers cet objectif.