La technologie évolue, et elle le fait aussi et surtout à une vitesse exponentielle. L'humanité serait ainsi très proche du moment où les technologies comme l'IA atteindront un point d'explosion tel que l'homme ne pourra suivre : c'est ce qui s'appelle la théorie du point de singularité technologique. Passé ce point de singularité technologique, on ne sait pas ce qui peut arriver.
Les plus optimistes parlent d'un âge d'or où même la mort pourrait être vaincue, d'autres au contraire y voient la disparition de l'humanité. Les premières estimations prévoyaient l'arrivée de ce point dans la deuxième moitié du XXIe siècle, mais il pourrait survenir bien plus tôt au vu de ce qui a été déjà fait pendant les 15 premières années de ce siècle.

Tous les commentaires (75)
Merci Mme Irma, nous voilà rassurés. Voyez-vous autre chose dans votre boule de cristal?
Ton commentaire n a ni queue ni tête, se contredis et ne veux rien dire... de plus pour ta culture général la définition sapiens sapiens n existe plus depuis un moment déjà (nous sommes tous ses Homo sapiens).
Ce n'est absolument pas le cas, tu ne comprends pas l'essentiel et tu t'accroches sur un détail. Que les ordinateurs soient fait de transistors ou de qubits bizarres, ça ne change rien au fait que l'ordinateur est une machine. Une machine faite des mêmes matières que le reste de l'univers et qui obéit aux mêmes lois, qui ne peut pas être infiniment rapide ou efficace.
Je ne sais pas si tu y connais grand chose en architecture de processeur par exemple, mais si c'est le cas tu sais sans doute qu'on ne réinvente pas l'ordinateur tous les ans lorsque Intel sort ses nouveaux core i7. On améliore le concept existant. Un ordinateur repose sur un certain nombre de portes logiques qui doivent être matériellement construites. Et un jour on ne peut faire plus petit sans tomber sur la physique quantique.
Si je parodie ton raisonnement mais en gardant le même niveau de réalisme, alors tu penses qu'on aura des générateurs capable de produire de l'énergie infinie grâce au mouvement perpétuel simplement parce qu'on inventera autre chose que la bobine en cuivre dans un aimant.
Puis l'Intelligence Ultime.. - Dan Simmons -
Captain america s'est très bien adapté au New York de 2015!!!
Pourrais-tu m'aiguiller vers ces études s'il-te-plaît? Merci d'avance.
Je suppose qu'il prend comme situation que les gens ne soient plus payés...
Premièrement, je n'ai jamais parlé d'infini contrairement à toi, et je ne pense pas une seconde que l'énergie "infinie" soit un pré-requis pour que le point énoncé par l'anecdote soit atteint.
Ensuite, contrairement à ce que tu dis, je ne me cantonnes pas à une vision des ordinateurs à transistors comme tu le dis, je t'ai même invité à voir au delà de ça, tu me reprends là dessus alors que c'est toi qui fait implicitement cette erreur.. On ne sait pas comment ça peut évoluer d'ici même 5 ans, on pourrait avoir des nouvelles formes d'"ordinateur" qui n'ont rien à voir avec ce que l'on connaît...
Pour finir, on ne parle pas forcément de fin de l'humanité mais d'arriver à un point où l'IA est devenue tellement puissante et omniprésente qu'elle en serait incontrôlable avec des conséquences plus ou moins importantes (comme le fait de devoir couper l'internet mondial pour reprendre un exemple cité).
Je trouve que c'est déjà quelque chose d'énorme et ça ne nécessite pas une "énergie infinie", faut arrêter avec ça...
Effectivement tout cela ne nécessite pas d'énergie infinie à proprement parler, et de nouvelles formes de computation bien plus puissantes verront probablement le jour.
Mais de là à dire que cet "événement" va arriver, ce n'est que de la pure spéculation, rien ne le certifie. Cela reste un scénario gratuit.
Et comme tu le dis toi-même, si on accorde de manière totalement arbitraire que cela puisse arriver, au pire du pire du pire du pire, on "débranche" les sources d'énergie mondialement, brutalement s'il le faut, et le tour est joué.
Chiant, un peu destructeur, voire "traumatisant", oui peut-être, mais entièrement possible. En revanche la mise sous tutelle de l'humanité par une "super-intelligence", voire son extermination, là non, on nage en pleine SF. Dans un futur (lointain) où les conditions seront très différentes, peut-être, mais de nouveau on parle là de scénarios qui n'ont rien à voir avec la science.
On parle là de la technologie, qui inclut bien sûr la robotique mais pas que.
Les nouvelles techniques interpellent aussi au niveau de l'éthique humaine, via notre façon de nous alimenter, nous vêtir, nous soigner. La compréhension de toutes ces données ne sera plus possible car leur avancée technique sera supérieure à notre capacité de compréhension.
C'est en tout cas comme ça que j'ai interprété.
J'apporterais juste des précisions quand tu parle de limites matérielle pour les ordinateurs.. Tu es bien conscient qu'on passe a un tour autre stade de puissance de calcul avec les ordinateurs quantiques ? Et ils n'en sont qu'au début de l'exploitation de cette technologique il est probable pour le moment qu'il n'y ai pas encore de "maximum technologique"
Sa me fait pensait à battlestar galactica bonne série ou les humains doivent quitter leur monde suite à un holocauste provoque par les machines devenu tellement intelligentes que ces dernières pensent que l homme et devenu sont ennemi à détruire
Traduction très agréable, même si j'avoue que par flemme je ne suis pas allé chercher l'article original. Par contre le raisonnement me paraît plus poétique que fondé comme toute cette théorie d'ailleurs. En effet, je pense qu'il ne suffit pas de grand chose pour pouvoir faire régresser une civilisation. Pour la notre, une éruption solaire bien massive et on risque de perdre pas mal de temps à reprendre la marche en avant...
Chatgpt bonjour !
Si on ne peut encore programmer la fin de l'humanité on peut néanmoins programmer la fin de pas mal d'emplois dans la rédaction. Et plus si affinités.
je lit cette anecdote en 2023, quelques semaines après la sortie révolutionnaire de Chat GPT.