La technologie évolue, et elle le fait aussi et surtout à une vitesse exponentielle. L'humanité serait ainsi très proche du moment où les technologies comme l'IA atteindront un point d'explosion tel que l'homme ne pourra suivre : c'est ce qui s'appelle la théorie du point de singularité technologique. Passé ce point de singularité technologique, on ne sait pas ce qui peut arriver.
Les plus optimistes parlent d'un âge d'or où même la mort pourrait être vaincue, d'autres au contraire y voient la disparition de l'humanité. Les premières estimations prévoyaient l'arrivée de ce point dans la deuxième moitié du XXIe siècle, mais il pourrait survenir bien plus tôt au vu de ce qui a été déjà fait pendant les 15 premières années de ce siècle.
Tous les commentaires (75)
Je ne sais pas si tu y connais grand chose en architecture de processeur par exemple, mais si c'est le cas tu sais sans doute qu'on ne réinvente pas l'ordinateur tous les ans lorsque Intel sort ses nouveaux core i7. On améliore le concept existant. Un ordinateur repose sur un certain nombre de portes logiques qui doivent être matériellement construites. Et un jour on ne peut faire plus petit sans tomber sur la physique quantique.
Si je parodie ton raisonnement mais en gardant le même niveau de réalisme, alors tu penses qu'on aura des générateurs capable de produire de l'énergie infinie grâce au mouvement perpétuel simplement parce qu'on inventera autre chose que la bobine en cuivre dans un aimant.
Puis l'Intelligence Ultime.. - Dan Simmons -
Ensuite, contrairement à ce que tu dis, je ne me cantonnes pas à une vision des ordinateurs à transistors comme tu le dis, je t'ai même invité à voir au delà de ça, tu me reprends là dessus alors que c'est toi qui fait implicitement cette erreur.. On ne sait pas comment ça peut évoluer d'ici même 5 ans, on pourrait avoir des nouvelles formes d'"ordinateur" qui n'ont rien à voir avec ce que l'on connaît...
Pour finir, on ne parle pas forcément de fin de l'humanité mais d'arriver à un point où l'IA est devenue tellement puissante et omniprésente qu'elle en serait incontrôlable avec des conséquences plus ou moins importantes (comme le fait de devoir couper l'internet mondial pour reprendre un exemple cité).
Je trouve que c'est déjà quelque chose d'énorme et ça ne nécessite pas une "énergie infinie", faut arrêter avec ça...
Mais de là à dire que cet "événement" va arriver, ce n'est que de la pure spéculation, rien ne le certifie. Cela reste un scénario gratuit.
Et comme tu le dis toi-même, si on accorde de manière totalement arbitraire que cela puisse arriver, au pire du pire du pire du pire, on "débranche" les sources d'énergie mondialement, brutalement s'il le faut, et le tour est joué.
Chiant, un peu destructeur, voire "traumatisant", oui peut-être, mais entièrement possible. En revanche la mise sous tutelle de l'humanité par une "super-intelligence", voire son extermination, là non, on nage en pleine SF. Dans un futur (lointain) où les conditions seront très différentes, peut-être, mais de nouveau on parle là de scénarios qui n'ont rien à voir avec la science.
Les nouvelles techniques interpellent aussi au niveau de l'éthique humaine, via notre façon de nous alimenter, nous vêtir, nous soigner. La compréhension de toutes ces données ne sera plus possible car leur avancée technique sera supérieure à notre capacité de compréhension.
C'est en tout cas comme ça que j'ai interprété.
Sa me fait pensait à battlestar galactica bonne série ou les humains doivent quitter leur monde suite à un holocauste provoque par les machines devenu tellement intelligentes que ces dernières pensent que l homme et devenu sont ennemi à détruire
Chatgpt bonjour !
Si on ne peut encore programmer la fin de l'humanité on peut néanmoins programmer la fin de pas mal d'emplois dans la rédaction. Et plus si affinités.
je lit cette anecdote en 2023, quelques semaines après la sortie révolutionnaire de Chat GPT.