Il est fort probable que l'espèce dominante dans l'univers, si elle existe, est une intelligence artificielle : c'est la conclusion d'une étude de Susan Schneider prochainement publiée par la NASA, et qui rejoint d'autres études scientifiques. L'intelligence artificielle serait capable de dépasser très largement les capacités de n'importe quel cerveau biologique, ce qui en ferait l'espèce dominante. L'espèce humaine aurait déjà amorcé cette transition avec les avancées technologiques qui améliorent le corps humain.
Le très respecté physicien Stephen Hawking a lui-même déclaré récemment que l'intelligence artificielle serait prochainement une réelle menace pour l'humanité.
Tous les commentaires (241)
Même si les robots deviendrons la race dominante, c'est pas dit qu'ils auront forcément un instinct de destruction comme les humains!
85: "Et s'ils t'interrogent au sujet de l'âme, - Dis : "l'âme relève de l'Ordre de mon Seigneur". Et on ne vous a donné que peu de connaissance." CORAN
Mais comme le dit ton livre d'histoires qui n'apporte pas plus de justification, ne vas surtout pas t'instruire à ce sujet ;). Tu aurais du mal à réconcilier informations scientifiques et écrits coraniques.
Mais on s'éloigne trop de l'anecdote (quoi que âme, IA), je m'arrête là pour le HS.
Où est la notion de libre arbitre dans tout ça ? Choisir de faire le bien, ou bien choisir de faire le mal, de faire seul en tant qu’individu, ou ensemble en tant qu’espèce : en quoi une intelligence artificielle serait-elle plus à même qu'un être humain de comprendre POURQUOI elle fait les choses qu'elle fait et pas seulement COMMENT ?
Je veux bien imaginer toute une chaîne causale qui amènerait l'intelligence artificielle à prendre le pas sur l'humanité : je comprends la logique de la démarche d’adaptation au milieu. Mais toute supérieure qu’elle puisse être, l’intelligence artificielle n’en sera pas pour autant parfaite. Elle commettra des « erreurs », c’est aussi dans la logique naturelle des êtres (à petite ou à grande échelle) : autrement dit, elle fera ce qu’elle fera, mais elle aura pu à un moment avoir pu faire autrement qu’elle n’a fait. Et POURQUOI elle choisira de faire comme elle fera, et pas autrement ? Au nom de quelle valeur ? Si l’intelligence supérieure devient artificielle, est-ce qu’il n’y a pas à craindre que les valeurs qui la sous-tendent deviennent encore plus artificielles ?
N’oublions pas que le développement de l’intelligence artificielle, aussi fascinant que cela soit, à l’heure actuelle, c’est surtout un business…
Le monde actuel est ce qu’il est, mais pourrait-on se passer de choses humaines comme, je ne sais pas moi… la créativité, la tolérance, la douceur, la musique, l'érotisme (à distinguer du seul acte charnel), la solidarité, l’humour, la capacité d’émerveillement, etc. ? N’est-ce pas aussi cela, l’intelligence ? Est-ce que ces choses-là n’aident pas aussi à survivre à son milieu ?
La science est affaire de curiosité, de rigueur, de remise en question permanente et de soif de connaissances. Après, pour financer tout cela, il faut de l'argent, public et/ou privé.
Pourquoi ne pourrait-on pas inculquer des valeurs à une IA ? Pourquoi d'ailleurs ne développerait-elle pas ses propres valeurs éthiques ?
Le même processus qui nous fait prendre des décisions éthiques ou "morales" (maximiser notre bonheur et celui des autres par exemple) ne me paraît pas impossible à modéliser, les biologistes, zoologistes, ethnologues ont déjà partagé pas mal de choses à ce sujet, tu ne crois pas ?
Par contre, je n'ai pas du tout voulu dire que le développement d'une IA n'était qu'une histoire de business. Si c le cas, je me suis mal exprimée. Pas "que". J'ai beaucoup trop de respect pour l'esprit scientifique animé de curiosité et de rigueur tel que tu l'évoques pour penser cela. Simplement, on ne peut pas ignorer les dérives...
C'est bien tout le noeud de mon pb ici d'ailleurs : les objectifs des uns ne sont pas les mm que ceux des autres. Les priorités des uns et des autres sont différentes. De fait, nous répondons tous à une éthique qui nous est propre et qu'il me paraît impossible de rendre uniforme.
Alors oui, tu as raison, on pourrait sans doute inculquer des valeurs à une IA, mais lesquelles ? Il n'y en a pas beaucoup des valeurs universelles telles que la prohibition de l'inceste qu'on retrouve unanimement dans toutes les cultures.
Tu parles de bonheur (et sincèrement je tiens en haute estime qqn qui pense d'emblée à maximiser le bonheur d'autrui), mais la notion mm de bonheur est bien difficile à estimer ! Ce qui te rend heureux toi ne me rendrait pas forcément heureuse moi, et mm, peut-être que ce qui te rend heureux aujourd'hui toi ne te rendra pas heureux dans un an... Comment modéliser qqch d'aussi subjectif ?
Pour en revenir à l'anecdote, c'est bien que des philosophes aussi se penchent sur la question, mais je leur souhaite bon courage pour arriver à trouver moyen d'adapter la raison, le libre - arbitre, la nuance, la sensibilité, la créativité, etc. à une IA.
Par contre, en toute logique, je pense comme toi qu'en finalité, si notion d'éthique il y a un jour ds une IA, l'IA la développera par elle - mm pour se forger sa propre éthique. Je serais curieuse de connaître le résultat, mais seulement sur le papier. Ce serait peut-être mieux, comment savoir ? Mais en l'état, je ne me vois pas vivre ds un monde où la raison, le libre - arbitre, la nuance, la sensibilité et la créativité deviendraient obsolètes...
Ce qui sous entend qu'une espèce biologique créera une "créature artificielle" qui la détrônera et elle même recréera une espèce biologique pour se distraire
"Changer une ampoule ou la jambe de son androïde dans 50 ans" c'est pareil en ce sens que tu le fais pour te sentir mieux, ta conscience, ton bien-être te le fait ressentir, pas parce que l'objet te le demande. Rien n'oblige de changer une ampoule à part le malaise dans le noir, mais si tu as une autre "source" de lumière "convenable", ce malaise passera. ;-)
Ça fait tout drôle!:-D
A quel moment l'homme sera assez bete pour se faire diriger par un robot... Le conseiller d'accord, lui dire ce qu'il doit faire et le diriger je ne pense pas... Apres la dessus les films genre Matrix sont très en avance sur le temps et mérite qu'on se pose la question! Mais honnetement, je n'y crois pas.
Et comme précisé dans des commentaires précédents, les péripéties de ces romans arrivent justement parce des cas rendent ces lois inapplicables, et entraînent des morts malgré elles.
Comme si les sims etaient une realite! Fait arreter de dire n importe quoi
Donc on ne vaut pas mieux qu'une machine puisque celle ci peut facilement nous copier et même faire mieux?
Pour les références concernant les études, je ne compte par contre pas te laisser sur ta faim ;).
C'est en effet un domaine passionnant ! Tu peux par exemple regarder les travaux de Frans de Waal [2] (primatologue et ethnologue) sur l'empathie chez les primates non humains. Mais il n'est vraiment pas le seul !
Tu peux aussi écouter l'extraordinaire émission "Sur les épaules de Darwin" (j'écoute la version podcast, pratique dans la voiture ;)), spécialement les séries d'épisodes "Le lien qui nous rattache aux autres" (exemple [3]) ou "Aux origines du langage", ou encore cet épisode [1].
Tu y trouveras des références d'études, mais surtout une mise en contexte scientifique et une explication du pourquoi et des résultats de ces études, et comment elles s'inscrivent dans le corpus de nos connaissances existantes de l'évolution du vivant et dans notre propre évolution.
Car ces sentiments altruistes par exemple, cette "éthique" n'existe pas par hasard et apporte des avantages évolutifs : cohésion de groupe, éviter les guerres intestines pour améliorer la survie comme par exemple pour l'adoption par des chimpanzés d'orphelins, ou la consolation par le témoin d'un individu victime d'une agression.
Et ces sentiments ne sont pas réservés encore une fois à nous les primates, mais ont été observés, étudiés sur d'autres mammifères ou des oiseaux par exemple. L'émission de Jean Claude Ameisen en parle aussi. Ils ne sont donc pas liés à la religion ou à notre "nature humaine" mais se sont construits au fil des millions d'années qui nous ont précédé.
Et ces sentiments comme l'empathie, l'altruisme, le sentiment d'injustice [4], etc... se retrouvent présents à différents degrés plus ou moins évolués dans le monde animal, ce qui nous permet en quelque sorte de tracer l'évolution et la complexification de nos sentiments, de notre éthique/morale/appelle-la comme tu le souhaites ;). Ce qui nous permet de creuser (on a encore du chemin) le mode de fonctionnement de nos sentiments et pourquoi pas de les modéliser, vu que l'on commence à en connaître les plans et les mécanismes.
Je m'arrête là on pourrait en écrire des livres (d'ailleurs ça a été fait;)). Tu devrais avoir de quoi satisfaire un peu de ta curiosité avec ça ;).
[1] www.franceinter.fr/emission-sur-les-epaules-de-darwin-le-souci-de-lautre-0
[2] fr.wikipedia.org/wiki/Frans_de_Waal
[3] www.franceinter.fr/emission-sur-les-epaules-de-darwin-le-lien-qui-nous-rattache-aux-autres-10
[4] www.franceinter.fr/emission-sur-les-epaules-de-darwin-le-sentiment-dinjustice
Ou de développer sa propre culture, sa propre curiosité, d'avoir ses propres aspirations de découverte ?
Pourquoi vaudrait-elle plus ou moins que nous, selon quels critères ?
Concernant Asimov il n'a effectivement fait que démontrer que la robotique et les lois éventuelles qui la régiraient avait des failles ... Pour ceux qui n'aime pas lire le film I.robot est tiré d'un roman d'Isaac Asimov ... Mais persos entre les livres et le bouquin je prends le bouquin ... Je vois pas de raison de m'exprimer plus longtemps la dessus..