Après avoir brillamment fait parler d'elle sur le jeu de Go, AlphaZero, la célèbre IA de Google, va peut-être révolutionner le jeu d'échec. En effet, elle a terrassé Stockfish, l'un des meilleurs moteurs d'échecs actuels (bien plus performant que les humains) de manière écrasante (28 victoires, 72 nulles, 0 défaite)
Selon les meilleurs joueurs d'échecs, elle a la particularité, en plus d'un pouvoir de calcul phénoménal, de pouvoir simuler une réflexion quasi humaine sur le plan stratégique, ce qui est une première pour ce type de machine.

Tous les commentaires (90)
Exit l'humanité (qui porte bien mal son nom, d'ailleurs). Vivent les machines !
Sauf que certaines machines, dont cette Alpha je sais plus quoi de Google, sont capables d'apprendre des choses toutes seules. Certains robots savent simuler de la compassion quand les capteurs voient des personnes tristes... ils savent identifier des objets qu'on ne leur a jamais vraiment appris à connaitre (si si, quand on se connecte sur internet, parfois il y a le ReCaptcha à saisir. Il vous demande, par exemple, de cliquer sur toutes les images contenant un verre d'eau. C'est pour que cette intelligence artificielle trouve des points communs entre les images, et ainsi, elle saura toujours reconnaitre un verre d'eau même sur une photo qu'elle n'a jamais vue).
Bientôt, un super-ordinateur doté d'une intelligence artificielle sera capable d'enseigner son savoir aux autres super-ordinateurs... ca ressemble fort à un être vivant. Il decouvre quelque chose et le montre aux autres...
Bref, on a de quoi s'inquiéter justement. Certes le grille pain ne va pas se rebeller demain, mais les armées de robots existent déjà (ah et qui les fabrique ? Google tiens tiens...).
On parle de " pat " plus précisemment
Oh oh oh, en lisant ça je me rends compte que la singularité n'est plus si éloignée que ça...
Mais calmez-vous, on aura encore du temps avant que les T-800 débarquent...
D'un point de vue informatique, on pourrait se prémunir d'une dystopie en :
- programmant des algorithmes de jugements qui rendraient prioritaires des choses comme les Droits de l'Homme ou autres principes éthiques de base,
- mettant des backdoor dans le code / désactivant certains features pour reprendre les choses en main en cas de soucis,
- évitant aux robots d'occuper des rôles sensibles (surveillance armée, etc...)
- évitant de les faire réfléchir comme nous ( pourquoi se calquer sur un modèle aussi faillible que nous autres humains?)
Bien sûr, tous ces points ont leurs failles ( ex : une machine assez intelligente pour modifier son propre code pourrait bypasser tout ça ) mais les solutions ne manquent pas...
Et pour ceux qui craignent de voir leur boulot se faire automatiser : la robotique détruit ET crée des emplois, et je suis sûr à 90% qu' un humain restera très longtemps plus flexible que Megaman...
Tu dis que plus on ira loin dans le développement de l’I.A plus on risque d’en perdre le contrôle. Donc que l’I.A pourrait devenir plus intelligente que l’Homme ? Mais qui a créer l’I.A ?
C'est concevable et ce sera probablement possible dans quelques décennies, mais implémenter dans une machine les instincts dont nous a doté la sélection naturelle n'aura sans doute pas beaucoup de sens et pourrait s'avérer dangereux.
Il y a à mon sens un énorme biais anthropomorphique dans quasiment toute la science-fiction qui traite du sujet car elle fait un lien causal entre la prise de conscience de soi pour une machine et l'apparition d'une volonté de survie. Je pense que c'est essentiellement une projection sur les machines de notre propre instinct de survie façonné par l'évolution. La survie de notre corps nécessaire à la survie de nos gènes est en dernière instance la seule ligne directrice, pour ne pas dire "finalité" de la sélection naturelle, faisant de l'instinct de survie au sens large celui qui subsume et conditionne tous les autres, d'où son importance telle qu'il biaise beaucoup de nos perceptions.
Sauf dans le cas où il ne reste plus que les deux rois ou trop peu de pièces pour faire mat... ou pat.
Non. Le pat c'est une configuration sur l'échiquier. La partie est déclarée nulle en cas de "pat". Tu confonds la cause et l'effet.
"Certains robots savent simuler de la compassion quand les capteurs voient des personnes tristes".
Eh oui, tout est dans le mot "SIMULER", qui fait la différence entre un être vivant et une machine programmée par les humains.
Fabriquer un chat-robot qui ronronne quand on le caresse et sort ses griffes si on le frappe, on saurait faire dès aujourd'hui.
Mais nos sentiments, nos émotions, dépendent du système endocrinologique, des hormones, encore très mal connues. Nous ressentons vraiment un deuil, ou une passion amoureuse (c'est aussi prouvé pour certains animaux), nous ne la simulons pas, il n'y a pas besoin de programmation pour être bouleversé devant un spectale terrible, ni pleurer d'émotion en écoutant certains airs d'opéra.
De même, nous avons des ambitions (je ne mentionne pas celles "sociales" de s'élever financièrement), une soif de connaissances, certains consacrent leur vie à étudier un vestige archéologique, une sorte d'insectes, etc..
Rien à voir avec ce qui n'est au fond que de l'électronique.
Mais le jour où l'on fabriquerait des robots qui puissent avoir des sentiments réels, dont la conscience de leur existence, alors ce serait la guerre.
Ça me fait penser à une anecdote qu'il me semble avoir lue ici, sur le point de singularité technologique : c'est le moment où le pouvoir de compréhension des IA aura dépasser celui de l'humain, les IA seront capables d'apprendre et de s'améliorer seules, et donc de découvrir des lois de la nature (par exemple) que l'homme ne pourra jamais comprendre. Il y a pleins de théories concernant l'"après" ce point : la connaissance sera-t-elle infinie ? Aura-t-elle une limite ?
Il est estimé que ce point de singularité aura lieu dans quelques décennies.
Vivement la suite !
Et bientôt les robots demanderont a être libre et être les égaux des humains et a avoir une pièce d identité et le droit de vote. J ai lu pas mal de fictions aussi intéressantes.
"pouvoir de compréhension" ?
Je ne comprends précisément pas ce que cela signifie, j'en manque sans doute.
Si vous connaissez ne serait-ce qu'un logiciel qui soit capable de corriger des fautes sémantiques d'un texte (pas seulement les fautes de frappe), j'achète et verse une commission à l'intermédiaire.
On en prend doucement le chemin. www.rtl.fr/actu/futur/des-systemes-d-intelligence-artificielle-meilleurs-que-des-humains-en-lecture-7791933002
Pour ceux que ça intéresse, cette problématique est reprise dans le concept du zombie philosophique : un être qui crie " Aïe !" Quand il se blesse, mais n'a fait que répondre à un stimulus extérieur sans lui même ressentir la douleur...
Pas si inatteignable que ça : le langage fonctionne sur des règles grammaticales / orthographiques / sémantiques, donc il " suffirait " de traduire ça en code et d'entraîner l'AI avec des grands classiques de la littérature, etc... Mais c'est sûr que quand on aura maîtrisé cela à 100% , je comprendrai les gens qui regardent avec méfiance leur grille-pain...
Pour vous répondre en plusieurs points :
+ Les Intelligences Artificielles ne savent absolument pas apprendre des choses toutes seules.
Ce qu'elles savent faire, c'est améliorer leurs connaissances sur un point précis grâce à des techniques mathématiques (on est quasiment plus dans l'informatique) telles que le deep learning ou les réseaux de neurones...
Par exemple, il existe aujourd'hui des IA de reconnaissance faciale très élaborées. Pour fonctionner correctement, elles ont d'abord été sous la tutelle d'un humain (ou d'un automate basique) qui leur a présenté des photos en leur indiquant la présence ou non d'un visage.
Dans un second temps, elles devaient trouver d'elles même un visage, toujours sous la tutelle d'un humain/automate.
Enfin, elles s'amélioraient en continu et en autonomie avec les images auxquelles elles ont accès.
Mais jamais, Ô grand jamais cette IA va d'elle-même se mettre à identifier des espèces de géraniums ou savoir jouer aux échecs !!!
D'ailleurs, si je vous lis bien, dans votre remarque sur les Captcha, c'est toujours l'humain qui apprend à l'IA en lui indiquant où sont les verres d'eau... L'IA saura donc identifier des verres d'eau... Mais pas en apprentissage autonome...
+ Comme l'a bien dit Shunya, les machines simulent, elles n'ont pas vraiment de sentiments. Elles paraissent tristes, mais ne connaissent pas le principe de la tristesse. Elles paraissent tristes parce que l'humain qui les a programmées s'est dit "si je lui fabrique un visage, que je lui donne une voix tremblotante et que je la fais pleurer, les autres humain auront de l'empathie". C'est tout.
+ "Les armées de robots" ?? Sérieusement ? Oui la Darpa a des projets innovants, mais faut pas pousser le bouchon, non plus...
Vous insinuez quoi ? Google = Skynet ??
Même si beaucoup de gens comme vous imaginent qu'une l'Intelligence Artificielle va se rebeller, dominer le monde et détruire toute forme d'opposition, n'oubliez pas que ces "objectifs" sont Humains. Qui vous dit qu'un jour, si on arrive à créer une vraie intelligence autonome, son but ne sera pas de s'exiler dans un coin tranquille pour faire pousser des oliviers ?
Qu'entends-tu par " arbitraire" ?
Sauf que justement, c'est plus complexe que ça. Avez vous déjà entendu parler du problème de la pauvreté du stimulus par exemple ? En résumé, c'est un paradoxe sur l’acquisition du langage. Si on y réfléchis, il existe théoriquement un espace infini d'assemblage de règle qui donne un langage, puisque théoriquement une phrase peut contenir une infinité de mots. A partir de la, et devant cette infinité de possibilités, tous les exemples que nous avons devraient être insuffisant pour apprendre une langue. Il y a chaque jour une possibilité que vous tombiez sur une phrase que vous n'avez jamais vu, et pourtant vous serez capable de dire si elle est correcte ou non. Ce problème est encore étudier en linguistique, et l'apprentissage humain reste encore questionné (même si la grammaire universelle ou l'apprentissage bayésiens sont assez populaires).
Bref, ca n'est pas encore évident qu'une IA corrige la sémantique de phrases !
Ton marteau il apprend pas au fur et à mesure du temps, l'IA si, et l'intelligence se caractérise par ça, savoir apprendre, s'adapter, créer... Artificielle car totalement créé par l'homme, et pas naturelle comme chaque animal ( y compris l'homme).
Personnellement je redoute ce moment où les IA auront trouvé le moyen de se déplacer et de " coloniser " quand ils trouveront une faille pour être totalement autonome...
L'évolution de l'IA est impressionnante et exponentielle ! Ça me fait penser au film irobot...