Alphazero s'améliore grandement aux échecs

Proposé par
le

Après avoir brillamment fait parler d'elle sur le jeu de Go, AlphaZero, la célèbre IA de Google, va peut-être révolutionner le jeu d'échec. En effet, elle a terrassé Stockfish, l'un des meilleurs moteurs d'échecs actuels (bien plus performant que les humains) de manière écrasante (28 victoires, 72 nulles, 0 défaite)

Selon les meilleurs joueurs d'échecs, elle a la particularité, en plus d'un pouvoir de calcul phénoménal, de pouvoir simuler une réflexion quasi humaine sur le plan stratégique, ce qui est une première pour ce type de machine.


Tous les commentaires (89)

Exit l'humanité (qui porte bien mal son nom, d'ailleurs). Vivent les machines !

a écrit : Je ne crois pas que ce soit un danger, tant que les machines (ordinateurs, réseaux de neurones, etc.) n'ont pas conscience de leur existence à laquelle elles supposeraient une finalité.
Ce ne sont que des jouets maîtrisés par l'homme et/ou la femme (soyons politiquement corrects). Pour faire une divisio
n compliquée que je suis incapable de faire de tête, ni sur papier dans un délai raisonnable, ma calculatrice me donne un résultat instantané. Mais je n'ai aucune peur qu'elle me domine un jour. Afficher tout
Sauf que certaines machines, dont cette Alpha je sais plus quoi de Google, sont capables d'apprendre des choses toutes seules. Certains robots savent simuler de la compassion quand les capteurs voient des personnes tristes... ils savent identifier des objets qu'on ne leur a jamais vraiment appris à connaitre (si si, quand on se connecte sur internet, parfois il y a le ReCaptcha à saisir. Il vous demande, par exemple, de cliquer sur toutes les images contenant un verre d'eau. C'est pour que cette intelligence artificielle trouve des points communs entre les images, et ainsi, elle saura toujours reconnaitre un verre d'eau même sur une photo qu'elle n'a jamais vue).
Bientôt, un super-ordinateur doté d'une intelligence artificielle sera capable d'enseigner son savoir aux autres super-ordinateurs... ca ressemble fort à un être vivant. Il decouvre quelque chose et le montre aux autres...
Bref, on a de quoi s'inquiéter justement. Certes le grille pain ne va pas se rebeller demain, mais les armées de robots existent déjà (ah et qui les fabrique ? Google tiens tiens...).

a écrit : Aux échecs on parle de partie nulle et pas de match nul comme au foot. On parle de " pat " plus précisemment

a écrit : L'Ia de Google a aussi réussi à concevoir sa propre IA et ça s'est balèze (source: IFLS- I fucking Love science) Oh oh oh, en lisant ça je me rends compte que la singularité n'est plus si éloignée que ça...

Mais calmez-vous, on aura encore du temps avant que les T-800 débarquent...

D'un point de vue informatique, on pourrait se prémunir d'une dystopie en :
- programmant des algorithmes de jugements qui rendraient prioritaires des choses comme les Droits de l'Homme ou autres principes éthiques de base,
- mettant des backdoor dans le code / désactivant certains features pour reprendre les choses en main en cas de soucis,
- évitant aux robots d'occuper des rôles sensibles (surveillance armée, etc...)
- évitant de les faire réfléchir comme nous ( pourquoi se calquer sur un modèle aussi faillible que nous autres humains?)

Bien sûr, tous ces points ont leurs failles ( ex : une machine assez intelligente pour modifier son propre code pourrait bypasser tout ça ) mais les solutions ne manquent pas...
Et pour ceux qui craignent de voir leur boulot se faire automatiser : la robotique détruit ET crée des emplois, et je suis sûr à 90% qu' un humain restera très longtemps plus flexible que Megaman...

Posté le

android

(6)

Répondre

a écrit : Sauf que ta calculatrice n'a pas d'intelligence artificielle.
Et justement, plus on ira loin dans le développement des IA, plus on risque d'en perdre plus ou moins le contrôle.
Les nombreux livres, films, etc. sur le sujet ne devraient plus être vus uniquement comme des œuvres de fiction. Mal
heureusement, il serait temps de les prendre en considération en terme d'éthique robotique.
Isaac Asimov notamment a édicté les 3 lois de la robotique, censées nous protéger de tout débordement de la part des robots, et il s'est ensuite employé à montrer dans tous ses récits comment ces lois peuvent être contournées et finalement se retourner contre nous.
À méditer...
Afficher tout
Tu dis que plus on ira loin dans le développement de l’I.A plus on risque d’en perdre le contrôle. Donc que l’I.A pourrait devenir plus intelligente que l’Homme ? Mais qui a créer l’I.A ?

a écrit : Je déteste l'expression "intelligence artificielle", ne serait-ce que parce qu'il n'y a aucune définition satisfaisante du terme "intelligence". Même Binet, l'inventeur des tests de Q.I., n'y croyait pas. C'est juste bon pour distinguer les individus brillants dans certains domaines des abrutis complets.
L'optique d'Asimov, et de tous ceux qui l'ont adoptée, c'est de la fiction de grand-papa.
Nous concevons des machines bien plus performantes que nous, oui, comme des voitures bien plus habiles que des champions, mais c'est les humains qui les conçoivent et il suffit de couper un câble ou de changer une ligne de programme pour qu'elles soient réduites à néant.
Pour planter un clou, j'ai besoin d'un marteau; est-il plus fort que moi?
Les systèmes biologiques sont infiniment plus complexes; par exemple de nombreuses espèces ont un instinct maternel/paternel.
Ils sont capables de sentiments, de la conscience d'exister et de vouloir survivre, du moins par leur postérité.
Un robot peut-il faire ça? Est-ce concevable?
Afficher tout
C'est concevable et ce sera probablement possible dans quelques décennies, mais implémenter dans une machine les instincts dont nous a doté la sélection naturelle n'aura sans doute pas beaucoup de sens et pourrait s'avérer dangereux.
Il y a à mon sens un énorme biais anthropomorphique dans quasiment toute la science-fiction qui traite du sujet car elle fait un lien causal entre la prise de conscience de soi pour une machine et l'apparition d'une volonté de survie. Je pense que c'est essentiellement une projection sur les machines de notre propre instinct de survie façonné par l'évolution. La survie de notre corps nécessaire à la survie de nos gènes est en dernière instance la seule ligne directrice, pour ne pas dire "finalité" de la sélection naturelle, faisant de l'instinct de survie au sens large celui qui subsume et conditionne tous les autres, d'où son importance telle qu'il biaise beaucoup de nos perceptions.

a écrit : On parle de " pat " plus précisemment Sauf dans le cas où il ne reste plus que les deux rois ou trop peu de pièces pour faire mat... ou pat.

a écrit : On parle de " pat " plus précisemment Non. Le pat c'est une configuration sur l'échiquier. La partie est déclarée nulle en cas de "pat". Tu confonds la cause et l'effet.

a écrit : Sauf que certaines machines, dont cette Alpha je sais plus quoi de Google, sont capables d'apprendre des choses toutes seules. Certains robots savent simuler de la compassion quand les capteurs voient des personnes tristes... ils savent identifier des objets qu'on ne leur a jamais vraiment appris à connaitre (si si, quand on se connecte sur internet, parfois il y a le ReCaptcha à saisir. Il vous demande, par exemple, de cliquer sur toutes les images contenant un verre d'eau. C'est pour que cette intelligence artificielle trouve des points communs entre les images, et ainsi, elle saura toujours reconnaitre un verre d'eau même sur une photo qu'elle n'a jamais vue).
Bientôt, un super-ordinateur doté d'une intelligence artificielle sera capable d'enseigner son savoir aux autres super-ordinateurs... ca ressemble fort à un être vivant. Il decouvre quelque chose et le montre aux autres...
Bref, on a de quoi s'inquiéter justement. Certes le grille pain ne va pas se rebeller demain, mais les armées de robots existent déjà (ah et qui les fabrique ? Google tiens tiens...).
Afficher tout
"Certains robots savent simuler de la compassion quand les capteurs voient des personnes tristes".

Eh oui, tout est dans le mot "SIMULER", qui fait la différence entre un être vivant et une machine programmée par les humains.
Fabriquer un chat-robot qui ronronne quand on le caresse et sort ses griffes si on le frappe, on saurait faire dès aujourd'hui.
Mais nos sentiments, nos émotions, dépendent du système endocrinologique, des hormones, encore très mal connues. Nous ressentons vraiment un deuil, ou une passion amoureuse (c'est aussi prouvé pour certains animaux), nous ne la simulons pas, il n'y a pas besoin de programmation pour être bouleversé devant un spectale terrible, ni pleurer d'émotion en écoutant certains airs d'opéra.
De même, nous avons des ambitions (je ne mentionne pas celles "sociales" de s'élever financièrement), une soif de connaissances, certains consacrent leur vie à étudier un vestige archéologique, une sorte d'insectes, etc..

Rien à voir avec ce qui n'est au fond que de l'électronique.

Mais le jour où l'on fabriquerait des robots qui puissent avoir des sentiments réels, dont la conscience de leur existence, alors ce serait la guerre.

a écrit : Pendant des décennies les grands maîtres des échecs étaient meilleurs que les machines... On disait que les ordis ne pourraient jamais complètement remplacer le cerveau humain, ses capacités de concevoir certains coups qu'un ordi ne serait pas capable de faire, les anticiper, etc... Et bien il semble que cette époque soit révolue. L'homme conçoit des machines bien plus performantes que lui désormais. Est-ce "jouer avec le feu" ? Afficher tout Ça me fait penser à une anecdote qu'il me semble avoir lue ici, sur le point de singularité technologique : c'est le moment où le pouvoir de compréhension des IA aura dépasser celui de l'humain, les IA seront capables d'apprendre et de s'améliorer seules, et donc de découvrir des lois de la nature (par exemple) que l'homme ne pourra jamais comprendre. Il y a pleins de théories concernant l'"après" ce point : la connaissance sera-t-elle infinie ? Aura-t-elle une limite ?
Il est estimé que ce point de singularité aura lieu dans quelques décennies.
Vivement la suite !

a écrit : Sauf que ta calculatrice n'a pas d'intelligence artificielle.
Et justement, plus on ira loin dans le développement des IA, plus on risque d'en perdre plus ou moins le contrôle.
Les nombreux livres, films, etc. sur le sujet ne devraient plus être vus uniquement comme des œuvres de fiction. Mal
heureusement, il serait temps de les prendre en considération en terme d'éthique robotique.
Isaac Asimov notamment a édicté les 3 lois de la robotique, censées nous protéger de tout débordement de la part des robots, et il s'est ensuite employé à montrer dans tous ses récits comment ces lois peuvent être contournées et finalement se retourner contre nous.
À méditer...
Afficher tout
Et bientôt les robots demanderont a être libre et être les égaux des humains et a avoir une pièce d identité et le droit de vote. J ai lu pas mal de fictions aussi intéressantes.

a écrit : Ça me fait penser à une anecdote qu'il me semble avoir lue ici, sur le point de singularité technologique : c'est le moment où le pouvoir de compréhension des IA aura dépasser celui de l'humain, les IA seront capables d'apprendre et de s'améliorer seules, et donc de découvrir des lois de la nature (par exemple) que l'homme ne pourra jamais comprendre. Il y a pleins de théories concernant l'"après" ce point : la connaissance sera-t-elle infinie ? Aura-t-elle une limite ?
Il est estimé que ce point de singularité aura lieu dans quelques décennies.
Vivement la suite !
Afficher tout
"pouvoir de compréhension" ?
Je ne comprends précisément pas ce que cela signifie, j'en manque sans doute.

Si vous connaissez ne serait-ce qu'un logiciel qui soit capable de corriger des fautes sémantiques d'un texte (pas seulement les fautes de frappe), j'achète et verse une commission à l'intermédiaire.

a écrit : "pouvoir de compréhension" ?
Je ne comprends précisément pas ce que cela signifie, j'en manque sans doute.

Si vous connaissez ne serait-ce qu'un logiciel qui soit capable de corriger des fautes sémantiques d'un texte (pas seulement les fautes de frappe), j'achète et verse une commission à l'intermédiaire.
On en prend doucement le chemin. www.rtl.fr/actu/futur/des-systemes-d-intelligence-artificielle-meilleurs-que-des-humains-en-lecture-7791933002

a écrit : "Certains robots savent simuler de la compassion quand les capteurs voient des personnes tristes".

Eh oui, tout est dans le mot "SIMULER", qui fait la différence entre un être vivant et une machine programmée par les humains.
Fabriquer un chat-robot qui ronronne quand on le caress
e et sort ses griffes si on le frappe, on saurait faire dès aujourd'hui.
Mais nos sentiments, nos émotions, dépendent du système endocrinologique, des hormones, encore très mal connues. Nous ressentons vraiment un deuil, ou une passion amoureuse (c'est aussi prouvé pour certains animaux), nous ne la simulons pas, il n'y a pas besoin de programmation pour être bouleversé devant un spectale terrible, ni pleurer d'émotion en écoutant certains airs d'opéra.
De même, nous avons des ambitions (je ne mentionne pas celles "sociales" de s'élever financièrement), une soif de connaissances, certains consacrent leur vie à étudier un vestige archéologique, une sorte d'insectes, etc..

Rien à voir avec ce qui n'est au fond que de l'électronique.

Mais le jour où l'on fabriquerait des robots qui puissent avoir des sentiments réels, dont la conscience de leur existence, alors ce serait la guerre.
Afficher tout
Pour ceux que ça intéresse, cette problématique est reprise dans le concept du zombie philosophique : un être qui crie " Aïe !" Quand il se blesse, mais n'a fait que répondre à un stimulus extérieur sans lui même ressentir la douleur...

Posté le

android

(2)

Répondre

a écrit : "pouvoir de compréhension" ?
Je ne comprends précisément pas ce que cela signifie, j'en manque sans doute.

Si vous connaissez ne serait-ce qu'un logiciel qui soit capable de corriger des fautes sémantiques d'un texte (pas seulement les fautes de frappe), j'achète et verse une commission à l'intermédiaire.
Pas si inatteignable que ça : le langage fonctionne sur des règles grammaticales / orthographiques / sémantiques, donc il " suffirait " de traduire ça en code et d'entraîner l'AI avec des grands classiques de la littérature, etc... Mais c'est sûr que quand on aura maîtrisé cela à 100% , je comprendrai les gens qui regardent avec méfiance leur grille-pain...

Posté le

android

(0)

Répondre

a écrit : Sauf que certaines machines, dont cette Alpha je sais plus quoi de Google, sont capables d'apprendre des choses toutes seules. Certains robots savent simuler de la compassion quand les capteurs voient des personnes tristes... ils savent identifier des objets qu'on ne leur a jamais vraiment appris à connaitre (si si, quand on se connecte sur internet, parfois il y a le ReCaptcha à saisir. Il vous demande, par exemple, de cliquer sur toutes les images contenant un verre d'eau. C'est pour que cette intelligence artificielle trouve des points communs entre les images, et ainsi, elle saura toujours reconnaitre un verre d'eau même sur une photo qu'elle n'a jamais vue).
Bientôt, un super-ordinateur doté d'une intelligence artificielle sera capable d'enseigner son savoir aux autres super-ordinateurs... ca ressemble fort à un être vivant. Il decouvre quelque chose et le montre aux autres...
Bref, on a de quoi s'inquiéter justement. Certes le grille pain ne va pas se rebeller demain, mais les armées de robots existent déjà (ah et qui les fabrique ? Google tiens tiens...).
Afficher tout
Pour vous répondre en plusieurs points :
+ Les Intelligences Artificielles ne savent absolument pas apprendre des choses toutes seules.
Ce qu'elles savent faire, c'est améliorer leurs connaissances sur un point précis grâce à des techniques mathématiques (on est quasiment plus dans l'informatique) telles que le deep learning ou les réseaux de neurones...
Par exemple, il existe aujourd'hui des IA de reconnaissance faciale très élaborées. Pour fonctionner correctement, elles ont d'abord été sous la tutelle d'un humain (ou d'un automate basique) qui leur a présenté des photos en leur indiquant la présence ou non d'un visage.
Dans un second temps, elles devaient trouver d'elles même un visage, toujours sous la tutelle d'un humain/automate.
Enfin, elles s'amélioraient en continu et en autonomie avec les images auxquelles elles ont accès.
Mais jamais, Ô grand jamais cette IA va d'elle-même se mettre à identifier des espèces de géraniums ou savoir jouer aux échecs !!!
D'ailleurs, si je vous lis bien, dans votre remarque sur les Captcha, c'est toujours l'humain qui apprend à l'IA en lui indiquant où sont les verres d'eau... L'IA saura donc identifier des verres d'eau... Mais pas en apprentissage autonome...

+ Comme l'a bien dit Shunya, les machines simulent, elles n'ont pas vraiment de sentiments. Elles paraissent tristes, mais ne connaissent pas le principe de la tristesse. Elles paraissent tristes parce que l'humain qui les a programmées s'est dit "si je lui fabrique un visage, que je lui donne une voix tremblotante et que je la fais pleurer, les autres humain auront de l'empathie". C'est tout.

+ "Les armées de robots" ?? Sérieusement ? Oui la Darpa a des projets innovants, mais faut pas pousser le bouchon, non plus...
Vous insinuez quoi ? Google = Skynet ??

Même si beaucoup de gens comme vous imaginent qu'une l'Intelligence Artificielle va se rebeller, dominer le monde et détruire toute forme d'opposition, n'oubliez pas que ces "objectifs" sont Humains. Qui vous dit qu'un jour, si on arrive à créer une vraie intelligence autonome, son but ne sera pas de s'exiler dans un coin tranquille pour faire pousser des oliviers ?

a écrit : Bien plus une question qu'une affirmation: comment s'intéresser aux échecs, dont les règles sont totalement arbitraires?
J'ai vu avec consternation un camarade sympathique, intelligent, sacrifier sa carrière prometteuse pour s'entraîner des heures par jour, sans succès notable d'ailleurs
.
Je préfère encore le jeu des réussites.
Afficher tout
Qu'entends-tu par " arbitraire" ?

a écrit : Pas si inatteignable que ça : le langage fonctionne sur des règles grammaticales / orthographiques / sémantiques, donc il " suffirait " de traduire ça en code et d'entraîner l'AI avec des grands classiques de la littérature, etc... Mais c'est sûr que quand on aura maîtrisé cela à 100% , je comprendrai les gens qui regardent avec méfiance leur grille-pain... Afficher tout Sauf que justement, c'est plus complexe que ça. Avez vous déjà entendu parler du problème de la pauvreté du stimulus par exemple ? En résumé, c'est un paradoxe sur l’acquisition du langage. Si on y réfléchis, il existe théoriquement un espace infini d'assemblage de règle qui donne un langage, puisque théoriquement une phrase peut contenir une infinité de mots. A partir de la, et devant cette infinité de possibilités, tous les exemples que nous avons devraient être insuffisant pour apprendre une langue. Il y a chaque jour une possibilité que vous tombiez sur une phrase que vous n'avez jamais vu, et pourtant vous serez capable de dire si elle est correcte ou non. Ce problème est encore étudier en linguistique, et l'apprentissage humain reste encore questionné (même si la grammaire universelle ou l'apprentissage bayésiens sont assez populaires).
Bref, ca n'est pas encore évident qu'une IA corrige la sémantique de phrases !

a écrit : Je déteste l'expression "intelligence artificielle", ne serait-ce que parce qu'il n'y a aucune définition satisfaisante du terme "intelligence". Même Binet, l'inventeur des tests de Q.I., n'y croyait pas. C'est juste bon pour distinguer les individus brillants dans certains domaines des abrutis complets.
L'optique d'Asimov, et de tous ceux qui l'ont adoptée, c'est de la fiction de grand-papa.
Nous concevons des machines bien plus performantes que nous, oui, comme des voitures bien plus habiles que des champions, mais c'est les humains qui les conçoivent et il suffit de couper un câble ou de changer une ligne de programme pour qu'elles soient réduites à néant.
Pour planter un clou, j'ai besoin d'un marteau; est-il plus fort que moi?
Les systèmes biologiques sont infiniment plus complexes; par exemple de nombreuses espèces ont un instinct maternel/paternel.
Ils sont capables de sentiments, de la conscience d'exister et de vouloir survivre, du moins par leur postérité.
Un robot peut-il faire ça? Est-ce concevable?
Afficher tout
Ton marteau il apprend pas au fur et à mesure du temps, l'IA si, et l'intelligence se caractérise par ça, savoir apprendre, s'adapter, créer... Artificielle car totalement créé par l'homme, et pas naturelle comme chaque animal ( y compris l'homme).
Personnellement je redoute ce moment où les IA auront trouvé le moyen de se déplacer et de " coloniser " quand ils trouveront une faille pour être totalement autonome...

L'évolution de l'IA est impressionnante et exponentielle ! Ça me fait penser au film irobot...