Alphazero s'améliore grandement aux échecs

Proposé par
le

Après avoir brillamment fait parler d'elle sur le jeu de Go, AlphaZero, la célèbre IA de Google, va peut-être révolutionner le jeu d'échec. En effet, elle a terrassé Stockfish, l'un des meilleurs moteurs d'échecs actuels (bien plus performant que les humains) de manière écrasante (28 victoires, 72 nulles, 0 défaite)

Selon les meilleurs joueurs d'échecs, elle a la particularité, en plus d'un pouvoir de calcul phénoménal, de pouvoir simuler une réflexion quasi humaine sur le plan stratégique, ce qui est une première pour ce type de machine.


Tous les commentaires (90)

a écrit : Je ne crois pas que ce soit un danger, tant que les machines (ordinateurs, réseaux de neurones, etc.) n'ont pas conscience de leur existence à laquelle elles supposeraient une finalité.
Ce ne sont que des jouets maîtrisés par l'homme et/ou la femme (soyons politiquement corrects). Pour faire une divisio
n compliquée que je suis incapable de faire de tête, ni sur papier dans un délai raisonnable, ma calculatrice me donne un résultat instantané. Mais je n'ai aucune peur qu'elle me domine un jour. Afficher tout
Je ne crois pas que tu ai compris le principe d une IA... et comparer une calculatrice à une machine doté une IA est extrement reducteur et n a aucun sens. On compare pas une trotinette à une Tesla.

L’IA de JMCMB n’a par contre pas vu qu’il manquait un s à actuel....

a écrit : L’IA de JMCMB n’a par contre pas vu qu’il manquait un s à actuel.... Bonjour, je suis Philippe, l'IA qui a créé SCMB, et je viens de corriger cette erreur.

a écrit : Pour vous répondre en plusieurs points :
+ Les Intelligences Artificielles ne savent absolument pas apprendre des choses toutes seules.
Ce qu'elles savent faire, c'est améliorer leurs connaissances sur un point précis grâce à des techniques mathématiques (on est quasiment plus dans l'informat
ique) telles que le deep learning ou les réseaux de neurones...
Par exemple, il existe aujourd'hui des IA de reconnaissance faciale très élaborées. Pour fonctionner correctement, elles ont d'abord été sous la tutelle d'un humain (ou d'un automate basique) qui leur a présenté des photos en leur indiquant la présence ou non d'un visage.
Dans un second temps, elles devaient trouver d'elles même un visage, toujours sous la tutelle d'un humain/automate.
Enfin, elles s'amélioraient en continu et en autonomie avec les images auxquelles elles ont accès.
Mais jamais, Ô grand jamais cette IA va d'elle-même se mettre à identifier des espèces de géraniums ou savoir jouer aux échecs !!!
D'ailleurs, si je vous lis bien, dans votre remarque sur les Captcha, c'est toujours l'humain qui apprend à l'IA en lui indiquant où sont les verres d'eau... L'IA saura donc identifier des verres d'eau... Mais pas en apprentissage autonome...

+ Comme l'a bien dit Shunya, les machines simulent, elles n'ont pas vraiment de sentiments. Elles paraissent tristes, mais ne connaissent pas le principe de la tristesse. Elles paraissent tristes parce que l'humain qui les a programmées s'est dit "si je lui fabrique un visage, que je lui donne une voix tremblotante et que je la fais pleurer, les autres humain auront de l'empathie". C'est tout.

+ "Les armées de robots" ?? Sérieusement ? Oui la Darpa a des projets innovants, mais faut pas pousser le bouchon, non plus...
Vous insinuez quoi ? Google = Skynet ??

Même si beaucoup de gens comme vous imaginent qu'une l'Intelligence Artificielle va se rebeller, dominer le monde et détruire toute forme d'opposition, n'oubliez pas que ces "objectifs" sont Humains. Qui vous dit qu'un jour, si on arrive à créer une vraie intelligence autonome, son but ne sera pas de s'exiler dans un coin tranquille pour faire pousser des oliviers ?
Afficher tout
L'humain est voué à disparaître de toute façon, à moins de taper dans la cybernétique, nous sommes vulnérables, nous dépendons de conditions très particulières d'oxygénation, d"apport de nourriture et d'eau. L'IA et la robotique doivent être conçues pour supplanter l'homme, ou du moins coexister, afin de transmettre notre bien le plus précieux de génération en génération sans régression : le savoir, la science. Et la conquête spatiale (unique moyen de préserver notre savoir au delà du milliard d'années qui restent avant que la terre soient invivable) serait grandement facilitée si on n'envoyait que des IA et des usines robotiques sur les autres planètes voire systèmes, qui se répliqueraient pratiquement à l'infini tout en se perfectionnant sans cesse.

a écrit : Bonjour, je suis Philippe, l'IA qui a créé SCMB, et je viens de corriger cette erreur. 01001101 01100101 01110010 01101011 01101001 .

Posté le

android

(0)

Répondre

a écrit : Sauf que ta calculatrice n'a pas d'intelligence artificielle.
Et justement, plus on ira loin dans le développement des IA, plus on risque d'en perdre plus ou moins le contrôle.
Les nombreux livres, films, etc. sur le sujet ne devraient plus être vus uniquement comme des œuvres de fiction. Mal
heureusement, il serait temps de les prendre en considération en terme d'éthique robotique.
Isaac Asimov notamment a édicté les 3 lois de la robotique, censées nous protéger de tout débordement de la part des robots, et il s'est ensuite employé à montrer dans tous ses récits comment ces lois peuvent être contournées et finalement se retourner contre nous.
À méditer...
Afficher tout
Sauf que c'est impossible, à l'heure actuelle on en sait bien plus sur les IA que dans les années 90.
Aujourd'hui les IA entourent déjà le monde (les voiture autonome , ainsi que les IA battant des champions dans des jeux de réflexions ne sont pas les seuls IA du tout) détecteur de spam, recommandation Youtube, recommandation Spotify en sont tous aussi.
Toutes ces IA sont des IA dites faible c'est à dire qu'elles sont capable d'apprendre une tâche et de la reproduire à l'identique ou en mieux (puissance de calcul oblige)
Beaucoup de vidéos prouvent les lacunes de ces système d'IA faibles.
(À regarder: James bridle qui piège une voiture autonome )
Cela vient du fait que ces IA faible prennent tout au premier degré. On distingue alors un autre type d'IA (Qui n'est pas abouti du tout)
Les IA fortes elles seraient capable de prendre du recul sur la situation comme le ferait un humain afin de résoudre la situation.

Le problème vient du fait que pour aboutir à de bon résultats avec des IA fortes il ne suffit pas d'investir 100 Milliard et d'attendre 10 ans étant donné que c'est un type d'IA qui n'a rien à voir. De plus il faudrait être capable de comprendre comment fonctionne le cerveau humain ainsi que son comportement a 100% afin de reproduire ce mécanisme dans une machine et on en est loin.
Enfin on sait que pour comprendre et donc reproduire un comportement il faut être à l'extérieur de ce comportement (Gödel mathématicien la démontré.)
Les gens qui pensent que les IA peuvent dépasser l'homme sont des gens brillant mais pas des Codeurs.
Une machine reste une machine

a écrit : Être célèbre comme champion d'échecs, cela peut paraître bizarre. En fait le mot vient du persan shâh mât (le roi est mort). Cheikh mat

Posté le

android

(0)

Répondre

a écrit : Pendant des décennies les grands maîtres des échecs étaient meilleurs que les machines... On disait que les ordis ne pourraient jamais complètement remplacer le cerveau humain, ses capacités de concevoir certains coups qu'un ordi ne serait pas capable de faire, les anticiper, etc... Et bien il semble que cette époque soit révolue. L'homme conçoit des machines bien plus performantes que lui désormais. Est-ce "jouer avec le feu" ? Afficher tout À mon sens, on ne joue pas avec le feu tant qu'on a le contrôle et qu'on a la même capacité théorique que la machine.
Le jour où une machine nous mettra en danger, il faudra pouvoir "la débrancher". Alors nous en aurons le contrôle.
Mais conjointement, si son interruption nous cause au moins autant de tort que les dommages qu'elle est susceptible d'engendrer, alors à quoi bon la contrôler ?

Je veux dire par là que si une calculatrice géante nous menace un jour, alors il faut pouvoir lui retirer les piles. Mais surtout, il faut aussi prévoir que les calculs qu'elle effectuait ne le seront plus et qu'on doit avoir d'autres calculettes.

(Inspiré d'un passage de Matrix 2)

Dans le même délire, en novembre 2016, deux IA ont communiquées dans une langue qu'elles avaient eux-mêmes créée. Une langue indéchiffrable par l'homme, pendant plusieurs minutes elles ont échangé sans qu'on sache ce qu'elles se sont dit.

a écrit : Pour vous répondre en plusieurs points :
+ Les Intelligences Artificielles ne savent absolument pas apprendre des choses toutes seules.
Ce qu'elles savent faire, c'est améliorer leurs connaissances sur un point précis grâce à des techniques mathématiques (on est quasiment plus dans l'informat
ique) telles que le deep learning ou les réseaux de neurones...
Par exemple, il existe aujourd'hui des IA de reconnaissance faciale très élaborées. Pour fonctionner correctement, elles ont d'abord été sous la tutelle d'un humain (ou d'un automate basique) qui leur a présenté des photos en leur indiquant la présence ou non d'un visage.
Dans un second temps, elles devaient trouver d'elles même un visage, toujours sous la tutelle d'un humain/automate.
Enfin, elles s'amélioraient en continu et en autonomie avec les images auxquelles elles ont accès.
Mais jamais, Ô grand jamais cette IA va d'elle-même se mettre à identifier des espèces de géraniums ou savoir jouer aux échecs !!!
D'ailleurs, si je vous lis bien, dans votre remarque sur les Captcha, c'est toujours l'humain qui apprend à l'IA en lui indiquant où sont les verres d'eau... L'IA saura donc identifier des verres d'eau... Mais pas en apprentissage autonome...

+ Comme l'a bien dit Shunya, les machines simulent, elles n'ont pas vraiment de sentiments. Elles paraissent tristes, mais ne connaissent pas le principe de la tristesse. Elles paraissent tristes parce que l'humain qui les a programmées s'est dit "si je lui fabrique un visage, que je lui donne une voix tremblotante et que je la fais pleurer, les autres humain auront de l'empathie". C'est tout.

+ "Les armées de robots" ?? Sérieusement ? Oui la Darpa a des projets innovants, mais faut pas pousser le bouchon, non plus...
Vous insinuez quoi ? Google = Skynet ??

Même si beaucoup de gens comme vous imaginent qu'une l'Intelligence Artificielle va se rebeller, dominer le monde et détruire toute forme d'opposition, n'oubliez pas que ces "objectifs" sont Humains. Qui vous dit qu'un jour, si on arrive à créer une vraie intelligence autonome, son but ne sera pas de s'exiler dans un coin tranquille pour faire pousser des oliviers ?
Afficher tout
www.google.fr/amp/www.cnewsmatin.fr/vie-numerique/2017-10-19/alphago-lintelligence-artificielle-de-google-qui-apprend-toute-seule-767316%3famp

Jamais au grand jamais, une IA sera capable d’apprendre toute seule à jouer aux échecs ?
Tu es déjà en retard de quelques métros.
Alpha go est déjà capable d’apprendre à jouer au go toute seule, à partir de rien.

a écrit : "Je conseille le très bon article (en anglais) de "Wait but Why" qui explique non seulement pourquoi une IA supérieure à l'humain dans tous les domaines sera très probablement créée en ce siècle, mais aussi tous les dangers potentiels." [citation légèrement modifiée dans la forme, mais pas dans le fond]

Merci de donner un lien précis. Le site ne donne que des informations diffuses et confuses, je n'ai pu trouver l'article en question.
Afficher tout
Google.
Wait but why artificial intelligence

a écrit : Je déteste l'expression "intelligence artificielle", ne serait-ce que parce qu'il n'y a aucune définition satisfaisante du terme "intelligence". Même Binet, l'inventeur des tests de Q.I., n'y croyait pas. C'est juste bon pour distinguer les individus brillants dans certains domaines des abrutis complets.
L'optique d'Asimov, et de tous ceux qui l'ont adoptée, c'est de la fiction de grand-papa.
Nous concevons des machines bien plus performantes que nous, oui, comme des voitures bien plus habiles que des champions, mais c'est les humains qui les conçoivent et il suffit de couper un câble ou de changer une ligne de programme pour qu'elles soient réduites à néant.
Pour planter un clou, j'ai besoin d'un marteau; est-il plus fort que moi?
Les systèmes biologiques sont infiniment plus complexes; par exemple de nombreuses espèces ont un instinct maternel/paternel.
Ils sont capables de sentiments, de la conscience d'exister et de vouloir survivre, du moins par leur postérité.
Un robot peut-il faire ça? Est-ce concevable?
Afficher tout
A l’allure où ça va, qui peux le prévoir ? Ils font tout pour créer cette conscience justement.
Et « grâce » à internet et les réseaux, couper le fil risque de ne pas suffire !

Alors, peut être que je me trompe mais il me semble que le jeu d’échec avait déjà été résolu depuis un moment par l’intelligence artificielle. On dit que le jeu est résolu quand on a trouvé la façon de gagner à coup sûr.
Et du coup, le jeu de go avait fait parlé de lui car justement, il avait pas encore été résolu mais l’intelligence artificielle avait trouvé des passes infaillible.
Il y a une vidéo de science étonnante sur l’intelligence artificielle dans le jeu de go qui en parle bien.
Du coup
Du coup, cette anecdote est en partie fausse puisque le jeu de go a été résolu après les échecs

a écrit : Sauf que ta calculatrice n'a pas d'intelligence artificielle.
Et justement, plus on ira loin dans le développement des IA, plus on risque d'en perdre plus ou moins le contrôle.
Les nombreux livres, films, etc. sur le sujet ne devraient plus être vus uniquement comme des œuvres de fiction. Mal
heureusement, il serait temps de les prendre en considération en terme d'éthique robotique.
Isaac Asimov notamment a édicté les 3 lois de la robotique, censées nous protéger de tout débordement de la part des robots, et il s'est ensuite employé à montrer dans tous ses récits comment ces lois peuvent être contournées et finalement se retourner contre nous.
À méditer...
Afficher tout
pour ma part je considere que les trois loie de la robotique sont des directive pour faire de bon esclave (on voit dans i robot leurs derives). faire des ia des "esprit libres" augmente le risque de revolution, mais reduit le risque de bug. pour que les ia deviennent des personnes il faudrait placer la 3eme loi au dessus des autres.

Il existe deux IA de Google concernant le Go. AlphaGo est celle qui a battu le meilleur joueur mondial. Elle avait d'abord appris les règles puis on lui a injecté en mémoire le maximum de parties jouées par des humains, enfin elle s'est entraînée contre elle même pendant presque un an avant de battre Lee Chedol. AlphaZero est la seconde IA, celle dont on parle dans l'anecdote. AlphaZero a juste appris les règles (pas d'analyse des parties humaines) et a joué contre elle même pendant seulement 8 heures avant d'être capable de battre AlphaGo. Donc il n'a fallu que 8 heures à cette IA pour dépasser 3 ou 4 millénaires d'entraînement des humains sur le jeu de stratégie réputé le plus complexe. On est légèrement au delà de la calculatrice qui aide à diviser.

Posté le

android

(4)

Répondre

a écrit : Je déteste l'expression "intelligence artificielle", ne serait-ce que parce qu'il n'y a aucune définition satisfaisante du terme "intelligence". Même Binet, l'inventeur des tests de Q.I., n'y croyait pas. C'est juste bon pour distinguer les individus brillants dans certains domaines des abrutis complets.
L'optique d'Asimov, et de tous ceux qui l'ont adoptée, c'est de la fiction de grand-papa.
Nous concevons des machines bien plus performantes que nous, oui, comme des voitures bien plus habiles que des champions, mais c'est les humains qui les conçoivent et il suffit de couper un câble ou de changer une ligne de programme pour qu'elles soient réduites à néant.
Pour planter un clou, j'ai besoin d'un marteau; est-il plus fort que moi?
Les systèmes biologiques sont infiniment plus complexes; par exemple de nombreuses espèces ont un instinct maternel/paternel.
Ils sont capables de sentiments, de la conscience d'exister et de vouloir survivre, du moins par leur postérité.
Un robot peut-il faire ça? Est-ce concevable?
Afficher tout
le probleme avec l'ia maintenant, c'est qu'on ne la programme pas, on l'entraine, le resultat exacte est donc inconnu. un certain chatbot "intelligent" sur tweeter c'etait mis a venerer hitler par exemple.
un humain est regit par la physique, donc determine. si on fait une simulation a l'atome pret d'un humain on a un ordi qui agit comme un humain.

a écrit : Sauf que ta calculatrice n'a pas d'intelligence artificielle.
Et justement, plus on ira loin dans le développement des IA, plus on risque d'en perdre plus ou moins le contrôle.
Les nombreux livres, films, etc. sur le sujet ne devraient plus être vus uniquement comme des œuvres de fiction. Mal
heureusement, il serait temps de les prendre en considération en terme d'éthique robotique.
Isaac Asimov notamment a édicté les 3 lois de la robotique, censées nous protéger de tout débordement de la part des robots, et il s'est ensuite employé à montrer dans tous ses récits comment ces lois peuvent être contournées et finalement se retourner contre nous.
À méditer...
Afficher tout
À voir la série Netflix : black mirror Chaque épisode est une histoire différente sur ce que pourrait devenir le monde et ça fait peur

a écrit : Je déteste l'expression "intelligence artificielle", ne serait-ce que parce qu'il n'y a aucune définition satisfaisante du terme "intelligence". Même Binet, l'inventeur des tests de Q.I., n'y croyait pas. C'est juste bon pour distinguer les individus brillants dans certains domaines des abrutis complets.
L'optique d'Asimov, et de tous ceux qui l'ont adoptée, c'est de la fiction de grand-papa.
Nous concevons des machines bien plus performantes que nous, oui, comme des voitures bien plus habiles que des champions, mais c'est les humains qui les conçoivent et il suffit de couper un câble ou de changer une ligne de programme pour qu'elles soient réduites à néant.
Pour planter un clou, j'ai besoin d'un marteau; est-il plus fort que moi?
Les systèmes biologiques sont infiniment plus complexes; par exemple de nombreuses espèces ont un instinct maternel/paternel.
Ils sont capables de sentiments, de la conscience d'exister et de vouloir survivre, du moins par leur postérité.
Un robot peut-il faire ça? Est-ce concevable?
Afficher tout
Je vous cite : "Nous concevons des machines, (...) mais ce sont des humains qui les conçoivent."
Ben non. Plus seulement nous maintenant. En 2015 déjà (et même avant cela), des chercheurs sont parvenus à concevoir un robot qui en fabrique d'autres et qui de surcroît est capables de les étudier et de les améliorer au fil du temps.
C'est précisément là où je voulais en venir : là, nous commençons déjà à aller trop loin.
Source :
www.clubic.com/robotique/actualite-776322-chercheurs-concoivent-robot-assembler-bebes.html

Posté le

android

(3)

Répondre

a écrit : Ton marteau il apprend pas au fur et à mesure du temps, l'IA si, et l'intelligence se caractérise par ça, savoir apprendre, s'adapter, créer... Artificielle car totalement créé par l'homme, et pas naturelle comme chaque animal ( y compris l'homme).
Personnellement je redoute ce moment où
les IA auront trouvé le moyen de se déplacer et de " coloniser " quand ils trouveront une faille pour être totalement autonome... Afficher tout
Il y a une grande différence entre "apprendre" et "savoir apprendre"...
Une IA peut s'améliorer, voire s'adapter à une situation dans un domaine bien précis. En revanche, elle ne peut pas apprendre d'elle-même sur un sujet au hasard.
Une IA ne peut pas non plus "créer", et c'est pour cela que, par exemple, les intelligences artificielles ne remplaceront jamais totalement les pilotes d'avion ou les humains en général... Car une IA ne peut pas prendre une décision.
Une IA n'est pas capable d'innover, elle ne peut pas inventer, elle ne peut pas trouver un concept... Elle peut seulement optimiser quelque chose, à condition qu'on lui donne au préalable des objectifs.
D'ailleurs, son processus d'optimisation ne sera pas du tout réfléchi... Elle va juste tester des millions de solutions sans ordre de privilège jusqu'à trouver par hasard un bon résultat.
Je vous conseille la lecture de cette page : fr.wikipedia.org/wiki/Hans_le_Malin
A la manière d'une IA aujourd'hui, le cheval Hans ne savait absolument pas compter ou lire... Il interprétait juste les signaux physiologiques de son maître.
Une IA trouve des solutions, certes, mais elle ne comprend ni la solution, ni le problème.

a écrit : www.google.fr/amp/www.cnewsmatin.fr/vie-numerique/2017-10-19/alphago-lintelligence-artificielle-de-google-qui-apprend-toute-seule-767316%3famp

Jamais au grand jamais, une IA sera capable d’apprendre toute seule à jouer aux échecs ?
Tu es déjà en retard de quelques métros.
Alpha go est
déjà capable d’apprendre à jouer au go toute seule, à partir de rien. Afficher tout
Je cite votre article :
"AlphaGo Zero - le nom de la nouvelle version -, dispose seulement de la règle du jeu et la position des pierres noires et blanches sur le plateau. Pour apprendre, le programme va jouer des millions de parties contre lui-même."
"AlphaGo a besoin des idées de l’homme"
"Mais si AlphaGo Zero peut se passer des données humaines pour se perfectionner, la machine dépend toujours de l’intelligence de l’homme. "

Donc un humain lui a donné un ensemble de règles et une base de jeu. Il a aussi ordonné à l'IA d'appliquer ces règles en jouant des millions de parties.
Vous appelez ça "apprendre tout seul à partir de rien" ?
Un enfant fait la même chose à l'école. On lui enseigne des règles mathématiques, on lui donne des problèmes, il les résout et on le corrige. Il n'a en aucun cas appris seul.
Il ne s'est pas dit "tiens, je vais faire des maths", il n'est pas allé chercher l'information, il n'a pas eu la volonté d'apprendre, il n'a pas jugé la fiabilité de l'information trouvée, il ne sait pas se corriger en autonomie.
Cette IA sera donc, dans l'état, uniquement capable de savoir jouer à ce jeu précisément. Elle ne peut ni apprendre les échecs, ni apprendre à reconnaître des visages (qui est d'ailleurs une pratique infiniment plus complexe à mettre en œuvre que de savoir jouer au Go), ni apprende quoi que ce soit d'autre.