Après avoir brillamment fait parler d'elle sur le jeu de Go, AlphaZero, la célèbre IA de Google, va peut-être révolutionner le jeu d'échec. En effet, elle a terrassé Stockfish, l'un des meilleurs moteurs d'échecs actuels (bien plus performant que les humains) de manière écrasante (28 victoires, 72 nulles, 0 défaite)
Selon les meilleurs joueurs d'échecs, elle a la particularité, en plus d'un pouvoir de calcul phénoménal, de pouvoir simuler une réflexion quasi humaine sur le plan stratégique, ce qui est une première pour ce type de machine.

Tous les commentaires (90)
Je ne crois pas que tu ai compris le principe d une IA... et comparer une calculatrice à une machine doté une IA est extrement reducteur et n a aucun sens. On compare pas une trotinette à une Tesla.
L’IA de JMCMB n’a par contre pas vu qu’il manquait un s à actuel....
Bonjour, je suis Philippe, l'IA qui a créé SCMB, et je viens de corriger cette erreur.
L'humain est voué à disparaître de toute façon, à moins de taper dans la cybernétique, nous sommes vulnérables, nous dépendons de conditions très particulières d'oxygénation, d"apport de nourriture et d'eau. L'IA et la robotique doivent être conçues pour supplanter l'homme, ou du moins coexister, afin de transmettre notre bien le plus précieux de génération en génération sans régression : le savoir, la science. Et la conquête spatiale (unique moyen de préserver notre savoir au delà du milliard d'années qui restent avant que la terre soient invivable) serait grandement facilitée si on n'envoyait que des IA et des usines robotiques sur les autres planètes voire systèmes, qui se répliqueraient pratiquement à l'infini tout en se perfectionnant sans cesse.
01001101 01100101 01110010 01101011 01101001 .
Sauf que c'est impossible, à l'heure actuelle on en sait bien plus sur les IA que dans les années 90.
Aujourd'hui les IA entourent déjà le monde (les voiture autonome , ainsi que les IA battant des champions dans des jeux de réflexions ne sont pas les seuls IA du tout) détecteur de spam, recommandation Youtube, recommandation Spotify en sont tous aussi.
Toutes ces IA sont des IA dites faible c'est à dire qu'elles sont capable d'apprendre une tâche et de la reproduire à l'identique ou en mieux (puissance de calcul oblige)
Beaucoup de vidéos prouvent les lacunes de ces système d'IA faibles.
(À regarder: James bridle qui piège une voiture autonome )
Cela vient du fait que ces IA faible prennent tout au premier degré. On distingue alors un autre type d'IA (Qui n'est pas abouti du tout)
Les IA fortes elles seraient capable de prendre du recul sur la situation comme le ferait un humain afin de résoudre la situation.
Le problème vient du fait que pour aboutir à de bon résultats avec des IA fortes il ne suffit pas d'investir 100 Milliard et d'attendre 10 ans étant donné que c'est un type d'IA qui n'a rien à voir. De plus il faudrait être capable de comprendre comment fonctionne le cerveau humain ainsi que son comportement a 100% afin de reproduire ce mécanisme dans une machine et on en est loin.
Enfin on sait que pour comprendre et donc reproduire un comportement il faut être à l'extérieur de ce comportement (Gödel mathématicien la démontré.)
Les gens qui pensent que les IA peuvent dépasser l'homme sont des gens brillant mais pas des Codeurs.
Une machine reste une machine
Cheikh mat
À mon sens, on ne joue pas avec le feu tant qu'on a le contrôle et qu'on a la même capacité théorique que la machine.
Le jour où une machine nous mettra en danger, il faudra pouvoir "la débrancher". Alors nous en aurons le contrôle.
Mais conjointement, si son interruption nous cause au moins autant de tort que les dommages qu'elle est susceptible d'engendrer, alors à quoi bon la contrôler ?
Je veux dire par là que si une calculatrice géante nous menace un jour, alors il faut pouvoir lui retirer les piles. Mais surtout, il faut aussi prévoir que les calculs qu'elle effectuait ne le seront plus et qu'on doit avoir d'autres calculettes.
(Inspiré d'un passage de Matrix 2)
Dans le même délire, en novembre 2016, deux IA ont communiquées dans une langue qu'elles avaient eux-mêmes créée. Une langue indéchiffrable par l'homme, pendant plusieurs minutes elles ont échangé sans qu'on sache ce qu'elles se sont dit.
www.google.fr/amp/www.cnewsmatin.fr/vie-numerique/2017-10-19/alphago-lintelligence-artificielle-de-google-qui-apprend-toute-seule-767316%3famp
Jamais au grand jamais, une IA sera capable d’apprendre toute seule à jouer aux échecs ?
Tu es déjà en retard de quelques métros.
Alpha go est déjà capable d’apprendre à jouer au go toute seule, à partir de rien.
Google.
Wait but why artificial intelligence
A l’allure où ça va, qui peux le prévoir ? Ils font tout pour créer cette conscience justement.
Et « grâce » à internet et les réseaux, couper le fil risque de ne pas suffire !
Alors, peut être que je me trompe mais il me semble que le jeu d’échec avait déjà été résolu depuis un moment par l’intelligence artificielle. On dit que le jeu est résolu quand on a trouvé la façon de gagner à coup sûr.
Et du coup, le jeu de go avait fait parlé de lui car justement, il avait pas encore été résolu mais l’intelligence artificielle avait trouvé des passes infaillible.
Il y a une vidéo de science étonnante sur l’intelligence artificielle dans le jeu de go qui en parle bien.
Du coup
Du coup, cette anecdote est en partie fausse puisque le jeu de go a été résolu après les échecs
pour ma part je considere que les trois loie de la robotique sont des directive pour faire de bon esclave (on voit dans i robot leurs derives). faire des ia des "esprit libres" augmente le risque de revolution, mais reduit le risque de bug. pour que les ia deviennent des personnes il faudrait placer la 3eme loi au dessus des autres.
Il existe deux IA de Google concernant le Go. AlphaGo est celle qui a battu le meilleur joueur mondial. Elle avait d'abord appris les règles puis on lui a injecté en mémoire le maximum de parties jouées par des humains, enfin elle s'est entraînée contre elle même pendant presque un an avant de battre Lee Chedol. AlphaZero est la seconde IA, celle dont on parle dans l'anecdote. AlphaZero a juste appris les règles (pas d'analyse des parties humaines) et a joué contre elle même pendant seulement 8 heures avant d'être capable de battre AlphaGo. Donc il n'a fallu que 8 heures à cette IA pour dépasser 3 ou 4 millénaires d'entraînement des humains sur le jeu de stratégie réputé le plus complexe. On est légèrement au delà de la calculatrice qui aide à diviser.
le probleme avec l'ia maintenant, c'est qu'on ne la programme pas, on l'entraine, le resultat exacte est donc inconnu. un certain chatbot "intelligent" sur tweeter c'etait mis a venerer hitler par exemple.
un humain est regit par la physique, donc determine. si on fait une simulation a l'atome pret d'un humain on a un ordi qui agit comme un humain.
À voir la série Netflix : black mirror Chaque épisode est une histoire différente sur ce que pourrait devenir le monde et ça fait peur
Je vous cite : "Nous concevons des machines, (...) mais ce sont des humains qui les conçoivent."
Ben non. Plus seulement nous maintenant. En 2015 déjà (et même avant cela), des chercheurs sont parvenus à concevoir un robot qui en fabrique d'autres et qui de surcroît est capables de les étudier et de les améliorer au fil du temps.
C'est précisément là où je voulais en venir : là, nous commençons déjà à aller trop loin.
Source :
www.clubic.com/robotique/actualite-776322-chercheurs-concoivent-robot-assembler-bebes.html
Il y a une grande différence entre "apprendre" et "savoir apprendre"...
Une IA peut s'améliorer, voire s'adapter à une situation dans un domaine bien précis. En revanche, elle ne peut pas apprendre d'elle-même sur un sujet au hasard.
Une IA ne peut pas non plus "créer", et c'est pour cela que, par exemple, les intelligences artificielles ne remplaceront jamais totalement les pilotes d'avion ou les humains en général... Car une IA ne peut pas prendre une décision.
Une IA n'est pas capable d'innover, elle ne peut pas inventer, elle ne peut pas trouver un concept... Elle peut seulement optimiser quelque chose, à condition qu'on lui donne au préalable des objectifs.
D'ailleurs, son processus d'optimisation ne sera pas du tout réfléchi... Elle va juste tester des millions de solutions sans ordre de privilège jusqu'à trouver par hasard un bon résultat.
Je vous conseille la lecture de cette page : fr.wikipedia.org/wiki/Hans_le_Malin
A la manière d'une IA aujourd'hui, le cheval Hans ne savait absolument pas compter ou lire... Il interprétait juste les signaux physiologiques de son maître.
Une IA trouve des solutions, certes, mais elle ne comprend ni la solution, ni le problème.
Je cite votre article :
"AlphaGo Zero - le nom de la nouvelle version -, dispose seulement de la règle du jeu et la position des pierres noires et blanches sur le plateau. Pour apprendre, le programme va jouer des millions de parties contre lui-même."
"AlphaGo a besoin des idées de l’homme"
"Mais si AlphaGo Zero peut se passer des données humaines pour se perfectionner, la machine dépend toujours de l’intelligence de l’homme. "
Donc un humain lui a donné un ensemble de règles et une base de jeu. Il a aussi ordonné à l'IA d'appliquer ces règles en jouant des millions de parties.
Vous appelez ça "apprendre tout seul à partir de rien" ?
Un enfant fait la même chose à l'école. On lui enseigne des règles mathématiques, on lui donne des problèmes, il les résout et on le corrige. Il n'a en aucun cas appris seul.
Il ne s'est pas dit "tiens, je vais faire des maths", il n'est pas allé chercher l'information, il n'a pas eu la volonté d'apprendre, il n'a pas jugé la fiabilité de l'information trouvée, il ne sait pas se corriger en autonomie.
Cette IA sera donc, dans l'état, uniquement capable de savoir jouer à ce jeu précisément. Elle ne peut ni apprendre les échecs, ni apprendre à reconnaître des visages (qui est d'ailleurs une pratique infiniment plus complexe à mettre en œuvre que de savoir jouer au Go), ni apprende quoi que ce soit d'autre.