Après avoir brillamment fait parler d'elle sur le jeu de Go, AlphaZero, la célèbre IA de Google, va peut-être révolutionner le jeu d'échec. En effet, elle a terrassé Stockfish, l'un des meilleurs moteurs d'échecs actuels (bien plus performant que les humains) de manière écrasante (28 victoires, 72 nulles, 0 défaite)
Selon les meilleurs joueurs d'échecs, elle a la particularité, en plus d'un pouvoir de calcul phénoménal, de pouvoir simuler une réflexion quasi humaine sur le plan stratégique, ce qui est une première pour ce type de machine.
Tous les commentaires (90)
L’IA de JMCMB n’a par contre pas vu qu’il manquait un s à actuel....
Aujourd'hui les IA entourent déjà le monde (les voiture autonome , ainsi que les IA battant des champions dans des jeux de réflexions ne sont pas les seuls IA du tout) détecteur de spam, recommandation Youtube, recommandation Spotify en sont tous aussi.
Toutes ces IA sont des IA dites faible c'est à dire qu'elles sont capable d'apprendre une tâche et de la reproduire à l'identique ou en mieux (puissance de calcul oblige)
Beaucoup de vidéos prouvent les lacunes de ces système d'IA faibles.
(À regarder: James bridle qui piège une voiture autonome )
Cela vient du fait que ces IA faible prennent tout au premier degré. On distingue alors un autre type d'IA (Qui n'est pas abouti du tout)
Les IA fortes elles seraient capable de prendre du recul sur la situation comme le ferait un humain afin de résoudre la situation.
Le problème vient du fait que pour aboutir à de bon résultats avec des IA fortes il ne suffit pas d'investir 100 Milliard et d'attendre 10 ans étant donné que c'est un type d'IA qui n'a rien à voir. De plus il faudrait être capable de comprendre comment fonctionne le cerveau humain ainsi que son comportement a 100% afin de reproduire ce mécanisme dans une machine et on en est loin.
Enfin on sait que pour comprendre et donc reproduire un comportement il faut être à l'extérieur de ce comportement (Gödel mathématicien la démontré.)
Les gens qui pensent que les IA peuvent dépasser l'homme sont des gens brillant mais pas des Codeurs.
Une machine reste une machine
Le jour où une machine nous mettra en danger, il faudra pouvoir "la débrancher". Alors nous en aurons le contrôle.
Mais conjointement, si son interruption nous cause au moins autant de tort que les dommages qu'elle est susceptible d'engendrer, alors à quoi bon la contrôler ?
Je veux dire par là que si une calculatrice géante nous menace un jour, alors il faut pouvoir lui retirer les piles. Mais surtout, il faut aussi prévoir que les calculs qu'elle effectuait ne le seront plus et qu'on doit avoir d'autres calculettes.
(Inspiré d'un passage de Matrix 2)
Dans le même délire, en novembre 2016, deux IA ont communiquées dans une langue qu'elles avaient eux-mêmes créée. Une langue indéchiffrable par l'homme, pendant plusieurs minutes elles ont échangé sans qu'on sache ce qu'elles se sont dit.
www.google.fr/amp/www.cnewsmatin.fr/vie-numerique/2017-10-19/alphago-lintelligence-artificielle-de-google-qui-apprend-toute-seule-767316%3famp
Jamais au grand jamais, une IA sera capable d’apprendre toute seule à jouer aux échecs ?
Tu es déjà en retard de quelques métros.
Alpha go est déjà capable d’apprendre à jouer au go toute seule, à partir de rien.
Wait but why artificial intelligence
Et « grâce » à internet et les réseaux, couper le fil risque de ne pas suffire !
Alors, peut être que je me trompe mais il me semble que le jeu d’échec avait déjà été résolu depuis un moment par l’intelligence artificielle. On dit que le jeu est résolu quand on a trouvé la façon de gagner à coup sûr.
Et du coup, le jeu de go avait fait parlé de lui car justement, il avait pas encore été résolu mais l’intelligence artificielle avait trouvé des passes infaillible.
Il y a une vidéo de science étonnante sur l’intelligence artificielle dans le jeu de go qui en parle bien.
Du coup
Du coup, cette anecdote est en partie fausse puisque le jeu de go a été résolu après les échecs
Il existe deux IA de Google concernant le Go. AlphaGo est celle qui a battu le meilleur joueur mondial. Elle avait d'abord appris les règles puis on lui a injecté en mémoire le maximum de parties jouées par des humains, enfin elle s'est entraînée contre elle même pendant presque un an avant de battre Lee Chedol. AlphaZero est la seconde IA, celle dont on parle dans l'anecdote. AlphaZero a juste appris les règles (pas d'analyse des parties humaines) et a joué contre elle même pendant seulement 8 heures avant d'être capable de battre AlphaGo. Donc il n'a fallu que 8 heures à cette IA pour dépasser 3 ou 4 millénaires d'entraînement des humains sur le jeu de stratégie réputé le plus complexe. On est légèrement au delà de la calculatrice qui aide à diviser.
un humain est regit par la physique, donc determine. si on fait une simulation a l'atome pret d'un humain on a un ordi qui agit comme un humain.
Ben non. Plus seulement nous maintenant. En 2015 déjà (et même avant cela), des chercheurs sont parvenus à concevoir un robot qui en fabrique d'autres et qui de surcroît est capables de les étudier et de les améliorer au fil du temps.
C'est précisément là où je voulais en venir : là, nous commençons déjà à aller trop loin.
Source :
www.clubic.com/robotique/actualite-776322-chercheurs-concoivent-robot-assembler-bebes.html
Une IA peut s'améliorer, voire s'adapter à une situation dans un domaine bien précis. En revanche, elle ne peut pas apprendre d'elle-même sur un sujet au hasard.
Une IA ne peut pas non plus "créer", et c'est pour cela que, par exemple, les intelligences artificielles ne remplaceront jamais totalement les pilotes d'avion ou les humains en général... Car une IA ne peut pas prendre une décision.
Une IA n'est pas capable d'innover, elle ne peut pas inventer, elle ne peut pas trouver un concept... Elle peut seulement optimiser quelque chose, à condition qu'on lui donne au préalable des objectifs.
D'ailleurs, son processus d'optimisation ne sera pas du tout réfléchi... Elle va juste tester des millions de solutions sans ordre de privilège jusqu'à trouver par hasard un bon résultat.
Je vous conseille la lecture de cette page : fr.wikipedia.org/wiki/Hans_le_Malin
A la manière d'une IA aujourd'hui, le cheval Hans ne savait absolument pas compter ou lire... Il interprétait juste les signaux physiologiques de son maître.
Une IA trouve des solutions, certes, mais elle ne comprend ni la solution, ni le problème.
"AlphaGo Zero - le nom de la nouvelle version -, dispose seulement de la règle du jeu et la position des pierres noires et blanches sur le plateau. Pour apprendre, le programme va jouer des millions de parties contre lui-même."
"AlphaGo a besoin des idées de l’homme"
"Mais si AlphaGo Zero peut se passer des données humaines pour se perfectionner, la machine dépend toujours de l’intelligence de l’homme. "
Donc un humain lui a donné un ensemble de règles et une base de jeu. Il a aussi ordonné à l'IA d'appliquer ces règles en jouant des millions de parties.
Vous appelez ça "apprendre tout seul à partir de rien" ?
Un enfant fait la même chose à l'école. On lui enseigne des règles mathématiques, on lui donne des problèmes, il les résout et on le corrige. Il n'a en aucun cas appris seul.
Il ne s'est pas dit "tiens, je vais faire des maths", il n'est pas allé chercher l'information, il n'a pas eu la volonté d'apprendre, il n'a pas jugé la fiabilité de l'information trouvée, il ne sait pas se corriger en autonomie.
Cette IA sera donc, dans l'état, uniquement capable de savoir jouer à ce jeu précisément. Elle ne peut ni apprendre les échecs, ni apprendre à reconnaître des visages (qui est d'ailleurs une pratique infiniment plus complexe à mettre en œuvre que de savoir jouer au Go), ni apprende quoi que ce soit d'autre.