France Echecs Bandeau France Echecs |  
---- samedi 20 octobre 2018
--- ---- --- Ecrire au webmaster
Nom d’utilisateur   Code d’accès 
--- --- ---
Forums  | Devenir membre | Mot de passe oublié ? | Charte | A propos |  Utilisation des cookies | Politique de confidentialité |  Contacter France-Echecs
Actualités   Actualités
Tournois   Tournois
Ouvertures   Ouvertures
Clubs   Clubs
Informatique   Informatique
Arbitrage   Arbitrage
Problèmes   Problèmes
FAQ   FAQ
Etudes   Etudes
Finales   Finales
Théorie   Théorie

 Rechercher sur le site  



Abonnez-vous à la revue Europe-Echecs


Où en est Leela ? par JLuc74 le 26 mai 2018  [Aller à la fin] | Informatique |
Bonjour à tous,

Leela continu jour après jour à progresser et commencent à gagner quelques parties contre des modules évalués dans les 3000 Elo.

Encore beaucoup de grosses gaffes et des prises de risque qui ne sont pas toujours payantes, des tentatives de forcer le gain qui se terminent par des défaites mais aussi des parties qui me semblent magnifiques dans un style qui fait penser à celui du grand frère AlphaZero.

Je lui fait faire des matches de 6 parties en 10mn+10s, actuellement contre Critter 0.90. Il (ou elle ?) ne gagne pas encore souvent mais il y a du bon.

https://lichess.org/jAvrnx4x#0

A noter qu'après avoir longtemps joué 1.e4 (Leela joue sans bibliothèque d'ouvertures) c'est depuis peu 1.d4 qui a la préférence.

Au rythme de progression actuel Leela pourrait à mon avis parfaitement être utilisé par les meilleurs GMI, essentiellement pour trouver de nouvelles idées.


mop, le 27/05/2018 - 21:02:46
Il faudrait davantage de contributeurs pour accélérer la génération des nouveaux ID.
Ce serait bien de remonter vers les 200 000 parties/jour.


Polmipoque, le 28/05/2018 - 09:46:54
Bonjour,
Comment fait-on pour contribuer à faire progresser Leela ?


mop, le 28/05/2018 - 10:38:07
Si tu comprends l'anglais, tu as la page principale ici :
https://github.com/glinscott/leela-chess/wiki

Tu peux utiliser ton processeur et/ou ta carte graphique pour faire des parties d'entrainement en téléchargeant cpu-win.zip ou gpu-win.zip (si tu as une bonne carte graphique, le gpu devrait générer plus de parties que le cpu)
https://github.com/glinscott/leela-chess/releases

Tu peux ne pas utiliser les ressources de ton pc en utilisant google Colab (il faut avoir une adresse gmail). C'est ce que je fais

https://github.com/glinscott/leela-chess/wiki/Run-Leela-Chess-Zero-client-on-a-Tesla-K80-GPU-for-free-(Google-Colaboratory)

Leela a besoin de contributeurs pour lui faire
jouer des matchs d'entrainement.
Dans le cas du Google Colab, ma connexion internet n'est pas du tout ralenti.

Si tu n'as rien compris de ce que je viens d'écrire, je peux être plus précis ^^



Polmipoque, le 28/05/2018 - 10:49:46
Non, c'est bon, j'ai compris, merci beaucoup pour les infos mop ! Je testerai ça ce soir


JLuc74, le 28/05/2018 - 17:24:32
Un match de 6 parties contre Critter 0.90a, à vous de juger. Network 350.

https://lichess.org/evGMC6o0
https://lichess.org/HFxxkETj
https://lichess.org/4cB8tBo0
https://lichess.org/oWRULZqD
https://lichess.org/tkZweW2l
https://lichess.org/unkeMeLD






JLuc74, le 31/05/2018 - 08:58:09
Longue période stagnation du niveau, Leela a-t-elle atteint ses limites ?

Assez curieusement elle joue maintenant 1.c4.

Elle semble dominer positionnellement ses adversaires mais en mode Kasparov, c'est à dire de façon extrêmement active, n'hésitant pas à jouer des sacrifices positionnels. Ses défaites sont essentiellement dues à des gaffes, de vraies gaffes comme un humain peut les faire parce qu'elle a du mal à voir les tactiques basées sur des sacrifices. On l'a même vu rater un mat en 2 qui commençait par un sacrifice de Dame.


JLuc74, le 04/06/2018 - 11:20:34
chess.com se lance dans la bataille en rachetant Komodo pour en faire un module basé sur l'IA. https://www.chess.com/fr/news/view/chess-com-rachete-komodo-et-lance-une-nouvelle-version-monte-carlo-similaire-a-alphazero




JLuc74, le 25/06/2018 - 18:19:36
Après un long passage à vide du à un problème dans la gestion de la règle des 50 coups (dans une position inférieure mais sur le point d'atteindre le 50ème coup on pouvait voir Leela donner une pièce pour perdre plutôt que d'annuler) Leela vient de retrouver son meilleur niveau avec des parties toujours spectaculaires.

Je vous en remet une contre Houdini 1.5, un module qui tourne peut-être à 3000 Elo. L'art de sacrifier un pion quand on en a déjà 2 de retard.
On notera quand même 14.f3? une gaffe typique de Leela qui n'a pas envisagé le sacrifice Fxf3.

https://lichess.org/1XE0Dgq6


lefouduroi, le 25/06/2018 - 19:22:12
Houdini 1.5 date de 2010.
La version actuelle est la 6!


SLM, le 25/06/2018 - 19:32:49
Mais puisqu'on te dit qu'il vaut 3000 élos ! Bon il perd avec une pose écrasante mais c'est parce que Leela à joué une partie spectaculaire ! Assieds-toi et profite un peu, oh !


JLuc74, le 25/06/2018 - 20:08:31
@lefouduroi je sais mais il est plus intéressant de voir les progrès contre un module qui a à peu près son niveau que contre SF9 ou Houdini 6 qui gagneraient 90% des parties (et en plus Houdini 1.5 est gratuit, pas la version 6)

N'en déplaise au pisse-vinaigre de service l'évaluation du niveau d'Houdini 1.5 est donnée sur la page http://www.computerchess.org.uk/ccrl/4040/cgi/engine_details.cgi?print=Details&each_game=1&eng=Houdini%201.5a%2064-bit#Houdini_1_5a_64-bit.
Ca vaut ce que ça vaut mais ça permet de situer Leela par rapport aux autres.
De plus la partie s'est jouée en 10mn+10s et mon ordi n'est pas surpuissant donc le niveau max n'est pas atteint mais à la même cadence ces modules explosent n'importe quel GMI.

Oui revenir ainsi d'une gaffe contre un module c'est spectaculaire, obtenir une position favorable avec 2 pions de retard en en sacrifiant un 3ème c'est spectaculaire. Surtout que ce genre de partie n'a rien d'exceptionnel, Leela en produit à la pelle. Quand on considère que le module apprend par lui-même, qu'il découvre tous les principes de jeu de lui-même (personne n'a été lui dire qu'une Tour est généralement plus forte qu'un Cavalier) on comprend (enfin, ceux qui peuvent) qu'une nouvelle compréhension du jeu est en train d'émerger.


SLM, le 25/06/2018 - 21:16:37
Je ne sais pas comment tu fais pour débiter autant d'âneries à la minute : tu es épuisant. Si tu cites une source apprend à le faire correctement (la FAQ est là pour t'aider si tu ne sais pas faire un simple lien cliquable, monsieur l'informaticien) et surtout lis avant de t'exprimer. Tu peux trouver ici (http://www.computerchess.org.uk/ccrl/4040/about.html) les conditions du test qui n'ont rien à voir avec ce que tu fais sur ta brouette. De plus regarder la partie permet de comprendre assez vite que ce n'est pas le meilleur niveau d'Houdini même s'il faut pour cela quelques compétences échiquéennes.

Pour comprendre en quoi cela affecte le niveau de jeu du module il faut comprendre comment il fonctionne. Les modules classiques évaluent une position à une profondeur donnée : ils ne raisonnent pas en termes d'attaque, défense ou ce que tu veux. C'est une évaluation clinique de la position et la profondeur joue un rôle primordial. Pour caricaturer si j'ai un sacrifice de Dame qui mate en 12 mais avec une série de coups uniques, que tous les autres coups donnent l'avantage à l’adversaire et que le module calcule jusqu'à une profondeur de 11 coups et demi (p=23) et bien il considérera le sacrifice de Dame comme incorrect. C'est pourquoi il faut laisser tourner le module longtemps pour obtenir une profondeur suffisante et avoir un avis "fiable".

Alphazéro (et ses dérivés) n'ont pas changé cette méthode d'évaluation et de calcul ils n'ont juste pas de règles humaines implémentées pour écourter l'arbre de calcul. (Du genre : ne donne pas une Tour contre un Cavalier, sauf si tu as vu un gain d'au moins 1.5, etc.) Le nouveau module apprend par renforcement : il regarde dans les parties faites contre les adversaires ce qui a le mieux marché et décide de l'utiliser. La claque qu'Alphazéro à foutu à Stockfish n'est en rien précurseur d'une nouvelle façon de réfléchir : elle révèle juste deux choses. Premièrement le calcul pur semble plus fort (ou plus efficace) que le calcul pondéré par des principes humains (mais ceux ayant quelques connaissances en informatique s'en doutaient déjà avant...) et deuxièmement, ce qui est sans doute le plus intéressant, les anciens modules sont vulnérables et particulièrement sur les sacrifices contre de l'activité. Ils sont limités par leur profondeur de calcul et n'arrivent pas à "sentir" que leur position va se dégrader s'ils encaissent le matériel donc ils l'encaissent et s'inclinent sur le long terme. Il n'y a pas de conception profonde ou quoi que ce soit là dedans, juste de l’empirisme et du pragmatisme de haut-niveau : le nouveau module choisit ce qui lui donne les meilleures chances de gain.

Le reste c'est un joli coup de com de Google : le module nouveau est arrivé, il est gouleyant et sent la banane...

On peut espérer que cela redonnera de l'espoir à tous les joueurs de voir que les modules ne sont pas infaillibles et qu'il est encore possible de dépasser leur évaluation mais nous sommes très loin de ta révolution.

Désolé d'avoir argumenté, je te résume : XxxX XxxxXxx xXXXxx XXXxxXXX


JLuc74, le 25/06/2018 - 21:43:47
" ils ne raisonnent pas en termes d'attaque, défense ou ce que tu veux"

Ah bon ????????…. attends, il n'y en a pas encore assez ??????????????

"si j'ai un sacrifice de Dame qui mate en 12 mais avec une série de coups uniques, que tous les autres coups donnent l'avantage à l’adversaire et que le module calcule jusqu'à une profondeur de 11 coups et demi (p=23) et bien il considérera le sacrifice de Dame comme incorrect."

Vous en êtes encore là et venez donner des leçons ? Ca me fait bien rire.


SLM, le 25/06/2018 - 22:01:32
1- Décide-toi entre le tutoiement et le vouvoiement : ça fait désordre.
2- Si tu me cites, fais-le correctement : tu as oublié le début de la phrase qui n'était pas là par hasard : "Pour caricaturer..."
3- Si d'après toi j'ai tort, peux-tu m'expliquer les brusques sauts d'évaluation dans les finales par exemple ? A défaut pourrais-je avoir une explication de comment fonctionne un module selon toi ?


JLuc74, le 26/06/2018 - 08:38:30
L'algorithme Alpha-Beta utilisé par les modules classiques je connais, je m'y étais intéressé il y a peut-être 30 ans. Il s'agit en gros de parcourir l'arbre des coups avec le principe qu'il est inutile de poursuivre l'analyse d'une branche à partir du moment où on a une réfutation, c'est ce qui évite de tout parcourir. On donne une note à chaque position en fonction de différents critères qui permettent de l'évaluer, le pus important étant bien sûr le matériel. On analyse de plus en plus loin mais il devient vite évident au développeur qu'il ne peut s'arrêter à une profondeur donnée pour évaluer la valeur d'une variante. Tout simplement parce que si le dernier coup analysé est par exemple la prise d'une pièce la variante peut sembler excellente en oubliant que le coup suivant serait la perte d'une pièce plus importante.
Donc non, un module ne s'arrête pas à la profondeur qu'il indique, ça c'est juste la profondeur jusqu'où il a fait une analyse fine. Bien sûr il y a un moment où il doit s'arrêter et il ne peut pas tout voir ce qui explique ses changements d'évaluation.

Je ne sais pas exactement comment fonctionnent les modules qui utilisent Monte-Carlo (AlphaZero, LeelaZero, Komodo Monte-Carlo...). Je sais juste ce qu'en a dit la presse, c'est à dire qu'on leur a appris les règles et qu'ils sont capables d'accumuler des connaissances pour découvrir comment gagner et progresser.

Avec un module Alpha-Béta c'est le développeur qui programme la fonction de calcul de l'évaluation d'une position. C'est le développeur qui fixe par exemple les valeurs relatives des pièces ou la valeur de telle ou telle structure de pion, ou l'importance d'une colonne ouverte, etc. Ca ce sont des notions qui viennent des connaissances humaines empiriques sur les échecs, l'ordi ne découvre rien, il utilise seulement au mieux ce que nous savons déjà.

Avec un module Monte-Carlo c'est l'ordinateur qui découvre tout, il va donc avoir une compréhension du jeu qui n'a rien à voir avec les connaissances humaines et c'est ce qui va nous apporter de nouvelles connaissances sur le jeu.


lefouduroi, le 26/06/2018 - 09:13:28
Ça n'a rien de révolutionnaire, ça existe depuis au moins 2009:
Rybka's Monte Carlo analysis



hberger, le 26/06/2018 - 09:59:39
Bonjour

tu confonds JLuc74.
Un brute force (avec elagage ou pas) et un MC (ou une version plus élaborée comme un AG) fonctionne strictement du même principe :
- simulation
- evaluation

là, on parle d'apprentissage. Il n'y a plus ce cycle.

je m'étais intéressé à Alpha quand il apprenait le go. Google n'est pas fou ; Alpha ne fait pas que de l'apprentissage, il fait aussi de la simu (par du MCTS) et de l'évaluation.
Cela lui permet d'apprendre beaucoup plus vite et surtout de "vérifier" a priori des erreurs.
Il n'a pas besoin d'avoir un moteur de simu et d'évaluation très performants vu qu'il va gommer ces défauts au fur et à mesure de son apprentissage.
de ce que j'en lit, Leela ne fait pas de simu ? c'est dommage. ça bootstrap énormément son apprentissage.
Inversement, lorsque les modules classiques commenceront à apprendre, la performance de leur moteur leur permettra d'apprendre plus rapidement et de vérifier de façon encore plus pertinente.

pour ceux qui aiment coder ce type d'algorithme, il existe un site sur lequel il y a des compétitions régulièrement de "bots" (je n'appelle pas cela des IAs) ; codingame.com

beaucoup d'algo génétique, de Monte-Carlo ou de MiniMax. Même des heuristiques peuvent parfois tirer leur épingle du jeu.
Le jeu d'échecs n'est pas présent, mais beaucoup de jeux en 1v1 y sont présents (jeu de dommination comme le go ou tactique comme le corridor, ...)


SLM, le 26/06/2018 - 13:42:44
@JLuc : un brute force (je pique le terme à hberger : il est parlant) simule les suites possibles de la partie créant par là-même un arbre des coups possibles et leur attribue à chacun une évaluation. Il choisit ensuite le coup ayant la meilleure évaluation. Son choix est donc principalement basé sur son calcul (sa fonction de simulation et sa fonction d'évaluation) et est d'autant plus précis qu'il a de temps pour parcourir l'arbre. C'est pourquoi quand tu veux handicaper un module tu l'obliges à jouer plus vite, c'est pourquoi tous les secondants des forts joueurs ont des gros PC et les laissent tourner des nuits entières, c'est pourquoi crier au scandale dès qu'un Top GM joue un coup faisant descendre légèrement la barre d'évaluation de chessbomb est ridicule car le module est en profondeur 20, c'est pourquoi Rybka (profondeur moyenne entre 15 et 20 coups) a supplanté Fritz (profondeur moyenne 15 coups) avant de se faire bouffer par Houdini (profondeur moyenne entre 20 et 25 coups) qui lui même s'est fait détrôné par Stockfish (actuellement profondeur moyenne aux alentours des 30 coups), c'est pourquoi les modules actuels donnent toujours un gros avantage aux Blancs dans l'Est-Indienne, etc.

Amener l'élagage dans le débat ne change pas la façon de fonctionner de ces modules : l'élagage permet de réduire le temps nécessaire pour examiner tous les coups de l'arbre afin d'atteindre une profondeur plus importante plus rapidement. Avec un brute force la profondeur est la clé ! D'ailleurs mon exemple sur le sacrifice de Dame illustre parfaitement cela : tant que le module n'a pas atteint la profondeur nécessaire pour voir le gain il dégagera la variante car il y aura, selon toi, une réfutation, la perte de la Dame.

Les modules Alpha basent leurs choix sur leurs expériences : si j'ai battu un adversaire avec tels coups alors je peux le rejouer, jusqu'à ce que mes résultats ne soient plus intéressants. (Là encore je schématise) Ils sont donc parfaits pour s'adapter à un adversaire spécifique et le déboîter (cf. la claque mise à SF, bridé il faut le rappeler).


qbe, le 26/06/2018 - 19:25:30
Je te trouve bien assertif @SLM.

Es-tu bien sûr de l'assertion "Alphazéro (et ses dérivés) n'ont pas changé cette méthode d'évaluation et de calcul ils n'ont juste pas de règles humaines implémentées pour écourter l'arbre de calcul." Au contraire, comme je comprends les choses, c'est justement le principe du deep reinforcement learning d'utiliser un réseau de neurone pour obtenir une meilleure approximation de cette méthode d'évaluation (appelée classiquement "reward" en RL).

Je pense qu'on est tous d'accord sur le coup de com de google, mais affirmer : "La claque qu'Alphazéro à foutu à Stockfish n'est en rien précurseur d'une nouvelle façon de réfléchir" semble un petit peu fort. Si on admet qu'AlphaZéro et AlphaGoZéro sont basé sur les mêmes principes, AlphaGoZéro semble tout de même être basé sur un paradigme très différent de celui du calcule brut "classique".

@hberger peux-tu donner la référence de "ce que j'en lit, Leela ne fait pas de simu" (article ou site) ? Car si c'est le cas, je doute qu'on puisse appelé ça du reinforcement learning.


SLM, le 26/06/2018 - 23:19:19
Mea culpa pour les assertions mais je t'invite à resituer mes interventions dans le contexte : je vois passer un bon gros paquet d'inepties échiquéennes et informatiques assénées par le Icare des pendules, je m’adapte au niveau. ;-)

A te lire je découvre un sens non désiré à ma formulation "cette méthode". J'entendais rappeler que prétendre qu'Alpha réfléchit complètement différemment des autres modules est faux. L'idée principale reste la création d'un arbre de variantes puis l'évaluation de ces variantes et enfin un choix basé sur cette évaluation. (et un peu d'aléatoire au début mais plus il apprend moins c'est le cas) Ce qui est intéressant (et modifié par rapport aux modules classiques) c'est le processus de priorisation des coups à évaluer (on se rapproche effectivement de l'humain) mais surtout l'évaluation en elle-même qui n'est plus basée sur un calcul mais sur la proba de gain. Je ne voulais en rien signifier que la fonction d'évaluation était la même chez les deux modules.

Enfin la claque foutue par Alpha à SF pourrait être précurseur d'une nouvelle façon de réfléchir mais ne l'est pas à mon sens car Alpha a pu jouer des parties d'entraînement contre SF avant le match et c'est là toute la différence. Alpha a appris les points faibles de Sf (comme cité plus haut : le matérialisme si cher à nos modules contemporains) puis les a exploité. Un peu de lecture si le cœur t'en dit : https://medcraveonline.com/OAJMTP/OAJMTP-01-00005.pdf


Reyes, le 26/06/2018 - 23:23:35
Voilà comment est présenté Komodo 12 :

Le système "Monte-Carlo" de Komodo 12 se comporte différemment d'un module normal : en peu de temps il joue toute une série de parties contre lui-même et arrive à des évaluations basées sur les résultats de ces parties. Pour ce qui est de la force, la version "Monte-Carlo" n'est pas encore au niveau de Komodo 12 classique. Mais ce qui est intéressant, c'est que le style de jeu des deux versions diffère nettement. Le GM Larry Kaufman explique : « Ce nouveau moteur a le comportement caractéristique d'AlphaZero en ce qu'il est moins matérialiste, plus agressif et plus humain que les moteurs normaux. Le style de jeu de Komodo "Monte-Carlo" est beaucoup plus audacieux que celui d'un moteur ordinaire. Il préfère l'activité au matériel dans la mesure du raisonnable. »


ANaigeon, le 26/06/2018 - 23:41:52
Le style de jeu de Komodo "Monte-Carlo" est beaucoup plus audacieux que celui d'un moteur ordinaire. Il préfère l'activité au matériel dans la mesure du raisonnable. »

Eh oui, le matériel n'est-il pas, simplement, le substitut à notre incapacité (provisoire ?) de calculer toute l'activité ?



hberger, le 27/06/2018 - 09:40:50
@qbe
tu m'as mis un doute, du coup, j'ai regardé le code de Leela.
Effectivement, il simule et évalue sur un UCT (équivalent d'un MCTS).
AlphaZero, à ce que j'ai lu (pas pu voir le code, hélas :-) ) est différent de Leela.
Il faut bien comprendre que, dans la logique d'une simulation / évaluation (que ce soit brute force ou Monte-Carlo), il y a un GROS défaut dans la cuirasse, c'est l'évaluation de la position obtenue.
Déja, des évaluations humaines sur la position en cours peuvent être différentes selon les GMIs et leur style, et en plus, les développeurs ne peuvent interpréter sous format heuristique ces subtils différences.
Bref, Alpha sort complètement de ce shéma là puisque l'objectif est de complètement s'abstraire de la partie évaluation en ayant plutot comme critère : "houla, cette position, je la connais, elle me dit quelque chose, attends que je me souvienne ... oui, elle est gagnante à 75% des cas".

En clair, de ce que je lis, pour moi, un Komodo bruteforce classique ou un MCTS, c'est pareil de mon point de vue. Je pense même que le MCTS n'arrivera pas à battre le bruteforce car les limites de la fonction d'évaluation de la position va nécessiter de vraiment parcourir tout l'arbre pour "assurer" ou alors avoir une profondeur du MCTS tellement supérieure au brute-force ...
Alpha, ce n'est pas pareil. par contre, Alpha a un inconvénient en jouant contre un seul et même adversaire; c'est la super-spécialisation.
Mais je ne vois pas comment on pourrait utiliser cet inconvénient pour le battre.
Quoiqu'il en soit, pour nous, développeurs, le jeu d'échecs n'a plus d'intérêt.
Seuls des jeux avec un branching factor plus important ont encore un sens.
La victoire d'Alpha en go,a eu NETTEMENT plus d'impact en IA que la victoire de DeepBlue contre Kasparov qui était plus médiatique mais moins intéressante.
Et même là, je comprends Google et sa volonté d'utiliser Alpha sur d'autres domaines que le jeu ; il en a, hélas, fait le tour.
Maintenant, la seule question, en temps que joueur d'échecs, serait de savoir si le jeu d'échecs peut être résolu (même une résolution ultra-faible) et quel serait le ELO d'un programme parfait, mais ces questions n'ont aucun intérêt pour des développeur en IA, que pour nous, pauvres mazettes d'échecs.


JLuc74, le 27/06/2018 - 10:06:47
C'est clair que l'activité, je dirais même l'agressivité positionnelle est ce qui caractérise ces modules. Quand ça veut bien marcher ça donne des parties très intéressantes.

Pour nous, joueurs d'échecs, ça peut ouvrir des portes parce que ça remet en cause pas mal de dogmes sclérosants. Disons que c'est plutôt inspirant. Ce qui me surprend par exemple c'est l'importance que Leela donne au pions avancés en 6ème rangée et la façon dont elle les exploite.


hberger, le 27/06/2018 - 10:37:13
pas surprenant.
A évaluation équivalente (matérialiste), une profondeur plus grande va forcément engendrer un jeu plus stratégique et plus "long-terme".
Ce n'est pas le type d'algorithme qui engendre cet effet (enfin, pas directement), c'est la profondeur.
Après, cet effet peut aussi être créé par une évaluation différente (pour cela que des progs "classiques" avec une même profondeur jouent de façon différente).
Sachant que l'effet de l'évaluation est amplifiée par l'élagage ...



JLuc74, le 27/06/2018 - 11:18:14
La profondeur n'y change rien, pour le même temps Leela aurait plutôt tendance à voir moins loin, c'est du moins ce qu'indique le module.

L'élagage par contre c'est autre chose, pour une même profondeur le nombre de coups analysés par Leela est peut-être 20.000 fois moins important que pour un module traditionnel.

Je fais jouer des parties en 10mn+10s. Habituellement Leela est à une profondeur entre 18 et 20 pour 2000 coups analysés contre une même profondeur et quelques 50.000.000 coups analysés pour un module classique. Evidemment ça explique les lacunes tactiques de Leela qui n'envisage pas nombre de sacrifices tout en parvenant cependant à gagner un certain nombre de parties.


elkine, le 27/06/2018 - 14:29:56
L'élo du prog parfait dépendra du style, s'il ne joue que des slaves d'échange on doit pouvoir tirer quelques nulles...


hberger, le 27/06/2018 - 18:57:36
JLuc74 : ce n'est justement pas la même profondeur, puisqu'il n'y a pas d'évaluation a proprement parlé, mais il y a "pondération" par rapport à son apprentissage.
il faut le voir comme une profondeur "infinie".
Comme je l'ai dis précédemment ; cette pondération est aussi utilisé pour élaguer ; la bibliothèquee et la pertinence des parties jouées lors de l'apprentissage (et la phase de RL) a une vraie valeur ; c'est sa qualité qui fait office de moteur d'évaluation.
Bref, autant j'aime bien les échecs, j'aime bien l'IA ; autant je ne me passionne plus du tout dans le domaine des IAs aux échecs.



ArKheiN, le 12/07/2018 - 21:27:41
Mouais je suis pas convaincu sur quelques unes de mes parties, je me suis fait torcher sauf lorsque j'ai joué d4+c4 et qu'il a transposé dans une Nimzo. Voilà comment j'ai gagné la dame (j'avais les Blancs
1. d4 Nf6
2. c4 e6
3. Nf3 d5
4. Nc3 Bb4
5. e3 O-O
6. Bd3 dxc4
7. Bxc4 c5
8. O-O cxd4
9. exd4 b6
10. Re1 Bb7
11. Ne5 Nc6
12. Nxc6 Bxc6
13. Bg5 h6
14. Bh4 Rc8
15. Bd3 Qxd4
16. Bh7+ Kxh7
17. Qxd4

Et ça en mode "hard" (400 nodes). J'ai pas d'explication sur une telle bourde. Bon après j'ai super mal joué et il a réussi à revenir mais c'est pas la question.


JLuc74, le 12/07/2018 - 21:47:34
Une bourde classique de Leela qui n'envisage pas les sacrifices. Une grande partie de ses défaites sont liées à des gaffes de ce genre. A côté de ça le module gagne régulièrement contre de modules à la force reconnue.




© 2000-2018 - France Echecs - Politique de confidentialité