France Echecs Bandeau France Echecs |  
---- Tuesday 24 March 2026
--- ---- --- Ecrire au webmaster
Nom d’utilisateur   Code d’accès 
--- --- ---
Forums  | Devenir membre | Mot de passe oublié ? | Charte | A propos Contacter France-Echecs
Actualités   Actualités
Tournois   Tournois
Ouvertures   Ouvertures
Clubs   Clubs
Informatique   Informatique
Arbitrage   Arbitrage
Problèmes   Problèmes
FAQ   FAQ
Etudes   Etudes
Finales   Finales
Théorie   Théorie

 Rechercher sur le site  

Abonnez-vous à la revue Europe-Echecs
Sur l' Idee !!!! par cl***ad****2660 le  [Aller à la fin] | Informatique |
Je reprends l'idee qu'a eu cet ingenieux Jaybe sur les possibilites offertes par le calcul parallele apliqué aux echecs ....

Moi ki m'interesse particulierement a ce domaine (j'espere faire un jour une these sur ce theme...) je doute des possibilites d'un tel moyen !En realite la realisation de calcul en parallele est relativement aisee pour du traitement de donnees ki necessite des algorithmes simples !!!!!Pour les echecs le probleme serait de trouver un moyen de coordonnées les differentes machines . CHOSE TRES HARDUE !!!!!!!!!

Enfin si les interessés ont une autre vision k'ils se fassent connaitre.



arretez moi si je dis une betise mais deep thought et ses 256 processeurs c'etais bien du calcul distribué non?


ouaip fande, je vois pas trop où est le problème. S'il y a bien un domaine où la parallélisationest pas bien compliquée c'est bien pour étudier les variantes d'échecs :
- étape 1 : une machine "chef" calcule toutes les positions avec uneprofondeur de 6 par ex
- étape 2 : il envoie à chaque machine "ouvrière" une position obtenueavec comme indication de dire si la position est gagnante ou non.

Comme dit dans l'autre post (pkoi avoir recréé un article ???? bonjourle bazar !) les limitations sont à mon avis d'uneautre nature.


pourquoi ne pas partir de la fin Imaginons une base de données centralisées.
Celle ci comportent l'ensemble des positions à sept pièces sur l'échiquier.Chaque machine se conectant recevra l'une des positions à traité et renvéra le résultat de sa recherche.
Sachant que l'ensemble des positions à 6 pièces ayant été résolu on fera arrété le traitement au bon moment.
Je pense qu'il serait possible d'allez jusqu'a 8 pièces en moins de cinq ans.


chais pas si c'est de l'humour mais ça m'a fait rien en tous cas !! ;o) merci moi !!


oups rien = rire 


GULKO-ORDI Que pensez-vous de ces parties. Fox de la française gagnée en 25 coups par schredder? MERCI


ins174, le
? ? ? ? quel rapport avec cet article ? ? ? ? 


moi les finales a 6 pieces ne sont pas resolues Aucune finale avec des pions n'a été calculée.Alors sans les pions l'interet est limité.


pas sur de marcher (réponse à moi)... partir de la fin ne me semble pas être un moyen approprié pour les raisons suivantes : 1-toutes les parties ne se finissent pas en finale2-on retrouve souvent des positions semblables, voire identiques en finale pourtant les parties y conduisant n'ont rien en commun3-l'analyse rétrograde résiste mieux aux ordinateurs que l'analyse habituelle, cf les pièces issues de promotions et études des situations illégales...je pense que ce que tu proposes serait très intéressant pour une étude exclusive des finales, mais ce n'est pas ce que nous proposait clauradoux!Je reprends en partie les propos de perestroika, l'analyse parallèle ne semble pas être un problème, au contraire, ce qui me fait justement dire cela ce sont les petits programmes comme ceux que tilip tip a évoqué dans un précédent post, ou encore l'exemple de fandecapa qui me semble avoir parfaitement sa place ici.


Where is the probleme ? Il vous semble naturel, je crois de transmettre aussi simplement des informations entre ordinateurs par le biais de postions . Premier probleme comment determiner le niveau de l'analyse effectuer ou a effectuer, comment determiner le moment ou l'on scinde le travail . Il ne peut s'agir de simple positions que l'on donne a differentes machines et leur indiquant tel ou tel coup a analyserCe serait trop simple et en partie erronnee.


reponse a jaybe La difference entre les programmes du SETI ou les programmes du GENOTHON c'est ke le centraliseur de calculs connait exactement ce qu'a fait la machine l'algorithme est deterministe Pour le cas des echecs notre probleme est au demeurant completement aleatoire(algorithme alpha et beta)L'arbre de decision des coups analyser par une machine est tres complique donc il est tres difficile de choisir comme solution de parallelise le traitement de position .


reponse a fandecapa Je ne sais pas comment fonctionne Deep Blue , s'il s'agit de processeurs dedie chacun au calcul avec acceleration du temps global ou s'il s'agit d'un calcul effectue en parallele .Si tu sais ou je peux toper les infos je suis prenneur !


? clauradoux ? comprends pas grand chose à ce que tu racontes là... suis sans doutefatigué mais pourrais-tu expliquer ? Je ne vois tjs pas vraiment oùest le problème... J'ai donné une solution simple de répartitionde la charge : en quoi ça ne fonctione pas ?


dépêche toi de répondre, je pars en vacances ;o) Peres, sadique.


Ref Peres "- étape 1 : une machine "chef" calcule toutes les positions avec une profondeur de 6 par ex"
Deja ca doit etre impossible.30 puissance 12 , ca depasse deja les capacités actuelles.


Re: les finales de 6 pieces 
Pour info, les finales de 6 pieces ont deja ete calculees il y a plusieurs annees par Lewis Stiller, a l'aide d'une Connection Machin.

Cependant, il s'en est servi uniquement a des fins de statistiques (mate le plus long, etc...) et n'a donc pas enregistré les bases de données sur disques (plusieurs Tera Octets...).



Re: pourquoi ne pas partir de la fin 
En theorie, partir de la fin pour resoudre les echecs est envisageable.
C'est d'ailleurs comme ca que se construisent les bases de donnees de finales: on construit d'abord les finales de 3 pieces, pour en déduire les finales de 4 pieces, et ainsi de suite ....

En pratique, la construction de ces bases de données pose de gros problemes de temps de calcul et d'espace de stockage.
  • Passer d'une base de donnees de 'N' pieces a une base de donnees de 'N+1' pieces demande environ 64 fois plus de place.
    Les bases de donnees de 5 pieces faisant deja 7 Go (compressees au format Nalimov), on peut estimer la taille des bases de donnees de 6 pieces a 500 Go, et celles de 7 pieces a 30.000 Go ...
    Quand aux finales de 32 pieces, mieux vaut ne pas trop y penser (un rapide calcul pour s'amuser donne un 1 suivant de 58 zeros ...)
  • Au niveau du temps de calcul,
    plusieurs jours sont necessaires a une machine tres rapide pour calculer les finales de 5 pieces.
    Par contre ici un calcul parallele (en utilisant par exemple le reseau Internet) est envisageable et permettrait de reduire considerablement les temps de calcul.

BTW, l'approche que tu proposes peut etre tres utile dans un jeu comme les dames anglaises (Checker) ou le programme Chinook l' utilise avec profit (Cf. Checker Endgame Databases)



reponse a perestroika 
Hi!

Le mode de fonctionnement en 2 etapes que tu proposes me rappelle bcp une machine qui s'etait illustree il y a 5 ans contre Garri (comme quoi ton approche a déjà été validée dans la pratique :-)

Un autre programme récent (Brutus) utilise la même idée.

Au niveau technique, l'algo de base des programmes d'échecs (l'alpha beta), peut se paralléliser sans trop de problème, avec une perte de l'ordre de 20 à 50 pour cent (ca signifie qu'un quadri processeur ira entre 2 et 3.5 fois plus vite qu'un mono processeur.

MAIS cela suppose que la communication entre les processeurs se fassent tres rapidement, ce qui est le cas si les processeurs sont dans la même machine.
Cela tiend au mode de fonctionnement de l'Alpha Beta ou l'evaluation d'une ligne de jeu peut rendre inutile l'evaluation d'une autre lignes,(pourtant completement differente).
Il est donc important que les différents processeurs connaissent l'état des recherches effectuées par les autres processeurs (afin de ne pas continuer à analyser une ligne invalidée par un autre processeur).

Dans le cas d'un réseau Internet connectant différents ordinateurs, cette communication est beaucoup trop lente (même avec une connection par cable ;-), ce qui rend la parallélisation d'un calcul sur le réseau peu efficace.

En en discuttant l'an dernier avec Ulf Lorenz, auteur du programme parallèle P.Conners, il m'a indiqué qu'il avait déjà fait des tests avec son programme sur des réseaux type Internet, et que la perte dépassait les 90 pour cent (id est 10 PC connectés par Internet pour analyser une position avaient la même vitesse qu'un seul PC ...)
Pas très encourageant...

A+


fzibi... comment fais-tu pour structurer d'aussi belles réponses (sauts de lignes, petits points paragraphés...) ? ;-)


pour Jaybe... 
C'est beaucoup d'entrainement ;-)
Et la lecture de cette page a du aider.



pour tout le monde... Le calcul distribué sur Internet est une très bonne solution pour les échecs. Ca pourrait franchement aider et faire gagner du temps à tout le monde de faire des recherches en distribué. Tout le monde utilise déjà un ordinateur pour vérifier ses analyses donc je ne vois pas le pb. Et puis vous sousestimés peut-être la puissance des ordinateurs. Etant joueur d'échecs et programmeur (c++, assembleur, php-MySQL, XML, javascript...) je connais assez bien le sujet et franchement je trouve que cette idée très bonne. Maintenant il n'y a plus qu'à la mettre en oeuvre.Au point de vue technique, il est clair qu'il faudrait un serveur qui centraliserait toutes les données (c'est ce qui est utilisé pour le décrypton par exemple). Chaque ordinateur viendrait chercher un calcul à faire qui serait défini dans un fichier XML (il faut juste définir une grammaire). Quand à l'efficacité evoquée par fzibi, je pense que 90 pour cent est un peu exagéré. Je pense qu'à ce niveau là, il faudrait êut-être une intervention humaine pour valider ou pas certaines variantes. C'est au serveur d'allouer des calculs aux autres ordinateurs donc c'est à ce niveau là qu'eventuellement peut se poser le problème du calcul.


cppman s'il y a bien une personne qui m'a convaincu ici c'est tilip tip! Je ne doute pas une seconde de l'efficacité du calcul distribué mais entre nous y'a mieux à faire que laisser nos PC calculer des variantes d'échecs, cf united devices...


Merci fzibi ! Je désespérais d'obtenir une réponse sérieuse !! Intéressant et pertinentton truc, voilà en effet qui freine violemment l'efficacité du parallélisme.Je ne pensais pas qu'une inter-relation entre calculs parallèlesoit aussi optimisante !!

cppman : (Si j'ai bien compris) Ce que nous explique fzibi est plus qu'unesimple question de répartition du boulot entre X machine. Ca c'esteffectivement possible.
Mais une communication tout au long de ce calculentre les différentes branches s'avèreextrêmement fructueuse !! Tellement qu'elle rend quasimentinutile le boulot de parallélisation ; avec ou sans le rendement estgrossomodo le même.

Ceci dit je ne vois pas très bien comment l'optimisation opère. Est-ceqd 2 variantes se rejoignent ? Est-ce uniquement ça ?


et la reconnaissance de forme ? Plutôt que la force brute avec l'utilisation de Tablebase la solution ne viendraient-elle pas de la reconnaissance de forme?Actuellement le programme déroule sa bibliothèque puis se retrouve dans une position inconnue et analyse cette position avec les connaissances théorique qui lui ont été données et il descend l'arbre des variantes.Ma proposition est la suivante : et si l'ordinateur ne reconnaisait pas une suite de coup mais une forme par exemples les differentes formes qui caratèrisent la partie sicilienne structure de pions placement des pièces mineures, des tours des rois...A une forme donnée serait associé, grace à l'experience puisée dans des databases de parties de maitre, un traitement donné.Cette solution vous parait-elle possible ou complètement loufoque?


+ que possible puisque se rapprochant probablement d'une intelligence digne de ce nom et du fonctionnementhumain, mais rien à voir malheureusement avec l'objet de ce postqui n'est pas d'obtenir un jeu "fort" mais "parfait". Rien à voir. L'approchen'est pas du tout la même à priori.


ins174, le
He he ! ... on y vient ! .... Ce dont nous parle fandecapa n'est rien d'autre que le défi majeur que doit relever l'IA !
Que l'on peut (très rapidement et très grossièrement) résumer en deux étapes :
1- La reconnaissance de formes. Voir à ce sujet l'excellent n° spécial de "La recherche" de Février 2002, n°350. On peut encore le trouver chez certains marchands de journaux.
2- Le traitement / interprétation de ces formes qui relèvera d'un développement du traitement symbolique. Là y a encore du chemin à faire !

Allez donc farfouiller ici , plein de bonnes choses à dénicher :

Automates Intelligents

Evidemment d'accord avec Peres, rien à voir avec le sujet de ce post, quoique !
Fandecapa pose la seule vraie approche ayant une chance de réussir un jour, puisqu'il est prouvé que l'autre approche, dans le but d'un "jeu parfait", est définitivement hors de portée de tout moyen raisonnabele que l'on puisse envisager.


besoin d'explications Bon fzibi je te fais confiance tu dois bien connaitre ton sujet, j'aimerais avoir ton avis là-dessus.

Je pense que lorsque un ordinateur s'attaque à l'étude d'une position en fait il construit une fonction qui envoie une position donnée sur disons par exemple l'intervalle [-1,1], -1 désignant un gain noir, +0.1 un petit avantage blanc... et ensuite le calcul consiste juste à appliquer un algorithme de max/min permettant d'extraire l'une des lignes lui semblant optimale pour les deux camps. Si tout marche ainsi, je ne comprends pas pourquoi le calcul parallèle ne fonctionnerait pas. On commencerait par préparer de la place sur un gros disque dur, et ensuite les ordis se partageraient le boulot, du type le premier il n'analyse que les variantes issues de a3, le deuxième celles issues de b3, etc...

Effectivement je concois qu'il y ait des pertes, dues par exemple aux interversions de coups, mais mis à part cela? Donc si je résume chaque ordi travaille de son coté, et il y a un ordi central qui lui n'est chargé que de pratiquer l'algorithme min/max. Cela ne marche pas?


Jaybe tu ne me sembles 


Jaybe tu ne me sembles pas être un champion de la lecture en diagonale ! Tu ratesla moitié des trucs ou alors tu lis de travers ?

J'ai répondu à une partie de tes questions d'une part
Tu persistes dans l'algo min/max alors que ça n'est pas le sujet (recherchepartie parfaite et non du coup probablement le + fort) d'autre part.
Enfin tu re-énonces une question déjà posée.

Pas brillant ! Reprenez-vous ;o)


très très gentil... Peres je commence par te remercier de la remarque très pertinante "enfin une réponse sérieuse..."

Ensuite tu fais des remarques désagréables à mon encontre alors que je ne crois pas avoir jamais été désagréable ou quoi que ce soit à ton encontre, ou envers quelqu'un d'autre ...

Tu réponds à un post qui ne t'étais pas adressé...

J'en déduis donc de la façon la plus courtoise possible que non, nous ne sommes pas faits pour nous comprendre, et j'attends maintenant d'autres propositions de la part d'autres personnes qui peut-être me seront plus accessibles. Merci de ne pas me répondre cette fois.


Jaybee je vais essayer de répondre le plus clairement possible à ton interrogation légitime :

Les pertes sont dues à la nature même de l'algorithme appliqué : Ce n'est pas le min-max auquel cas tu aurais parfaitement raison, mais l'alpha-beta qui est un min-max optimisé.

Sans rentrer dans les détails (un Post précédent "Sur l'intelligence des ordinateurs" traite ce sujet en détail qq'un aurait-il l'amabilité de mettre le lien SVP ?), l'alpha-beta implique une interdépendance entre les différentes branches calculées :dans ton exemple il y a 1.a3 et 1.b3.
Il se peut qu'après avoir analysé 1.a3, CERTAINES branches dans 1.b3 soient tout à fait inutiles à explorer (c'est la caractéristique principale de l'alpha-beta).

Par conséquent, le temps gagné à paralleliser le calcul sur différentes machines est entièrement perdu dans la communication nécéssaire entre les différents calculs.

j'espère que c'était sufisamment clair ...


la solution, c'est une machine massivement parallèle comme était Deep Blue : des dixaines de processeurs sur une même machine qui travaillent en parallèle sur différentes branches, la communication entre eux étant alors très rapide .

La mise au point est qd même très délicate, et de gros moyens sont nécéssaires .


Qui parle de gentillesse ? Je ne suis ni aggressif ni gentil ni méchant, au pire intransigeant ! ;o)

Désolé si je t'ai blessé ça n'était pas le but. Seulement te secouer ette faire prendre conscience de ta lecture un poil légère car (j'insiste) ellel'a été. Si tu n'en es pas encore convaincu je peux développer chacun de mes3 points, mais ça me semble superflu !
Preuve en est que tu ne découvres que maintenant une partiede mes interventions enfin une réponse sérieuse.... D'ailleursà ce propos encore une fois rien d'aggressif, si tu penses que je me trompemontre moi celle que j'aurais omise ou sous-évaluée !? C'est bien possibleme connaissant et je t'en serais reconnaissant !

Encore une fois une lecture trop rapide entraîne la répétition, laredondance et donc contribue à alourdir et rendre indigeste le post.


au fait pas facile de retrouver ce fameux article "De l'intelligence des ordinateurs", alors je m'y mets aussi :
A Reyes : le moteur, le moteur, le moteur !!!


merci Qopi il ne me reste plus qu'à me fournir les détails du fonctionnement de l'alpha-beta que je connais mal, et je serais bien informé sur la chose, je te remercie.

Une dernière question : (je reprends mon exemple) quand un seul ordinateur va travailler sur b3 après avoir travaillé sur a3, s'il évite de recommencer les calculs déjà faits il va chercher dans sa base de positions déjà calculées si chaque position issue de b3 n'en ferait pas déjà partie non? Alors je ne comprends pas quelle différence avec le fait de centraliser les positions dans une grosse base accessible à tous les micros, puisqu'ils ne communiquent pas entre eux mais simplement avec un disque dur commun. Bien sur si cela fait partie de l'explication de l'algorithme alpha-bêta alors j'aurais trouvé d'ici peu je pense...


ta dernière phrase répond à ta propre question !Il faut juste retrouver l'article qui explique l'alpha-beta. Je vais chercher un peu ....


Désolé Qopi J'ai pas ce lien là, par contre j'ai retrouvéçui-ci auquel tu comptaisrépondre


Ceci dit Qopi tu tombes dans le même travers que Jaybe, cet article faisait suite à un autre(il n'aurait à mon sens d'ailleurs pas du être créé, vu que ça n'en estqu'une réponse) qui ne recherchait pas des meilleurs coups mais unerésolution de variantes.

Dans ce cadre nul besoin de min/max !!! Mais je ne vois pas en quoi celàchange fondamentalement les restrictions au parallélisme en fait...


désolé aussi Peres pour le post que j'ai laissé tomber. Je comptais répondre mais devant la prolixité des interventions, j'ai repoussé le moment, puis c'est devenu obsolète ...

Bon pour le sujet qui nous intéresse, j'ai lu le post précédent qui est très intéressant.Je crois d'ailleurs qu'on est tout à fait dans le sujet car je ne vois pas la différence entre "recherche du meilleur coup" et "résolution de variantes".
Dans tous les cas, on met une position à analyser, et on voit ce que ca donne sur la profondeur la plus élevée possible (avec un Alpha-beta standard).
De plus, la proposition de paralléliser les calculs sur n PCs via internet (comme SETI) me parait extremement intéressante, et comme le dit Jaybee ne permettrait surement pas de résoudre le jeu, mais au moins de réfuter 2% ou 3% de variantes dites "théoriques" une fois pour toutes (style telle ou telle variante pointue dans le gambit Letton ou gambit roi ou autre).
Malheureusement on se heurte au problème soulevé par fzibi, inhérent a l'algo Alpha-beta lui-meme ....(je ne reviens pas la dessus)


c'est bon! Oki le principe de alpha-beta est clair : dès qu'on a une mauvaise variante, elle part, poubelle! Donc si on veut éviter ce problème... on sucre le alpha-bêta! Oui ok je viens de multiplier par ... ouf beaucoup! le temps de calcul, mais bon déjà on rejoint l'idée fondamentale de la résolution partielle (je redis : partielle, je veux pas passer pour un fou!) : on stocke, on empile, on entasse et rien n'en réchappe, hé ho tu vas où toi? au pied!

Donc supposons (doux rêve?) que demain une centaine de milliers d'ordinateurs soient dévoués à la tâche proposée, on prépare du café et on attend... Cela pourrait compenser la perte de l'alpha-béta non?

Je reprends les idées qui étaient dans un précédent post : le but n'est pas de finir le jeu, mais de vérifier si dans toute la théorie actuelle il n'y aurait pas par çi, par là, des variantes passées trop légèrement à la moulinette, genre les lignes où un camp se trouve avec une tour de moins pour une attaque maousse sur le roque...

Ah une dernière remarque. J'ai pu lire sur d'anciens posts de toi Qopi "Si les machines deviennent un jour INVINCIBLES cela passe forcément par une nouvelle approche algorithmique (probablement basé sur une vraie intelligence artificielle) qui reste presque ENTIEREMENT à inventer .... ". Mais les machines ont-elles besoin d'être parfaites pour être invincibles? Tout humain non GMI qui joue contre Kaspi perdra 1000 parties sur 1000, pourtant il ne joue pas de façon optimale (pas aux dernières nouvelles...), aussi en augmentant leur force les machines pourraient très bien être invincibles sans être parfaites non? (disons pour simplifier en blitz par exemple)


Vas-y ben vas-y ose dire que je suis prolixe !! ;o)

Entre résolution exacte et à peu près la différence est majeure !!
Par min-max (ou alpha-béta peu importe) tu évalues chaque position (cf le [-1;1] de Jaybe)et tu es limité par un seuil max de profondeur.
A l'opposé, une résolution exacte t'oblige à descendre jusqu'au mat doncon ne passe plus par une évaluation "à peu près" de la position.

Ceci dit je l'ai déjà dit mais à mon avis aucune des 2 solutions (exactesou non) ne suffira à "réfuter" systématiquement la variante étudiée, leslimitations de puissance mises de côté.
En effet savoir que le "17. ... Cxb5" est réfuté théoriquement c'est bien mais si l'adversairete le joue qd même et te sort un 19ème coup dont tu ne connais pasla réfutation qui c'est qu'a l'air malin ??? Il faut connaître la réfutationà toutes les variantes d'une variante !!! Pas évident hein pour nous autresqui ne disposons pas (encore) de cartes ROM intégrables !!


17. ... Cxb5 Centralise le cavalier ?


Ref : c'est bon ! Invincible : héhé non !! Tu oublies que le hasard vient fourrer sonnez là-dedans et que donc n'importe qui peut battre n'importequi de non-invincible. Du moins en théorie bien sûr.
Qu'est-ce qui te dit qu'un débutant ne jouera pas une suite de coupstrès forte sans le savoir ?? Très très TRES peu probable je te l'accordemais pas impossible, et donc l'ordi n'est plus invincible...
Cf de nombreux (et très longs (et très houuuleux)) articles sur la question,que moteur Yvap va nous ramener (mais si j'y crois ;o), le moteur yvapne s'use que si l'on ne s'en sert ... pas ! donc usons et abusons ! ;o) )


me revoila, je rentre du boulot Peres : dans un milieu de jeu il est impensable d'envisager une résolution exacte, ca n'est possible que dans certaines positions avec mat forcé en n coups (extremement rare ...) ou dans les finales avec 6 pièces ou moins.
Par conséquent, il n'y a bien qu'une méthode envisageable qui est la résolution "à peu près".

Jaybe : Parfait, on supprime l'alpha-beta et on utilise le bon vieux Min-Max (tout le monde le comprend cui-la au moins pas besoin de passer 3 heures à expliquer).
Reste à voir si le temps gagné par la parallélisation est suffisamment important pour compenser la lourdeur de l'algo . Et la à mon avis tu risques d'avoir des surprises, car l'alpha-bete est une optimisation réellement énorme .Pour nous donner un ordre d'idée il faudrait l'avis de notre Expert fzibi, mais je vais qd meme rechercher ....


un lien ntéressant sur la parallélisation de l'Alpha-Beta, fait par des francais :Alpha-Beta parellisation (in english)


reponse a Jaybe 
Hi !

Donc supposons (doux rêve?) que demain une centaine de milliers d'ordinateurs soient dévoués à la tâche proposée, on prépare du café et on attend... Cela pourrait compenser la perte de l'alpha-béta non?
100.000 ?
Voyons grand ! Supposons que nous disposions d'un million d'ordinateurS en réseau sur Internet, entièrement dévoués à notre cause, que nous allons utiliser pour faire une recherche Mini Max (donc sans utiliser l'optimisation Alpha Beta).

Cette optimisation Alpha Beta permettant de diminuer le nombre de positions à analyser par un facteur (de l'ordre de) racine de 'N',
notre 1.000.000.000 d'ordinateurs ira donc environ 1.000 fois plus vite qu'un ordinateur seul utilisant l'optimisation Alpha Beta.

Question 1 :
Est ce rentable ? (cela fait quand même 99.9 pour cent de perte...)

Question 2 :
Est ce realisable ? (je n'en sais rien :-)
Il faut aussi considérer que d'autres optimisations (je pense surtout aux tables de transpositions) sont difficiles à mettre en oeuvre dans une architecture parallèle, mêmes si ces optimisations sont nettement moins utiles que l'Alpha-Beta.

A ma connaissance, un seul programmeur a tenté concrétement l'expérience de faire tourner un programme d'échec sur un réseau Internet (il s'agit d'Ulf Lorenz : Cf. plus haut), et ce qu'il m'en a dit n'était pas très enthousiasmant...

A+


Oki! Merci fzibi! Bon, alors c'est pour quand l'ordinateur quantique??? ;)


Ref Qopi Ben voui je sais bien qu'une résolution "absolue" n'a à peu prèsaucune chance de voir le jour mais est-ce ma faute si c'était lesujet ?? ;o) Et puis celà peut peut-être être tout de mêmejouable dans quelques variantes ultra pointues comme le préconisaitJaybe, et encore je doute.
Mais "à peu près" ou non il reste tjs le problème que j'ai énoncé plushaut (les variantes de variantes)

Jaybe : le quantique ne suffirait pas !! il nous faudrait au moins desmachines traversant allègrement les couloirs espace-temps dans tousles sens.


Finalement, on peut donc conclure que la parallélisation via internet avec un modèle style "SETI" est tout simplement vaine, à cause de la nature même de l'algorithme.

Dommage car l'idée paraissait vraiment très excitante ....


Pkoi dommage ? C'est ti pas beau de voir une telle résistance à la puissance ? Quasi héroïque ? La forteligne aux échecs refuse dans sa pudeur de se laisser dévoiler par desgros bras !
Celà devrait en ravir plus d'un ! Tous ceux qui craignaient de voirles échecs résolus par une montée exponentielle des CPU ou unegiga parallélisation se voient tout à coup offrir un sursit !! La lignemaîtresse aux échecs ne s'offrira qu'à une réelle intelligence !


pessimiste Qopi! Si on avait pu dire au type qui a fabriqué le premier transistor ce qu'on est capable de faire aujourd'hui il nous aurait pris pour des rigolos. Pareil à ceux qui dans les années 50 ont connu les ordis qui prenaient la place d'un petit appartement pour stocker une mémoire ridicule. Donc quand tu dis que l'idée est vaine, je réponds oui... en l'état actuel de la technologie! Mais je crois que nos arrière-petits-enfants se donneront rendez-vous dans cent ans pour en reparler.


non Jaybe encore une fois tu confonds technologie et magie. La science et les améliorations techniquesaussi puissantes soient-elles n'auront jamais l'effet d'une baguettemagique !!
Comme on l'a maintes fois expliqué, la gigantesque puissancenécessitée par une résolution parfaite est très très probablement inatteignable,même pour les arrières-petits-fils de nos arrières-petits-fils.

Certes on peut faire des choses aujourd'hui difficilement imaginablesil y a seulement 50 ans, mais il y a encore + de chosesque l'on croyait à l'époque pouvoir faire dans 50 ans (c'est à direaujourd'hui) et que l'on sait maintenant êtres quasi-impossibles.


pardon j'oubliais que tu voyais dans le futur...


Je regarde là où je peux ! C'est à dire dans le passé !!

Pour ces histoires de technologie future, j'insiste !! Entre autres il y ale fait que si chaque position pouvait être codée sur un atome, alorson ne pourrait stocker avec les particules de l'Univers qu'uneportion dérisoire de l'arbre échiquéen (un milliardième de milliardième demilliardième de l'arbre grossomodo).
Il y a le fait que multiplier la puissance par 10^10 (sympathiquedéjà non ?) de nos bécanes ne suffirait pas à résoudre l'arbred'ici la fin de l'Univers...

Tu crois au père noël encore à ton âge ? :o) Lui seul a peut-êtreencore des chances des réussir ce formidable tour de force... sinonj'y crois autant qu'à la machine à remonter dans le temps comme dit+ haut.


Si ça ne suffit pas à te convaincre, alors tu m'as convaincu à l'opposé que tu confonds magie noireet informatique !!


oui je pense que Peres a raison sur ce coup.
On est pas en face d'un problème TECHNIQUE mais d'un problème ALGORITHMIQUE . Je voulais juste parler de la parallelisation via internet, pas de la résolution du jeu comme peres le sous-entend qui est bien entendu inimaginable.

Mais comme tu dis on en reparlera dans 10 ans, car la solution passe peut etre tout simplement par l'accélération des débits internet, qui résoud alors tout simplement notre problème ....


oups y a comme une petite contradiction dans mon précédent post.
Je retire donc la première phrase, la technique pourrait tout à fait nous faire avancer puisque on est juste bloqués par la lenteur des communications sur le net.


Boarf et encore tu sais... je reste sceptique... certes on gagnera un facteur 1 million, allez 1 milliardd'ici 10 ans avec une réseau en béton armé avec des fils gros commema cuisse... mais ce facteur nous permettra de gagner 4 ou 5 niveauxde profondeur supplémentaires, mais pas bcp + ! L'effet horizondes échecs est terriblement puissant !!

Je crois bcp bcp + à une résolution algorithmique comme tu dis viaune intelligence un peu + digne de ce nom (cf post parallèlede fandecapa).
Là non seulement les machines seront incroyablementplus puissantes mais surtout elles pourront t'expliquer avec un tonchaleureux le pourquoi du comment de leur coup, ses tenants etaboutissants (et elles feront le café of course).


Peres, je crois qu'on ne parle pas tout à fait de la meme chose.

Jaybe et moi somme sommes restés sur le problème pratique de la parallélisation via le net, et on n'envisage absolument par la résolution absolue du jeu ou meme d'une position donnée.

Alors prenons ton exemple : on gagne un facteur 1 million dans le débit internet . La on peut se prendre à rêver :On peut alors tout à fait imaginer un prjet fou comme un super-ordinateur d'échecs constitué de milliers d'ordi en réseau, qui s'appliquent à dérouler l'Alpha-beta sur une position donnée et ce 24H sur 24H, les ordi pouvant librement sortir et entrer (je te raconte pas la complexité de la mise au point déjà).

Une sorte de Méga Deep blue quoi ...

On gagne alors une profondeur supplémentaire de 3,4 coups ce qui est CONSIDERABLE. Cela ne remettra pas en cause la Théorie des ouvertures, mais on obtiendrais tout de meme qq chose du style 2%,3% de positions dites "théoriques" réfutées, et une machine d'une force pratique EXCEPTIONNELLE.


Qopi, fzibi, cppman, yvap... Je ne sais pas pourquoi je perds mon temps à tenter de m’expliquer, peut-être parce que dans certains messages j’ai l’impression que l’on essaye de me faire passer pour un demeuré et bêtement je n’apprécie pas... Je vais donc essayer d’expliquer ce que je pense, et je serais ravi que PRESQUE tout le monde me donne son avis dessus.

Il est évident que dans de nombreux domaines, l’ordinateur a montré ses limites, et le domaine du jeu en fait bien sûr partie. Pour ceux qui trouveraient que le jeu d’échecs n’est pas un exemple concluant car l’ordinateur sait produire un jeu supérieur au jeu d’un GMI (supérieur dans le sens bête et méchant : il le bat) je pense qu’avec le jeu de go il y a de quoi couper court à toute polémique pour savoir si oui ou non l’ordinateur peut épuiser un jeu « standard ».

Continuons avec un peu d’histoire. Quand Rutherford en 1911, puis Bohr en 1913 ont mis au point leurs modèles atomiques, certains savants, peu nombreux il est vrai, ont vu là la fin de la recherche scientifique, il ne resterait que quelques détails à trouver. D’autres étaient plus ou moins convaincus, mais il restait ça et là des imprécisions sérieuses, on sentait bien que le mystère n’était pas clos. N’est-ce pas proprement hallucinant de constater qu’au milieu des années 40 l’homme a su utiliser, malheureusement à des fins destructrices, quelque chose qu’il n’arrivait même pas à comprendre ou à décrire trente ans plus tôt ?

Un autre domaine intéressant est celui de l’aérospatiale. Une fois mises au point les techniques pour envoyer des engins dans l’espace, l’une des premières limitations a été la quantité de matière pouvant être expédiée. Les fusées des années 50 étaient très limitées, et tous les ingénieurs consultés prévoyaient que l’augmentation de puissance nécessaire à l’envoi de tonnes de matériau dégagerait une telle chaleur et une telle énergie, que toutes les matières utilisées alors ne pourraient supporter et fondraient. Alors ? Les réacteurs d’Ariane V sont dans une matière non naturelle, inventée par l’homme qui a su contourner le problème une fois celui-ci parfaitement défini. Le matériau recherché n’existe pas ? On l’invente !!!

Il est notoire que toutes les découvertes capitales faites par l’humanité ont au moins un point en commun : personne n’a pu deviner le moment où elles viendraient, ni deviner rapidement tout l’impact qu’elles pourraient avoir sur notre civilisation. Et même plus, a chaque fois qu’on a essayé de se représenter une évolution futuriste, cela était plus ou moins du n’importe quoi, genre les voitures volantes, les robots domestiques... alors que qui aurait parié sur le portable il y a de cela vingt ans ?

Pour ce qui est de la recherche du point de vue général, le tout premier (je crois ?) résultat négatif significatif est du à Gödel et à son fameux théorème d’incomplétude, dont les nombreux corollaires nous signalent que par exemple il y aura toujours quelque chose à chercher. Mais est-ce pour autant qu’il existera des problèmes « fermés » qui n’admettront pas de solution ? J’en doute, surtout si le problème en question possède un nombre fini d’états, car la technologie c’est un peu comme l’ensemble des entiers : il y en aura toujours un devant à aller chercher, mais tôt ou tard tous ceux que l’on se sera fixés à un moment quelconque seront atteints.

Pour conclure, je dirais que beaucoup de gens associent l’informatique avec le progrès, car pour eux il n’y aura jamais aucun outil plus performant, plus riche que celui-ci, et que l’humanité a sûrement fait sa plus grande découverte de tous les temps. C’est à peu près le même genre de sentiment de domination que devaient ressentir les hommes des cavernes quand ils ont maîtrisé le feu, ou su fabriquer des outils, non ?


quand à la résolution algorithmique via une intelligence "digne de ce nom", après avoir relu les posts et réfléchi un peu j'y crois de moins en moins :

Pour moi (avis subjectif attention) la seule voie possible est la recherche arborescente. Toutes les tentatives d'introduction de "vraie intelligence" ne seront que des améliorations introduites dans l'algorithme via la fonction d'évaluation ou le classement des coups candidats, ou autres composantes de l'algo.

Il n'y aura pas de révolution de ce coté la, juste un "affinage" de l'alpha-bêta. C'est d'ailleurs la voie qui est suivie actuellement.

En revanche, la parallélisation me parait etre la vraie révolution future dans le domaine, mais ce n'est que mon avis....


ca vous branche plus trop le sujet de départ sur la parallélisation on dirait, bon tant pis, j'arrête de vous saouler ....


Dites vous croyez que je l'ai vraiment fâché ? :o) C'est pas que ça m'affole des masses mais en tant qu'hypothético-futurprof si tu n'adresses + la parole de toute ta vie suite à la remarque dérangeanted'un de tes élèves, pfiouuu pauvres d'eux !!!
Je t'ai déjà dit que j'étais désolé si je t'avais blessé, tu veux que jeme roule par terre virtuellement et me flagelle avec le cordon réseau ?

Peres, pas caractériel pour un pet.


Sisi qopi au contraire ça me passionne, mais j'ai un verre de rhum guadeloupéen dans la main là... il est raisonnable de mapart de ne te répondre que demain ;o)


J'arrive j'arrive Qopi ! Non non j'ai fini par tourner la barre et réussi à orienter mon discours !Je parle bien maintenant d'une approche "à peu près".

Certes 4 ou 5 niveaux de+ donnent un résultat + fort que jamais mais je ne dirais pas pourautant que la force obtenue est aussi démarquée que ça.Par ex en jeu parcorrespondance ça ne me semble pas suffisant pour battre les GMIactuels. Plus on va loin en profondeur d'exploration plus ça coûtecher de continuer à creuser et moins on gagne en force.
Je persiste à penser que la voie d'amélioration de la recherchearborescente va être rattrapée, doublée puis larguée par des approches+ "futées" du type reconnaissance de forme ou intégration d'un processus de réflexion s'appuyant sur des principes conceptuels. J'ycrois !! ;o)

Par contre pour l'amélioration du réseau internet je pense qu'ilfaut pas trop rêver. Certes on risque de bcp progresser en termes detaux de transfert et en termes de fiabilité de la connection mais ilrestera un irréductible temps d'accès. Et c'est ce dernier qui estsouvent déterminant, particulièrement pour le type de parallélismeque l'on recherche.

C'est marrant cette histoire de parallélisme, à savoir une solutiontechnique s'opposant à une solution algorithmique, celà avait déjàfait l'objet d'un différent avec Yvap.
A l'époque je soutenais mordicusque le problème de puissance qu'il soit résolu par des Gigahertz defolie ou par une parallélisation massive peu importe du moment quel'algo est bon.
Maintenant je suis un peu moins marqué et je pense effectivementque la parallélisation en masse va inonder le monde informatiquemais pas via Internet, plutôt sous forme d'un giga processeur composéde paquets et de paquets de microprocesseurs accolés au sein d'unemême machine (+ ils sont proches + ils communiquent vite entreeux et c'est essentiel), mais je pense aussi que cette parallélisationdoit être exploitée autrement que comme le propose clauradoux.




© 2026 - France Echecs  | Utilisation des cookies  | Politique de confidentialité