|
| Hommes/Machine round 224 par F***1247 le
[Aller à la fin] |
| Actualités | |
Ce sujet a été abordé maintes et maintes fois ici (c'est rien de le dire), et probablement même sous l'aspect que je souhaite évoquer dans ce fil, c'est-à-dire en parallèle avec les mathématiques, plus particulièrement la logique et sa projection sur l'arithmétique.
Je commencerai par vous citer un extrait d'un petit livre de E.Nagel et J.Newman intitulé "le théorème de Gödel" (un certain nombre d'entre vous, je pense notamment à Yvap ou Kolvir, l'ont probablement lu).
"Les conclusions de Gödel prennent une grande portée lorsqu’on soulève la question de savoir s’il est possible de construire une machine à calculer qui rivaliserait avec l’intelligence humaine dans le domaine des mathématiques. Les machines à calculer d’aujourd’hui sont construites avec un ensemble d’instructions incorporées ; ces instructions correspondent aux règles d’inférence initialement posées dans une procédure axiomatique formalisée. La machine répond aux questions en procédant pas à pas, chaque étape étant contrôlée par les instructions incorporées. Or, comme le montre le théorème d’incomplétude de Gödel, la théorie élémentaire des nombres contient un nombre infini de problèmes qui tombe hors de portée de la méthode axiomatique, aussi complexes et ingénieuses que soient leurs instructions de départ et aussi rapide que soient les opérations. Si l’on se pose un problème déterminé, on peut construire une machine de ce type pour le résoudre ; mais on ne peut construire une machine de ce genre pour résoudre n’importe quel problème. Sans doute l’intelligence humaine possède-t-elle ses propres limites au départ et peut-il exister des problèmes mathématiques qu’elle ne saurait résoudre. Néanmoins, le cerveau possède, semble-t-il, une structure de règles d’opérations bien plus puissante que celle des machines conçues aujourd’hui. Il y a peu de chances, dans un avenir immédiat, de voir l’intelligence humaine remplacée par des robots. »
Qu’en pensez-vous ? Le théorème de Gödel appliqué à la projection arithmétique du jeu d’échecs permet-il en particulier de démontrer que jamais la machine ne sera supérieure à l’homme aux échecs ?
|
|
|
ah bon la machine n'est pas superieure a l'homme aux echecs ?
|
|
|
ref desala. Ben non. Tu as déjà vu une machine jouer aux échecs, toi ?
Pour le débat de Fox, il me semble que la finitude du jeu d'échecs permet d'écarter la possibilité d'une proposition indécidable et les paradoxes Gödeliens dans sa projection arithmétique. M'enfin je peux me tromper.
|
|
|
Je vais... quitter les mathématiques ;-))) pour la biologie lol
Du point de vue théorique, le cerveau est d'une complexité que n'aura jamais un ordinateur et il devrait donc le dépasser pour le jeu d'échecs en particulier !
Du point de vue pratique, les machines seront supérieures à l'homme très certainement dans un an ou deux ;-)
|
|
|
Neanmoins... L'homme restera encore très très longtemps supérieur pour résoudre des problèmes mathématiques !
Le fait que la machine puisse nous battre aux échecs par la simple force brute calculatoire montre en effet certaines limites de notre cerveau mais prouve aussi que les échecs ne constituent pas un système logique !
|
|
|
les machines ont juste prouvé pour le moment qu'elles calculent plus vite que les hommes ! c'est pour çà qu'elles sont très fortes en blitz, quasiment imbattables...
|
|
|
ref simonski Oui mais, malgré cette puissance de calcul, les ordinateurs sont très loins de nous dans d'autres domaines ...dont les mathématiques qui sembleraient pourtant un domaine privilégié pour eux puisque logique !!!
En fait, il n'y a pas de machines mais que des hommes et c'est pour cela que cela ne fonctionne pas en maths par exemple --->
Nous n'avons pas une connaissance suffisante de nos aspects cognitifs pour programmer un ordinateur mathématicien !
|
|
|
ref fox Désolé de m'écarter du débat initial qui est me semble t'il plus profond ..
|
|
|
c'est la ou tu te trompes simonski calculer vite ne sert a rien aux echecs si on calcule mal! La fonction d'evaluation est le coeur du logiciel. Bien sur calculer vite et bien est un atout. Les moteurs d'aujourd'hui sont le resultats de plus de 40 ans de recherches.
|
|
|
avec les balises correctes cette fois oui bien sûr la finitude du jeu d'échecs empêche l'existence de propositions indécidables, aussi me suis-je mal exprimé. J'aurais dû pour être plus rigoureux remplacer "le théorème de Gödel" par "la philosophie du théorème de Gödel".
Je m'explique : toute formule métaéchiquéenne (du genre "cette position est gagnante pour les blancs") peut être traduite par une succession de symboles arithmétique, la transformant ainsi en formule arithmétique (concept de projection). Serait-il possible de construire une proposition pratiquement indécidable
, c'est-à-dire qui serait certes démontrable ou réfutable mais telle qu'aucune machine n'aurait assez de capacités pour la démontrer ou la réfuter ?
Ceci impliquerait alors que pour décider si cette proposition est vraie ou non, il faudrait toujours en référer à l'intuition du cerveau humain, et non à la machine. En poursuivant la même démarche que Gödel, il serait possible de prouver qu'il y a en fait un nombre très important de propositions de ce type, de sorte qu'on ne pourrait jamais créer de table contenant certaines d'entre elles et permettant à une machine possédant cette table de démontrer alors n'importe quelle proposition échiquéenne vraie.
|
|
|
S'en référer à l'intuition humaine !!!
|
|
|
L'intuition N'est que la juxtaposition ou la synthèse d'expériences et d'analyses, qui s'exprime plus ou moins consciemment. Alors pas de monopole humain en la matière.
|
|
|
Oui, certes... Mais il existe tout autant de positions où l'esprit humain est incapable d'arriver à une conclusion, tandis qu'une machine avec les tables de Nalimov arrivera très vite à résoudre ?
Il faudrait alors en référer au jugement de l'ordinateur plutôt qu'à l'esprit humain :o)
|
|
|
Théorème de Gödel "Si l’on se pose un problème déterminé, on peut construire une machine de ce type pour le résoudre ; mais on ne peut construire une machine de ce genre pour résoudre n’importe quel problème." (citation initiale) Le jeu d'échecs semble bien constituer un "problème" qui tend à se résoudre pour la machine. Mais il s'agit du jeu dans sa forme actuelle. Supposons une nouvelle forme de jeu avec 128 cases et 64 pièces (soit le double), et il n'est pas certain que l'homme ne retrouverait pas rapidement sa suprématie.
|
|
|
En tout cas La théorie de Gögel a été vérifiée avec Fox :)...
Il a fini pas trouver le problème qu'il ne pouvait pas résoudre :)...
Alors, fox, la franckfort ou la frite? :p
|
|
|
Reponse d'un informatheux Godel ne parle pas de problemes "pratiquement indecidable", mais de problemes "mathematiquement indécidable"... C'est le "theoreme d'incompletude des mathematiques" et pas celui de l'informatique.
Désolé de casser le mythe aux fans d'ordinateurs, mais il existe bien une infinité de problemes qu'aucune machine ne saura jamais resoudre, quelque soit sa puissance et ces capacités... C'est cela la philosophie du theoreme de Godel.
Je ne sais pas quelles sont tes connaissances sur le sujet et j'ai pas envie de faire un exposé ici. si tu veux en parler, mon MSN est dans mon profil
|
|
|
Bon, merci Dertazs:) Les machines ont donc atteint leurs limites :)
Dcax, troll sans franckfort frites:'(
|
|
|
Question d'un informatheux Pourquoi un tas de silicium et un peu de courant ne pourrait-il pas, un jour, résoudre aussi bien un problème qu'un tas de carbone et un peu de courant ?
|
|
|
quelques réponses dertasz : oui bien sûr c'est pour cela que j'ai mis l'expression "pratiquement indécidable" en italique, mon but n'étant pas d'appliquer dans sa forme exacte le théorème d'indécidabilité au jeu d'échecs. Autre question : je croyais que c'était le théorème d'incomplétude de l'arithmétique seulement, et pas des mathématiques dans leur ensemble. Explication ?
Judex : pas si clair ta définition de l'intuition. En particulier parce qu'à un moment il faut prendre une décision, quelle que soit la somme d'expériences et d'analyses qu'on a emmagasinées. Je vais peut-être dire une grosse connerie, mais il me semble que si la machine se trouve devant une proposition "pratiquement indécidable", il y aurait davantage de raisons de faire confiance au jugement humain qu'à celui de la machine. Mais je me plante peut-être totalement et j'aimerais bien l'avis des spécialistes sur le sujet.
Nirnaeth : oui mais cela n'est pas le sujet ici. Il ne s'agit pas de savoir si c'est l'homme ou la machine qui sera le plus performant ou le plus rapide à démontrer une proposition donnée, mais de raisonner de façon asymptotique : y a-t-il certaines propositions (aux échecs typiquement de la forme "cette position gagne" ou "cette position est nulle" ou "cette position est mat en 2451 coups") qu'aucune machine ne pourra jamais démontrer, et où le jugement humain fera forcément loi ?
|
|
|
je répondais sur le premier message de nirna
|
|
|
Fox pour ta dernière tirade Pour le moment, c'est la machine qui bat l'homme, dans le domaine des finales, jusqu'à 5 pièces surs, et presque pour 6 pièces.
Le jugement humain a été démonté de façon mathématique par la machine, et ce, depuis une dizaine d'années.
C'est ce qui a permis à Nunn de sortir des livres sur les finales aux solutions certaines, et grâce ses qualités de chercheur et de compilateur, on a quasiment toutes les positions clefs avec zz mutuel ou clefs.
En ce qui concerne le jugement humain, il va plutôt se faire dans le domaine où le choix est le plus vaste possible( surtout début et milieu de partie), car en finale, la machine règne en maître déjà.
Dcax, pour battre une machine il faut la battre deux fois, dans l'ouverture et le milieu de jeu, en finale c'est plus la peine :) (Alekhine est par cela bien plus dur à battre ! mais il est mort...)
|
|
|
ben oui tout ceci est évident il est évidemment que les propositions "pratiquement indécidables" ont plus de chances d'exister si elles portent sur un matériel plus important, et sont par conséquent beaucoup plus difficiles à démontrer. Le problème porte donc naturellement sur le début et milieu de partie. De plus, encore une fois j'insiste sur la distinction entre "battre la machine" et "être intrinsèquement supérieur à la machine". Il est évident que le premier point relève de l'utopie à très court terme, mais quid du deuxième ?
|
|
|
Bref, si il reste... un seul homme encore debout qui réussit à se montrer juste supérieur contre une machine l'humanité toute entière sera sauve?:)
|
|
|
Houlà ! Fox se lâche ! ;o)) Bon désolé cher Fox, pas le temps là de me lâcher moi aussi. Trop de boulot. J'essaierai d'intervenir deamain soir ou Dimanche.
Cependant, une piste : La première partie du chapitre XV du livre de Dennett "Darwin est-il dangereux ?" qui traite précisément de la question que tu soulèves à propos de l'utilisation du théorème de Gödel, et justement (quel hasard ! ;o)) en prenant comme exemple et argument les logiciels pour jouer aux echecs !
Mais : "La controverse porte entièrement sur la manière dont il faut exploiter le théorème pour démontrer quoi que ce soit sur la nature de l'esprit".
D'autre part, il y aurait pas mal à développer sur cette phrase de ta citation : "Sans doute l’intelligence humaine possède-t-elle ses propres limites au départ et peut-il exister des problèmes mathématiques qu’elle ne saurait résoudre."
Dans le même bouquin cette question d'une "clôture cognitive" est également sérieusement analysée, et la conclusion est en désaccord avec cette phrase.
Bref, si tu te poses ces questions, ce bouquin est incontournable ... ;o)
|
|
|
ref Fox En fait, tu ne parles pas de résultats pratiques mais tu estimes qu'il y a des positions que les programmeurs ne pourrront jamais résoudre sous une forme définitive en faveur d'un camp et où le jugement humain sera encore le plus sûr !
Dans l'absolu, je pense en effet que beaucoup de positions sont indécidables dans le sens où aucune machine ne parviendra à déterminer un gain certain ou une nulle !
Néanmoins, avec les progrès en IA...etc, je pense que le "jugement" de la machine deviendra progressivement supérieur au jugement humain....dans le domaine restreint des échecs évidemment !!!
|
|
|
à ce point je ne peux... Que rajouter que depuis la création de programmes surpuissants aux échecs, la valeur des échecs a beaucoup perdu aux yeux des japonais, qui d'un jeu comprable à l'art, n'en est devenu qu'un jeu purement mathématique, une simple histoire de calcul, vu que les meilleurs joueurs du monde tombent face aux calculateurs...
Et ils font ça d'autant plus avec plaisir qu'au jeu de go, les meilleurs programmes ne peuvent que rivaliser avec les débutants moyens... sombrant face aux joueurs ...
Le Go et les Echecs sont deux jeux "finis", mais le go a une limite plus lointaine encore que les échecs...
Dans l'absolu, je ne partage pas l'opinion en ce qui concerne le go, d'une part, les programmes créés pour y jouer n'en sont qu'à leurs débuts, ça a pris depuis les années 50-60 à 90 pour faire enfin des programmes pouvant "jouer" vraiment bien aux échecs... , dans quelques années, si les financement le permet, la marge des pros du go face aux meilleurs programmes devrait se réduire...
On a vu le cas du jeu de dames, encore plus vite "finis" que les échecs, les matchs opposants les programmes aux meilleurs joueurs sont passionnants, on en a eu un l'année dernière ou y a deux ans chai pu...
Faudrait une couche d'hyperjeu par-ci par-là vous trouvez pas?
|
|
|
quelques réponses encore dcax : "qu'un jeu purement mathématique, une simple histoire de calcul". Considères-tu que les mathématiques sont une simple histoire de calcul ?
antiblitz : oui en effet pour ta première phrase. Pourrais-tu développer pourquoi tu penses "que le "jugement" de la machine deviendra progressivement supérieur au jugement humain....dans le domaine restreint des échecs évidemment" ? C'est-à-dire, pourquoi les progrès en IA devraient-ils amener le jugement de la machine à être supérieur (sous réserve que ce terme ait un sens) au jugement humain, et pourquoi le domaine des échecs serait-il marginal de ce point de vue ?
Yvap : je prends note de ta référence, du reste ce n'est pas la première fois que tu la cites. Pour la phrase que tu mentionnes, je crois qu'elle se contente d'être une hypothèse (avec toutes les précautions rhétoriques requises), mais de toute façon c'était la suite "néanmoins etc." qui m'intéressait le plus :-)).
|
|
|
des positions indécidables si on veut chercher des positions indécidables par les ordinateurs, autant "chercher sous le lampadaire": il me semble que la position qui a le plus de chance d'être indécidable est la position initiale, non ? (j'ai raisonné par récurrence, genre si une position au Nème coup est indécidable alors en N-1...)
|
|
|
Si j'ai bien compris Fox Ta question est que si des situations d'incompletudes existent pour l'ordinateur dans certaines positions sur l'echiquier, l'homme devrait rester plus fort tout le temps car lui peut se servir de son experience ?
Après tout, les echecs sont une activité experimentale et non deductive, donc je répondrais que oui. Si des situations d'incompletude existent pour l'ordinateur, l'homme sera plus fort car son experience lui permettra toujours de prendre une bonne decision.
|
|
|
Why not Dennett mais il est qd même assez verbeux l'animal, et il ne m'a pas laissé un souvenir d'une limpidité absolue sur Gödel.
Par contre sa lecture devrait certainement aisément tuer dans l'oeuf nombre de raccourcis et approximations douteuses qu'on trouve ici !
Gödel est bien malgré lui à la source de raisonnements complêtement fumeux et en un mot faux. On lui fait dire un peu ce qu'on veut. Notamment l'extrait de Nagel me paraît très à-peu-près-iste.
Pourquoi un tas de silicium et un peu de courant ne pourrait-il pas, un jour, résoudre aussi bien un problème qu'un tas de carbone et un peu de courant ? : Je ne pige pas pourquoi tu dis que c'est HS Fox, c'est au contraire The question qui bat en brèche une grosse partie du débat. Par ex elle permet de répondre à La machine répond aux questions en procédant pas à pas, chaque étape étant contrôlée par les instructions incorporées. par "Ha bon ? et comment fait le cerveau ? quelle différence ?".
|
|
|
Perestroïka : la différence est fondamentale : dans l'état actuel des connaissances on pense que le cerveau se comporte comme un réseau autodéveloppant, or ce modèle est strictement plus puissant qu'une machine de Turing. Il est représenté en informatique par des grammaires de graphes, et c'est une composante importante des recherches en architectures parallèles. Pour le moment nos ordinateurs fonctionnent toujours sur le modèle de von Neumann, ou plutôt ils font semblant puisque l'implémentation sous-jacente utilise plutôt le modèle "flux de données" afin d'extraire du parallélisme d'instructions : il y a donc bien une barrière théorique entre les deux "machines". Jusqu'à ce qu'on construise des ordinateurs à base de réseaux autodéveloppants, bien sûr, ce que certains essaient de faire, mais ils sont très loin d'avoir prouvé qu'il est possible de construire une telle machine aussi puissante qu'un cerveau humain.
|
|
|
et pour répondre plus directement La machine répond aux questions en procédant pas à pas, chaque étape étant contrôlée par les instructions incorporées : faux. Ni les ordinateurs ni le cerveau ne procèdent ainsi, même si les deux en donnent une certaine illusion.
|
|
|
ref Peres pris en flagrant délit de lecture superficielle. J'ai bien indiqué que je répondais au premier message de Nirnaeth, non au deuxième, puisqu'il y a eu un croisement.
|
|
|
et pour répondre au post de Nirnaeth je n'ai pas parlé de "résoudre un problème", justement. Je me place devant un problème, représenté par une proposition de type arithmétique; que faire sachant qu'il est possible que celle-ci soit pratiquement indécidable ?
|
|
|
Le HS concernait ma première intervention :o)
Faut pas se contenter de survoler, Peres !
(Depuis le temps que je rêvais de la faire, celle-là !)
Sur le fond, je ne vois pas trop pourquoi c'est HS.
Il existe certains types de problèmes (y compris le jugement d'une position aux Echecs) où la machine aboutit à un résultat que l'homme ne peut atteindre.
C'est typiquement les problèmes nécessitant une masse de calculs, où notre pauvre cerveau est vite largué (manque de moyens et de temps).
De même, de part leurs limites actuelles, il y a des problèmes inaccessibles aux machines.
Tant que l'on arrive à modéliser le problème et le traduire informatiquement, il est résolvable par une machine (s'il est résolvable).
Pour le moment, il y a certains mécanismes intellectuels que l'on n'arrive pas à modéliser ou reproduire. Et c'est ça qui bloque.
D'où ma comparaison avec le tas de silicium.
Il n'y a pas, à priori, de raison pour qu'une machine n'y arrive pas un jour.
Ce n'est pas la nature mécanique de la machine qui freine, mais son manque actuel de complexité.
|
|
|
ref SyG Je crois qu'il importe peu que la proposition indécidable porte sur la position initiale du jeu ou sur autre chose, le seul élément à retenir c'est qu'on ne puisse pas écarter son éventualité et donc, à un moment donné, éviter de se poser la question : dois-je faire confiance au jugement de la machine ou au mien ?
|
|
|
confiance Voilà une chose qui n'est pas définie dans ton propos. Quel est ton critère pour accorder ta confiance ? Préfères-tu un humain intrinsèquement faillible, ou un programme dans lequel la détection de bugs est dans le cas général un problème indécidable ?
|
|
|
:o) recroisement Je pane pas trop ce que tu veux dire, Fox.
Ce serait par exemple une proposition du genre :
Les Blancs (ou les noirs) gagnent (ou font nulle) à partir de la position initiale, sur le meilleur jeu possible ?
Ou une position complétement bloquée où l'ordinateur se donne gagnant parce qu'il a une tour de plus, mais l'humain voit qu'il n'y a aucune possibilité de forcer le blocus ?
Je redirais la même chose, si l'homme a les moyens d'aboutir à une conclusion sur ta proposition, la machine doit pouvoir y arriver un jour (bien sûr en lui rajoutant ce qu'il faut :o).
Que ce soit le réseau autodéveloppant de Daik, ou l'intuition, ou ce que tu veux.
Il n'y a pas de différence de nature, la machine est seulement infiniment moins complexe que son pendant organique.
Maintenant, si un jour l'on peut prouver qu'il est impossible de reproduire "algorithmiquement" une composante essentielle de l'intelligence, on aura résolu pas mal de questions existentielles :o)
|
|
|
ref Fox Je crois ( je dis bien je crois car cela vient d'une lecture dont je ne me souviens plus de la source ! ) que le développement des logiciels d'échecs a été largement favorisé par les crédits alloués à cause de l'intérêt pour la recherche en IA ?
En effet, malgré la logique du jeu, la symétrie initiale...etc, un programme qui ne fait que calculer en force brute n'obtient pas des résultats si satisfaisants que cela ---->
D'où un champ de recherche intéressant ( recherche sélective...etc --->voir daik) pouvant déboucher à terme sur d'autres applications ???
En fait, le jeu d'échecs a été choisi comme champ expérimental pour l'IA car il est à la fois simple ( dans sa forme ) et compliqué ( dans son fond ) !
Et si le "jugement" de la machine ( concue par l'homme ! )deviendra supérieure à celui de l'humain, je parlais évidemment de pratique, c'est à dire que la machine battra l'homme dans 100% des parties !
Dans l'absolu, la notion de jugement n'a plus de sens car la pertinence de celui-ci est une fonction des résultats obtenus à mon avis...
|
|
|
je vois bien Nirnaeth que tu vois pas ce que je veux dire...:-)
Je parle ici de situations où personne ne pourra jamais démontrer la proposition. Ni la machine, ni l'homme n'ont "les moyens d'aboutir à une conclusion". Entendons par là, de déclarer de façon certaine, en pouvant le prouver, que cette proposition est vraie ou est fausse.
Or le post initial fait l'hypothèse que des propositions de ce type existent, même pour le jeu d'échecs.
Gardant ceci en tête, peut-on affirmer que la machine ne sera jamais supérieure à l'homme dans le sens où l'homme sera, lui, capable d'inférer une décision, tandis que la machine jugera la proposition comme du 50-50 et ne sera pas capable de se décider ? Ou plutôt, pour être plus précis, sur une proposition donnée, l'être humain émettra un jugement : "je suis convaincu que cette proposition est vraie". La machine, affectée d'un certain processus de décision (je laisse aux experts le soin de m'éclairer là-dessus), émettra un jugement dans l'autre sens : son choix supposera qu'elle estime que la proposition est au contraire fausse.
Que faire alors ?
|
|
|
Ref daik "dans l'état actuel des connaissances on pense que le cerveau se comporte comme un réseau autodéveloppant, or ce modèle est strictement plus puissant qu'une machine de Turing." Je ne crois pas. Il n'existe dans l'état actuel des connaissances aucun modèle de calcul supérieur aux machines de Turing. Même les ordinateurs quantiques sont équivalents, à la complexité près. Le théorème de Gödel ne s'applique pas aux jeu d'Echecs qui est fini et donc (trivialement) décidable. Si on veut se servir du théorème de Gödel pour montrer la supériorité de intrinsèque de l'homme sur la machine, il faut exhiber un humain capable de répondre à TOUTES les questions d'une théorie connue comme indécidable (par ex l'arithmétique), ce qui évidemment est impossible, en théorie comme en pratique (justement parce que la seule façon de le faire serait de demander à cet humain d'exhiber un système formel mais alors ce système formel serait reproductible par une machine).
Cordialement, Niko
|
|
|
ref antiblitz Ici je pense plus spécialement au point de vue du JPC. C'est du moins ce qui rapproche le plus du "jugement absolu" et contribue à lui garder de l'intérêt. Il est bien clair que dans des parties de temps assez limité (même plusieurs heures par joueur, voire plusieurs jours), pour tout un tas de raisons, la machine sera à court terme supérieure à l'homme dans le sens où elle le battra dans 100% des cas.
Mais que penser du JPC, qui peut s'étaler parfois sur plusieurs années ? Qui plus est, si on considère que l'homme peut s'appuyer sur la machine. Qu'adviendra-t-il alors ? Je pense que dans ce cas la notion d'indécidabilité reprend tout son sens. Soumis à une proposition complexe, aidé de son intuition personnelle, et épaulé éventuellement d'une machine qui émettra son propre jugement, quel choix fera le JPC ?
|
|
|
Ref Fox Le terme "Proposition indécidable" n'a aucun sens. Le mot "indécidable" qualifie une théorie non une proposition.
Cordialement, Niko
|
|
|
ref Niko Ah, ces machines de Turing, elles ont la vie dure, n'est-ce pas ? Pourtant il existe un réseau autodéveloppant capable de simuler tout autre réseau autodéveloppant en temps linéaire, ce qui est impossible avec une machine de Turing (universalité parallèle). Il ne faut pas croire que parce que tout ce qui est calculable est représentable dans un certain formalisme (thèse de Church pour le lambda-calcul) il ne serait pas possible d'en construire un plus puissant (voir le pi-calcul par rapport au lambda-calcul).
|
|
|
Ref daik Une grammaire de graphe est évidemment simulable par une machine de Turing !
Cordialement, Niko
|
|
|
Ref daik "il ne serait pas possible d'en construire un plus puissant". Ce dont il est question ici est de puissance d'expression théorique, non d'efficacité.
Cordialement, Niko
|
|
|
Niko Ah voilà où était le problème. J'étais passé trop vite sur à la complexité près dans ton post... Pourtant c'est bien ce que Fox veut, si j'ai bien compris : définir une notion de supériorité de l'ordinateur sur l'humain, ou le contraire. La différence de complexité de l'algorithme de résolution d'un certain problème, liée intrinsèquement au mode de fonctionnement de la machine, n'est-elle pas une piste ?
|
|
|
ref Niko (sur le mot "indécidable") Tu aurais dû en parler plus tôt à Gödel car il n'était pas d'accord avec toi.
|
|
|
et par suite personne n'est d'accord avec ta définition je continuerai donc humblement (si tu me le permets) à parler de "proposition indécidable".
|
|
|
Ref Fox Vous voulez m'apprendre mon métier ? :) (je suis chercheur en informatique théorique). Soit tu dis qu'une théorie est indécidable (au sens où il n'existe aucun système formel pour la résoudre), soit tu dis qu'une proposition est non démontrable (dans un système formel particulier). Le mot "indécidable" est parfois employé dans ce dernier sens (par abus de langage) mais alors il FAUT préciser le système formel que l'on utilise.
Cordialement, Niko
|
|
|
Ref Fox Plus précisément on peut dire qu'une proposition A est indécidable DANS UN SYSTEME FORMEL DONNE si ni A, ni non A n'est démontrable.
Cordialement, Niko
|
|
|
celui-ci était sous-jacent dans le post initial. Si ça te fait plaisir, précisons qu'on se place dans un système qui formalise l'arithmétique (je sais pas si ça se dit). Quoi qu'il en soit, puisque justement c'est ton métier, tu aurais pu le comprendre et ne pas détourner inutilement le post de son thème initial par ce type de remarques.
P.S.: pourrais-tu cesser ces formules de politesse "cordialement bidule", c'est assez agaçant et ce n'est pas cela qui fait la courtoisie d'un interlocuteur.
|
|
|
Ref Fox "pourrais-tu cesser ces formules de politesse "cordialement bidule", c'est assez agaçant et ce n'est pas cela qui fait la courtoisie d'un interlocuteur." Très sincérement, je ne pensais pas que cela puisse géner quelqu'un. Je m'en abstiendrai à l'avenir, tout comme je m'abstiendrai de toute intervention sur vos posts.
|
|
|
bien sur desala il calcule comme un grand-maitre mais plus rapidement! seulement leurs fonctions d'évaluations est moins bonnes que chez un fort grand-maître.
|
|
|
eh ben alors ?! Allons, serrez-vous la main et reprenons. Fox parle de formaliser l'arithmétique, il devrait maintenant venir une question du genre "laquelle ?", je suppose. On redémarre les pendules, trait à Niko.
|
|
|
Pardon pour mon caffouillage dû à ma lecture trop rapide.
A priori ok avec niko (hormis ses dernières précisions terminologiques inutiles dans le contexte présent) et donc pas du tout avec daik encore que finalement le 1er semble finir par avoir raison du second !
FOX : J'ai tjs un peu de mal à voir sur quel plan tu te situes (pratique/théorique, présent/futur) mais bon je retente ma chance (si je t'ai encore lu trop vite n'hésite pas à me rebaffer avec la nonchalance qui te sied ;o) ) :
Serait-il possible de construire une proposition pratiquement indécidable, c'est-à-dire qui serait certes démontrable ou réfutable mais telle qu'aucune machine n'aurait assez de capacités pour la démontrer ou la réfuter ? : La proposition de SyG me paraît répondre à ta demande. On peut affirmer que jamais au grand jamais (sauf révolution technologique majeure impliquant par ex l'exploitation de mondes parallèles) on ne pourra construire une bécane capable de résoudre le jeu d'échecs.
On pourrait certes obtenir une conviction très forte et de très bonnes raisons pour trancher, mais on ne sera pas dans la mesure de le démontrer par le menu.
D'autre part on sait que théoriquement le jeu d'échecs est résolvable.
Ceci impliquerait alors que pour décider si cette proposition est vraie ou non, il faudrait toujours en référer à l'intuition du cerveau humain, et non à la machine. : Là tu vas vite en besogne. Je ne vois pas en quoi la décision du cerveau humain devrait avoir meilleure presse que celle de la machine ? Explique stp.
JPC : "Est-ce qu'un jour viendra où la machine sera nettement plus forte que n'importe quel homme quelle que soit la cadence (notamment plusieurs mois de réflexion par coup) ?" Pour ma part je suis intimement convaincu que oui sans l'ombre d'un doute. Qu'est-ce qui devrait entraver la progression de l'IA pour que comme par magie ça s'arrête pile poil asymptotiquement au niveau humain ?
"Est-ce qu'un jour viendra où la machine sera suffisamment forte pour que le binome homme + machine (quel que soit l'homme et quelle que soit la cadence (notamment plusieurs mois de réflexion par coup)) soit stastiquement strictement égal en force au monome machine seule ?". Là aussi j'aurais tendance à répondre positivement mais je suis bien moins sûr de moi. Celà impliquerait que les principaux facteurs pris en compte par l'analyse de l'ordi soient hors de l'entendement humain, soient inappréciable par les mortels biologiques... Est-ce que le jeu d'échecs est suffisamment complexe pour ça ?
Pour la question JPC je ne vois ni de loin ni de près pas de rapport avec Gödel et l'indécidabilité, là aussi si tu pouvais préciser.
|
|
|
voyons voyons on sait que théoriquement le jeu d'échecs est résolvable. : tiens donc, je croyais qu'il était soluble.
pas du tout [ok] avec daik : Fox tente de comprendre la différence entre homme et ordinateur aux échecs, je tente de la caractériser, niko et moi nous sommes mal compris mais il reste une différence fondamentale entre les deux modèles de calcul, et elle est très importante dans la recherche en IA et en archi. Avec quoi précisément n'es-tu pas d'accord ?
|
|
|
ce modèle est strictement plus puissant qu'une machine de Turing La machine de Turing permet en théorie de reproduire parfaitement tout processus cognitif connu.
Mais bon Niko a déjà parfaitement répondu là-dessus et en effet ça n'était semble-t-il qu'un malentendu donc tt va bien.
|
|
|
Ref Fox Chuis encore à la rue :o)
Je vois bien ce qui te turlupine, mais cela me semble un faux problème.
Si c'est pratiquement indécidable, soit l'humain peut se servir d'autre chose (expérience, intuition, base de connaissence plus étendue) pour dire qu'il pense avoir raison.
Mais, à part permettre un choix pratique, il n'en fera rien puisque c'est indémontrable.
Soit il n'a aucun moyen de valider son intuition, et alors elle n'a pas plus de valeur que le résultat de la machine.
De toute façon, on tourne autour du pot.
Si la machine est limitée aux systèmes formels, elle ne pourra pas aller plus loin.
Dans ton exemple du JPC, tu peux pousser aussi loin l'analyse que tu le souhaites, ni l'homme, ni la machine n'aboutiront à la vérité.
Et dans ce cas, le choix revient à l'homme (et pour cause :o), parce son mode de raisonnement contient la logique formelle et le bête calcul des variantes (et hop, on retombe sur Godël :o).
|
|
|
ça y est c'est arrivé et ça n'aura pas pris longtemps : ils ont réussi à m'embrouiller.:-)) Félicitations les gars, je suis largué sur le sujet que j'ai moi-même lancé ! Ca m'apprendra à me jeter dans un truc où mes connaissances sont très limitées :-)).
|
|
|
bon sinon ma question était davantage d'ordre philosophique. Elle n'aurait a priori (ou en tout cas ce n'était pas mon intention de lui donner une telle portée) aucune conséquence à long terme sur la réalité pratique du jeu d'échecs. C'était juste une interrogation du type : puisque l'humain est dans l'absolu supérieur à la machine dans le domaine des mathématiques, ne l'est-il pas aussi dans le domaine des échecs ? Phrase qui ne reflète pas une opinion personnelle et est à prendre avec beaucoup de précautions (je vous invite notamment à proposer des reformulations plus adéquates).
Cela rejoint la deuxième question de Peres sur le JPC, à laquelle tu proposes d'ailleurs une réponse toute bête : "le jeu d'échecs est-il suffisamment complexe pour ça ?"
|
|
|
:o) Si tu n'as pas la réponse à ta question, fais tourner ta bécane, puis tire à pile ou face :o)
|
|
|
On ne caractérise en rien la diff homme-machin en parlant de Turing.
|
|
|
oups croisements
|
|
|
Repartir avec + de questions que tu n'en avais en arrivant, c'est déjà pas mal Fox !
puisque l'humain est dans l'absolu supérieur à la machine dans le domaine des mathématiques, ne l'est-il pas aussi dans le domaine des échecs ? : Oui oui je pense que tt le monde s'accordera là-dessus ; le jour où l'ordi commencera à taquiner l'humain en maths, il sera également très fort aux échecs.
En revanche le constat actuel nous apprend que la symétrique n'est pas vraie.
|
|
|
Prenons du recul
J'ai lu un peu en diagonale et je ne suis pas allé jusqu'à la fin, c'est pourquoi je me suis fait un petit résumé, sans craindre de sortir volontairement du strict domaine des échecs :
"Il me semble que la position qui a le plus de chance d'être indécidable est la position initiale" (SyG)
Cela me paraît incontestable, mais je CROIS qu'elle ne l'est pas.
"Pourquoi un tas de silicium et un peu de courant ne pourrait-il pas, un jour, résoudre aussi bien un problème qu'un tas de carbone et un peu de courant ? "(Fox contesté par Perestroïka).
Pourquoi pas en effet : le silicium a été choisi comme substrat non conducteur pour permettre l'implantation facile des liaisons électriques : s'il avait fallu aussi véhiculer des transmetteurs d'une autre nature comme dans le cerveau, on aurait choisi un autre support physique, organique ou pas, mais pas forcément plus rapide que le silicium.
"On pense que le cerveau se comporte comme un réseau autodéveloppant, or ce modèle est strictement plus puissant qu'une machine de Turing. Il est représenté en informatique par des grammaires de graphes, et c'est une composante importante des recherches en architectures parallèles" (daik)
"Une grammaire de graphe est évidemment simulable par une machine de Turing !" (Niko)
Quelle différence d'efficacité y a-t-il entre "un réseau autodéveloppant" et une procédure récursive assez intelligente (Hiarcs 9 ?) déployant des données sur une architecture massivement parallèle comme Deep Blue par exemple.
"Il n'y a pas de différence de nature, la machine est seulement infiniment moins complexe que son pendant organique." (Nirnaeth)
Rien n'est moins sûr, au moins pour ce qui est de la mémoire, adressable sur la machine alors qu'elle est seulement accessible par son contenu et ,vaguement, par des notions de proximités relatives, dans le cerveau. La "supériorité" du cerveau est dû paradoxalement à ses imperfections : cela lui permet de faire des identifications floues qui, sur une machine, nécessitent une simulation d'autant plus lourde qu'on lui demande en outre d'être plus fiable que le cerveau humain dont on accepte assez facilement les approximations.
Idem dans les mécanismes d'acquisition des données : le cerveau comporte des mécanismes élaborés de vieillissement et de compression qu'on n'a pas développé sur les machines, tout au moins pas dans le matériel. On ne peut, comme le font certains, ne considérer que le "hardware" et opposer sa rigidité au cerveau humain. Le "software" permet de "finasser" à l'infini. (Ce qui n'empêche nullement d'insérer dans les processeurs des instructions de logique floue.)
"Maintenant, si un jour l'on peut prouver qu'il est impossible de reproduire algorithmiquement une composante essentielle de l'intelligence, on aura résolu pas mal de questions existentielles" (Nirnaeth)
Certes oui, en revanche, en pratique ça ne changera rien aux problèmes qui sont débattus ici.
"Dans l'absolu, la notion de jugement n'a plus de sens car la pertinence de celui-ci est une fonction des résultats obtenus à mon avis..." (Antiblitz)
Entièrement d'accord : Si nous faisions de la métaphysique, mais nous n'en sommes pas loin, n'en déplaise aux informatheux, je présenterais les choses ainsi : Le cosmos est sorti péniblement du chaos initial, peut-être par hasard. Pour lutter contre l'entropie qui le poursuit et le menace, il a inventé diverses stratégies successives de plus en plus élaborées lui permettant de créer sans cesse de nouvelles structures de différenciation :
1° La chimie minérale,
2° La vie organique,
3° La vie,
4° L'Homme,
5° L'intelligence artificielle.
Notez bien que chaque phase engendre la suivante et SURVIT. C'est le malheur que je nous souhaite !
|
|
|
Aïe aïe aïe Le tas de silicium, je le revendique :o)
Sur le hardware/sofware, entièrement d'accord.
Mais sur le cosmos et la suite, je sens que l'on va tomber sur une discussion de principe :o)
J'espère que tu ne crois pas un mot de ce que tu viens de pondre :o)
|
|
|
eh ben Quelle différence d'efficacité y a-t-il entre "un réseau autodéveloppant" et une procédure récursive assez intelligente [...] ? : Voilà qu'une procédure récursive est qualifiée d'intelligente, maintenant. Je rêve... Bref, c'est une question ouverte. Ceux que ça intéresse sont invités à consulter les articles de recherche qui en parlent. Attention quand même à ne pas confondre le parallélisme de Deep Blue (des armoires de processeurs, ce qu'on appelle familièrement de l'épluchage de patates) et celui d'un système autodéveloppant (de toutes petites unités fonctionnelles capables de se grouper et de se spécialiser). Au passage, cela répond aussi en partie à la suite de l'intervention d'Oroy.
Pour la suite, je préfère pour ma part laisser le démiurge pointer à l'ANPE et me demander combien de temps durera la survie d'une espèce qui dépense tous les 9 jours, pour s'autodétruire, des sommes suffisantes pour nourrir, éduquer et soigner tous ses représentants. Autant dire que si on est censés donner naissance à une autre forme de vie on a intérêt à le faire vite, pendant qu'on peut.
|
|
|
ah et puis pendant que j'y suis. Perestroïka, quand tu dis La machine de Turing permet en théorie de reproduire parfaitement tout processus cognitif connu : quelqu'un a prouvé l'hypothèse du système physique symbolique pendant que j'avais le dos tourné ?
|
|
|
@Nirnaeth Pour le tas de silicium, je me suis peut-être trompé d'auteur, mais tout le monde peut le revendiquer. De 1° à 4°, j'y crois dur comme fer, ce en quoi l'univers aurait, paraît-il, dû se transformer si..., si... les scientifiques avaient vus juste. Sur le point 5° j'y crois parce qu'il faut bien garder un peu d'espoir, au moins pour les autres. Mais avoue que c'est la suite la plus logique de l'histoire...
|
|
|
@daik J'ai dit : "assez intelligente" mais je me suis mal exprimé. Je voulais dire : assez intelligemment programmée, assez en tout cas pour traiter chaque cas avec une spécificité idoine : c'est déjà le cas des logiciels actuels, même si on peut grandement les améliorer. Je maintiens que le jour ou Hiarcs 9 ou Junior seront capables de gérer efficacement tous les processeurs d'une machine spécialisée comme Deep Blue, Kasparov n'aura plus l'occasion d'accuser les développeurs d'avoir humainement assisté la machine pendant la partie comme il l'a fait lors de sa dernière défaite, la fameuse Caro-Kann.
Tu crois sans doute que ton logiciel personnel est très très subtil alors qu'il se contente de procéder par investigation de proximité, multipliant les tentatives infructueuses et se corrigeant puis se recorrigeant jusqu'à être content de lui.
Le démiurge, depuis longtemps à la retraite, a vu passer pas mal d'idées fausses sur l'informatique, notamment sur l'intelligence artificielle, mais n'a jamais douté que la fameuse intelligence humaine était bien surfaite. Je ne sais d'où tu tires tes informations sur l'autodestruction de l'espèce humaine, je ne suis pas très optimiste non plus, mais je n'ai jamais dit que l'espèce humaine devrait s'effacer devant une nouvelle forme de vie : en revanche, j'espère ne pas me tromper en disant que l'intelligence 'robotique' -je ne sais quel vocable utiliser- peut nous -l'espèce- aider à retarder les échéances. D'accord avec toi qu'il faut faire vite, mais pas à l'échelle chronologique de ma vie, ni de la tienne.
Je ne suis pas habituellement porté à la téléologie, mais j'y recours quand je vois la science s'enliser dans des affirmations péremptoires et sans preuve, souvent d'ailleurs réfutées par les faits à court terme. Cela ne fait pas de mal aux têtes carrées, capables de tout expliquer a posteriori mais se trompant régulièrement sur l'avenir, de se cogner à une autre vision du monde.
En 1967, à Monaco, j'ai affirmé au Pr Marcel Barzin, membre de l'équipe réunie par le CERN autour de Euwe, que n'importe quel programmeur averti était capable d'écrire un programme d'échecs jouant mieux que lui. Et je lui ai aussi donné mon avis sur la méthode à suivre, c'est-à-dire ce que l'on appelle aujourd'hui la force brute. L'histoire a montré que c'est moi qui avait raison alors que je n'étais pas encore informaticien, et que j'étais à des années-lumière d'imaginer l'explosion de la puissance des machines. Les premièrs ordinateurs sur lesquels j'ai travaillé étaient des IBM 360-65 qui faisait 0,2Mips et je sais ce que l'on faisait avec. Aujourd'hui, j'ai sur mon bureau un micro qui fait plus de 6000 Mips (oui, je sais, les Mips ce n'est pas une unité très scientifique, gardons cette discussion pour un autre jour). Alors évidemment, il n'est pas facile de coupler 256, ou 1024 processeurs de cette vitesse et de leur faire faire un travail sur une seule tâche maître (une partie) sans une perte considérable de puissance. Mais crois-moi, c'est encore largement suffisant pour mettre en déroute les meilleurs joueurs de la planète jouant en consultation. Sur l'aptitude de tels sytèmes à se montrer efficaces dans le domaine de la démonstration de théorème, je ne me prononcerai pas car je n'y connais rien. Mais j'ai une forte tendance à croire que ce serait pareil ; si on s'y met sérieusement, on y arrivera : je veux dire, si on forme des équipes pluri-disciplinaires hautement compétentes, matheux plus informaticiens. Car ce n'est pas la même chose du tout comme compétence, et ça peut aussi faire un beau sujet de controverse. Telle est ma conviction, et je la partage, selon la formule consacrée. Et je n'ai rien à foutre des sarcasmes qui ne vont pas manquer de me tomber dessus pour afficher une pareille conviction.
|
|
|
Ouf ! C'était une croyance !
Pour un peu, j'ai cru, pour plagier Daik, que cela avait été démontré pendant mon repas.
Bon, c'est un bon gros principe anthropique fort que tu nous sors là :o)
Je veux bien t'accorder le passage du 3 au 5 (sans nécéssairement le 4).
Mais le reste...
|
|
|
@Nirnaeth Il y a un lapsus dans mon 1er texte : en 2° il faut bien sûr lire : la chimie organique. Le passage du 3 au 5, c'est-à-dire de la vie à l'ordinateur ! Du bonobo ou du prozoaire ? C'est une idée hardie : j'en parlerai à mon cheval (hardie cocotte !); lui, il saura éviter l'anthropisme, si je peux me permettre ce néologisme. Mais le reste est évidemment le fruit du hasard et de la nécessité, non ? Les desseins de l'Homme sont décidemment impénétrables !
|
|
|
J'ignore si j'ai bien compris le questionnement de Fox, mais puisqu'il nous invite a le reformuler, je vais le faire, mais plutot en sens contraire...
Est-il possible qu'une "machine" puisse un jour etablir la preuve d'un resultat inaccessible a l'homme ?
Pour bien comprendre cette question, il convient de se souvenir que la version la plus frappante du theoreme de Godel est qu'il existe (quel que soit le systeme logiquo-deductif utilise, englobant l'arithmetique) des assertions vraies mais indemontrables. Autrement dit, ce que Alain Connes appelle "le monde mathematique primitif (ou archaique)", n'est pas entierement accessible a l'homme, et ne le sera jamais.
Mais quid de la possibilite d'existence d'une machine qui aurait la "possibilite" de s'affranchir des contraintes des systemes logiques humains pour, en quelque sorte, aller mesurer la validite de resultats directement a la source (celle du monde mathematique primitif) ?
PS: je cause bien sur pas de choses aussi "triviales" que le theoreme des 4 couleurs, qui est parfaitement accessible pour l'homme. En effet, sa preuve consiste a montrer qu'il suffit de le verifier dans un nombre fini de cas (c'est la partie difficile, realisee par l'homme), et on utilise alors une machine comme simple outil de verification qu'aucun de ses cas ne constitue un contre-exemple.
|
|
|
Et toc ! Oui, chimie organique, j'avais compris.
Je sautais le 4 car je ne suis pas cablé directement au réseau intergalactique qui vient d'annoncer que l'on vient de découvrir la seule forme de vie de l'univers sur un petit endroit nommé FE...
Pourquoi hardie ?
Que de la vie puisse émerger l'intelligence semble prouvé.
Que la vie, de part sa nature, s'auto-organise pour perdurer semble aussi plausible. Mais je ne lui prêterai un but qu'avec moult précautions :o)
Pour ce qui est du hasard et de la nécessité... Je n'en sais strictement rien.
Oui, peut-être qu'il y avait 10^10 configurations possibles, et il n'y a que celle-là qui est viable, ou une multitude.
Non, car la super-théorie qui va bien expliquera pourquoi cet univers ne pouvait pas être autrement.
Que ton univers invente des stratégies, c'est sympa, et ça vaudrait le coup d'en discuter avec lui, mais fais le avec discrétion, on ne sait jamais !
Les desseins de l'Homme, impénétrables ? Meuh non (t'as le bonjour de ma vache à ton cheval), ce sont toujours les mêmes :o)
Et je te prierai d'être un peu plus sage, ou le Grand Ordonnateur pourrait se fâcher, non mais !
|
|
|
Ref Nicolas Ta machine, elle pourrait alors nous faire une bonne blague !
Puisque nous n'aurions pas la possibilité de valider son résultat ou même de le comprendre, elle pourrait se contenter de faire un petit somme, et de nous annoncer benoîtement qu'elle vient de démontrer un théorème bien compliqué :o)
|
|
|
C'est une facon de voir les choses...
|
|
|
Certes mais la question que se pose Fox reste valable.
Quelle garantie accorder au résultat ?
|
|
|
En fin de comptes, il se pourrait bien que ma question soit d'une nature exclusivement philosophique (auquel cas elle perdrait toute pertinence, si jamais elle en possede). De 2 choses l'une :
Ou bien on se range chez les "positivistes" purs et durs, et l'on pense donc qu'il est impossible, dans la quete des "verites primitives" d'aller plus loin que nous pouvons le faire. Auquel cas ma machine putative n'existera jamais.
On bien on estime que notre "nature" est pas suffisamment "parfaite" pour pouvoir saisir tout ce qui est virtuellement possible dans l'ensemble de la complexite de l'Univers. Auquel cas ma machine putative existera un jour ou l'autre.
J'appartiens personnellement a l'ecole positiviste, j'ai donc tendance a croire que cette machine putative ne verra jamais le jour, mais sans etre absolument convaincu...
|
|
|
En ce cas-la strictement aucune, Nirnaeth, puisque justement je me place dans le cas (largement hypothetique) ou, pour employer les grands mots, la machine deviendrait "transcendante" vis-a-vis des possibilites humaines.
|
|
|
Sauf a reconnaitre, un jour ou l'autre, que nous sommes depasses par la machine qu'on a cree ? Et qu'il faut lui faire confiance, meme s'il nous est impossible de prouver qu'elle a raison ?
|
|
|
ref nicolasdupont, Fox et les autres .... Je cite Nicolasdupont:
"Pour bien comprendre cette question, il convient de se souvenir que la version la plus frappante du theoreme de Godel est qu'il existe (quel que soit le systeme logiquo-deductif utilise, englobant l'arithmetique) des assertions vraies mais indemontrables. Autrement dit, ce que Alain Connes appelle "le monde mathematique primitif (ou archaique)", n'est pas entierement accessible a l'homme, et ne le sera jamais."
Ce qui m'a toujours frappé dans ce théorème, c'est que c'est un théorème justement !
C'est donc une démonstration mathématique qui affirme que des assertions vraies ne sont pas démontrables, mais des assertions mathématiques...c'est à dire que ce théorème est auto-référent !
Je ne vois donc pas pourquoi on peut en étendre son champ d'application à un domaine non mathématique comme les échecs par exemple ?
|
|
|
@nicolasdupont Moi pas comprendre, mais moi primitif ! "il convient de se souvenir que la version la plus frappante du theoreme de Godel est qu'il existe (quel que soit le systeme logiquo-deductif utilise, englobant l'arithmetique) des assertions vraies mais indemontrables." Indémontrables par qui ? Par nous, avec notre logique. Mais n'est-ce pas contradictoire d'accepter le théorème de Godel, postulant la transcendance de certaines assertions, et refusant la logique transcendante dans lequel elles seraient démontrables. N'est-ce pas attribuer quelque part une confiance excessive à la logique humaine, à la logique mathématique en l'occurence ? Pourtant il me semble qu'elle compose parfois avec le sophisme. Exemple: Etude de la convergence d'une série complexe. Je n'ai le droit de la décomposer que si elle est convergente, dixit ma logique mathématique. Qu'à cela ne tienne : je la suppose convergente, la décompose et merde, voilà t'y pas que la partie réelle ne converge pas. J'en déduit que ma série complexe ne converge pas. Tu appelles ça un raisonnement logique ? Pas moi. Dans un raisonnement par l'absurde, c'est l'hypothèse seule qui peut être putative. Le raisonnement reliant l'hypothèse à la conclusion, lui, doit être au-dessus de tout soupçon. Or dans le raisonnement que je viens de faire, ma conclusion infirme la validité du raisonnement qui l'a amenée. Alors que faire ? J'enveloppe ce raisonnement dans une coquille plus grande : après avoir posé comme hypothèse que ma série complexe est convergente, j'en pose uen autre qui est que ma première hypothèse est vraie, afin de confirmer que j'ai bien le droit de décomposer cette putain de série. Autant dire qu'on baigne dans la tautologie, jusqu'au cou. Mais comment faire autrement ? Alors, moi, non mathématicien, je propose le théorème d'Oroy : Quand une conjecture n'accepte d'autre discours qu'un discours tautologique, cette tautologie vaut démonstration.
|
|
|
@Oroy Je ne pense pas avoir d'illusions sur la "subtilité de mon logiciel", et pour ce qui est du reste il est vrai qu'un peu de documentation ne fera pas de mal.
* Un projet sur les réseaux autodéveloppants, avec de la doc facile à comprendre ;
* Un peu de bon sens pour s'autodétruire en connaissance de cause. Ce n'est bien sûr qu'un tout petit exemple parmi tant d'autres.
|
|
|
@daik Il y a une quinzaine d'années j'avais un Archimède, d'Acorn, la machine choisi par L'Education Nationale british. Non seulement cette machine équipée d'un processeur RISC disposait d'un excellent OS, mais on y trouvait beaucoup d'applications passionnantes, notamment des automates cellulaires dont je n'ai jamais vu l'équivalent sur PC. C'est ça, le progrès !
|
|
|
@daik Une partie de mon message s'est perdue. Je t'y remerciais pour tes liens, même si le second est trop politique pour ce fil. Je profite de ce second message pour te demander ton avis sur le théorème d'Oroy : est-ce la forme forte du théorème de Godel ? ;>)))
|
|
|
:o) Machine est grande, et Nicolas est son prophète !
Lui faire confiance ? Ce serait un retour de bâton historique assez comique :o)
Je ne suis même pas sûr qu'il faille lui faire confiance, tout ce que nous construirions à partir de ses résultats semblerait soit vain, soit sujet à caution.
On peut aussi imaginer une transcendance mutuelle, beaucoup plus stimulante (surtout pour notre ego !).
Petite digression d'un béotien : si je te suis bien, ton positivisme consiste à dire que si l'on peut trouver une explication, nous sommes capables d'y accéder ?
Mais il existe une partie de la "connaissance" (le monde mathématique archaïque) qui ne sera jamais accessible.
Comment concilies-tu les deux ?
Je ne vais bien sûr pas contester ce que dit Alain Connes ;o), mais ce monde primitif, cela revient pour moi à admettre qu'il existe une connaissance transcendantale (à l'homme), dont il faut quand même bien expliquer l'existence.
Je veux bien croire Godël, et admettre des assertions vraies non prouvables, mais déterminables par l'experience, mais j'ai du mal à y coller un statut particulier.
Ce n'est pas te prendre en défaut, mais les deux attitudes me semblent difficilement conciliables.
Ou alors j'ai compris de travers, et ce monde archaïque n'est pas transcendant ?
|
|
|
Tiens !? Voilà t-y pas que je converge avec Oroy en transcendant :o)
|
|
|
@Oroy L'Acorn, tu l'as gardé ? Il y avait de très bonnes choses sur certaines vieilles machines. Tu le sais peut-être déjà mais la famille de processeurs Arm qui équipait ces machines est bien vivantes, c'est une de celles qui se vendent le mieux au monde. Les automates cellulaires ont toujours intéressé les gens, une légende veut que le moniteur ait été inventé pour voir l'avancée des parties de jeu de la vie ! Maintenant tout se perd, quand on achète un PC on n'y trouve pas ce genre de petits programmes sympa, pas d'outils de programmation, sauf bien sûr si on a la chance de tomber sur une machine qui a Linux préinstallé ;-)
À part ça, attention aux raisonnements mathématiques trop hasardeux, tu pourrais tomber dans des travers de physicien... voire pire, d'informaticien !
|
|
|
Fox ne voudrait-il pas nous voir dire: regardons ce qu'il se passe déjà au niveau des ouvertures:
Grâce à la bibliothèque d'ouverture, l'ordi peut rivaliser avec 99.99% des humains, et même mieux, si la bibliothèque a été travaillée avant (donc apport de l'homme sur deux niveaux).
La machine permet parfois de trouver des nouveautés, ou d'en vérifier certaines, même si parfois, c'est plutôt l'intuition (pour ne pas parler d'instinct) qui permet de trouver des idées qui peuvent améliorer sensiblement la théorie jusque là acquise...
Un exemple de mixité dans ce travail: La carokann gagnée par anand face à bologan, Te1 qui sacrifie un cavalier pour lattaque sur le roi noir au centre, le sacrifice d'une tour sur un fou contre Kramnik qui a répété une ligne jouée par karpov contre le même adversaire deux jours avant...
L'humain a eu une idée qu'il n'a pas osé jouer, n'en voyant pas les aboutissants, il teste sur l'ordi , et paufine tactiquement.
L'idéal n'est pas dans qui sera toujours plus fort que qui, mais plutôt dans "l'osmose" qui est possible entre les deux!
Quoi je fais du hors sujet?... c'"est un troll quand même :p
|
|
|
Ref Nicolas Je me reformule, ayant du mal à me comprendre.
Godël dit, si je ne m'abuse, qu'il faut être exterieur à une théorie complexe pour valider les assertions vraies, mais improuvables par la théorie.
S'il existe un monde mathématique inaccessible, cela veut dire que d'une part, nous ne serons plus capables de valider ce monde inaccessible, et que d'autre part, les théories basées sur ce monde archaïque (et je suppose que c'est vrai pour toutes, de part la nature même de ce monde mathématique) seront alors invérifiables.
Et c'est là que je trouve une contradiction avec le positivisme que tu exprimes.
Ref Dcax : je crois comprendre que Fox rejette justement l'osmose, la complémentarité. Il se met en situation où, justement, il y a divergence, et où soit l'un soit l'autre a raison
|
|
|
cf nirnaeth: En rejetant cette hypothèse ne fait-il pas fausse route?
C'est pas dans l'affrontement qu'on est plus fort,mais quand on se serre les coudes :)...
bon les ordis n'ont pas de coude, est-ce en cela que c'est gênant?
Dcax, troll qui comprend rien, mais qui le dit quand même...
|
|
|
Ref Dcax Demande à Sarah O'Connor ce qu'elle en pense :o)
|
|
|
Sarah O'Connor? "-Non, à côté!" toc toc toc
"Sarah O'Connor?" "-Oui?"
Put Put Put...
Pas très locace la Sarah O'Connor...
|
|
|
Ref Dcax Pourquoi O'Connor ???
Je sais pas, trop de whisky irlandais, ou bug de la matrice ?
C'était Sarah Connor, mais ce n'est plus très important maintenant...
Requiescat in pace
|
|
|
Euh je sais pas mais ça fait monter le fil La nulle d'Anand fait présager la combat pour les prochaines rondes:)
A la Kaspi,il va battre ses poursuivants lui-même :)
|
|
|
@daik L'Acorn est chez un neveu à qui je l'avais prêt mais il ne fonctionne plus pour des raisons triviales de connectique. L'OS (RiscOS 3, je crois) étant en ROM, on dois pouvoir encore le démarrer. Le moniteur inventé pour visualiser le jeu de la vie, il ne faut pas charrier quand même : avant il y eut le terminal CRT d'abord purement textuel, puis semi-graphique, puis le terminal dit X (non, pas porno mais intelligent, c'est-à-dire capable de recevoir d'un host des messages synthétiques et de les transformer en un affichage entièrement graphique), il n'y avait plus qu'un pas à franchir pour passer au moniteur... qui n'est rien d'autre qu'un téléviseur sans tuner. Quant aux automates cellulaires, ils sont fascinants. J'en avais programmé quelqu'uns pour rigoler. Mais j'aurais voulu avoir plus de connaissance scientifique pour me lancer dans des choses plus ambitieuses : une sorte de jeu de la vie en 3D et 4 états, comme le code génétique pour pour essayer de recréer, par simulation, l'apparition de la vie sur terre (dans le cosmos ?), histoire de montrer qu'on peut se passer de Dieu, que le hasard et le nécessité suffisent... Je vais regarder ton lien (le jeu de la vie) mais je dois l'avoir déjà car j'ai fait des investigations avec Google sans jamais trouver l'équivalent de ce que j'avais sur l'Archimède. Je ne sais trop où en ai l'ARM aujourd'hui car Acorn s'est, il y a déjà longtemps, accoquiné avec plusieurs sociétés pour vendre leur ARM7, une sorte de module de microprocesseur sans connectique, de sorte qu'on en utilise peut-être dans les chipsets de PC sans le savoir... Dommage, les anglais ont des génies de l'informatique à foison, mais ils sont tellement arrogants qu'ils ne savent pas vendre !
|
|
|
erratum je l'avais prêté génétique pour essayer la nécessité j'ai fais où en est l'ARM acoquiné
|
|
|
Quand j'ai écrit erratum, j'étais optimiste
|
|
|
le moniteur c'est une boutade bien sûr ! Mais une révélatrice d'un état d'esprit. Dans le même genre les gens disaient que des espions étrangers avaient inventé l'algorithme de Syracuse pour distraire les chercheurs américains...
Arm vend énormément de processeurs ! On les trouve surtout dans des systèmes embarqués. La Game Boy Advance en a un, des téléphones portables et des assistants de poche aussi... Au total 99% des processeurs vendus dans le monde le sont pour des systèmes embarqués.
Qu'a de particulier le programme que tu avais sur l'Archimède ? Si c'est un truc intéressant et qui manque aux programmes qu'on trouve sur internet (il y en a plein) j'aimerais bien savoir quoi.
|
|
|
@daik Le site que tu m'as indiqué n'est pas inintéressant : j'y ai découvert le jeu de Ping dont je n'avais jamais entendu parler. Déroutant. Question automate cellulaire en revanche, c'est assez nul, il y en a de bien meilleur sur Internet (Cherche avec Google) mais très en retrait par rapport à ceux que j'avais sur l'Archimède, notamment un qui offrait : 1° une grille de taille variable jusqu'à 40 ou 50 cases de côté, je ne sais plus. 2° Gestion des bords (coupure, collage cylindrique ou torique). 3° Initialisation aléatoire ou customisée. 4° Nombre d'états de 2 à 8 ou 16, représentés par autant de couleurs. 5° Régles de vie ou de transfert d'état programmables avec des conditions multiples reliées par des opérateurs logiques. 6° Contrôle des générations, absolu ou conditionnel 7° Bonne vitesse d'éxécution (2000 ou 3000 générations en moins de 3 minutes sur une grille moyenne grande) au début des années 90. 8° Exemples fournis (formules et positions initiales si nécessaire). Il s'agissait d'applications gratuites trouvées sur les disquettes d'accompagnement de la revue à laquelle j'étais abonné et dont j'ai oublié le nom. Je n'ai rien trouvé de tel sur PC. Dans les "coquins" qui se sont associés à Acorn il me semble qu'il y avait IBM ou Intel, VLSI et un autre gros calibre. Je ne sais pas ce qu'est l'algorithme de Syracuse : est-ce qu'Archimède, ou son théorème, y ont quelque chose à voir ?
|
|
|
?! j'y ai découvert le jeu de Ping dont je n'avais jamais entendu parler : ??!!
Pour le programme d'automates cellulaires, pourquoi ne pas écrire le tien ? Ce n'est pas bien compliqué. On a maintenant d'excellents outils de programmation libres (ou au moins gratuits si Java est ta tasse de café).
L'algorithme de Syracuse est - sous réserve de preuve - un exemple de système autostabilisant en théorie des nombres, à rapprocher du ressort en physique ou de l'anneau à jeton de Dijkstra en informatique.
|
|
|
pour les entreprises Intel a racheté je-ne-sais-plus-trop-quoi pour sortir le StrongArm, un dérivé d'Arm développant plus de puissance qui a équipé des micro-ordinateurs complets sous RiscOS (Linux tourne aussi dessus). Je ne sais pas dans quelle mesure ils s'en sont servi pour cela mais en tous cas ils ont beaucoup progressé dans le domaine des processeurs x86 basse consommation. Je ne connais pas de lien avec IBM, qui fabrique elle-même d'excellents processeurs embarqués. Quand à VLSI (Very Large Scale Integration) il y a plein d'entreprises qui ont ça dans leur nom.
|
|
|
@daik Merci pour cette mise à jour de mes connaissances... qui ne sont plus du tout à jour. Programmer, surtout pas. Quand j'étais ingénieur système et même plus tard comme Responsable système j'ai beaucoup pissé de la ligne en Assembleur 360 et PLI. Les langages (trop) évolués me donnent des nausées parce que je ne peux m'empêcher de penser à ce qu'il y a derrière. Tu tombes mal pour me parler de Java. Je viens d'essayer d'aller voir les parties du tournoi Chorus et au moment de charger l'applet, on m'a dit que je n'avais pas le runtime de Java. Hors, j'ai celui de MS. J'en ai déduit qu'il voulait celui de Sun System et je l'ai téléchargé. Tu aurais vu le pastagas. J'ai reçu des rafales de messages d'erreurs, de SPAM me réclamant des ActiveX, les fenêtres me demandant d'envoyer les rapports d'erreurs s'entassaient trop vite pour moi. Bref, j'ai pu non sans mal me reconnecter et je vais voir si mon Java fonctionne. Programmer avec un truc pareil, non, il y a un âge pour tout. Et pour avoir les perfs des applications dont je t'ai parlé, un L4G n'est guère approprié. A+
|
|
|
Passe sous Linux ! Et avec les processeurs actuels, programmer en assembleur ne sert strictement à rien sauf pour une poignée d'experts, et encore. Ils sont tellement compliqués (pipelinés, superscalaires, hypersensibles à l'alignement, jeux d'instructions surchargés...) qu'on n'en a pas de vrais modèles statiques de performances. Ajoute à cela les gros progrès des compilateurs de langages évolués, et le résultat est qu'on obtient de très bonnes performances avec de très bons langages comme Objective Caml. Il n'y a aucune nausée à avoir vu que ce qu'il y a derrière est bien plus performant que ce qu'on obtiendrait à la main, si on n'est pas un Superman de l'assembleur et du système visé.
|
|
|
houla je vois que ça a bien avancé ! J'ai pas le temps de répondre ni même de lire, je ferai ça demain !!
|
|
|
@daik Sous Linux ? J'ai déjà essayé avec une distribution Mandrake et une autre, je ne sais plus. Comme je ne connais ni le C, ni Unix je suis obligé d'en passer par là. Mais même si j'étais plus jeune je resterai sous Windows, sauf si on me fourni un simulateur parfait sous Linux. Je ne peux pas me passer de Chessbase, Fritz, Winchloé mais aussi Paint Shop Pro, Nero et j'en passe. On ne peut pas faire sérieusement de l'informatique avec un OS gratuit, car, quand il y a un pépin, il n'y a pas de responsables... Pour les langages de programmation, il faut évidemment nuancer mon propos... et le tien. Le mal remonte à loin dans le temps. Dans les années soixante déjà, s'est développé dans les staffs d'entreprises une politique refusant de professionnaliser la programmation : crainte instinctive des managers à l'égard des techniciens qui pourraient, par un savoir spécifique leur enlever une aune de pouvoir. Cette crainte est ridicule, car le 'savoir' des programmeurs était trop confiné à la programmation pour être 'dangereux'. Ce sont les ingénieurs systèmes qui s'en sont trouvés dépositaires et sans moi mon Responsable informatique, voire le PDG dans certains cas, étaient en caleçon, plutôt court d'ailleurs. Pendant ce temps, aux Etudes on ramait dur avec un turn over croissant en raison de la fuite des programmeurs formés qui, privés de perspectives de carrière allaient monnayer leurs connaissances fraîchement acquises dans des PME. Et sans fin, le rêve des applications qui s'écrivent toutes seules grâce à des produits miracles rêvés au Japon, développés en Angleterre, en France ou en Californie était repoussé aux calendes grecques. Jusqu'à ce que la microinformatique prenne la relève avec, circonstance aggravante, des programmeurs encore plus amateurs, des OS consternants, une architecture machine et des jeux d'instructions mal ficelés... Alors le terrain devenait favorable aux AGL, aux L4G et à tout ce qui pouvait servir de cache-misère, d'autant que les améliorations vertigineuses de la puissance des machines à fait le reste. La chance aussi, car la micro a permis de découvrir qu'on avait fait fausse route dans quelques domaines : les disques dont on voulait améliorer les performances en les maintenant à 8 pouces ou plus alors qu'en les miniaturisant pour les faire entrer dans les boitiers des micros on s'est aperçu, grâce à la technologie Winchester que le rapprochement des têtes de la surface de lecture permettait d'améliorer drastiquement la densité ; les processeurs dont le coût modéré a permis de prendre le risque de les faire tourner à des températures de plus en plus élevées; les liaisons séries devenant plus performantes qu'espérées sur une plus longue distante en raison de la non nécessité des synchronisations indispensables sur des interfaces parallèles; dans le même ordre d'idée, le succès d'Internet et de TCP/IP permettant de découvrir que les procoles synchrones ne sont pas la panacée comme IBM voulait le faire croire avec son SNA; Et on pourrait trouver d'autres exemples.
Pour le soft, en revanche, les contingences économiques sont devenues si incontournables qu'on ne peut pas sortir de la logique actuelle : ils sont développés dans un contexte de concurrence à bas prix de production, donc sans compétence vraie, mais en de multiples exemplaires. C'est le client qui paie les pots cassés (Exemple : les médecins. S'ils s'étaient organisés pour faire faire UN logiciel sur le cahier des charges de la SS, ils auraient eu un meilleur produit pour 20 fois moins cher. Mais on ne peut pas demander à des représentants de profession libérale de se grouper, même par intérêt et des tas de PME en on largement profité en customisant, pour donner le change des applications mal fagotées) Du fond d'un labo, on voit les choses différemment, sans doute. Mais tu ne m'enlévera pas de l'idée que la programmation est affaire de professionnel, pas d'informatheux : il n'y en a jamais eu beaucoup et il en a de moins en moins je crois. Tu conviens toi-même 'si on n'est pas un Superman de l'assembleur et du système visé'. On n'était pas des supermen, on était des pros (je parle des programmeurs/ingénieurs système d'alors, car aujourd'hui j'imagine qu'ils ne font plus que de la maintenance... ou qu'il n'y en a plus). J'aimerais savoir quelle proportion de ceux qui se disent informaticien ne sont que des webmasters...
|
|
|
mais mais mais il ne s'agit pas de se passer de Windows si tu n'en as pas envie, on peut facilement avoir les deux.
[avec un OS gratuit] quand il y a un pépin, il n'y a pas de responsables : quand il y a un pépin avec Windows, qui est responsable ? Juste un exemple : lorsque l'attaque teardrop est apparue, les utilisateurs de logiciels libres (y compris les entreprises via leurs "responsables") ont pu s'en protéger en moins de 24h parce qu'on a le code source du système. Les autres ont été obligés d'attendre le bon vouloir des boîtes comme MS : c'est du boulot "sérieux", ça ?
Pour les langages de programmation, je me doute bien que c'est difficile à admettre quand on a l'expérience d'un monde où le contraire était vrai, mais désormais programmer en assembleur n'est plus viable, une raison étant que les humains ne sont pas capables de tirer les meilleures performances des architectures actuelles, une autre qu'on écrit des programmes beaucoup plus longs qu'avant qui seraient simplement impossibles à entretenir s'ils n'étaient pas écrits en un langage de suffisamment haut niveau.
Le mot informaticien sans contexte ne veut pas dire grand-chose de nos jours, ça, c'est évident.
|
|
|
@daik Plus longs qu'avant, les programmes ? Combien de ligne codés, combien d'instructions machine après compilation et link, combien d'années-hommes de programmation ? Que je me rende compte. Pour la facilité de maintenance, il y a beaucoup de facteurs à prendre en considération et pas seulement le niveau du langage.
|
|
|
par exemple 2,5 millions de lignes de code pour le noyau Linux, 2 millions pour Mozilla... Quant aux instructions en langage machine c'est beaucoup plus : les compilateurs optimisants produisent souvent de longues séquences d'instructions pour obtenir de meilleures performances (déroulage de boucles, mise en ligne de fonctions, insertion de NOPs pour aligner des instructions, utilisation de plusieurs instructions au lieu d'une pour bénéficier du parallélisme d'instructions...). Et c'est loin d'être tout, par exemple pour obtenir de bonnes performances il faut désormais ordonnancer les instructions (si tu veux écrire A B C D il est possible que A C B D soit exécuté 2 fois plus vite) et toujours garder le cache en tête (placement des données et du code, préchargement explicite, pipeline logiciel, prise en compte de la politique de mise à jour...). Ajoute à cela les optimisations très agressives indispensables à l'obtention des meilleures performances (fusion/fission/torsion de boucles, par exemple) et tu vois qu'on n'a guère d'espoir d'y arriver à la main...
Mais tout cela n'arrive pas à la cheville de la raison-massue : ces applications peuvent fonctionner sans modification sur des dizaines de plate-formes différentes, ce qui est évidemment impossible avec de l'assembleur. Pour les années-hommes il faudrait estimer le nombre de contributeurs et le temps qu'ils y ont passé, ce qui est difficile dans le modèle "bazar",
mais cela a peut-être été fait. Remarque que certains petits composants sont quand même écrits en assembleur : c'est parfois indispensable (des morceaux du noyau, des compilateurs et bibliothèques d'exécution) et parfois très rentable en termes de performances (des bouts de bibliothèques mathématiques ou multimédia).
|
|
|
Hi hi hi Certes, la programmation assembleur n'est plus viable, mais je bosse aussi sous mainframe IBM, coté Etudes (les casses-c... qui râlent parce qu'ils ont 1% de la puissance machine :o).
Et il y a encore de l'assembleur qui tourne.
Et peut-être un ou deux gars sur 500 qui peuvent encore maintenir ces trucs.
Le reste, c'est du Cobol, pas particulièrement évolué (même s'il y a un couillon qui a réussi à en pondre une version objet ;o).
Mais c'est simple à programmer, à maintenir, et particulièrement robuste.
Et faire ce que l'on fait en C ou en Objet reviendrait beaucoup plus cher.
|
|
|
@daik, @Nirnaeth Je me suis mal exprimé ou tu as mal compris ma question. Je voulais parler d'un programme d'application, d'une unité de traitement, d'un load module pour jargonner, pas de tout un système d'opération. Ceci dit, je prends tes infos et je compare avec un OS : MVS/SP avait environ 3 millions de lignes de code? Plus tard, années 80, avec MVS/SE puis MVS/XE ça n'a pas dû diminuer. Beaucoup des actions d'optimisations que tu me décris sont du pinaillage : déroulement de boucles, insertions de NOP pour alignements (en architecture 360 les instructions sont forcément alignées sur un demi-mot, les données sont alignées en fonction de leur type déclaré, explicitement ou implicitement), remplacement d'une instruction par plusieurs pour améliorer le parallélisme (je rêve, c'est ridicule dans un environnement multitâche, que ce soit sur un monoprocesseur où multiprocesseur car tu ne peux faire aucune hypothèse sur la disponibilité des CPU à un instant donné ; même sur un seul processeur tu ne peux prévoir les 'bulles' dans le pipeline, les purge du TLB et le micro comportement du système de pagination). Le réordonnencement des 'instructions' est surtout utile pour éviter les grosses cagades, comme un open dans une boucle par exemple. Au contraire de ce que tu dis, il est plus facile de maîtriser tout ça 'à la main' (j'aime bien ton expression) car on sait exactement ce que l'on fait, tout au moins si on est un bon professionnel. D'autre part, je te signale que dans le compilateur PLI (langage de 2/3ème génération) il existe de nombreuses options d'optimisation (REORDER puisque tu aimes ce gadget, mais surtout des options de localisation judicieuse des variables). Pour conclure sur la l'optimisation du code, pour avoir de bons résultat, il est INDISPENSABLE d'utiliser des outils de pragrammétrie afin de localiser les points de forte consommation de CPU afin de leur consacrer une attention particulière ; il ne faut pas négliger non plus l'organisation des fichiers qui peut être rédhibitoire. Pour résumer sur l'optimisation individuelle des programmes : plus le langage et évolué plus il nous réserve de surprises, surtout quand il a une structure de bloc comme le PLI. Enfin, le point fondamental, c'est l'équilibrage du système physiquement et logiquement. On est souvent conduit à des arbitrages entre applications ou types d'applications : batch contre time sharing, time sharing contre transactionnel, travaux privilégiés contre throughput général. En bref, ça dépasse le cadre de la programmation même si parfois il faut faire remonter certaines consignes jusqu'aux Etudes. Pour ce qui est de la portabilité, c'est une autre question. j'ai souvent vu des applications écrites dans un langage évolué (COBOL) ne pas supporter un portage sur une autre plateforme. Ce fut par exemple le cas aux AGF où je travaillais, avec des applications écrites en COBOL sur 1410 ou 7070, dans le but de la migration vers l'architecture 360. Il fallut les faire tourner en émulation pendant plusieurs années avant de les réécrire. Mais ceci dit, on peut utiliser le macro langage de l'assembleur pour écrire des applications portables. D'ailleurs le CAP-SOGETI vendait à une époque une sorte de langage à cette fin. Il appelait ça CPL et ce n'était rien d'autres que des macro-instructions Assembleur. Pour faire un portage, il suffisait de réécrire (ou adapter) les macros à la nouvelle plateforme et réassembler les applications. C'était du boulot bien sûr, mais quand le jeu en vaut la chandelle... Pour les temps de développements, il faut se méfier. J'ai entendu Bill Gates dire, dans une conférence au palais des congrès que DOS 3.3 représentait 30 années-hommes de développement. Plus menteur tu meurs : quand on sait qu'il a acheté 50.000 $ la première version à Tim Patterson qui avait travaillé, seul, deux ou trois mois à modifier un système 8 bits de DIGITAL RESEARCH que lui avait passé un copain en même temps qu'un des deux ou trois 8088 disponibles, quand on sait que quelques semaines plus tard il a livré cette version légèrement améliorée à IBM, quand on sait ce qu'il y avait de nouveau dans la 3.3, on se dit qu'il nous a pris pour des cons. Pour finir, tu conviens que des petits bouts de bibliothèque mathématiques, des morceaux de noyau ont besoin d'être écrits en assembleur, c'est significatif. Capitals sont la facilité de développement et la maintenance : là encore, rien ne vaut une programmation soignée et bien documentée. C'est un travail de pro que les entreprises on voulut faire effectuer par des grouillots équipés d'outils souvent puissants mais lourds et opaques. Une énergie considérable à été dépensée, beaucoup d'argent aussi, pour des résultats médiocres. Et cela, comme je l'ai déjà expliqué pour des raisons 'politiques' (on ne va pas encore créer une nouvelle profession de techniciens).
Nirnaeth. Qu'est-ce que tu appelles une version objet ? Un compilateur fabrique toujours un module objet, qu'il faut link-editer pour qu'il devienne exécutable.
|
|
|
mal compris Quand je parle du noyau Linux, il faut bien lire le noyau, pas le système entier qui est bien sûr beaucoup plus gros. Par exemple Windows XP compte environ 40 millions de lignes de code, ceci inclut plein de choses qui n'ont rien à voir avec un noyau. Pour ce qui est de GNU/Linux c'est difficile à dire vu qu'il n'y a pas de standard, chaque distribution y met un peu ce qu'elle veut.
Sur les processeurs actuels il est devenu totalement impossible de faire ces optimisations soi-même avec des résultats probants. Tu as connu une époque à laquelle on connaissait précisément le temps d'exécution des instructions en fonction de paramètres (relativement) simples, c'est fini. En partie parce que les constructeurs, Intel surtout, ne documentent pas tout (étages de pipeline voire instructions non documentés par exemple), en partie parce que ça change du tout au tout d'une microversion du processeur à la suivante, en partie parce que c'est simplement trop compliqué. Il y a tellement de possibilités pour faire une chose donnée et les performances obtenues dépendent d'un si grand nombre de facteurs qu'on emploie plutôt des procédures de guidage de la compilation optimisante par un expert, voire même d'optimisation itérative - on en est là ! Et bien sûr les résultats obtenus ne valent que pour un certain processeur d'un modèle très précis, or maintenant pour améliorer les performances on change les architectures en profondeur - l'époque où l'on pouvait augmenter la fréquence sans se poser trop de questions est finie. Tout de même, sur l'archi : on dispose du processeur pendant un temps suffisant, et l'aspect parallélisme d'instructions est suffisamment important, pour que la prévision du fonctionnement du pipeline et l'ordonnancement des instructions soient primordiaux (l'ordonnancement sert à faire exécuter plusieurs instructions en même temps, vraiment dans le même temps physique).
C'est aussi le cas de la gestion du cache - des caches - vu que l'accès à la mémoire est devenu affreusement lent par rapport au fonctionnement du processeur (il a progressé beaucoup moins vite). L'alignement optimal d'une certaine instruction ou donnée est souvent difficile à connaître, or le processeur y est très sensible, au point que les processeurs sont optimisés pour avaler les chaînes de NOPs servant à aligner les instructions. Optimiser un processeur pour ne rien faire le plus vite possible, c'est intéressant n'est-ce pas ?
Pour te donner une toute petite idée, exercice : copier le contenu d'une zone de mémoire dans une autre. Simplissime, non ? Eh bien, sur certains x86 on utilise un transfert par mots, sur d'autres par doubles mots, sur certains un préfixe de répétition, sur d'autres une instruction de boucle ou encore un saut conditionnel, sur certains on a intérêt à le faire avec des instructions en virgule flottante, sur d'autres avec des instructions SIMD et encore, pas les mêmes partout... Et ça c'est vraiment un minuscule exemple d'ultra-base, on n'a que quelques-uns des aspects concernés.
On s'intéresse aussi à l'ordonnancement à l'échelle du système, bien entendu, son dernier avatar étant l'HyperThreading (commutation de contexte rapide pour masquer la latence de la mémoire). Et aussi au-dessus : étant donné une grille de grappes de milliers de PCs, exercice : répartir une (des) application(s) dessus. Quelques points de détails : les processeurs sont (très) différents les uns des autres, les systèmes d'exploitation aussi, et les équipements réseaux également...
Je crois que Nirmaeth parlait de langages orientés objets. Un paradigme très surestimé, d'ailleurs.
On est très, très hors sujet, là. Il faudrait déplacer ce fil ailleurs.
Bonne nuit.
|
|
|
J'ai plusieurs reponses a fournir, mais d'une part il est tard ce soir, et d'autre part j'attends le reaction de Fox sur mon idee de "machine putative", avant de tenter de synthetiser.
Alors juste une reaction sur une phrase d'Oroy (qui, entre parentheses, est beaucoup plus agreable a lire depuis qu'il semble avoir arrete d'agresser inutilement ses lecteurs, comme un gamin boutonneux en pleine crise d'adolescence. Esperons que ca dure...).
Sa phrase, ou plutot son interrogation, est la suivante :
"N'est-ce pas attribuer quelque part une confiance excessive à la logique humaine, à la logique mathématique en l'occurence ?".
Il s'agit-la d'une sorte de reformulation de ma problematique initiale lancee sur ce fil : peut-on imaginer qu'il puisse exister (sous forme d'une machine putative ou sous forme d'un autre systeme conceptuel present ailleurs dans l'Univers), un autre "referent" qui soit transcendant a celui de l'humanite ?
Dit autrement, est-ce que toute forme d'intelligence evoluee dans l'Univers reste sous l'emprise du theoreme de Godel (c'est-a-dire, pour simplifier, qu'il est impossible de connaitre la totalite des verites), ou bien est-il possible qu'une autre "entite transcendante a l'humanite" puisse avoir acces a cette totalite des verites ?
PS: inutile de repreciser que mon inclination "positiviste" va vers la premiere hypothese, mais que je parierais pas mon slip sur le coup...
|
|
|
@daik Tu m'en diras tant ! Ton exemple d'une copie de mémoire à mémoire me laisse pensif. Si Intel a mis des ARM7 dans ses processeurs, quel gâchis . L'ARM7, comme les autres autres ARM a je crois 22 instructions RISC, orthogonales et conditionnelles. J'arrête, on est hors sujet, mais c'est intéressant quand même pour moi de voir la dégénérescence architecturale à laquelle on est arrivé pour maintenir contre vents et marées une compatibilité ascendante qu'on aurait pu assumer par soft (par simulation d'environnement grâce aux gains de puissance), à condition d'avoir des programmeurs, des vrais...
|
|
|
ah je lis ce fil seulement maintenant dommage. Je n'ai encore tout lu mais je peux deja repondre sur quelques confusions. Tout d'abord le livre de Nagel est ok pour qui veut voir le detail de la preuve et essaye de comprendre mais ce que tu cites Fox est étonnant de la part des ces auteurs. En effet ils semblent confondre une preuve faisable par une machine et une preuve dans un système formel donné, comme si les machines étaient enfermés un système formel particulier. Vraiment bizarre. Ensuite le cerveau humain je me demande vraiment ce qu'il vient faire la dedans. C'est le même genre de cerveaux qui a pondu l'astrologie, la logique aristotelicienne, le boudhisme et divers systemes formels tres differents entre eux. Je ne vois pas du tout en quoi la structure du cerveau est pertinente meme si Krivine a ecrit il y a un an ou deux qu'une sorte de lambda calcul etait sans doute parmis les operatrions de base de nos cerveaux. Bref quand on parle de "l'intelligence humaine" je ne vois pas trop de quoi il s'agit et tout cas cela a peu à voir avec un systeme formel et surtout pas avec un systeme formel particulier.
Mais me direz vous, le theoreme de Goedel en question s'applique a n'importe quel systeme formel non contradictoire qui contient l'artihmetique. Oui mais ce theoreme dit seulement que tant qu'on reste dans ce systeme formel il existe des propositions indecidables. Mais si on en sort il est tres possible de prouver au moins certaines de ces propositions. C'est d'ailleurs exactement ce que fait Goedel qui montre que la formule indecidable G qu'il a construite est vraie ! Bien sûr si on adopte un deuxieme systeme formel pour eviter certaines limitations du premier alors ce meme systeme aura lui aussi des propositions indecidables ? Et alors ? Et bien on devra alors douter de la validite de ce deuxième système. Oui certes et alors ? On doute déjà très fortement de ce que pondent les humains donc cela ne me parait en aucun cas montrer que les humains sont superieurs.
Pour resumer, là ou l'humain reste pour le moment superieur aux systemes formels classiques (non contradictoires, monotones ...) et donc au programmes qui pour le moment se conteraient de reproduire ces systmes formels, c'est que l'humain ne se focalise pas aveuglement sur une validite parfaite à coup sur : il prend des risques pour obtenir des resultats rapidement mais sans toutes les garanties d'un systeme logique classique. Mais rien n'empeche de faire des programmes qui prennent les meme risque et la seule vraie difference entre l'homme et la machine est qu'on n'a eu que 60 ans environ pour coder les machines alors que l'homme accumule quelques centaines de milions d'années d'essais-erreurs qui lui donnent une avance considerable, mais surement provisoire.
@nicolas : il suffit de considerer une preuve trop complexe qui ne tiennent pas dans la memoire d'un homme ni sur le papier qu'il peut manipuler dans une vie et en supposant bien sur qu'il n'ait pas droit à un ordinateur mais juste a du papier et du crayon. Ainsi il y a évidemment des preuves que seuls des machines pourront faire.
Pour en revenir à la question initiale de fox la réponse est non : on ne peut pas utiliser l'idee de goedel pour prouver que les machines ne resoudront pas certains problemes d'echecs pour la bonne raison que tu n'as pas fixe le systeme formel en paralant des machines en general. SI tu fixes ce systememe rien n'empeche une autre machine de suivre un autre systeme formel ou meme de prendre des risques commes les humains etdonc en pratique de conclure au moins aussi bien que ces derniers. Bon, rien n'empeche une machine en principe mais reste à pondre une machine aussi subtile qu'un renard ;-)
|
|
|
Oroy a une nouvelle fois raison une nouvelle fois raison d'être convaincu.
H.I.A.R.C.S. est effectivement un programme qui procède différemment.
D'ailleurs c'est marqué sur la boite. H.I.A.R.C.S. : Higher Intelligence Auto Response Chess System.
|
|
|
Oroy number one for the life !
|
|
|
Super Kolvir, Merci de déminer proprement le terrain en explicitant l'abus de Gödelisation. C'était en substance les postulats exprimés par Yvap ou moi + haut.
En revanche dans la série des déminages d'utilisations impropres j'en rajoute au moins 2 à la liste :
- lambda calcul : dans la mesure où ça reste ultra flou pour toi et donc où tu ne sais même pas sur quoi ça débouche ou pourrait déboucher, je ne vois pas pkoi tu en parles.
- positivisme : Nicolas je vois pas le rapport entre le positivisme et ton idée que l'homme est parfait. Là encore est-il bien raisonnable de convier un courant aussi lourd ? A moins que tu ne penses à un positivisme spécial (il y en a qq uns qd même) et non à l'original mais dans ce cas d'une il faudrait préciser.
En tout état de cause je ne vois pas ce que lambda calcul, gödel et positivisme font dans ce débat à part embrouiller et lancer des fausses pistes. Pour moi tt ça c'est HS.
|
|
|
y a pas de 2, ça a finit en conclusion :o)
|
|
|
kolvir @nicolas : il suffit de considerer une preuve trop complexe qui ne tiennent pas dans la memoire d'un homme ni sur le papier qu'il peut manipuler dans une vie et en supposant bien sur qu'il n'ait pas droit à un ordinateur mais juste a du papier et du crayon. : Bof pas super, ce faisant tu réduis artificiellement les ramifications de l'homme. Pkoi aurait-il droit à l'artéfact papier et pas à l'artéfact ordi ? et la calculette tu l'autorises ou non ? et les règles à calcul ? ...
Je ne poserais pas le débat en ces termes. La question est de savoir s'il existe un concept qui soit inaccessible à l'homme et non à la machine, comme la couleur pour un aveugle par exemple.
A mon avis il n'y en a pas.
|
|
|
v'là autre chose xxx : ah bah si y'a marqué "intelligence" dedans alors ça doit être vrai, y'a plus rien à discuter...
Perestroïka : reste le PSSH, sur quoi te bases-tu pour dire qu'une machine de Turing peut en théorie simuler tout processus cognitif connu ? Pour ma part la dernière fois que j'ai regardé c'était une hypothèse, sans l'ombre d'une preuve. Mais je ne passe pas mon temps à la surveiller, donc si tu as du nouveau je le lirai bien volontiers.
|
|
|
daik : La machine de Turing est + basique et donc + universel que le PSS il me semble. Elle peut théoriquement simuler n'importe quel paquet de neurones et n'importe quel paquet de processeurs.
Donc à moins que tu n'aies dans l'idée d'autres mécanismes cognitifs je ne vois pas où est le prob.
Ceci dit la MDT est tellement minimaliste qu'elle n'est pas vraiment intéressante, en tout état de cause je ne vois pas ce qu'elle vient faire là. Ou alors il faut que t'expliques.
Dans la série tarte à la crème j'ai bien rigolé aussi avec ton "combien de temps durera la survie d'une espèce qui dépense tous les 9 jours, pour s'autodétruire, des sommes suffisantes pour nourrir, éduquer et soigner tous ses représentants".
|
|
|
Ha si, on es ok sur un point au moins : A savoir sur ce que tu réponds à Oroy qui veut réhabiliter la programmation en assembleur. Oroy avec ce débat tu es à des années lumières de 99.9% des préoccupations informatiques d'aujourd'hui.
|
|
|
là tu me déçois La machine de Turing permet en théorie de reproduire parfaitement tout processus cognitif connu. Exercice : a) qui a dit ça dans ce fil ? b) où est la preuve ? c) l'intelligence humaine est-elle réduite à un paquet de neurones ? [ce à quoi j'aurais tendance à répondre non]
Des tartes à la crème j'en ai plein d'autres, et avec les sources comme la première. On peut par exemple se demander dans quelle mesure on peut qualifier d'intelligents des gens ayant soit-disant passé le stade du Moyen Âge qui viennent par centaines de milliers applaudir un type issu d'un mouvement, dont il est devenu chef, qui a fortement soutenu Franco et Pinochet et continue d'exercer une pression énorme contre les droits élémentaires, par exemple ceux à la contraception et à l'avortement. Mais tu as le droit de trouver ça parfaitement normal, bien sûr.
|
|
|
Tu peux développer le c) stp. Pour la tarte à la crème 2nde salve, si c'est du 2nd degré c'est pas mal, particulièrement la dernière phrase pleine de sens :o) => que vient faire la normalité ici ? :o) Enfin bon tu es HS de tte façon, et qd bien même j'aurais pas envie de répondre à ce hachis-parmentier de la pensée.
|
|
|
Allez pour faire très court et dans l'ordre : moi / ci-dessus / oui
|
|
|
mais bien sûr c'est formulé pour être une TALC, donc en respectant les figures imposées du genre, je pensais que tu le comprendrais. Il n'empêche que le type en question me donne envier de gerber.
Le c) est simplement la question de la nécessité d'avoir plus qu'un cerveau pour être intelligent (on peut appeler ça un corps si on veut). Est-ce nécessaire a) à la réflexivité, b) au fondement des symboles physiques ? Si quelqu'un a trouvé les réponses ça m'intéresse.
|
|
|
quant à la preuve j'ose espérer que tu ne parles pas de ceci : + basique et donc + universel que le PSS il me semble. Ni de Elle peut théoriquement simuler n'importe quel paquet de neurones et n'importe quel paquet de processeurs : elle peut théoriquement simuler toute fonction calculable si l'on accepte la thèse de Church, mais pour la suite ? Qui a prouvé que tous les processus cognitifs connus sont des fonctions calculables ?
|
|
|
Cerveau + Corps En effet on se dirige actuellement vers la reconnaissance du rôle du corps complet en tant qu'acteur hautement intéractif avec le cerveau. Il apparaît qu'avoir un corps et être capable de réflexivité soient des composantes nécessaires (mais non suffisantes) à l'émergence de la Conscience.
Mais il n'est plus question à proprement parler d'intelligence en tant qu'aptitude à résoudre des prob théoriques. D'ailleurs bravo à Fox qui a intelligemment (ou non ;o) ) évité d'inclure la Conscience dans le débat, voilà encore une autre source de tarte à la crème à éviter ici.
Donc pour en revenir au débat, l'existence d'un corps physique acteur du monde n'est pas ici nécessaire, le modèle "machine de Turing" est amplement suffisant.
|
|
|
Preuve Attention là encore, on peut incessament réclamer des preuves sur tout et se conforter dans son idée du fait qu'elles n'existent pas.
Je ne pense pas que les choses se posent en termes aussi formels. La question est plutôt : Quel processus cognitif n'est pas gérable par la MDT ?
La réponse est qu'on n'en connaît pas aujourd'hui et qu'on n'a aucune raison a priori de supposer qu'il en existe.
Disons pour être encore plus précis qu'on a raison de supposer qu'il n'en existe pas, ça me semble la bonne démarche (positiviste pour le coup :o) ).
|
|
|
aptitude à résoudre des problèmes théoriques... Qu'est-ce qu'un problème théorique ? Où est la limite avec un problème non théorique ? La question "suis-je capable de résoudre un problème théorique ?" est-elle un problème théorique ? Nécessite-t-elle des capacités de réflexivité ?
Quel processus cognitif n'est pas gérable par la MDT ? mais comment répondre à cela sans montrer qu'ils le sont ? Comment montrer qu'ils le sont si ce n'est en les implémentant et en mesurant la différence avec ceux qui existent déjà ? Or pour le moment ils ne tiennent pas la route, et loin de là. Quel processus cognitif a été modélisé de façon satisfaisante ? On commence à peine à connaître un peu les modèles biologiques, avec des expériences qui flanquent par terre ce qu'on croyait savoir la veille. Comment peut-on se satisfaire d'un modèle imparfait d'une chose dont on ne sait pas comment elle marche ?
Pour le reste, faut-il vraiment te sortir des exemples de choses qui paraissaient évidentes à tout le monde jusqu'à ce que quelqu'un ne prouve qu'elles étaient fausses ? Admettre une hypothèse et travailler dessus, bon, il faut bien avancer, mais là c'est vraiment trop pour moi.
|
|
|
Bon, un p’tit point à cet endroit du débat … Ce serait bien de s’en tenir à la question de Fox.
Si j’ai bien compris, sa question porte bien sur les « modes de fonctionnement » de l’esprit humain d’une part et de « celui (?) » d’une machine.
Comme on l’a vu dans la discussion apparaît inévitablement la notion de « clôture cognitive ». L’esprit humain est-il « borné », a-t-il atteint – atteindra-t-il – ses/des limites ? ;o)
Fox me précise bien : « de toute façon c'était la suite "Néanmoins, le cerveau possède, semble-t-il, une structure de règles d’opérations bien plus puissante que celle des machines conçues aujourd’hui." qui m'intéressait le plus :-)) »
C’est le cœur de la question ! Résumons (GROSSIER résumé, pour les détails et développements, voir l’opus cité plus haut auquel j’emprunte pas mal de passages dans ce qui suit) :
Gödel a démontré, et aucun mathématicien sérieux ne remet en doute cette démonstration, que dans tout système formel incluant la théorie des nombres, il existe des propositions « indécidables » c’est-à-dire ni démontrables, ni réfutables par l’utilisation des axiomes du système.
Turing est arrivé ensuite montrant que n’importe quelle démonstration formelle du genre que recouvre le théorème de Gödel est équivalente à un programme d’ordinateur. Cet ensemble étant un sous-ensemble de l’ensemble de tous les ordinateurs possibles. Peu importe de quel matériau est fait votre ordinateur.
Donc Gödel appliqué par Turing nous dit : Tout ordinateur qui est un démonstrateur consistant de vérités de l’arithmétique a un talon d’Achille, une vérité qu’il ne peut jamais démontrer, même s’il doit fonctionner jusqu’au jour du Jugement dernier. Bon , mais alors ?
Pourtant il est évident que tout individu assez futé, et particulièrement un mathématicien voit que certaines de ces propositions sont vraies bien qu’indécidables dans le strict contexte des axiomes du système.
Gödel en a déduit que l’esprit humain a un « truc en plus », ne peut pas être simplement une machine puisqu’il peut faire des choses qu’aucune machine ne peut faire. Il pensait ainsi démontrer l’impossibilité de l’IA ! Pas si simple que ça ! ;o))
Une des grosses difficulté qu’ont les mathématiciens et informaticiens à saisir la problématique de la question tient à leur notion de ce qu’est un « algorithme ». Dans ces disciplines cette notion sous-entend pratiquement sans ambiguïté celle d’ « infaillibilité ». Ils doivent produire des résultats sans faire d’erreurs. C’est ce qu’on peut appeler le « point de vue Divin » sur les algorithmes.
Mais ces algorithmes particuliers construits de façon ad hoc dans le but de répondre à un problème particulier ne sont qu’un minuscule sous-ensemble de tous les algorithmes possibles. Il en existe beaucoup plus faisant des erreurs, non pensés pour répondre à UN problème particulier mais qui fonctionnent quand même !
Et si le Darwinisme est correct, ce qui devient de plus en plus difficile à réfuter, vous et vos ancêtres avez une chaîne infinie de jeux gagnants pour de semblables enjeux mortels sur les algorithmes incarnés dans votre « machinerie ». C’est ce que les organismes ont fait quotidiennement depuis que la vie a commencé : ils ont parié leurs vies que les algorithmes qui les construisaient, et qui opèrent en eux s’ils sont parmi les heureux possesseurs d’un cerveau, les garderont en vie assez longtemps pour avoir des enfants.
Dame Nature n’a jamais aspiré à une certitude absolue ; un bon risque lui suffit. Nous nous attendrions donc à ce que, si les cerveaux des mathématiciens sont des algorithmes qui sont exécutés, ce seront des algorithmes qui se trouvent se comporter assez bien dans le registre de la détection de vérité, sans être à l’abri de l’erreur.
Quelles sortes d’algorithmes exécutent donc les mathématiciens ? Les algorithmes « pour » essayer de rester en vie. Naturellement de tels « algorithmes darwiniens » n’auraient pas été conçus dans le seul but de reconnaître les vérités mathématiques comme des vérités mathématiques. Pas plus que vos yeux ne furent conçus pour reconnaître des italiques ou des caractères gras, mais cela ne veut pas dire qu’ils ne soient pas magnifiquement sensibles à de telles différences si on leur donne une chance de les prendre en considération.
Nous manipulons tous en effet les ingrédients qui sont à la base de ce que nous nommons « l’intuition » d’une manière apparemment non algorithmique, mais ce fait phénoménologique est trompeur. Chaque fois que nous disons que nous avons résolu un problème par « intuition », tout ce que cela veut vraiment dire, c’est que nous ne savons pas comment nous l’avons résolu.
Oroy sur ce point a parfaitement raison : La "supériorité" du cerveau est dûe paradoxalement à ses imperfections . Je suis surpris que Peres n’aie pas réagi là-dessus … c’est pourtant un de ses chevaux de bataille ! ;o)
Bon ça suffit pour aujourd’hui, le problème de l’éventuelle « clôture cognitive » de l’esprit humain sera pour plus tard !
|
|
|
Je comprends bien tes interrogations mais je ne pense pas qu'elles aillent dans le bon sens surtout appliquées à la pratique du jeu d'échecs qui est -à l'échelle du monde qui nous a façonné- contraint, pauvre et désincarné.
De même et pour rejoindre le questionnement de Fox, pour les maths là encore on peut sérieusement mettre en doute la nécessité d'un corps ainsi que de la réflexivité appliquée à l'entité pensante.
faut-il vraiment te sortir des exemples de choses qui paraissaient évidentes à tout le monde jusqu'à ce que quelqu'un ne prouve qu'elles étaient fausses ? : Procédé fort usité qui consiste à se placer a priori dans le camps des gagnants reconnus a posteriori. Je peux te répondre que si pour toi il est évident que j'ai tort, alors ta phrase s'applique également à toi-même. Bref on tourne en rond.
La question n'est pas de savoir si nos connaissances sont en phase avec la vérité vraie par essence inaccessible, mais plutôt si avec les connaissances dont l'on dispose on peut raisonnablement élire quelques hypothèses préférentielles et tenter de les éprouver.
D'autre part la recherche de preuves puis de preuves de preuves est un processus souvent fantasmatique.
aptitude à résoudre des prob théoriques : Ma formulation est très malheureuse, je voulais surtout souligner qu'il y a un monde entre être conscient et gagner aux échecs.
|
|
|
oups croisement
|
|
|
Je suis surpris que Peres n’aie pas réagi là-dessus Ben disons que j'évite au maximum les risques de disgressions. Ta réponse, bien que je sois évidemment 100% ok avec, dépasse largement l'interrogation de Fox dans la mesure où tu introduis le hasard et attaques carrément l'exégèse de l'humain et donc indirectement de la machine qui pourrait répondre à la question de Fox.
|
|
|
@Yvap Et j'ai encore raison quand je propose mon théorème: Quand une conjecture n'accepte d'autre discours qu'un discours tautologique, cette tautologie vaut démonstration. "C'est vrai parce que c'est vrai" mais c'est à vous de jouer, et vous n'avez rien à proposer d'autre. Qui a raison ? Et j'ai eu encore raison quand j'ai dit, mais je ne sais plus où, qu'on se montre plus exigeant envers la logique de l'ordinateur qu'envers celle du cerveau humain. N'est-ce pas un peu excessif ? Ceci dit, je ne joue pas à qui aura raison, je cherche la vérité.
|
|
|
@Perestroïka Il y a un truc qui m'énerve, parmi beaucoup d'autres. C'est de voir utiliser les mots à tort et à travers. Exemple : artefact (et non artéfact) qui, en français, n'a pas le moins du monde le sens qu'il a en anglais d'objet fabriqué de main d'homme ; encoe moins celui d'artifice. En français, ce mot emprunté au langage des sciences expérimentales, désigne le décalage qu'il y a parfois entre l'observation et la réalité du fait de la méthode utilisée. Il peut aussi être utilisé quelque peu abusivement pour désigner des déformations observées en réponse de la présence dans l'organisme d'objets introduits artificiellement : prothèses, plombages dentaires, etc. Mais c'est déjà un abus de langage. Mon regret de voir abandonnée la programmation Assembleur est fondé sur le constat que, dans ce domaine comme dans d'autres, on a sacrifié la qualité à la productivité pour des raisons bassement économiques : mes préoccupations transcendent de beaucoup le seul aspect informatique.
|
|
|
@peres je parle du lambda calcul parce que l'idée de Krivine est plein d
|
|
|
en plein dans le débat non ?
|
|
|
Non non Peres ... je crois répondre au contraire exactement à sa question, surtout sur ce qu'il précisait comme l'intéressant particulièrement.
Mais c'est à lui de nous le confirmer ... t'as peut-être raison ...
Fox ? à toi ! ;o)
|
|
|
yvap c'est intéressant le passage que tu cites c'est Dennett ? Je rejoins tout à fait ce qu'il dit que la certitude cf. plus haut. D'ailleurs si un humain veut des garanties il va suivre un système formel et sera lui aussi confronté aux limitations de ce système. Quant à la phrase "Néanmoins, le cerveau possède, semble-t-il, une structure de règles d’opérations bien plus puissante que celle des machines conçues aujourd’hui" elle est bien nébuleuse. Elle laisse supposer que les humains auraient accès, par je ne sais quelle miracle, a des moyens de prouver des formules inaccessibles aux machines (d'aujourd'hui ouf), mais tout en échappant aux limitations des systèmes formels. Ca me parait, encore une fois, une belle confusion. N'oublions pas que le theoreme de Goedel en question porte sur un système formel donné, fixé. Dès qu'il est fixé on peut en prendre un autre pour (essayer) d'eviter la limitation. C'est ce que j'ai fait remarquer à Penrose un jour lors d'une de ses conferences sur son idée (absurde) d'un atome de conscience. Il a rétorqué que même le fait de changer de système formel est un système formel qui tombe dans les mêmes limitations ! Ceci reste à voir dans la mesure où ce méta-système n'est pas forcément fixé à l'avance : il peut très s'adapter pendant son exécution aux priorités rencontrées de même qu'un humain va éventuellement modifier sa démarche pour contourner une difficulté. Plus rassurant encore, il n'est même pas clair qu'on puisse même énoncer aujourd'hui les formules que l'on sera amener à résoudre demain. A partir du moment où les fondements même de la notion de système formel seront peut être remis en question (notamment l'exigence de garnatie absolue de validité) il parait plutot abusif de dire que tout processus d'evolution d'un systeme formel est lui même un système formel au sens actuel. Ainsi donc si le théorème de Goedel s'applique à ce méta système formel adaptatif (qui change de système formel face à une limitation) et bien en pratique même s'il existe une formule que ce système ne pourra pas prouver, quelle importance ? En tout cas le même argument limitatif s'applique aussi à une démarche humaine pour peu qu'elle exige elle aussi une garantie de validité absolue. Bref l'argument de Penrose soit ne tient pas soit s'applique exactement de la même façon aux humains.
|
|
|
autre remarque Est-ce vraiment si étonnant qu'un système donné ne puisse pas forcément répondre avec certitude à une question sur son propre fonctionnement ? Est-ce vraiment une limitation du système ? De là à conclure, que le cerveau humain ne pourra jamais comprendre le cerveau humain il y a un précipice dans lequel il ne faut pas tomber : rien ne nous oblige à chercher des réponses avec des garanties absolues. D'autre part peut-on même comprendre complètement quoi que ce soit (ce qu'est une pomme, un quark, un virus etc.) ?
|
|
|
La "supériorité" du cerveau est dûe paradoxalement à ses imperfections . Ca dépend ce qu'on entend par imperfection. Sa supériorité tient plutôt, à mon avis, au fait de prendre des risques à mon avis ce qui n'est pas forcément pareil.
|
|
|
car on peut très facilement ecire des programmes imparfaits, ce n'est pas du tout un souci mais ça ne les rend absolument pas supérieurs pour autant !
|
|
|
Kolvir Ben je trouve pas ça flagrant. Pour le peu que j'en ai compris, j'ai rangé ça sans doute un peu vite et immodestement dans la case "tape à l'oeil".
Tu peux développer stp ? En quoi ça aide à répondre oui ou non ?
Yvap : Ok j'y ai été un peu fort, je ne voulais surtout pas dire que ta remarquable intervention était superflue, c'est simplement que j'ai tjs peur que ce genre de sujets déborde, un peu de frilosité quoi :o)
Oroy "artefact" : Ok mais le but 1er du langage est de se faire comprendre, autrement dit il n'est constitué que de détournements et de blasphèmes (par ex les "zaricots verts" il y a encore peu de temps, entériné par l'académie) employés à cette fin. En l'occurrence ça marche pas mal avec ce mot il me semble. Mais si tu connais un autre mot meilleur pour dire la même chose, pourquoi pas...
dans ce domaine comme dans d'autres, on a sacrifié la qualité à la productivité pour des raisons bassement économiques : Pff franchement n'importe quoi mais ça n'est pas le sujet (c'est un peu pour ces 2 raisons que j'ai 'zappé' tes interventions plus haut).
|
|
|
re croisements
|
|
|
La "supériorité" du cerveau est dûe paradoxalement à ses imperfections . Oui tout à fait d'accord avec Kolvir, c'est une idée qui nous plaît bien avant tout. Disons que par ex ce qui peut apparaître sous un certain jour comme une faiblesse (par ex la redondance d'information) peut sous un autre jour apparaître comme une grande force.
Rigolo l'échange avec Penrose. Mais y a un truc que j'ai pas compris : Qu'est-ce qui impose à un ordi de fonctionner sous l'emprise d'un système formel ?
|
|
|
Ouaip ! c'est Dennett ... intéressant définitivement le bonhomme ! ;o)
La phrase que Fox cite, je la trouve moi aussi nébuleuse, mais bon ...
Pareil pour "les imperfection" chez Oroy ... mais bon ...
j'ai plus le temps là, je dois aller au théâtre ... à ce soir si je rentre pas trop tard.
|
|
|
si krivine a raison alors on fonctionnerait comme une machine me semble-t-il à moins que de temps en temps on utilise d'autres procédés. En tout cas essayer comme il le fait de montrer les ressemblances entre cerveau et lambda-calcul pourrait, s'il y arrive vraiment, peut être clarifier un peu certains points du débat.
Ceci dit je viens de parcourir ce texte de Krivine et je suis très déçu par sa conclusion que quand un mathématicien fait un preve il fait juste du desassemblage de ce qu'il a dans le cerveau. Son seul argument est qu'il ne sait pas à quoi sert le programme sous-jacent à la preuve (par la correspondance de Curry-howard). J'ai du rater un truc là.
|
|
|
Qu'est-ce qui impose à un ordi de fonctionner sous l'emprise d'un système formel ? En très grossier s'il y a instructions il y a lanagage et on peut le considerer comme un systeme formel. Bon, pour faire le lien avec un système formel logique il faut plus de boulot : voir le texte de Krivine plus haut qui cite la correspondance de Curry-Howard.
Mais de façon plus générale, independamment du théorème de Goedel lui même, tu sais bien qu'il n'existe pas par exemple de machine de Turing qui détermine si n'importe quelle machine s'arrête ou non ou si deux machines quelconques calculent le même langage. Donc même si l'argument de Penrose est rapide je ne conteste pas ce point que les programmes informatiques ont des limitations théoriques. Le souci c'est que Penrose laisse entendre que les humains n'ont pas les mêmes limitations ! Or il n'en sait rien et je dirais même qu'il n'y aucune raison de penser que les même limitations ne s'appliquent pas aux humains. De plus ces limitations sont très théoriques. En pratique même s'il n'y a pas d'algorithme général pour résoudre un problème parfaitement dans tous les cas rien n'empêche d'ecrire des algorithmes qui trouvent de bonnes solutions très souvent sinon presque toujours pour des questions de tous les jours.
|
|
|
@perestroïka Ton usage corrompu d'artefact corrompt également le sens de ta phrase. Sur le problème de la programmation, tu devrais lire ou relire la presse informatique de la fin des années soixante. Je maintiens qu'on a aujourd'hui des logiciels pourris tournant, heureusement, sur des machines de plus en plus performantes...
|
|
|
@Yvap Les imperfections dont je parle comportent : l'imprécision -donc l'incertitude- des identifications (qu'on tente par ailleurs de simuler dans les automates neuronaux utilisés pour la reconnaissance de forme afin d'en augmenter le rendement, quitte à se tromper), la lenteur (que l'on accepte car compatible avec la majorité des actions humaines), l'oubli (qui permet de récupérer de la place mais pas seulement, car cela permet aussi d'essayer d'autres organisation, les redondances (non tant parce qu'elles sécuriseraient certaines informations, mais parce qu'elles procurent plus de moyens d'accès et autorisent le penser poétique), la dégénérescence programmée (dont le rêve est une manifestation), etc.
|
|
|
j'ai pas tout lu (trop long) mais je peux quand même répondre à un ou deux trucs.
Donc oui, c'est Yvap qui était le plus dans le sujet selon moi, et qui a le mieux argumenté à propos des questions que je (me) posais. Je dirais qu'avant son intervention récapitulative, ça avait tendance à partir un peu n'importe où.
Je vais citer par exemple Peres : "En tout état de cause je ne vois pas ce que lambda calcul, gödel et positivisme font dans ce débat à part embrouiller et lancer des fausses pistes. Pour moi tt ça c'est HS."
Oui, merci, j'ai lancé un débat autour de Gödel, donc merci de dire que c'est HS ! Donc retour de manivelle : c'est toi qui te retrouves HS avec cette phrase ! (et ne me dis pas ensuite que je suis HS avec celle-ci...)
Bon j'aurai du mal à réagir sur tout ce que vous avez dit, simplement un ou deux choses :
La "machine putative" de Nico : pour moi elle ne peut pas exister, je ne saurais pas expliquer pourquoi, mais en gros j'ai l'impression que rien qu'accepter le fait qu'elle existe ferait qu'elle n'existe pas ; bref c'est une sorte de Gödel appliqué à la logique humaine (ne venez pas me dire que je dis des conneries, je le sais déjà). Plus précisément, je veux dire qu'elle existera peut-être, mais si c'est le cas on ne pourra jamais le savoir, donc je décide qu'elle n'existera pas (se pose le problème de la définition du vrai blablabla principe anthropique blablabla laissez tomber j'ai dit ! de toute façon je répondrai pas ! :-))
Merci au premier post de Kolvir qui fut à mes yeux le plus clair de tous ce fil et qui a plutôt bien répondu à mon questionnement initial.
Pour le reste, Türing, Church, consicnece, MDT, neurones, artefact, Roger Federer, George Harrison, Forrest Gump, 1.Cc3, génocide arménien etc....
|
|
|
Krivine Ca me rassure que tu sois déçu Kolvir, effectivement son idée est intéressante mais pleine de trous et de raccourcis gros comme ça.
Mais ça ne répond pas à ma question. Que chaque démonstration soit transcodable sous forme d'un programme n'implique pas l'inverse. Par ex comment un programme qui fait intervenir un élément extérieur pseudo aléatoire peut être considéré comme régi par un système formel ?
En tout cas essayer comme il le fait de montrer les ressemblances entre cerveau et lambda-calcul pourrait, s'il y arrive vraiment, peut être clarifier un peu certains points du débat. : Je vois tjs pas lesquels. En quoi ça apporte + d'info que dire que le cerveau est une MDT ?
Oroy : tu ne m'as tjs pas proposé de formulation alternative.
|
|
|
Fox Ok mes formulations pondues à la va vite ne sont pas hyper heureuses mais l'idée c'est que pour répondre à "verra-t-on un jou l’intelligence humaine remplacée par des robots" qui est à peu près la question que tu te poses, Gödel n'apporte rien.
Je vais même jusqu'à affirmer que ça parasite le débat + qu'autre chose (même si 'HS' est impropre je reconnais).
Et c'est en substance et en grossier la position de Kolvir et d'Yvap.
|
|
|
Kolvir, Re Krivine En tous cas ce que je viens de lire de lui ne m'étonne pas et ne fait que me conforter dans mon impression sur le lambda calcul, depuis le temps que je te dis que c'est fumeux, j'espère que tu es d'accord maintenant :o).
*
Penrose & limitations théoriques : Hormis qu'on sait tous ici que Penrose construit son raisonnement afin que celui-ci aboutisse à la conclusion qu'il a choisie depuis le départ, son discours sur ce point est creux je trouve :
- qu'un ordi ne puisse pas tt démontrer au sein du système formel dans lequel il se trouve : ok c'est du gödel , ordi ou pas peu importe, pas de scoop.
- par contre rien n'interdit qu'un ordi trouve des vérités sans les démontrer mais avec suffisamment d'arguments pour convaincre n'importe quel sceptique. (Et ceci itou pour l'homme du reste).
- changement de système formel : qt à la question de savoir si l'évolution répond elle-même à un système formel je crois qu'il y a habile (encore que...) mélange entre a priori et a posteriori. C'est d'ailleurs ce que tu dis en d'autres termes kolvir.
Toute proposition est certes collable après-coup dans un système formel, mais celà n'implique en rien qu' a priori cette proposition ne pourrait pas sortir de ce système formel.
C'est en gros la couleuvre que Penrose veut nous faire gober.
|
|
|
ref peres si le programme ne fait rien, n'est pas un algo donc, ca ne tient pas en effet, quoi que faut voir on peut peut etre toujours considerer que ca fait un truc (si ca ne boucle pas). Si le cerveau etait une MDT le debat serait clos puisqu'il ne serait alors par definition pas surperieur aux MDT.
|
|
|
mais ce n'est pas a mon avis ce que cherche a prouver krivine.
|
|
|
imprecision dans mon premier post quand j'ai dit "Bien sûr si on adopte un deuxieme systeme formel pour eviter certaines limitations du premier alors ce meme systeme aura lui aussi des propositions indecidables ? Et alors ?
Et bien on devra alors douter de la validite de ce deuxième système. " j'ai ete trop vite.
En effet le deuxime système formel qui repond a une quesition à laquelle ne répond pas le premier est lui même incomplet s'il est valide (non contradictoire). Le fait qu'on doute de sa non contrdiction tient au fait que s'il englobe le premier la preuve de sa non contradiction risque d'etre coton ! Le point c'est qu'on s'en fout ;-) Enfin pas complètement mais en pratique les humains preferent à raison prendre le risque de se planter quitte a corriger plutot que de se demander eternellement si leur méthode est parfaite.
|
|
|
ben non peres le lambda calcul n'a rien de fumeux ! Ce que dit Krivine sur le cerveau peut etre, faut voir, mais pas le lamda calcul.
|
|
|
faille dans ton raisonnement peres une machine meme tres maline ne pourra jamais convaincre tous les sceptiques : n'oublie pas un certain peres ! ;-) (et un certain kolvir, ok ok)
|
|
|
@perestroïka Comment pourrais-je te fournir une formulation alternative alors que, pour moi, ta phrase est incompréhensible ? Bien sûr, je peux essayer de décrypter et là, papier me suggère support ou média alors que ordi me suggère outil. S'il s'agit seulement de consigner, je choisirais sans hésiter support, et on est à des années-lumière d'artefact, même s'il arrive qu'un artefact (au sens de l'anglais) porte des inscriptions. Et surtout ne me dis pas que tu as utilisé l'acception anglaise vouée à l'archéologie, parce que tu as mis un accent qui n'existe même pas en français et on n'est pas des hommes préhistoriques, quoique...
|
|
|
oui peres c'est une couleuvre mais je ne suis pas sur qu'on ne puisse pas le suivre quand meme sur ce point : ce n'est pas le plus important je pense. Ce qui est important c'est que meme s'il a raison le fait cela l'oblige a considerer une notion tres large de systeme formel, aussi large que ce que fait un humain, et qu'en pratique cela n'a pas d'importance meme si en theorie ce systeme ne pourra pas répondre a toute question (on s'en fout ;-).
|
|
|
au fait fox le fait que tu aies parlé d'échecs dans le sujet du fil c'était juste pour que Reyes le laisse passer non ?
|
|
|
bien vu kolvir j'avais envie de discuter de ça et je ne savais pas trop comment m'y prendre, alors je me suis dit que j'allais glisser une référence aux échecs histoire de duper les modérateurs (quel renard ce fox !!).
|
|
|
alors là je proteste se placer a priori dans le camps des gagnants reconnus a posteriori : non, non et non. Je me place dans le camp des gens qui 1) affirment ce qu'ils savent prouver 2) émettent des réserves, en précisant lesquelles, sur ce qu'ils ne peuvent pas prouver. Tu as affirmé péremptoirement que La machine de Turing permet en théorie de reproduire parfaitement tout processus cognitif connu., sans la moindre réserve, il a fallu que je te demande plusieurs fois de donner une preuve - et que tu me dises que tu l'avais donnée, un comble ! - pour que tu dises enfin que tu n'en as pas. Affirmer sans preuve ni réserve, c'est de la malhonnêteté intellectuelle. Cela n'empêche absolument pas la recherche de progresser, on indique précisément ce que l'on suppose sans savoir le prouver (grand classique : P NP) et on continue, mais on n'affirme pas gratuitement quand on est sérieux.
|
|
|
il faut lire P différent de NP, bien sûr
|
|
|
Bah, moi, j'aime bien la thèse de Krivine Elle est assez révolutionnaire !
Et il démontre sans même la connaître la Théorie d'Oroy Sur Les Têtes Carrées :o)
|
|
|
Ok daik t'as raison. Nirna : Oui c'est réflexionnant et interpellant mais le moins qu'on puisse en dire c'est qu'elle est pleine de trous.
kolvir : tu n'as tjs pas donné de pistes pour ce que pourrait apporter le lambda calcul.
systeme formel, aussi large que ce que fait un humain [donc on s'en fout] : oui oui c'est une autre façon de recracher sa couleuvre mais ça revient au même. Au bout du compte on est ok qu'on s'en fout.
Si le cerveau etait une MDT le debat serait clos puisqu'il ne serait alors par definition pas surperieur aux MDT. : Ben oui, pkoi t'es pas d'accord ? (ok daik on n'a rien prouvé ok ok je suis malhonnête tout ça)
Oroy : pfiou quelle énergie, bon "Pkoi aurait-il droit au papier et pas à l'ordi ?" ça te va ? Si oui on entérine on tamponne on boucle et c'est fini ok ? Tope là :o)
|
|
|
@Perestroïka OK, mais tu ne recommences pas !
|
|
|
pffff c'est pas vrai, bientôt il va aller bouder dans sa chambre si ça continue... Bref. Tu penses que le cerveau est une machine de Turing, or il me semble, par exemple à la vue de ceci, que c'est une question ouverte. Où est l'erreur dans son papier ? Peux-tu citer des articles qui vont dans ton sens, pour qu'on puisse parler sur un peu plus que du vent ? Ta conviction doit bien reposer sur quelque chose, quand même ?
|
|
|
Promis je vais lire ton truc daik mais toi-même à part me dresser l'objection du corps (à laquelle j'ai répondu) et t'enliser dans des recherches de preuves prouvantes et démontrantes (ce à quoi j'ai également répondu) tu n'apportes pas grand chose.
Donc en substance et en court ma conviction se fonde sur :
- un neurone, une glande sont des MDT
- un paquet de MDT est une MDT
- l'intelligence humaine composée pour l'essentiel et pour le jeu d'échecs d'un paquet de neurones et d'un système hormonal (réduisible à des neurones mais bref) est une MDT.
|
|
|
Mais encore une fois attention à bien me comprendre, je ne cherche à évincer aucune complexité ce faisant, bien au contraire. Je pense simplement que le débat sur ce point précis est clos et que l'analyse à base de MDT (ou lambda calcul jusqu'à preuve du contraire) n'apporte rien au débat initié par Fox.
|
|
|
allons-y alors un neurone, une glande sont des MDT : le modèle que les aïstes prennent pour représenter un neurone est une machine de Turing. Mais les "neurones" tels qu'on les connaît en informatique ont été modélisés par des MT en partant du postulat qu'une telle chose est possible, c'est le paradigme du neurone formel de McCulloch et Pitts. Il reste à montrer (allez, je ne dis pas "prouver" pour le coup) que la version informatique "copie" correctement la version biologique. Si quelqu'un a fait ça je suis preneur, comme d'hab.
un paquet de MDT est une MDT : vraiment ? Avec un adversaire centralisé, oui, mais penses-tu que ce modèle s'applique au cerveau ?! Si j'ai bien suivi ce n'est pas ce que pensent les biologistes (voir le fonctionnement du néocortex humain, par exemple).
... et vu que le troisième point dépend des deux précédents, ça suffira pour le moment. Il reste quand même qu'on a vu passer dans ce fil d'autres versions de l'erreur classique de Churchland, si je ne m'abuse, donc ce n'était pas si inutile que ça, si ?
|
|
|
je ne vois pas bien ce que vient faire le fonctionnement du cortex (néo ou pas) pour répondre à "un paquet de MDT est une MDT" si tu penses qu'un neurone n'est pas une MDT... hmm ?
Paradigme neuronal : C'est marrant cette façon d'aborder les probs qd même, balancer lapidairement la charge de la preuve en face tt en citant au passage 2 ou 3 noms.
Alors je vais faire ton boulot à travers les objections que je crois déceler en philigrane à travers tes propos sybillins, tant pis pour toi si je me/te gourre :o) :
- le parallélisme ? 100% simulable par un seul process linéaire.
- les variations d'excitabilité (renforcement, temps de récupération, microtubules et tt le tralala tant qu'on y est) ? modélisables dans le principe.
Bref quelles objections auxquelles je n'aurais pas répondu ? (aargh il n'a pas son mail le traître, comment lui répondre qd ce fil sera clos ? traîtrise ! traîtrise !)
|
|
|
@Perestroïka Le philigrane ? J'aime assez moi aussi !
|
|
|
C'est quoi une MDT ?
|
|
|
@Oroy Une Machine de Turing (ne me demande pas ce que c'est....) :-)
|
|
|
pour les MT (@Oroy) Google te donnera sûrement de bons tutoriaux, mais si tu veux utiliser le résultat dans des raisonnements (du moins si tu veux qu'ils tiennent la route) attention, lis d'abord le lien que je donne plus haut, énormément de bêtises ont été dites là-dessus, par exemple par Churchland (voir le doc en question) sur... la question de savoir si un neurone est une MT !
Euh... Perestroïka, tu as avalé ton tilleul de travers ? Alors séquentiellement, ça donne :
- l'argument sur le deuxième point, c'était en supposant le premier admis, pour montrer que même là je n'achetais pas ton raisonnement.
- les noms que je cite ne servent pas du tout à me débarrasser du problème, pas plus que l'expression de paradigme du neurone formel, c'est simplement le nom que porte le fait de supposer qu'un neurone est modélisable par une MT. Au passage, je pensais que tu le saurais. Respire...
- pour ce qui est de simuler le parallélisme par un seul processus linéaire, le lien que je donne explicite l'impossibilité de simuler deux MT communicantes s'exécutant en parallèle par une MT linéaire. Quelle réfutation proposes-tu ?
Et puis, qu'est-ce que c'est que de se mettre dans des états pareils ? Sybillins, mes propos ? D'abord ça ne s'écrit pas sybillin mais sibyllin, comme Syrie et Libye, ensuite il me semble que je remets clairement en cause tes deux premiers points par des arguments plutôt faciles à comprendre, à savoir premièrement on ne peut pas décemment prouver qu'un neurone est simulable par une MT si on pose comme postulat que c'est vrai avant même de commencer (ce qu'on fait les susnommés parce qu'ils n'avaient pas compris Turing), deuxièmement voir le lien. Pour ce qui est de mon adresse, d'abord il reste de la place dans ce fil, ensuite je ne mets pas d'émail dans mon profil pour des raisons antispamiques évidentes, enfin comme je suis généreux je t'accorde l'autorisation de me le demander gentiment. Ceci dit, vu comment ça tourne, je crois que je vais faire l'impasse sur ce genre de posts désormais. Et puis, j'ai des automates communicants qui ne vont pas se construire tout seuls.
|
|
|
des automates communicants ????
|
|
|
comme... Un sèche-linge et un lave-linge ? ou...(plus original) un grille-pain et une cafetière ? ;-)
|
|
|
@chouia Pourquoi pas. Pour le moment ce sont plutôt ceux-là qui m'attendent. Remarque, l'un des exemples ultra-classiques de Milner est le distributeur de café et de thé (pour illustrer la différence entre équivalence des automates, qui s'obtient par différentes sortes de bisimulations, et équivalence des langages acceptés), donc tu n'es pas loin ;-)
|
|
|
qu'on dit les churland ? elle ou lui, ou les deux de débile daik ?
|
|
|
te prend pas la tete daik peres se mouille rarement : il prefere critiquer c'est plus facile ;-) tu travailles sur le pi calcul ? Il faut que je m'y mette justement, tu es où ? Tu peux me joindre à kolvir à tele2 point fr.
|
|
|
peres je prends le relais de daik ;-) Neurone ou cerveau = MdT ce n'est pas clair. Une MdT calcule une fonction. Est-ce qu'un cerveau se borne à calculer une fonction ? Faut voir. Sur le lambda calcul je répondais simplement que c'est très important en informatique théorique comme formalisme pour répondre à ta remarque sur le fait que c'est fumeux. Quant à savoir dans quelle mesure Krivine a raison ca demande du boulot pour bien creuser la question.
|
|
|
daik peux tu preciser ou redonner l'argument sur "l'impossibilité de simuler deux MT communicantes s'exécutant en parallèle par une MT linéaire" ?
|
|
|
Bien vu, Peres, J'aime bien ta reformulation, que je modifie un poil, de ma problematique "antifoxienne" (dans le sens ou Fox cherche un creneau ou nous serions toujours superieur a la machine, alors que je cherche un creneau ou la machine nous serait toujours superieure).
"La question est de savoir s'il existe un concept qui soit inaccessible à l'homme et non à une machine putative."
Soit dit en passant, je trouve que Claude a doublement tord :
D'une part en demandant de s'en tenir a la question initiale de Fox. Il sait pourtant tres bien qu'un fil a son propre parcours, souvent heratique (en plus celui-ci est d'une tres haute tenue), et, par exemple, je vois pas pourquoi la question "duale" que je propose devrait etre negligee...
D'autre part sur le theoreme de Godel, ou j'ai deja indique que sa forme la plus frappante est pas l'indecidabilite, mais le fait encore bien plus troublant que beaucoup de choses vraies sont indemontrables ! (ce qu'Alain Connes nomme a juste titre "la realite archaique").
Et on retombe ici sur ma question antifoxienne d'une machine putative qui puisse avoir acces a cette realite que nos propres connaissances nous ferme !!
|
|
|
@kolvir eh bien, Paul et Patricia ont dit qu'un neurone est une MT, pardi ! Parce qu'ils n'avaient pas (bien) compris Turing. La suite ici.
Pour l'argument sur les MT communicantes, il est au bout du lien.
Euh, je travaille sur le pi calcul, c'est beaucoup dire. J'essaie de résoudre les exos que nous donnent les profs, y'a des formules abominables à prouver, et c'est dur. Surtout quand il y a des erreurs dedans, d'ailleurs. Je ne sais pas si je pourrai te dire grand-chose d'utile, mais en tous cas je peux t'indiquer des gens qui, eux, y comprennent quelque chose (on a eu des cours avec un ancien élève de Milner, ça donne de l'espoir).
Pour le reste, il vaut mieux en effet passer par l'émail, c'est complètement hors sujet ici. Enfin, au point où c'en est...
|
|
|
Bien entendu, il est exact qu'une chose vraie mais indemontrable sous un systeme axiomatique donne, peut devenir demontrable en modifiant ce systeme.
Il n'en demeure pas moins que la totalite de la "realite archaique" n'est pas accessible a l'homme, et donc que ma question de la possibilite d'existence d'une machine qui puisse realiser cette tache a notre place est pertinente.
|
|
|
Ah ! Nicolas pris en flagrant ... 1. délire orthographique : son "tort" est tordu ! Et le pauvre hère a tiqué devant son "heratique" vraiment erratique ! ;oP
2. délit de lecture en diagonale !
J'ai pourtant bien pris la peine de mettre en gras dans ma phrase ce que je considère d'accord avec toi comme étant le plus frappant, donc je me recopie :
"Pourtant il est évident que tout individu assez futé, et particulièrement un mathématicien voit que certaines de ces propositions sont vraies bien qu’indécidables dans le strict contexte des axiomes du système." Na na nère ! ;o)
Cela dit, bien sûr que le fil doit suivre son propre parcours ... je suis d'ailleurs moi-même souvent à l'origine de détours plus ou moins contrôlables ! ;o)
Mais fallait bien tout de même s'occuper de ce pauvre Fox que je voyais dépérir à vue d'oeil ... Et pour une fois qu'il posait une question en dehors de la Française ... d'où mon titre ... ;o))
|
|
|
Bien joue ! Yvap 2 Nico 0.
Ma vengeance n'en sera que plus cruelle samedi ! Tu perds rien pour attendre !
Blague a part, ca roule pour toi au Mouffetard ?
|
|
|
faux Yvap ! je pose aussi des questions sur la Caro Kann !
|
|
|
On peut aussi imaginer une variante a ma question : Si jamais des extra-terrestres existent, dotes d'une technicite egale ou superieure a la notre, ont-ils obligatoirement un theoreme de Godel local ?
Dit autrement, est-ce que toute forme d'intelligence evoluee dans l'Univers est obligatoirement frappee de notre incapacite a saisir l'ensemble du reel ?
|
|
|
@nicolasdupont Intuitivement oui ! Penser le contraire ne serait-il pas une manière négative d'anthropomorphisme ? Je crois, bien que je sois un mécréant, qu'il n'y a que les têtes carrées pour penser que le réel doit forcément être apprécié aux lumières de l'axiomatique. Ce débat me semble renvoyer, d'une certaine manière, à la querelle des Universaux qui a duré de Platon à Abélard : nous voilà repartis pour plus de mille ans...
|
|
|
cf fox: Erreur, tu ne poses rien, tu affirmes :)
|
|
|
@nicolasdupont Ne serait-il pas plus sage de faire, comme Aristote, une sorte d'inventaire de ce qui est accessible à la raison en se gardant de vouloir tout faire entrer dedans, surtout et y compris ce qu'on ne comprend pas !
|
|
|
Oroy, j'ai deja indique plus haut que le risque de poser ce style de probleme est justement d'en faire une question purement philosophique, auquel cas on va effectivemment patauger dans le yahourt pendant encore des siecles et des siecles.
Mon intention est bien plus prosaique : pour l'exprimer autrement, je la paraphrase ainsi :
Est-ce que toute autre forme de vie dans l'Univers, evoluee technologiquement, procede obligatoirement des memes "canons" logico-deductifs que les notres ? Par exemple, est-il obligatoire qu'elle connaisse la theorie des nombres ? (au moins sous sa forme basique, ie 1+1=2).
Pour le coup, mon "positivisme" naturel m'incline a croire que le reponse est sans aucun doute oui.
|
|
|
Quitte a choquer, j'imagine que si demain une soucoupe volante se pose dans mon jardin, et que je demande a un des "visiteurs" la solution de la conjecture de Riemann, non seulement il comprendra de quoi je cause mais en plus il pourra me la donner...
Signe Nico : positiviste pur et dur.
|
|
|
je suis choqué que dis-je, outragé !
|
|
|
nico c'est quoi la totalite de la réalité archaique ? Je ne comprends pas trop. Et pourquoi nous est elle incaccessible si on peut changer de système pour (tenter de) démontrer n'importe quelle proposition indécidable dans un système donné ? Tes ET, s'ils sont obnubilés par la certitude et ne veulent pas prendre de risque (en fait ils sont obliges vus qu'on ne sait pas ZF est coherent par exemple) auront forcement les meme theoremes de limitation que nous ou des theoremes similaires car les conditions pour obtenir par exemple le premier theoreme d'incompletude de Gödel sont très faibles. Ca doit être en très très gros (je peux me tromper)que le système ait un nombre dénombrable de constantes et qu'il soit non contradictoire, en supossant évidemment que le langage soit dénombrable. A partir de là on doit pouvoir diagonaliser non ?
De toute façon pour prouver une formule que tu juges vrai tu en fais un axiome et voilà ;-) Ok rien ne dit que ton système sera cohérent mais bon comme déjà on ne sait même pas si ZF est cohérent. Tu verras bien à l'usage si ca déconne.
Bon ok je pousse un peu le bouchon : on ne va pas postuler tout et n'importe quoi. Je veux juste dire que si un axiome nous fais vraiment défaut on peut le postuler provisoire comme l'axiome du choix par exemple en attendant que quelqu'un prouve par exemple comme Cohen que cela ne change pas la cohérence du systeme formel initial (ZF en l'occurrence).
|
|
|