mercredi 18 janvier 2012

Hasard :PHILOSOPHIE

(c) LUXORION











La philosophie des sciences
Probabilité et falsifiabilité (IV)
Si la théorie des probabilités traduit notre impuissance devant le nombre de variables dont nous devrions tenir compte pour appréhender un phénomène, on peut toutefois se demander si dans un phénomène complexe il n'existe pas de relations évidentes de "causes à effet" ou des effets qui résultent d'un attracteur chaotique ?
En thermodynamique, nous savons que dans un domaine d'application limité, une série périodique présente toutes les caractéristiques d'un comportement déterministe et peut être représentée par une seule variable qui évolue dans le temps.
Une série qui obéit à un attracteur chaotique à l'inverse ne sera pas identifiable par une théorie déterministe. Le système est apériodique et révèle une dimension fractale.
Dans l'exemple du climat, nous savons que la variable "température" est déterminée par ses relations avec d'autres variables au cours du temps, pression, humidité, concentration de sgaz, etc. Sans connaître l'équation déterministe, nous pouvons malgré tout calculer une équation équivalente, à une seule variable, "x", mais qui sera d'un degré plus élevé. C'est la même méthode qui permet de calculer un polynôme d'interpolation. Les variables initiales de ce système peuvent à présent être déterminées à partir de leurs dérivées partielles par rapport à "x". Bien sûr si le phénomène est aléatoire - p excepté - sa dimension sera infinie. Mais s'il est possible de le représenter par une loi fractale, il en résultera non plus un phénomène à "n" dimensions, mais un système engendré par un attracteur "étrange" d'ordre 3 ou supérieur (fractionnaire, de dimension 3.1 par exemple). D'un nombre infini de variables indépendantes nous nous retrouvons avec un système à 4 dimensions ![19]
A défaut d'être absolument certaine, comment étayer une théorie avec la plus grande certitude possible ? Pour prouver la sévérité d'un test auquel on soumet une théorie, ou pour être sûr du "degré de corroboration" d'un test comme le dit Popper, le test doit pouvoir déterminer si la théorie est vrai ou bien fausse. Autrement dit, il ne s'agit pas d'évaluer la probabilité de l'énoncé par une logique inductive - qui contient des paradoxes - mais bien d'évaluer l'aptitude de l'énoncé à résister à l'épreuve de l'expérimentation.
Cette notion fait appel au contenu logique de l'énoncé, autrement appelé sa "probabilité logique", c'est-à-dire la falsifiabilité de son contenu.
Rudolf Carnap
On peut comparer deux hypothèses en fonction de leur contenu et déterminer laquelle des deux est susceptible d'être mieux soumise aux tests.
Si on admet que la première hypothèse est plus probable en vertu de sa forme logique que la seconde, on ne pourra jamais démontrer statistiquement que la deuxième hypothèse est susceptible d'être mieux soumise aux tests. "Ceci entraîne, dit Popper[20], que le degré de corroboration ne peut-être équivalent à une probabilité" comme l'ont cru Carnap et bien d'autres philosophes avant lui.
Mais attention. Inversement on peut dire qu'un énoncé est confirmé par un autre en terme de probabilité. Ce "degré de confirmation" n'est pas synonyme de probabilité logique ou statistique. L'énoncé Y n'étaye pas l'énoncé X car la mesure du contenu de X détermine son degré de falsifiabilité. Ce degré maximal de confirmation est égal à zéro pour le deuxième énoncé. Elle n'est donc jamais symétrique pour deux énoncés X et Y, à l'inverse de la mesure d'un pouvoir explicatif.  
Finalement la question est de savoir comment peut-on falsifier un énoncé de probabilité ? Prenons par exemple le jeu "Pile ou face". Le fait que la pièce tombe côté pile si vous aviez choisi face ne prouve pas sa falsifiabilité. En effet, seule une suite infinie de lancés pourra contredire cette évaluation. Mais nous savons tous que cela est impossible. Or la physique quantique ou la thermodynamique nous prouve tous les jours que les hypothèses probabilistes méritent leur succès. Ceci est paradoxal dans la mesure où la dimension de telles systèmes est infinie ! Avec un peu de recul, on découvre que tant qu'on prend un énoncé de base du système, on ne pourra jamais contredire la probabilité. Il nous faut donc trouver une formule binomale en dehors du système ! En première approximation, on est donc tenté de conclure qu'un énoncé probabiliste n'est pas falsifiable, ni vérifiable pour la même raison.
On peut toutefois trouver ce que Popper[21] appelle des conséquences "existentielles unilatéralement falsifiables" déductibles d'énoncés probabilistes. Ainsi, je peux dire "Pour tout lancé d'une pièce d'un euro, il y a un moment où la pièce tombera côté face…" ou de façon générale, "Pour tout X il y a Y tel que …". Cet énoncé ne peut être soumis à des tests puisqu'il peut être confirmé après un coup ou un nombre de coups indéterminés pour "toute" valeur. Il est donc infalsifiable et invérifiable puisque non réitérable. C'est en fait "il y a …" non délimité qui engendre cette conséquence existentielle, ou inversement qui ne vérifie aucune conséquence.
Le concept d'univers éprouvette selon l'auteur.
Cette situation implique qu'il sera toujours possible d'expliquer n'importe quelle régularité, y compris le chaos, comme une accumulation de coïncidences et d'en déduire des théories irrationnelles. Tout scientifique utilisant des énoncés probabilistes doit donc définir de nouveaux critères de démarcations afin de pouvoir les falsifier. Plusieurs méthodes sont envisageables :
- Arbitrairement en décrétant par exemple quels sont dans l'échantillonnage les valeurs autorisées et celles qui sont défendues car atypiques,
- En considérant la précision instrumentale, ce qui revient au même
- En interprétant les formules comme des règles de précision, c'est par exemple le cas des "relations d'incertitudes" de Heisenberg.
Dans tous les cas il faut que tous les effets soient reproductibles et puissent être soumis aux tests. Ainsi, à partir de ces règles, en établissant des relations logiques entre la théorie et les énoncés, on pourra essayer de falsifier la théorie. On pourra alors dire qu'une théorie est d'autant plus probable que sa falsifiabilité diminue.
Mais comment déterminer la fréquence d'une suite infinie pour en extraire une prédiction rigoureuse ? Il y a deux méthodes, l'une fixée a priori, la seconde a posteriori :
- soit on définit des hypothèses d'égales probabilité ou distribution. Cela fait appel à des principes de symétrie (toutes les faces d'un dé ou d'une pièce sont identiques par exemple).
- soit on extrapole (interpole) à partir d'énoncés statistiques qui présupposent que les tendances passées se poursuivront dans l'avenir (cf. les assurances).
Sur les traces du logicien Richard von Mises[22], on sait que le principe d'exclusion d'un système de jeu de hasard (l'axiome du hasard) requiert une suite infinie, qu'il est impossible de construire à moins de la formuler comme une suite mathématique quasi-aléatoire de fréquence non limitée. Cette expression doit obéir à "la loi des grands nombres", c'est le théorème de Bernoulli : plus les segments de suite aléatoire sont grands, plus ils convergent vers la moyenne (la fréquence moyenne caractéristique). Cela signifie en d'autres termes "qu'il est quasi certain que …". Ce genre de proposition souligne le caractère subjectif de cette méthode. Nous n'arriverons jamais à l'interpréter en termes de fréquences moyennes (statistiques). Selon Popper, il faut donc proposer des "hypothèses de fréquence" indépendantes vis-à-vis des coïncidences, de façon à exprimer l'irrégularité avec précision. Seul cet énoncé rend la loi des grands nombres toujours vraie.










Coucher de Soleil sur le lac Shrine au Michigan. Document MSU.
Méditez : le Soleil se lèvera-t-il demain ?
Grâce à ces explications, nous pouvons à présent répondre à l'anxiété de Tsiolkovsky. D'un côté, puisqu'il est toujours possible de réduire le monde à l'expérience, même une singularité peut être considérée comme une moyenne absolue, il est possible d'imaginer un système d'axiomes infini qui puisse représenter l'infinitude de l'Univers, de la Connaissance. Bien évidemment, le scientifique ne pourra qu'entrouvrir une fenêtre sur la réalité, son "algorithme fini" ne lui permettant pas de reproduire une suite infinie de données en un temps fini[23]. Il lui reste la possibilité d'étudier des théories toujours plus globales mais en veillant à conserver toutes les informations du système.
D'un autre côté, grâce à l'étude des chaînes de Markov, nous savons aujourd'hui que les systèmes dissipatifs obéissent à des contraintes probabilistes[24]. Ce savoir réellement objectif concerne toutes les créations de l'homme. Elles prouvent non seulement le caractère indéterminé de certains phénomènes mais également l'incomplétude de notre connaissance puisqu'elle reste ouverte sur le monde.
Expérience de pensée et méthodologie
Nous devons absolument discuter des expériences de pensées car elles permettent d'insister sur la validité des concepts ordinaires. Les expériences de pensées de Galilée sur la vitesse des corps ou celles des philosophes nés avant lui reflétaient sans aucun doute la pensée scientifique.
Les expériences de pensées sont très utiles car elles utilisent des arguments souvent simples et ingénieux pour critiquer des théories paradoxales. Les méthodes heuristiques en particulier, qui n'apportent pas de preuves formelles mais une voie possible, sont très souvent utilisées (dans la théorie de la relativité, en physique quantique, en thermodynamique, …) et très illustratives.
Certains ont dit que ce type de raisonnement n'avait que faire de l'état de la science de son temps. Or l'expérience de pensée considère a posteriori que les outils de mesure existent et que les résultats sont prouvés. Il ne viendrait jamais à l'esprit d'un chercheur d'inventer un Gafophone[25] pour démontrer l'inconséquence d'une théorie. Cela n'aurait aucun sens, puisque ni la méthode de travail ni l'outil scientifique n'existeraient pour analyser le phénomène en question.
Mais telle une prémisse, dans une expérience de pensée rien ne prouve que le phénomène est reproductible et mesurable. On ne peut dans ces conditions fonder une loi à partir d'une déduction. C'est peut-être dans ce sens que certains jugent l'expérience de pensée non-scientifique. Mais le but des expériences de pensées n'est pas d'inventer de nouvelles lois. Tous les chercheurs qui ont pratiqué ce genre d'exercice, qu'il s'agisse d'Aristote, de Galilée, de Bohr ou d'Einstein, tous sans exception étaient de grands génies. Que pouvaient leur apporter ce genre d'expériences ?










Les expériences de pensée : le chat de Schrödinger et le démon de Maxwell visent à démontrer les paradoxes des théories actuelles. Illustrations adaptées par l'auteur.
L'expérience de pensée se fonde nécessairement sur des données expérimentales et son extrapolation permet d'éclaircir les méthodes de travail des chercheurs. Le voyage d'Einstein à califourchon sur un rayon de lumière, le démon de Maxwell ou le paradoxe EPR visaient à mettre en évidence les situations paradoxales des concepts en cours. 
Contrairement à une idée souvent exprimée, les expériences de pensées ne cherchent pas à expliquer la nature mais plutôt à souligner les divergences des théories, les contradictions internes pour qu'un consensus puisse se dégager, de manière à normaliser les données empiriques. Car, tout le moins en sciences expérimentales, il n'existe aucune condition vraisemblable qui ne soit indiscutable. Tout chercheur est en mesure d'imaginer des conditions particulières d'expériences pour obtenir un profil sémantique différent de celui exprimé par les concepts qui ont cours. Le fait de démontrer l'inadéquation d'une théorie face à la réalité équivaut à donner une nouvelle explication des phénomènes, à en apprendre un peu plus sur l'univers et son concept.
On ne peut toutefois pas idéaliser une telle expérience à son avantage ou généraliser certains principes et les fonder sous forme de postulats. Son but est de mettre en avant les contradictions des énoncés et non pas d'asseoir la théorie rivale.
Archimède
L'expérience de pensée et toute expérience en général suit une méthodologie mais je ne veux pas parler ici du formalisme des mathématiques. L'imagination suit ce qu'Arthur Koestler[26] appelle un processus de "bissociation". C'est l'union de deux cadres de référence qui crée la solution. Prenons un exemple.
Archimède, traité comme l'égal de Moïse ou de César tant il participa à l'émancipation des hommes, s'était demandé quel était le poids en or de la couronne du roi. Problème a priori insoluble quand on lui dit qu'il ne pouvait pas la peser. Son cadre de référence habituel et ses instruments de mesures étaient donc inappropriés pour trouver cette solution. Il devait donc trouver cette valeur indirectement. Frustré, il délaissa le problème quelques temps et laissa son imagination travailler librement.
Un jour dit-on, alors qu'il prenait son bain, il découvrit que l'élévation de l'eau était proportionnelle au volume de la partie immergée de son corps. "Eurêka !" s'exclama-t-il ! L'union de deux cadres différents avait recentré le problème. La question du poids de la couronne restait présente à son esprit, mais n'était plus aux avant-postes. Il fallait un nouveau cadre de référence pour qu'il puisse voir les différents éléments du problème sous un autre jour. Lorsque son corps fut immergé dans l'eau, le niveau de la baignoire s'est élevé, ce qui  déclencha dans l'esprit ingénieux d'Archimède la reconnaissance d'un résultat. Esprit logique, il sut immédiatement à quelle expérience ce résultat était relié. Un contexte différent a permis de trouver une réponse similaire à celle qu'il aurait eu en utilisant une balance. La frustration d'Archimède l'a poussé volontairement à chercher ailleurs l'explication. Son effort mental au début erratique a fini par s'organiser pour refermer le cercle.
Ce processus de bissociation volontaire est le propre des génies et nous reconnaîtrons là la puissance cognitive des créateurs et des inventeurs qui peuvent à la demande s'écarter des chemins battus.
(c) LUXORION










La philosophie des sciences
L'invention mathématique (II)
Arrivé à ce point de nos réflexions, on peut se demander ce qu'est l'invention pour un mathématicien ? Qu'est ce qu'inventer ? Ainsi que le disait en deux mots le philosophe Armand Cuvillier, "toute invention est découverte, et toute découverte est invention". De l'avis général, il existe deux types de connaissances : 
- la discursive
- l'intuitive.
La première se rattache au raisonnement, à l'analyse et à la synthèse. Elle procède par démarches successives ainsi que nous l'avons expliqué à propos de la naissance d'une théorie. La seconde est une connaissance immédiate, mais elle peut occasionnellement faire appel à des données sensibles et comporter une bonne part d'interprétation, et donc de pensée discursive.
Mais qu'est-ce que cette notion d'immédiat ? Psychologiquement parlant, l'instant peut être le produit d'une élaboration, c'est "le moi qui dure" de Bergson. Cette construction n'est donc pas empreinte de simplicité. L'immédiat peut aussi être donné, c'est-à-dire opposé à ce qui est élaboré ou construit. C'est cette intuition intellectuelle qui prend la forme d'invention.
A consulter : CMathématique
L'intuition, ce processus caché d'anticipation est souvent en mesure de nous conduire à la solution, sans même que nous ayons à y réfléchir car il agit à l'insu de la conscience. C'est un pressentiment confus de connaissance claire.
Cette faculté d'anticiper est très féconde car il s'agit d'un mécanisme qui ne cherche pas, comme chacun le fait à l'état conscient, une solution parmi une multitude de choix possibles ; il ne traite pas l'ensemble des combinaisons qui demeurent en nombre infini. Au contraire, l'intuition construit des combinaisons mathématiques utiles et délaisse celles qui sont inutiles.
Henri Poincaré
Ainsi que le disait Henri Poincaré[13], "Les faits mathématiques dignes d'être étudiés, ce sont ceux qui, par analogie avec d'autres faits, sont susceptibles de nous conduire à la connaissance d'une loi mathématique de la même façon que les faits expérimentaux nous conduisent à la connaissance d'une loi physique. Ce sont ceux qui nous révèlent des parentés insoupçonnées entre d'autres faits, connus depuis longtemps, mais qu'on croyait à tord étrangers les uns aux autres.
Parmi les combinaisons que l'on choisira, les plus fécondes seront souvent celles qui sont formées d'éléments empruntés à des domaines très éloignés; et je ne veux pas dire qu'il suffise pour inventer de rapprocher des objets aussi disparates que possible; la plupart des combinaisons qu'on formerait ainsi seraient entièrement stériles; mais quelques-unes d'entre elles, bien rares, sont les plus fécondes de toutes". 
En fait il semble que l'invention se fonde sur des combinaisons d'entités mathématiques, négatives ou positives, qui sont inhibées au profit d'autres choix plus utiles, peut-être liés à des systèmes régulateurs ou des démarches automatiques. Poincaré poursuit : "Dans le champ de la conscience n'apparaîtront jamais que les combinaisons réellement utiles, et quelques-unes qu'il rejettera, mais qui participent un peu des caractères des combinaisons utiles. Tout se passe comme si l'inventeur était un examinateur du deuxième degré qui n'aurait plus à interroger que les candidats déclarés admissibles après une première épreuve".
Mais le processus d'invention n'est pas isolé du monde et du reste du corps. Ce mécanisme doit obéir à l'expression des émotions, aux souvenirs du passé, aux alertes automatiques déclenchées par les marqueurs automatiques (qui se déclenchent par apprentissage) et probablement à d'autres stimuli et mécanismes plus discrets. L'ensemble nous aide à saisir les rapports entre les choses, nous permettant d'élaborer des solutions pour l'avenir. C'est seulement alors que nous délibérons consciemment notre décision.
La coupure de von Neumann
A priori le monde est constitué d'attributs complexes et est très éloigné de l'unité d'une théorie universelle; la différence de complexité semble irréductible. Pourtant, l'un comme l'autre obéissent à des règles d'inférences. Quelques part des principes peuvent émerger, des mesures peuvent être effectuées. Mais la coupure sujet/objet "de von Neuman" reste floue car il s'agit d'une division fixée arbitrairement.
La coupure de von Neumann. Où s'arrête le sujet et où commence l'objet ?
Pour certains physiciens, tel feu David Bohm[14] l'Univers est un continuum où les perceptions de l'observateur ne sont qu'apparentes. Dans son esprit, l'Univers est intimement mêlé à nos sens, rendant extrêmement difficile sa modélisation, sa définition géométrique. La meilleure preuve serait la difficulté que nous avons à déterminer la nature de la lumière ou la nature profonde des lois qui gouvernent la physique quantique. 
Pour Friedmann ou Einstein à l'inverse, l'Univers est un objet d'étude, un espace-temps que l'on peut transformer, un concept dont il est possible de définir les limites et donc l'évolution. William Jeans était si fasciné par cette idée qu'il s'exclama un jour : "Le grand architecte semble être mathématicien", ce qu'Einstein n'aurait certainement pas renié.
Les informations fournies par nos sensations que nous traduisons en langage symbolique permettent ainsi de travailler sur des "modèles" de la réalité. Notre perception du monde sensible est transformée au travers des mesures.
A consulter : Les modèles d'Univers
On en vient alors tout naturellement à juger le concept scientifique : la mesure ne serait-elle pas synonyme de perception ? Peut-on différencier le sujet du phénomène ? Et revient la question inévitable, la méthode scientifique est-elle réellement objective ?
Si on considère la possibilité de nommer les objets, de les mesurer, le monde présente alors un certain ordre que Platon avait déjà mis en avant dans Timée et la République, la séparation du monde sensible des objets. Si le scientifique est à même de "réduire le monde" à des situations physiques particulières, des événements quantifiables, sa description peut-être formulée à l'aide de symboles, le langage binaire (vrai ou faux, 0 ou 1) ou les mathématiques. Dans un premier temps, l'esprit scientifique consolide son approche à travers un système de théorèmes (axiomes démontrés), en privilégiant ce qui est mesurable, l'espace, le temps, mais aussi le nom mesurable, les valeurs. 
Née de l'observation du monde sensible, pour Platon les mathématiques existent indépendamment de toute chose (philosophie rationaliste) mais il ne renie pas l'expérimentation. Plus nuancé, Aristote[15] considère qu'"il est impossible d'acquérir par les sensations une connaissance scientifique". Mais il refuse malgré tout de considérer les idées comme séparées du monde sensible (conceptualisme).
A l'opposé, Newton a toujours dit qu'il ne faisait pas d'hypothèses : "hypotheses non fingo". Les notions de force, d'inertie, de durée ou d'espace sont issues de l'expérience immédiate. Mais il n'a jamais réalisé qu'un nombre limité d'expériences alors que les lois générales qu'il déduisit avaient une portée infinie. Il n'est donc pas étonnant que dans l'introduction de ses Principia il sous-entende qu'il s'agit d'une construction de l'esprit, triomphe de la raison sur le mysticisme.
Henri Poincaré appuya ce principe. En mathématiques, il est impossible de séparer la raison de l'expérience : "s'il n'y avait pas de corps solides dans la nature disait-il, il n'y aurait pas de Géométrie". Les mathématiques apportent un plus original à l'expérience sensible en s'élevant dans l'abstraction. Ainsi les fractions, les nombres négatifs, les nombres imaginaires sont des notions très paradoxales.
Les mathématiques ont pour principe d'ajouter la preuve des démarches scientifiques, démontrant les propositions, quitte à user de postulats. Ceci permet de proposer des hypothèses qui se déduiront de façon logique sans référence à la réalité sensible ou à l'interprétation. Ce caractère abstrait de la logique d'Aristote conduira à la scolastique[16] du Moyen-Age et au Cercle de Vienne. Einstein lui-même témoigne du rapport qui existe entre l'expérience et la théorie : "Newton écrit-il, croyait que les concepts fondamentaux et les lois de son système pouvaient être dérivés de l'expérience. [Mais] toute tentative pour réduire logiquement les concepts et postulats fondamentaux à partir d'expériences élémentaires est vouée à l'échec. […] La base axiomatique de la physique théorique […] doit être librement inventée"[17].  









Synthèse de surfaces 3D. La modélisation mathématique permet de représenter des surfaces complexes. Les applications industrielles des recherches théoriques en modélisation géométrique permettent de représenter et d'optimiser des surfaces dans les industries aéronautiques et automobiles par exemple. Document CNRS.
Si la subjectivité et les mathématiques  sont indispensables aux yeux d'Einstein, cette définition du concept n'accepte alors que levrai et le faux. Le résultat est abstrait et nous savons qu'il fait appel à des principes indémontrables. S'il est acquis pour bon nombre de scientifiques que cette axiomatique est exempte d'ambiguïté, au point de rendre les livres de vulgarisation "symbolistes" plutôt que "signifiants", il faut rappeler que nos théorèmes offrent certaines limites. Les théories, souvent constituées de symboles mathématiques exercent une fonction symbolique par rapport au réel. Elles donnent aux chercheurs une représentation du réel, mais sans pour autant pouvoir s'identifier à lui. C'est la raison pour laquelle fleurissent des théories mystiques ou si peu rationnelles que les partisans de l'orthodoxie refusent de siéger à la même table que leurs collègues "psi". Nous en reparlerons à propos de la relation entre Science et religion.
Si la question du réel peut se poser dans un cadre multidisciplinaire, rapprochant les concepts rationnels, philosophiques, religieux et psi, la science moderne, fondamentalement mathématique à tendance à oublier son principal échec. En s'opposant aux principes philosophiques de Whitehead ou Russell, Kurt Gödel[18] a prouvé qu'il était impossible de démontrer la cohérence des axiomes, de prouver la non-contradiction des théorèmes. Cette véritable révolution intellectuelle mérite quelques développements.




(c) LUXORION









Mais Poincaré avait rapidement compris que ce n’était pas une faiblesse personnelle qui l’empêchait ainsi de pénétrer le fonctionnement de la nature mais une propriété fondamentale de ce fonctionnement et de sa relation avec l’entendement humain. N’oublions pas que Poincaré, même s’il était un grand scientifique, a plutôt souligné le caractère humain et sensible de l’activité intellectuelle de la science. Je le cite commentant l’activité de la découverte scientifique et expliquant qu’entre deux périodes de travail conscient, il se réalise un travail inconscient. « Le moi inconscient ou, comme on dit, le moi subliminal, joue un rôle capital dans l’invention mathématique […] le moi subliminal n’est nullement inférieur au moi conscient ; il n’est pas purement automatique, il est capable de discernement, il a du tact, de la délicatesse ; il sait choisir, il sait deviner…les phénomènes inconscients privilégiés, ceux qui sont susceptibles de devenir conscients, ce sont ceux qui, directement ou indirectement, affectent le plus profondément notre sensibilité. On peut s’étonner de voir invoquer la sensibilité à propos de démonstrations mathématiques qui, semble-t-il, ne peuvent intéresser que l’intelligence. Ce serait oublier le sentiment de la beauté mathématique, de l’harmonie des nombres et des formes, de l’élégance géométrique. C’est un vrai sentiment esthétique que tous les vrais mathématiciens connaissent. » C’est un passage du chapitre « L’invention mathématique », dans l’ouvrage « Science et méthode » dePoincaré.
E

Accueil du site > 02 - Livre Deux : SCIENCES > Hasard et nécessité > Liberté et nécessité

Le hasard existe-t-il ?
Scientifiquement, le destin existe.


Un simple pile ou face n'est absolument pas aléatoire. Le résultat dépend de beaucoup de facteurs, comme l'équilibre de la pièce (dû lui-même à sa densité, ses déformations, son relief jouant un rôle face aux frottements de l'air), la force du jeté, ou les facteurs extérieurs comme les mouvements de l'air. Ces facteurs sont si complexes qu'il est presque impossible de les appréhender, mais si on les connaît, le résultat du lancé serait en théorie tout à fait prévisible.

De la même manière, tout phénomène "aléatoire" pour l'esprit humain obéit en fait à une équation mathématique. 
Tous les événements, tous les actes dit "imprévisibles" sont en fait la conséquence d'une accumulation d'une multitude de facteurs. 
Un séisme est la conséquence d'une vibration du manteau terrestre, elle-même due à des phénomènes d'ampleur variable. 
La chute d'une météorite est la conséquence de la désintégration d'un corps céleste et dont les débris ont été mis sur une orbite croisant celle de la Terre à un instant t.

Tout obéit à des relations de cause-conséquence de niveau universel, macroscopique, microscopique et atomique. Toute action entraîne une réaction. Une réaction est donc la conséquence d'une action. 
Dans ce cas, toute chose est prévisible, et donc prédéterminée. Par conséquent, le "destin" existe.

Même nous, nous obéissons à cette loi. Dans votre vie, vous pouvez avoir l'impression de faire des choix, mais ceux-ci sont en fait dirigés. 
Vos goûts sont simplement dus à des agencements particuliers d'atomes dans votre cerveau.
L'apparition d'une idée dans un esprit, phénomène qui peut sembler être dû au hasard, est en fait la conséquence de plusieurs facteurs comme les souvenirs ou l'association d'images, de sensations. Et tout ceci est généré par un courant électrique dans le cerveau, et donc à un simple déplacement d'électrons.
Vos choix futurs sont dirigés par des déplacements actuels d'une infinité d'atomes.

Toute chose pourrait donc être prévue par une intelligence assez puissante pour intégrer la totalité des facteurs, car tout n'est que cause et conséquence.
Votre présence ici, en train de lire cet article, n'est aucunement due au hasard. C'est la somme d'une infinité de facteurs logiques et donc prévisibles. 

Mais allons plus loin.

Imaginons un ordinateur doté d'une puissance de calcul et d'une mémoire titanesques. Dans la programmation de cet ordinateur, on aurait entré la configuration initiale de l'univers lors du big-bang. La position, la vitesse et l'agencement des tout premiers atomes.
L'ordinateur, en calculant simplement les causes-conséquences à partir de cette situation initiale, devrait normalement pouvoir reconstituer toute l'histoire de l'univers, jusqu'à l'apparition de l'homme et la création de ce super-ordinateur.

Mieux encore. Arrivé au présent, l'ordinateur pourrait continuer à calculer, et ainsi prévoir véritablement le futur. Pas le simple avenir se limitant à l'humanité où à la planète, mais le futur TOTAL. En fait, notre ordinateur serait tout simplement omniscient. Cette idée est d'ailleurs évoquée dans le manga de science fiction Gunnm Last Order de Yukito Kishiro.

Bien entendu, l'existence de ce super-ordinateur génèrerait différent paradoxes, car à chaque information qu'il nous fournirait, le futur changerait. Mais nous pourrions enfin être les maîtres de notre destin, libérés de la loi de cause-conséquence universelle. Nous pourrions créer notre destin, et non plus le subir.

 
 
~RoN~
Publié le : 10/04/2007
 
En cas de conflit avec cet article (problème de droits d'auteur, etc.) vous pouvez en demander la suppression auprès d'un administrateur du site.
  
Bonjour RoN. Bravo pour ton article trés intéressant, bien joué   . 
Je pense moi aussi que le hasard n'existe pas. D'ailleurs au coeur mème des molécules (donc de la matière) il pourrait y avoir de l'information pure. 
C'est difficile à appréhender comme concept, mais peut-être que toute notre vie est dans l'information contenue en nous. Mais avant le mur de planck, il pourrait y avoir de l'information pure et où tout le film de l'univers serait présent. On parle aussi d'instanton. 
Un esraonaute ne pourrait-il pas nous éclairer dessus? Sinon le manga que tu cites a l'air intéressant, je vais essayer de me le procurer. En fait ce serait une sorte d'infraworld comme chez BW dans la révolution des fourmis. 
Mais poses-toi la question: et si on était déjà dans un ordinateur du type que tu cites, mais d'une dimension supérieure? 

Peut-être que notre cher Bernard nous réserve une fin de ce genre dans le Mystère des dieux, et où le numéro 9 serait un ordinateur. 
D'ailleurs comme dit dans un de mes articles, le mot ordinateur signifiait à l'origine "dieu", mais peut-être est-ce déjà prévu de faire un tel ordinateur?
Bon continue de faire des articles si intéressants. Je voulais faire un article un peu comme le tien, mais je suis content que ce soit toi qui l'ai fait, car je n'aurais pas pu faire mieux. 


Merci pour vos intéressantes précisions, chers admins. Je ne suis pas du tout fort en science ni en physique, bien que ça m'intéresse beaucoup. Je ne connaissais pas cette loi qui dit que le mouvement d'un électron est imprévisible. Merci de m'avoir fait découvrir quelque chose! 


~eragon~ le 10-04-2007 à 00:00
 
Ouah quel débat...
Ca m'a permit de réviser un peu Asimov.
Juste il me semble qu'un ordinateur pouvant calculer la totalité des données de chaque atome (voir particules) devrait être constitué de la totalité de la matière existante. 

Peut-être que cet ordinateur existe: l'univers lui-même....


~scrounch~ le 17-04-2007 à 00:00
 
"Le hasard existe, on peut le calculer" ??? Ceci est tout à fait paradoxal. Si on peut calculer le hasard, on peut donc le prévoir, et c'est par conséquent la preuve même qu'il n'existe pas.

Je me souviens du principe d'incertitude de Heinsenberg, que j'ai étudié en première année de fac... C'est vrai que de fait, il serait impossible de créer un ordinateur capable de calculer les trajectoires de chaque atome, de chaque électron. Mais l'idée d'un ordinateur-dieu omniscient est tout de même très séduisante.

Quoi qu'il en soit, le fait que la position d'un électron ne puisse être calculée ne change rien au fait que sa trajectoire est tout de même "déterminée". L'aléatoire ne se produit jamais. Un atome n'a jamais le "choix" entre aller à gauche ou à droite. Ses mouvements, sa trajectoire, dépendent d'une association de facteurs, eux-mêmes déterminés par d'autre facteurs. 

Le temps-réalité n'est pas un arbre, dans lequel le hasard déciderait de la direction à prendre à chaque noeud. 
Le temps-réalité est un fil, allant dans une seule direction et dont il est impossible de s'extraire. 

Bon, cela est vrai de façon absolue.
De façon relative, je suis tout à fait d'accord pour dire que le hasard existe. 
Certaines choses dépendent de tant de facteurs qu'elles sont totalement imprévisibles par l'humain. Ce qui cependant n'empêche pas, comme je l'ai dit précédemment, qu'elles soient "déterminées".

Prenons par exemple un mobile à mouvement perpétuel et "aléatoire". Il nous est impossible de prévoir quels mouvements le mobile va effectuer, car de trop nombreux facteurs entrent en jeu. Mais chacun de ces mouvements dépend pourtant d'une association de causes multiples, et sont donc déterminés. 

Même un programme informatique censé donner une valeur aléatoire (le célèbre ran#) obéit à la loi de cause-conséquence. La valeur, souvent comprise entre 0 et 1, dépendra de complexes mouvements atomiques au sein même du circuit imprimé, de telle sorte que les systèmes les plus performants ne pourront pas le prévoir. Cela n'empêche pas que le programme donnera un résultat précis et pas un autre.

En résumé, on pourrait donc dire que pour l'être humain, le hasard existe, c'est indubitable, mais d'un point de vue absolu, le destin existe. 
Aussi, si par exemple vous faites une erreur dans votre vie, ne vous dites plus "ah, si j'avais fait autrement, ça se serait passé différemment". Vous n'aviez en fait pas vraiment le choix. 
Les choses ne peuvent se passer que d'une seule manière.


~RoN~ le 29-04-2007 à 00:00
 
Très bon article, bien rédigé et tout à fait logique, il n'y a, en fait, pas plus logique que cela je pense. ;)
Je ne comprend pas les personnes qui ne sont pas d'accord et qui ne comprennent pas... Il faut imaginer que l'on puisse connaître toute les données de l'univers, (bien sûr on ne les connait pas), mais pour comprendre une théorie comme celle-ci, il faut un minimum d'imagination et pouvoir 'absolutiser' tout. 


~Beren~ le 02-08-2007 à 00:00
 
Je ne suis pas trop d'accord avec cette inexistence du hasard (même en connaissant toutes les données de l'univers). Ce n'est pas une conviction personnelle, mais c'est ce que dit - si j'ai bien compris - la mécanique quantique. 
Alors certes, je ne dis pas qu'il faut y croire les yeux fermés, mais il semble que depuis un petit siècle, les concepts révolutionnaires qu'elle amène aient passé avec succès le test de l'expérience, maintes fois.

Un exemple frappant de non déterminisme est celui des trous de Young : prenez un électron, envoyez-le vers une plaque percée de deux trous, et mettez un écran photoélectrique derrière la plaque, qui permet de dire où est arrivé l'électron après son passage par la plaque. 
Il est théoriquement IMPOSSIBLE de déterminer l'endroit d'impact de l'électron sur l'écran, il est juste possible de donner une probabilité du choc de l'électron en tel ou tel endroit.

Pour expliquer cela, certains physiciens ont émis l'idée de "variables cachées". Cela signifie que nous n'aurions pas accès à toutes les données du problème, certaines seraient cachées et si nous les connaissions, la physique redeviendrait déterministe. 
Les expériences d'Alain Aspect (voir paradoxe EPR...) ont montré que cette théorie ne tenait pas, que la physique semble bien se jouer du déterminisme.

Ainsi le hasard ne viendrait pas juste d'un manque de connaissance de toutes les données du système étudié, il serait intrinsèque au sein même de la matière. 

Alors que penser ?


~somonovitz~ le 03-08-2007 à 00:00
 
Ce que tu dis est illogique: s'il y a des variables "cachées", alors justement, ces variables nous permettent d'établir un calcul, d'obéir à une loi... Ce n'est pas par ce qu'on ne connaît pas ces lois et ces variables cachées que l'on doit dire que c'est du hasard...

Selon ce que tu dis, si l'on connaît toutes les lois de l'univers, toutes les variables, que l'on puisse calculer tout jusqu'à la plus petite mesure qu'il puisse exister dans l'univers, on ne pourrait calculer qu'une zone de la plaque où l'électron va arriver parce qu'il y a quelque chose qui fait qu'il peu légèrement dévier ? Et comme c'était calculé avec toutes les lois de l'univers, c'est bien entendu impossible que cela soit une force. Alors dis-moi ce que c'est...


~Beren~ le 03-08-2007 à 00:00
 
Ce que je n'aime pas trop dans cet article, (bien que j'aime bien l'article ^^) c'est que l'auteur parle du hasard et du destin, qui sont deux choses complètement différentes.

Le hasard au fond, on appelle ça comme ça, pour définir le résultat d'un ensemble action-réaction qu'on ne peut pas prévoir (pour le moment du moins). On n'est pas omniscient, et on ne peut pas tout connaître.

Donc d'un côté, on pourrait connaître ce 'résultat' si on avait une super machine qui pourrait tout savoir et tout calculer. Il suffirait juste de connaître toutes les actions, et tout savoir sur elles, pour prévoir leur réaction. Dans ce cas le hasard n'existerait plus; mais c'est possible.

Alors que le destin, je trouve que c'est une chose bien différente. Car ce qu'on appelle le 'destin' n'est rien d'autre qu'un futur déjà inscrit.
Or, excusez-moi, mais je trouve cela totalement stupide. Car si le destin existait, cela voudrait dire qu'il est déjà 'inscrit'; donc il n'y en aurait qu'un seul, et on ne pourrait pas modifier.

Et si on ne peut pas le modifier, alors que ce n'est pas encore passé, ça veut dire qu'on n'est pas libre de le changer, donc on n'est pas maître de nos choix et de nos actions. C'est stupide je trouve... Car on peut très bien choisir quelque chose, ou bien l'inverse, c'est bien nous qui décidons. 

Et dans ce cas, comme on peut tout changer, ça veut dire qu'on réinscrit le futur en permanence, que celui-ci change et se 'recalcule' à chaque seconde... 
Dans ce cas, le destin n'existe pas.

Enfin bon, ce n'est que mon point de vue... 


~Thanatos~ le 03-08-2007 à 00:00
 
Réponse à Bern : 

Non justement, il n'y a pas, d'après les expériences d'Aspect sur le paradoxe EPR, de variables cachées.

Je ne comprends pas bien ton deuxième paragraphe mais en tout cas, il n'est pas non plus question de dévier l'électron ou quoi que ce soit, car la notion de trajectoire n'existe plus en mécanique quantique (principe d'incertitude d'Heiseinberg).

Je vais essayer de reformuler autrement pour être plus clair. Contrairement à la mécanique newtonienne "traditionnelle", la mécanique quantique est incapable de te dire, à partir de conditions initiales bien définies, "telle particule, au bout d'un temps donné, sera à l'endroit X et à la vitesse Y" : c'est le principe d'incertitude. 
Autrement dit, la quantique ne te donne que des probabilités : par exemple, il y a une chance sur 5 que la particule se trouve à tel endroit, 2 chance sur 5 dans tel autre, etc...

Alors après, on peut se dire :

  • cette théorie (la mécanique quantique) est en fait juste descriptive et est incomplète. Il y a des variables cachés qu'on ne connaît pas encore et qui, quand on les découvrira, permettront de créer une nouvelle théorie déterministe.

Ou bien :

  • les probabilités sont "intrinsèques", la notion de probabilité (donc le hasard ?) est inscrite dans la Nature.

La première solution est plus rassurante, le non-déterminisme, on n'aime pas trop ça. Le problème c'est que, à priori, d'après les expériences d'Aspect, elle est impossible. 
Ce serait donc la deuxième solution qui prévaudrait. On peut donc penser que le hasard existe.


~somonovitz~ le 03-08-2007 à 00:00
 
En quelque sorte, le futur est bel et bien déjà inscrit. Le futur tel qu'on le conçoit dépend des événements qui se déroulent actuellement, ainsi que de ceux qui se sont déjà passés. Et plus particulièrement de la configuration initiale de l'univers. Ainsi, il est déterminé, même s'il n'est pas prévisible, comme je l'ai déjà dit précédemment.

Thanatos, tu parles de choix, mais je crois malheureusement que tu as tort. Nous ne possédons en fait que l'illusion de la liberté, car toutes nos réflexions, nos réactions et nos actes sont eux aussi dirigés par le passé.
Tu peux très bien prendre une décision logique, et, pour y faire entrer un peu de "hasard" après avoir lu cet article, décider de finalement prendre la décision inverse. Imprévisible ? Aucunement.
Le fait même de faire le choix inverse à ton choix initial aurait en effet été dirigé (entre autres) par cet article. 
Le déroulement du temps n'est ni plus ni moins qu'une suite de dominos qui se font tomber les uns les autres.

Il est possible de "faire des choix". Mais ces choix, qu'on le veuille ou non, sont complètement dépendants des événements passés. Un esprit purement logique et mathématique pourrait donc parfaitement les calculer et donc les prévoir.

Chers amis, ce que vous appelez liberté de choisir n'est malheureusement qu'une illusion relative à notre incapacité à intégrer des milliards de données. D'un point de vue absolu, vos choix sont tout à fait déterminés. 
Aussi, ne vous prenez pas la tête avant de prendre une décision importante. D'une certaine manière, le choix est de toute façon déjà fait.


~RoN~ le 06-08-2007 à 00:00
 
Ron, tu affirmes de nombreuses choses dans ton commentaire. Mais es-tu en mesure de les prouver ? La théorie que tu avances fait à la fois peur, mais est séduisante par sa simplicité et sa cohérence apparente. 
Cependant, l'as-tu confrontée aux théories du monde actuel, basées sur l'expérience, et non sur la simple spéculation de notre pensée?

Toutes ces questions, les (bons) physiciens se les posent. Et avec la découverte des nouvelles théories (relativité, quantique, cordes ?), cela fait plus d'un siècle qu'ils se posent des questions et ont l'air de dire que, à priori, l'univers n'est pas entièrement déterministe.

Donc je te demande, Ron, hormis ton intuition (qui se comprend, j'ai longtemps cru à ce que tu dis), as-tu des preuves de ce que tu avances ? 

PS : s'il fallait retenir une chose : les lois de la physique ne sont pas dans l'état actuel des choses entièrement déterministes. Donc, j'ai l'impression que toutes les argumentations allant dans le sens du déterminisme total ne tiennent pas.


~somonovitz~ le 06-08-2007 à 00:00
 
Oui, on fait des choix, en tenant compte du passé souvent...

Seulement, prenons un cas extrême : 
Tu ne réfléchis pas trop, et tu as soudain envie de tuer une personne à côté de toi. Tu as un couteau dans la poche, et en quelques secondes, tu peux le tuer.
Tu as le choix de le tuer ou pas, ça ne tient qu'à toi.

Si tu le fais, dans ce cas, la vie de l'autre s'arrêtera, et énormément de choses, qui se seraient produites s'il était resté vivant, ne se produiront pas. Ce qui peut changer des milliers de choses.
Pareil de ton côté, tu seras poursuivi, arrêté, condamné et tout et tout.

En faisant ce petit choix, qui ne tient qu'à toi, tu peux changer énormément de choses.

Cette action n'a pas besoin du passé pour être accomplie. Et si on ne prend pas ce choix, qui le fait alors?

Car que l'on tue ou pas la personne, on ne peut pas dire que cela revienne au même; beaucoup d'autres actions, qui auraient pu se dérouler, n'arriveront pas.

Le patron de la personne assassinée embauchera une autre personne pour la remplacer. Mais aurait-il embauché cette personne si l'autre n'avait pas été assassinée? Bien sûr que non, car c'est justement pour la remplacer.

Je sais que c'est un exemple assez 'extrême' mais il n'empêche que le reste se passe de la même manière...


~Thanatos~ le 06-08-2007 à 00:00
 
Peut-on prouver que l'aléatoire n'existe pas ? Non, comme il est impossible de prouver que les fantômes n'existent pas. 
Du moins, pour le moment. 

Si on réussissait à vaincre le problème que pose l'incertitude de Planck, on prouverait alors que la trajectoire des électrons est prévisible. Mais en l'état actuel, la science en est incapable. 

Il serait en revanche peut-être possible de prouver le contraire, en me sortant par exemple un phénomène indubitablement aléatoire, c'est-à-dire qui ne dépend d'aucune autre chose (la succession des chiffres de Pi, peut-être ?).

Il est important de faire la différence entre "ce qu'on ne peut pas prévoir" et "ce qui tient du hasard". Dans l'univers, une infinité de phénomènes ne peuvent pas être prévus par l'esprit humain. Mais ils ne sont absolument pas hasardeux, puisque dépendants d'autres facteurs.

Pour ton exemple Thanatos, je suis d'accord pour dire que le choix de tuer une personne ou non aurait des conséquences très différentes. Du moins c'est ce qu'on peut imaginer. IMAGINER. 
Car la réalité ne s'établira jamais selon les différentes conséquences possibles, mais UNIQUEMENT selon la décision que tu prendras. Ou que tu crois prendre. 

Car même si tu as l'impression d'être face à un choix, ta décision est, d'un point de vue absolu, déjà prise. Nous-mêmes, qui croyons posséder un libre arbitre, sommes en fait les esclaves des réactions chimico-électriques de notre cerveau, elles-mêmes dépendantes d'éléments extérieurs. 

Le fait de décider ou non de tuer ton voisin ne se fera pas aléatoirement. Ton passé, ta manière de penser, les émotions que tu éprouves sur le moment sont les seules responsables de ta décision. 

Non, pour moi, le temps-réalité est bel et bien une ligne, et non un arbre.


~RoN~ le 07-08-2007 à 00:00
 
Salut. J'ai vu le résultat d'une expérience hallucinante!

Prenons deux miroirs semi-réfléchissants différents (50% de chance d'être traversés par la lumière, 50% de chance que la lumière y soit réfléchie);
prenons maintenant une source lumineuse, et faisons partir deux photons en direction de ces miroirs.

Surprise! Soit les deux réfléchissent, soit les deux passent! Le hasard n'existe plus! Est-ce le destin?

Si c'est le cas, alors il était prévu que je lise cet article et que j'y poste un commentaire!  
Mais alors, vous aussi...  

Sinon, je ne pense pas que l'idée de destin soit incompatible avec le hasard, car le hasard, même s'il est prédestiné, peut tout autant nous paraître hasardeux!

Et le hasard est bien présent, car les fractales -figures géométriques nées des probabilités- sont présentes partout dans la nature... A méditer.


~Waralex~ le 18-09-2007 à 00:00
 
L'article est pas mal même si je suis d'accord avec telimektar. De plus, si on rajoute la théorie du chaos ("un petit effet peut engendrer de grosses conséquences"), cela voudrait dire que TOUT devrait être connu par cet ordinateur, et cela est impossible :

  • théorie de la physique quantique;

  • il faudrait que les mesures des données que l'on entre dans l'ordinateur soient infiniment précises (impossible) et il serait impossible de rentrer la moindre donnée dans l'ordinateur si celles-ci sont de longueur infinie.
De par la théorie du chaos, la moindre troncature dans une donnée (vitesse d'un corps céleste, température à tel ou tel endroit...) entraînerait d'énormes erreurs de prédiction, multipliées par plusieurs milliards d'années...

Si ce sujet vous a intéressé, venez lire l'article dans technologie -> existence de l'univers.

~matthieux~ le 11-04-2007 à 00:00
 
Pour en revenir au hasard, il existe bien, vu qu'on sait le calculer avec des probabilités. (Exemple du chat enfermé dans la boîte avec du cyanure.)
Sinon le super ordinateur pourrait être bien, seulement il obéit lui aussi aux lois de la physique (on ne peut rien en apprendre).
Le seul moyen de calculer l'avenir serait de connaître toutes les lois de l'univers et la quantité de matière.

Là on pourrait en déduire le futur, et encore, un ordinateur même performant pourrait le déduire sur 1/10ème seconde et encore, imaginez le nombre de calculs par rapport au fait qu'il travaille sous ces mêmes lois...
Pour l'heure, seul Dieu (s'il existe) peut prétendre dominer l'avenir. (Mais le nôtre, peut-être pas le sien...)

~fredew~ le 12-04-2007 à 00:00
 
En fait, cet ordinateur, c'est un peu le même principe que la psychohistoire dansFondation. La psychohistoire sert en à prévoir le futur grâce à des calculs mathématiques. Je ne m'en souviens plus trop, je relirai un peu le tome 1 de Fondation aujourd'hui, mais ça me semble un peu le même principe d'après ce que je m'en rappelle. 

TCM, tu ne pourrais pas nous rappeler grâce à quoi est faite la psychohistoire ? D'après mes souvenirs, c'est grâce au déplacement des atomes.

~eragon~ le 13-04-2007 à 00:00
 
La psychohistoire de Fondation est une science qui s'appuie sur la psychologie de groupe. Elle prévoit des mouvements de foule qui auront des poids plus ou moins importants. 
Mais elle ne saurait prévoir les actions d'un seul individu isolé. Je rappelle pour les initiés que le plan Seldon n'avait pas prévu le Mulet...

Tout comme il nous est impossible de prévoir le comportement d'un électron. Donc je suis d'accord avec Telimektar. Il faut préciser que de nos jours, on considère que l'univers n'est pas déterministe... Du moins à notre échelle. Nous ne sommes pas Dieu, lui seul est en mesure de connaître tous les éléments qui déterminent l'univers.

Ensuite pour ce qui est du chat dan la boîte, il s'agit du chat de Schrödinger, c'est une expérience de physique quantique. Et pour modéliser le chat dans la boîte à l'instant T, on dit que le chat est à moitié vivant et à moitié mort. On ne dit pas qu'il est vivant ou qu'il est mort, on dit: "on ne peut pas savoir".

Ensuite pour ce qui est du calcul de probabilités : c'est ce qui nous permet de nous rapprocher le plus possible de l'étude du hasard... Mais cette science ne nous permet que de proposer des modèles favorables, en prenant bien soin de préciser que d'autres sont possibles. Donc ce n'est pas une science exacte (on ne dit pas: "1+1=2 ou 3).

Il semblerait qu'à notre échelle, l'univers soit encore non déterministe. Et rien ne prouve qu'il le deviendra un jour à nos yeux...

~Donitab~ le 14-04-2007 à 00:00
 
Cet article soulève les foules... A vrai dire c'est qu'il est très intéressant !

Personnellement, je pense que le hasard est un fait, qu'il existe et qu'il est "omniprésent". Sur ce point je rejoindrais donc les détracteurs de ton concept RoN.

Mais ce qui m'a le plus interpellé dans ton article, c'est le fait qu'il y a ambiguïté entre "cause/conséquence" et "destin".
En effet, si je suis entièrement d'accord pour affirmer que chaque cause entraîne inévitablement une conséquence, peut-on dire pour autant que c'était "écrit" ? Qu'il n'y avait pas d'autre solution?
Car comme le font remarquer Donitab, matthieux et Telimektar, il existe une infinité de conséquences possibles, qui sont de plus imprévisibles. 
De plus, il est un mythe qui oppose depuis la nuit des temps hasard et destinée. L'un révélateur d'un chaos, l'autre d'une volonté. La notion de destin sous-entend quelque part celle de but. 

Dans ton article, tu fais l'hypothèse d'un futur basé sur le passé. Je m'explique, tu dis que ce qui est arrivé était inévitable puisque c'est arrivé. Forcément, le passé restera à jamais figé et donc cela nous donne l'impression que notre histoire suit un fil tendu dès le commencement. 
Car si le passé est logique, c'est-à-dire que des causes ont entraîné des conséquences, y a-t-il un semblant de linéarité dans notre Histoire ? Je ne le vois pas.

Pour conclure, ton hypothèse serait juste et fantastique si on pouvait réellement tout prévoir. Par contre, l'ordinateur devrait être vraiment "balèze"...

~Austin~ le 14-04-2007 à 00:00
 
Je ne suis pas vraiment d'accord, lorsque tu affirmes que le "destin" existe, en donnant pour seul argument que les actions entraînent des réactions.

Car on peut prévoir la réaction que deux produits chimiques pourraient avoir ensemble, mais ce n'est pas pour autant que le destin existe.

Tu dis qu'on a "l'impression de faire des choix, mais qu'ils sont dirigés"; mais non. Admettons que tu décides d'appeler un ami. Ou alors que tu décides de ne pas l'appeler. C'est bien toi qui décide de ce que tu veux faire...

Car avoir un destin donnerait la possibilité de pouvoir connaître LE futur. Or, il ne devrait y avoir qu'un seul futur possible dans ce cas-là. Mais tout ce qu'on fait chaque jour, chaque choix que l'on décide de faire, de telle ou telle manière changerait ce futur. 
Et à ce moment, le futur se réécrirait à chaque instant, des milliards de fois, pour chaque choix que tous les êtres vivants prendraient sur cette planète, et ailleurs.

Pourtant, tu dis que le futur est censé être inscrit : le "destin"... 
Ça ne colle pas vraiment.

Sinon je suis d'accord que ce qu'on appelle "hasard" n'est que le résultat de beaucoup de causes et conséquences ; mais c'est surtout un résultat qu'on ne peut pas connaître/savoir. Sinon ce n'est plus du hasard.

Tu prends un jeu à gratter chez un marchand de journaux par exemple; en réalité ce sont des machines qui ont prévu s'il est gagnant ou perdant. Mais comme tu ne peux pas savoir cela, c'est le "hasard" si tu gagnes ou pas. La chance, ou la malchance, en quelque sorte, bien que ça se rapporte au hasard.

Très bon article !

~Thanatos~ le 29-07-2007 à 00:00
 
Ce qui serait intéressant, ce serait d'enregistrer les prévisions du super-ordinateur sur un CD, puis de vérifier par la suite si cela coïncide avec ce qui s'est passé.

~Aquaberry~ le 10-02-2009 à 20:54
 
12  Suivant
 
Il faut être membre du site afin de pouvoir débattre autour d'un article.

Liberté et nécessité

dimanche 5 juillet 2009, par Robert Paris
Liberté et nécessité
Engels dit : « Hegel a été le premier à représenter exactement le rapport de la liberté et de la nécessité. Pour lui, la liberté est l’intellection de la nécessité ». « La nécessité n’est aveugle que dans la mesure où elle n’est pas comprise. » La liberté n’est pas dans une indépendance rêvée à l’égard des lois de la nature, mais dans la connaissance de ces lois et dans la possibilité donnée par là même de les mettre en œuvre méthodiquement pour des fins déterminées. Cela est vrai aussi bien des lois de la nature extérieure que de celles qui régissent l’existence physique et psychique de l’homme lui-même, ‑ deux classes de lois que nous pouvons séparer tout au plus dans la représentation, mais non dans la réalité. La liberté de la volonté ne signifie donc pas autre chose que la faculté de décider en connaissance de cause. Donc, plus le jugement d’un homme est libre sur une question déterminée, plus grande est la nécessité qui détermine la teneur de ce jugement... La liberté consiste par conséquent dans l’empire sur nous-mêmes et la nature extérieure, fondé sur la connaissance des nécessités naturelles (Naturnotwendigkeiten) »... (pp. 112 et 164 de la 5° édit. allem.) .
Voyons sur quels principes gnoséologiques est fondé tout ce raisonnement.
En premier lieu, Engels reconnaît dès le début les lois de la nature, les lois du monde extérieur, la nécessité de la nature, c’est‑à‑dire tout ce que Mach, Avenarius, Petzoldt et Cie qualifient de « métaphysique ». Si Lounatcharski s’était donné la peine de réfléchir sérieusement à l’argumentation « admirable » d’Engels, il n’aurait pas pu ne pas voir la distinction essentielle entre la théorie matérialiste de la connaissance et l’agnosticisme et l’idéalisme qui nient les lois de la nature, ou n’y voient que des lois « logiques », etc., etc.
Deuxièmement, Engels ne perd pas son temps à formuler les « définitions » de la liberté et de la nécessité, définitions scolastiques qui intéressent par‑dessus tout les professeurs réactionnaires (comme Avenarius) ou leurs élèves (comme Bogdanov). Engels considère la connaissance et la volonté de l’homme d’une part, les lois nécessaires de la nature de l’autre, et, s’abstenant de toute définition, constate simplement que les lois nécessaires de la nature constituent l’élément primordial, la volonté et la connaissance humaines étant l’élément secondaire. Ces dernières doivent nécessairement et inéluctablement s’adapter aux premières ; c’est pour Engels d’une évidence telle qu’il ne croit pas devoir l’expliquer. Les disciples russes de Mach ont été les seuls à se plaindre de la définition générale du matérialisme donnée par Engels (la nature est l’élément primordial ; la connaissance, le secondaire ; souvenez‑vous des « perplexités » de Bogdanov à ce sujet !), et à trouver en même temps « admirable », « d’une justesse frappante », une des applications particulières que fit Engels de cette définition générale et essentielle !
Troisièmement, Engels ne doute pas de l’existence de la « nécessité aveugle », il admet l’existence de la nécessité non connue de l’homme. C’est ce qui ressort de toute évidence du passage cité par nous. Or, au point de vue des disciples de Mach, l’homme peut‑il connaître l’existence de ce qu’il ne connaît pas ? Connaître l’existence d’une nécessité qu’il ignore ? N’est‑ce point là « mystique », « métaphysique », admission des « fétiches » et des « idoles », n’est‑ce pas « l’inconnaissable chose en soi de Kant » ? Si les disciples de Mach y avaient réfléchi, ils n’auraient pas manqué d’apercevoir l’identité complète de l’argumentation d’Engels sur la connaissance de la nature objective des choses et sur la transformation de la « chose en soi » en « chose pour nous », d’un côté, et de son argumentation sur la nécessité aveugle non encore connue, de l’autre. Le développement de toute conscience individuelle et celui des connaissances collectives de toute l’humanité nous montrent à chaque instant la « chose en soi » inconnue se transformant en « chose pour nous » connue, la nécessité aveugle inconnue, la « nécessité en soi », se transformant en « nécessité pour nous » connue. Au point de vue gnoséologique, il n’y a absolument aucune différence entre ces deux transformations, car le point de vue fondamental est le même dans les deux cas : c’est le matérialisme, la reconnaissance de la réalité objective du monde extérieur et des lois de la nature extérieure, ce monde et ces lois étant parfaitement accessibles à la connaissance humaine, mais ne pouvant jamais en être connus définitivement. Nous ne connaissons pas les loi nécessaires de la nature dans les phénomènes météorologiques, et c’est pourquoi nous sommes inévitablement les esclaves du temps qu’il fait. Mais ne connaissant pas cette nécessité, nous savons qu’elle existe. D’où vient cette connaissance ? Elle vient justement d’où nous vient la connaissance des choses existant hors de notre conscience et indépendamment de celle‑ci, autrement dit : de l’évolution de nos connaissances, qui a montré des millions de fois à tout homme que l’ignorance fait place au savoir quand l’objet agit sur nos organes des sens, et inversement : la possibilité de cette action une fois écartée, la science devient ignorance.
Quatrièmement, Engels applique manifestement à la philosophie, dans l’argumentation citée, la méthode « salto‑vitale », c’est‑à‑dire qu’il fait un bond de la théorie à la pratique. Aucun des savants (et sots) professeurs de philosophie que suivent nos disciples de Mach, ne se permet jamais de ces bonds déshonorants pour des représentants de la « science pure ». Une chose est chez eux la théorie de la connaissance où il importe de cuisiner subtilement les « définitions » verbales ; autre chose est la pratique. Chez Engels, toute la pratique vivante de l’homme fait irruption dans la théorie même de la connaissance, fournissant un critère objectif de la vérité : tant que nous ignorons une loi de la nature, cette loi, existant et agissant à l’insu, en dehors de notre connaissance, fait de nous les esclaves de la « nécessité aveugle ». Dès que nous la connaissons, cette loi agissant (comme l’a répété Marx des milliers de fois) indépendamment de notre volonté et de notre conscience, nous rend maîtres de la nature. La domination de la nature, réalisée dans la pratique humaine, résulte d’une représentation objectivement fidèle, dans l’esprit humain, des phénomènes et des processus naturels ; elle est la meilleure preuve que cette représentation (dans les limites que nous assigne la pratique) est une vérité éternelle, objective et absolue.
Quel est donc le résultat final ? Chaque étape du raisonnement d’Engels, presque chacune de ses phrases, chacune de ses propositions, pourrait‑on dire, est entièrement et exclusivement fondée sur la gnoséologie du matérialisme dialectique, sur des propositions qui frappent au visage toutes les bourdes de Mach sur les corps en tant que complexes de sensations, sur les « éléments », sur « la coïncidence de nos représentations sensibles et de la réalité existant hors de nous », etc., etc. Les disciples de Mach ne s’en laissent pas troubler le moins du monde ; ils lâchent le matérialisme et ressassent (à la Bermann) sur la dialectique des banalités éculées, en souscrivant d’ailleurs, séance tenante, à l’une des applications du matérialisme dialectique ! Ils ont puisé leur philosophie dans les pauvres soupes éclectiques et continuent à servir ces mêmes soupes au lecteur. Ils empruntent à Mach une parcelle d’agnosticisme et un rien d’idéalisme, mêlent le tout à un peu de matérialisme dialectique de Marx et susurrent que ce salmigondis, c’est un progrès du marxisme. Ils pensent que si Mach, Avenarius, Petzoldt et toutes leurs autres autorités n’ont pas la moindre idée de la solution donnée au problème (de la liberté et de la nécessité) par Hegel et Marx, c’est pur hasard : c’est que tout bonnement ces « autorités‑là » n’ont pas lu telle page dans tel livre, et non point qu’elles aient été et soient demeurées absolument ignorantes du progrès réel de la philosophie au XIX° siècle, qu’elles aient été et soient restées des obscurantistes en philosophie.
Voici le raisonnement d’un de ces obscurantistes, Ernst Mach, professeur de philosophie à l’université, de Vienne :
« Il est impossible de démontrer la justesse de la position du déterminisme ou de l’indéterminisme. Seule une science parfaite ou démontrée impossible serait capable de résoudre ce problème. Il s’agit ici des prémisses que l’on introduit (man heranbringt) dans l’analyse des choses, suivant que l’on attribue aux succès ou aux insuccès antérieurs, des recherches une valeur subjective (subjektives Gewicht) plus ou moins grande. Mais, au cours de la recherche, tout penseur est nécessairement déterministe en théorie » (Connaissance et Erreur, 2° édit. allem., pp. 282‑283).
N’est‑ce pas faire preuve d’obscurantisme lorsqu’on sépare soigneusement la théorie pure de la pratique ? Lorsqu’on réduit le déterminisme au domaine de la « recherche » et qu’en morale, dans la vie sociale, dans tous les autres domaines, sauf la « recherche », on laisse la question à l’appréciation « subjective ». Dans mon cabinet, dit le pédantesque savant, je suis déterministe ; mais que le philosophe se préoccupe de bâtir sur le déterminisme une conception du monde cohérente, embrassant la théorie et la pratique, il n’en est point question. Mach énonce des truismes parce que la question des rapports de la liberté et de la nécessité, au point de vue théorique, ne lui apparaît pas claire.
« ... Toute nouvelle découverte révèle les insuffisances de notre savoir et met à jour un résidu de dépendances jusqu’alors inaperçu » (p. 283)... Fort bien ! Ce « résidu » n’est-il pas la « chose en soi » que notre connaissance reflète de plus en plus profondément ? Pas du tout : « ... De sorte que celui qui défend en théorie un déterminisme extrême doit demeurer, en pratique, un indéterministe » (p. 283)... Voilà bien un partage à l’amiable [2] : la théorie aux professeurs, la pratique aux théologiens ! Ou bien : en théorie l’objectivisme (c’est‑à‑dire le matérialisme « honteux ») ; dans la pratique, la « méthode subjective en sociologie ». Quel les idéologues russes de la petite‑bourgeoisie, les populistes, de Lessévitch à Tchernov, sympathisent avec cette philosophie banale, il n’y a rien d’étonnant. Mais que des gens se réclamant du marxisme s’engouent de pareilles absurdités, en dissimulant honteusement les conclusions singulièrement absurdes de Mach, voilà qui est tout à fait triste.
En traitant de la volonté, Mach ne se contente d’ailleurs pas de cette confusion et d’un agnosticisme équivoque, il va beaucoup plus loin... « Notre sensation de faim, lisons‑nous dans la Mécanique, n’est pas essentiellement différente de la tendance de l’acide sulfurique vers le zinc, et notre volonté n’est pas si différente de la pression de la pierre sur son support ». « Nous nous trouverons ainsi » (c’est‑à‑dire en nous plaçant à ce point de vue) « plus près de la nature sans qu’il soit besoin de nous résoudre en un incompréhensible amas nuageux de molécules, ou de faire de l’univers un système de groupements d’esprit » (p. 434 de la traduction française). Ainsi, point n’est besoin de matérialisme (« amas nuageux de molécules » ou électrons, c’est‑à‑dire admission de la réalité objective du monde matériel) ; point n’est besoin d’un idéalisme qui verrait dans le monde une « forme particulière de l’existence » de l’esprit, mais un idéalisme concevant le monde comme volonté est possible. Nous voici non seulement au-dessus du matérialisme, mais aussi de l’idéalisme d’un « quelconque » Hegel, ce qui ne nous empêche pas d’être en coquetterie avec un idéalisme dans le genre de Schopenhauer ! Nos disciples de Mach qui prennent des mines de pudeur offensée à chaque rappel de la proche parenté de Mach et de l’idéalisme philosophique, ont préféré cette fois encore faire le silence sur ce point délicat. Il est cependant difficile de trouver dans la littérature philosophique un exposé des idées de Mach où ne soit pas noté son faible pour la Willensmetaphysik, c’est‑à‑dire pour l’idéalisme volontariste. Ce point a été relevé par J. Baumann [3], et le disciple de Mach H. Kleinpeter, discutant avec cet auteur, n’a pas réfuté ce point, se bornant à dire que Mach est sans contredit « plus près de Kant et de Berkeley que de l’empirisme métaphysique qui domine dans les sciences de la nature » (c’est‑à‑dire du matérialisme spontané, ibid., vol. 6, p. 87). E. Becher [4] l’indique de même et rappelle que si Mach professe en certains passages la métaphysique volontariste pour la renier ailleurs, il n’y faut voir que la preuve du caractère arbitraire de sa terminologie ; en réalité, le fait, que Mach est proche de la métaphysique volontariste est hors de doute. Lucka [5] reconnaît, lui aussi, à la « phénoménologie » (c’est‑à‑dire à l’agnosticisme) un goût de cette métaphysique (c’est‑à‑dire de l’idéalisme). W. Wundt [6] l’indique à son tour. Et le manuel d’histoire de la philosophie moderne d’Uberweg‑Heinze [7] constate également que Mach est un phénoméniste, « qui n’est pas étranger à l’idéalisme volontariste ».
En un mot, l’éclectisme de Mach et son penchant à l’idéalisme sont évidents aux yeux de t

La science du chaos

Simulation du disque d'accrétion formé par le vent stellaire d'une étoile Wolf-Rayet soufflant autour de son compagnon.
Une dynamique non linéaire (I)
Le monde de la dynamique non linéaire, ce monde en proie au chaos diront les mauvaises langues, est largement méconnu du public. Pourtant nous en voyons les effets tous les jours dans les mouvements turbulents ou les structures fractales. 
Cette "Terra incognita" pour les uns a été explorée par des chercheurs téméraires qui en sont revenus fascinés et riches d'étonnantes découvertes. En leur compagnie nous allons explorer ce monde étrange et ses phénomènes qui jadis relevaient de l'incertitude et du désordre et tenter de déterminer les lois qui les gouvernent.
Que sont devenus nos certitudes du temps jadis ? Si Newton ou Laplace existait encore, à l’instar d’Einstein il aurait assisté impuissant à l’écroulement de pans entiers du plus formidable édifice érigé à la gloire du déterminisme. Voyez plutôt.
Le début du XXeme siècle vit la théorie de la relativité d’Einstein faire table rase des notions qui nous paraissaient le plus aller de soi; ni l’espace ni le temps n’étaient absolus. Une génération plus tard, la physique quantique balaya l’idée que l’on pouvait tout mesurer avec certitude. Simultanément les logiciens démontrèrent l’incomplétude des énoncés mathématiques et les limites du pouvoir de la logique. Enfin, le déterminisme que nos célèbres hommes de sciences revendiquait présentait tous les symptômes du désordre et du chaos. Allions nous pouvoir vivre dans un tel monde si incertain et si subtile ?
Force est de constater que la réponse est on ne peut plus affirmative. Nous vivons dans un monde plein d’incertitudes peut-être, faillibiliste diront certains, mais à toutes les échelles le chaos lui a donné cette harmonie qui permet aujourd’hui à des chercheurs de disciplines aussi diverses que l’astronomie, la biologie ou l’informatique de se rencontrer par delà les spécificités de leur spécialité.
Pour autant la science du chaos reste une dynamique non linéaire complexe à cerner. Elle ne connaîtra son véritable essor que dans les années d’après guerre, suite à l’invention des ordinateurs capables de calculer en une fraction de secondes ce qu’une cohorte de mathématiciens exécutaient durant des journées entières.
Toute cette aventure débuta par la simple observation des phénomènes naturels. Observer un fleuve majestueux qui s’écoule à travers les méandres d’un lit sinueux. Ici, au détour d’un méandre la surface de l’eau est calme, le mouvement est à peine perceptible. Un peu plus loin le flot franchit quelques écueils et plonge dans une cascade en créant des tourbillons voluptueux en soulevant des embruns. L’écoulement est devenu irrégulier et très instable; il est chaotique. Les notions d'ordre et de désordre englobent des concepts très complexes et ambigus.
Pour le scientifique, le désordre signifie que les lois sont violés, que l'Ordre n'est plus absolu. En fait le monde devient dynamique, affecté d'une direction temporelle et en devenir permanent, turbulent.  
Dans l'antiquité grecque, philosophes et mathématiciens imaginaient que les étoiles étaient fixées sur la voûte céleste. Devant celles-ci des astres "errants" accomplissaient des révolutions périodiques d'un mouvement régulier. Cette harmonie qu'ils retrouvaient dans la nature donna naissance au mot "Cosmos". Frappé par la régularité des mouvements des astres, les Grecs furent rapidement confrontés aux questions de l'existence.
Le démiurge façonnant le monde.
Peinture réalisée par Jonathon E.Bowser
L'harmonie de la Nature semblait être la preuve d'une influence divine, dans laquelle on ne retrouvait pas la trace d'une participation humaine. Mais grâce au regard des philosophes, une représentation intelligible du monde se dessina.
Pour expliquer le réalisme de la nature, Platon posa l'existence d'un Etre divin, le démiurge qui, à partir du Khaos construisit le monde harmonieux et ordonné qui nous entoure. Le chaos, défini aujourd'hui comme "l'état de confusion, de grand désordre" (Larousse) représentait le vide primordial, en-dehors duquel rien n'existait. Platon rejoint ici la philosophie Taoïste. Il est remarquable que son concept ait perduré jusqu'à aujourd'hui. Bien que l'astronomie semble, a priori, être l'une des rares sciences qui obéisse à des lois parfaitement intelligibles, le dieu Khaos est omniprésent. La nature cache un comportement très étrange, se caractérisant parfois par une auto-organisation ou le chaos, deux aspects de la dynamique que nous allons aborder.
En laissant tomber une bille du haut d'un cône, il est très difficile de savoir de quel côté elle glissera. Seule une analyse de probabilité pourra nous aider. Etant donné qu'il est déjà impossible de déterminer l'évolution d'un système n'ayant qu'une seule composante, comment peut-on imaginer maîtriser des phénomènes plus complexes ?
Les chercheurs nous disent qu'il existe encore des phénomènes où le degré de liberté est mal défini : en numérologie, en biologie, en astrophysique, en physique des particules, en thermodynamique. On peut toujours tenter de réduire les degrés de liberté des systèmes les plus complexes, mais le chaos restera sous-jacent. Nous verrons dans ce dossier plusieurs exemples.
L'algorithme de Mandelbrot
En étudiant les attracteurs, Giuseppe Peano démontra en 1890 que la courbe de remplissage du plan prenait une pente non définissable. Une droite parvenait à occuper un espace bidimensionnel ! Répartis dans un espace bi ou tridimensionnel les attracteurs chaotiques contiennent un ordre caché : la trajectoire calculée se replie sur elle-même et se répète à l'infini. Quel que soit le grossissement, on retrouve une homothétie interne, un même aspect géométrique. Dans ces conditions, les mathématiciens peuvent décrire l'infini comme un attracteur. Ces objets sont appelés des "fractals"[1], terme choisi en 1975 par Mandelbrot pour rappeler la structure irrégulière des objets dont ce terme tire son origine. 
La formule qui généralise tous les cas de figures est appelée l'algorithme logistique de Mandelbrot. Il est du genre :
x    x2 + c
Il est très facile d'écrire un programme informatique qui tracera l'image de cet algorithme sur un écran. On constate alors que pour certaines valeurs de "c" les résultats convergent puis soudainement le système a un comportement très étrange. La trajectoire déterministe bifurque. Le système ne peut plus prendre une valeur inférieure, les nombres deviennent de plus en plus grands et tendent vers l'infini. 








Dessins réalisés sur ordinateur. A gauche, la figure créée par l'algoritme logistique décrit ci-dessus. Noter la bifurcation soudaine et sa répétition périodique. Elle obéit en fait à une loi fractale comme toutes les autres illustrations de cette page. Tous ces dessins dont la géométrie se répète à l'infini s'expliquent par la récurrence d'une ou plusieurs variables à différentes échelles. Par la répétition de leurs motifs et leur complexité ces dessins se prêtent admirablement bien à des simulations informatiques.
Si la formule est réitérée à partir d'un point de référence (c est situé dans le plan), le système est récurrent et boucle sur lui-même.En fonction du nombre d'itérations de la formule (100 à 100000), le facteur de zoom sera plus ou moins élevé. Ainsi, partant d'une figure de Barnsley de base dessinée avec Ultra Fractal, un grossissement de 8x ou de 20x sur la boucle qui apparaît dans la partie supérieure gauche permet de distinguer la forme fractale. Avec 250 itérations l'agrandissement maximum est limité à environ 400 milliards de fois (4x1011) où la structure élémentaire est apparente. Avec 100000 itérations même au grossissement astronomique demille milliards de milliards de fois (1021) on n'en voit pas encore la fin... Un passionnant voyage dans l'invariance d'échelle.
Cette "invariance d'échelle" se retrouve dans les images fractales bien connues comme la "courbe de von Koch", "l'ensemble de Mandelbrot", "l'attracteur étrange de Lorenz" ou les paysages réalisés avec des images de synthèse. Poincaré appela ces figures fantasmagoriques la "galerie des monstres".  








Le logiciel Ultra Fractalvous permet d'explorer la géométrie de Mandelbrot. Aujourd'hui à la version 3, la licence pour Windows coûte $59. Il existe beaucoup d'autres logiciels gratuits dont Fractal Explorer.
Dans la nature, la dimension fractale se retrouve dans les trous du fromage Emmenthal, l'écume des vagues ou les dendrites des cristaux[2]. Ce phénomène répétitif trouve des débouchés très sérieux. Pour peu qu'il s'attache à une loi, l'étude du chaos peut modéliser la dynamique d'une grande diversité de systèmes, qu'il s'agisse de l'évolution d'une population animale, la croissance des arbres, le mouvement brownien ou la trajectoire d'un électron. Il permet de modéliser des structures complexes comme les flocons de neige, la côte d'une île, la distribution des cratères sur la Lune ou la circulation atmosphérique. Rappelons également que Mandelbrot a démontré que la distribution des galaxies dans l'Univers pouvait obéir aux lois fractales.








Objets fractals artificiels et naturels
Ces quelques illustrations nous montrent combien les fractals peuvent également être la source d'une grande richesse créatrice. Ci-dessus trois images artificielles parfois plus vraies que de nature. Ci-dessous, la structure fractale de quelques objets naturels : la structure cellulaire du concombre, une variété de chou-fleur, des cristaux de carbonate de calcium et un cristal de neige. On peut également citerles cours d'eaule coraille réseau sanguin ou les éclairs. Documents EclectasyCognitive Distorsion,Yale/classesNatan Dror-BarU.Jussieu.


(c) LUXORION









Hasard : se dit d’un événement dont on ne connaît pas les causes. Il existe donc deux types de hasard. Le premier type de hasard est celui dont on ne connaît pas les causes parce qu’elles sont cachées, couramment appelé hasard déterministe. Le second type de hasard indéterministe est celui dont on ne connaît pas les causes parce qu’elles n’existent pas. L’existence de ce second type est niée par les partisans du déterminisme ou de la Théorie des Variables Cachées. La Double Causalité considère que les variables peuvent être cachées par le fait qu’elle sont « futures », ce qui revient à dire que le hasard n’existe pas.
Indéterminisme : par opposition au déterminisme, conception philosophique niant le fait que tout événement puisse être prévisible par une loi physique. La principale conséquence de l’indéterminisme est l’existence d’aléas, c'est-à-dire de possibilités multiples de l’évolution d’un système.
In
Loi de Convergence des Parties : Loi hypothétique et manquante reposant sur le déterminisme inversé et permettant de calculer le passé à partir du présent, ou le présent à partir du futur. Cette loi est fondée sur la réversibilité des équations fondamentales de la physique et se positionne comme une loi inverse de la loi d’entropie croissante : elle produit de l’ordre au lieu de produire du désordre.
Loi d’attraction universelle (des trajectoires de vies): généralisation de la Loi de Convergence des Parties à des « trajectoires de vies ». Compte tenu de l’omniprésence du futur et du passé, lorsqu’une modification a lieu dans une trajectoire de vie, elle est instantanée sur toute la trajectoire, y compris la partie de cette trajectoire qui n’existe qu’à l’état de potentiel non encore réalisé. C’est pourquoi cette loi est dynamique et a pour effet de rapprocher (d’attirer) les trajectoires qui sont reliées par des intentions convergentes. Cette « attirance » est supposée être en parfaite analogie avec la gravitation universelle qui, quant à elle, agit sur des trajectoires d’objets matériels (massifs).
LoVariables cachées (Théorie des): l’existence de variables cachées est invoquée par les détracteurs de l’interprétation majoritaire de la mécanique quantique selon laquelle elle est indéterministe: il est impossible de prévoir l’état que va prendre une particule lorsqu’elle sera observée, cet état étant attribué au hasard le plus absolu. Les partisans des variables cachées, comme l’était Einstein, refusent cet indéterminisme et considèrent qu’il n’est qu’apparent et sera comblé par les progrès de la physique lorsque l’on sera à même d’expliquer les « causes cachées », et plus généralement celles de tout système « en apparence » indéterministe

CHAOS (Physique)


Origine des phénomènes aléatoires

L'évolution temporelle d'un phénomène, une succession d'événements sont dites erratiques ou aléatoires si elles n'obéissent apparemment à aucune loi, à aucune régularité qui permettent de les prévoir. Dans ce sens, «aléatoire» est synonyme d'«imprédictible». À titre d'exemple, la variation de la pression atmosphérique en un lieu donné est erratique et, de fait, imprédictible, tant il est vrai que la connaissance de son évolution passée n'en permet pas la prévision. Au contraire, la variation de la hauteur d'eau dans un port soumis à l'influence des marées est régulière et rigoureusement prévisible.
Il existe une origine naturelle à une évolution ou à une suite d'événements erratiques: c'est l'effet d'une loi des grands nombres. Le caractère désordonné est alors lié à la conjonction d'une multitude d'événements indépendants entre eux. Prenons le cas d'une suite de nombres tirés au hasard, comme celle qui est donnée par tirage du loto. Ces suites sont par définition imprédictibles, ce qui donne précisément tout leur sel aux jeux de hasard. La cause en réside bien évidemment dans la multitude des chocs que les boules, porteuses des numéros, subissent entre elles ou de la part des bras d'agitation.
De même, dans le domaine de la physique, le mouvement brownien d'une particule, mouvement aléatoire par excellence, est lié aux multitudes de chocs que subit cette particule de la part des molécules du fluide dans lequel elle se trouve en suspension. C'est ainsi que beaucoup de phénomènes erratiques sont liés à une loi des grands nombres, telle, par exemple, la turbulence développée, qu'illustre bien la complexité de la trajectoire d'une feuille morte ballottée dans le plus grand désordre par jour de grand vent. L'origine de ce désordre est due à la coexistence d'un grand nombre de tourbillons, de toutes tailles et de toutes vitesses, qui agitent la feuille dans tous les sens.
Se pose alors une interrogation fondamentale: un comportement erratique ne peut-il avoir son origine que dans une loi des grands nombres? La réponse est non. Un exemple nous est fourni par la suite itérée:

où la variable X, comprise entre 0 et 1, est définie à l'instant t + 1 en fonction de ce qu'elle était à l'instant t. Partant d'une valeur initiale X0 (0 < X0 < 1), on obtient une suite de nombres X1, X2, ... Le point crucial est que, pour toute une gamme de valeurs de A (en particulier A = 4), la suite engendrée est erratique (fig. 1). Malgré le caractère très simple et parfaitement déterministe de la loi qui engendre les nombres successifs, ceux-ci sont (à temps long) aussi imprédictibles que s'ils étaient tirés à la loterie. Cela montre qu'un phénomène erratique n'est pas nécessairement lié à une loi des grands nombres, c'est-à-dire à une complexité inhérente au système. C'est ainsi que nous devons aux mathématiques l'illustration de ce fait que, contrairement à toute attente, déterminisme et chaos ne sont nullement antinomiques.

La sensibilité aux conditions initiales

Regardons de plus près l'aspect graphique de l'itération citée plus haut. En considérant la parabole Xt+1 = AXt(1 - Xt) dans l'intervalle [0, 1], l'itération se pratique aisément à partir d'une valeur X0 en se servant de la première bissectrice. En partant d'un point très voisin X'0 = X0 + d X et itérant de la même manière, les écarts d = Xt+1 - Xt+1 obtenus à chaque itération sont en moyenne supérieurs aux d Xt calculés précédemment: ils sont multipliés à chaque fois par la pente P de la parabole qui se révèle, en moyenne, être supérieure à l'unité. Un écart, une erreur initiale multipliée à chaque itération par P, croît donc, en moyenne, exponentiellement avec leur nombre. C'est dire que les deux points voisins X0 et X'0 = X0 + d X auront rapidement des images très différentes. Autrement dit, les deux suites:

un court moment semblables, différeront rapidement au point de n'avoir plus aucune ressemblance l'une avec l'autre. Ressemblantes dans le «passé», elles divergent dans le futur, d'où leur imprédictibilité. Il est nécessaire de rappeler à ce propos que la prédictibilité est fondée sur la permanence d'une ressemblance qui permet d'extrapoler, à partir de la connaissance du passé, le comportement à venir: il faudrait ici connaître le passé avec une précision infinie pour prévoir l'avenir, chose impossible en pratique. D'après ce que nous avons admis ci-dessus, la suite des itérés est donc chaotique bien que déterministe du fait de cette «sensibilité aux conditions initiales» ou S.C.I., véritable clef de la compréhension du chaos déterministe. Dans la pratique, le mot de chaos est donc devenu synonyme de chaos déterministe.

Où trouver la sensibilité aux conditions initiales ?

La propriété de sensibilité aux conditions initiales (S.C.I.) avait déjà été pressentie vers 1875 par James Clerk Maxwell, puis par Henri Poincaré. Ensuite, le météorologiste, Edward Lorenz, étudiant les solutions d'un ensemble de trois équations différentielles ordinaires, qui représentaient un modèle très simplifié des écoulements dans l'atmosphère, remarqua que, en partant de conditions initiales légèrement différentes (et pour certaines valeurs des constantes, voir les équations ci-dessous), il obtenait des solutions tout à fait dissemblables au bout d'un même temps d'évolution. Et, pourtant, quoi de plus déterministe que ces équations:

dans lesquelles X, Y, Z représentent les trois variables du modèle et t le temps?
Les raisons de ce comportement, à première vue incompréhensible, ont été analysées et expliquées pour la première fois par David Ruelle et Floris Takens; en effet, ils ont montré en 1971 que la dépendance S.C.I., donc un comportement chaotique, pouvait apparaître dans un système dynamique ayant au minimum trois fréquences indépendantes (ce qui revenait à dire trois variables ou trois degrés de liberté), et dont les non-linéarités sont suffisantes.
De fait, le nombre minimal de degrés de liberté nécessaires pour que le chaos puisse apparaître peut être déduit de considérations topologiques se rapportant aux trajectoires dynamiques dans l'espace des phases (ou espace dont les coordonnées sont les variables dynamiques indépendantes du système). La trajectoire dans cet espace est le lieu des points correspondant aux valeurs prises par les variables à chaque instant. Ainsi l'espace des phases relatif au mouvement du pendule est un plan dont les coordonnées (variables) sont la position et la vitesse et dans lequel la trajectoire dynamique est une boucle fermée.
La propriété de S.C.I. se traduit par la divergence des trajectoires dans l'espace des phases. Or, dans un espace à deux dimensions, cette divergence entraînerait soit l'extension des trajectoires à l'infini, soit leur recoupement (ce qui ne peut avoir lieu, dans le premier cas, parce que les valeurs prises par les variables restent bornées et, dans le second cas, parce que la nature déterministe du phénomène interdit que les trajectoires se croisent). Il faut donc au minimum un espace de variables à trois dimensions pour que les trajectoires puissent diverger sans exploser à l'infini ou se couper. Assimilant le nombre de variables indépendantes à celui du nombre de degrés de liberté, on arrive à la conclusion qu'un système dynamique non linéaire ayant au minimum trois degrés de liberté peut devenir chaotique. L'exemple le plus simple est celui du pendule ou de l'oscillateur forcé par un «champ» périodique extérieur.
Imaginons, en effet, un pendule non linéaire entretenu en oscillation à sa fréquence propre f1; c'est un système à deux degrés de liberté: position et vitesse. S'il reste isolé, il ne peut devenir chaotique. Influençons son mouvement de manière périodique, par exemple en soumettant son axe à une oscillation de fréquence f2. Le système devient bipériodique (on dit aussi quasi périodique) mais, surtout, il a acquis un troisième degré de liberté: la phase de l'oscillation extérieure. C'est un fait que le système peut, maintenant, devenir chaotique et, en effet, pour certaines valeurs de l'amplitude du forçage extérieur, des mouvements désordonnés apparaissent.

Trois « scénarios vers le chaos »

Une des caractéristiques du chaos déterministe est de naître, puis de se développer continûment à partir d'un comportement ordonné, dont il ne perdra pas complètement mémoire. En partant du régime périodique, le chaos peut apparaître selon trois grandes catégories de processus couramment nommés «scénarios vers le chaos». Le régime périodique a souvent succédé lui-même à un régime stationnaire par augmentation de la contrainte appliquée au système, ou paramètre de contrôle; par l'augmentation de ce dernier, trois catégories d'événements peuvent se produire.
La première correspond au scénario via les intermittences. Celui-ci se caractérise par un régime qui demeure pratiquement périodique durant de longs laps de temps, et qui se déstabilise soudainement pour laisser place à une courte bouffée chaotique, puis le régime redevient périodique et ainsi de suite... La survenance des bouffées est elle-même irrégulière dans le temps, d'où une distribution des longueurs des phases périodiques (ou laminaires). Une autre caractéristique de ces intermittences est que, près du seuil de leur apparition, les bouffées sont rares et espacées alors que leur fréquence augmente quand on s'éloigne de ce seuil. Ce scénario, prévu théoriquement par Yves Pomeau et Paul Manneville en 1980, a été observé presque aussitôt après dans le cas de la convection de Rayleigh-Benard et dans une réaction chimique instationnaire.
Un autre scénario vers le chaos est le scénario par cascade de doublement de la période. Par augmentation progressive d'un paramètre de contrôle de l'expérience, le régime périodique voit tout d'abord sa période doubler puis être multipliée par 4, par 8, par 16, etc. Les seuils d'apparition de ces doublements successifs étant de plus en plus rapprochés, on atteint ainsi un point d'accumulation pour lequel il existe, en principe, une multiplication de la période de base jusqu'à l'infini. C'est là que le seuil du chaos est atteint. Habituellement attribué – pour ce qui est de sa découverte théorique – à Mitchell Feigenbaum (Los Alamos), ce modèle est l'aboutissement, en fait, de toute une série de travaux antérieurs, tant dans le domaine des mathématiques que dans celui de la physique. Indépendamment de Mitchell Feigenbaum, d'autres théoriciens aboutissaient, au même moment, à un résultat sensiblement identique, en particulier Pierre Coullet et Charles Tresser de la faculté des sciences de Nice. De nombreuses vérifications de l'existence et des propriétés de cette route ont été effectuées sur des systèmes très variés.
Le troisième type de scénario vers le chaos est également celui qui présente le plus de variantes. C'est le scénario de la quasipériodicité. Il se manifeste, d'une façon très qualitative, comme suit: par augmentation d'un paramètre de contrôle, le régime périodique devient quasi périodique, c'est-à-dire que son spectre contient deux fréquences de base indépendantes (incommensurables). Ce régime peut, à son tour, perdre sa stabilité et devenir chaotique soit directement, soit par la survenance d'une troisième fréquence. Dans cette dernière variante, la paternité en revient clairement à David Ruelle et Floris Takens. Comme dans les deux cas prédécents, divers exemples de ce modèle ont été trouvés expérimentalement dans bon nombre de systèmes.
Il est un système dynamique qui s'est révélé d'une grande richesse pour l'étude des scénarios menant au chaos, c'est l'instabilité hydrodynamique de Rayleigh-Benard. Considérons un fluide enfermé dans un récipient parallélépipédique dont les parois horizontales sont bonnes conductrices de la chaleur. Appliquons une différence de température D T entre le bas et le haut de la couche, la partie basse étant à la température la plus élevée. Au-delà d'un certain seuil critique D Tc, le liquide se met en mouvement avec ascension de fluide chaud et descente de fluide froid: c'est le phénomène de convection thermique. Point plus remarquable, une structuration périodique des mouvements du fluide apparaît sous la forme de rouleaux (ou tourbillons) convectifs. Ceux-ci ayant un diamètre de l'ordre de la hauteur de la couche, il suffit de travailler avec un récipient de dimension horizontale double de la hauteur pour n'avoir que deux rouleaux seulement, ce qui stabilise considérablement la structure vis-à-vis de complications d'origine spatiale. Par augmentation de la différence de température D T (paramètre de contrôle), il peut alors se développer un, puis deux oscillateurs thermiques dans cette couche en convection. Le régime, stationnaire pour les valeurs modérées de D T, devient donc périodique et éventuellement bipériodique pour les valeurs plus élevées du paramètre de contrôle. Étape ultime de l'évolution, il est possible, par une nouvelle augmentation de D T, d'obtenir des régimes chaotiques.

Attracteurs étranges

Le chaos déterministe se rencontre aussi bien dans les systèmes hamiltoniens ou non dissipatifs (sans dissipation d'énergie vers l'extérieur) et dans les systèmes dissipatifs. Mais, dans ces derniers, la notion de chaos est intimement liée à celle d'attracteurs étranges.
En effet, la dynamique de tout système dissipatif non chaotique est telle que, à partir d'un ensemble de conditions initiales, elle converge vers un comportement unique d'équilibre, indépendant de ces conditions; cet état pourra être stationnaire dans le cas d'un pendule amorti, périodique pour un pendule entretenu, etc. La représentation de ces états dans l'espace des phases – point fixe, cycle limite, etc. – est un attracteur vers lequel convergent toutes les trajectoires situées dans le bassin d'attraction correspondant, de même que tous les ruissellements d'une même vallée aboutissent dans la rivière qui coule dans le fond.
Cette propriété de convergence, d'attraction vers la trajectoire d'équilibre est toujours présente quand le système devient chaotique, mais s'y rajoutent les effets dus à la S.C.I. Lorsque la trajectoire se construit au cours du temps dans l'espace des phases, il y a contraction suivant certaines directions et divergence suivant d'autres. Cette dernière se manifeste par des étirements, suivis de nécessaires repliements liés au fait que l'extension de l'attracteur est limitée par les valeurs extrémales prises dans le temps par les variables physiques. Résultat d'une multitude d'étirements et de repliements, l'attracteur chaotique est donc, en quelque sorte, fabriqué de la même manière que celle qu'utilise le boulanger pour faire sa pâte: il en résulte une structure feuilletée tout à fait caractéristique. Remarquons qu'entre les feuillets de l'attracteur chaotique il y a du vide que la trajectoire ne remplit jamais; bien qu'évoluant dans un espace à trois dimensions (dans le cas le plus simple) mais sans être confinée à une surface, la trajectoire ne remplit pas l'espace de façon dense. La dimension de l'attracteur, supérieure à 2, est donc inférieure à 3, de même que celle d'un arbre, objet pourtant non bidimensionnel, mais ne remplissant pas l'espace de façon dense. L'attracteur chaotique, de dimensionnalité non entière, est donc un «fractal». Cet aspect est confirmé par le fait qu'on peut trouver des feuillets imbriqués à toutes les échelles d'observation, autre caractéristique curieuse des «fractals». Ces propriétés topologiques ont fait nommer les attracteurs chaotiques «attracteurs étranges».
La présence de l'un de ces derniers dans l'espace des phases est une signature de chaos déterministe dissipatif. Aussi sa mise en évidence, à partir de signaux expérimentaux, est-elle cruciale. En effet, le nombre de degrés de liberté effectifs d'un système expérimental n'est généralement pas connu, et, dans ce cas, seule la démonstration de la présence des propriétés spécifiques du chaos déterministe sera valable, c'est-à-dire la démonstration de la présence ou non d'un attracteur étrange de faible dimensionnalité dans l'espace des phases.
La manière la plus simple consiste à tracer l'attracteur lui-même à partir des variables du système. En fait, cette méthode se limite aux espaces des phases de faible dimensionnalité (trois ou quatre au maximum); dans ce cas, et pour mieux cerner la topologie de l'attracteur, il est d'usage d'en faire une coupe par un plan (section de Poincaré). Cette démarche s'est révélée très fructueuse pour étudier la dynamique près du seuil d'apparition du chaos, en particulier pour suivre la déstabilisation des régimes périodiques l'ayant précédé. Mais, d'une part, cette manière de procéder n'amène pas d'élément quantitatif et, d'autre part, elle ne peut s'extrapoler à des systèmes complexes. Des moyens numériques ont donc été proposés pour tester la présence ou non d'un chaos déterministe.
Ils permettent, en particulier, de calculer la dimension fractale de l'attracteur qui donne une limite inférieure du nombre de degrés de liberté du système, permettant ainsi de démontrer la présence d'un comportement chaotique déterministe.
C'est ainsi qu'on a pu mettre en évidence des attracteurs étranges de basse dimensionnalité (comprise entre un peu plus de 2 et 6) dans les domaines les plus variés, comme l'hydrodynamique, l'électronique, les systèmes électromécaniques, les semi-conducteurs, les lasers, certaines réactions chimiques, la biologie, certains équilibres écologiques comme les problèmes prédateurs-proie, etc.
La mise en évidence des phénomènes chaotiques a constitué une véritable révolution dans le monde de la pensée scientifique en ce sens qu'elle a, pour la première fois, fait éclater cette réalité que déterminisme et chaos (ou déterminisme et imprédictibilité) n'étaient plus opposés, idée qui, il n'y a pas si longtemps, aurait été pour le moins sacrilège.
Pierre BERGÉ et Monique DUBOIS

La science du chaos
Gros-plan sur les trajectoires d'un attracteur étrange.
Chaos et probabilité (II)
Les chercheurs considèrent que le chaos qui ressort de l'évolution des systèmes inertes ou vivants signifie que le mouvement n'est plus prévisible sur une longue période de temps. Ceci provient de l’analyse de ce qui se passe, non plus à propos d’une seule trajectoire mais des probabilités, de l’ensemble des trajectoires.
Cette difficulté apparaît lorsqu'on essaye de mesurer le portrait du rythme cardiaque, de l'activité cérébrale, ou l'évolution de la matière inerte auto-organisée.
L'école de Prigogine en particulier, a prouvé que si l’onde quantique décrit des distributions de probabilité continues, pour des systèmes chaotiques simples, ces dernières permettent de tracer le portrait du système à chaque seconde et de prédire l’évolution de la probabilité. On peut ainsi déterminer dans quelles limites le système évoluera, de quelle façon il tendra vers l’état d’équilibre sur l’échelle de temps considérée et estimer la probabilité de chaque bifuraction du système. Cela donna une vision totalement nouvelle des lois de la nature car, in stricto senso, pour obtenir ces lois il faut considérer que les probabilités sont des conditions initiales, autrement dit une expression de notre ignorance, une expression de notre manque de connaissance. Nous avons donc besoin des probabilités pour connaître l’évolution d’un système, d’un point de vue probabiliste.
Cela signifie également que les conditions initiales ne sont plus représentées par un point dans le temps mais se transforment en une petite région. On obtient ainsi une description non locale du phénomène. Cette description nous donne plus d’information et tout spécialement concernant l’échelle de temps (réversibilité), etc., ce qu’une description locale ne pourrait jamais nous donner.
L'exposant de Lyapunov
Si un système est réellement chaotique, les chercheurs ont découvert que la distance qui sépare deux trajectoires initialement voisines ira en augmentant de façon exponentielle, en fonction du temps.
Document Manuel Velarde, Université Autonome de Madrid.
L'exposant de Lyapunov est présent dans ce bain d'huile mélangé à du silicium. Porté à haute température, il révèle des structures turbulentes et un comportement chaotique. Doc U.Aut.Madrid.
En fait on retrouve dans ces systèmes un ou plusieurs attracteurs étranges qui permettent dans une certaine mesure de déterminer leur évolution
C'est l'exposant de Lyapunov (t -1) qui prédit cette évolution en mesurant le taux de séparation (d) entre les trajectoires, t étant appelé le "temps de Lyapunov". Ce temps limite pose un "horizon temporel" au-delà duquel la précision des définitions se paye proportionnellement au facteur "e", à l'image du fameux "effet Papillon" que l'on retrouve en météorologie.
En fait l'exposant de Lyapunov est synonyme d'instabilité et de chaos. Si l'exposant de Lyapunov (L) est nul le système est classique et obéit aux lois de la dynamique (réversibilité, etc.). La définition de ce comportement chaotique est caractérisée par un attracteur étrange dont l'équation est proportionnelle à la fonction :
d = exp (Lt)
Les résonances de Poincaré
Les systèmes chaotiques dont les trajectoires divergent exponentiellement représentent des situations vraiment exceptionnelles. Pour quelles raisons alors ces instabilités sont-elles si importantes ? Cela provient d’un autre type d’instabilité que l’on nomme l’instabilité de Poincaré ou la catastrophe de Poincaré.
Au XIXeme siècle, Poincaré souleva une très importante question : dans tout système il existe deux types d’énergie, l’énergie potentielle et l’énergie cinétique. Il peut également s’agir de l’énergie gravitationnelle ou de tout autre type d’énergie. La question de Poincaré était de savoir s’il était possible de décrire la nature sans tenir compte des interactions, de les faire toutes disparaître ? En d’autres termes le monde peut-il être décrit par des systèmes qui ne sont pas en interactions, un monde dans lequel n’existerait pas le moindre processus réversible, qui ne connaîtrait pas la cohérence dont nous venons de parler ?
Poincaré reconnut que dans la plupart des systèmes dynamiques on ne pouvait pas éliminer les interactions. Cet état de chose était en fait lié aux phénomènes de résonances, qui en deux mots relient les processus en couple.
Prenons par analogie le son émis par une corde de piano. Une note isolée se caractérise par la durée de sa résonance, son amplitude, son timbre, la hauteur de son octave, autant d’harmoniques simples. On peut dire la même chose à propos des résonances de Poincaré qui relient les différents proAxiomatique, théorie du raisonnement

1895CantorMontre que l’ensemble de tous les ensembles ne peut exister (par une contradiction dans le calcul de son cardinal).
1897Burali-FortiPar un paradoxe, montre qu’on ne peut définir en toute liberté des ensembles d’ensembles.
1899HilbertAxiomatique complète de la géométrie plane et spatiale, sans référence à la notion « commune » de points et droites.
Montre que les axiomes de la géométrie euclidienne sont exempts de contradiction.
1902RussellCrise des fondements de la mathématique : une approche naïve des ensembles infinis et de la notion de définition fait apparaître des contradictions ; on est obligé de prévoir plusieurs niveaux de langage mathématique (un pour parler des maths, un pour parler de celui qui parle des maths etc.), et de refuser le nom d’ensemble à des collections trop vastes.
Crée avec Whitehead un système logique (théorie des types) pour obvier à ces contradictions.
1903HilbertMontre que les axiomes de certaines géométries non euclidiennes (Lobatchevskyi)sont exempts de contradictions.
1905RichardPar un paradoxe, fait apparaître que toutes les méthodes de classement des objets mathématiques ne sont pas nécessairement bonnes.
1908Zermelo puis
von Neumann,
Bernays ...
Axiomatique de la théorie des ensembles.
1910ZermeloEnonce l’axiome du choix : étant donné une infinité d’ensembles, il existe un moyen systématique de sélectionner un élément dans chacun d’eux ; cet axiome semble raisonnable et est admis par la majorité des mathématiciens, mais peut conduire à des paradoxes.
1913Brouwer ...Intuitionnisme : refuse l’axiomatique de la théorie des ensembles, l’induction infinie, le tiers-exclu. But : faire des mathématiques plus proches de l’intuition commune.
1920Lukasiewicz - Skolem ...Théorie des modèles : méthodes pour fabriquer une structure répondant à des axiomes donnés.
1924TarskiProuve que l’axiome du choix est équivalent à la proposi-tion : « pour tout a infini, a² = a ».
v.1928LukasiewiczPrincipes de la logique floue : admet des énoncés vrais, faux et partiellement vrais ; très utilisée aujourd’hui en informatique et en robotique (Zadeh 1965).
1929GödelMétathéorème de la complétude : le système logique mis au point par Russell (v. 1902) peut prouver toute formule vraie de la logique classique.
1931GödelThéorèmes d’incomplétude : une théorie suffisamment forte pour faire de la théorie des nombres (nombres premiers etc.) ne peut prouver elle-même qu’elle est correcte. Il faut donc différents niveaux de pensée. Gentzen (1936) prouve que la démonstration est possible « de l’extérieur ».
1934SkolemArithmétique non standard, cohérente avec les axiomes de Peano ; permet de faire de l’arithmétique avec des entiers infinis.
1934ZassenhausLe « théorème des 4 ensembles », première démonstration utilisant des diagrammes de Venn.
1935Dieudonné -
Chevalley -
Weyl ...
Création du groupe Nicolas Bourbaki, qui tente de faire de la mathématique un tout cohérent par l’usage systématique de la méthode axiomatique.
1938GödelL’hypothèse du continu (il n’y a pas de nombre entre À et C) est cohérente avec les autres axiomes de la théorie des ensembles ; l’axiome du choix (voir 1910) aussi.
1961Robinson - LuxemburgAnalyse non standard : variante de l’analyse admettant l’existence de nombres infiniment petits. Permet parfois des démonstrations plus aisées que l’analyse standard (avec limites et e).
1963CohenLa négation de l’hypothèse du continu (il y a des nombres entre À et C ) est cohérente avec la théorie des ensembles ; voir aussi 1938 ; on ne pourra donc jamais démontrer si l’hypothèse du continu est vraie ou fausse.
1967BishopProuve que la théorie des ensembles « à la Cantor » est correcte en en construisant un modèle.
Retour au sommet




1901Wilson - GibbsAxiomatique des vecteurs ; analyse vectorielle (étude de fonctions dont les variables et 
cessus au niveau probabiliste. Il faut considérer que les résonances de Poincaré introduisent une contribution non Newtonienne au milieu de ses interactions qui, de façon générale sont décrites en terme probabilistes. Le concept Newtonien de trajectoires devient dès lors plus une approximation.








Aucun commentaire:

Enregistrer un commentaire