Dieu ou la Science ?

Causalité, déterminisme, hasard et prédictibilité

En finir avec le principe de causalité et en finir avec le déterminisme scientifique laplacien pour aborder ce nouveau paradigme scientifique d’un Univers stochastique issu de brisures spontanées de symétrie.

En finir avec le principe de causalité

Au commencement était la corrélation…

Envols au dessus des arbres

Plus loin une volée de grands oiseaux jaillit bruyamment au dessus des arbres. Je pronostiquai la présence d’un prédateur.

Nos heuristiques de jugement enregistrent la récurrence de certaines séquences d’événements – 1) un prédateur s’approche et 2) des oiseaux s’envolent en criant – et généralisent par analogie ces corrélations séquentielles. Nul doute sur l’importance pour la survie de notre espèce que cette identification naturelle de régularités dans le déroulement des phénomènes du monde. Elle nous permet d’anticiper la suite des événements et de déceler opportunités et dangers – ici la présence d’un prédateur. Elle permet même à l’être doué d’intentionnalité que nous sommes d’imaginer agir sur le premier évènement d’une séquence pour faire advenir l’autre – faire du bruit pour débusquer un gibier. Et nous partageons ces capacités corrélatives et anticipatives avec nombre d’autres espèces.

Nous savons pour autant, au fond de nous mêmes, que ces corrélations séquentielles ne sont pas des certitudes – les oiseaux ne voient pas toujours leur prédateur sinon celui-ci mourrait de faim; ou ils peuvent au contraire croire l’avoir vu alors qu’il n’était pas là ; ils peuvent aussi s’envoler bruyamment pour toute autre raison comme une bagarre au sein du groupe ; et, concernant nos intentions, nos plans pour provoquer un événement désiré ne fonctionnent pas toujours… Toute corrélation séquentielle, nous le voyons, est spéculative, appliquée sur des situations jamais identiques, et nous passons notre vie à les perfectionner en les complexifiant. Ce que l’on nomme communément « l’expérience » !

… l’intentionalité humaine en fit la causalité…

Comment donc est on passé de ces spéculations corrélatives au principe de causalité ? Pour étonnant que cela puisse paraître au premier abord, cela correspond au passage de l’individuel au collectif.

Individuellement, nos heuristiques de jugement enregistrent les régularités corrélatives et en infèrent nos choix et actions personnelles, rapidement, automatiquement, et même en grande partie inconsciemment. Mais lorsque l’humain planificateur, bâtisseur, doit mener des actions collectives, il doit en passer par le verbe. Il doit utiliser ses capacités de conceptualisation et de communication pour construire collectivement une représentation partagée du monde suffisamment explicative et efficiente pour permettre la consensualité dans les anticipations et décisions. Dès lors :

  • les corrélations séquentielles stochastiques deviennent des lois de causalité nécessaires (obligatoires) ;
  • le principe de causalité est érigé en modèle de fonctionnement du Monde ;
  • les « comment« , explicatifs du passé et prédictifs du futur, se déduisent de manière déterministe de ce principe par l’enchaînement logique – rationnel serions nous tentés de dire – des relations de cause à effet.

On aura noté la ressemblance avec la démarche scientifique. Le Principe de causalité et ses lois de cause à effet, sont en effet la préhistoire de la Science moderne.

… et les philosophes en firent le déterminisme causaliste théologien

Cette incertitude spéculative n’a pas empêché les philosophes, avides de donner un sens – une intention – à toute existence, de penser, à la suite de Platon [1], que nos causalités induites, si imparfaites, reflétaient cependant un causalisme réel, dans son essence, de l’Univers. Et que nos capacités d’attribution de causalités étaient une adaptation des espèces à la Réalité. Et d’en déduire un déterminisme causaliste essentialiste, que nous qualifierions aujourd’hui de naïf, fait d’enchaînements de causes à effets et des postulats que tout effet aurait une cause et que les mêmes causes produiraient les mêmes effets.

Aristote, dans sa conception dualiste du Monde a même conçu quatre types de causalités sensés catégoriser l’ensemble de l’Univers, matériel et spirituel.

Avec en fond l’idée d’un destin inévitable – nécessaire disent les philosophes – correspondant à la cause finale d’Aristote ou au dessein divin monothéiste. « C’était écrit ». « Mektoub ».

Les « comment » sont devenus des « pourquoi » sensés donner une signification au Monde, voire des « pour quoi » porteurs d’intentionnalité. Nos représentations du Monde sont devenues des récits, des épopées fédératrices. C’est là la manifestation de notre animisme naturel.

Notons toutefois que de nombreux autres philosophes se sont montrés sceptiques voire ironiques sur ce Principe de causalité.

Playmobil dans l'effet domino
Déterminisme : le jouet d’un effet domino qui n’existe que parce que l’humain en a construit la séquence ?

Un causalisme bien naïf

Le causalisme est particulièrement contre-intuitif lorsque les chaînes de causalité sont des suites de cas uniques faisant plutôt penser au hasard, chance ou malchance, comme moqué dans cette vieille chanson que certains connaîtront peut-être :

Eh bien ! Voila, Madame la Marquise,
Apprenant qu'il était ruiné,
A pein' fut-il rev'nu de sa surprise
Que M'sieur l'Marquis s'est suicidé,
Et c'est en ramassant la pell'
Qu'il renversa tout's les chandelles,
Mettant le feu à tout l'château
Qui s'consuma de bas en haut ;
Le vent soufflant sur l'incendie,
Le propagea sur l'écurie,
Et c'est ainsi qu'en un moment
On vit périr votre jument !
Mais, à part ça, Madame la Marquise,
Tout va très bien, tout va très bien.
Partition de "Tout va trés bien Mme la Marquise" par Ray Ventura
La chaîne causale en chanson

Un causalisme encore vivace…

Les prémisses, comme les déductions, de ce déterminisme causaliste n’ont aucunement la rigueur scientifique moderne. De fait, comme nous le verrons plus loin, il n’y a pas en sciences contemporaines de principe de causalité ni de relations de cause à effet. Cependant de nombreux philosophes s’accrochent encore, implicitement ou même explicitement, à ce concept de causalité, possiblement influencés en cela par leur formation littéraire sur des siècles d’histoire philosophique ou parce que cela entre dans la construction de leurs concepts ontologiques sur le sens et la responsabilité. Nous allons donc nous attacher particulièrement ici à sa déconstruction, en rappelant le célèbre article du mathématicien, logicien, philosophe et épistémologue Bertrand Russell, « Sur la notion de cause » (1913).

Note : certains scientifiques utilisent toujours l’expression « Principe de causalité » mais en lui donnant une toute autre assertion, temporelle celle-là, et qui est de dire que les causes doivent précéder leurs effets. Ou autrement dit, que l’on ne peut pas remonter le temps. Ce principe a permis d’écarter certaines des solutions des équations physiques comme étant « non réalistes » de ce point de vue (voir Causalité (physique) — Wikipédia) et a conduit par exemple Dirac à considérer l’existence de l’antimatière, en lieu et place d’une matière remontant le temps.

… et sa déconstruction russellienne

La loi de causalité, à mon sens, comme beaucoup des idées qui circulent parmi les philosophes, est une relique d’un âge disparu, lui survivant comme la monarchie, seulement parce qu’on suppose à tort qu’elle ne provoque pas de dégâts.

Bertrand Russell – « Sur la notion de cause »
Pomme sur l'herbe

Réfléchissons à partir d’un cas courant :

Une pomme tombe. Quelle en est la cause ?

  • La pesanteur ? Ce n’est pas vraiment ce que l’on appelle habituellement un événement : la pesanteur est une force permanente, présente avant, pendant et après la chute de la pomme, et qui s’applique sur tout ce qui est à la surface de la Terre. Elle s’applique notamment sur les autres pommes qui ne sont cependant pas encore tombées. Et pourtant, la pomme ne serait pas tombée sans cette force : elles serait restée suspendue dans l’espace ! C’est donc bien là une cause nécessaire mais pas suffisante.
  • Le déterminisme génétique de l’arbre qui fabrique et laisse tomber ses pommes pour disperser sa graine ? Comme la pesanteur, cette cause ci est présente avant, pendant et après la chute. Mais sans elle, il n’y aurait ni pommes, ni chute de pommes ! Une autre cause nécessaire mais pas suffisante donc.
  • Le vent qui a secoué l’arbre ? Mais seules les pommes les plus mûres sont tombées. Le vent n’est pas une cause suffisante. Et puis d’autres pommes sont tombées hier, un jour sans vent. Celui-ci n’est donc même pas une cause nécessaire. Mais il a probablement avancé le moment de la chute donnant à cette pomme là et à ses gènes une autre destinée.
  • La maturité achevée de la pomme qui part alors vivre sa vie de nourrisseuse de semeurs de pommiers, humains ou bêtes ? Ce serait donner là une intention à la pomme.
  • Ou alors, plus globalement, la chute de la pomme n’est qu’une péripétie dans le déroulement de deux processus imbriqués et continus issus des hasards de l’évolution des espèces et s’entretenant l’un l’autre en ayant produit conjointement des pommiers générateurs de pommes et des mangeurs de pommes, semeurs de pommiers.
    Nous serons bien d’accord pour dire que c’est là la réponse la plus satisfaisante.

Dans son article, Bertrand Russell recommande d’éliminer le concept de causalité du vocabulaire philosophique. Il se base d’abord sur ce que la Science n’utilise pas la relation de cause à effet qu’elle a remplacée par la dépendance fonctionnelle continue des éléments, avant de déconstruire les notions d’événement, de cause et d’effet, ce que nous rappelons ici à partir de notre exemple de la pomme :

  • Cet exemple, nous révèle que la Nature, le Monde, l’Univers, la Réalité,… constituent un TOUT s’auto-construisant en interagissant en permanence sur lui-même, en une infinité de rétroactions continues.
  • Ce que nous appelons « événement » n’est en général qu’une péripétie dans ces processus continus, péripétie ayant retenu notre attention parce que revêtant pour nous une importance subjective.
  • Ces événements ne sont d’ailleurs le plus souvent que des discontinuités dans les phénomènes, accidents contingents provoqués par les non-homogénéités de notre environnement.
  • Chaque « événement » ainsi retenu émerge en fait de situations complexes jamais analogues et ses frontières physiques et temporelles sont relativement indéfinies. De ce fait, aucun « événement », même similaire n’est identique. On ne peut donc parler de régularités parfaites et en déduire des lois de prédictibilité absolues.
  • Le concept de causalité suppose une succession temporelle, la cause étant suivie de l’effet, ce qui ne correspond pas à la réalité des phénomènes physiques (cf. la pesanteur par rapport à la chute de la pomme).
  • Le concept de causalité est un anthropomorphisme : en fournissant des « parce que » répondant à des « pourquoi » (voire à des « pour quoi ») il fait inconsciemment l’analogie entre cause naturelle et volition (action volontaire) humaine. Son explication des phénomènes sous la forme d’intentionalités, de raisons, attribue ainsi une signification, voire un sens, forcément subjectifs, à la Nature (comme lorsqu’on dit que le pommier fait des pommes pour se reproduire). La notion de cause est animiste.
  • Cela entraîne notamment une dissymétrie entre éléments actifs (ceux de la cause) et éléments passifs (ceux de l’effet) qui n’a aucune réalité comme le montre par exemple l’examen des forces physiques à l’oeuvre au niveau de la matière et que rappelle volontiers le mathématicien Cédric Villani en déclarant malicieusement :

Nous savons que la matière interagit en échangeant des photons mais personne ne peut dire dans quel sens ! [2]

Cédric Villani

Faites l’expérience d’essayer de construire un lien de cause à effet sur un quelconque phénomène naturel et vous vous rendrez compte que vous ne pourrez y parvenir sans attribuer à la supposée cause une responsabilité voire une intention. Ce sont là des biais cognitifs dits biais d’anthropomorphisme et biais d’intentionalité.

Il sera certes impossible d’écarter totalement un principe de causalité qui règle les valeurs, fondamentales dans nos sociétés, de la responsabilité et du droit. Mais ne pas oublier d’examiner les phénomènes d’un point de vue holistique et dans leur durée, et ne pas confondre causalité et corrélation ou coïncidence, rapprochera immanquablement de la vérité.

En finir avec le déterminisme scientifique laplacien

Vinrent alors Newton, la mécanique classique…

Notre histoire de pomme nous ramène à Newton dont la légende dit qu’il conçut sa théorie de la physique classique après avoir vu chuter une pomme.

Il n’y a pas en Sciences d’événements ni de chaînes de cause à effet.

Depuis Newton [3] en effet, les équations scientifiques se limitent à décrire les relations entre grandeurs d’un système comme par exemple l’attraction F entre deux corps de masses m1 et m2 distants de d :

F = m1 . m2 / d2

Et tous les phénomènes évoluent de façon continue par le fait de ce type d’interactions ainsi quantifiées par les Lois de la Physique.

La science contemporaine utilise même les concepts de « conservation » – conservation de l’énergie, de la quantité de mouvement, du moment cinétique,… – et de symétrie (homogénéité de l’espace-temps), marquant ainsi la continuité des phénomènes dans l’espace comme dans le temps.

La Science contemporaine ne dit plus le « pourquoi » (encore moins le « pour quoi ») mais dit le « comment ».

… et le déterminisme scientifique, dit « laplacien »

L’idée que l’évolution continue de tous les éléments de la Nature, du plus petit atome aux plus grands amas interstellaires, serait déterminée par des lois imprescriptibles, « nécessaires », au sens où elles traduiraient l’ensemble des contraintes naturelles, a conduit à un nouveau type de déterminisme, le déterminisme scientifique, dit « laplacien » [4]. En affirmant une prédictibilité absolue – chaque état instantané de l’Univers, de la plus petite à la plus grande de ses composantes, est déterminé à partir de l’état précédent par les Lois de la Physique, qu’elles nous soient ou non connues – ce déterminisme est en fait un fatalisme : l’évolution de l’Univers et de tout ce qui le compose serait inéluctable.

Le succès et l’efficacité de la Physique classiquenewtonienne – a contribué, et contribue encore aujourd’hui, à diffuser ce déterminisme. Y compris dans les sciences dites « molles » (sciences humaines, sciences économiques et sociales…) voulant imiter la rigueur mathématique de la physique (avec sans doute parfois l’arrière-pensée de promouvoir un certain nécessitarisme : « There is no alternative! »).

Le biais épistémologique du déterminisme laplacien

Le déterminisme scientifique, laplacien, dit en quelque sorte :

  1. Les équations de la Physique me permettent de faire des prédictions justes
  2. Ces équations sont donc une représentation vraie de la Réalité
  3. Or ces équations sont déterministes
  4. Donc la Réalité est déterministe

Mais :

  1. La première prémisse est fausse, les prédictions de la physique classique ne sont justes que de manière approchée, plutôt statistique. Elles sont même fausses en ce qui concerne la réversibilité temporelle.
    La trajectoire du boulet de canon n’est pas exactement parabolique. La plume et la pierre ne tombent à la même vitesse que dans le vide. Les calculs de trajectoire des planètes ont dû être corrigés par la physique relativiste. La réversibilité temporelle des équations est synonyme de mouvement perpétuel.
  2. La première prémisse étant fausse, les équations de la physique classique ne sont pas une représentation vraie de la Réalité.
    Et par ailleurs, elles ne représentent pas TOUTE la Réalité.
    Elles n’adressent pas en l’occurrence les domaines de la thermodynamique, de la chimie, de la biologie ou de la physique quantique.
  3. Ces équations ne sont pas vraiment déterministes dans la mesure où elles ne sont pas toujours intégrables : suivant les valeurs et le nombre des paramètres, des singularités apparaissent conduisant à un nombre de solutions infinies.
    Ainsi à partir de 3 corps en interaction la convergence des équations est infiniment longue, et dès que l’on dépasse 5 corps des singularités irréalistes apparaissent (Wikipédia – Problème à N corps).
  4. Les prémisses précédentes étant fausses, le déterminisme de la Réalité n’est pas démontré par le déterminisme de sa représentation.
    Mais de plus, si l’on accepte l’approche réductionnisme du déterminisme laplacien, l’indéterminisme de la physique quantique balaye toute possibilité de déterminisme pour la Réalité toute entière.
    L’approche réductionniste considère en effet que les propriétés globales de la Réalité découlent des propriétés élémentaires de chacune de ses composantes. Et donc il suffit que l’un des domaines de la Réalité ne soit pas déterministe, pour que la Réalité toute entière ne puisse l’être.

L’indéterminisme quantique

Le déterminisme a finalement été vaincu par la révolution quantique. Werner Heisenberg et son principe d’incertitude (ou principe d’indétermination) lui ont porté le premier coup, l’expérience des fentes de Young le second. La tentative d’interprétation déterministe de la mécanique quantique élaborée par Albert Einstein, Boris Podolsky et Nathan Rosen (le fameux « Paradoxe EPR ») a été mise en défaut par les célèbres « Inégalités de Bell » (du physicien John Bell), lesquelles ont été expérimentalement validées par la non moins fameuse « Expérience d’Aspect » (du physicien Alain Aspect).

La perte entropique d’information

Nous venons de conclure que la Réalité ne peut être déterministe selon le point de vue réductionniste. Nous allons maintenant voir qu’elle ne peut non plus l’être selon le point de vue holistique.

Le second principe de la thermodynamique a la particularité extraordinaire d’être à la fois en accord avec la théorie de la relativité générale et avec celle de la physique quantique des champs. L’immense Einstein lui-même la considérait comme la loi la plus importante de la physique. Or que dit le second principe de la thermodynamique ? Il dit que :

L’entropie de l’Univers (c’est à dire son nombre d’états possibles) ne peut que croître.

(On peut trouver d’autres formulations suivant le domaine considéré, mais elles sont toutes équivalentes).

Cela signifie qu’il ne peut globalement y avoir que perte d’information ce qui conduit à un Univers indéterministe.

En fait il peut y avoir localement baisse d’entropie compensée par l’augmentation de l’entropie environnante comme pour l’entropie des organismes vivants. Mais dans ce cas il y a à la fois création d’information (celle correspondant à la constitution de la structure vivante, correspondant à une baisse locale d’entropie) et destruction d’information (celle correspondant à la consommation d’énergie et de matière par la structure vivante, correspondant à une augmentation locale d’entropie). Création comme destruction d’information sont toutes deux ruptures de déterminisme.

Les hasards de l’émergence

Le nouveau paradigme circulaire de l’auto-construction

  • Qu’est-ce qui courbe l’espace-temps ? La présence de masses.
  • Qu’est ce qui crée les masses ? La courbure de l’espace-temps.
    (Celle-ci détermine en effet la trajectoire des masses et conduit à leur accrétion en masses de plus en plus importantes. Ainsi s’est formé notre système solaire.)

Cet exemple introductif (s’appuyant sur la théorie de la relativité générale) a pour but de nous défaire du schéma newtonien de lois physiques préexistantes et absolues pour nous introduire dans un autre paradigme selon lequel de telles lois absolues n’existent pas. Il y aurait une structure complexe composite, l’Univers et toutes ses composantes, s’auto-construisant et évoluant par l’effet de ses propres rétroactions. Ce nouveau paradigme fait appel aux symétries et brisures de symétrie.

Qu’est une loi naturelle ?

Puzzle
Puzzle

Imaginons un puzzle géant un peu particulier dont les éléments auraient chacun leurs bords découpés de façon irrégulière et pourraient éventuellement ou non s’emboîter exactement avec certains autres mais pas avec tous. C’est la forme de cette découpe qui définit leur possible interaction. Si une forme est peu récurrente, la probabilité de trouver un élément partenaire s’adaptant à cette forme sera faible et nous aurons tendance à dire que ce sera là un coup de chance, l’effet du hasard. Si par contre cette forme est courante, alors les couplages seront fréquents et nous repèrerons là une régularité. Nous considèrerons cette forme comme une loi d’interaction pré-conçue générale, applicable aux éléments et déterminant leur assemblage.

Ces éléments de puzzle sont une métaphore pour les différents éléments de l’Univers en commençant par les particules élémentaires avec leurs caractéristiques d’interaction propres, en continuant par les différents assemblages d’atomes, de molécules plus ou moins grandes avec leurs capacités différentes d’interaction.

Ce que nous appelons lois physiques ou lois naturelles ne sont rien d’autre que des structurations agissantes issues du hasard mais dont la récurrence – et la probabilité d’être – est plus grande que pour celles que nous ne considérons pas comme telles. Un anthropomorphisme donc.

On peut par contre imaginer qu’au niveau de la physique quantique, le faible nombre de types de structures différentes produira comparativement plus de régularités qu’à un niveau plus complexe comme par exemple celui des organismes vivants où il y a une plus grande variété et complexité de structures.

Le rôle des brisures de symétrie

La symétrie pour les physiciens, c’est l’homogénéité. Une structure est symétrique dans l’espace, ou dans le temps, ou en rotation, lorsque ses propriétés interactives sont conservées en tous points de l’espace, ou tout le temps, ou dans toutes les directions. Mais un espace-temps homogène c’est justement un espace sans structures et donc sans interactions, donc sans lois de la physique, sans vie.

Dans un tel espace homogène, la brisure de symétrie c’est le grumeau dans la soupe, celui qui va permettre des accrétions et faire émerger structures et interactions afférentes. C’est le grain de poussière qui va ensemencer le nuage et provoquer la pluie qui sinon n’existerait pas dans les conditions terrestres. C’est le corps allogène qui va provoquer la soudaine cristallisation de l’eau en glace comme dans la tragédie des chevaux du lac Ladoga [5]. C’est ce qui, dans l’Univers originel du Big bang, a déséquilibré le ratio particules – antiparticules au profit des premières et a fait ainsi émerger un univers de matière, laquelle sinon s’annihilait avec l’antimatière.

L’existence c’est de la dissymétrie qui structure et qui provoque cette tension qui anime la structure.

Les lois physiques, ce sont ces tensions des dissymétries. Comme la dissymétrie qui nous fait différencier le haut du bas et fait tomber les objets. Ou celle du champ électromagnétique qui donne une direction aux particules. Ou celle qui va donner des masses différentes aux objets, ralentissant les plus lourds. La plus extraordinaire est certainement la dissymétrie du temps non réversible, la « flèche du temps ». Mais d’aucuns commencent à suggérer que la dissymétrie cérébrale qui nous fait différencier la droite de la gauche serait à l’origine de l’émergence de la conscience humaine !

Création et destruction d’information

Ce qui caractérise ces brisures spontanées de symétrie c’est leur caractère aléatoire. Deux verres d’eau identiques placés côte à côte dans le congélateur vont cristalliser chacun suivant des directions différentes et aléatoires. Et on le comprendra aisément si l’on considère que la création d’une structure – ici celle des cristaux de glace – c’est de la création d’information ex-nihilo. À l’inverse, les échanges thermiques avec l’environnement qui accompagnent cette création de structure conduisent à de la destruction d’information dans cet environnement, notamment lorsque de l’énergie active y est transformée en chaleur pour faire fonctionner notre congélateur.

Les phénomènes d’auto-organisation

On appelle auto-organisation ce phénomène de structuration spontanée agrégeant les éléments en structures, les structures en super-structures, et ainsi de suite. Et qui font émerger ce que l’on appelle les lois physiques et qui sont les propriétés interactives afférentes.

Un point important est que à chaque étage correspond la mise sous silence des interactions de l’étage inférieur et l’émergence de nouvelles interactions propres ne pouvant se déduire des interactions des composants isolés. C’est ainsi, pour prendre un exemple simple, que la molécule d’eau présente des propriétés différentes et ne découlant pas des propriétés de ses constituants, l’hydrogène et l’oxygène.

Tout l’existant – amas interstellaires, galaxies, planètes, minéraux, molécules, macromolécules organiques, organismes vivants, sociétés humaines, etc. – n’est qu’imbrication de processus d’auto-organisation comme le montre ce schéma de Erich Jantsch.

L'auto-organisation de l'Univers
L’auto-organisation de l’Univers D’après Erich Jantsch, Pergamon, 1980

L’Univers non déterministe

L’Univers et toutes ses composantes s’auto-construisent et s’auto-organisent donc par leur propre existence.

Cependant le nombre et la variété des interactions sont incommensurables. Ils sont tels que chaque instant de l’Univers est unique et n’a aucune probabilité de se reproduire à l’identique. L’Univers présente une suite unique d’états uniques.

C’est là exactement la définition du Hasard au sens de Levin-Chaitin dans la théorie algorithmique de l’information et qui définit une suite aléatoire par son incompressibilité algorithmique. Wikipédia en donne l’exemple suivant :

… la suite ‘01010101…’, qui est visiblement non aléatoire est descriptible en peu de mots : « répéter 01 à l’infini » (ce qui est l’équivalent d’un programme), alors que la suite ‘0110100101111001…’ n’est descriptible qu’avec le programme : « écrire ‘0110100101111001…’ » qui est un programme au moins aussi long que la suite elle-même.

Wikipédia – Suite aléatoire

Note : Il est cependant des suites faussement aléatoires et qui sont en fait déterministes. Un exemple en est la suite des décimales de PI (π) = 3. 14159265358979323846264338379… qui semble aléatoire mais qui peut s’exprimer par le simple algorithme de calcul de cette constante. Ce ne sera cependant pas le cas de notre Univers, car les phénomènes de brisure spontanée de symétrie et d’émergence constituent des ruptures aléatoires dans les chaînes interactives, s’accompagnant de création et de destruction d’information.

Notre Univers et ses composantes sont donc globalement non déterministes.

La prédictibilité stochastique

Les régularités de l’Univers non déterministe

Ce n’est pas parce que l’Univers est globalement non déterministe qu’il ne contient pas des processus présentant une certaine prédictibilité. Si ce n’était pas le cas, la vie telle que nous la connaissons serait d’ailleurs impossible. Et effectivement certains des phénomènes de l’Univers présentent des régularités. Ce sont celles-ci qui ont été identifiées comme Lois de la Physique, ou Lois de la Nature, ou Lois du Vivant, par les humains.

La prédictibilité des phénomènes est associée à l’existence de structures concrétisant information et lois du comportement.

Nous allons voir que :

  • les structures conditionnent le Hasard,
  • c’est ce conditionnement qui constitue les lois de la Nature émergeant avec les structures.

Le modèle de la planche de Galton

Nous utiliserons l’exemple de la Planche de Galton pour imager ce concept.

Planche de Galton

La Planche de Galton : les billes rouges (les points rouges sur la figure) empilées dans le bas de l’appareil correspondent à la fonction de masse de la loi binomiale, la courbe bleue correspond à la densité de la loi normale.
(Chrischi, Public domain, via Wikimedia Commons)

La Planche de Galton à l’oeuvre

La figure précédente représente une Planche de Galton et la vidéo ci-dessus montre son fonctionnement.

Le parcours de chaque bille est individuellement aléatoire, imprédictible. Le hasard de ce parcours est toutefois soumis à trois conditionnements qui sont : 1) la pesanteur, 2) la surface de la planche, et 3) la structure binomiale des guides sur la planche. Et si chaque parcours individuel est imprédictible, le résultat global mesuré sur un grand nombre de billes est statistiquement formaté par la structure binomiale de la planche. Le Hasard a été conditionné, « pipé », par la structure de la planche.

Le hasard est stochastiquement conditionné par les structures

Si l’on élargit maintenant cela sur l’exemple d’un caillou dévalant la pente d’une montagne, tournoyant et rebondissant de roche en roche, nous pourrons également dire que sa trajectoire est aléatoire. Elle sera cependant conditionnée par la topologie du terrain traversé. Multipliée sur un grand nombre de cailloux suivant la même voie, elle aboutira à une avalanche dont la forme statistiquement prédictible de l’accumulation au bas de la pente reflètera la topologie du terrain traversé.

Allons plus loin. Le conditionnement de l’écoulement des eaux de montagne par la structure de la pente contribue à créer le lit du torrent qui contiendra désormais cet écoulement. La structure conditionne le hasard et finit par fabriquer une structure déterministe.

De la même façon :

  • les électrons à l’intérieur d’un conducteur ont un mouvement aléatoire sur lequel l’application d’un champ électrique va introduire une légère directivité induisant ainsi statistiquement un courant électrique.
  • les mutations aléatoires du vivant sont sélectionnées par leur avantage reproductif.
  • la descendance de chaque individu est aléatoire, fonction non seulement des mutations mais également du mélange des gènes parentaux.
  • Le développement des cellules du fœtus est aléatoire mais conditionné par l’ADN. Avec un résultat statistiquement prédictible : les chiens ne font pas des chats !
  • La structure de l’espace-temps courbé et avalé par la Terre conditionne les trajectoires des corps célestes passant là par hasard.
Courbature de l'espace-temps avalé par la Terre
Courbature de l’espace-temps avalé par la Terre

De la prédictibilité probabiliste à l’illusion de la maîtrise…

Ce conditionnement du hasard par les structures est omniprésente dans le Monde et c’est ce qui nous le rend intelligible c’est à dire partiellement prédictible bien que probabiliste. Ce conditionnement lorsqu’il est récurrent (ce qui ne constitue pas tous les cas) est repéré comme régularité constitutive de ce que nous appelons les lois de la physique, de la nature, de la biologie, etc.

La complexité de ce conditionnement est relative à la complexité des structures concernées. Et on imagine que cette complexité atteint des sommets pour les organismes vivants. Jusqu’à nous faire croire à une maîtrise des événements en ce qui nous concerne ! C’est l’illusion du libre arbitre.

Notes et références

  1. Platon : « Sans causes nécessaires il n’est possible ni d’appréhender les causes divines elles-mêmes, qui constituent les seuls objets de nos préoccupations, ni ensuite de les comprendre ou d’y avoir part en quelque façon ».
  2. Le photon n’a pas de temporalité. De son point de vue, le temps ne s’écoule pas et il est simultanément en tous points de son trajet, aussi distants soient-ils.
    Sur l’interaction de la matière, voir cette vidéo pédagogique : ScienceClic – Les forces sont elles des illusions ?
  3. Philosophiae naturalis principia mathematica (latin pour « Principes mathématiques de la philosophie naturelle »), l’œuvre maîtresse d’Isaac Newton publiée à Londres en 1687, est l’acte de naissance de la Physique classique dite « newtonienne ».
  4. D’après la célèbre déclaration de Pierre-Simon de Laplace dite du « Démon de Laplace » : « Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui pour un instant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. »
    Pierre-Simon de LaplaceEssai philosophique sur les probabilités.
  5. Les chevaux du lac Ladoga : on rapporte qu’en 1942, lors du siège de Léningrad, un millier de chevaux de l’artillerie russe fuyant l’incendie des combats se jetèrent dans le lac Ladoga lequel gela alors instantanément en les emprisonnant.
    L’astrophysicien et vulgarisateur Hubert Reeves reprend ce récit et le tient pour véridique dans son livre L’Heure de s’enivrer (1986). Il émet l’hypothèse que le gel quasi instantané de l’eau du lac fut causé par un changement de phase rapide dû à l’état présumé de surfusion de l’eau au moment de l’incident.

Publicité

Une réflexion sur “Causalité, déterminisme, hasard et prédictibilité

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.