Introduction
Nous nous efforçons de montrer que la complexité des théories modernes que nous constatons est liée, en partie, à la description que nous en faisons avec nos concepts hérités de la mécanique classique.
Nous arriverons à la conclusion qu’il faut définir un nouveau paradigme.
Le paradigme de la lumière
La lumière ne doit pas être pensée, comme en mécanique classique, comme une onde (ou même un photon) se propageant dans un espace absolu (fictif) à la vitesse (constante et relative au référentiel où elle est observée) d’environ 300 000 km/s mais comme un objet physique spatio-temporel, associé à une ligne d’univers de type nul, caractérisé un paramètre physique (de type fréquence) comme le décrit la relativité.
Dans le langage de la relativité originelle, on cherchait à se raccrocher aux concepts de temps et d’espace newtoniens en balisant les référentiels galiléens en temps et espace. Le paramètre dynamique était, en général, le temps propre défini dans ce référentiel galiléen (résultant du ds²).
Comme sur une géodésique nulle (d’où son nom) ce paramètre de temps propre est nul, on considérait qu’on ne pouvait pas parler de « référentiel » pour la lumière puisque ce type de synchronisation n’était pas possible.
Mais la notion de géodésique nulle, plus moderne (introduite par Minkowski en 1907) montre qu’on peut se passer de cette contrainte sans restriction de généralité.
En effet, si le temps propre ne peut pas être utilisé sur un géodésique nulle, on utilise, en général, l’impulsion relativiste directement lié à la fréquence du photon (ou de manière plus classique de l’onde électromagnétique que nous désignons par lumière).
Notons que cette fréquence qui est mesurée sur une ligne d’univers de type temps peut être arbitraire puisque que ce sont les rapports entre les fréquences mesurées sur différentes lignes d’univers de type temps qui ont un caractère physique.
Avec cette description le mystère de la constance de la vitesse de la lumière disparait, puisque, intrinsèquement associée à une géodésique de type nul, c’est une propriété intrinsèque géométrique (une géodésique de type nul, reste de type nul par toutes les transformations géométriques).
Mais rappelons, encore une fois que l’existence de ce repère, formé par un ensemble de géodésiques nulles, ne préjuge pas de l’existence d’un quelconque rayonnement de fond, même si cela peut être le cas dans certaines solutions de la relativité générale!
La représentation fréquentielle, permet-elle une ouverture vers une relation d’indétermination et en conséquence une possible quantification?
Formellement, mathématiquement, la relation entre la représentation par des valeurs géométriques continues d’espace et de temps et la représentation par des ondes se fait en utilisant des transformées de Fourier, directe ou inverse selon le sens de la transformation.
Une des propriétés, bien connue, de cette transformations est une indétermination.
En supposant que, pour caractériser un photon et sa propagation, on utilise une ondelette, sa position et sa fréquence ne peuvent pas être connues simultanément avec une précision infinie.
C’est d’ailleurs bien cette propriété qui est la source de cette relation d’indétermination en mécanique quantique.
Ici en relativité pourrait-on aussi utiliser cette propriété pour ouvrir une voie vers la quantification de la théorie?
Il semble que cette piste n’ait pas été explorée.
Motivation de ce paradigme
En complément de ce qui a été dit précédemment, ajoutons que ce choix est également motivé et corroboré par le rôle structurel que joue la lumière dans la causalité et dans la définition de la structure des espaces temps (congruences de directions principales nulles aboutissant à la classification de Petrov, le formalisme de Newmann-Penrose pour ne citer que quelques exemples.
Notons que ce paradigme trouve une illustration matérielle dans le modèle standard de la cosmologie avec le rayonnement de fond cosmologique RFC (CMB- Cosmological Microwave Background) qui remplit tout l’univers et peut servir de référentiel matériel: on peut dater relativement les événements si on sait mesurer la fréquence (impulsion des photons) RFC au voisinage immédiat de l’événement.
Nous verrons qu’avec ce paradigme, tous les pseudo-paradoxes trouveront une explication simple et naturelle que nous illustrerons.
Rappel : Quand nous parlons de lumière, en fait nous parlons des ondes électromagnétiques, en général, dont c’est le fait que la vitesse est constante dans tous les référentiels galiléens et constitue un limite maximale (mesurée dans n’importe quel référentiel de type temps) qui est la source de la structure “hyperbolique” des espace-temps de la relativité (restreinte et générale)
Il va de soi qu’il devra en être de même pour les autres objets de la nature, qui doivent être décrits et expliqués dans le cadre des concepts, par vraiment évidents, de la théorie correspondante.
Cette démarche n’a pas la prétention de permettre de tout expliquer, mais de mieux comprendre au moins, ce que nous connaissons offrant ainsi une base solide pour faire progresser cette connaissance.
Commençons par une réflexion sur la connaissance en l’état de l’art.
Complexité réelle ou apparente ?
Note : Ce post comporte un extrait de la page : Espace-temps. Coordonnées : celles de type nul, conduisent à un nouveau paradigme. Géodésiques principales nulles. Quelle réalité physique révélée ?
On ne peut être que frappé par la complexité mathématique qu’il faut mettre en œuvre pour établir des théories qui tentent de rendre compte des phénomènes tels qu’on les observe. L’exemple donné dans les chapitres précédents n’en donne qu’un pâle reflet. Les théories comme celles des cordes, des twisteurs, de la gravitation à boucles et dans une moindre mesure de la relativité, de la mécanique quantique et de la théorie des champs quantiques demandent des connaissances très approfondies en mathématiques pour y comprendre quelque chose, ce qui n’est pas à la portée de ” l’homme de rue”. Pourtant l’homme de la rue, comme tous les autres, subit ces lois de manière naturelle.
Une disproportion flagrante
Quelle disproportion flagrante ! On se demande pourquoi les lois de la nature que nous subissons nous paraissent aussi compliquées ! Y-a-t-il une raison à cela ? Ne seraient-elles pas aussi efficaces si elles étaient bien plus simples ? Doit-on attribuer cela à la complexité intrinsèque de la nature elle -même, du moins telle qu’elle nous apparaît (les phénomènes), ou à l’indigence relative de notre esprit [0] et de nos sens, puisque cette complexité est appréciée par eux.
Ce serait comme regarder un objet avec un très mauvais instrument qui en donnerait des images éclatées, déformées et floues.
En effet, nous sommes « optimisés » pour vivre, se reproduire et prospérer dans une monde bien délimité qui est notre planète baignée par le Soleil. Ainsi, nos sens qui fournissent l’information à notre esprit sont adaptés. Pour la vue, par exemple, sa sensibilité maximale est pour le jaune rayonnement majoritaire dans l’astre du ciel. Ceci qui n’est pas fortuit est bien décrit par le Darwinisme.
Quant à notre cerveau sa fonction première a été de gérer « l’intendance », à savoir, survie, reproduction et les fonctions vitales. Si des mutations de notre cerveau permettant des stratégies plus élaborées et performantes se sont produites et ont perduré, c’est du fait de l’avantage qu’elles ont conférées à ceux qui en avaient hérité.
Cette évolution a fait évoluer nos structures mentales vers une plus grande complexité et d’abord , sans doute marginalement, il s’est avéré que ces structures ont pu servir à d’autres fins débordant largement le minimum vital. Représentation artistique, contemplation de la nature et conscience des mouvements saisonniers, admiration du ciel étoilé et reconnaissance de structures utiles es étoiles pour se repérer , reconnaissance de régularités et de règles dans la nature telle qu’elle se présentait à eux. Ces phénomènes, d’abord attribué à des « divinités », ont fini par susciter une réflexion autre qui doit s’apparenter à la naissance d’un esprit scientifique.
Tout cela s’est bien développé jusqu’à atteindre un niveau de sophistication élevé , mais dans le contexte limité de notre environnement qu’on qualifiera ici de mésocosme.
Alors, il n’est pas surprenant que lorsque nous étendons notre champ d’investigation au macrocosme (l’univers) ou microcosme (monde quantique) notre cerveau et les outils qu’il s’est forgé ne soient pas adaptés et que ces mondes nous paraissent bien mystérieux, distordus et étranges vus par certains outils de notre esprit.
Remarquons que les mathématiques restent cependant l’outil le plus performant de notre esprit, à témoin, la représentation mathématique très concise d’espace-temps en relativité générale, un concept incompréhensible pour nous car détruisant nos concepts de temps et d’espace conçus comme données immédiate de notre conscience.
Idem pour la mécanique quantique et théorie des champs quantiques où un formalisme, que Feynman qualifiait d’incompréhensible, décrit plutôt bien les phénomènes, bousculant d’autres a priori de notre entendement (déterminisme).
Il faut donc se faire à l’idée que le macrocosme et le microcosme ne nous sont pas familiers et bousculent nos idées mais que ce sont les mathématiques qui ont probablement raison et que ce sont nos idées a priori (qui ne seraient que des habitudes de pensée) qu’il faut revoir.
Ceci dit, par exemple, la superposition d’état en mécanique quantique qui nous semble étrange, ne l’est pas forcément, car si on est tenté par une description mécaniste du microcosme, (des objets bien identifiés dans un contexte spatio-temporel bien identifié) qui serait l’extrapolation du mésocosme, on voit mal comment certaines propriétés du mésocosme pourraient en résulter. Tout risquerait d’être si déterministe que le monde possible serait « figé ». On voit mal aussi comment la conscience pourrait émerger d’un tel monde déterministe.
Pour le macrocosme, certains paradoxes sont inexplicables si on considère le temps et l’espace comme des données indépendantes et objectivement physiques;
Ceci n’est pas dit pour inciter à un renoncement mais au contraire pour faire évoluer une partie de notre esprit afin de mettre ses concepts en accord avec ce que les mathématiques nous enseignent, autrement dit d’être cohérent avec autre partie de lui-même!
L’intrication du processus de connaissance
Faisant partie de l’univers, nous sommes soumis à ces lois, y compris notre esprit et nos sens, ce sont elles qui sont à l’œuvre dans notre raisonnement et les validations “physiques” qu’on peut en faire. On conçoit que cela impose des limites structurelles à la connaissance : Nous cherchons à comprendre les lois par un procédé qui lui même y est soumis.
On peut alors s’étonner qu’on puisse faire des constructions mathématiques aussi élaborées qui vont bien au delà des données immédiates que l’expérience quotidienne nous présente et qui semblent, pour certaines, même être sans rapport avec elles.
C’est possiblement lié au phénomène de la conscience qui implique une réflexion du sujet sur lui-même : la modélisation “abstraite” du monde physique construite par notre esprit à des fins de prise de décision efficace peut, elle-même, être prise alors comme objet comme modèle de réflexion. Dans les exemples nous montrerons que cette capacité peut nous donner accès à une connaissance plus synthétique de notre monde que celui des phénomènes qu’il nous propose et de ses lois.
A témoin, la puissance heuristique de théories qui prédisent des phénomènes que nous n’avons pas observés et même pas imaginés.
Mais on suspecte que ce procédé ne peut procurer qu’une information incomplète.
Une vision partielle du monde
De ces considérations, il paraît raisonnable se demander, à l’instar de Platon, si les phénomènes, ombres d’une réalité “parfaite”, ne sont pas la source de cette complexité. Ils seraient des fragments probablement incomplets et distordus et, à ce titre, paraissant bien mystérieux, du puzzle représentant une supposée “réalité physique”.
Ce point a fait l’objet d’une abondante littérature, signalons l’article de Majid “Principle of Representation-Theoretic Self-Duality, qui s’efforce de montrer qu’à partir des ces ombres, pour certains types de phénomènes, il est possible d’en décrire la source.
Une ouverture vers un monde non accessible physiquement ?
Les constructions mathématiques complexes de nos théories, ne seraient donc pas forcément liées à la complexité de la nature elle-même mais au fait qu’on en dispose que de fragments épars et distordus. Elles visent alors à essayer de reconstituer (apparemment avec un certain succès tout de même) une meilleure image de la nature à partir de ces bribes disparates et dégradées en fonction de cohérences ou de lois supposées.
Soulignons que c’est une avancée remarquable, car c’est une construction qui va au-delà des “ombres”(phénomènes) que nous observons, autrement dit une connaissance, sans doute incomplète, d’une “réalité” plus synthétique que ses ombres.
Nous vivons dans un certain contexte matériel dont nous ne pouvons pas nous extraire. Le fait que certaines théories (relativité générale s’appuyant sur un espace-temps et mécanique quantique bouleversant nos principes les plus ancrés dans notre esprit) bafouent notre entendement ne doit pas être considéré comme dévastateur.
Au contraire, si ceci ouvre une fenêtre sur un monde qui nous surprend et nous déroute, l’histoire a montré que nous avons adapté nos paradigmes pour les décrire et même si nous sommes troublés par ce que nous avons dû faire, nous l’avons fait.
Et, prenant comme objet, les théories que nous avons dû construire, en les analysant, nous améliorons encore notre connaissance du monde, eu égard aux morphismes supposées entre le monde physique et la théorie le décrivant.
Ces mystères ne doivent donc pas nous dépiter puisqu’ils sont la manifestation d’une possible capacité à comprendre ou au moins imaginer l’inimaginable.
Tout espoir de connaître plus que les ombres n’est pas perdu !
C’est un mystère de la pensée qui, bien que s’exerçant par certains processus matériels (assemblages d’atomes) est capable de produire des constructions formelles que ce type d’assemblage ne laissait pas prédire. Le plus grand mystère pour nous,c’est nous!
Comment en est-on arrivé là ?
Si la démarche darwinienne en propose une description à posteriori, elle montre que cela aurait pu être très différent et on peut se demander, pour d’autres planètes ce qui pourrait bien se produire et résulter ?
Il faut tout de même garder à l’esprit que ce qu’on appelle la validation (en fait le non-rejet) d’une théorie ne peut s’appuyer que sur ces fragments (phénomènes) qui sont les seuls objets qui nous sont accessibles : la théorie doit prédire ces fragments.
Le scientifique va rechercher des lois qui pourraient donner une signification cohérente à la production de ces fragments, sans forcément être capable de découvrir l’image du puzzle complet qui peut être simple (mais on ne la connaît pas)! Une autre question surgit alors : de quelles types de lois, a priori, pour tenter de donner un sens aux fragments qu’il observe, le scientifique dispose et quelle est leur source?
La symétrie comme ultime ou fondamentale connaissance.
Par exemple, on invoque de plus en plus les symétries qui peuvent se manifester par des aspects géométriques ou de façon plus formelle par des invariants par des transformations (groupes de symétries) dans la physique (théorie des champs quantiques par exemple). Il est vrai que quand on sonde la nature dans ses retranchements ultimes il ne reste guère que des relations dont on ne peut extraire que des symétries ! H. Weyl qui s’était intéressé au sujet suggère que nous puisons cet intérêt pour les symétries dans l’observation de la nature (monde minéral, cristaux, végétaux, animaux, ..) : elles sont omniprésentes.
La nature aime la symétrie…
A défaut de décrire la nature dans sa plénitude, le scientifique peut, malgré tout, espérer améliorer sa connaissance de la nature par la diversification et l’acquisition de nouveaux moyens expérimentaux qui vont lui permettre de disposer d’autres fragments voire de toutes les pièces du puzzle, ce qui ne veut pas dire qu’on saura les assembler pour découvrir l’image qu’ils représentent !
Ceci induit que la structure du formalisme des moyens mathématiques mis en œuvre qui ont été couronnés de succès, nous informent sur les lois de la nature car on est fondé de supposer que ce succès résulte d’un morphisme entre la structure des lois de la nature et la structure du formalisme qui prédit correctement les phénomènes que ces lois de la nature nous proposent.
Cela montre l’intérêt que représentent ces formalismes qu’il faut interpréter dans le contexte de ce qu’ils produisent : l’empreinte de la clé adaptée à la serrure représentant la “réalité” physique !
Même à supposer qu’on puisse obtenir tous les fragments, d’une part cela n’impliquera pour autant qu’on saura les assembler correctement pour former une image et d’autre part, même si c’était le cas, qu’on saura bien interpréter cette image, sans doute brouillée, de la nature.
Quelques exemples illustrant ces propos
Relativité restreinte
On connaît la querelle en paternité de la relativité restreinte, Einstein ayant été qualifié par certains de vil copieur !
Il est vrai que Lorentz par les transformations empiriques qu’il a établies, Poincaré par le groupe des transformations de l’espace de la relativité restreinte qu’il a identifié, ont contribué à la genèse de cette théorie, qui “était dans l’air” à l’époque, suite au problème posé par l’électromagnétisme et l’expérience de Morley-Michelson.
Mais il faut reconnaître que c’est Einstein, en 1905, qui lui a donné son fondement en lui donnant un sens physique par le principe de “relativité”. Tous les phénomènes physiques (hormis la gravitation) obéissent aux mêmes lois dans tous les référentiels inertiels qui ne se différencient que par une vitesse (constante) relative.
Ceci suffit, avec le paramètre de la vitesse de la lumière qui est une constante dans tous les référentiels [1] , à contraindre et dériver les équations de la relativité restreinte. En effet ces référentiels se caractérisent par le fait qu’on ne ressent aucune contrainte (les objets “flottent et nous flottons). Dans ces référentiels présentant la même phénoménologie, la physique doit être la même. Aucun n’est privilégié.
Cette situation a fait dire à certains qu’en 1905 on avait toutes les pièces du puzzle, mais que c’est Einstein qui a montré ce qu’elles devaient représenter et donc comment assembler ces pièces.
Notons que dans cette présentation du début de l’histoire de la relativité restreinte, la conception « newtonienne » est encore très présente, via les référentiels inertiels, balisés en temps et espace, procédé désespéré, pour conserver ces concepts de temps et d’espace dans la mécanique relativiste.
Le concept de vitesse de la lumière (une onde par rapport à un référentiel) est une rémanence de l’approche newtonienne. La bonne description est celle d’une ligne d’univers spatio-temporelle de type nul. C’est elle qui contient tous ses attributs en relativité. A noter que cette ligne est toujours une géodésique et que sa notion de vitesse relative par rapport à un référentiel n’a aucune utilité.
C’est toujours la même, seule la fréquence de “l’onde associée” (ou l’énergie du photon) importe et ensuite comment la définir en relativité puisque le temps propre d’une géodésique nulle est nul (on prend en général un autre paramètre qui est associé à l’impulsion donc à la fréquence, ce qui corrobore l’argument avancé. Nous savons qu’en relativité générale, dans certaines solutions, (le modèle standard de la cosmologie moderne par exemple : Big Bang) le rayonnement, de manière générale, peut former un référentiel matériel (CMB) commun à tous les observateurs par rapport auquel n’importe quel “observateur” peut se situer.
L’expérience de Michelson -Morley
Ajoutons que si on considère un rayonnement “stationnaire” qui “remplit” tout l’espace-temps, que seule la fréquence observée va varier selon l’observateur, le résultat de l’expérience de Michelson Morley s’explique parfaitement.
L’effet “Doppler ” vers le rouge dans le sens source vers miroir dans le sens du mouvement, est compensé par l’effet “Doppler” vers le Bleu dans le sens inverse.
Notons la similitude avec l’explication donnée par Lorentz où on parlait de contraction des objets matériels. Le traitement fréquentiel en donne une autre version sans supposer une contraction d’appareillage matériels plutôt rigides !
Dès 1907, Minkowski lui donnera un aspect plus formel et plus synthétique par la définition de l’espace-temps réduisant à des ombres le temps et l’espace.
Le paradoxe de Langevin
Ce progrès conceptuel considérable permet de comprendre des paradoxes comme celui du voyageur de Langevin, incompréhensible en mécanique newtonienne.
Il est encore difficilement compréhensible aujourd’hui, car on s’attache encore à considérer ce voyage dans un espace muni d’une structure fixe sur des trajectoires (lignes dans cet espace fixe entre des points de cet espace fixe) sur lesquelles une fusée accélère à la manière newtonienne.
Ceci ne permet pas une compréhension du phénomène.
Il faut abandonner l’espace et le temps newtonien qui n’existent pas en relativité, et ne considérer que l’espace-temps, où il n’y a pas d’espace fixe, pour comprendre le phénomène !
Il faut considérer les lignes d’univers suivies par les 2 protagonistes (jumeaux ou pas) et mesurer les temps propres associés pour constater le phénomène.
Par rapport à la trame fréquentielle le voyageur voit un décalage spectral vers le bleu par rapport au sédentaire. Ceci veut dire le nombre de périodes par unités de son temps propre est plus grand pour lui que pour son homologue sur Terre.
Dans le voyage complet aller-retour le voyageur et le sédentaire auront compté le même nombre de périodes du rayonnement de fond, (il suffit de faire un schéma pour s’en persuader : le rayonnement de fond oscille de façon synchrone, il fournit une trame temporelle de référence) mais comme le voyageur a compté plus de périodes par unité de son temps propre, il a moins vieilli.
Bien entendu, cela suppose qu’on oublie nos concepts d’espace et de temps usuels au bénéfice d celui d’espace-temps qui ne nous est pas familier.
Un exemple typique où notre entendement est leurré par des habitudes de pensée qui nous pénalisent dans l’appréhension d’une nature physique plus profonde : celle qui est sous-tendue par l’espace-temps, dont un des mystères les plus profond est le rôle de la lumière (ondes électromagnétiques) dont la célérité est finie. C’est cela qui confère à l’espace-temps sa nature (hyperbolique) si particulière et étrange.
Ajoutons que cela résulte de considérations traitant de la cohérence de la connaissance et de la causalité (lié à l’information). En effet c’est pour disposer d’un invariant à la disposition de tous les observateurs qu’on a considéré que lui seul avait un caractère physique, sur la conviction que les phénomènes avaient un caractère “objectif” (coïncidences d’Einstein), ce que la théorie devait respecter. Par ailleurs un événement B ne peut pas avoir été causé par un autre A si l’information lié à cet événement A n’est pas parvenu à l’événement B, lorsqu’il se produit.
Ceci est un modèle, il n’empêche que le caractère et le rôle de la lumière n’est certainement pas totalement compris.
Relativité générale
Il y a eu une petite querelle en paternité entre Einstein et Hilbert qui s’est réglé à l’amiable, Hilbert reconnaissant que l’essentiel de l’analyse du problème était dû à Einstein, sa contribution sur l’équation était simplement la résolution d’un problème mathématique (avec brio, car il a proposé une méthode bien plus générale que celle d’Einstein en définissant une action, l’action d’Hilbert, pour la relativité générale). Einstein qui s’était de son côté attaché à transposer la gravitation sous une forme relativiste avait bien établi son équation avant Hilbert, mais de manière moins élégante.
La forme géométrique de la théorie de la relativité générale qui est une théorie de la gravitation montre qu’on peut décrire, par exemple l’univers, par sa géométrie qui dépend de ce qui constitue l’univers.
Le grand intérêt de cette formulation est qu’elle permet de prendre en compte une “non- linéarité” qui semble nécessaire : tous les objets contribuent à définir la géométrie de l’univers auquel, en retour, tous ces mêmes objets vont se coupler (ils vont suivre des géodésiques de la géométrie de cet univers). La boucle est bouclée.
Magnifique solution mettant en œuvre cette récursivité où l’objet (celui qui fait subir) est aussi le sujet (celui qui subit). Un modèle qui pourrait servir de paradigme pour des phénomènes comme celui la conscience ?
Autre beauté de la solution, l’univers ainsi défini est “auto-suffisant”, (l’espace-temps est défini par ce qu’on appelle une variété en mathématiques) autrement-dit, il n’a besoin de rien d’autre que lui-même pour exister et être totalement défini. Cela élude le problème d’une création et le “réduit” à celui d’une existence.
Mécanique quantique
Généralités
De nombreux scientifiques ont contribué à cette théorie, tellement étrange que son interprétation physique est toujours sujette à débat, même si l’interprétation de l’école de Copenhague fait référence.
Face à la nature étrange, très différente de ce que nous présentait le monde de la physique et mécanique classique, que les scientifiques découvraient il est intéressant de noter l’approche de W. Heisenberg qui proposait d’abandonner tous les concepts de la mécanique classique et de ne considérer que les “observables” (les phénomènes) comme éléments de la théorie.
Elles étaient présentées dans des matrices, associées à un formalisme qui permettait de faire des calculs. D’un autre côté Schrödinger développait une solution avec une équation d’une fonction d’onde, permettant de définir l’état d’un système. On connaît la suite, le formalisme définit aussi des opérateurs associés aux grandeurs physiques (observables), qui appliqués à la fonction d’onde permettait de prédire des probabilités de résultats des mesures des observables.
Le formalisme de Heisenberg et celui de Schrödinger se sont révélés équivalents, ce qui est intéressant, car cela atteste que deux approches fondamentalement différentes pouvaient aussi bien décrire ce qu’on pouvait connaître de la nature.
Théorie, expérience et information
La physique étant une science expérimentale, on oppose souvent théorie, supposée être une pure production de notre esprit pour modéliser et tenter de rendre intelligibles les phénomènes physiques et expérience, la contrepartie du modèle, applicable au monde physique.
Bachelard qui dans son ouvrage, “le nouvel esprit scientifique” développe ce supposé antagonisme, relie la théorie au “rationalisme “(la raison de l’esprit) et l’expérience au “réalisme” (le monde physique). Il s’efforce de montrer que, ces deux aspects ne sont pas séparables totalement et donc plus qu’une opposition, on a affaire à une sorte d’entité unique duale dont réalisme et rationalisme seraient des caractères non totalement séparables et indépendants. Tantôt c’est le rationalisme qui fait progresser la science et le réalisme suit (on fait des expériences pour valider de nouveaux éléments ce que la nouvelle théorie prédit), tantôt c’est le réalisme qui par des expériences inexpliquées va stimuler l’esprit des scientifiques afin de construire une nouvelle théorie qui les explique. Le rationaliste le plus intransigeant ne peut éviter de prendre en compte l’expérience et le réaliste le plus déterminé, pour construire ses expériences, ne peut ignorer la théorie, une expérience étant selon lui une théorie matérialisée. Il conclut : “La physique est une métaphysique impure car elle doit rendre des comptes à l’expérience”.
Une expérience apporte, via des “mesures”, une information sur l’état d’un système. Ces mesures mettent en jeu généralement des instruments qui peuvent être sophistiqués, en vue de s’adapter au phénomène à étudier , d’où la remarque de Bachelard (une expérience inclut une part de théorie matérialisée).
En mécanique classique ceci n’a pas soulevé de débat philosophique notable sur le rôle de l’expérimentateur. On considérait un système à étudier. Il contient une information qu’on souhaite acquérir via un expérimentateur muni de son appareillage. Ces deux systèmes vont entrer en interaction lors de la mesure. Il sont considérés généralement comme deux systèmes indépendants qui reprennent leur “vie” propre après l’interaction.
En mécanique quantique il en est tout autre. La mesure, prélèvement d’une information sur le système, perturbe, réduit, voire détruit, fondamentalement l’information du système . Ce n’est pas un acte passif (ou très faiblement actif) sans conséquences sur le système mais au contraire très actif. L’information n’est pas seulement acquise mais aussi prélevée (donc enlevée au système) et donc va réduire les degrés de liberté du système au point que, d’indéterminé il peut passer dans un état connu.
Illustration par les fentes de Young
Le mécanisme qui conduit à cela a fait l’objet de différentes interprétations, mais, par exemple dans le problème des 2 fentes de Young, le fait de savoir (par un détecteur sur une fente) par quelle fente un photon est passé va modifier, même si le détecteur ne détecte rien (auquel cas on suppose qu’il est passé par l’autre fente) le phénomène observé. Le fait d’acquérir une information même lorsque rien ne se passe est appelé contra-factualité dans certains ouvrages (voir note [3]).
On comprend que, lorsque le détecteur attaché à une fente détecte quelque chose, il prélève une quantité d’information sur l’état, cela modifie le phénomène, par rapport à celui où il n’y a pas de détecteur, car une partie de son information lui a été prélevée et transmise à l’expérimentateur. Globalement l’information semble avoir été conservée si on considère un système qui inclut l’expérimentateur (elle a été transférée d’un sous-système à un autre)
Par contre lorsqu’il ne détecte rien, mais que ceci apporte, la même quantité d’information (l’information opposée sur l’état) c’est moins évident. Curieusement comme on n’a rien détecté, il semblerait qu’aucune information n’a été prélevée et que, comme on a le même résultat que quand on détecte le passage par une fente, on pourrait penser que l’information du système global a augmenté, mais au vu du résultat final, qui est le même du point de vue de l’information (même si celle-ci est différente) cela ne semble pas être le cas.
Peut-être qu’il faut prendre en compte l’activité du détecteur dans le bilan ? Quoi qu’il en soit, ce résultat semble bien étrange.
Par contre, il est clair que c’est le fait qu’il y ait un détecteur dans le dispositif instrumental qui est important et qui différencie la situation par rapport au cas où il n’y en a pas.
Le dispositif expérimental est différent. L’interaction entre l’expérimentateur muni de son instrumentation avec le système est différente.
C’est cela qui, a priori, même si le dispositif expérimental ne détecte rien, parce que l’expérimentateur, qui a construit le dispositif expérimental, a prévu ce cas dans sa quête de l’information, va changer la phénoménologie observée !
Le rôle de l’expérimentateur, s’appuyant sur un modèle théorique, ne peut pas être ignoré. Il s’agit donc bien d’une interaction entre un système physique et l’esprit du physicien muni d’une théorie via son dispositif expérimental.
Certains, comme Wigner, voient dans la phénoménologie de la mécanique quantique observée, l’empreinte prégnante essentielle de l’esprit du physicien.
En mécanique quantique il semblerait alors plus adéquat d’évaluer et de considérer l’information, non pas au système étudié et à l’expérimentateur séparément, mais globalement associée au système global constitué du sous-système physique à étudier et du sous-système lié à l’expérimentateur en interaction, car au moment de l’interaction il ne forment qu’un système !
Si on néglige des erreurs lors de l’expérience, l’information donc l’entropie [2] du système global, considéré isolé, (incluant l’expérimentateur), avant l’expérience et après l’expérience devrait être identique (nous avons vu que la contra-factualité semble soulever un doute). L’information qui a été transférée d’un sous-système à l’autre sous-système reste dans le système global. [3]
Un formalisme, à développer, qui pourrait prendre en compte cela permettrait peut-être d’évacuer certains aspects très perturbants de la théorie…
[0] On peut prêter à notre esprit une indigence structurelle, toutefois remarquons que par sa capacité d’apprendre et d’évoluer nous ne pouvons pas porter de jugement définitif sur un état des lieux fait aujourd’hui. Il faut aussi tenir compte que certains concepts, comme l’espace et le temps, concepts inhérents à notre existence, sont si prégnants, et que malgré tous nos efforts pour s’en détacher, ils sont toujours souvent encore présents, en filigrane, dans nos raisonnements, ce qui en obère la signification. Voir exemple du paradoxe du voyageur de Langevin par exemple, en relativité restreinte.
[1] Ce point structurellement très important, cette limite étant impliquée dans la causalité, résultant du principe de relativité qui révèle un invariant de vitesse mais n’en spécifie pas la valeur. La valeur de de cette constante est une donnée expérimentale. Voir : https://astromontgeron.fr/SR-Penrose.pdf
[2] Entropie et information sont deux présentations du même concept.
[3] Ce transfert d’information est encore plus évident dans l’illustration du problème des fentes de Young par Elitzur-Vaidman cité par R.Penrose (prix Nobel 2021) dans son livre “Les deux infinis et l’esprit humain- Champs Flammarion” où il s’agit de reconnaître dans un lot de bombes atomiques munies d’un détonateur constitué d’un miroir ultrasensible tel qu’un photon l’active en me faisant bouger (mobile), celles qui sont opérationnelles de celles qui sont défectueuses où le miroir est bloqué, ce qui est indiscernable sans la détruire. On insère une bombe dont le détonateur miroir sert de miroir dans un dispositif quantique expérimental, sans savoir si elle est opérationnelle ou défectueuse.
Les auteurs montrent que leur dispositif quantique permet de sélectionner des bombes opérationnelles sans les détruire, en utilisant le mécanisme de contra-factualité. Autrement dit, alors que quand on insère la bombe dans le dispositif on ne sait pas si le miroir est mobile ou bloqué, l’information est dans l’objet, mais pas dans la connaissance de l’expérimentateur, l’expérience va lui révéler cette information, moyennant un protocole, sans enlever cette information à la bombe (ce qui serait le cas par sa destruction pour les bombes opérationnelles). Pour plus d’information, voir par exemple :