Why the formalism of modern physical theories looks so complex? (08/10/21)

One may wonder why the mathematical formalism describing modern theories of physics is so complex. Theories like those of strings, twistors, loop gravity, relativity, quantum mechanics and quantum field theory require an extremely high expertise in mathematics for understanding them, which is not the case of the “layman”.

However, the layman, like everyone and anything else on Earth are constrained by these laws. What a curious discrepancy! Is there a reason for this? Wouldn’t these laws be less effective if they were simpler? Should we attribute this to the intrinsic complexity of the nature itself, at least as it appears to us (the phenomena), or to the relative indigence of our mind and our senses, since this complexity is appreciated by them?  It would be like looking at an object through a kaleidoscope that would give scattered, distorted and blurry appearance of an image.

As part of the universe, we are fully constrained by these laws, including our mind and our senses, which are at work in our theorical search in physics and in the “physical” validations that can be made of it.

We may conceive that this imply structural limits on our knowledge: one tries to understand the constraints of the laws of the nature by a using a mean which is constrained by these same laws!

 It is even surprising that we can make such elaborate mathematical constructions which seem to reveal, at least, part of the mystery to us.

This is possibly linked to the phenomenon of consciousness, which is a kind of recursive process where the subject is considering himself as an object.

From these considerations, it seems reasonable to wonder, like Plato, if phenomena, which are shadows of a “perfect” reality, are not the source of this complexity.

As shadows, they provide incomplete and distorted very mysterious fragments of the puzzle representing a supposed “physical reality” and therefore the complex mathematical constructions of our theories would not necessarily be linked to the complexity of nature itself but to the fact that, what we get are degraded, scattered, distorted and strange fragments of this supposed reality.

The science, then, aim to try to provide us (apparently with some limited success) a better image of nature from these disparate and degraded fragments by processing them with a sophisticated formalism, according to what our mind considers as a reasonable coherence per the structure and knowledge of our brain .

We must still keep in mind that what we call the validation (in fact the non-rejection) of a theory can only be based on these fragments (phenomena) which are the only objects that are available to us.

Therefore, a reasonable theory would not predict the physical reality but its related fragments which are the only objects than we can check.

The process is quite tricky as scientist will look for laws which could give a coherent meaning to the production of these fragments, without necessarily being able to discover the image of the complete puzzle which may be simple but which is unknown!

Another question then arises: what kind of, a priori, paradigms to use for trying to make sense to the fragments that the scientist observes, and where do they come from?

For example, more and more symmetries are invoked which may be represented directly by geometric parameters or more formally by invariants under transformations (groups of symmetries) in physics (quantum field theory for example).

 It is true that when one looks to the nature in its ultimate entrenchments there is hardly anything left but relations, from which one can only extract symmetries!

H. Weyl, who was interested in the subject, suggests that this strong belief in symmetries is suggested by the observation of nature (mineral world, crystals, plants, animals, etc.) where symmetries are omnipresent.

From this, one is led to deduce that nature loves symmetries …..

Failing to describe nature in its full extension, the scientist may hope to improve his knowledge of nature by the diversification and the acquisition of new experimental means which will allow him to get other fragments and even all the fragments of the puzzle. But this does not mean that we will know how to assemble them for discovering the image that they represent!

 But, the fact that formalisms providing useful information on some phenomena exist,  their structure should result from a morphism between the structure of the laws of nature and the structure of formalism which predicts the phenomena that these laws of nature offer us. This shows the interest represented by these formalisms which must be interpreted in the context of what they produce: a key for giving sense to the set of fragments!

But, even assuming that we can obtain all the fragments, on the one hand this will not imply that we will know how to assemble them correctly to form an image and on the other hand, even if it were the case, that we will know how to interpret this image, undoubtedly blurred, of nature.

Some examples illustrating these words

Special relativity

We know the quarrel over the paternity of special relativity, Einstein having been called by some people a “copycat”! It is true that Lorentz, by the empirical transformations he established, Poincaré by the group of special relativity spacetime transformations that he identified, contributed to the genesis of this theory, which “was in the air ”at the time, following the problem posed by electromagnetism and the Morley-Michelson experiment. But it must be recognized that it was Einstein, in 1905, who gave it its foundation, giving it a physical meaning through the principle of “relativity”. All physical phenomena (except gravitation) obey the same laws in all inertial frames of reference which are differentiated only by a relative (constant) velocity. This principle allows, with the parameter of the velocity of light which is a constant in all the frames of reference, to constrain and derive the equations of special relativity. Indeed, in all these inertial frames (called galilean frames), we do not feel any constraint (the objects “float and we float”). Therefore, as in such galilean frames the phenomenology is the same, the physics must be the same. None are privileged. The constant experimental value of the celerity of light specifies a parameter of the theory. This situation led some people to say that, in 1905, we had all the pieces of the puzzle, but it was Einstein who discovered what they should represent and therefore how to put these pieces together.

General relativity

There was a small paternity dispute between Einstein and Hilbert which was friendly settled  by Hilbert acknowledgement that most of the analysis of the problem was due to Einstein, his contribution to the equation was simply the resolution of a mathematical problem (brilliantly, because he proposed a method much more general than that of Einstein by defining an action, the action of Hilbert, for general relativity). Einstein, who for his part was committed to transposing gravity into a relativistic form, had established his equation well before Hilbert, but in a less elegant way. The geometrical form of the theory of general relativity which is a theory of gravitation shows that we can describe, for example the universe, by its geometry which depends on what constitutes the universe. The great interest of this formulation is that it makes it possible to take into account a “non-linearity” which seems necessary: all the objects contribute to define the geometry of the universe to which, in turn, all these same objects will be coupled ( they will follow geodesics of the geometry of this universe). The circle is completed. Magnificent solution implementing this recursion where the object is also the subject. A model that could serve as a paradigm for phenomena like consciousness? Another beauty of the solution, the universe thus defined is “self-sufficient”, in other words, it does not need anything other than itself to exist and to be totally defined. It eludes the problem of creation and “reduces” it to that of its existence.

Quantum mechanics

Many scientists have contributed to this theory, so bizarre that its physical interpretation is still open to debate, even if the Copenhagen School’s interpretation is the reference. Faced with the strange nature, very different from what the world of classical physics and mechanics presented to us, that scientists were discovering, it is interesting to note the approach of W. Heisenberg who proposed to abandon all the concepts of classical mechanics and to consider only the “observables” (the phenomena) as elements of the theory. They were presented in matrices, associated with a formalism that allowed calculations to be made. On the other hand, Schrödinger was developing a solution with an equation of a wave function, allowing to define the state of a system. We know that this following formalism also included operators, associated with the physical quantities, which applied to the wave function allows to predict the probabilities of measurement results. These two formalisms turned out to be equivalent, which is interesting, because it shows that two fundamentally different approaches could just, as well, describe what we could know about nature.Author admin1179Posted on

Post navigation


Pourquoi une telle complexité pour décrire la physique ! (10/08/21)

Ce post est un extrait de la page : Espace-temps. Coordonnées : celles de type nul, conduisent à un nouveau paradigme. Géodésiques principales nulles. Quelle réalité physique révélée ? Mise à jour 10/08/21

On ne peut être que frappé par la complexité mathématique qu’il faut mettre en œuvre pour établir des théories qui tentent de rendre compte des phénomènes tels qu’on les observe. L’exemple donné dans les chapitres précédents n’en donne qu’un pâle reflet. Les théories comme celles des cordes, des twisteurs, de la gravitation à boucles et dans une moindre mesure de la relativité, de la mécanique quantique et de la théorie des champs quantiques demandent des connaissances très approfondies en mathématiques pour y comprendre quelque chose, ce qui n’est pas à la portée de ” l’homme de rue”. Pourtant l’homme de la rue, comme tous les autres, subit ces lois de manière naturelle.

Quelle disproportion flagrante ! On se demande pourquoi les lois de la nature que nous subissons nous paraissent aussi compliquées ! Y-a-t-il une raison à cela ? Ne seraient-elles pas aussi efficaces si elles étaient bien plus simples ? Doit-on attribuer cela à la complexité intrinsèque de la nature elle -même, du moins telle qu’elle nous apparaît (les phénomènes), ou à l’indigence relative de notre esprit et de nos sens, puisque cette complexité est appréciée par eux. Ce serait comme regarder un objet avec un très mauvais instrument qui en donnerait des images éclatées, déformées et floues.

Faisant partie de l’univers, nous sommes soumis à ces lois, y compris notre esprit et nos sens, ce sont elles qui sont à l’œuvre dans notre raisonnement et les validations “physiques” qu’on peut en faire. On conçoit que cela impose des limites structurelles à la connaissance : les lois cherchent à se comprendre elles -mêmes au moyen de ces mêmes lois !

On peut s’étonner qu’on puisse faire des constructions mathématiques aussi élaborées qui semblent nous révéler au moins une partie du mystère. C’est possiblement lié au phénomène de la conscience qui est une réflexion du sujet sur lui-même, pris alors comme objet. Mais on conçoit que ce procédé ne peut procurer qu’une information dégradée.

De ces considérations, il paraît raisonnable se demander, à l’instar de Platon, si les phénomènes, ombres d’une réalité “parfaite”, ne sont pas la source de cette complexité. Ils seraient des fragments probablement incomplets et distordus et, à ce titre, paraissant bien mystérieux, du puzzle représentant une supposée “réalité physique”.

Les constructions mathématiques complexes de nos théories, ne seraient donc pas forcément liées à la complexité de la nature elle-même mais au fait qu’on en dispose que de fragments épars et distordus. Elles visent alors à essayer de reconstituer (apparemment avec un certain succès tout de même) une meilleure image de la nature à partir de ces bribes disparates et dégradées en fonction de cohérences ou de lois supposées. Il faut tout de même garder à l’esprit que ce qu’on appelle la validation (en fait le non-rejet) d’une théorie ne peut s’appuyer que sur ces fragments (phénomènes) qui sont les seuls objets qui nous sont accessibles : la théorie doit prédire ces fragments. Le scientifique va rechercher des lois qui pourraient donner une signification cohérente à la production de ces fragments, sans forcément être capable de découvrir l’image du puzzle complet qui peut être simple (mais on ne la connaît pas)! Une autre question surgit alors : de quelles types de lois, a priori, pour tenter de donner un sens aux fragments qu’il observe, le scientifique dispose et quelle est leur source? Par exemple, on invoque de plus en plus les symétries qui peuvent se manifester par des aspects géométriques ou de façon plus formelle par des invariants par des transformations (groupes de symétries) dans la physique (théorie des champs quantiques par exemple). Il est vrai que quand on sonde la nature dans ses retranchements ultimes il ne reste guère que des relations dont on ne peut extraire que des symétries ! H. Weyl qui s’était intéressé au sujet suggère que nous puisons cet intérêt pour les symétries dans l’observation de la nature (monde minéral, cristaux, végétaux, animaux, ..) : elles sont omniprésentes.

De ceci on déduit que la nature aime la symétrie…

A défaut de décrire la nature dans sa plénitude, le scientifique peut, malgré tout, espérer améliorer sa connaissance de la nature par la diversification et l’acquisition de nouveaux moyens expérimentaux qui vont lui permettre de disposer d’autres fragments voire de toutes les pièces du puzzle, ce qui ne veut pas dire qu’on saura les assembler pour découvrir l’image qu’ils représentent !

Ceci induit que la structure du formalisme des moyens mathématiques mis en œuvre qui ont été couronnés de succès, nous informent sur les lois de la nature car on est fondé de supposer que ce succès résulte d’un morphisme entre la structure des lois de la nature et la structure du formalisme qui prédit correctement les phénomènes que ces lois de la nature nous proposent.

Cela montre l’intérêt que représentent ces formalismes qu’il faut interpréter dans le contexte de ce qu’ils produisent : une clé pour donner un sens à des fragments !

Même à supposer qu’on puisse obtenir tous les fragments, d’une part cela n’impliquera pour autant qu’on saura les assembler correctement pour former une image et d’autre part, même si c’était le cas, qu’on saura bien interpréter cette image, sans doute brouillée, de la nature.

Quelques exemples illustrant ces propos

Relativité restreinte

On connaît la querelle en paternité de la relativité restreinte, Einstein ayant été qualifié par certains de vil copieur !

Il est vrai que Lorentz par les transformations empiriques qu’il a établies, Poincaré par le groupe des transformations de l’espace de la relativité restreinte qu’il a identifié, ont contribué à la genèse de cette théorie, qui “était dans l’air” à l’époque, suite au problème posé par l’électromagnétisme et l’expérience de Morley-Michelson.

Mais il faut reconnaître que c’est Einstein, en 1905, qui lui a donné son fondement en lui donnant un sens physique par le principe de “relativité”. Tous les phénomènes physiques (hormis la gravitation) obéissent aux mêmes lois dans tous les référentiels inertiels qui ne se différencient que par une vitesse (constante) relative. Ceci suffit, avec le paramètre de la vitesse de la lumière qui est une constante dans tous les référentiels [1] , à contraindre et dériver les équations de la relativité restreinte. En effet ces référentiels se caractérisent par le fait qu’on ne ressent aucune contrainte (les objets “flottent et nous flottons). Dans ces référentiels présentant la même phénoménologie, la physique doit être la même. Aucun n’est privilégié.

Cette situation a fait dire à certains qu’en 1905 on avait toutes les pièces du puzzle, mais que c’est Einstein qui a montré ce qu’elles devaient représenter et donc comment assembler ces pièces.

Relativité générale

Il y a eu une petite querelle en paternité entre Einstein et Hilbert qui s’est réglé à l’amiable, Hilbert reconnaissant que l’essentiel de l’analyse du problème était dû à Einstein, sa contribution sur l’équation était simplement la résolution d’un problème mathématique (avec brio, car il a proposé une méthode bien plus générale que celle d’Einstein en définissant une action, l’action d’Hilbert, pour la relativité générale). Einstein qui s’était de son côté attaché à transposer la gravitation sous une forme relativiste avait bien établi son équation avant Hilbert, mais de manière moins élégante.

La forme géométrique de la théorie de la relativité générale qui est une théorie de la gravitation montre qu’on peut décrire, par exemple l’univers, par sa géométrie qui dépend de ce qui constitue l’univers.

Le grand intérêt de cette formulation est qu’elle permet de prendre en compte une “non- linéarité” qui semble nécessaire : tous les objets contribuent à définir la géométrie de l’univers auquel, en retour, tous ces mêmes objets vont se coupler (ils vont suivre des géodésiques de la géométrie de cet univers). La boucle est bouclée.

Magnifique solution mettant en œuvre cette récursivité où l’objet (celui qui fait subir) est aussi le sujet (celui qui subit). Un modèle qui pourrait servir de paradigme pour des phénomènes comme celui la conscience ?

Autre beauté de la solution, l’univers ainsi défini est “auto-suffisant”, (l’espace-temps est défini par ce qu’on appelle une variété en mathématiques) autrement-dit, il n’a besoin de rien d’autre que lui-même pour exister et être totalement défini. Cela élude le problème d’une création et le “réduit” à celui d’une existence.

Mécanique quantique

De nombreux scientifiques ont contribué à cette théorie, tellement étrange que son interprétation physique est toujours sujette à débat, même si l’interprétation de l’école de Copenhague fait référence.

Face à la nature étrange, très différente de ce que nous présentait le monde de la physique et mécanique classique, que les scientifiques découvraient il est intéressant de noter l’approche de W. Heisenberg qui proposait d’abandonner tous les concepts de la mécanique classique et de ne considérer que les “observables” (les phénomènes) comme éléments de la théorie.

Elles étaient présentées dans des matrices, associées à un formalisme qui permettait de faire des calculs. D’un autre côté Schrödinger développait une solution avec une équation d’une fonction d’onde, permettant de définir l’état d’un système. On connaît la suite, le formalisme définit aussi des opérateurs associés aux grandeurs physiques (observables), qui appliqués à la fonction d’onde permettait de prédire des probabilités de résultats des mesures des observables.

Le formalisme de Heisenberg et celui de Schrödinger se sont révélés équivalents, ce qui est intéressant, car cela atteste que deux approches fondamentalement différentes pouvaient aussi bien décrire ce qu’on pouvait connaître de la nature.

[1] Ce point structurellement très important, cette limite étant impliquée dans la causalité, résultant du principe de relativité qui révèle un invariant de vitesse mais n’en spécifie pas la valeur. La valeur de de cette constante est une donnée expérimentale. voir: https://astromontgeron.fr/SR-Penrose.pdf

Création (big Bang) ou dissociation du néant en cosmologie ?


Si la création « ex nihilo » de quelque chose chagrine notre esprit car elle viole certains principe de conservation (quelque chose émerge de rien), la notion de dissociation du néant, où le néant accouche de deux entités physiques symétriques (aussi appelées contraires) telles que, pour tous leurs paramètres, leurs valeurs prises en compte pour l’ensemble (la somme) des deux entités scientifiques symétriques sont les mêmes que celles du néant, est plus agréable à notre esprit car elle ne viole pas, du moins macroscopiquement, ces principes de conservation, d’autant qu’on peut les recombiner pour restaurer le néant initial.[1]

Un exemple est la dissociation du vide en une paire particule-antiparticule, en vertu de la relation d’indétermination d’Heisenberg. Cette paire peut ensuite s’annihiler en redonnant l’état de départ du vide (si elle n’a pas interagi avec d’autres).

Un exemple plus proche de la cosmologie est donné par la solution de Schwarzschild [2], en relativité, pour un espace à symétrie sphérique. Pour un corps central satisfaisant à certaines conditions[3], un horizon se forme déterminant 2 régions de phénoménologies différentes. La région extérieure est celle générée par exemple par le Soleil, à l’extérieur, que nous connaissons, dans notre système solaire, la partie intérieure est un espace-temps en effondrement où aucun corps ne peut être statique. Bien que dès 1921, la solution de Painlevé [4] le montrait implicitement, il a fallu attendre une solution comme celle de Kruskal[5], en 1960, qui montrait, en plus, une connexion de type espace entre les régions symétriques intérieures à « l’horizon », pour en prendre vraiment conscience et pour réaliser que ces deux régions avaient leurs symétriques où la phénoménologie est inversée (espace-temps en expansion au lieu qu’en contraction). Si on considère les 4 régions, globalement, les paramètres, par exemple l’énergie de la masse centrale, calculée en relativité générale est nulle. Conventionnellement, elle vaut + M pour la partie en contraction (2 régions) et – M pour la partie symétrique en expansion (2 régions).

On peut s’étonner de la possibilité d’une masse gravitationnelle active négative, mais celle-ci résulte de l’intégrale d’un flux du vecteur associé à l’énergie en relativité générale, dont le signe dépend de l’orientation.

Reste un point important qui est celui de la réalité physique de cette solution mathématique symétrique. De nombreuses restrictions existent [6], et cela ne semble possible, et encore de manière très spéculative, que dans l’univers primordial. Mais les équations le permettent et nous vu qu’assez souvent les équations finissaient par avoir raison !

Ce type de paradigme est-il applicable à la cosmologie ?

Une symétrie ( entre temps et espace qui échangent leur rôle dans la phénoménologie) entre la solution de Schwarzschild et celle de Friedmann-Lemaître pour la cosmologie est assez évidente puisque, si le modèle standard cosmologique (Big Bang) présente un univers en expansion, les équations symétriques montrent que mathématiquement, un univers symétrique (en contraction) existe.

 La singularité « initiale » de la solution en expansion (le Big bang) est une singularité de type espace (l’espace « disparaît »), à la différence de celle de Schwarzschild qui est de type temps. Dans le Big Bang, les géodésiques de type espace sont incomplètes mais pas celles de type temps.

Donc, si une solution au problème cosmologique donne des espace-temps symétriques, ils peuvent être connectés par une ligne de type temps (dans un espace de taille nulle).

Dès 1932, G. Lemaître, dans son analyse magistrale avait présenté le modèle cosmologique et la solution de Schwarzschild, (dont il expliquait le caractère fictif de la singularité sur l’horizon), comme deux cas particuliers d’un même modèle. Il montrait dans son article “L’univers en expansion”que des solutions mathématiques symétriques, étaient également valables pour le problème cosmologique [7].

Pour montrer comment Lemaître aborde le problème nous donnons, ci-dessous, l’extrait de son article « L’univers en expansion » de 1932, adapté et commenté, où il établit l’équation géodésique cosmologique avec constante cosmologique (les références des équations sont celles du document dont cette partie est extraite).

L’équation géodésique cosmologique de Lemaître traduit la dynamique de l’espace

En posant[8]                                               

L’équation géodésique s’écrit :                                                   

Lemaître propose la solution[9] :

qui est l’équation (14-10)[10] .

Comme la figure 14-1 ci-dessous le visualise, cette équation décrit une région en expansion et une région en contraction.

Accessoirement, notons au passage que pour sa version cosmologique correspondant à un espace vide (la solution dite de Schwarzschild), Lemaître avait, comme Painlevé en 1921, trouvé une solution qui définissait par un jeu de 2 équations, les 4 régions du “trou noir statique à symétrie sphérique” [11], environ 30 ans avant Kruskal, mais ceci n’a pas retenu son attention, de même que, comme il traitait le cas d’un univers en expansion, c’est évidemment “l’anti-univers” qu’il définit, ce que ses équations montrent clairement, sans qu’il fasse le moindre commentaire à ce sujet!

Lemaître réintroduit un caractère d’homogénéité dans sa solution au problème

Dans les hypothèses de base nous avions les coordonnées indépendantes t, χ et une fonction r(t, χ), soit trois possibilités de coordonnées (t, χ, r)  pour deux degrés de liberté, ce qui permet en en éliminant une de décliner plusieurs formes.

Rappelons que l’équation (14-9) n’implique que la dérivée partielle de r par rapport à t et que la masse centrale, m ne dépend pas de χ.

La coordonnée χ réapparaît cependant dans (14-10) mais, non pas comme une coordonnée indépendante de t puisque c’est (t – χ) qui intervient dans les équations et dans la métrique mais comme une constante d’intégration, associée à un observateur de Lemaître-Painlevé, co-mobile de la dynamique de l’espace, fixée par des conditions initiales pour t = 0 [12].

Elle permet d’étiqueter, sur la géodésique radiale, les différents observateurs de Lemaître.

Rappelons que, comme dans la solution de Friedmann, l’espace est homogène, pour décrire la phénoménologie il n’est pas nécessaire de repérer l’observateur.

L’origine (arbitraire) des coordonnées dans cette forme c’est là où l’observateur se trouve puisque tous sont équivalents.

Pour le problème du corps unique sphérique, c’est la situation duale : l’isotropie n’est valide que par rapport à un point particulier qu’on choisira comme origine et l’espace n’étant pas homogène les phénoménologies sont différentes pour des observateurs co-mobiles de l’espace en ses différents points à un instant donné. On peut étiqueter ces points par la coordonnée χ, qui,non contrainte par l’équivalence de masse avec la solution de Friedmann, est libre.

Ces observateurs co-mobiles définissent une classe dont chaque élément décrit toute la phénoménologie de cet espace-temps au cours du temps.

 Le choix de l’observateur de cette classe est libre (arbitraire) comme dans la solution de Friedmann et du coup Lemaître réintroduit par son analyse une forme d’homogénéité qui se manifeste dans l’équation non pas par rapport à une coordonnée unique mais par rapport à la différence entre deux coordonnées.

Cette homogénéité, est invariante par translation simultanée de χ et t si (ct – χ) = constante.

Ceci correspond en fait à une translation spatio-temporelle à r = constante, mais il est significatif que cette forme représente sous forme d’homogénéité spatio-temporelle une symétrie sphérique spatiale.

Dans l’équation (14-10), la coordonnée spatiale χ de la forme de Lemaître, est un paramètre affin donnant la valeur origine du paramètre affin t. En différenciant (14-10) on voit qu’ils sont liés par la relation que nous utiliserons plus loin :

Cette relation sur t, χ , r(t, χ) contraint les degrés de liberté de la solution géodésique.

Étudions la variation de r(t- χ) lorsque t augmente.

Prenons, par exemple, la courbe correspondant à l’équation (14-10) pour λ = 4/3  ( bleu clair).

Lorsque t varie de -∞ à t = χ, on voit que r (t-χ) diminue jusqu’à atteindre la valeur 0.

Ceci correspond à une contraction de l’univers au sens cosmologique.

Pour, t > χ l’univers est en expansion, l’observateur de Lemaître est expulsé.

Comme r = 0 est une singularité de type espace, on ne peut pas passer continûment de la région spatiale tri-dimensionnelle de contraction à la région spatiale tri-dimensionnelle d’expansion : ce sont donc des régions spatiales infinies disjointes. Mais comme t n’est pas singulier, ces régions sont connectées par le temps (de dimension 1), même si la taille de l’espace est nulle.

Nous voyons que les équations de Lemaître décrivent bien la solution analytique complète et que, déjà Lemaître avait prédit, la symétrie univers-anti-univers et la connexion temporelle entre les 2 espaces.

Des problèmes demeurent

Si cette dissociation, qui permet aussi d’envisager une solution pour des dissymétries de l’univers en supposant le pendant de ces dissymétries dans l’anti-univers, est plus agréable à notre esprit qu’une création, par contre il reste à expliquer d’où proviennent les 4 interactions de notre univers qui jouent un rôle d’ADN pour régir son destin.

 Soit on invoque des propriétés aléatoires du néant et on invoque l’argument anthropique pour justifier ces propriétés par le fait que ce sont elles qui ont permis notre existence, soit le néant est lui-même structuré par ces 4 interactions, et alors il n’est pas dépourvu de tout, ce qui reporte le problème sur un autre ! 

En fait il semble que la seule solution qui élude ce report du problème à l’infini, est une boucle spatio-temporelle car elle est fermée. Mais cela, également n’est pas sans poser de problème !

[1] Cette notion est très répandue dans les diverses sociétés, ainsi le bien et le mal, Dieu et le Diable, le ying et le yang, etc.  Souvent, on sous-entend que l’un n’existerait pas sans son contraire. Que serait le bien sans le mal ?

[2] Cette solution est en fait due à Droste, qui a généralisé (à 2 régions, la solution qu’avait proposé Schwarzschild auparavant en (1916) qui ne décrivait qu’une région. On a gardé le nom du premier auteur.

[3]  La masse M du corps central à symétrie sphérique doit être contenue dans un corps de rayon r < 2GM/c².

[4] Painlevé, 1921, Compte rendu de l’académie des sciences du 24/10/1921.

[5] [Kruskal 1960] (en) M. D. Kruskal, « Maximal extension of Schwarzschild metric , Phys. Rev., vol. 119, no 5,‎ sept. 1960, p. 1743-1745). Ces coordonnées montrent que les régions sont connectées par un pont de type espace, ce qui est possible car la singularité qui « sépare » les régions connexes est de type temps. La géodésique radiale, de type temps, entrante (chute libre sans vitesse non radiale) est incomplète : Elle n’est pas définie en r = 0. L’espace n’est pas singulier pour r = 0.

[6] La formation d’un trou noir par effondrement gravitationnel d’une supernova, ne permet pas l’existence d’un univers symétrique, les conditions initiales étant dissymétriques.

[7] Lemaître G. 1932, « L’univers en expansion » Publication du laboratoire de Géodésie, Université de Louvain. Repris in extenso en 1933 dans d’autres publications. La solution de Schwarzschild est considérée comme un modèle cosmologique d’un espace vide. ». Il utilise d’autres coordonnées dans son analyse donnée dans l’univers en expansion.

[8]Le paramètre λ est la constante cosmologique, le rayon de courbure R vaut (3/λ.)1/2, donc λr² = r²/R².

[9]L’équation (14-9), donnée au chapitre 11 de son article, correspondant au cas simple où la courbure spatiale est nulle et d’un univers vide, donné à titre d’exemple, a pour solutions r = ± 2r0Sh2/3 [3A(t -χ t)/2]. Lemaître ne considère pas le cas où r < 0, d’ailleurs ceci n’ajouterait rien à la phénoménologie. Notons que la fonction est paire: r(t –χ) = r (χ-t), ce qui justifie les 2 régions, t pouvant varier de moins l’infini à plus l’infini.

[10]Compte tenu que r(t –χ) = r (χ-t), on peut tout aussi bien écrire: r = 2r0Sh2/3 [3A(χ – t)/2]  (11.4bis).

[11]Ce que Synge, en mathématicien, avait remarqué, sans y prêter plus attention ! Synge JL. (1950).

[12] La coordonnée radiale χ qui caractérisait le volume contenant la masse m, dans la solution de Friedmann, ne sert plus puisque cette masse ne dépend plus du volume, mais va servir d’étiquette temporelle aux observateurs en chute libre radiale en repérant par exemple la date de passage relative t0 par un point remarquable de la géodésique (la singularité s’impose puisque cette géodésique est incomplète). En posant χ = t0 (choix unité) on remplace t – t0 par t – χ. L’équation géodésique est fonction de |t-χ|. Elle est invariante par translation à 45° (r = constante) dans le plan t, χ. Lemaître n’a pas explicité les implications de cet affaiblissement de degrés de liberté.

[13]En utilisant le logiciel Maxima. Remarquons la discontinuité de la dérivée de r( t -χ) pour t =χ, (r = 0).

L’équation d’Einstein et la force de Planck

L’équation d’Einstein

Après avoir fondé et établi les équations de la mécanique et de l’électromagnétisme pour la relativité restreinte en 1905, dès 1907, Einstein va tenter de les adapter au cas de la gravitation. Il commencera par tenter une approche s’appuyant sur le principe d’équivalence, au motif que cela lui paraissait « plus simple ». Ses tentatives de définir un potentiel scalaire adapté au cas de la gravitation « relativiste » aboutissaient à des violations des principes de la physique et ses corrections et adaptations pour corriger ce problème menaient à d’autres impasses.

Il faudra attendre 1913 (Entwurf) pour qu’Einstein (plutôt bien inspiré), aidé par son ami Grossman pour la partie purement mathématique, envisage une nouvelle approche utilisant les géométries non-euclidiennes. Il faudra encore plus de 2 ans pour qu’il surmonte des difficultés, (argument du « trou », cohérence avec la mécanique newtonienne en champ faible et lentement variable, prise de conscience que les coordonnées n’ont pas de caractère physique), pour qu’il parvienne laborieusement à la solution correcte ?

Pour une description très documenté de sa démarche, voir  [1].

Quelle est la signification de l’équation d’Einstein ?

Cette équation qui s’écrit :

Gµν  = κTµν

Où  Gµν  =  Rµν  – ½ R gµν  est le tenseur d’Einstein, 

 Rµν est tenseur de Ricci qui est la contraction du tenseur de Riemann, R le scalaire de Ricci qui est la contraction de tenseur de Ricci, Le terme gµν est le tenseur métrique. Tµν est le tenseur énergie-impulsion qui caractérise la présence d’éléments physiques (matière, rayonnement, etc.), par leur impulsion-énergie.

 La lettre κ représente une constante dimensionnée pour assurer l’homogénéité de l’équation.

En effet, le membre de gauche de l’équation représente un objet géométrique (mathématique), purement formel, alors que celui de droite représente un objet physique, la matière, le rayonnement par exemple, avec son énergie et l’impulsion, en général appelée génériquement matière-énergie.

Ce terme « de couplage » va donc nous révéler comment le concret (la matière-énergie) agit sur l’abstrait (la géométrie) et vice-versa. Au-delà d’assurer la pure homogénéité de l’équation, ce qui est une exigence mathématique, la nature de κ va nous révéler la nature physique de cette constante de couplage.

Equation d’Einstein et équations de la gravitation newtonienne

La relativité générale est une théorie de la gravitation qui, au niveau conceptuel, est une évolution transcendante de la mécanique classique, comme Bachelard l’a souligné. [2]

Malgré les apparences elle est conceptuellement beaucoup plus simple, car plus synthétique que la mécanique newtonienne pour la gravitation.

Là, où la mécanique newtonienne nécessite un espace tridimensionnel de fond (euclidien) et un temps absolu, un concept de force (à distance assez mystérieux) qui dérive d’un potentiel gravitationnel, un jeu de 2 équations (une pour la conservation de l’énergie et l’autre du moment angulaire), pour définir les trajectoires (les géodésiques) des objets soumis à la gravitation, lesquelles géodésiques ne sont pas, en général,  les géodésiques de l’espace euclidien (où les géodésiques sont des droites), la  relativité générale résout tout cela  synthétiquement, en une seule équation, en utilisant le concept d’espace-temps, au lieu de celui d’espace et de temps indépendants.

En mécanique newtonienne, une masse M en un point P se couple par sa masse gravitationnelle passive[3] avec le potentiel défini par l’ensemble des autres masses gravitationnelle actives. Ce potentiel est la somme des potentiels générés par ces autres masses gravitationnelles actives en ce point. Curieusement le potentiel créé par la propre masse (active) M n’intervient pas dans ce processus.

En relativité générale, toutes les masses contribuent à définir la géométrie de l’espace-temps et en retour, toutes les masses se couplent à cet espace-temps qu’elles ont toutes contribué à définir, en suivant les géodésiques de l’espace-temps de cette géométrie.

En fait, la finalité de cette équation d’Einstein, en définissant la géométrie de l’espace-temps, est de définir toutes les géodésiques de cette géométrie. Ainsi, elle définit la dynamique, ce qui est bien la finalité de telles équations, quelle que soit la théorie utilisée. L’anomalie de la mécanique newtonienne précédemment décrite n’existe donc pas en relativité générale, toutes les masses sont prises en compte pour la phénoménologie.

La force de Planck, une constante de la physique ?

Nous avons décrit comment cette force pouvait être définie et où elle intervenait dans un autre article [4]

La valeur de κ est 8πG/c4.

Avec cette valeur l’équation d’Einstein s’écrit :

(c4/4G) Gµν  = 2π Tµν

En rappelant que la définition de la force de Planck FP est :

FP = c4/G

L’équation d’Einstein s’écrit :

FP/4Gµν = 2π Tµν

Au-delà, d’assurer l’homogénéité de l‘équation, ce qui ne porte que sur des attributs dimensionnels, sans valeurs quantitatives, le point conceptuel fondamental est que c’est cette force de Planck, avec sa valeur quantitative, est le médiateur entre la géométrie et la matière, ceci en fait une constante de la physique, dont il convient d’approfondir la portée.

En particulier cette constante dont la dimension est une force nous renseigne sur la nature physique, avec sa matière-impulsion-énergie de l’espace-temps puisque s’appliquant sur un objet géométrique formel, c’est elle qui confère à l’espace-temps physique ses attributs physiques.

Sa présence, qui pouvait paraître inopinée, dans de nombreuses équations de la relativité générale, s’explique alors. C’est à la lumière de cette constante qu’on peut déduire certaines propriétés physiques de cet espace-temps, comme cela a été fait dans l’article cité dans la note 4 où, elle sert de guide directeur pour proposer une interprétation des solutions de la relativité générale A suivre…

[1] Einstein, œuvres choisies Relativités 2, F. Balibar : https://www.cnrseditions.fr/catalogue/physique-et-astrophysique/03-francoise-balibar/

[2] Le nouvel esprit scientifique : https://gastonbachelard.org/le-nouvel-esprit-scientifique/

[3] En gravitation newtonienne, une masse se décline en 3 caractères : masse inertielle, masse gravitationnelle active (qui génère le champ gravitationnel), masse gravitationnelle passive (qui se couple au champ gravitationnel présent au point où se situe la masse). Chaque masse possède les 3 caractères et ces trois masses qui sont proportionnelles sont égales par définition.

[4] Voir : http://vous-avez-dit-bigbang.fr/?page_id=452. Voir aussi https://fr.wikipedia.org/wiki/Force_de_Planck

Alternative epistemological introduction to cosmology by using the Planck’s force concept


 In the document: “Is the value of the constants G and c imposed by the universe? Update 03/10/21”, we have defined the Planck force, which intervenes in particular in the propagation of gravitational waves, and shown that since it is independent of the value of the Planck constant, we are entitled to consider this force, on any other scale.

 At the scale of the universe, we have seen that it could explain the huge difference of a factor of 10122 between the energy of the vacuum as predicted by quantum mechanics and the cosmological constant measured by observations (SN1A, CMB, ..), driving the acceleration of the expansion.

Moreover, by considering this Planck force and the parameters of the universe (mass of the universe, age of the universe), we could deduce the values of G (gravitational constant) and c (velocity of light) and vice versa of course! Which would tend to prove that these constants G and c are not “arbitrary” but depend on the universe, a rather comforting idea. The purpose of what follows is to better understand the role of this force and to propose an approach taking this force as a guiding principle.

What phenomenology to link to this Planck force?

 As its value, its derivation and some of its announced properties have already been treated in the cited document, which we append as an appendix for the convenience of the reader, we focus here on a continuation of the analysis of the phenomenology that it can represent.

We used it as a “scale invariant” parameter because its expression, involving only the constants G and c, did not depend on it, a priori, on the scale.

We, then compared the scales, comparing the value of Planck’s constant h  with the value that must be assigned to it (labelled hu) to keep the value of Planck’s force on the scale of the universe, with as parameters the mass and the age of the universe, in the formula defining this Planck force, such as at the Planck scale. The huge  hu/h =10122 ratio was deduced from this comparison.

One can dispute the fact that this force is a “fundamental ” parameter of cosmology as this should be linked to a principle that would achieve consensus (or almost).

Physically, this principle should be found, in the fact that the value of the Planck force is the scale parameter in the equations of the propagation of gravitational waves.

This would give an obviously physical character to this force.

In fact, this Planck force (constant) translates an important parameter of the universe, which we have linked to inertia in the document cited in the appendix, which is its “elasticity” or, if we prefer the reverse, its “rigidity” which gives the amplitude of the deformations of the medium (space-time) when a local disturbance occurs (fusion of black holes for example). The constancy of this parameter is consistent with the fact that the universe is homogeneous and isotropic.

Standard cosmology endeavors to foliate the space-time resulting from Einstein’s equations, under the assumptions of symmetry and matter-energy-momentum in order to draw phenomenological conclusions (expansion of the universe, creation of the universe, etc.).

The “elasticity” parameter is a structural parameter of a different phenomenological nature, which is linked to its inertia (reaction to disturbances).

 Would this not be an alternative or at least a complementary path for exploring cosmology, because the way in which a body vibrates under perturbations reveals an important information about its structure.


In discarding this approach, which provides interesting answers compatible with what nature reveals to us through observations, even if its foundation can undoubtedly be improved, we might miss some elements which would help to better understand cosmology.


Are the value of the constants G and c enforced by the universe? updated 10/03/21

Planck length, Planck time, and Planck mass [1]

Planck length, Planck time and Planck mass will be defined from the fundamental constants of physics which are the velocity of light noted c, the gravitational constant noted G, and Planck’s constant noted h, [2] by using dimensional arguments. In the MKS system, their values ​​are:

c = 299 792 458 m s– 1,

G ≈ 6.674 30 × 10−11 m3 kg− 1 s− 2,

h ≈ 6.626 070 040 × 10−34 kg m2s− 1

h ≈ 1.054 571 800 × 10−34 kg m2 s− 1

For c, this is an exact value (by definition), the others are measured values ​​so are approximated values, the value of all these constants is not predicted by the theory, they are called free parameters.[3] The dimensions of these constants are listed.

The Planck length lP will therefore be defined by the simplest product of these constants which has the dimension of a length, for the time tP and the Planck mass mP, it is the same principle but for a time and a mass. This gives:

mP = (hc /G)1/2 ≈ 2,177 x 10 -8 kg,

tP = (hG /c5)1/2 ≈5,391 x 10-44 s

lP = c.tP= (hG /c3)1/2 ≈1,616 x 10 -35m,

We can check that these values ​​have the correct dimension and with the values ​​of the constants c, G, h, in the MKS system, that their values are correct.

Planck force

By using the law f = m γ, where f is the force applied to mass m and γ the resulting acceleration, by using Planck’s values ​​for the operands, we get:

fP = mP γP, with γP = lP / (tP ²) →fP = c4/G ≈1.21 x 1044 Newtons (m.kg.s– 2)

This huge value is independent of the value of the Planck constant h! Whatever the value of h is, we get this result! This invariance of the Planck force allow to use other values of length and time just by modifying the value of h and, by this property, exploring the phenomenology resulting from the Planck force at others scales.

Planck force is an invariant of physics, which will be also found in other phenomena, such as:

Gravitational waves

The amplitude “a” of the stretch and squeeze of space is given by the formula:

a ≈ [2G / (c4r) ]Q’’(t-r /c)

We notice the constant:

2G / c4 ≈ 1.65 x 10-44 m-1kg-1

This shows that the “elasticity [4] ” of the space is proportional to the inverse of Planck’s force.

In this formula, Q is the quadrupole of the system emitting gravitational waves, Q” is its second derivative, with respect to time.

Gravitational force of 2 black holes in contact (Maximum gravitational force?)

A black hole of mass M has a Schwarzschild radius (defining a horizon). r ≈ 2GM / c².  If we use [5] the law:

f = G m1 m2 / R²

With m1 = m2 = M. When 2 black holes (identical for simplifying) are in contact, their distance to their centers is R = 2r. Inserting this in the previous equation will give:

f = G M ²/(2r) ² = (c4GM ²) / (4GM) ² = c4/ 16G

We still find this same factor: c4/G

Note that one may consider this force as the maximum gravitational force between two distinct bodies since beyond, the bodies will interpenetrate and lose their identity.

Planck Force invariance applied to the universe.

Rough estimated mass of the universe

This c4/G factor seems to play a general role. Since this “Planck” force is independent of the value of Planck’s constant, let us consider the value of a modified Planck constant, denoted hu, (h universe) where “the modified Planck mass” would be equal to that of the universe.

Current data assigns a mass of roughly one hundred billion (1011) solar masses to our galaxy and the number of galaxies is estimated to be around 1000 billion, 1012 (these figures are recent, earlier figures have been revised upwards).

With 1012 galaxies of 1011 solar masses and a Solar mass of  ≈ 2 x 1030kg, we get:

Estimated mass of the universe = Mu ≈2x 1053 kg.

According to the Planck mass, (mp ≈ 2 x 10-8 kg) it is necessary to multiply by a factor K ≈ 1061, for getting the mass of the universe. As in the definition of Planck’s mass, it is its square root that is involved, the hu constant to be used, instead of Planck’s constant, is such that:

hu ≈ 10122 h.

Vacuum energy and cosmological constant

For explaining the acceleration of the expansion of the universe, one introduced the concept of dark energy. One mathematical solution for dark energy is the cosmological constant. The vacuum energy was proposed as a physical solution of this cosmological constant.

This hypothesis was discarded because of a huge discrepancy (around 10122) between the calculated value of the cosmological constant resulting from vacuum energy and its current value, measured by cosmologists. There is an annex in my book explaining that, in more details.

Due to this huge discrepancy, there are issues about the physical representation of vacuum energy in cosmology, this being considered as a major problem!

But, per our dimensional analysis, the vacuum energy of the whole universe should be calculated not with the physical Planck constant h but with hu, which introduces a 10122 factor, between the calculated vacuum energies.

Estimate of the vacuum energy by this dimensional analysis

The dimension of the cosmological constant being [L]-2  (reverse of a squared length). This can be obtained by calculating (T.c)-2, where T is the age of the universe and c the celerity of light. The calculation with an age of 13.7 billion years gives a value of 0.6 x 10-52  m-2, compared with the measured value which is  1.088 x 10-52.

This undervalued value is explained by the fact that, in our dimensional analysis, we do not take into account matter (baryonic and black) whose effect, contrary to that of the cosmological constant, is to slow the expansion. The value obtained by dimensional analysis corresponds to a phenomenology that would be only due to the cosmological constant. It is therefore undervalued, because it does not take into account the opposite effect of matter.

We find that the energy of the vacuum, such defined, reflects, in order of magnitude, the observed black energy and the value of the associated cosmological constant.

Justification of the physical relevance of the change of scale.

From a physical point of view this proposition can be supported by statistical considerations. You can divide the universe into microscopic cells. At the level of a microscopic cell, the vacuum state which undergoes fluctuations linked to the process of creation / annihilation of particle-antiparticle pairs can be represented by a random variable governed by a statistical law, binomial law or Poisson law when the probability of events is low. Anywhere in the vacuum throughout the universe the random variables associated with these micro-cells are independent.

Statistics tell us that the distribution law of the state of the universe, which is the combination of the states of the huge number of microscopic cells, at the scale of the universe, resulting from all these independent random variables at microscopic scale, is a random variable which tends, whatever the statistical law is at the microscopic level, towards a normal distribution law (Gaussian) whose parameters, likelihood and variance, are calculated from microscopic laws and the configuration of the universe in microscopic terms. Under these conditions, a vacuum energy at the scale of the universe is a physical hypothesis.

Planck length and Planck time at the universe’s scale.

To calculate the length L and the time T associated with the scale of the universe, with the same “Planck force”, the values ​​of the Planck scale must be multiplied by: K ≈ 1061.

By applying this, we get [6] :

L ≈ lp x 1061 ≈ 1.6 x 10-35 x 1061 m ≈1, 6 x 1026 m ≈1.7 x 1010 al.

That is 17 billion light years.

T = tp x 1061 ≈ 5.4 x 10-44 x 1061s ≈5.4 x 1017 s ≈1.7 x1010 years.

That’s 17 billion years.

As the Planck force would account for the dark energy (cosmological constant), in this model does this mean that the values obtained account only for the phenomenology driven by the cosmological constant even though we used the estimated total baryonic mass of the universe for getting the scale?

Anyway, given the inaccuracies in the estimates of the mass of the universe, we see that we get figures that are of the order of magnitude of what is adopted today.

Conversely, to obtain the correct figures, we just need to correct the mass of the universe where, for example, the number of galaxies should be estimated at 800 billion, instead of 1000 billion.

Estimate of the Hubble constant by dimensional analysis

Note that we could also calculate the Hubble H0 constant (let us take H0 = 70km/s/ Megaparsec,) considering the acceleration of Planck, aP for the universe where FP is the force of Planck and MU the mass of the universe:

aP=FP/MU ≈ 1.21 x 1044 / (1.6 x 1053) ≈7.5 x 10-10  m.s-2 and comparing this value to:

c.H0 ≈ 3 x 108 x 2.27 x 10-18 ≈ 6.8 x 10-10.m.s-2

Which has also the dimension of an acceleration.

The value of H0 deduced from the dimensional analysis is H0 = 77 km/s/Mpc. This is over-estimated by about 10%.

Numerology or structural property?


It seems quite surprising that by using the total mass of the universe, the value gravitational constant G, the speed of light c, with the notion of force (associated with the concept of inertia) as a unifying link, between the scales since it does not depend on it, but notwithstanding with the cosmological model of the universe and with its content (different kind of fluids), we obtain the orders of magnitude of the universe, as far as we know it.

Structural property: G and c are not free parameters, they are enforced by the parameters of the universe!

A reasonable explanation would be, that, in fact, that these free parameters, are not free at all, but are determined by the universe which reveals the value of the constants of physics linked to its content and its structure!

According to that, if we have measured the age T, the size L, and the mass M of the universe we can deduce the values of c and G per the two following equations:

L = c. T                       →        c = L/T ≈ (1, 6 x 1026 m)/(5.4 x 1017 s)≈3x 108m/s

fP = c4/G= M.L/T²→  G = c4 T²/ML = L4T²/T4ML =

G= L3/(M T²)≈(1, 6 x 1026 m)3/[(2 x 1053 kg)(5.4 x 1017 s)²] ≈ 7 x 10-11m3 kg− 1 s− 2

The results are approximate because, in the example, we kept only two digits in numbers for the calculation. With all significative digits in the numbers, per construction of the value T, L, and M, obviously, you would recover the right values.

Let us point out that we needed these two equations (two constraints) , including that of the “Planck Force”, for calculating the unknown values of G and c.

Therefore, in this approach, the “Planck force”, an unexpected constraint, the interpretation of which would be the “elasticity of space” a concept used in cosmology for gravitational waves and bound to the inertia of the whole universe, is necessary. This would lead us to explore an analysis where it would play a major role. We expect that this new perspective may enlighten the understanding of the theory.

Some comments on this dimensional analysis

About mass, we must specify what kind of mass is involved.

Gravitational mass, declined in 2 categories

Active gravitational mass

Usually, when we consider the mass of the universe, we refer to its active gravitational mass. This mass generates the gravitational field. In general relativity, all the masses contribute to the geometry of the spacetime and, in turn, each mass couples with this spacetime which is defined by all. The spacetime is represented by a manifold in general relativity. But in our analysis, this is not this mass which is addressed. Would this discard our analysis, as we do not address the right concept of mass?

 Passive gravitational mass

This passive gravitational mass is the coupling coefficient to the gravitational field generated by the active mass. In relativity, all masses follow geodesics of the spacetime that they contribute to define. This is the coupling process in general relativity.

Inertial mass

It is defined by Newton’s second law f = mγ, and it is this that we used in our analysis. We can start by looking at the relations between the masses. In relativity, the inertial mass of any entity is equal to its passive gravitational mass, this is the principle of equivalence which is also valid in Newtonian physics but only for massive bodies.

Likely, this inspired E. Mach when under a philosophical approach he claimed that the inertia was from gravitational origin, this explaining the equivalence principle, as in fact, it is not two phenomenology’s, but the same.

In classical mechanics the active gravitational mass of a body is equal to its passive gravitational mass, according to the action-reaction principle. So in Newtonian physics all masses are equal. What is true for one, is true for the others.

In relativity, a priori, this is less obvious, because the active mass can involve integrations in space-time that are not always well defined.

But we can try to define what could be the inertial mass of the universe by the following arguments:

Einstein’s equation provides a solution, according to the principle of least action, which is a geometry for the universe, where all bodies contribute to its definition and where, in return, all bodies follow the geodesics of the geometry that they define.

Can we define an inertia of the universe?

In general relativity the universe is an “isolated” system. He is the “whole thing”, as its mathematical description by a manifold attest. He does not need to refer to anything else in order to exist and be described. Under these conditions, defining inertia seems impossible.

But, let us not forget that general relativity is a theory of gravitation only and that in the universe other interactions exist and may interact with the masses and the energy ruling the structure of the universe. This coupling with these other interactions is generally described by local spaces, which one calls “internal spaces”, at each point of relativistic spacetime. These internal spaces, which are therefore in local contact with relativistic space, can interact with it.

In these internal spaces, the laws of interactions other than gravitation and their couplings with relativistic spacetime are described. These internal spaces are tangent at each point of the manifold that describes the spacetime of general relativity.

The whole system constitutes a “bundle” where the manifold describing the relativistic spacetime is called the “base”, and where the internal spaces the “fibers”.

As a result, the spacetime of general relativity, defined by the least action principle by Einstein’s equation which describes an “equilibrium” (stable) universe, is not an isolated system.

It can be “disturbed” by other interactions. Therefore, a concept of inertia can be introduced as follows.

The inertia of relativistic spacetime will be its resistance to a change in this “stable” gravitational state since it is defined by the principle of least action; If there had been only gravity there would have been no reason to get out of this state.
So if, for some reason unrelated to gravity, [8] locally, a body deviates from the geodesic defined by the solution of Einstein’s equation, it will be an upheaval.

Indeed, this will not result only in a local change because, in accordance with the Einstein equation which defines a global universe, with these new data, it is all the geometry of the whole universe, which is modified, even if this modification is infinitesimal!

Therefore, the inertia can be defined as the resistance to a change from this “perfect and stable” state. [7]

But this is not instantaneous, per an inertial reaction to this change, gravitational waves will be emitted [8] and the new stable state of the universe will be only completed when gravitational waves reached the limit of the universe, these limits depending on the size and on the geometry of the universe. This may take an infinite time.

A new stable solution will emerge from this perturbated previous solution and so on. In this way, we see that we can define the inertial mass of the universe.

In other words, the inertia of the whole universe emerges from this phenomenology. The gravitational waves propagate in this spacetime as an inertial reaction to this perturbation. The physical parameters, especially the G/c4 factor associated to the “elasticity” of the universe, which rules the amplitude of these waves disturbing the spacetime geometry in this transient process up to the final stable state, of this propagation will characterize the inertial properties of the whole universe.

In modern physics the inertial mass is asserted to come from the coupling with the Higgs field [9], which is filling the space, but we do not know where this field come from.

Higgs field and Mach principle

In modern physics, the inertial mass of particles (bosons and fermions) arises from their coupling with the Higgs field, [10] which fills the whole space. To explain the equivalence of passive gravitational mass and inertial mass of bodies, in the nineteenth century E. Mach, on philosophical and mechanical considerations, claimed that it was because the inertial mass results from the gravitational interaction between all the masses in the universe.

Whether inertia is conferred by gravity this would explain why the passive gravitational mass is equal to the inertial mass. In this phenomenology the whole universe is involved, something similar to the phenomenology of the Higgs field which fills the whole universe.

Mach’s assumption is compatible with the inertia of the universe as described by general relativity, which is a universe “in equilibrium, satisfying the principle of least action, where a local disturbance causes a global inertial reaction involving gravitational waves. Apart from this global character, Mach’s assumption appears to be quite different from the phenomenology associated to the Higgs boson.

The Higgs field was introduced for explaining the mass of some bosons and that of matter (fermions) since quantum formalism did not allow it. This looks like a desperate trick. Nevertheless, it is possible that nature is like this.

Critics about this approach

A heuristic approach

The main critic is that it is a dimensional approach which, even though its heuristic contribution is valuable, is not a rigorous physical theory. This is true, but nevertheless, such approach brought to us interesting information, which was likely hidden in the parameters that we used. At least, it allowed to extract this information from these parameters, and it is not hopeless that it may provide a guideline to a new theory.

In addition, in this document, we did not always comply with the relativistic approach. But being a study relating orders of magnitude, where we make bold assumptions, for example, the estimation of the total mass of the universe, which has evolved significantly over the past 20 years, the unexpected results of these approximations are, at least, instructive.

What about the concept of force in general relativity?

We used the concept of “gravitational force” while in general relativity, which is the current theory, using a geometrical formalism for describing the gravitation, this concept is replaced by the curvature of the geometry of space-time

Indeed whether, in contrast to classical mechanics, in general relativity gravitation is not considered as a force, for the universe, as a whole entity, we defined its inertia which is related to a concept of force, induced in the representation of the amplitude of the gravitational waves [10] by the concept of elasticity of space that we had related to the inverse of Planck’s force, as described in a previous chapter.

To be continued….


[1] This topic follows an amazing proposal from Edouard Bassinot, to define a “force of Planck”, defined by the second law of Newton with the Planck parameters. I was intrigued by the proposal and tried to explore its possible consequences. One of them would be that the gravitational constant G and the celerity of light c would be not free parameters in the theory. They would be enforced, by the physical parameters (age, size, and mass) of the universe.

[2]  h = h / 2π, in place of h, is often used, because angular pulsation θ/s is more convenient than frequency in physics. The factor 2π results from the fact that 1 Herz is equal to 2π radians/second.

[3]  Let us stress that the value of the constants G and c are not predicted by the theory. They are what we call “free parameters”. The exact value of c results from a convention allowing to define the units of length and time! For the constant h, also unpredictable (therefore free), the relation E = h.f, where f is the frequency of a photon and E its energy allows to measure its value. The constant h, first introduced in physics for the radiation of the black body (see another item on the website), is ubiquitous in quantum mechanics.

[4]  Elasticity is related to elastic stretch of a body (eg a spring) submitted to a stretching constraint. A low elasticity, such that of the space in the gravitational waves phenomenology, provides a huge resistance to stretch force resulting in a small stretch. Elasticity has the dimension of a length (in meters) divided by a force, which is here the Planck force.

[5]  Comments on the approach: The first objection that comes to mind is that this approach is Newtonian-like, we used the Newtonian law, F = G.m1.m2 / r², giving the force F of attraction between 2 bodies, one of mass m1 and the other of mass m2, separated by a distance noted r.

[6] In a year there are approximatively 3600x 24x 365 = 3.15 x 107 seconds and in a light year 9.45 x 1015 meters.

[7] If, gravitation was only involved, this should not occur, because the Einstein equation describes the more stable universe, that with the lower possible energy. But they are other interactions, such as electromagnetism which may disturb this quiet and perfect situation. 

[8] These waves are the inertial reaction to a change of the geometry of the universe under a disturbance of the established stable state of the system, where the motion of any body was geodesic. Aristote would have called geodesic motion natural motion unlike that resulting from a disturbance that he called violent movements! This emission of waves, as an inertial reaction to a disturbance of a “natural” state of a system is a general process in physics. For instance, electromagnetic waves are emitted, as an inertial reaction, when one accelerates a charged particle. This radiation induces a loss of energy of the particle. It is the same for gravitational radiation. Likely the internal potential energy would decrease.

[9] This field is scalar. The relativistic formalism is tensorial. How compatibility can be defined?

[10] To be rigorous, we must remember that the equation giving the amplitude of gravitational waves, cited in a previous chapter, results from a “linearization” of the Riemann tensor in a weak field where the relativistic metric gμν is approximated by the metric of Minkowski ημν to which we add a perturbation hμν assumed to be small with respect to 1 (gμν ≈ ημν + hμν). This is not relativity in the strict sense but a “post-Newtonian” theory. Would this invalidating completely the conceptual remarks that we made or rather this would amend them, the latter proposal being credible because of their validity in weak field.

Approche épistémologique alternative de la cosmologie, utilisant le concept de force de Planck


Dans le document: La valeur des constantes G et c est-elle imposée par l’univers? Mise à jour 10/03/21, nous avons défini la force de Planck, qui intervient en particulier dans la propagation des ondes gravitationnelles, et montré que comme elle est indépendante de la valeur de la constante de Planck, il n’y a pas de raison pour ne pas considérer cette force à toute autre échelle.

A l’échelle de l’univers, nous avons vu qu’elle pouvait expliquer le facteur de 10122 d’écart entre l’énergie du vide telle que prédite par la mécanique quantique et la constante cosmologique mesurée par les observations (SN1A, CMB, ..) supposée régir l’accélération de l’expansion.

Plus encore, en considérant cette force de Planck et les paramètres de l’univers (masse de l’univers, âge de l’univers), on pouvait en déduire les valeurs de G (constante de gravitation) et c (vitesse de la lumière) et vice-versa bien-entendu !

Ce qui tendrait à prouver que ces constantes G et c ne sont pas « arbitraires » mais dépendent de l’univers, une idée plutôt réconfortante.

L’objet de ce qui suit est de mieux cerner le rôle de cette force et de proposer une approche en prenant cette force comme principe directeur.

Quelle phénoménologie rattacher à cette force de Planck

Comme sa valeur, son établissement et certaines de ses propriétés annoncées ont déjà été traitées dans le document cité, que nous joignons en annexe par commodité pour le lecteur, nous nous attachons ici à une poursuite de l’analyse de la phénoménologie qu’elle peut représenter.

Nous l’avons utilisée comme un paramètre « invariant d’échelle » car son expression, ne faisant intervenir que les constantes G et c, n’en dépendait pas, à priori de l’échelle. Nous en avons ensuite comparé les échelles, en comparant la valeur de la constante de Planck h (ou h) avec la valeur qui faut lui attribuer (hu) pour conserver la valeur de la force de Planck à l’échelle de l’univers, avec la masse et l’âge de l’univers, par la formule définissant cette force de Planck à l’échelle de Planck. Le rapport de 10122, tant décrié, a été déduit de cette comparaison. On peut contester le fait que cette force soit un paramètre « directeur fondamental » de la cosmologie. Il faudrait relier cela à un principe qui ferait consensus (ou presque).

Plus physiquement, et peut-être que ce principe réside là, la présence de la force de Planck dans la propagation des ondes gravitationnelles donne un caractère manifestement physique à cette force.

En effet cette force de Planck (constante) traduit un paramètre important de l’univers, que nous avons relié à l’inertie dans le document cité en annexe, qui est son « élasticité » ou si on préfère l’inverse sa « rigidité » qui donne l’amplitude des déformations du milieu (l’espace-temps) quand une perturbation locale se produit (fusion de trous noirs par exemple).

La constance de ce paramètre est bien cohérente avec le fait qu’à l’échelle de l’univers il est homogène et isotrope.

La cosmologie standard s’attache à feuilleter l’espace-temps résultant des équations d’Einstein sous les hypothèses de symétrie et de matière-énergie-impulsion pour en tirer des conclusions phénoménologiques (expansion de l’univers, création de l’univers, etc.).

Le paramètre de « rigidité » est un paramètre structurel de nature phénoménologique différente, qu’on rattache à son inertie (réaction aux perturbations). Ne serait-ce pas une voie alternative ou au moins complémentaire pour une approche de la cosmologie, car la manière dont un corps vibre nous révèle des informations importantes sur sa structure.


Il serait dommage de dédaigner cette piste, qui apporte des réponses intéressantes et compatibles avec ce que la nature nous révèle par les observations, même si son fondement peut sans-doute être amélioré.


La valeur des constantes G et c est-elle imposée par l’univers ? Mise à jour 10/03/21

Longueur de Planck, temps de Planck et masse de Planck [1]

 La longueur de Planck, le temps de Planck et la masse de Planck seront définis à partir des constantes fondamentales de la physique qui sont la vitesse de la lumière notée c, la constante gravitationnelle notée G et la constante de Planck notée h, [2] en utilisant des arguments dimensionnels. Dans le système MKS, leurs valeurs sont :

c = 299 792 458 m s1,

G ≈ 6,674 30 × 10−11 m3 kg− 1 s− 2,

h ≈ 6,626 070 040 × 10−34 kg m2s− 1

h ≈ 1,054 571 800 × 10−34 kg m2 s− 1

Pour c, c’est une valeur exacte (par définition), les autres sont des valeurs mesurées donc des valeurs approchées, la valeur de toutes ces constantes n’est pas prédite par la théorie, elles sont appelées paramètres libres [3]. Les dimensions de ces constantes sont répertoriées.

La longueur de Planck lP sera donc définie par le produit le plus simple de ces constantes qui a la dimension d’une longueur, pour le temps tP et la masse de Planck mP, c’est le même principe mais pour un temps et une masse. Cela donne :

mP = (hc / G) 1/2 ≈ 2177 x 10 -8 kg,

tP = (hG / c5) 1/2 ≈5 391 x 10-44 s

lP = c.tP = (hG / c3) 1/2 ≈1,616 x 10 -35m,

Nous pouvons vérifier que ces valeurs ont la bonne dimension et avec les valeurs des constantes c, G, h, dans le système MKS, que leurs valeurs sont correctes.

Force de Planck

 En utilisant la loi f = m γ, où f est la force appliquée à la masse m et γ l’accélération résultante, en utilisant les valeurs de Planck pour les opérandes, on obtient,

fP = mP γP,


γP = lP / (tP ²) → fP = c4 / G ≈1.21 x 1044 Newtons (m.kg.s– 2)

Cette valeur énorme est indépendante de la valeur de la constante de Planck ! En d’autres termes, quelle que soit la valeur de h, on obtient ce résultat !

A l’échelle de Planck cette relation intervient dans le calcul de ce qu’on appelle l’énergie du vide. Cette énergie du vide possède une phénoménologie d’antigravité qui pourrait expliquer “l’énergie noire” de même phénoménologie, qui se manifeste par une constante cosmologique dans les équations d’Einstein, s’il n’y avait pas un désaccord monstrueux dans les ordres de grandeurs.

La constante cosmologique résultant de l’énergie du vide serait 10 122 fois plus importante que ce qu’on observe et qu’on mesure dans l’univers.

Commençons par souligner que l’on retrouve la force de Planck également dans d’autres phénomènes, tels que :

Ondes gravitationnelles

L’amplitude « a » de l’étirement et de la compression de l’espace est donnée par la formule :

a ≈ [2G /(c4r)] Q’’(t – r/c)

On remarque la constante :

2G/ c4 ≈ 1,65 x 10 -44 m-1 kg-1

Cette constante, qui a la dimension de l’inverse d’une force de valeur minuscule, qui intervient en facteur multiplicatif dans « l’élasticité [4]» de l’espace montre que l’élasticité de l’espace est très petite : l’espace est très rigide.

Sa valeur est le double de l’inverse de la force de Planck.

Dans cette formule, Q est le quadripôle du système émettant des ondes gravitationnelles, Q’’ est sa dérivée seconde, par rapport au temps.

Dans cet exemple, remarquons que la force de Planck intervient dans un phénomène qui concerne l’espace tout entier. Ceci est de nature à conforter son utilisation à l’échelle de l’univers.

Force gravitationnelle de 2 trous noirs en contact (Force gravitationnelle maximale entre 2 corps ?)

Un trou noir de masse M a un rayon de Schwarzschild rs (définissant un horizon) qui vaut :

rs ≈ 2GM / c².

Si nous utilisons la loi [5]:

f = G m1 m2 /R²

Avec m1 = m2 = M.

Lorsque 2 trous noirs (qu’on a choisi identiques pour simplifier) ​​sont en contact, leur distance à leurs centres est R = 2rs. L’insertion de ceci dans l’équation précédente donne :

f = G M² / (2rs) ² = (c4GM²) / (4GM) ² = c4 / 16G

On retrouve toujours ce même facteur : c4 /G

Notons que l’on peut considérer cette force comme la force gravitationnelle maximale entre deux corps distincts puisqu’au-delà, les corps vont s’interpénétrer et perdre leur identité.

Invariance de la force de Planck appliquée à l’univers. Masse estimée de l’univers

Ce facteur c4 / G, la force de Planck, joue un rôle qui manifestement ne se limite pas qu’au domaine microscopique régi par la mécanique quantique.

En particulier, comme nous l’avons indiqué, sa présence régissant l’élasticité de l’espace dans les équations des ondes gravitationnelles montre qu’elle intervient à l’échelle de l’univers.

Puisque cette force « Planck » est indépendante de la valeur de la constante de Planck, faisons l’hypothèse hardie, que nous commenterons et critiquerons dans un chapitre ultérieur, que la force de Planck s’applique pour une valeur d’une constante de Planck modifiée, notée hu, (h univers) où « la masse de Planck modifiée » serait par exemple égale à celle de l’univers. Notons que nous pouvons, tout aussi bien, considérer la taille de l’univers ou l’âge de l’univers pour déterminer l’échelle à considérer.

Ces points seront discutés.

L’idéal, comme nous ne faisons aucune hypothèse sur le modèle cosmologique à l’exception du fait qu’il est homogène et isotrope, serait de prendre un critère expérimental (une observable indépendante du modèle) pour déterminer cette échelle.

Le choix de la masse peut paraître inappropriée car, par l’approche que nous faisons, la force de Planck est liée à la constante cosmologique où la masse semble absente. Mais, prendre les autres paramètres (taille et âge) semblent se révéler équivalents dans la méthode que nous suivons. Optons donc pour la masse.

Les données actuelles attribuent une masse d’environ cent milliards (1011) de masses solaires à notre galaxie (y compris matière noire) et le nombre de galaxies est estimé à environ 1000 milliards, 1012 (ces chiffres sont récents, les chiffres antérieurs ont été révisés à la hausse).

Notons que ce comptage qui peut paraître “objectif” comporte de larges extrapolations et suppose implicitement une certaine taille à l’univers puisqu’il faut le considérer dans sa totalité et pas seulement dans sa partie observable.

Avec 1012 galaxies de 1011 masses solaires et une masse solaire de ≈ 2 x 1030kg, nous obtenons :

Masse de l’univers = Mu ≈ 2 x 1053 kg.

Comme la masse de Planck, (mP ≈ 2 x 10-8 kg), il faut multiplier par un facteur K ≈ 1061, pour obtenir la masse de l’univers avec la formule donnant la masse de Planck. Comme dans la définition de la masse de Planck, c’est sa racine carrée qui est impliquée, la constante hu à utiliser, à la place de la constante de Planck h, est telle que :

hu ≈ 10122 h.

Énergie du vide et constante cosmologique

Pour expliquer l’accélération de l’expansion de l’univers, on a introduit le concept d’énergie noire. Une solution mathématique pour l’énergie noire est la constante cosmologique. Comme l’énergie du vide produit une phénoménologie de ce type (répulsion) on a pensé qu’elle pourrait fournir une explication physique à cette constante cosmologique. Cette hypothèse a été écartée en raison d’un énorme écart (autour de 10122) entre la valeur calculée de la constante cosmologique résultant de l’énergie du vide et sa valeur actuelle, mesurée par les cosmologistes.

Rappelons que le vide, considéré comme un champ quantique (solution de type oscillateurs harmoniques), de valeur d’énergie minimale E = h.c/(2.l) dans un volume l3, fait débat. Même en imposant que la longueur l soit supérieure à la longueur de Planck, cela donne une énergie par m3 d’environ 10113 Joules ce qui est énorme dont on a du mal à donner une signification physique. Si la cosmologie moderne est une application de la théorie de la relativité où on peut modéliser par une constante (constante cosmologique) dans l’équation d’Einstein, un fluide, non quantique, qui a les propriétés du vide, elle n’explique rien au niveau de sa nature physique.

Mais, poursuivant notre analyse dimensionnelle, l’énergie du vide doit être calculée non pas avec la constante physique de Planck h mais avec hu,où c’est l’univers qui donne l’échelle, qui introduit le facteur 10122.

La dimension de la constante cosmologique étant [L]-2 (inverse d’une longueur au carré) cela peut s’obtenir en calculant (T.c)-2, ou T est l’âge de l’univers et c la vitesse de la lumière. Le calcul avec un âge de 13,7 milliards d’années donne une valeur de 0.6 10-52 m-2, à comparer avec la valeur mesurée de 1.088 10-52.

Cette valeur sous-évaluée s’explique par le fait que dans notre analyse dimensionnelle nous ne prenons pas en compte la matière (baryonique et noire) dont l’effet, contraire à celui de la constante cosmologique, est de ralentir l’expansion. La valeur obtenue par l’analyse dimensionnelle correspond à une phénoménologie qui serait seulement due à la constante cosmologique. Elle est donc sous- évaluée, car en ne prenant pas en compte l’effet contraire de la matière.

Nous constatons que l’énergie du vide, ainsi évaluée, rend compte, en ordre de grandeur, de l’énergie noire constatée et de la valeur de la constante cosmologique associée. 

Justification de la pertinence physique du changement d’échelle.

D’un point de vue physique cette proposition peut être étayée par des considérations statistiques. On peut découper l’univers en cellules microscopiques. Au niveau d’une cellule microscopique l’état du vide qui subit des fluctuations liées au processus de création/annihilation de paires particule-antiparticules peut être représenté par une variable aléatoire gouvernée par une loi statistique, de Poisson par exemple. Dans tous les points du vide de l’univers les variables aléatoires associées à ces microcellules sont indépendantes.

La statistique nous dit que la courbe de distribution de la variable aléatoire de l’état du vide résultant de toutes ces variables aléatoires à l’échelle de l’univers est une variable aléatoire qui tend, quelle que soit la loi statistique au niveau microscopique, vers une loi de distribution normale (gaussienne) dont les paramètres, moyenne et variance, se calculent à partir des lois microscopiques et de la configuration de l’univers en termes microscopiques.

Dans ces conditions, une énergie du vide à une échelle de l’univers a un sens physique et cette hypothèse peut être envisagée.

Longueur de Planck et temps de Planck à l’échelle de l’univers.

Pour calculer la longueur L et le temps T associés à l’échelle de l’univers, avec la même « force de Planck », les valeurs de l’échelle de Planck doivent être multipliées par:

K ≈ 1061.

En appliquant ceci, nous obtenons [6] :

 L ≈ lP x 1061 ≈ 1,6 x 10-35 x 1061 m ≈1, 6 x 1026 m ≈1,7 x 1010 al : 17 milliards d’années-lumière.

T = tP x 1061 ≈ 5,4 x 10-44 x 1061s ≈5,4 x 1017 s ≈1,7 x 1010 ans. Cela fait 17 milliards d’années.

Compte tenu des inexactitudes dans les estimations de la masse de l’univers, on voit que l’on obtient des chiffres qui sont de l’ordre de grandeur de ce qui est adopté aujourd’hui, surtout si on tient compte du fait que la dynamique de l’univers décrit dans la méthode serait régie que par la constante cosmologique.

A l’inverse, pour obtenir les chiffres corrects, il suffirait de corriger la masse de l’univers où, par exemple, le nombre de galaxies serait estimé à 800 milliards, au lieu de 1000 milliards, que qui introduit un facteur de 0.8 dans les données ainsi calculées. 

Calcul de la constante de Hubble

Notons qu’on pourrait aussi calculer la constante de Hubble H0 (on prend la valeur 70km/s/ Mpc, où Mpc est l’abréviation de mégaparsec) en considérant l’accélération de Planck, aP pour l’univers où FP est la force de Planck et MU la masse de l’univers :

aP= FP/MU = 1.21 x 1044 /(1.6 1053) = 7.5 x 10-10 m.s-2 et en comparant cette valeur à:

c.H0 = 3 x 108 x 2.27 10-18 =6.8 x 10-10.m.s-2

Qui a aussi la dimension d’une accélération.

La valeur de la constante de Hubble, déduite de l’analyse dimensionnelle par  aP/c ≈ 77 km/s/Mpc,. Elle est surévaluée de 10% par rapport à notre hypothèse, mais nous restons dans les ordres de grandeur.

Numérologie ou propriété structurelle ?

Numérologie ?

Il semble assez surprenant qu’en ne faisant aucune hypothèse sur le modèle cosmologique, sur l’univers et sur son contenu, en utilisant uniquement la constante gravitationnelle G, la vitesse de la lumière c, avec la notion de force de Planck comme un lien unificateur, entre les échelles puisqu’elle n’en dépend pas, on obtienne les ordres de grandeur de l’univers, du moins tels qu’ils sont estimés aujourd’hui.

Propriété structurelle : C’est l’univers qui détermine la valeur de c et G !

Une explication raisonnable serait, qu’en fait, ces paramètres libres, ne sont pas libres du tout, mais sont déterminés par l’univers car liées à sa composition et à sa structure ! Autrement dit, si nous avons mesuré l’âge T, la taille L et la masse M de l’univers, nous pouvons en déduire les valeurs de c et G par les équations suivantes :

De L = c. T, on tire :

c = L / T = (1, 6 x 1026 m) / (5,4 x 1017 s), soit:

c ≈3x 108 m / s

De fP = c4/G = M.L/T², on tire :

G=c4T²/ML=L4T²/T4ML= L3/(M T²)≈ (1,6 x 1026m)3 /[(2 x 1053kg) (5.4 x 1017s)²], soit:

G ≈7 x 10-11m3 kg− 1s− 2

Les résultats sont approximatifs du fait des arrondis, car, dans l’exemple, nous n’avons gardé que deux chiffres dans les nombres pour le calcul. Avec tous les chiffres significatifs dans les nombres, par construction, des valeurs T, L et M, évidemment, nous récupérerions les bonnes valeurs.

Soulignons qu’il nous fallait ces deux équations, deux contraintes, dont celle nouvelle de la “force de Planck”, pour calculer les valeurs des deux inconnues Get c.

Par conséquent, dans cette approche, la “force de Planck”, une contrainte nouvelle et inattendue, est nécessaire. Son interprétation physique est “l’élasticité” de l’espace, un concept utilisé pour les ondes gravitationnelles, lié à l’inertie de l’espace. Nous développons ce point dans un chapitre ultérieur. Cela nous incite à explorer une analyse où elle jouerait un rôle primordial, en escomptant que ce nouveau fil directeur pourrait contribuer à éclairer la compréhension de la théorie.

Quelques commentaires sur cette analyse dimensionnelle

Comme nous avons utilisé largement le concept de masse et qu’il existe trois types de masse nous devons préciser le type de masse auquel nous nous référons. Il est aussi utile de rappeler, avant toute chose, que tout corps massif possède les trois types de masses, et que ces masses ont, en général, des relations entre elles.

 Masse gravitationnelle, déclinée en 2 catégories

Masse gravitationnelle active

Habituellement, lorsque nous considérons la masse de l’univers, nous nous référons à sa masse gravitationnelle active. C’est cette masse qui génère le « champ gravitationnel ».

En relativité générale, toutes les masses contribuent à la géométrie de l’espace-temps à laquelle chaque masse se couple en suivant une géodésique de cette géométrie.

En effet, en relativité générale, l’univers est modélisé par un espace-temps dont la géométrie est représentée, mathématiquement, par ce qu’on appelle une variété.

Ceci correspond au concept de masse active que la gravitation Newtonienne définit. Mais dans notre analyse dimensionnelle, ce n’est pas cette masse qui est concernée.

Cela invaliderait-il notre analyse, car nous n’abordons pas le bon concept de masse ?

 Masse gravitationnelle passive

La masse gravitationnelle passive d’un corps est le coefficient de couplage au champ gravitationnel généré par les masses actives. En relativité, les masses suivent les géodésiques de l’espace-temps générés par toutes les masses, c’est la manière dont le couplage s’opère dans cette théorie.

Masse inertielle

Elle est définie par la deuxième loi de Newton f = mγ, et c’est elle que nous avons utilisée dans notre analyse. Nous pouvons commencer par examiner les relations entre les masses.

En relativité, la masse inertielle de toute entité est égale à sa masse gravitationnelle passive, c’est le principe d’équivalence [7] qui est aussi valable en physique newtonienne mais seulement pour les corps pesants.

En mécanique classique la masse gravitationnelle active d’un corps est égale à sa masse gravitationnelle passive, d’après le principe de l’action-réaction. Donc en physique newtonienne toutes les masses sont égales. Ce qui est vrai pour une, l’est pour les autres.

En relativité, a priori, cela est moins évident, car la masse active peut faire intervenir des intégrations dans l’espace-temps pas toujours bien définies. Mais on peut essayer de définir ce que pourrait être la masse inertielle de l’univers par les arguments qui suivent.

L’équation d’Einstein fournit une solution, selon le principe de moindre action, qui est une géométrie pour l’univers, où tous les corps contribuent à sa définition et où, en retour, tous les corps suivent les géodésiques de la géométrie qu’ils ont définie.

Peut-on définir une inertie de l’univers ?

En relativité générale l’univers est un système réputé “isolé”. Il est le “tout”, ce que sa description mathématique par une variété atteste. Il n’a aucun besoin de faire référence à autre chose que lui-même pour exister et être totalement décrit. Dans ces conditions définir une inertie semble impossible.

Mais, c’est oublier que la relativité générale ne traite que de la gravitation et que dans l’univers d’autres interactions existent qui peuvent avoir une interaction avec les masses et l’énergie régissant la structure de l’univers.

Ce couplage avec ces autres interactions est décrit en général au niveau d’espaces locaux, qu’on qualifie “d’internes”, en chaque point de l’espace-temps relativiste. Ces espaces internes qui sont donc en contact local avec l’espace relativiste peuvent interagir avec lui. Dans ces espaces internes, les lois des interactions autres que la gravitation et leurs couplages avec l’espace-temps relativiste sont décrites. Ces espaces internes sont tangents en chaque point de la variété qui décrit l’espace-temps de la relativité générale. L’ensemble constitue un “fibré’ dont la variété décrivant l’espace-temps relativiste est appelée la “base”, et les espaces internes les “fibres”.

En conséquence, l’espace-temps de la relativité générale, défini par le principe de moindre action par l’équation d’Einstein qui décrit un univers “à l’équilibre” (stable), n’est pas un système isolé. Il peut être “perturbé” par d’autres interactions. Alors un concept d’inertie peut être introduit comme suit.

L’inertie de l’espace-temps relativiste sera sa résistance à un changement de cette situation gravitationnelle « stable », puisque définie par le principe de moindre action ; s’il n’y avait eu que la gravitation il n’y aurait pas eu de raison de sortir de cet état.

Donc, si, pour une raison étrangère à la gravitation,[8] localement, un corps s’écarte de la géodésique définie par la solution de l’équation d’Einstein, cela va être un bouleversement. En effet cela ne se traduira pas seulement par un changement local car, conformément à l’équation Einstein qui définit un univers global, avec ces nouvelles données, c’est toute la géométrie de l’univers entier qui est modifiée, même si cette modification est infinitésimale !

Ce n’est pas instantané, des ondes gravitationnelles seront émises en réaction inertielle à cette perturbation [9] et le nouvel état de l’univers ne sera achevé que lorsque les ondes gravitationnelles auront atteint la limite de l’univers, ces limites dépendant de la taille mais aussi de la géométrie de l’univers.

Cela peut prendre un temps infini. Une nouvelle solution stable, correspondant à une configuration modifiée des paramètres, émergera de cette solution précédente perturbée et ainsi de suite. De cette façon, nous voyons que nous pouvons définir la masse inertielle de l’univers : l’inertie de l’univers tout entier émerge de cette phénoménologie.

Remarquons que même en l’absence de matière baryonique et de rayonnement, ce type d’inertie peut être définie car la solution associée au cas d’une constante cosmologique seule donnée par l’équation d’Einstein procède du même principe de moindre action et doit présenter une inertie à toute tentative de perturbation.

Les ondes gravitationnelles se propagent dans cet espace-temps comme une réaction inertielle à cette perturbation. Les paramètres physiques, notamment le facteur G/ c4 associé à « l’élasticité » de l’univers qui va déterminer l’amplitude de la déformation transitoire de l’espace-temps jusqu’à ce qu’un nouvel état d’équilibre soit atteint, de cette propagation caractériseront les propriétés inertielles de l’univers entier.

Champ de Higgs et principe de Mach

 En physique moderne, la masse d’inertie est supposée provenir du couplage avec le champ de Higgs, [10] qui remplit l’espace.

Curieusement au dix-neuvième siècle E. Mach, sur des considérations philosophiques et mécaniques pour expliquer l’équivalence de la masse pesante et de la masse inerte, attribuait l’inertie des corps à l’interaction gravitationnelle entre toutes les masses de l’univers. L’inertie étant conférée par la gravitation il était alors naturel que la masse inerte soit égale à la masse gravitationnelle passive (masse pesante). Dans cette description c’est tout l’univers qui est concerné, point commun avec le champ de Higgs qui lui remplit tout l’univers.

La description de Mach, si elle est conforme à l’inertie de l’univers telle que la relativité générale la décrit, un univers ” à l’équilibre “, car satisfaisant au principe de moindre action où une perturbation locale entraine une réaction inertielle globale avec rayonnement en réaction, à part ce caractère de globalité, semble être très différente de la phénoménologie associée au boson de Higgs.

Le champ de Higgs a été construit pour expliquer la masse de certains bosons et celle de la matière puisque le formalisme quantique ne le permettait pas. Ceci semble lui conférer un caractère ad hoc. Peut-être que la nature est ainsi, mais il n’empêche qu’on peut ressentir une certaine frustration que ceci n’ait pas été inclut dans le formalisme quantique régissant les interactions, ceci étant renforcée par le fait que la masse des particules élémentaires ne peut être prédite et semble ne se déduire d’aucune loi.

Manifestement, c’est notre incompréhension du fait que tantôt l’énergie se manifeste tantôt sans masse et tantôt avec masse, avec la possibilité à tout moment, sous certaines conditions de passer d’un état à l’autre, sans qu’on en connaisse la raison, qui est en cause.

Une réflexion complémentaire sur ce point serait sans toute très utile pour mieux appréhender ces phénomènes.

Critiques sur cette approche

Une approche heuristique

Le principal reproche est qu’il s’agit d’une approche dimensionnelle qui, même si sa contribution heuristique est précieuse, n’est pas une théorie physique rigoureuse. C’est vrai, mais néanmoins, une telle approche nous a apporté des informations intéressantes, qui étaient probablement cachées dans les paramètres que nous avons utilisés. Au moins, elle a permis d’extraire cette information de ces paramètres, et il n’est pas sans espoir qu’il puisse fournir une ligne directrice à une nouvelle théorie.

De plus, dans ce document, nous n’avons pas toujours respecté l’approche relativiste. Mais étant une étude sur des ordres de grandeur, où l’on fait des hypothèses audacieuses, par exemple, l’estimation de la masse totale de l’univers, qui a considérablement évolué au cours des 20 dernières années, les résultats de ces approximations sont, au moins, instructifs.

Qu’en est-il du concept de force en relativité générale ?

Nous avons utilisé le concept de « force gravitationnelle » tandis qu’en relativité générale, qui est la théorie actuelle, utilisant un formalisme géométrique pour décrire la gravitation, ce concept est remplacé par la courbure de la géométrie de l’espace-temps

En effet si, contrairement à la mécanique classique, en relativité générale la gravitation n’est pas considérée comme une force, pour l’univers, dans son ensemble, nous avons défini son inertie qui est liée à un concept de force, induit dans la représentation de l’amplitude des ondes gravitationnelles [11] par le concept d’élasticité de l’espace que nous avions lié à l’inverse de la force de Planck, comme décrit dans un chapitre précédent.


[1] Ce sujet fait suite à une proposition d’Edouard Bassinot, de définir une « force de Planck », définie par la deuxième loi de Newton avec les paramètres de Planck. J’ai été intrigué par la proposition et j’ai essayé d’en explorer les conséquences possibles. L’un d’eux serait que la constante gravitationnelle G et la célérité de la lumière c ne seraient pas des paramètres libres dans la théorie. Ils seraient imposés par les paramètres physiques (âge, taille et masse) de l’univers.

[2] h = h / 2π, à la place de h, est souvent utilisé, car la pulsation angulaire θ / s est plus pratique que la fréquence en physique. Le facteur 2π résulte du fait que 1 Herz est égal à 2π radians / seconde.

[3] Soulignons que la valeur des constantes G et c n’est pas prédite par la théorie. Ce sont ce que nous appelons des « paramètres libres ». La valeur exacte de c résulte d’une convention permettant de définir les unités de longueur et de temps ! Pour la constante h, également imprévisible (donc libre), la relation E = h.f, où f est la fréquence d’un photon et E son énergie permet de mesurer sa valeur. La constante h, introduite pour la première fois en physique pour le rayonnement du corps noir (voir un autre article sur le site), est omniprésente en mécanique quantique.

[4] L’élasticité est liée à l’étirement élastique d’un corps (par exemple un ressort) soumis à une contrainte d’étirement. Une faible élasticité offre une énorme résistance à la force d’étirement résultant en un petit étirement. L’équation aux dimensions de l’élasticité correspond à une longueur divisée par une force. En fait, 2G/c4 qui a la dimension de l’inverse d’une force n’est pas l’élasticité mais intervient en facteur multiplicatif dans la valeur de l’élasticité.

[5] Commentaires sur l’approche : La première objection qui vient à l’esprit est que cette approche est de type newtonien, nous avons utilisé la loi newtonienne, F = G.m1.m2 / r², donnant la force F d’attraction entre 2 corps, une de masse m1 et l’autre de masse m2, séparés par une distance notée r.

[6] Dans une année, il y a environ 3600 x 24 x 365 ≈ 3.15 x 107 secondes et dans une année-lumière 9.45 x 1015 mètres.

[7] E. Mach, sous une approche philosophique, avait affirmé que l’inertie était d’origine gravitationnelle. Ceci expliquait le principe d’équivalence, car en fait, il ne s’agit pas de deux phénoménologies, mais de la même.

[8] Si la gravitation était uniquement impliquée, cela ne devrait pas se produire, car l’équation d’Einstein décrit l’univers le plus stable, celui avec l’énergie la plus faible possible. Mais ce sont d’autres interactions, comme l’électromagnétisme, qui peuvent perturber cette situation calme et parfaite.

[9] Ces ondes sont la réaction inertielle à un changement de la géométrie de l’univers sous une perturbation de l’état stable établi du système, où le mouvement de tout corps était géodésique. Aristote aurait appelé mouvement naturel le mouvement géodésique contrairement à celui résultant d’une perturbation qu’il appelait mouvements violents ! Cette émission d’ondes, comme réaction inertielle à une perturbation d’un état « naturel » d’un système est un processus général en physique. Par exemple, des ondes électromagnétiques sont émises, sous forme de réaction inertielle, lorsque l’on accélère une particule chargée. Cette émission s’accompagne d’une perte d’énergie de la particule accélérée : elle rayonne une partie de l’énergie qui lui est transférée par le processus qui l’accélère. Il en est de même pour les ondes gravitationnelles.

[10] Ce champ est (localement) scalaire. Le formalisme relativiste invoque un champ tensoriel ? Peut-on définir une compatibilité ou un couplage.[11] Pour être rigoureux, il faut rappeler que l’équation donnant l’amplitude des ondes gravitationnelles, citée dans un chapitre précédent, résulte d’une « linéarisation » du tenseur de Riemann dans un champ faible où la métrique relativiste gμν est approchée par la métrique de Minkowski ημν à laquelle on ajoute une perturbation hμν supposée petite par rapport à 1 (gμν ≈ ημν + hμν). Ce n’est pas de la relativité au sens strict mais une théorie « post-newtonienne ». Cela invaliderait-il les remarques conceptuelles que nous avons faites ou plutôt cela les modifierait-il ? Cette dernière proposition étant plus crédible du fait de leur validité en champ

Consciousness and existence: some brainstorming about it (revised June 19)

“The ego is a relation which relates to itself” S. Kierkegaard – Treaty on despair.

 In his definition of “ego “, the subject (me) and the object (me) are no longer intrinsic entities, but shadows of a more complex self-recursive structure that we call consciousness!

Like the snake biting its tail to close the circle, image, that curiously, we find in Nordic cosmogonies as we can see on the figure below.

 It is this concept, difficult to understand, that one should retain from his introspection.

Ygdrasil, the cosmic tree, ensures the vertical coherence of the worlds of Nordic mythology, while the snake of Midgard ensures its horizontal coherence.

Painting attributed to Oluf Bagge

Surprisingly, we find this kind of theorical structure in general relativity; As far as the universe is concerned, the classical view is that the universe is the container of all things that are in it, which are called the content. In this point of view, content and container are independent.

But, in general relativity, what would have been called, commonly, content and container in classical mechanics, is one entity. All the parts of what we would call the “content” in Newtonian mechanics define the geometry of the spacetime (the entity), while in turn all these parts interact (are coupled) with the geometry of this spacetime that they have defined and which then defines their phenomenology!

The whole, which results from this embrace, constitutes a space-time which is our universe

 In this case, we have found a solution to this intricate interdependence which, moreover, reflects better, than the classical view, the phenomenology of the universe, such as we observe it.

This looks to be a worthful approach for our topic.

Faced with this strange self-recursive property, one can wonder if this is a universal fundamental property of which our mind and the universe would be some representations.

But we can also assume that the cause is the structure of our mind which imprints the structure of the theory describing the universe, or, of course, vice versa.

 In order to try to find an approach to a situation that seems rather locked from the inside, let’s start with a phenomenological examination. Even if it is peripheral to the subject (we look around to examine it from different points of views), seeking who it applies to, how it’s implemented, what it entails. We hope that this would give us some information that might open up, at least, some perspective on how to tackle the problem.

Let’s start with the problem of our existence, which is a prerequisite for our consciousness. Let us underline that the motivation of this document, like the method advocated by Plato, is not to reveal any universal truth but to encourage everyone to think about what would corresponds to their own knowledge

 Would cosmology be different if we did not consider the problem of the creation of the universe, of its existence and of ours?

 The study of the current cosmological model, including the supposed “creation” of the universe, shows that our existence looks totally accessory even though all conditions for intelligent life were fulfilled [1]. It is surprising that in a theory which is a human work, the human is (apparently?)  absent! We wouldn’t be there; things would have gone the same way.

Our late appearance in its history attests it, since for more than 13 billion years (in cosmological time), all that happened, happened without us.

 Are we the only thinking beings in the universe?

The discovery of exoplanets in large numbers, foreshadowing a gigantic number, makes it credible that other forms of life, some of which being intelligent, may exist [2]. At the risk of upsetting our ego, the universe may also exist for others and as such would be “of more general interest” than we think. Are these other beings asking the same questions, have they gone beyond that? 

To tempt answer, we would have to start by getting rid of our egocentric approach. 

Is the problem of the creation of the universe and of our own a worthful topic?

 Since, it doesn’t seem like there is any need for this and it seems that our existence looks useless, one might wonder why living things, like us, wonder about it. We could therefore close the debate there, by considering quite wisely that all this seems to be a void question. Nevertheless, as we are children, rather curious, of this universe and that one can be seized with a doubt, in general, we consider that the question deserves to be examined as, perhaps this apparent uselessness is hiding something! After all, we admit a creation from nothing, why not look for a reason hidden in the useless. 

 Phenomenology of creation?

 The creation of the universe, is a mystery, because emerging from nothing is not a common event and should, doubtless, break some laws of physics and assuming that it is the transformation of something that existed before, one is only postponing the problem which ends up in an “eternal” existence of something.  

Cosmology is a theory, moreover not quantified, where the “origin” of the universe is a problem that the standard model of cosmology avoids by invoking a “singularity” for that.  

Creation is a singularity in this model, something where physics does no longer apply! In our daily existence the word “creation” is used in many various topics (art, business, even cooking.). 

Each of us has been created, which is correct use of the word because, before that, we did not exist. But our material substance is made up of an assembly, certainly original and moreover changing, of atoms which already were existing in nature prior our creation. 

The elementary particles, almost elementary as they are made up of quarks, the protons and neutrons were (almost in totality) all created 13.7 billion years ago (in cosmological time in the Big Bang model). [3] 

The protons which constitute us are 13,6 billion years old! The protons and neutrons that constitute us may have belonged to dinosaurs before us, or even to viruses and bacteria, etc. 

In the recycling process, the nature is very efficient! 

Curiously, if the theory predicts an origin, in our universe, to the proton, the proton seems “immortal” (no spontaneous disintegration). This baffles physicists. Even though, speculative, supersymmetric theories predict a limited proton “lifetime”, this has never been observed.


Therefore, nature reveals a kind of “eternity”, by the immortality of the proton which is a fundamental brick of matter. It is a very strange “dissymmetrical” concept in physics, as well as in philosophy, as there is a beginning but no end!

Does this question make sense?

 The essential functions of life are reproduction, survival (food) and development of the species, by the best possible appropriation of an environment, this, in competition with the other species. This is what many life forms seem to be limited to such as viruses, bacteria, plants, animals.Some life forms only live for one day, just long enough to reproduce.

One may wonder what kind of benefit can be provided to the Sapiens by questioning on its existence.  To a lesser extent, are other evolved animals, wild or domestic may be in the same quest? 

Could this also apply to other less complex individuals of some species which are simple but which behave within sophisticated collective social structures, such as ants and bees, for instance? 

Another element, linked to ecology, which comes to mind, is that alongside competition there is cooperation, such as synergy or even symbiosis between very different elements (our intestinal flora which allows us to ” assimilate food, the role of insects in pollinating plants, etc.). 

All this forms a closely linked system (that the purpose of ecology) with multiple interdependencies. For our own safety, we must care to not damage it too severely.  

Likely, we question our existence because we are aware of being an individual, delimited in space and time, with an inside and an outside, located, with many others Sapiens on the Earth. 

Does asking this question give us an advantage?

A priori, no. Rather, it would be a disadvantage by the anxiety it can provide.

Is this inspired by the fear of death, because we know that our life is finite and consequently, do we wish to link it to something that gives it some reasons for this existence?  Hence the religious and philosophical responses. 

The algorithms in all of this?

 We build high-performance machines capable of great autonomy in decision-making and action, possibly capable of reproducing themselves (building some others) and improving on their own. But do they have a consciousness of existing? It is true that at the beginning it was humans who designed them and implemented them.

 But these algorithms increasingly inspired by neuronal networks that are capable of learning, so evolving, can they become fully autonomous and (this is the great fear of some) get out of our control and become totally independent ?

Can these algorithms be designed for getting a consciousness of existing or could this result of a “bug”?  If so, wouldn’t that be a handicap (by getting human behavior) or would it be an advantage? 

Is it consciousness that gives Sapiens an advantage?

 At first glance, it is not obvious that for living being interested in such existential topics it is an advantage in terms of the efficiency of a society. See, for example, totalitarian societies (Nazism, Stalinist communism for example), where the individual is totally submitted to the collective. In other words, as some advocate, are these concerns unnecessary, futile or even harmful? 

In terms of efficiency, totalitarian political organizations, where philosophy is not welcome, look more efficient, as easier to govern, but the success of them looks to be invalidated, as least partly, as, even though democracies are more difficult to govern, providing an extensive and various educational policy, they allow a better development of ideas, freedom for personal initiative, and therefore more prosperity.

Today, less than one quarter of the total population live in a democratic country but the GNP of these countries accounts for three quarters of the world GNP. But, in a world, under tension as ours, democracies are more fragile and may be threaten by a growth of the obscurantism. This why it is so important to promote an extensive educational policy everywhere. 

Limits and confidence in the Brain

 The big question is therefore the nature of this consciousness linked to the nature of our brain. If this organ is remarkable, it would be wrong to sanctify it, because it is only an evolution of a more primitive structure.

He can be remarkably smart at dealing with common problems that we encounter in our environment, but he can only effectively deal with what he has encountered before (learning).  In other words, for questions to problems he has not been confronted with, his answers are questionable.

 Note, however, that the answers he can give are probably better than those resulting from simple chance because it is a remarkable property of neuronal networks to give a not completely random answer if the question asked has correlations with others questions that he has faced before.

It is surprising to see how an evolution, in the nature, providing a huge and sophisticated combination of interconnected neurons which, individually, are a very simple structure, may be so powerful. The power is in the combination of the neurons. A model that the most sophisticated algorithms try to imitate. 

Our brain: self-recursion at all levels!

 Let us note the feedback, because it is with our brain that we foment these doubts about it. In addition, it is also with our brain that we study it, at least its organic constitution where the manifestations of its cerebral activity have a physical counterpart, which only allows you to know shadows of reality !

Let us notice that this limit is not totally absent in the physical sciences, because experiments in physics reveal the phenomena, that is to say, the things such as they appear to us (the shadows on the walls of Plato’s cave), but certainly not the reality of the thing which is intended to be inaccessible !

It is with these constrains that we must orient our speculative questioning: How to be able to seek what the brain does not know by using our brain.

We see that we are facing a self-recursive problem that we will have to try, not to untangle because consciousness is part of this self-recursion, but to synthetically understand it in its structural complexity. The danger is that it misleads us without being able to realize it. 

As long as it is physics, the universe and the physical world give us some material references on which we can rely and even though we should be cautious even in physics, because it is through our physical interface (mind, instruments, theories) that we apprehend this physical world, when it comes to question our existence, it is pure metaphysics where none of these evidences exists.

Conclusion: as Plato said : To each one, his conclusion …

[1]  This fact is a truism, if it weren’t, we wouldn’t be here. This is called the “Weak anthropic principle”, which should be rather called the “weak anthropic argument”.

This topic is detailed in the book where we wonder how far, in a reductionist approach, we can go. In summary, for living things this is allowed by the structural diversity of electronic layers governed by quantum mechanics which allows very complex molecules.

 Indeed, the whole physic, with its elements and its laws of interaction is at work in this scheme. We consider that DNA is the key of the evolution and of the extraordinary complexity of living things. The evolution from very simple structures to complex beings like us, where the different functions necessary to life are carried out by specialized organs interacting with each other but also with other forms of living things (bacteria, viruses) is prodigiously marvelous! 

And what about sexual reproduction where from a tiny fertilized egg, the DNA architect will build an original individual but according to a well-established plan!

But this DNA also has its own DNA which are the four interactions (gravitation which will provide the convenient large “accommodation” for life (planets) and contribute to the supply of energy (stars), the strong interaction which build the protons, the neutrons also intervene in the. atomic nuclei, the weak interaction which allows the change of nature of the elements (the dream of the alchemists) and therefore their diversity and finally at the level of the human and of his environment scale, the electromagnetism which governs the electronic layers and allows the whole chemistry.

 These interactions constitute the primary DNA, whose laws govern, among others, our DNA.

Have these interactions always existed ? The Standard Model of Cosmology (MS), tells us that at the very beginning, they might exist but anyway they did not operate as they were masked.

In fact, even at that time, our DNA was already included in our universe.

These interactions decoupled very early (in cosmological time from the MS) and since that they are at work.

[2] The number of planets must be gigantic, as this is associated with the mechanism of star formation. In fact, the angular momentum must be evacuated so as not to prevent the collapse of the gas cloud that will generate the star, in the case of simple stars. It is the planets, which given their distance from the star which, despite their mass much less than the star, do this. In the solar system if 99% of the mass is in the Sun, 99% of the angular momentum is in the planets. So the existence of a planetary system for each star is a generic phenomenon, which suggests that the number of planets in the universe is greater than that of the number of stars, namely more than one hundred trillion trillions of planets!

The opportunity for life to develop is important, notwithstanding the silence of the heavens for reasons evoked by the Fermi Paradox and the Drake Equation, taking into account, among others, the lifespan of an evolved civilization….

 [3] We speak of “immortal” free protons. Protons can decay into neutrons in nuclear reactions within an atomic nucleus such as (P + P → P+N (deuterium) + positron + neutrino via W+, which is the boson of weak interaction, in the Sun for example. Likewise, neutrons can decay into protons in atomic nuclei. The free neutron is unstable with a period of about 15 minutes. It disintegrates into a proton + an electron + an antineutrino (via the weak interaction boson W+)

 It is stabilized in a potential well, like that of atomic nuclei, in particular the nucleus of Helium, which made it possible to save the neutrons that had survived in primordial nucleosynthesis.

Quel est l’âge de l’univers?

Quand on dit que l’âge de l’univers est estimé à 13, 7 milliards d’années, cela veut-t-il dire que, nous pourrions voir le big bang à 13,7 milliards d’années de notre passé?

Cela supposerait que nous disposions d’un moyen d’observation très puissant.

Compte tenu de la vitesse de la lumière qui constitue une limite, plus on regarde un événement loin dans l’espace, plus on voit loin dans notre passé, puisque plus la lumière émise par cet événement met plus de temps à nous parvenir, alors, très loin dans l’espace, correspondant à 13, 7 milliards d’année de notre passé, verrions nous le big bang?

Hélas non! Le temps de 13, 7 milliards d’années n’est pas notre temps actuel, celui que nous vivons appelé notre temps propre, en fait pour nous le big bang tel qu’il est décrit dans le modèle standard est rejeté à l’infini de notre passé, nous ne pouvons pas l’observer. Par quel mystère cela est-il possible?

Ce temps de 13, 7 milliards d’années correspond à la coordonnée temps d’une forme particulière des équations qui décrivent la cosmologie relativiste, incluant la métrique de Robertson-Walker qui, entre-autres, définit ce temps, appelé “temps cosmologique”.

Ce temps n’est pas le nôtre, il y est cependant relié par des équations qui précisément donnent un facteur multiplicatif qui diverge vers l’infini lorsqu’on s’approche du big bang.

Cette possibilité d’existence de temps différents est une conséquence de la relativité où il n’existe pas de temps universel. Chacun peut avoir son propre temps, différent de celui de tous les autres. C’est ce qui se produit dans ce cas. Donc, attention, quand on parle de temps, bien vérifier duquel il s’agit.

Conscience et existence : quelques considérations sur le sujet (révisé le 18 juin)

« Le moi est un rapport qui se rapporte à lui-même » S. Kierkegaard -Traité du désespoir.

Dans sa définition du « moi », le sujet et l’objet ne sont plus des entités en soi, mais des ombres d’une structure auto-récursive plus complexe: la conscience !

A l’image du serpent qui se mord la queue pour fermer le cercle, que curieusement on trouve dans les cosmogonies nordiques voir figure ci-dessous, c’est ce concept, difficile à appréhender, qu’il retient de son introspection.

Ygdrasil, l’arbre cosmique, assure la cohérence verticale des mondes de la mythologie nordique, tandis que le serpent de Midgard assure sa cohérence horizontale. Peinture attribuée à Oluf Bagge

De manière assez surprenante, la relativité générale présente des caractères qui s’apparente à cette approche récursive : Pour ce qui concerne l’univers, la vision classique est qu’il est le contenant de tout ce qui est dedans appelé le contenu. Contenu et contenant sont indépendants.

Mais, en relativité générale, ce qu’on a appelé, communément, contenu et contenant en mécanique classique ne font qu’un, autrement dit, ils sont indissociables, car, non seulement ce sont toutes les parties du contenu qui définissent la géométrie du contenant, mais en retour toutes ces parties se couplent avec ce contenant qu’ils ont défini et qui définit alors leur phénoménologie !

 L’ensemble, qui résulte de cette étreinte, constitue un espace-temps qui est notre univers. Dans ce cas nous avons trouvé une solution à cette interdépendance intriquée qui de surcroît rend mieux compte que la vision classique de la phénoménologie de l’univers telle que nous l’observons.

Ceci est de nature à nous encourager à poursuivre nos investigations.

 Face à cette propriété étrange d’auto-récursivité on peut se demander si cela est une propriété fondamentale universelle dont notre esprit et l’univers en seraient des représentations. Mais on peut aussi supposer que c’est parce que notre esprit est ainsi construit que la théorie décrivant l’univers, qui est une construction cérébrale, incorpore cette structure si particulière comme une empreinte du concepteur, ou, bien entendu, vice-versa.

Pour tenter de trouver une approche à une situation qui semble plutôt verrouillée de l’intérieur commençons par un examen phénoménologique qui, même s’il est périphérique au sujet (on tourne autour pour l’examiner sous différents angles d’approche), en cherchant à voir à qui cela s’applique, comment cela est mis en œuvre, ce que cela implique, en espérant que cela nous donne des idées sur une clé qui pourrait ouvrir au moins quelques perspectives sur la manière d’aborder le problème. Commençons par le problème de notre existence, condition préalable à notre conscience.

Soulignons que la motivation de ce document, à l’instar de la méthode préconisée par Platon, n’est pas de révéler une quelconque vérité universelle mais d’inciter chacun à réfléchir à ce qui correspond le mieux à l’idée qu’il se fait du monde.

La cosmologie serait-elle différente si on ne se posait pas le problème de la création de l’univers, de son existence et de la nôtre.

L’étude du modèle cosmologique actuel, y compris la création de l’univers, montre que notre existence, si elle est permise par la nature des lois physiques à l’œuvre dans le scénario cosmologique [1], semble totalement sans influence sur le modèle cosmologique. Notre existence semble totalement accessoire dans ce processus. Nous ne serions pas là, les choses se seraient passées de la même façon. C’est ce que notre apparition tardive dans son histoire atteste, puisque pendant plus de 13 milliards d’années (en temps cosmologique), tout cela s’est fait sans nous. Sommes-nous les seuls êtres pensants de l’univers? La découverte d’exoplanètes en grand nombre, préfigurant un nombre gigantesque, rend crédible que d’autres formes de vie, dont certaines intelligentes puissent exister [2]. Au risque de chagriner notre ego, l’univers existe peut-être aussi pour d’autres et à ce titre serait “d’intérêt plus général” que nous le pensons. Ces autres êtres se posent-ils les mêmes questions, ont-ils dépassé cela? Pour répondre, il faudrait commencer par se débarrasser de notre approche égocentrique.

Pourquoi se poser le problème de la création de l’univers et de la nôtre ?

Comme, il ne semble qu’il n’y ait aucune nécessité à cela et que cela semble ne servir à rien, on peut se demander pourquoi des êtres vivants, comme nous, se la posent. On pourrait donc clore le débat là, en considérant fort sagement que tout cela semble ne servir à rien. Malgré tout, comme nous sommes des enfants, plutôt curieux, de cet univers et qu’on peut être saisi d’un doute, en général, nous considérons que  la question mérite d’être examinée, au motif que, peut-être, cette inutilité n’est qu’apparente et cache quelque chose ! Après tout on admet bien une création à partir de rien, pourquoi pas rechercher une raison cachée dans l’inutile.

Phénoménologie de la création?

Nous avons utilisé le terme de “création” qui, en science, pose problème en vertu du célèbre adage “rien ne se perd rien ne se créé, tout se transforme”. La création de l’univers, serait un mystère, car à supposer qu’il soit la transformation de quelque chose qui existait avant, on ne ferait que reporter le problème qui fini par aboutir à une existence “éternelle”. Rappelons que la cosmologie est une théorie, de plus non quantifiée, ce qui au sujet de son “origine” pose problème puisque le modèle standard de la cosmologie élude le problème en invoquant une “singularité”. La création est une singularité dans ce modèle, circulez, il n’y a rien à voir ! Dans notre existence quotidienne nous parlons de “création” à tout propos . S’agissant de nous mêmes, en tant que mortels, nous sommes créés, ce qui est exact car avant nous n’existions pas. Mais notre substance matérielle est constituée d’un assemblage, certes original et d’ailleurs changeant, d’atomes qui existaient déjà dans la nature (proche) et qui, pour leurs constituants élémentaires (ou presque – ils sont constitués de quarks), les protons et les neutrons ont (pratiquement intégralement) tous été créés il y a 13,7 milliards d’années (en temps cosmologique dans le modèle du Big Bang). [3]

Ce sont les mêmes, depuis ce temps là, que ceux qui nous constituent. Les protons et neutrons qui nous constituent ont pu appartenir certains à des dinosaures avant nous, voire à des virus et des bactéries etc.. En matière de recyclage la nature sait y faire!

Point intéressant, si la théorie lui prête une origine, le proton semble “immortel”, ce qui intrigue les physiciens. Les théories supersymétriques (spéculatives) prédisent une “durée de vie”limitée au proton mais cela n’a jamais été observé, au grand désespoir des physiciens.

La nature nous présente un exemple “d’éternité’ sous l’apparence d’une immortalité, concept “dissymétrique” bien étrange en physique, il y a un début mais pas de fin, qui, s’il peut être remis en cause dans d’autres théories, nous interpelle et peut ébranler certaines convictions au sujet de notre propre conception de ce que pourrait être notre propre création et celle de l’univers.

Qu’est-ce qui nous pousse à nous poser la question ?

Les fonctions essentielles de la vie sont la reproduction, la survie (nourriture) et le développement de l’espèce avec la meilleure appropriation possible d’un milieu qui le permet, en compétition avec d’autres espèces. C’est ce à quoi maintes formes de vie semblent se limiter comme les virus, bactéries, végétaux, animaux. Certaines formes de vie ne vivent qu’un jour, juste le temps de se reproduire.

On peut se demander quel type d’avantage peut apporter une réflexion sur l’être, comme celle que le Sapiens, que nous sommes, fait.

Un autre élément, lié à l’écologie, qui vient à l’esprit, est qu’à côté de la compétition il y a la coopération, comme la synergie voire la symbiose entre des éléments très différents (notre flore intestinale qui nous permet d’assimiler les aliments, le rôle des insectes pour la pollinisation ses végétaux etc.). Tout cela forme un système très lié avec de multiples interdépendances dont la prudence conseille de veiller à ne pas le molester trop brutalement.

Pour revenir à notre questionnement sur l’existence, c’est parce que nous réfléchissons et avons conscience, d’être un individu bien limité dans l’espace et le temps avec un intérieur et un extérieur, de notre existence que nous nous posons le problème de cette existence. Se poser cette question nous confère-t-il un avantage par rapport au cas où on ne se le pose pas ? A priori, au niveau de l’individu, du moins jusqu’à présent, cela ne semble pas être le cas. Au niveau d’une société on peut s’interroger.

 Individuellement, ce serait plutôt un inconvénient par l’angoisse qu’il peut susciter. Cela est-il inspiré par la peur de la mort, car notre vie étant de durée finie, on est amené à faire un bilan et, en conséquence, à le relier à quelque chose qui lui donne un sens. D’où les réponses religieuses et philosophiques.

Si la source de réflexion paraît être individuelle, pour autant, est-ce une valeur individuelle à laquelle on attache des droits (droits de l’homme par exemple) , sociétale  ou même liée à l’espèce ?

Cette réflexion est-elle l’apanage du Sapiens ?

 Sans parler d’êtres vivants élémentaires (paramécies, amibes, éphémères, insectes, dont nous sommes peut-être issus), un animal, évolué se pose-t-il la question ?

Il est difficile de leur demander, mais l’étude de leur comportement ne semble pas (sauf peut-être pour les chimpanzés ?) en montrer les signes. Cela ne les empêche pas d’avoir une vie « sociale » soit à l’état sauvage soit domestique pour certains. Nos lointains ancêtres dans les cavernes, avaient sans doute conscience d’exister. Malgré le contexte dangereux dans lequel ils devaient assurer leur survie et celle de l’espèce, via les premières structures sociales (famille-tribus), pouvaient-il avoir une notion confuse du problème. Probablement oui, si on en croît les mythes et les réponses religieuses qui ont émergées, sans doute sur la peur de la mort, qui amène à vouloir donner un sens à la vie.

Les algorithmes dans tout cela ?

Nous construisons des machines très performantes capables d’une grande autonomie de décision et d’action, éventuellement capables de se reproduire (en construire d’autres) et de s’améliorer de façon autonome. Mais ont-elles une conscience d’exister ?

Il est vrai qu’au départ ce sont les humains qui les ont construites et ont implanté leurs algorithmes. Mais ces algorithmes de plus en plus inspirés de réseaux neuronaux qui sont capables d’apprendre, donc d’évoluer peuvent-ils devenir entièrement autonomes que cela ait été essayé dans leur programmation ou que cela résulte d’une erreur (bug) et (c’est la grande peur de certains) d’échapper à notre contrôle et devenir totalement indépendants. Ces algorithmes peuvent-il aboutir à leur donner une conscience d’exister par des « boucles rétroactives).  Si c’est le cas cela ne serait-il pas un handicap (se mettre à réfléchir et hésiter) ou serait -ce un avantage ?

Est-ce la conscience qui donne un avantage au Sapiens ?

A première vue, il n’est pas évident que se préoccuper de ses sujets existentiels soit un avantage au niveau de l’efficacité d’une société. Voir, par exemple, les sociétés totalitaires (nazisme, communisme stalinien et aujourd’hui dans une moindre mesure la société chinoise par exemple), où l’individu doit s’effacer devant le collectif.

Autrement, dit comme certains le préconisent, ces préoccupations sont-elles inutiles, futiles voire nuisibles. Au niveau de l’efficacité sans doute, mais comme cela semble ancré dans notre esprit, elles ont souvent fini par s’imposer contre toute attente.

Limites et confiance qu’on peut accorder au cerveau

La grande question est donc la nature de cette conscience liée à la nature de notre cerveau. Si cet organe est remarquable, il serait erroné de le sacraliser, car il n’est qu’une évolution d’une structure plus primitive. Il est remarquablement performant à traiter les problèmes courants que nous rencontrons dans notre environnement, mais il ne sait traiter efficacement que ce qu’il a appris à connaitre.

Autrement-dit pour des questions à des problèmes auxquels il n’a pas été pas confronté, ses réponses sont sujettes à caution.

Soulignons toutefois, et cela est un atout majeur, que les réponses qu’il peut donner sont probablement meilleures que celles issues d’un simple hasard car c’est une propriété remarquable des réseaux neuronaux de donner une réponse pas complètement aléatoire si la question posée possède des corrélations avec d’autres questions à lesquelles il a déjà été confronté. 

Notre cerveau : auto-récursivité à tous les étages !

Notons la rétroaction, car c’est avec notre cerveau que nous fomentons ces doutes à son sujet…Par ailleurs c’est aussi avec notre cerveau que nous l’étudions, du moins sa constitution organique où les manifestations de son activité cérébrale ont une contrepartie physique, ce qui ne permet d’en connaître qu’une ombre, comme dans l’allégorie de la caverne de Platon.

Mais, n’est-ce pas ainsi de toutes nos connaissances, même dans les sciences physiques, car ce qui nous est accessible par nos expériences de physique, ce sont les phénomènes, c’est-à-dire, la chose telle qu’elle nous apparaît (l’ombre sur les murs de la caverne de Platon), mais certainement pas la réalité de la chose qui a vocation à être inaccessible !

  C’est dans ce sens qu’il faut orienter nos réflexions spéculatives : Comment pouvoir chercher ce que le cerveau ne sait pas en se servant de notre cerveau.

Nous voyons que nous sommes face à un problème auto-récursif qu’il va falloir tenter, non pas de dénouer car la conscience relève de cette auto-récursivité, mais de l’appréhender synthétiquement pour le comprendre dans sa complexité structurelle.

Le danger, c’est qu’il nous égare sans qu’on puisse en prendre conscience, car tant qu’il s’agit de physique, l’univers et le monde physique nous donnent quelques repères qu’il faut, certes, prendre avec toutes les réserves que nous avons évoquées, car c’est par notre interface (sens, instruments, théories) avec ce monde physique que nous l’appréhendons, mais s’agissant de question d’existence on est dans une métaphysique pure où même ces repères, aussi furtifs qu’ils soient, n’existent même pas.

Conclusion :

En suivant Platon, laissons à chacun sa conclusion…

[1] Ce fait est un truisme, si ce n’était pas le cas, nous ne serions pas là. Cela fait l’objet du “Principe anthropique faible”, qui serait plus convenable d’appeler “argument anthropique faible”. Il est beaucoup plus détaillé dans le livre où on se demande jusqu’où dans une approche réductionniste on peut aller.

En résumé, pour le vivant cela est permis par la diversité structurelle des couches électroniques régie par la mécanique quantique qui permet les molécules très complexes. En fait toute la physique avec ses éléments et ses lois d’interaction est à l’œuvre dans ce schéma.

Nous considérons que l’ADN est la clé de l’évolution et de la complexité extraordinaire du vivant où on ne peut que s’émerveiller de l’évolution à partir de structures très simples jusqu’à des êtres complexes comme nous où les différentes fonctions à réaliser sont effectuées par des organes spécialisés en interaction entre eux mais aussi avec d’autres formes du vivant,(bactéries, virus).

Et que dire de la reproduction sexuée où à partir d’un ovule fécondé minuscule; l’ADN architecte va construire un individu original mais selon un plan bien établi!

Mais cet ADN a lui aussi son ADN qui sont les quatre interactions (gravitation qui va fabriquer les grandes structures d’hébergement et contribuer à la fourniture d’énergie, l’interaction forte qui va construire les protons, les neutrons et intervient dans les noyaux atomiques, l’interaction faible qui permet le changement de nature des éléments (le rêve des alchimistes) et donc leur diversité et enfin au niveau de l’humain et de son environnement l’électromagnétisme qui régit les couches électroniques et permet la chimie. Ce sont ces interactions qui constituent l’ADN primaire dont les lois régissent entre autre notre ADN. Ces interactions ont-elles toujours existé ? Le modèle standard de la cosmologie (MS), nous dit qu’au tout début elles n’étaient pas séparées et ne se manifestaient pas (étaient masquées). Elles se sont découplées très tôt (en temps cosmologique du MS) et ont été à l’œuvre dès lors.

[2] Le nombre de planètes doit être gigantesque, car cela est associé au mécanisme de formation d’une étoile . En effet le moment cinétique doit être évacué pour ne pas contrarier l’effondrement du nuage de gaz qui va générer l’étoile, dans le cas des étoiles simples. Ce sont les planètes, qui compte-tenu de leur distance à l’étoile qui, malgré leur masse très inférieure à l’étoile font cela. Dans le système solaire si 99% de la masse est dans le Soleil, 99% du moment cinétique est dans les planètes. Donc l’existence d’un système planétaire pour chaque étoile est un phénomène générique, ce qui laisse à supposer que le nombre de planètes dans l’univers est supérieur à celui du nombre d’étoiles à savoir plus de cent mille milliards de milliards de planètes! L’opportunité pour que la vie ait pu se développer est important, nonobstant le silence des cieux ! On cherche des raisons à cela, comme celles évoquées par le paradoxe de Fermi et on essaie de quantifier le phénomène l’équation de Drake, prenant en compte, entre autres, la durée de vie d’une civilisation évoluée, mais dont certains paramètres sont si hypothétiques que cela ne vaut guère mieux qu’une réponse au doigt mouillé !

[3] On parle de protons libres “immortels”. Des protons peuvent se désintégrer en neutrons dans des réactions nucléaires au sein d’un noyau atomique (Réaction P + P -> deutérium + positron et neutrino, via l’interaction faible qui fait intervenir un boson W+, dans le Soleil par exemple) . De même des neutrons peuvent se désintégrer en protons dans des noyaux atomiques. Le neutron libre est instable avec une période de 15 mn environ. Il est stabilisé dans un puits de potentiel, comme celui des noyaux atomiques, en particulier le noyau d’Hélium, ce qui a permis de sauver les neutrons rescapés dans la nucléosynthèse primordiale.

Is our existence only possible in a universe made up of three spatial dimensions and one of time?


This topic has been studied in a few articles. Usually, these studies extrapolate what we know and show that the laws of physics that support the stability of our world are (presumably) only possible in such a configuration, although they do not completely rule out other possibilities.

 For example, it is pointed out that in Newtonian gravitation, the existence of stable orbits of planets, around a spherical star (of 3-dimensional volume whose surface is a 2-sphere) results from a law of gravitation decreasing in r², which is understandable because the action of gravitation is represented by an isotropic flow emanating from the spherical star of mass M, crossing the 2-spheres of radius r surrounding the star. This surface being equal to 4πr², the flux crossing a constant surface, is “diluted” on the surface of these 2-spheres in 1 / r².

In relativity the relationship is more complex because it is a 4-dimensional global spatio-temporal geometry that is defined, but in a stationary weak field (far from sources generating the “gravitational field”), Newtonian gravitation represents an efficient approximation.

With 4 dimensions of space, by transposing this, we would have a “hyper-star”, hyper-spherical of hyper volume in 4 dimensions, of “hyper-mass” HM, but whose law should, according to the same principle, decrease in 1 / r3 .

This is because the hypersurface of the hypersphere, delimiting the hypersphere, in the “hyperspace-time” with a 5 dimensions signature {-, +, +, +, +}, (if we consider a single temporal component, associated with the four of space), is a 3- sphere.

In a four dimensional “Newton-like mechanics” , this configuration would not produce stable orbits, where the planet would remain long enough at the same distance from the star, star itself stable during this time, as requested for the emergence of life.

 Would it be in this hypersurface of signature {-, +, +, +}, that we, humans, (who are three-dimensional beings in space), would live ?

In general relativity, if it is the case, the related phenomenology in this 4-dimensional sub-manifold of the 5-dimensional manifold (a brane?), would be described by the geometry of this sub-manifold.[1]

Anyway, the argument has its limits, because do we really know what physical representation and which experiences should be conducted for grasping the paramters of such “hyper mass”of an “hyper star” and what kind of field it would generate, especially in classical mechanics. [2] .

In relativity, we must find geodesics in the geometry of the “hyperspace-time”, that comply with the criteria of stability, compatible with our emergence.

It is also argued that the existence of stable atoms, as we know them, would be impossible. This would ruin the possibility of a world as we know it.

But, in a 5-dimensional “hyper-spacetime”, we do not really have any ideas on the representation of the associated phenomenology! See the chapter “Can we avoid an anthropomorphic approach?”.

Comments on these arguments

 The 3 + 1 dimensional configuration (three of space and one of time) results from a Newtonian approach. In relativity, this is not the case. The structure of space-time is not (3 + 1) but 4 and foliating it into (3 + 1) has no physical character (it’s totally arbitrary).

Therefore, as developed in other pages of this site [3], the null coordinate approach (Newmann-Penrose formalism), taking into account the fundamental role of light which gives the hyperbolic structure to our universe, would give a more physical representation than foliation (3 + 1).

Signature of the metric in general relativity

The hyperbolic structure of the metric of the general relativity is inherited from that of the special relativity metric which is (-, +, +, +), the time coordinate being associated with the “minus” sign and the three space coordinates with the “plus” sign, in Minkowski’s representation because, locally, special relativity applies (except on singularities where the theory is not valid).

Comments, on this topic.

In general relativity, a local basis defined by the tangent vectors at the global coordinates defined on the manifold, may present a different signature. For instance, inside the horizon of black holes, the four global coordinates can be simultaneously spacelike.

However, a local Minkowski base, which can be defined at a point, will still have the signature (-, +, +, +). The hyperbolic structure of space-time is well preserved as the Sylvester’s theorem guarantees it. Let us not forget that the coordinates are arbitrary. The signature (-, +, +, +) is valid in the form of Minkowski. In the Newmann-Penrose formalism, since the local basis has 4 null vectors, the signature would rather be written (0, 0, 0, 0).

Case where there are two global coordinates simultaneously timelike.

This case is usually considered as not compatible with the existence of life.

Keeping in mind what was said previously about the local metric which also applies in this strange case, let us point out that in relativity, there are solutions, like the Kerr and Kerr-Newmann space-times [4] , where, although the Minkowskian local signature of the metric remains {-, +, +, +} everywhere, in some regions there may exist simultaneously two global timelike coordinates (in this case t and φ in the spherical coordinates (t , r, θ, φ), generating a metric signature for these coordinates (t, r, θ, φ) of the type {-, +, +, -}.

 If this case is rare, it nevertheless exists, and its impossibility has never been demonstrated. This, pointed out by B. Carter [5], results in a flagrant violation of causality, with all its consequences. There are worldlines between 2 events A and B where A could have been the cause of B and B the cause of A, we can go back in time and many other temporal paradoxes are possible [6].

 However, it should be emphasized that these worldlines are not geodesic, they require an interaction with a phenomenon other than gravitation: for instance, the ejection of matter by a rocket causing an acceleration by reaction.

Thus, according to the definition given of general relativity, we can either consider that these solutions are not to be considered if we consider that only geodesics are described by general relativity [7], or that they are to be considered if one accepts other types of worldlines than the geodesics.

In the latter case, the spacetime of general relativity then serves as a “base” and the local spacetime where non-gravitational phenomena can exist and interact with bodies in spacetime is a “fiber”.

These examples show that the phenomenology described by general relativity is not compatible with the description of a universe with 3 dimensions of space and one of time since, in relativity, time and space are not physical, they are only shadows of spacetime, as stated in Plato’s allegory of the cavern.

Can we avoid an anthropomorphic approach?

This criticism has a more general character, it is certain that we seek to determine if other conditions could give the same phenomena as those which one observes. This implies a great effort to our mind! One is aware of the effort already necessary for understanding the concept of spacetime in relativity which destroyed those of space and time that we supposed inherent to our mind and that of indeterminism in quantum mechanics that ruins the basis of classical physics. Imagining more dimensions would be a step further!

If the weak anthropic argument [8] confirms us on the existence of conditions, (and also specifies limits), allowing to achieve what we observe, which is a truism, it does not say anything about possibilities which would be very different, but which structurally could give something of the same type, in a more or less evolved way.

The universe and its existence, like ours, is a subject where many mysteries will likely remain forever.

[1] In some theories, there are “branes” that have dimensions smaller than that of the space containing them. Here space is taken in the general sense which can contain dimensions of the time type. Let’s not forget the null type dimensions.

[2] If we do not understand very well what a hyper-mass could be in Newtonian mechanics, this does not pose a problem in relativity: The energy-momentum tensor Tμν would be defined for μ, ν varying from 0 to 4. But, let us keep in mind that even though the mathematical formalism is straightforward in relativity, its physical representation and the associated physical tests are problematic.

[3] A detailed description can be found in: http://www.astromontgeron.fr/SR-Penrose.pdf

[4] A rigorous analytical solution was found by Kerr in 1963 to the problem of rotating black holes, well after Schwarzschild’s solution for static black holes which dates from 1916. Note that the problem seemed simple, however, since a rotating black hole is totally defined by 2 parameters: its mass M and its angular momentum J. If the black hole is charged (which is unlikely in cosmology) a third must be added. parameter: the electric charge E. In this case the black hole also has a magnetic moment.

[5] Global Structure of the Kerr family of gravitational fields. Brandon. Carter. Phys. Rev. Vol. 174. Number 5,25 october 1968. A free translation in French is available in: http://www.astromontgeron.fr/A_Carter-68-F.pdf

[6] See a detailed analysis in: http://www.astromontgeron.fr/Trous-noirs-de-Kerr-M2-JF.pdf.

[7] This is the strict definition of the theory of general relativity which deals only with gravity. But, nothing prevents to consider the other hypothesis.

[8] “Argument” is more appropriate than “principle”.