On n’a jamais mesuré la vitesse de la lumière

Ouais ! Bon ! Je vous entends penser. « Une autre théorie complotiste du même genre que « La Terre est plate ». Pourtant, si vous persistez dans votre lecture malgré votre scepticisme, je vous prouverai que c’est vrai. Cet article est subdivisé en deux parties. La première concentre les explications et la seconde traite des fondements mathématiques que vous pourrez éluder si votre goût pour les calculs ressemble au mien pour les radis.

Vitesse limite inconnue. Malgré ce manquement expérimental fondamental, on a quand même basé notre unité de distance, le mètre, sur la valeur de cette vitesse « inconnue » mais estimée constante dans tous les référentiels à 299 792 458 mètres par seconde.

Vous attendez que je vous dégote un argument tordu pour réfuter cette apparente connaissance universelle et… vous avez raison. Mais aussi dingue qu’elle soit, mon explication s’avère parfaitement exacte.

Pour mesurer avec précision la vitesse d’une balle de tennis ou de fusil, on peut envoyer un faisceau d’ondes (de la lumière) sur celui-ci. La différence de la fréquence émise par rapport à celle obtenue après réflexion sur l’objet détermine la vitesse de cet objet. C’est l’effet Doppler, le complice des policiers pour les aider à nous donner des contraventions. Mais cette procédure est inapplicable pour déterminer la vitesse de la lumière, car la vitesse de l’élément à mesurer est égale à la vitesse de l’élément mesureur. On ne peut mesurer la vitesse de la lumière avec de la lumière ou toute autre sorte d’onde électromagnétique dont on ne connait pas la vitesse exacte puisque c’est ce qu’on cherche à la connaitre par des mesures.

La seconde façon de mesurer des vitesses consiste à déterminer le temps que prend un objet pour parcourir une distance précise et connue. On place deux balises et lorsqu’un objet franchit la première, le chronomètre démarre et lorsqu’il atteint la seconde, on l’arrête. La division de la distance parcourue par la mesure du temps détermine la vitesse de l’objet en m/s, en km/h, etc.

Pour mesurer la vitesse de la lumière dans le vide, vitesse absolue parmi toutes, il n’est pas possible d’utiliser un faisceau d’ondes, lui-même une lumière. Il n’est pas plus possible de mesurer le temps entre deux bornes puisque notre appareil d’enregistrement doit également et préalablement connaitre la vitesse de la lumière pour mesurer… la vitesse de la lumière.

Bon. Pas de problème, vous vous dites. Recourons à des horloges atomiques. Une à chaque borne et parfaitement synchronisées. Mais pour les synchroniser, il faut transmettre une information de l’une à l’autre à la vitesse de la lumière, vitesse qu’on cherche justement à mesurer. Cette procédure est prise en défaut en recourant à une inconnue pour mesurer cette même inconnue.

Dans ce cas, synchronisons les 2 horloges à partir de la même borne et envoyons-en une à la seconde borne. Erreur ! Puisqu’une horloge se déplace par rapport à l’autre, la théorie de la relativité restreinte nous apprend que le temps diffère entre 2 objets en vitesses inégales entre eux. Et pour corriger ce décalage, il faut connaitre la vitesse de la lumière, vitesse qui, comme vous devez commencer à me haïr, est celle qu’on cherche inlassablement à mesurer.

La solution est cependant simple, direz-vous, et c’est justement cette technique qui a été utilisée et qui l’est encore pour mesurer cette fameuse vitesse c. À l’aide d’un miroir, faisons parcourir à la lumière la distance aller-retour et divisons le temps mesuré par 2 pour obtenir cette foutue valeur de c. Et le tour est joué ! pensez-vous, et le bec du Corbot cloué !

Cet exercice pratique est cependant basé sur un postulat. Et l’on sait que si un postulat est faux, le résultat de la mesure par l’expérience sera faux. Le fameux postulat utilisé dans l’expérimentation précédente et sciemment accepté par Einstein lui-même est le suivant: 

Nous avons tenu pour acquis que la lumière se déplace à la même vitesse à l’aller comme au retour, en éloignement comme en rapprochement, ce qui permet de diviser le temps par 2 pour déterminer le temps d’un trajet dans une seule direction.

Mais rien ne prouve que le temps requis pour parcourir la même distance est le même dans les deux directions. C’est une affirmation non prouvée, un postulat parfaitement gratuit. Évidemment, faute de mieux, il est raisonnable de le considérer comme véridique, mais ce n’est qu’une croyance et en aucun cas une certitude prouvée.

Il n’est pas possible de mesurer la vitesse de la lumière dans une seule direction puisqu’il faudrait déjà connaitre cette vitesse pour ensuite la déterminer. On ne peut définir une chose par elle-même.

Il est raisonnable de penser que la vitesse de la lumière est égale dans toutes les directions, y compris lorsqu’elle s’éloigne de nous ou lorsqu’elle nous revient. Malheureusement, aucune expérience ne peut le prouver une bonne fois pour toutes. Essayez d’en inventer une et elle sera réfutable.

La seule solution consisterait à découvrir des particules voyageant plus vite que la lumière, des tachyons par exemple. Nous pourrions alors utiliser un faisceau de tachyons pour mesurer la vitesse des photons et en appliquant quelques formules mathématiques, nous obtiendrions la valeur tant recherchée de c dans une seule direction.

Mais voilà. Si Einstein avait raison, rien ne peut voyager plus vite que la lumière dans le vide (c). Les tachyons ne sont présentement que des inventions de l’esprit. Leur gros problème est qu’ils pourraient violer le principe de causalité (quoique ce soit discutable et discuté). Ils démarreraient leur périple après être parvenus à destination. Ça parait un peu bizarre. Aussi aberrante que cette situation puisse paraitre, elle n’est pas totalement ridicule. La physique quantique nous a habitués à rencontrer des comportements totalement illogiques et pourtant parfaitement véridiques. Il pourrait en être de même avec les tachyons.

La véritable impossibilité théorique est d’accélérer un objet jusqu’à ce qu’il atteigne la vitesse c puisque cette action nécessiterait une énergie infinie à cause de l’augmentation de la masse conséquente. Le fameux accélérateur de particules LHC a longuement prouvé le principe que la masse augmente avec la vitesse. Mais rien n’interdirait une particule de naitre en voyageant déjà plus vite que la vitesse limite c puisqu’elle ne passerait pas par une phase d’accélération. Voilà pourquoi les tachyons pourraient bien exister. Et fait surprenant, ils perdraient de la masse en augmentant leur vitesse.

Pour revenir au sujet principal, à défaut de connaitre actuellement avec certitude la vitesse de la lumière, la présomption qu’elle vaille 299 792 458 m/s dans toutes les directions et à tout moment nous permet de créer des applications comme les GPS et autres systèmes de calculs relativistes. Mais si un jour on vous apprend que cette vitesse n’est pas égale dans tous les systèmes de référence, ne vous surprenez pas. Le postulat utilisé consciemment par Einstein dans son article de 1905 sur la relativité restreinte se sera avéré inexact.

Les probabilités semblent extrêmement faibles que c varie selon qu’il s’éloigne ou se rapproche de nous, mais pour l’instant, le mieux qu’on peut affirmer avec absolue certitude est que cette vitesse « limite » reste à ce jour une valeur non mesurée.

Complément mathématique pour les presque nuls en maths 

La théorie de la relativité restreinte d’Einstein utilise les transformations de Lorentz dont le facteur s’écrit ainsi.

Gamma (𝛾) multiplie la masse, l’énergie et le temps relatif et il vaut entre 1 et l’infini (∞) selon que la vitesse (v) d’un objet varie de zéro jusqu’à atteindre c. De fait, si v vaut zéro, le résultat sous le radical vaut 1, le radical de 1 = 1 et finalement 1/1 = 1. Interprétation : à vitesse relative nulle, pas de changement de masse, d’énergie ou de temps relatif.

En revanche, si v vaut c, le résultat sous le radical vaut 0, le radical de 0 = 0 et 1/0 = ∞. Interprétation : Un déplacement à la vitesse de la lumière multiplie la masse, l’énergie et le temps relatif par l’infini.

Pour un tachyon qui aurait une vitesse v supérieure à c, la valeur sous le radical devient négative. On sait qu’il n’existe aucun nombre réel résolvant un radical d’une valeur négative, mais il en existe parmi les nombres imaginaires purs. Ce n’est pas parce qu’on parle de nombres imaginaires que ces nombres sont fabulatoires ou insensés. On aurait fort bien pu utiliser un autre terme. À preuve, tous les condensateurs et les bobines de ce monde (moteurs, antennes, accumulateurs, etc), des objets bien réels s’ils en sont, fonctionnent selon des mathématiques qui utilisent les nombres imaginaires pour déterminer leur courant selon la tension exercée à leurs bornes.

Ainsi, un tachyon pourrait fort bien exister dans un temps perpendiculaire au temps que nous connaissons et que nous expérimentons à longueur de journée. Un temps qui est inaccessible parfaitement reconnu et prouvé.

Un trou noir dans le système solaire ?

Bon ! Bon ! Les grands mots sont lancés ! On peine à trouver la fameuse planète 9, aussi connue sous les noms planète X, Nibiru, etc., beaucoup de noms pour un objet toujours hypothétique !

Toutefois, les hypothèses se raffinent et les probabilités concernant la présence d’une autre planète dans notre système solaire continuent de croitre. Aujourd’hui, peu d’astronomes raillent du sujet contrairement à il y a vingt ou même dix ans. Ce ne sont plus les apôtres du Nouvel Âge qui parlent, ce sont de très sérieux scientifiques équipés de superordinateurs afin d’appuyer leurs prétentions.

Ils ne peuvent pas expliquer certaines perturbations d’objets lointains dans le système solaire autrement que par une planète qui voyagerait à ses confins. Une planète d’une dizaine de fois la masse de la Terre. Une planète à l’orbite très excentrique. Une planète dont la révolution autour du Soleil durerait quelques dizaines de milliers d’années et, comble de malchance, se situerait actuellement à son aphélie à 150 milliards de kilomètres, le point de son orbite le plus éloigné du Soleil et de nous par conséquent. En comparaison, la Terre est mille fois plus proche du Soleil que ne le serait actuellement ce fameux objet perturbateur transneptunien.

Ciel-nocturne-2

La ceinture de Kuiper se situe au-delà de Neptune et abrite des astéroïdes et des planètes naines. L’une d’elles ne vous est pas inconnue puisque c’est Pluton. Deux autres ont été repérées, elles portent les noms de Makemake et d’Haumea. Au-delà de cette ceinture rocheuse, on observe une baisse importante et anormale de leur nombre surnommée le précipice Kuiper (Kuiper Cliff). Cette absence de cailloux dans cette région intrigue les astronomes. De plus, on observe plusieurs corps de la ceinture se comportant anormalement. En mettant bout à bout tous ces indices, on obtient la probabilité qu’une planète se promène effectivement dans cette région.

Grâce aux ordinateurs et aux lois de la physique qui les alimentent, on parvient à estimer la masse, l’orbite et la position actuelle de cette hypothétique planète. Évidemment, tous ces calculs ne peuvent être qu’approximatifs, mais si on veut la trouver, il faut bien braquer nos télescopes dans une direction où les probabilités de voir l’objet sont optimales.

Malheureusement, malgré tous les moyens mis de l’avant jusqu’à présent pour la dénicher, rien à faire. On a beau observer avec les plus puissants télescopes, Nibiru reste introuvable là où l’on pense qu’on devrait la voir.

Son existence est donc régulièrement remise en question, mais les perturbations dans la ceinture de Kuiper doivent s’expliquer et pour le moment, on ne voit aucune autre explication plus convaincante que celle de la planète X.

kepler

Or, par déduction logique, si une planète est présente et si on ne parvient pas à la voir alors que nos télescopes en seraient capables, ce n’est pas parce qu’elle n’existe pas, mais parce qu’elle serait inobservable. Et l’on connait une certaine classe d’objets célestes véritables et inobservables, ce sont les trous noirs.

Mais il y a un gros hic. On connait avec certitude deux types de trous noirs. Le trou noir stellaire, généré par une étoile s’étant transformée en supernova. Les restants de cette explosion forment un trou noir lorsque la masse résiduelle est suffisante. Les plus petits trous noirs stellaires frisent 3 fois la masse solaire. C’est bien plus qu’un trou noir de seulement quelques fois la masse terrestre. L’autre trou noir connu est supermassif, des milliers, des millions voire des milliards de fois la masse solaire.

Alors, imaginer un trou noir de seulement quelques masses terrestres n’est pas anodin puisque aucun phénomène connu actuel ne peut en générer d’aussi légers. Observer la planète X si elle était un trou noir serait impossible puisqu’il ferait seulement une vingtaine de centimètres de diamètre et il serait évidemment totalement noir.

Alors d’où proviendrait cet objet minuscule et hyper massif ? On pense que des petits trous noirs auraient été créés tout au début de l’existence de l’Univers, juste après le big bang. L’hypothèse n’est pas nouvelle puisque les conditions permettant leur formation pouvaient exister à cette époque préstellaire. Il se pourrait même que ces objets, les plus gros d’entre eux, aient été à l’origine de la création des galaxies et la raison pour laquelle chacune d’entre elles possède aujourd’hui en son centre un trou noir supermassif. Les granules originelles auraient cru jusqu’à devenir géantes grâce à l’accrétion graduelle de matière. Toutefois, la grande majorité des trous noirs minuscules continueraient de peupler les galaxies et l’un d’entre eux orbiterait dans notre propre système solaire. L’hypothèse est intéressante mais exotique. C’est pourquoi il faut passer en revue toutes les autres possibilités avant de se rabattre sur cette dernière.

La suite est excitante puisque nous pourrions prouver simultanément l’existence d’un corps perturbateur en orbite lointaine ainsi que ces fameux trous noirs primordiaux jamais encore détectés.

Le problème actuel est celui de la quantité de données disponibles. Nos observations de qualité sont trop récentes pour bâtir une hypothèse robuste. Plusieurs années à récolter de nouvelles données devraient permettre d’y voir plus clair. 

Une autre possibilité est qu’il existe non pas une, mais deux planètes éloignées. Ainsi, actuellement nous déduirions la position médiane située entre les deux corps et on ne verrait que le vide, raison des insuccès actuels de nos observations par télescopes.

Ce scénario me plait. Il ne fait pas intervenir d’objets exotiques hypothétiques et il aurait l’avantage de faire cesser la tergiversation entre les noms planète 9 et planète X, chacune s’accaparant l’un d’eux.

Ah ! Les grands chiffres !

«La Voie lactée pèserait autant que 1 500 milliards de milliards de soleils», dixit un grand titre dans La Presse – section Science.

Tout juste en exergue, on lit ceci: «La Voie lactée, notre galaxie, pèserait environ 1 500 milliards de masses solaires selon des données combinées de la mission Gaia de l’Agence spatiale européenne (ESA) et du télescope spatial Hubble.»

Voyez-vous l’erreur? Besoin d’une relecture?

Hé oui! Vous avez trouvé! On ne compte pas autant de milliards dans le titre que dans l’exergue. Soit il en manque un dans ce dernier, soit le titre en a un de trop. Et pourtant, l’erreur est plus que significative entre les deux! Rajouter milliard à milliard ne double pas la valeur de la masse, il la multiplie par un milliard!

Si vous vous questionnez, sachez que l’erreur est dans le titre. L’humain ne s’habitue pas à ces grandeurs. 1 500 milliards ou 1 500 milliards de milliards constituent deux chiffres hors de l’entendement normal. Un scientifique s’y retrouve, car il a été formé à travailler avec les grands chiffres. D’ailleurs, il n’écrit jamais les chiffres de cette façon. Pour lui, la Voie lactée pèserait 1,5 x 1012 masses solaires. Selon le titre, elle devrait peser 1,5 x 1021 masses solaires. C’est 9 zéros de plus dans la valeur de la masse.

image-4

Pour trouver le bon chiffre, j’ai fait un petit calcul simple. Si la Voie lactée compte aux alentours de 200 milliards d’étoiles, elle ne peut pas peser 1500 milliards de milliards de fois notre étoile, car chaque étoile devrait peser plusieurs milliards de fois notre bon vieux Soleil; ou encore qu’on avait mésestimé le nombre d’étoiles dans la Voie lactée par un facteur 109, soit un milliard de fois plus.

Il est plus censé d’imaginer que le nombre d’étoiles est dans une marge d’erreur réaliste. Ainsi on trouve une masse moyenne des autres étoiles valant 7,5 fois notre Soleil. Ça colle.

Gagez qu’à la lumière de cette nouvelle estimation de la masse, l’évaluation du nombre d’étoiles dans notre Galaxie sera revu à la hausse. C’est ainsi que progresse la science.

Malheureusement, avec des titre de journaux de cette piètre qualité, ça n’aidera certainement pas la population à relever le niveau de leurs connaissances et de compétences en la matière.

Petit conseil aux chefs de pupitre : lorsque vous voyez des grands chiffres, consultez un scientifique avant d’écrire des bourdes du genre !

Penser l’Univers autrement — 2

Dans l’article précédent, j’entame une réflexion sur une vision radicalement nouvelle de l’Univers, soit un « Univers tramé informatif plurivalent (UTIP) ». Puisque cet article se veut la suite, je vous recommande la lecture du premier volet.

Démystification des bizarreries quantiques

Mon Univers informatif tramé et plurivalent expliquerait les sauts quantiques des électrons et leurs orbitales, la non-localité et tout un tas de concepts quantiques difficilement compréhensibles et acceptables dont ceux reliés à la mesure. L’expérience des fentes de Young n’aurait plus rien d’incompréhensible ou de mystérieux.

2Interferences_Tanamura

Décohérence quantique

Ce qu’on nomme la décohérence quantique n’est en fait que la matérialisation de l’information causée par un impact, une mesure, une commande spécifique ou un algorithme traitant un lot d’informations contenues dans plusieurs mailles et qui considère qu’une particule ou un groupe de particules prendra forme à cet endroit de l’espace-temps.

quantumcomputingsakkmesterke

Intrication quantique

Ce phénomène si combattu par Einstein, mais maintes fois prouvé, connait avec ma théorie une fin heureuse pour ce cher homme, ou à tout le moins une explication qu’il aurait pu accepter.

big_artfichier_793419_7691440_201804304014163.png

Lors de l’émission de deux photons intriqués, on sait qu’on émet de l’information et non pas les photons eux-mêmes. Cette information se transporte à travers la trame à vitesse causale c (vitesse de la lumière). Lorsqu’il y a détection d’une caractéristique comme le spin d’un des deux photons, l’information sur le spin du deuxième photon intriqué est déjà rendue là où on va le matérialiser. L’intrication quantique ne viole donc aucunement la loi de la causalité.

Augmentation de la masse avec l’augmentation de la vitesse

Ce phénomène relativiste imaginé et calculé par Einstein se comprend assez bien avec l’Univers UTIP. On remarque dans notre monde que la masse d’une particule augmente avec sa vitesse jusqu’à valoir l’infini ∞ si on la pousse à atteindre la vitesse limite de causalité c.

emc

Or ce comportement s’explique en considérant qu’une information requerra un nombre plus important de mailles pour être transmise plus rapidement afin de ne pas saturer la capacité des mailles d’espace-temps et ainsi de corrompre ou de perdre cette information. L’usage de plus de mailles par unité de temps équivaut exactement à une plus grande quantité d’information fixe, donc à une plus grande masse.

La gravitation

On peut même comprendre les effets cosmologiques comme la déformation graduelle de l’espace-temps lorsque la quantité de matière (d’informations) augmente. Si on considère que les mailles gardent toujours les mêmes dimensions, il faut donc accepter que ces déformations soient de l’espace-temps supplémentaire créé pour aider à supporter le poids grandissant des informations transportées sur la trame et non pas un étirement de ces mailles comme le montrent souvent les représentations de la gravitation de la relativité générale.

8cdde1c0e5_113466_gravitation-courbe-fotolia-the-lightwriter

Si la masse n’est plus qu’une information inscrite dans des paquets qui se meuvent plus ou moins rapidement sur la trame et qu’elle crée sur son passage des mailles d’espace-temps supplémentaires, il faut donc accepter que la gravitation qu’exerce une masse sur une autre représente simplement la propension de l’information à trouver le maximum de mailles d’espace-temps d’informations et à s’en rapprocher afin d’en utiliser une certaine quantité à son propre profit.

Une masse importante crée une grande quantité de mailles d’espace-temps vierges d’informations qui deviennent disponibles pour cette même masse d’information, mais également pour tout paquet d’information passant à proximité. Cela exerce sur ce paquet un attrait à se rapprocher de ces mailles supplémentaires, car chaque paquet d’information est conçu de telle façon à rechercher le chemin le plus susceptible de le transporter efficacement, donc à trouver le chemin où existent le plus de mailles.

Les trous noirs

Les trous noirs correspondent simplement à des endroits où le nombre de mailles à créer dépasse la capacité de la trame d’espace-temps. L’information transportée est alors piégée au sein d’une certaine quantité de mailles qui perdent leur capacité de générer des particules à cause de leur impossibilité de résoudre les équations à partir d’informations incomplètes au sein de chacune des mailles.

o-WORMHOLE-facebook

Un trou noir, c’est un disque dur d’ordinateur au catalogue corrompu à cause d’une quantité trop grande d’informations. Les infos inscrites dans ces mailles sont irrémédiablement piégées.

L’expansion de l’Univers

On peut expliquer l’expansion de l’Univers par son besoin de transporter de plus en plus d’informations. Ce gonflement ne se produit pas sur les rebords de l’Univers, mais partout dans l’espace, créant des mailles supplémentaires capables de relayer toujours plus d’informations.

838_000_11h35e

Cette création se produit à partir de ce qu’on nomme aujourd’hui l’énergie sombre ou noire, une énergie potentielle capable de générer des mailles d’espace-temps à un rythme défini par la quantité d’information à transmettre afin d’éviter la saturation des mailles, le piégeage des infos et ainsi la production de trous noirs intempestifs.

Conclusion

Voilà en résumé comment un monde basé sur un transport d’informations sur des particules plutôt que sur le transport des particules elles-mêmes permettrait de comprendre et de lier la physique quantique et la physique cosmologique en une seule vision cohérente de notre Univers.

hqdefault

Il reste tellement à écrire sur ce type d’Univers et de choses à expliquer, mais je suis sincèrement convaincu que cette vision permet de réconcilier une fois pour toutes les deux pans apparemment incompatibles de notre physique moderne.

Je poursuivrai mes réflexions sur mon «Univers tramé informatif plurivalent» (UTIP) dans d’autres articles qui seront répartis parmi beaucoup d’autres sujets de préoccupations. Restez à l’affût en vous abonnant.

Penser l’Univers autrement — 1

Je consacre deux articles se voulant un essai sur ce que je nomme un «Univers tramé informatif plurivalent (UTIP)». Ne paniquez pas, ce terme s’explique assez facilement en commençant par le début et en gravissant une marche à la fois. Un lien peut être fait entre cet article et l’Univers simulé que je décrit dans un article à lire ici

L’intemporalité du photon abordé dans un précédent article semble nous ouvrir une porte vers une vision radicalement différente de notre Univers. Je vous recommande de le lire si ce n’est déjà fait. Dans le présent article, j’utilise préférentiellement le photon comme exemple, mais le concept s’applique à n’importe quelle particule élémentaire massive ou non.

Création d’un photon

L’intemporalité photonique expliquerait sa non-localité, mais aussi la non-localité de toutes les particules massives ou non. Si un grain de lumière peut se retrouver n’importe où en un temps (personnel) nul, se pourrait-il qu’il soit déjà (potentiellement) partout?

researchers-discover-angle-particle-which-is-both-matter-and-antimatter-at-the-same-time

Alors, plutôt que de considérer le photon comme une particule ou une onde qui voyage dans l’espace-temps, regardons l’Univers comme un champ de potentiel énergétique emplissant déjà tout l’espace possible. En d’autres termes, l’espace possède déjà la capacité de créer un photon n’importe où, il suffit de lui dire où et quand le faire. L’espace contient la recette, les ingrédients et les ustensiles pour créer des photons, peu importent l’endroit et le temps (espace-temps). Il en va de même avec toutes les particules contenues dans le bestiaire de la physique.

Le processus fondamental

Une fois émis par une quelconque étoile sise aux confins du cosmos, le photon, ou en fait des informations le concernant se mettent à voyager dans la trame d’espace-temps. En soi, le photon ne voyage absolument pas et n’a pas à le faire. Ce sont ses papiers d’identité qui le font à sa place.

hqdefault

Il est impossible pour nous de le détecter tant que ses papiers d’identité ne nous parviennent pas via la trame de l’espace-temps et ceux-ci prennent un certain temps pour nous parvenir. Cette vitesse de transmission des informations concernant le photon émis par l’étoile peut se nommer la vitesse de la lumière, la vitesse limite, la vitesse de causalité ou la vitesse de transmission des informations le long de la trame informative, choisissez le terme qui vous convient le mieux, tous s’équivalent.

L’information

Je reviens donc à mon article sur l’information, que tout est information. Ici, je pousse le concept encore plus loin en considérant que les voyageurs dans l’espace ne sont pas les particules elles-mêmes, mais seulement l’information sur ces particules qui se meuvent à différentes vitesses selon le «poids» des informations à transmettre, correspondant en fait à leur masse.

quantum

Avec nos ordinateurs, on comprend très bien le concept de «poids» de nos documents et la vitesse avec laquelle nous pouvons les relayer d’un stockage à un autre. La masse des particules pourrait se comparer à un document informatique plus ou moins lourd, donc plus ou moins rapide à transférer.

Dualité onde – particule

Cette notion perd un peu de réalité sans toutefois s’inscrire en faux. En considérant que tout n’est qu’informations, cette dualité n’est que la représentation d’un lot d’informations avant et après leur matérialisation.

La masse

Si l’Univers n’est qu’informations, ce que nous nommons la masse des particules est ni plus ni moins que le bagage informatif maximal transportable par cette masse d’informations regroupées dans un seul et même «paquet». À chaque paquet de différentes valeurs correspond ce que nous nommons une particule de différente masse. La masse nulle du photon explique sa vitesse supérieure et maximale. Car au-delà de l’information contenue dans de la masse, il existe également d’autres informations de base portées par un photon, ne serait-ce que sa quantité de mouvement, son spin et son identité. Ainsi, transmettre quelques informations sur une trame conçue à cet effet, une trame d’espace-temps comme celle décrite dans la théorie de la gravitation quantique à boucles, exige une consommation de ressources temporelles, raison de la vitesse maximale, mais non infinie de la lumière malgré sa masse nulle.

Des mailles d’espace tridimensionnelles

La trame de l’espace est composée de mailles volumiques valant chacune un «volume de Planck». Ce volume indivisible et minimaliste serait capable de transmettre l’information d’un photon à ses mailles adjacentes à une vitesse phénoménale, je vous le donne en mille, le temps de Planck.

1*sZYO387ykUBhz5iAJjcepw.gif

Les mailles tridimensionnelles de l’espace sont si incroyablement fines qu’il nous est bien difficile d’en imaginer la quantité comprise dans un simple dé à jouer. 1098 mailles par cm3. C’est bien plus que le nombre total d’atomes dans tout l’Univers estimé à 1080.

Temps, vitesse de transmission et retard

Quant au temps de Planck, c’est le plus petit atome de temps. Il équivaut à 5 x 10-44 seconde. En fait, ce temps est déduit de la vitesse de la lumière lors du passage de l’information d’un photon d’une maille spatiotemporelle à l’autre.

L’information d’un photon qui se transporte d’une maille à l’autre s’effectue à la vitesse limite, elle n’accumule donc aucun retard de transmission. C’est pourquoi un photon semble intemporel. Son temps propre équivaut au retard accumulé de maille en maille. Puisqu’il n’y a aucun retard, il ne possède aucun temps propre, il est donc intemporel.

L’information d’une particule possédant une masse accumule des retards de transmission de maille en maille, l’empêchant d’atteindre la vitesse maximale.

Création des particules

Voilà le cœur du sujet et de mon idée d’une trame spatiotemporelle plurivalente. Chaque maille de l’espace-temps possède la capacité de faire apparaitre n’importe laquelle des particules à partir de l’énergie intrinsèque de chacune des mailles qui s’avère être l’énergie du vide. Il lui suffit de recevoir l’information sur sa nature et ses caractéristiques transmises sur la trame ainsi que la commande de la rendre réelle, de la créer. Cette commande provient de ce qu’on nomme la détection, la mesure, l’interaction entre elle et une autre particule déjà passée de l’état virtuel à l’état matériel.

structurs ne quarcks image-75

J’utilise le terme d’Univers plurivalent pour désigner sa capacité intrinsèque à créer n’importe quelle particule élémentaire à n’importe quel endroit de sa trame.

De cette façon, les particules ne se déplacent jamais dans l’espace-temps, même si on croit voir qu’elles le font. Ce sont ses caractéristiques qui sont transmises de maille en maille et celles-ci obtiennent ou non la commande de la générer. Sans cette commande, la particule reste à l’état virtuel d’information non traitée. Alors on la considère comme virtuelle ou délocalisée. En la détectant, la trame d’espace-temps résout les équations en utilisant les paramètres contenus dans le paquet d’information transmis et génère la particule correspondante.

Le prochain article continuera de relier ma théorie UTIP aux phénomènes physiques connus, tant ceux liés à la physique quantique que ceux traitant de relativité générale.

La gravitation

J’aimerais vous partager un peu de mon enghousisame pour la gravitation, car ce phénomène, cette force, cet effet, ce sujet d’étude est plus que fascinant.

socrate-gorgias

En Grèce antique, elle n’était pas universelle puisque les observations montraient que la fumée montait. Ainsi, tout ne tombait pas sur Terre. Ils voyaient également que la Lune ne tombait pas. Les objets possédaient donc un lieu naturel auquel ils se raccrochaient, soit la Terre, soit le ciel.

nyf30hn5iXlt45k6fhP-o

Par la suite, Galilée montre que la chute des corps est universelle et pourtant l’expérience avec des corps légers et lourds ne pouvait pas le démontrer à cause de la résistance de l’air plus perturbante pour les objets très légers. Dans le vide, tous les corps tombent effectivement de façon identique, mais pas sur Terre. Et pourtant, il ose le prétendre grâce à des exercices de pensée, mais certainement pas grâce à une expérience qui aurait prouvé qu’une plume tombe à la même vitesse qu’une pierre ! Sa démonstration à la tour de Pise est du folklore.

Newton fait faire un bond de géant à la gravitation avec sa loi montrant que c’est une force qu’exercent les objets massifs entre eux. Il en déduit une formule montrant que cette force est proportionnelle à la multiplication des masses et diminue en fonction du carré de la distance séparant les deux objets.

be105d73-c473-4250-8569-9b49213418ad

Mais le plus impressionnant est qu’il établit un parallèle entre la chute des corps sur Terre et les orbites célestes en affirmant que la Lune tombe bien sur la Terre, mais sa rotation autour de notre planète fait qu’elle ne cesse de nous rater. Il découvre l’existence d’une constante gravitationnelle (G) identique pour tous les corps s’attirant dans l’Univers. La force gravitationnelle s’exerce sans aucune limite de distance et elle est instantanée. Il sait que cette force dépend des masses des objets, mais il ignore ce qui fait que la masse attire la masse.

Einstein saute ensuite sur l’occasion de déclasser la théorie de Newton en sachant que la force gravitationnelle ne peut pas s’exercer instantanément puisque rien ne peut dépasser la vitesse limite correspondant à la vitesse de la lumière dans le vide. Il a compris que la théorie de Newton n’est qu’une approximation d’une théorie plus générale. Il cesse de voir la gravitation comme une force. Il établit une équivalence entre la masse inertielle et la masse pesante. Il considère que la masse déforme l’espace-temps et c’est cette déformation d’autant plus importante que la masse est grande et dense qui fait courber les trajectoires des objets, leur imposant de tourner le long d’une courbe elliptique pour les planètes gravitant autour des étoiles et des lunes autour de leurs planètes.

albert-einstein-9285408-1-402

La théorie du grand homme parvient même à prévoir que le temps est modifié par le champ de gravité. Aujourd’hui, il suffit de surélever une horloge atomique de 20 cm pour commencer à apercevoir un décalage entre celle-ci et une autre restée bien en place. Il reste cependant encore une grande inconnue dans cette théorie, pourquoi la masse plie-t-elle l’espace ? Et si la gravitation n’est pas une force, comment la masse parvient-elle à déformer l’espace autour d’elle sinon en lui appliquant une force qui l’étire ?

8cdde1c0e5_113466_gravitation-courbe-fotolia-the-lightwriter

Mais le plus gros problème avec la théorie de la gravitation d’Einstein qu’on appelle la relativité générale se situe dans les extrêmes. Elle prédit correctement la formation des trous noirs, mais elle établit une densité centrale valant l’infini, ce qui cesse d’être de la physique. Même chose pour le Big Bang, la relativité générale considère qu’au temps zéro, l’Univers était infiniment dense, infiniment chaud et infiniment petit. Une théorie qui prédit des infinis n’est plus une théorie et là encore, on peut considérer qu’il existe une meilleure théorie que la relativité générale.

agujero_negro 3

Afin de se dépêtrer de ces dérangeants infinis, les physiciens inventent d’autres théories dont l’une semble prometteuse, la gravitation quantique à boucles. Cette théorie cesse de voir l’espace-temps comme étant continu, il devient discret, comme des atomes tous identiques d’espace-temps. On obtient alors des aires et des volumes minimaux et discrets, une sorte de maillage tridimensionnel où tous les petits volumes incompressibles sont reliés entre eux par un réseau de spins. Le plus grand spécialiste de cette théorie est l’Italien Carlo Rovelli. L’Américain Lee Smolin de l’Institut Perimeter au Canada a également apporté une importante contribution. Plus récemment on entend beaucoup parler du Français Aurélien Barrau, une étoile montante de cette théorie et un excellent vulgarisateur. Je le félicite également pour ses sorties remarquées en faveur de l’environnement.

Mais la gravitation n’a pas terminé de nous surprendre et de nous étonner. Récemment, la mise en lumière du boson de Higgs et du champ de Higgs nous éclaire un peu plus sur le mécanisme engendrant la masse. Cependant, des questions fondamentales demeurent, dont à savoir pourquoi les particules ont toutes des masses différentes et pourquoi elles ont les masses qu’on leur connait ?

Mais il y a pire. On ignore si la gravitation existe aux petites échelles. Et quand je parle des petites échelles, je ne fais pas seulement allusion au niveau des particules élémentaires, mais à tout ce qui se situe en deçà du dixième de millimètre à cause d’autres forces s’exerçant à ces échelles et qui masquent très efficacement les éventuels effets de la gravitation. Pour savoir si deux protons s’attirent par la force gravitationnelle, il faudrait pouvoir la discerner à travers la force électromagnétique qui les repousse avec un facteur 1030 fois plus important.

En résumé, on sait calculer plein de choses en rapport avec la gravitation, mais on ignore encore totalement ce qui la constitue et même si elle existe réellement. Si la gravitation reste l’effet le plus évident à l’échelle humaine, elle demeure la plus mystérieuse de toutes les interactions.

Dernières nouvelles du Higgs

Le prochain paragraphe testera votre capacité à résister aux coups sur la tête.

Le réputé boson de Higgs est une particule qui, comme tous les bosons, véhicule une force, obéit à la loi de Bose-Einstein et désobéit à celle de l’exclusion de Fermi. Son spin est un nombre entier, et permet aux trois bosons de jauge W± et Z0 d’acquérir une masse par brisure de symétrie.

Collision.png

Bon, là, êtes-vous bien assommés? Pas grave! Avant de parler des dernières nouvelles concernant cette damnée particule (goddamn particle, pas God particle), revoyons lentement quelques notions entourant cette pierre angulaire de notre théorie standard des particules.

Retour sur quelques principes

La matière, désignée sous le terme fermions, ne peut pas occuper des états quantiques identiques, c’est le principe d’exclusion de Fermi qui fait en sorte que les électrons, heureusement, ne se percutent pas.

Vous trouverez un petit résumé des particules élémentaires dans cet article.

En revanche, les bosons qu’on ne considère pas comme de la matière, mais comme des vecteurs de forces se foutent éperdument d’avoir des sosies. Ainsi, ils s’amusent parfois à tous se ressembler et se rassembler, ce qui permet d’obtenir une lumière cohérente (les lasers), de la superfluidité, de la superconductivité, ainsi que des champs comme les champs électriques, magnétiques et de Higgs.

maxresdefault-2

Les bosons ont un spin obligatoirement entier valant 0, 1 ou 2. Le boson de Higgs possède un spin de zéro, faisant du champ de Higgs un champ scalaire, c’est-à-dire sans orientation ni direction.

Champ scalaire, vous dites? Ça se mange des scalaires?

On a tous vu un champ magnétique grâce à une barre aimantée, une vitre et de la limaille de fer. La forme caractéristique des lignes du champ magnétique montre que celui-ci possède une orientation et une direction, c’est un champ vectoriel.

lumiere-solide-liquide-photons-superfluide

En revanche, la température dans une pièce est un champ scalaire semblable au champ de Higgs. À chaque point de la pièce, on peut mesurer une température comme on peut mesurer le champ de Higgs à chaque point d’un espace défini.

Désintégration

Le boson de Higgs est une particule évanescente. Elle se désintègre quasi instantanément pour former des fermions, plus particulièrement deux quarks bottom (b), dans 60 % des cas.

image-292894-860_poster_16x9-mijo-292894

Cette désintégration est si rapide que le boson de Higgs n’a jamais été lui-même aperçu. Au mieux, on avait entrevu les sous-produits de la désintégration des sous-produits de la désintégration du Higgs. La nouveauté est d’avoir pu directement voir les sous-produits immédiats qui viennent d’être confirmés par le CERN, six ans après la découverte du dernier boson à composer la théorie dite du modèle standard.

Gg_to_ttH

Cette nouvelle était attendue et n’apporte aucune surprise aux physiciens théoriques. Si leur théorie s’en voit renforcée, en revanche, elle n’entrouvre aucune brèche qui leur permettrait de pousser la physique des particules un peu plus loin. Le modèle standard tient bien la route alors qu’on sait pertinemment qu’il sera pris en défaut un jour ou l’autre. Il faudra donc chercher la faille ailleurs.

 

Ce boson n’a pas dit son dernier mot

La question fondamentale qui taraude les physiciens à propos du boson de Higgs et du champ de Higgs est de savoir pourquoi chaque particule élémentaire du modèle standard acquiert une masse distincte, voire aucune masse comme dans le cas du photon.

1a7c7c34e2_50034416_ce0085m-06.jpg

Pourquoi chaque particule réagit-elle différemment au champ de Higgs uniforme? Comment se joue cette interaction entre ce champ scalaire et les particules, cette affinité qu’on appelle le couplage, qui fait qu’elles obtiennent chacune une masse distincte et précise?

Certains pensent trouver la réponse dans la théorie de la supersymétrie (SuSy) qui permet l’existence de plusieurs bosons de spin 0 et donc des possibilités multiples de couplage. Ce n’est pas le premier exemple où la supersymétrie sauverait la logique comportementale de la physique. Malheureusement, aucune particule prévue par la supersymétrie n’a encore été détectée malgré des efforts immenses en ce sens, laissant fortement douter de son existence ailleurs que dans la tête des physiciens théoriciens.

C’est la faute aux ondes gravitationnelles

Il existe une nouvelle mode depuis quelque temps, celle de placer les mots «ondes gravitationnelles» partout où l’on voit des rides ou des vagues. Les nuages forment des moutons parallèles, c’est l’effet des ondes gravitationnelles. Des rides dans des dunes, les ondes gravitationnelles. Des rides sur l’eau, les ondes gravitationnelles.

onde_gravit_spl_cosmos_72dpi_recadree

Les ondes gravitationnelles ne sont pas visibles à notre échelle et ne laissent pas de traces apparentes de leur passage. Elles déforment l’espace d’une manière microscopique lorsqu’elles se propagent à la vitesse de la lumière. Depuis peu, on les détecte en faisant voyager un rayon laser entre des miroirs distants de plusieurs dizaines de kilomètres et l’on réussit à peine à mesurer une variation infinitésimale de cette longueur. Si elles faisaient des vagues dans des dunes, soyez certain que nous serions en train d’être pulvérisés par deux trous noirs en coalescence dans la banlieue proche de la Terre.

Alors, non, les ondes gravitationnelles ne font pas rider les dunes ni ne dessinent des rouleaux dans les nuages. De bien grandes bêtises proférées par des gens ignorant tout de ce phénomène qui fut prédit par Albert Einstein un an après avoir complété sa théorie de la relativité générale. Il publia un article à ce sujet dans une revue scientifique en 1916, mais il a quand même toujours fortement douté de leur existence, changeant plusieurs fois d’idée par la suite. Une fois de plus, son instinct ne l’avait pas trompé.

images-5

Les ondes gravitationnelles ne ressemblent pas aux ondes électromagnétiques connues qui utilisent les photons pour transporter l’énergie. Ce sont donc des ondes de gravitation qui déforment l’espace-temps lorsqu’elles irradient à partir de leur lieu d’origine.

Il est raisonnable de penser qu’une particule joue le même rôle que le photon, dans leur propagation, ce serait le graviton. Lui aussi se déplacerait à la même vitesse c que son homologue électromagnétique. Mais si les ondes gravitationnelles ont été récemment détectées et confirmées, il n’en fut pas de même pour le graviton qui reste une particule hypothétique.

Les déformations spatiales exigent de l’énergie, on ne plie pas l’espace gratuitement. Ainsi, deux trous noirs qui se tournent autour avant de fusionner perdront une partie de leur masse transportée sous forme d’énergie par les ondes gravitationnelles.

Ligo_Virgo_1

La première détection d’ondes gravitationnelles a eu lieu le 14 septembre 2015 par les trois détecteurs LIGO et les scientifiques ont pu le confirmer le 11 février 2016, un siècle après la parution de l’article d’Einstein. Mais ce qui a rendu cette détection si spectaculaire est le fait d’avoir situé dans l’espace le lieu d’où provenait la production de ces ondes.

Couplée à d’autres observations résalisées par des télescopes traditionnels détectant des effets électromagnétiques complémentaires, ensemble, elles ont permis de découvrir la fusion de deux trous noirs de 36 et 29 masses solaires survenue à une distance de 1,3 milliard d’années-lumière. Il en est résulté un trou noir de 62 masses solaires. Ils ont donc perdu 5 % de leur masse, l’équivalent de trois fois la masse de notre Soleil, transformée en énergie qui a déformé l’espace jusqu’à nous. À leur arrivée sur Terre, le train d’ondes a fait osciller nos dimensions spatiales de seulement quelques zeptomètres (10-21 m). C’est tout dire sur la difficulté de mesurer ces variations infinitésimales de compression et dilatation d’espace.

News-Feb11_LIGO-image2

Depuis, d’autres détections ont eu lieu, confirmant la première tout en donnant du pep à d’autres détecteurs en cours de construction. Bientôt, nous posséderons tout un réseau de détecteurs capables de bien mesurer et localiser les sources de ces émissions.

Mais soyez assuré et rassuré, aucun phénomène visible n’est causé par le passage de ces vagues d’espace-temps et il vous est impossible de les sentir.

L’insoutenable

Comprendre l’insoutenable ne le rend pas plus endurable. Par contre, cette compréhension aide à accepter l’essence fondamentale de la vie, soit un jeu à l’évidence dangereux, très cruel et toujours mortel.

garden-roses-rose-woody-perennial-genus-rosa-family-rosaceae-there-over-species-form-group-41106591

Même si on n’a pas choisi d’y participer, laissons-nous transporter sur les flots de l’existence. Le déferlement des vagues nous bouscule, nous heurte, nous blesse, nous terrasse parfois, car la vie ne s’apparente aucunement à un immense jardin de roses où serpente un long fleuve tranquille.

image-1030x389

L’insoutenable est constitué d’un sac dans lequel se retrouvent nos rêves bafoués, nos espoirs déçus, nos aspirations inachevées. Le poids de ce sac le rend insoutenable. Alors vous savez comment réagir pour éviter de couler au fond de ces flots déchainés. Vous surnagerez bien plus facilement en vous débarrassant de cette lourde masse dans les abimes.

sourire-d-enfant

Pour certains dont la besace leur a été greffée à jamais, les gens souffrant de maladies incurables dont les répercussions s’avèrent insoutenables, le jeu de la vie nous assure qu’une fin surviendra infailliblement. Et si on gagnait à ce jeu tant et aussi longtemps qu’on parvient encore à sourire, à rire, à s’émerveiller, à apprendre et à donner?

 

La fourmi, la guêpe et l’intrication quantique

Hier soir, j’ai été voir le film de superhéros «Ant-man et la Guêpe» produit par Marvel. Si vous n’avez pas encore visionné le film, soyez sans crainte de poursuivre votre lecture, je ne dévoile aucun punch.

Depuis que cette entreprise opère dans le cinéma, elle porte un soin jaloux à ses scénarios en évitant de tomber dans les pièges de la facilité qui amènent inexorablement d’autres maisons du genre à concevoir des tissus d’incohérences et des collections d’âneries. Marvel sait raconter des histoires en emmêlant allègrement à travers leurs multiples films les aventures que vivent leurs différents personnages. L’ensemble de la filmographie crée une grande saga qu’on peut suivre du premier film jusqu’au dernier.

Ant-Man-et-la-Guêpe-e1530473865333-906x445.jpg

Bien entendu, Marvel maltraite, triture, torture la science dans tous les sens, mais leurs films se consacrent au divertissement, pas au documentaire. Nous devons donc être en mesure de les regarder pour ce qu’ils prétendent être et éviter de leur en vouloir pour les libéralités prises à l’endroit des formules des lois naturelles.

Dans le cas de l’homme-fourmi, un principe physique simple qui n’est pas respecté est la masse volumique. Pensez à un cube de 10 cm de côtés. Il possède un volume de 1000 cm3 et supposons qu’il pèse 1 kg. Maintenant, doublons ses dimensions. Les côtés mesurent 20 cm, le volume passe alors à 8000 cm3. Quant à son poids, il atteint 8 kg. En doublant des dimensions linéaires, les volumes ainsi que les masses deviennent 8 fois plus importants. Dans cet exemple, pour soutenir un homme dont ses dimensions ont été doublées, des jambes proportionnelles ne supporteraient jamais le poids. Le même raisonnement fonctionne également en sens inverse, ça explique pourquoi les pattes des fourmis semblent si fines à leurs dimensions, mais beaucoup trop minces pour rester efficaces lorsqu’on amplifie la taille de l’insecte.

ant-man-2-ant-man-et-la-guepe-gif-5b3e5e4e2b2b1.gif

Mais ce n’est pas très grave puisque c’est du divertissement et on aime bien voir des créatures, des personnages et des objets se faire réduire ou agrandir tout en conservant leurs propriétés intrinsèques. Mais quelle est la limite au rapetissement? Dans le film «Ant-man et la Guêpe», ils vont jusqu’à la limite théorique, celle des particules élémentaires, celle du vide quantique.

Aujourd’hui, dans nombre de films, on s’approprie certains pans de la physique quantique sans nécessairement la respecter, mais ce ne sont que des divertissements. À mon avis, il est grandement temps d’en parler au quotidien après être restée tapie dans les placards durant tout un siècle. Évidemment, les étrangetés de cette physique se prêtent bien à créer autour d’elles d’autres bizarreries moins véridiques, mais on demeure toujours dans le monde du divertissement.

Il y a quelques jours, j’ai traité du principe cosmologique des ponts Einstein-Rosen qui a été utilisé dans le film de Marvel, «Thor — Ragnarok». Vous pouvez le lire dans mon article intitulé «Pont Einstein-Rosen». Dans la production cinématographique mettant en vedette le couple d’insectes, Marvel exploite cette fois-ci le concept d’intrication quantique pour engendrer une connexion télépathique entre deux cerveaux. Le producteur effleure aussi l’aspect de délocalisation quantique avec le personnage du Fantôme.

bande-annnce-ant-man-guepe-65219-1200x675

Très récemment, j’abordais exactement le sujet de l’intrication dans un article intitulé «Intrication et télépathie». Pourtant, je n’avais aucune espèce d’idée du scénario du film «Ant-man et la Guêpe» lorsque je l’ai rédigé. C’est à croire que je possède une certaine forme d’intrication quantique télépathique avec Marvel! Qui sait, ça me rapproche peut-être d’un autre degré de Scarlett?

Quelques questions-réponses sur la photographie d’un trou noir

Cet article fait suite à ceux de ces trois derniers jours. 2018-06-112018-06-122018-06-13

Voici une série de questions et de réponses qui pourront vous aider à mieux comprendre le résultat attendu avant la fin 2018 de la première photographie d’un trou noir.

Q — Combien de temps a duré la prise de photographie d’un trou noir en avril 2017?
R — Une semaine

Sagittaire_A*

Q — Quel trou noir a été photographié?
R — La source radio ponctuelle désignée sous le nom de Sagittaire A*. Cette source émet des ondes radio et a été associée au trou noir supermassif résidant au cœur de notre Galaxie. Le trou noir n’émet évidemment pas directement ces ondes. Elles sont un effet sur son environnement lorsqu’il perturbe des nuages de gaz se trouvant dans ses parages.

Q — Est-il photographié en lumière visible?
R — Non. Entre le centre galactique et nous, il y a des poussières et des étoiles en quantités tellement grandes qu’il est absolument impossible de voir un objet en arrière-plan en utilisant les ondes visibles. Le télescope virtuel EHT utilise deux couvertures d’ondes électromagnétiques. Les principales fréquences détectées sont les ondes radio millimétriques et submillimétriques (bandes de fréquences de nos postes de télé et radio commerciales) provenant de ce point de l’espace. La seconde couverture se fait en ultraviolet. Les photons détectés seront ensuite transposés dans des couleurs qu’on peut voir afin de nous montrer un résultat visible pour nos yeux.

635858629467873685

Q — À quoi risque de ressembler la photographie?
R — Au risque de vous décevoir, le résultat risque visuellement d’être très peu ressemblant aux belles images dont je vous abreuve depuis les derniers articles sur le sujet. Comme je le spécifiais dans le précédent article, ces images sont des résultats d’artistes ou de simulations numériques et elles font abstraction de tous les «
défauts» causés par des centaines de causes dont plusieurs seront présents dans les images finales. Les astronomes tenteront d’en éliminer le plus possible, mais elles ne seront certainement pas à la hauteur des attentes des amateurs peu ou mal informés des difficultés.

WIRECENTER

Q — Alors à quoi servira cette photo?
R — Elle sert surtout à valider un protocole de travail très élaboré visant à créer un interféromètre supergéant. Elle sert aussi à améliorer nos connaissances en traitement informatique interférométrique. Elle deviendra également une première «
preuve tangible» plus ou moins convaincante de l’existence réelle des trous noirs qui n’ont été jusqu’à présent que calculés à partir d’une théorie qu’on sait bancale lorsqu’elle flirte avec les infinis.

Q — Comment pourra-t-on améliorer ce résultat dans l’avenir?
R — On pense à un interféromètre mixte utilisant des télescopes spatiaux et terrestres, ce qui agrandirait de beaucoup la résolution du télescope virtuel.

Black-hole-in-a-dwarf-galaxy_625

Q — Sur certaines photos de synthèse, on voit des trous noirs comme une tache alors que d’autres le montrent avec toutes sortes d’effets lumineux aux alentours. Lesquelles de ces simulations se rapprochent de la réalité?
R — Un trou noir stable qui n’a aucune rotation ferait apparaitre une tache ronde noire qui est l’horizon des événements du trou noir. Il sera entouré d’un halo lumineux occasionné par les étoiles en arrière-plan dont les rayons lumineux sont déviés et concentrés aux environs immédiats de cet horizon. Mais un trou noir qui ne tourne pas du tout n’existe probablement pas. Sa rotation apporte des changements à la structure géométrique de l’espace proche du trou noir. Imaginez que vous pincez une maille d’un tricot et que vous tourniez le poignet. Une partie du tricot se déformera autour de la maille pincée et tordue. L’espace autour d’un trou noir fait de même et dans les 3 dimensions. Ce changement à la structure géométrique de l’espace autour du trou noir dévie les rayons lumineux environnants et créera différents effets visuels. Toutefois, selon l’angle avec lequel nous verrons le trou noir, l’angle par rapport à son plan de rotation, le résultat visuel variera beaucoup.

stars_orbit.gif

Q — Comment les astronomes peuvent-ils être certains de la présence d’un trou noir au centre de la Voie lactée ? Et comment ont-ils calculé sa masse et ses dimensions ?

R — Puisqu’il n’a jamais été détecté, on pourrait se demander comment les astronomes savent qu’un trou noir galactique supermassif se cache au cœur de notre Galaxie. Ils ont suivi à la trace durant une dizaine d’années certaines étoiles très proches du centre galactique et ils ont remarqué qu’elles bougeaient. Ils ont tracé leur orbite et trouvé qu’elles tournaient toutes autour d’un point absent sur les photos (voir résultat ci-haut). Selon les lois de la mécanique céleste, il est possible de mesurer la masse de ce point central en fonction des orbites et des masses des étoiles révolutionnant autour. Ils ont donc mesuré une masse d’environ 4 millions de masses solaires. Puisque le volume dans lequel cette masse est concentrée est beaucoup trop petit pour correspondre à un groupe important d’étoiles supergéantes, il ne reste plus que des trous noirs puisque même des étoiles à neutrons seraient obligées de s’agglutiner en se transformant là encore en trou noir.

giphy

Q — C’est bien Einstein qui a prédit l’existence des trous noirs?
R — Faux. Malgré l’insistance dérangeante de plusieurs sites scientifiques à lui attribuer cette prédiction, elle est l’œuvre de Karl Schwarzschild qui fut le premier à calculer une singularité (trou noir) dans les équations d’Einstein en 1916. Einstein lui-même pensait que la Nature avait prévu des mécanismes qui empêchaient ces singularités de survenir. Donc, non seulement Einstein ne les a jamais prédits, mais il n’y croyait tout simplement pas. Même si Einstein a inventé l’outil mathématique, le marteau en quelque sorte, il n’est pas l’auteur de toutes les œuvres créées à partir de celui-ci.

N’hésitez pas à poser vos questions sous forme de commentaire.

Cortège de trous noirs

Le cœur de la Voie lactée n’abrite pas seulement un trou noir supermassif de 4 millions de masses solaires, mais également une myriade de petits trous noirs stellaires. On en a recensé une douzaine jusqu’à présent, mais ce n’est que le début puisqu’on en prévoit des centaines.

Cette découverte n’est pas inattendue, bien au contraire. La Galaxie, comme beaucoup d’autres, possède un bulbe galactique entourant son centre. La densité de la population d’étoiles y est beaucoup plus forte qu’ailleurs. Le centre de notre Galaxie contient également ses plus vieilles étoiles. Pour ces raisons, trouver beaucoup d’étoiles s’étant transformées en trou noir près du centre galactique prouve que la Voie lactée est une galaxie normale.

trounoir.png

On avait prouvé voilà déjà plusieurs années que le centre galactique était effectivement un trou noir supermassif plutôt qu’un amas dense d’étoiles ordinaires. Le cortège de trous noirs stellaires gravitant dans son giron.

Contrairement à la croyance populaire, un trou noir supermassif ne se comporte pas comme un aspirateur. Les objets tournant autour de lui peuvent très bien conserver une orbite stable en conformité avec les lois de Kepler.

images-5

Le trou noir central accumule en son sein de la matière environnante uniquement lorsque certains objets ont été déviés par des collisions ou lorsque la Galaxie avale des nuages de gaz ou d’autres galaxies qui se sont trop rapprochés. Mais pour ce qui est des objets en orbite stable autour de son noyau, ils peuvent poursuivre leur ronde des millions d’années sans aucunement être avalés.

representation-trounoir-etoiles

Cette découverte a été réalisée par une équipe de la Nasa dirigée par Chuck Hailey avec le télescope Chandra détectant les rayons X. Due à toute la poussière et aux milliards d’étoiles situées entre nous et le centre de notre Galaxie, il est impossible d’utiliser un télescope opérant dans le visible ou aux longueurs d’onde s’y rapprochant. Seuls les rayons X et gamma peuvent sonder le centre de notre Voie lactée.

Le premier à avoir prédit des milliers de trous noirs de masse stellaire formant un disque tournant autour du trou noir supermassif central est le théoricien Mark Morris en 1993. Cette récente découverte ne révèle rien de surprenant. Toutefois, les moyens mis en œuvre pour le prouver repoussent encore plus loin nos compétences observationnelles.

Photos : ici-radio-canada.ca ; maxiscience.com ; astroalbastronomy.wordpress.com ; atlantico.fr

Nibiru existerait vraiment

Planète X, 9, Nibiru, peu importe le nom qu’on lui donne, il semblerait qu’il existe bel et bien dans notre système solaire une autre planète que celles déjà connues.

Et ce n’est pas un délire de conspirationniste. Ce sont deux astronomes très sérieux du Caltech qui font cette constatation à partir du comportement, inexplicable autrement, de certains corps célestes transneptuniens comme la planète naine Sedna. Et ces astronomes ne sont pas les seuls à y croire puisque plusieurs scientifiques avant eux ont ouvert la voie vers cette hypothèse non dénuée de fondements.

Les astronomes du Caltech ont commencé à calculer ses paramètres, sa masse, ses dimensions, sa constitution, sa période de révolution, son inclinaison par rapport à l’écliptique, son orbite ainsi que sa position actuelle. Toutefois, les marges d’erreur sont très importantes dans l’état actuel des choses.

D’une masse comprise entre 5 et 20 fois celle de la Terre, elle ferait le tour du Soleil entre 10000 à 20000 ans et ressemblerait plus à la planète Neptune ou à Uranus qu’à la Terre. Elle serait actuellement à son aphélie, soit à sa plus grande distance de notre étoile. Voilà une des raisons pourquoi elle n’a pas encore été découverte, car elle est très loin, très sombre et se déplace très lentement. Difficile ou impossible de l’observer directement avec nos télescopes actuels. Toutefois, une nouvelle génération de télescopes géants est en construction et verra bientôt le jour. Alors nous aurons peut-être la possibilité de lui tirer le portrait pour la première fois.

Entre temps, les calculs s’affinent et nous saurons probablement dans quelle direction regarder pour la découvrir. En ce moment, les astronomes pensent qu’elle pourrait se situer actuellement dans la constellation d’Orion, de la Baleine ou du Taureau. Ça couvre une méchante grande partie de notre ciel.

Toutefois, tous ceux qui crient que Nibiru va bientôt entrer en collision avec la Terre, qu’on la voit même en plein jour ou qu’on la voit dans le ciel aussi grosse qu’un pamplemousse tenu à bout de bras, ce ne sont que des stupidités d’ignares. Malheureusement, la future confirmation de l’existence de cette planète va enflammer le web sur lequel seront multipliées toutes les âneries possibles et impossibles.

Si la période de révolution de cette neuvième planète est si importante, la Terre et elle se sont toutefois rapprochées beaucoup plus qu’une seule fois sans jamais se percuter. Sans pouvoir l’affirmer avec certitude, il est raisonnable de penser que dans 5000 à 10000 ans, lorsqu’elle reviendra au plus près du Soleil, plus près étant relatif, à son périhélie, la Terre et Nibiru resteront à très grande distance l’une de l’autre.

C’est toutefois un dossier à suivre avec grand intérêt même si notre vie n’en dépend pas.

.

Extinctions et cycles

Il y a environ 252 millions d’années survenait la pire extinction de masse de l’histoire de la Terre, l’extinction Permien-Trias (P-Tr). Non, ce n’est pas celle correspondant à la disparition des dinosaures survenue voilà 66 millions d’années. C’est une autre et elle fut pire encore.

FinDinosaures

Si la cause de l’extinction Crétacé-Tertiaire (K-T), celle des dinosaures, est bien connue et généralement acceptée de la plupart des scientifiques, la bougie d’allumage de l’extinction du Permien-Trias (P-Tr) est beaucoup moins consensuelle. La chute d’une météorite est également évoquée pour expliquer pourquoi 95 % des espèces marines et 70 % des espèces terrestres ont disparu de la surface de la Terre puisque cette cause restera toujours la plus facile à démontrer.

TrouNoir1

On dénombre six extinctions massives incluant celle sévissant actuellement qui est causée par les activités humaines. Mis à part cette dernière dont la cause est unique, on dénombre 25 extinctions importantes ou massives depuis les 540 derniers millions d’années.

Les effets occasionnés par une météorite géante tombant sur la Terre sont assez bien connus. Des simulations numériques nous montrent la puissance d’un tel événement et l’étendue planétaire des dégâts. Des tremblements de terre de force 11 et des tsunamis géants ravagent la planète. Ensuite, la flore s’embrase puis disparait lorsque les retombées incandescentes font le tour de la terre. Puis l’hiver permanent prend la relève lorsque des centaines de volcans éperonnés par les séismes crachent sans relâche leurs éjecta de poussière durant des décennies. Ils saturent l’atmosphère d’acide sulfurique qui change drastiquement le pH des cours d’eau et des océans, tuant pratiquement toute vie sur Terre.

Manicouagan1.png

Cependant pour valider l’hypothèse d’une météorite, il faut retrouver le lieu d’où la catastrophe s’est produite. On doit donc chercher un astroblème pouvant être daté de cette époque et suffisamment grand pour correspondre à la taille d’une cicatrice laissée par un caillou céleste ayant causé cette hécatombe. Selon la nature du sol, un astroblème fait de 10 à 20 fois les dimensions de la météorite.

Le diamètre minimal de l’astéroïde tueur devrait au moins être l’équivalent de celui ayant fait disparaitre les dinosaures, c’est-à-dire 10 km. Cependant, puisque l’ampleur de l’extinction est bien plus importante, cette estimation est jugée minimale par plusieurs scientifiques. Certains parlent plutôt d’une météorite faisant 45 kilomètres de diamètre. Elle pourrait être tombée en Antarctique où une anomalie gravitationnelle de 600 km de diamètre a été décelée.

AntarctiqueAnomalie

Si l’hypothèse de la météorite s’avère probable et plutôt pratique pour expliquer l’extinction Permien-Trias, on ne peut exclure d’autres causes dont certaines peuvent être cycliques. Par exemple, une autre extinction de masse, la deuxième en importance, s’est produite voilà 485 millions d’années. C’est l’extinction de l’Ordovicien-Silurien (O-S). La différence est de 233 millions d’années avec la suivante, moins de 10 % par rapport à 252 millions d’années. Et fait troublant, notre Soleil se déplace dans la Galaxie. Il tourne autour de son noyau en 220 ou 250 millions d’années. Ce chiffre est difficile à préciser, mais il correspond au 233 millions à 252 millions d’années.

J’ai ensuite calculé la différence moyenne de temps entre deux extinctions en utilisant la liste des 25 plus importantes disparitions recensées jusqu’à maintenant. Un cataclysme planétaire survient en moyenne à tous les 26 millions d’années. Il semble donc qu’un cycle existe réellement pour expliquer la majorité des extinctions survenues sur Terre.

SoleilPlanGalactique

Je me suis rappelé avoir appris que le Soleil oscille de haut en bas autour du plan galactique, passant en dessous puis revenant au-dessus selon un cycle d’environ 30 millions d’années. Toutefois, ce chiffre est entaché d’une marge d’erreur importante. En admettant que ce mouvement oscillatoire prenne 26 millions d’années plutôt que 30 millions, ce chiffre correspondrait très bien à la moyenne des extinctions importantes survenant sur Terre.

Ainsi, quelque chose se produirait lorsque la Terre passe à une certaine hauteur par rapport au plan galactique. Ce pourrait être une bouffée de rayons gamma, car l’atmosphère terrestre est fortement perturbée lorsqu’elle est attaquée par ces rayons énergétiques. La couche d’ozone disparait et sans elle, les rayons gamma attaquent tous les êtres vivants de la planète, causant des extinctions massives. Malheureusement, si les rayons gamma en sont la cause, il n’en reste plus aucune trace. Cette hypothèse ne pourra être validée que lors de la prochaine catastrophe !

GammaRays1

Voilà donc une autre menace à rajouter à notre calendrier des événements catastrophiques à survenir. Comme quoi il est dangereux de vivre dans notre Galaxie. Pourtant, elle semble bien plus sûre que d’autres univers-iles ayant un noyau très actif alors que le nôtre est en dormance.