On n’a jamais mesuré la vitesse de la lumière

Ouais ! Bon ! Je vous entends penser. « Une autre théorie complotiste du même genre que « La Terre est plate ». Pourtant, si vous persistez dans votre lecture malgré votre scepticisme, je vous prouverai que c’est vrai. Cet article est subdivisé en deux parties. La première concentre les explications et la seconde traite des fondements mathématiques que vous pourrez éluder si votre goût pour les calculs ressemble au mien pour les radis.

Vitesse limite inconnue. Malgré ce manquement expérimental fondamental, on a quand même basé notre unité de distance, le mètre, sur la valeur de cette vitesse « inconnue » mais estimée constante dans tous les référentiels à 299 792 458 mètres par seconde.

Vous attendez que je vous dégote un argument tordu pour réfuter cette apparente connaissance universelle et… vous avez raison. Mais aussi dingue qu’elle soit, mon explication s’avère parfaitement exacte.

Pour mesurer avec précision la vitesse d’une balle de tennis ou de fusil, on peut envoyer un faisceau d’ondes (de la lumière) sur celui-ci. La différence de la fréquence émise par rapport à celle obtenue après réflexion sur l’objet détermine la vitesse de cet objet. C’est l’effet Doppler, le complice des policiers pour les aider à nous donner des contraventions. Mais cette procédure est inapplicable pour déterminer la vitesse de la lumière, car la vitesse de l’élément à mesurer est égale à la vitesse de l’élément mesureur. On ne peut mesurer la vitesse de la lumière avec de la lumière ou toute autre sorte d’onde électromagnétique dont on ne connait pas la vitesse exacte puisque c’est ce qu’on cherche à la connaitre par des mesures.

La seconde façon de mesurer des vitesses consiste à déterminer le temps que prend un objet pour parcourir une distance précise et connue. On place deux balises et lorsqu’un objet franchit la première, le chronomètre démarre et lorsqu’il atteint la seconde, on l’arrête. La division de la distance parcourue par la mesure du temps détermine la vitesse de l’objet en m/s, en km/h, etc.

Pour mesurer la vitesse de la lumière dans le vide, vitesse absolue parmi toutes, il n’est pas possible d’utiliser un faisceau d’ondes, lui-même une lumière. Il n’est pas plus possible de mesurer le temps entre deux bornes puisque notre appareil d’enregistrement doit également et préalablement connaitre la vitesse de la lumière pour mesurer… la vitesse de la lumière.

Bon. Pas de problème, vous vous dites. Recourons à des horloges atomiques. Une à chaque borne et parfaitement synchronisées. Mais pour les synchroniser, il faut transmettre une information de l’une à l’autre à la vitesse de la lumière, vitesse qu’on cherche justement à mesurer. Cette procédure est prise en défaut en recourant à une inconnue pour mesurer cette même inconnue.

Dans ce cas, synchronisons les 2 horloges à partir de la même borne et envoyons-en une à la seconde borne. Erreur ! Puisqu’une horloge se déplace par rapport à l’autre, la théorie de la relativité restreinte nous apprend que le temps diffère entre 2 objets en vitesses inégales entre eux. Et pour corriger ce décalage, il faut connaitre la vitesse de la lumière, vitesse qui, comme vous devez commencer à me haïr, est celle qu’on cherche inlassablement à mesurer.

La solution est cependant simple, direz-vous, et c’est justement cette technique qui a été utilisée et qui l’est encore pour mesurer cette fameuse vitesse c. À l’aide d’un miroir, faisons parcourir à la lumière la distance aller-retour et divisons le temps mesuré par 2 pour obtenir cette foutue valeur de c. Et le tour est joué ! pensez-vous, et le bec du Corbot cloué !

Cet exercice pratique est cependant basé sur un postulat. Et l’on sait que si un postulat est faux, le résultat de la mesure par l’expérience sera faux. Le fameux postulat utilisé dans l’expérimentation précédente et sciemment accepté par Einstein lui-même est le suivant: 

Nous avons tenu pour acquis que la lumière se déplace à la même vitesse à l’aller comme au retour, en éloignement comme en rapprochement, ce qui permet de diviser le temps par 2 pour déterminer le temps d’un trajet dans une seule direction.

Mais rien ne prouve que le temps requis pour parcourir la même distance est le même dans les deux directions. C’est une affirmation non prouvée, un postulat parfaitement gratuit. Évidemment, faute de mieux, il est raisonnable de le considérer comme véridique, mais ce n’est qu’une croyance et en aucun cas une certitude prouvée.

Il n’est pas possible de mesurer la vitesse de la lumière dans une seule direction puisqu’il faudrait déjà connaitre cette vitesse pour ensuite la déterminer. On ne peut définir une chose par elle-même.

Il est raisonnable de penser que la vitesse de la lumière est égale dans toutes les directions, y compris lorsqu’elle s’éloigne de nous ou lorsqu’elle nous revient. Malheureusement, aucune expérience ne peut le prouver une bonne fois pour toutes. Essayez d’en inventer une et elle sera réfutable.

La seule solution consisterait à découvrir des particules voyageant plus vite que la lumière, des tachyons par exemple. Nous pourrions alors utiliser un faisceau de tachyons pour mesurer la vitesse des photons et en appliquant quelques formules mathématiques, nous obtiendrions la valeur tant recherchée de c dans une seule direction.

Mais voilà. Si Einstein avait raison, rien ne peut voyager plus vite que la lumière dans le vide (c). Les tachyons ne sont présentement que des inventions de l’esprit. Leur gros problème est qu’ils pourraient violer le principe de causalité (quoique ce soit discutable et discuté). Ils démarreraient leur périple après être parvenus à destination. Ça parait un peu bizarre. Aussi aberrante que cette situation puisse paraitre, elle n’est pas totalement ridicule. La physique quantique nous a habitués à rencontrer des comportements totalement illogiques et pourtant parfaitement véridiques. Il pourrait en être de même avec les tachyons.

La véritable impossibilité théorique est d’accélérer un objet jusqu’à ce qu’il atteigne la vitesse c puisque cette action nécessiterait une énergie infinie à cause de l’augmentation de la masse conséquente. Le fameux accélérateur de particules LHC a longuement prouvé le principe que la masse augmente avec la vitesse. Mais rien n’interdirait une particule de naitre en voyageant déjà plus vite que la vitesse limite c puisqu’elle ne passerait pas par une phase d’accélération. Voilà pourquoi les tachyons pourraient bien exister. Et fait surprenant, ils perdraient de la masse en augmentant leur vitesse.

Pour revenir au sujet principal, à défaut de connaitre actuellement avec certitude la vitesse de la lumière, la présomption qu’elle vaille 299 792 458 m/s dans toutes les directions et à tout moment nous permet de créer des applications comme les GPS et autres systèmes de calculs relativistes. Mais si un jour on vous apprend que cette vitesse n’est pas égale dans tous les systèmes de référence, ne vous surprenez pas. Le postulat utilisé consciemment par Einstein dans son article de 1905 sur la relativité restreinte se sera avéré inexact.

Les probabilités semblent extrêmement faibles que c varie selon qu’il s’éloigne ou se rapproche de nous, mais pour l’instant, le mieux qu’on peut affirmer avec absolue certitude est que cette vitesse « limite » reste à ce jour une valeur non mesurée.

Complément mathématique pour les presque nuls en maths 

La théorie de la relativité restreinte d’Einstein utilise les transformations de Lorentz dont le facteur s’écrit ainsi.

Gamma (𝛾) multiplie la masse, l’énergie et le temps relatif et il vaut entre 1 et l’infini (∞) selon que la vitesse (v) d’un objet varie de zéro jusqu’à atteindre c. De fait, si v vaut zéro, le résultat sous le radical vaut 1, le radical de 1 = 1 et finalement 1/1 = 1. Interprétation : à vitesse relative nulle, pas de changement de masse, d’énergie ou de temps relatif.

En revanche, si v vaut c, le résultat sous le radical vaut 0, le radical de 0 = 0 et 1/0 = ∞. Interprétation : Un déplacement à la vitesse de la lumière multiplie la masse, l’énergie et le temps relatif par l’infini.

Pour un tachyon qui aurait une vitesse v supérieure à c, la valeur sous le radical devient négative. On sait qu’il n’existe aucun nombre réel résolvant un radical d’une valeur négative, mais il en existe parmi les nombres imaginaires purs. Ce n’est pas parce qu’on parle de nombres imaginaires que ces nombres sont fabulatoires ou insensés. On aurait fort bien pu utiliser un autre terme. À preuve, tous les condensateurs et les bobines de ce monde (moteurs, antennes, accumulateurs, etc), des objets bien réels s’ils en sont, fonctionnent selon des mathématiques qui utilisent les nombres imaginaires pour déterminer leur courant selon la tension exercée à leurs bornes.

Ainsi, un tachyon pourrait fort bien exister dans un temps perpendiculaire au temps que nous connaissons et que nous expérimentons à longueur de journée. Un temps qui est inaccessible parfaitement reconnu et prouvé.

Le mystère de l’observation

En physique quantique, l’observation joue un rôle critique. Vous avez certainement entendu parler du chat de Schrödinger placé dans une boite dotée d’un mécanisme de désintégration radioactive qui, si elle survient, brise une fiole de gaz mortel. Si on laisse le chat dans la boite durant un temps équivalent à la demi-vie de l’atome radioactif, il a une chance sur deux de mourir.

chat-schrodinger-bandeau-750x400

D’ailleurs, je félicite ce physicien d’avoir placé un chat dans sa boite. Il partage certainement avec moi une aversion pour ces boules de poils volatilophages.

En physique quantique, le concept du chat miaulant à moitié s’interprète légèrement différemment. Il n’est plus simplement question de statistique du genre « soit l’un, soit l’autre », mais plutôt « moitié l’un et moitié l’autre ». Ainsi, le chat se trouve simultanément dans les états vivant et mort jusqu’à ce qu’un observateur ouvre la boite pour constater lequel des deux a préséance. Mais avant ce constat, le chat partage les deux états à parts égales.

Évidemment, Schrödinger a utilisé la métaphore du chat pour expliquer des phénomènes quantiques réels. À l’échelle macroscopique, à notre échelle, les phénomènes quantiques se sont depuis longtemps résorbés et jamais on ne pourra établir qu’un chat soit simultanément mi-mort mi-vivant. Toutefois, à l’échelle microscopique, la simultanéité de deux états doit être considérée comme exacte. Il ne s’agit pas simplement d’une image, mais de la stricte vérité.

Slits

Il faut cependant expliquer une différence fondamentale entre l’observation d’un chat et l’observation d’un photon, d’un électron ou d’un atome pour mieux comprendre la subtilité du phénomène quantique.

Dans notre monde quotidien, un bon observateur se doit de ne pas interagir avec son sujet d’étude s’il veut obtenir des données recevables. S’il perturbe le milieu observé, ses conclusions seront biaisées. En physique quantique, il est impossible d’observer sans perturber l’élément étudié. On ne peut pas connaitre les propriétés d’un photon ou d’un électron sans le faire interagir avec un instrument de mesure quelconque. Ainsi, l’observation quantique ne se contente pas d’observer à distance, elle perturbe violemment son sujet d’étude.

eclipse-lune-2018-bulgarie

En fait, si on n’interagit pas avec une particule, elle semble rester totalement intangible et son existence ne devient réelle que lorsqu’il y a une observation. Einstein avait ce principe en horreur. Il disait : « Je ne peux pas croire que la Lune n’est pas là lorsque je ne la regarde pas ».

Cette façon de voir n’est pas correcte. On devrait plutôt penser de la sorte. Même si la Lune n’existe pas véritablement lorsqu’on ne l’observe pas, les informations la concernant sont, elles, bien réelles. Ainsi, notre astre continue de générer des marées même si personne ne l’observe puisque l’espace conserve toutes les informations concernant l’ensemble de ses particules.

Ainsi, que la Lune prenne forme et couleurs uniquement lorsqu’on la regarde, ça ne change rien puisque ses informations restent bien présentes. Elles sont simplement lues, ou pas.

Je vous propose de vous référer à un autre de mes articles concernant l’univers informatif. Il est plus facile de démystifier les bizarreries de la physique quantique lorsqu’on imagine un univers où tout n’est qu’informations plutôt qu’un univers constitué à la base de matières et d’ondes. Oui, matières et énergies finissent par émerger par une interaction ou par une observation. Cependant, leurs informations restent toujours tapies au plus profond de la trame spatiotemporelle et ce sont elles qui comptent véritablement au bout du compte.

L’angle de Planck

Si vous ne connaissez pas les dimensions de Planck, sachez qu’elles sont connues depuis 120 ans déjà. Ce sont les dimensions extrêmes de notre Univers. Dans le cas des longueurs de distance et de temps, elles valent environ 10-35 mètre et 10-44 seconde.

Il est impossible de fragmenter ces valeurs, elles sont les atomes (éléments insécables) de notre univers. De là à imaginer que notre univers est discontinu, il y a un pas à franchir qui pour moi devient évident, mais pas pour une majorité de physiciens qui croient encore, malgré cela, que le temps coule sans faire de bonds et que l’espace n’est pas atomisé.

Cependant, pour rendre compatibles nos deux piliers actuels de la physique, la physique quantique et la relativité, les théories basées sur la discontinuité du temps et de l’espace semblent prometteuses. Certains travaux de physique théorique actuels voient l’espace composé de microscopiques tétraèdres de longueur équivalente à celle de Planck, soit 10-35 m.

Je me suis donc posé la question suivante. Si l’espace est discret, discontinu, pourquoi n’en serait-il pas autant des angles de rotation ? Pourquoi tous les angles seraient-ils permis ? L’Univers est discontinu ou ne l’est pas et si c’est le cas, alors les angles le sont également.

Mais je ne trouve rien sur ce sujet. Il semblerait que personne n’a pris la peine de se poser la question. Rien, nada, le vide, non le néant. Pourtant, je ne peux concevoir une longueur minimale pouvant tourner librement de façon totalement continue, sans limite minimale.

Comment peut-on concrètement représenter cet angle de Planck ? Celui-ci aurait le même effet que nos convertisseurs du numérique à analogique actuels. Oui, ces engins qui transforment les bits de nos CD en onde sinusoïdale qu’on peut entendre. En fonction de la résolution de ces convertisseurs, les ondes restituées possèdent plus ou moins de paliers, mais aucune n’est totalement continue. Les sinusoïdes ont des marches, mais nos oreilles ne peuvent les percevoir si elles sont minuscules.

PaliersPlus

L’angle de Planck causerait le même effet dans les ondes électromagnétiques. Cependant, à cause de sa petitesse, il nous est très difficile de distinguer des paliers dans la lumière reçue ou émise. Par l’observation, il est cependant possible de déterminer sa limite supérieure, mais seule une théorie nous permettrait d’en donner une valeur précise.

Pour générer des ondes à paliers, le rotateur doit tourner en saccade, avancer coche par coche, comme une horloge dont la trotteuse marque chaque seconde d’un tic caractéristique.

Il existe la notion de « temps de Planck » qui se rapporte au temps que prend la plus petite longueur d’onde possible à parcourir son cycle, sa période. Ce temps déterminé par les constantes fondamentales vaut 5,391 x 10-44 seconde. Mais ce temps représente l’ensemble du temps passé pour faire une rotation complète, l’équivalent de la minute pour une trotteuse, alors que moi je cherche l’équivalent de la seconde. Pour une trotteuse, son angle minimal vaut 6 degrés, puisque 360°/60 s = 6°/s.

Il existerait donc un temps plus petit que le temps de Planck, c’est le temps de chaque palier que possède une onde. En considérant le pire, soit un seul palier par valeur positive et négative et les deux paliers à zéro, on doit diviser le temps de Planck par 4 pour trouver le temps de chacun des paliers d’un cycle.

PaliersMin

En revanche, plusieurs paliers divisent d’autant la plus petite division temporelle. Il est possible que le temps de Planck fasse qu’il n’existe qu’un seul palier par demi-cycle et qu’ainsi la résolution angulaire, l’angle de Planck, à cette hyperfréquence soit égale à 90°. L’angle de Planck déterminerait le type de maillage spatiotemporel. S’il vaut 90°, l’espace-temps serait une construction formée de cubes empilés.

Cependant, une de nos théories actuelles de la gravitation quantique fait intervenir des mailles spatiotemporelles de la forme d’un tétraèdre. Si cette description est exacte, l’angle de Planck serait plutôt équivalent à 30° et il existerait donc quatre paliers de valeurs distinctes (en incluant le zéro) par demi-cycle plutôt que deux.

Quels seraient les impacts d’un angle de rotation de Planck de 30° sur notre compréhension actuelle de l’univers ?

L’accélération de l’expansion de l’univers pourrait ainsi n’être qu’un artéfact et ce n’est pas rien. Les galaxies lointaines apparaitraient plus éloignées que la réalité. Ainsi, nos estimations actuelles de l’énergie sombre seraient erronées et même peut-être totalement fausses. Le destin de notre univers en serait chamboulé puisque le Big Rip ne surviendrait pas.

 Ce serait une excellente nouvelle puisque selon la théorie actuelle, tous nos atomes finiront écartelés, déchirés par cette énergie sombre délétère.

Je mise sur un angle de Planck non nul qui pourrait peut-être sauver notre univers d’une mort horrible que nous promet actuellement ce que nous appelons l’énergie sombre, un terme signifiant que nous ignorons complètement sa nature.

Un angle de Planck valant 30° réduirait à néant l’obligation de recourir au principe d’une énergie sombre répulsive pour expliquer ce que l’on observe. Surtout, il redéfinirait les dimensions et le destin de l’Univers.

Courage

Lorsqu’un animal est attaqué, il peut choisir entre six solutions pour s’en sortir. Le premier réflexe en est un de défense passive, se figer pour faire perdre au prédateur sa cible de vue. Le camouflage et le mimétisme ont sauvé la vie de bien des animaux qui ont vu leur ennemi passer tout près sans les apercevoir. Cette technique statique a également contribué à faire perdre la vie à bien d’autres animaux, car elle implique de rester dans l’aire de danger. Elle donne cependant du temps à la proie pour déterminer le degré réel de dangerosité ainsi que le ménagement de ses efforts, car toute dépense énergétique se paye cher dans la nature.

Criquet

La deuxième technique peut sembler la meilleure, car elle éloigne, du moins temporairement, la proie du prédateur, c’est la fuite. Mais si elle est située au deuxième rang, c’est qu’elle n’offre pas que des avantages. Le mouvement se remarque très facilement. Le fuyard se tatoue donc une cible sur lui. Généralement, la nature a doté les prédateurs de vitesse de pointe plus élevée, sinon ils ne pourraient pas survivre. Ainsi, fuir ne suffit pas, cette technique doit être accompagnée d’une stratégie consistant à trouver rapidement un abri sûr. Fuir, mais où ? Sans objectif, il ne reste que l’épuisement et la chance apportés par les obstacles du terrain à l’avantage de l’un ou de l’autre pour déterminer qui remportera la course.

Guepard

Semblable à la première, la troisième technique ne peut se pratiquer que par certaines espèces. Elle consiste à attendre l’attaque et laisser ses défenses naturelles venir à bout de l’ennemi. Être muni d’une carapace épaisse ou de dangereuses épines peut venir à bout de la patience et de la sensibilité de l’attaquant tout en se laissant malmener.

article-2314541-1979CBB1000005DC-537_634x462

La quatrième façon d’aborder l’ennemi est de l’attaquer. Pris au piège, l’affrontement peut parfois faire tourner le vent en faveur de la victime. Un coup de croc ou de griffe bien placé, un jet de substance biologique sur le museau ou dans les yeux, des épines plantées dans les pattes ou le nez, le prédateur pas toujours expert en la matière risque parfois d’en prendre bien plus qu’il ne l’aurait cru.

1

L’avant-dernière façon d’aborder son ennemi est plus rare, car elle ne fonctionne que dans certaines conditions particulières, c’est la soumission. Se soumettre à son ennemi, implorer sa clémence, collaborer avec lui pour lui rapporter plus d’avantages qu’une simple nourriture immédiate peut constituer la dernière ligne de défense. Elle exige toutefois de changer son style de vie pour se soumettre à un être supérieur.

Le dernier moyen de prendre le dessus sur un ennemi est de trouver du renfort. À ce sujet, on trouve deux types d’alliés différents, les naturels et les improbables. Il existe parfois, pas toujours, un prix à payer pour cette protection providentielle. Les circonstances et les individus en cause viendront déterminer les conditions de ce contrat d’alliance. Dans la gamme des alliances naturelles, les congénères d’une hyène attaquée viendront évidemment à son secours. Un lion venant au secours d’un bébé gnou attaqué par un autre lion, ça semble pas mal plus étrange et pourtant ça s’est vu.

x1080

Vous l’aurez probablement compris, ces six comportements se rapportent également aux humains, plus vraiment dans le contexte d’un mangeur et d’un mangé au sens propre, mais dans des relations difficiles à l’école, à la maison, au travail, dans des cercles d’amis ou de loisirs.

Le principe de prédateur-proie reste valable, tout comme les six techniques décrites pour affronter l’adversité. Instinctivement, nous adoptons parfois l’une d’entre elles sans vraiment nous en rendre compte, sans avoir jugé de sa pertinence face à un ennemi en particulier et des conséquences possibles de ce choix sur la suite des événements. Choisir sa technique de défense en connaissance de cause nous éloigne déjà d’un statut de simple victime.

Qu’on le veuille ou non, il existera toujours des attaquants qui s’en prendront à des travaux, à l’intégrité, aux valeurs, aux résultats, à la popularité ou aux idées des autres. Certaines attaques resteront bénignes, mais parfois un individu des plus déplaisants et bien déterminé à attaquer une personne sans raison évidente surgira et fondera sur sa proie.

Il n’est pas toujours possible d’utiliser les techniques de défense passive. Il n’est pas toujours possible d’attaquer plus puissant que soi. Il n’est pas toujours possible de fuir. Il n’est pas toujours possible de collaborer. Par contre, il est presque toujours possible de trouver des alliés quelque part, même s’ils agissent dans d’autres sphères, même s’ils paraissent éloignés de nos soucis, même s’ils ne nous ressemblent pas.

amitie-animaux-entre-chien-orang-outan2.jpg.png

Le prix à payer pour cette demande d’aide externe est souvent l’exclusion du cercle dans lequel l’individu évolue. Est-ce une véritable perte ou une fabuleuse occasion à saisir ? Parfois, la peur de l’inconnu semble plus forte que la crainte de ses faux amis, ses véritables ennemis.

Ça demande du courage. Cette qualité se développe à partir d’une première tentative, puis d’une autre et encore une autre, sans égard aux résultats apparents. Le courage ne peut appartenir qu’aux victimes, car les prédateurs n’agissent jamais par courage, seulement par opportunisme, car attaquer un plus faible est la marque des vrais faibles.

Alors, courage ! Sors-t’en !

Ne nous faites pas confiance !

Plusieurs personnes croient aux Ummites, de prétendus individus provenant de la planète Ummo qui seraient venus s’installer sur Terre en 1950 après avoir entendu les premières transmissions électromagnétiques d’origine humaine au début des années 1930.

Je ne commenterai pas cette croyance, car je n’ai aucune opinion, n’ayant jamais lu aucun des nombreux écrits qu’ils auraient composés et envoyés depuis 1965 sous forme de lettres à des individus disséminés un peu partout sur la planète.

Si cette histoire est véridique, leur planète étant située d’après leurs dires à 14,4 années-lumière de la Terre, ils bénéficieraient donc de moyens de transport aux capacités fantastiques dont la vitesse friserait ou dépasserait même la vitesse de la lumière.

Si Einstein vivait, il ferait évidemment partie des sceptiques. Pour lui, rien de très massif ne peut s’approcher de la vitesse de la lumière sans une débauche d’énergie impossible à embarquer à bord d’un vaisseau spatial. Quant à carrément dépasser la vitesse limite, le mot limite devrait être suffisamment explicite pour rejeter cette hypothèse.

Pourtant, sans contredire la physique relativiste, il semblerait possible de créer des conditions qui permettraient de se déplacer d’un point à l’autre de l’espace en créant l’illusion d’avoir dépassé la vitesse de la lumière sans passer par un écrabouilleur et létal trou de ver.

iStock-898633500-e1528790579564

En tordant l’espace, en le déformant, en le pliant ou en sautant à travers une quatrième dimension spatiale, il serait théoriquement possible de se déplacer entre Ummo et la Terre sans vraiment parcourir l’entière distance au sens classique du terme. Le voyage serait ainsi écourté et il suffirait d’une énergie et d’un temps raisonnables pour parvenir à destination.

En supposant qu’il soit possible de générer une distorsion spatiale de manière énergétiquement acceptable, voudrions-nous utiliser ce moyen pour aller coloniser d’autres planètes ?

Certes, nous sauterions sur l’occasion de s’accaparer cette technologie. Ayant dévasté la Terre, il est évident que nous voudrions trouver d’autres planètes susceptibles de posséder des ressources vierges et abondantes afin de les piller à notre guise sans gouvernement pour nous restreindre à suivre de multiples règles.

On peut d’ores et déjà connaitre le résultat de ces colonies, un recommencement des erreurs ayant mené à la ruine du milieu dans lequel on vit encore. L’humain est trop vorace pour faire attention à quoi que ce soit. Il est trop cupide et même trop idiot pour apprendre de ses erreurs.

J’en appelle donc aux Ummites ou à toute autre race extraterrestre grenouillant dans nos parages. Tenez les humains loin des technologies qui leur permettraient de partir à la conquête d’autres systèmes planétaires. L’espace a beau être vaste, faut-il vraiment que d’autres mondes supportent nos ravages ? 

Par contre et à tout hasard, n’auriez-vous pas un bidule très puissant à me prêter ? Non, pas le truc pour plier l’espace, l’autre machin plus utile encore, celui pouvant ramener la population de la Terre à l’Âge de pierre. Je vous le rends dès que j’en aurai fait bon usage !

L’avenir sera courage et inhumanité

Nous avons trop longtemps cru, à tort, que l’humain pouvait avoir le dessus sur la Nature. Depuis les débuts de l’ère industrielle, nous avons vécu avec le sentiment que nous pouvions harnacher les éléments à notre profit. La Nature nous dérangeait, nous l’avons tassée, ignorée et maltraitée. Nous avons cru prendre le dessus sur celle qui nous empêchait de réaliser nos rêves les plus fous.

Nuclear-Explosion-HD-1024x640-1728x800_c

En bon parent patient, elle a subi nos frasques, nous a enduré autant qu’elle a pu, mais aujourd’hui ces moments calmes sont terminés. La Nature n’est pas revancharde, elle en a juste plein le c… Son vase est rempli et il ne fait que commencer à déborder.

Imaginez la Terre comme un immense réservoir possédant une très grande capacité de rétention. Elle peut absorber une quantité phénoménale de gaz à effets de serre tout en laissant une partie du dioxyde de carbone et du méthane dans l’atmosphère afin de retenir un peu de la chaleur reçue du Soleil. L’équilibre atteint est parfait pour obtenir des températures moyennes favorisant la vie telle que nous la connaissons, c’est-à-dire à base d’eau liquide.

lagrande4-03

Mais voilà, durant les deux derniers siècles, l’humain a exploité les ressources pétrolières et charbonnières enfouies dans le sous-sol afin de produire de l’énergie utilisée par ses machines et pour son confort. Avec une totale insouciance, il est parvenu à atteindre la capacité maximale de rétention des gaz à effets de serre de sa planète.

Cette limite dépassée, la Terre refusera les prochains excédents. Cependant, son véritable comportement ne se contentera pas d’être aussi simple. Si c’était le cas, nous aurions le temps de changer nos habitudes de vie et nous pourrions retrouver un équilibre légèrement différent de celui du passé, mais toujours acceptable. Ce qui surviendra ne s’apparentera pas, même de loin, à ce sage scénario optimiste, pour ne pas dire totalement irréaliste.

co2-atm-temp-fig13.gif

Pensez plutôt à la Terre comme un immense réservoir derrière un barrage hydroélectrique où les excédents d’eau sont évacués en aval. Mais que se passe-t-il lorsque la pression d’eau devient plus grande que la résistance de la structure? Le barrage tout entier s’effondre et l’eau accumulée derrière lui se déverse en emportant tout sur son passage. Afin de mieux représenter ce qui surviendra plus précisément, considérons une désagrégation graduelle plutôt qu’un effondrement instantané. Quoi qu’il en soit, le réservoir se videra de toute l’eau accumulée de manière artificielle.

La Terre est déjà entrée dans une boucle de rétroaction positive et rien ne pourra changer cette situation qui s’avérera bien plus grave que nous le pensons, que nous voulons le croire, que nous l’espérons.

PT_terre_bleue-1134.1532970284

Anciennement, l’humain avait de la compassion pour ses proches, ses voisins, ses connaissances puisque ces dernières se limitaient à un environnement plutôt immédiat. Aujourd’hui, on suit en direct sur tous nos écrans des sauvetages héroïques d’inconnus situés à l’autre bout de la Terre. Nous pleurons des victimes d’actes insensés perpétrés partout sur la planète. Nous vivons dans des mégalopoles impersonnelles et pourtant notre capacité à nous émouvoir reste toujours bien présente, vestige d’un passé où notre univers se limitait à notre entourage environnant.

À la vue des événements à venir, au mieux nous serons des témoins impuissants d’hécatombes, au pire nous ferons partie des nombreuses victimes. L’ère de l’insouciance est bien terminée et la prochaine sera celle de l’indifférence. Nous ne pourrons plus nous soucier de tous les événements catastrophiques violents tant ils seront nombreux et leurs victimes légion.

Nous nous préoccuperons tout d’abord de notre propre sécurité, car la Nature pourra venir nous frapper partout sur Terre. Aucun lieu ne sera totalement sûr. Nous utiliserons les événements climatiques survenant aux autres, non plus pour nous émouvoir de leur sort, mais comme sources d’information pour nous préparer nous-mêmes au pire.

cache_2472554859

Nous retournerons à une ère où nos pensées seront essentiellement centrées sur nos proches et nos voisins. La vie redeviendra survie avec tout son beau courage, mais également avec sa si laide inhumanité.

Rodgers Creek Fault

Ce nom ne dit pas grand-chose à la plupart des gens. Comme son nom anglais l’indique, on parle d’une faille, la faille du ruisseau Rodgers. Elle est située en Californie et l’on parle évidemment d’une faille tectonique. Située à l’est de la fameuse faille de San Andreas et à l’ouest de la vallée de Napa que tous connaissent, elle commence à la hauteur de San Francisco pour se prolonger elle aussi vers le Nord-Ouest.

collect2

Si cette faille ne fait pas autant parler d’elle que sa grande sœur, c’est qu’elle est très calme. Pourtant, les géologues spécialistes de la région s’entendent à dire que le prochain grand séisme pourrait bien provenir de celle-ci. En fait, on évalue les probabilités de décrochage majeur de magnitude M>=6,7 de la faille Rodgers Creek à près de 33 % d’ici les 25 prochaines années.

De type coulissante, cette faille accumule les tensions au rythme de 6 à 10 mm par année. En 2016, on a revu son degré de dangerosité à la hausse ainsi que sa longueur totale en lui ajoutant 17 km. Au sud, elle est reliée à la faille Hayward qui descend jusqu’à San José. Le lieu de leur union se situe au cœur de la baie de San Pablo, une étendue d’eau connectée au nord de la baie de San Francisco.

Hayward-Rodger-Creek-Fault-Bay-Area-Fault-Map-San-Andreas-Fault.jpg

Le parallélisme des failles de San Andreas et du duo Rodgers Creek – Hayward démontre la complexité du réseau de failles situées en Californie et conséquemment la difficulté de connaitre le lieu de la prochaine catastrophe. On est toutefois assuré que les déplacements permanents des plaques les unes par rapport aux autres finiront par se traduire en un décrochage d’autant plus violent que les plaques seront restées longtemps silencieuses.

F2.large

Bien qu’on parle encore quotidiennement du fameux tremblement de terre de 1906, San Francisco ne semble pas vraiment en avoir tiré des leçons pour l’avenir. Le réveil sera brutal lorsque surviendra un énorme séisme, surtout s’il provient d’un endroit peu connu pour en causer de sérieux.

041816-kgo-1906-sf-great-quake-img_image_16-48-4712-1024x576

Cette ville de la côte pacifique a connu son dernier grand tremblement de terre le 17 octobre 1989 lorsqu’un séisme d’une magnitude de 6,9 l’a frappée de plein fouet. J’ai pu voir les dégâts, car je me suis retrouvé à San Francisco quelques jours plus tard. Je n’ose imaginer la destruction qu’occasionnerait un séisme de magnitude 8,0 ou plus. Étrangement, la ville n’a pas de normes de constructions de la trempe des villes nippones susceptibles d’être frappées par un fort séisme. La ville californienne a été reconstruite et agrandie dans l’insouciance qui caractérise très souvent les habitants de ce pays et ils risquent bientôt de la payer cher.

Skyline-Downtown-Close-up-1500

Un scénario jugé probable par l’USGS (United States Geological Survey) considère un décrochage de la faille Rogers Creek de 0,9 m sur une distance de 63 km associé à un décrochage simultané de la faille Hayward de 1,2 m sur une distance de 83 km occasionnerait un séisme de magnitude 7,2. Toutefois, si on se fie à la carte des amplifications des secousses occasionnées par la fluidité de certains terrains, plusieurs régions densément peuplées subiraient des dégâts très importants.

shechbri

Cependant, la magnitude d’un séisme n’est qu’un parmi plusieurs indices de sa dangerosité. Elle évalue l’énergie relâchée durant cet épisode, mais pas directement l’amplitude des ondes sismiques qui occasionnent les dégâts matériels. Pour une même magnitude, de fortes amplitudes sur une surface restreinte s’avèreront plus dangereuses que de faibles amplitudes sur une plus grande surface.

bayamate

On ne s’attend pas que le fameux Big One tant discuté provienne de la faille Rodgers Creek, mais plutôt de la faille de San Andreas qui la longe plus à l’Ouest et qui démontre un potentiel de dangerosité bien supérieur puisqu’elle court directement sous la ville de San Francisco. Toutefois, si un séisme risque de surprendre là où on s’attend moins à en subir un, c’est bien celui qui surviendra lors du décrochage de la faille Rodgers Creek.

Le paradoxe de la machine

L’outil n’est pas propre à l’humain, même des corbeaux en conçoivent et les utilisent, c’est pour dire! La machine, par contre, semble effectivement être un point d’inflexion entre l’humain et ses proches biologiques.

gammasquadcrows2

Un outil est manipulé par un animal quelconque, parfois par l’humain, pour effectuer un travail. Une machine effectue un travail sans l’apport constant d’une entité biologique. Une fois en route, elle poursuit sa tâche de manière autonome. Elle accomplit une opération pour laquelle elle a été conçue. Une machine ne doit rien au hasard, sauf peut-être l’idée, mais ensuite, on la harnache par volonté afin d’obtenir un effet prévisible et prévu.

roue-a-aube

La machine a commencé de manière toute simple. Le moulin à vent, la roue à aubes. On récupère une énergie et la machine la transforme. La machine est donc bien plus qu’un outil, elle déplace de l’énergie pour en produire une autre plus adéquate à nos besoins. À part sécher le linge, le vent était plus nuisible qu’utile. Les voiliers ont changé la donne, ils ont transformé l’énergie éolienne pour faire mouvoir leur imposante masse sur un liquide susceptible de les déplacer plus aisément.

1200-x-9001

Le vent moud du grain en faisant tourner une meule. Une fois les pales en action, le moulin poursuit son travail tout seul. C’est une machine, pas juste un outil, car une machine doit être munie d’une source d’énergie pour garder son autonomie d’action. Vent, gravité, électricité, différence de température ou de pression, lumière, le choix énergétique est vaste et l’humain a harnaché la plupart des formes d’énergies de la nature. Il s’est construit une quantité phénoménale de machines à tout faire et celles qui lui manquent verront le jour.

Étrangement, ou plutôt paradoxalement, la machine qui devait nous affranchir du travail ne nous a pas affranchis d’elle. Bien au contraire, nous avons toujours été dépendants de nos créations et aujourd’hui plus que jamais. Ce n’est plus un culte en son honneur, c’est une soumission totale envers elle.

plateforme-petrole

Bien sûr, tout ceci était prévisible et a effectivement été prévu par certains visionnaires ou simplement par des gens dotés d’un gros bon sens. La machine nous a affranchis de certaines tâches qu’elle prend en charge pour nous asservir à elle-même.

L’échange valait-il le coût? Sommes-nous mieux aujourd’hui qu’avant l’invention de la machine?

homme-enchainé

Bien entendu, la machine possède une certaine autonomie, elle ne nous enchaine pas totalement à elle, mais lorsqu’elle cesse de fonctionner, elle n’a pas son pareil pour nous culpabiliser et nous obliger à la remettre en fonction. On nous apprend vite qu’une machine arrêtée fait perdre une fortune à ses propriétaires sans donner la contrepartie, combien elle leur fait amasser de fric. On nous parle toujours que des pertes et plus la machine est grosse…. Alors on court la secourir et la remettre en marche, peu importe le jour, l’heure et ce que nous étions en train de faire.

Voilà le nœud du problème. Nous ne maitrisons plus notre horaire, nous laissons la machine décider à notre place. On apprend à laisser pleurer un enfant la nuit pour qu’il s’habitue à ne pas nous manipuler et on devient incapable de laisser une machine hors d’usage sans virer fous.

20150128-094845-g

Les nouvelles bestioles technologiques enfouies dans nos poches sont les pires de toutes. Elles nous soumettent aux supplices de la pastille, du bandeau, du vibrateur et de l’alarme sans égards à notre sommeil, nos pauses, ni même à nos moments intimes sur le trône. Et on les laisse nous manipuler, nous enchainer, nous esclavager, alors qu’elles devraient nous libérer. Nous libérer de quoi? Certainement pas des machines!

uploads%2Fstory%2Fthumbnail%2F55364%2F15e4ddd3-60ed-4916-a871-0f8a03109fee.png%2F950x534.png

Alors, partez immédiatement à la recherche de notre John Connor, celui qui nous sauvera du règne des machines, car cette ère est déjà commencée.

Séismes, un mois en apparence normal

Depuis le dernier mois, l’activité sismique d’importance, c’est-à-dire 6,0 et au-delà sur l’échelle Richter, est essentiellement concentrée dans la région de l’Indonésie, de la Papouasie – Nouvelle-Guinée, des iles Fidji, du Vanuatu, de la Nouvelle-Calédonie, des iles Salomon et toute cette région située au Nord et au nord-est de l’Australie, aux jonctions de la plaque tectonique australienne avec les plaques pacifique, philippine et eurasienne. L’Australie poursuit son périple océanique au rythme de 6 à 7 cm par année vers des latitudes plus clémentes et pour ce faire, elle bouscule allègrement les joueurs qui occupent actuellement le terrain.

Séismes-201810.png

D’autres tremblements de terre d’importance se sont produits en Russie orientale (iles Kouriles) et en Alaska (iles Aléoutiennes). Enfin, quelques séismes secondaires, mais assez inquiétants à cause de la population environnante, ont frappé le Guatemala à 5,7 et Haïti à 5,9.

Je constate dans le dernier mois le maintien de la moyenne d’un séisme d’importance survenant tous les deux jours et parmi ceux-ci, deux ont franchi la barre du 7 (7,0 et 7,5), conformément aux probabilités.

Ce mois peut donc être qualifié comme ayant été dans la normale statistique, mais la concentration importante des secousses presque au même endroit a tout de même de quoi étonner. Ces activités nous renseignent toutefois sur certains comportements de la croûte terrestre. Lorsque des régions ont vécu des épisodes de calme relatif comme ce fut le cas pour la région au Nord et au nord-est de l’Australie avant la récente reprise des activités s’ensuit une concentration de plusieurs séismes d’importance. Toutefois, la Terre aurait pu se déchirer d’un seul coup, ce qui aurait engendré un cataclysme comme on en a connu en 2004 et 2011 avec des secousses de magnitude 9,1 et 9,0.

magnum_f

Un séisme d’une telle ampleur survient en moyenne une fois aux dix ans, mais savoir l’endroit où il se produira relève d’une science très inexacte. J’ai déjà ciblé la côte ouest de l’Amérique du Nord dans mon article sur la catastrophe Cascadia. Toute la région citée en début d’article reste toutefois le lieu le plus probable où surviendrait un tel événement. Cependant, on ne peut oublier de regarder en direction de régions moins fébriles, mais tout aussi susceptibles d’accumuler de grandes quantités d’énergie comme le long de la côte ouest de l’Amérique du Sud, les Caraïbes, l’Alaska, la Russie orientale et même l’Europe orientale et le Moyen-Orient.

Heureusement, nous prenons de plus en plus de précautions pour protéger la population des effets néfastes engendrés par ces catastrophes naturelles, mais jamais celles-ci n’empêcheront totalement des destructions massives et des pertes de vie en grand nombre. Le dernier tsunami survenu aux Célèbes en septembre dernier met fortement en lumière les faiblesses de nos protocoles d’intervention où les alertes au tsunami ont été levées juste avant son arrivée sur les côtes, tuant du même coup des milliers de riverains!

7906530_5a3de780-c3cf-11e8-bfc0-d34ee9c61331-0

Puisque la croûte terrestre ne cesse et ne cessera de se déplacer, de se fracturer, de se frotter et de collisionner, nous pouvons affirmer avec certitude que les séismes surviendront en suivant des lois de probabilités logarithmiques telles qu’actuellement définies et que ceux-ci continueront de nous faire trembler… de crainte et de tous nos membres.

Gras rance, rançon au gras

On a tous humé l’odeur d’une huile ou d’un beurre rance. Ce relent caractéristique nous renseigne de façon importante sur une propriété fondamentale des gras. Ils  piègent et emmagasinent des molécules mises à leur contact, que ces molécules viennent de leur propre décomposition ou de produits extérieurs. Pensez que le goût des aliments se transporte toujours mieux dans du gras, raison de leurs saveurs plus intenses lorsqu’on leur rajoute des huiles ou des graisses.

maxresdefault1-1

On établit le bilan de santé des cétacés en analysant leurs graisses. Les nôtres accumulent aussi tout un tas de molécules, dont plein de toxines et de poisons. Plus notre corps contient une quantité importante de graisse, plus il accumule des molécules toxiques. Ces substances sont ensuite libérées dans le corps, elles envahissent alors nos organes vitaux et les détériorent inexorablement.

obésité-854x570

L’embonpoint constitue un formidable contenant à poisons et chaque kilo de gras en trop accumule des milliers de produits indésirables qui auraient dû être éliminés par notre organisme. Alors si vous voulez maigrir, il est déraisonnable de perdre votre surpoids trop rapidement. Une diète sévère libérera une quantité trop grande de toxines dans votre corps et vos organes risquent un important choc.

obese

Il faut donc y aller de manière graduelle et continue. S’imposer trop d’exercices ne règlera pas le problème à moins d’en faire un nouveau mode de vie permanent. Car dès la fin de votre période d’exercices acharnés, votre organisme se mettra en mode « j’accumule pour affronter les prochaines dépenses d’énergie » qui ne viendront pas. Vous aurez constamment faim, vous dévorerez n’importe quoi et vous réengraisserez et accumulant encore plus de produits toxiques qu’auparavant.

AM-prendre-poids

La seule solution reste de manger moins et mieux. Vous allez malheureusement souffrir de la faim, je ne vous le cache pas. Le cerveau envoie des signaux d’alarme lorsqu’il entame ses réserves de graisse, car il a horreur de devoir se fier à ses réserves, même si elles sont imposantes. Le sentiment de faim vient en grande partie de ce processus hérité de notre instinct de survie. Elle nous pousse à chercher de la nourriture même lorsque le frigo et le garde-manger débordent, même lorsque nous pourrions vivre longtemps sur nos graisses.

soil-microbes

Car même si nous croyons avoir évolué, notre cerveau continue de penser que réussir à se nourrir n’est pas une mince tâche. Son moyen de nous stimuler à trouver des denrées est le sentiment de faim qu’il nous crée sans relâche. Cependant, avec de la nourriture à profusion à portée de main, la faim représente un caractère archaïque.

La faim ne se déclenche pas qu’à partir d’un besoin de se nourrir. Notre corps anticipe ses besoins futurs dès qu’il s’aperçoit qu’on pioche dans ses réserves. 

La faim est une rançon exigée par notre gras. Lorsqu’on cherche à se débarrasser de lui, il nous menace en créant ce sentiment quasi permanent de faux besoin.

Reprise des forts séismes

Après une accalmie des séismes de moyennes et grandes ampleurs dont je m’inquiétais, ceux-ci ont recommencé à faire trembler la Terre. Un séisme de magnitude 8,2 a secoué les iles Fidji, un autre de 7,3 est survenu au Venezuela, 7,1 au Pérou et un plus modeste, mais peut-être plus évocateur a atteint 6,2 à l’ouest de l’état de l’Oregon à la jonction des plaques tectoniques Pacifique et Juan de Fuca. Les deux mêmes plaques ont également vibré aux environs de Vancouver quelques jours auparavant.

Seisme-Fidji

Malgré la grande différence entre l’énergie dégagée par chacun de ces importants séismes, celui de 6,2 étant 100 fois moins énergétique que celui de 8,2, les deux tremblements à l’ouest de l’Oregon et de la Colombie-Britannique en plein océan Pacifique n’annoncent vraiment rien de bon.

Séisme-Oregon-1

La micro plaque tectonique Juan de Fuca est poussée par une montée de magma survenant dans le Pacifique, lieu des deux séismes récents, en direction de la côte ouest-américaine. Ce faisant, elle s’enfonce sous ce continent par un phénomène appelé «subduction». Les deux plaques se frottent et se déforment sans coulisser jusqu’à leur limite de friction en emmagasinant toute l’énergie de cette pression.

Earthquake

Dans mon article sur les Cascades, j’explique l’origine de cette chaine de volcans de l’Ouest américain, dont fait partie le mont St Helens, et sur le mécanisme qui les crée et les fait entrer en éruption. Une faille entre deux plaques tectoniques, la Juan de Fuca et la plaque nord-américaine n’ont pas coulissé depuis des lustres et on considère son décrochage comme hautement prévisible à court terme. Puisqu’elle s’est tenue calme depuis plus longtemps que la normale, l’énergie emmagasinée y est plus grande, ce qui se traduirait probablement par une série de séismes majeurs. On évoque régulièrement une magnitude de 9+.Il-y-a-cinq-ans-un-tsunami-devaste-le-Japon.jpg

Ce faisant, un tsunami monstrueux dévasterait les côtes et les basses terres environnantes des états de Washington, Oregon, Californie aux É.U.A. et de la Colombie-Britannique au Canada.

Est-ce un signe avant-coureur d’un monstre en train de se réveiller d’une trop longue dormance et qui fera bientôt tonner son existence longtemps oubliée?

maxresdefault-2

Pour comprendre l’épée de Damoclès, il faut remonter à l’année 1700. Quelques légendes amérindiennes font état dudit monstre qui avait frappé à cette époque. L’oiseau du tonnerre a guerroyé avec la baleine, causant les grondements, les tremblements de la terre et les inondations titanesques. Cependant, ce sont dans les annales japonaises de janvier 1700 qu’on retrouve une description précise de l’événement survenu bien loin de là !

Un tsunami modeste, mais qui a tout de même ravagé une série de villages côtiers, atteint le Japon et est répertorié. Sa moyenne amplitude peut correspondre à deux causes distinctes. Un séisme proche des côtes nippones aurait soulevé une colonne d’eau relativement faible. Ou encore, un séisme de forte ampleur a sévi de l’autre côté de l’océan Pacifique et s’est amoindri en le traversant entièrement jusqu’à rejoindre le Japon.

cascade-tsunami

Si le tsunami a bel et bien été répertorié au Japon, aucun signe d’un séisme préalable n’a été perçu. La thèse d’un fort séisme trans pacifique prend alors des galons. Des traces géologiques viendront confirmer cette hypothèse. Sa magnitude sera évaluée entre 8,7 et 9,2!

Le 26 janvier 1700 vers 9 h, la terre tremble durant plus de quatre minutes comme aucune mémoire d’homme n’a conscience. La rupture de la faille s’est produite sur une longueur de plus de 1000 kilomètres pour un décrochage de 20 mètres.

Atwater.idd

La moyenne de 590 ans séparant des séismes majeurs dans la région est depuis longtemps dépassée. Puisque le glissement des plaques s’effectue à vitesse presque constante, soit 40 mm/an, un super séisme à venir n’est pas une hypothèse, mais une certitude.

181-News_Image-3

Contrairement à la situation survenue en 1700 où une quantité relativement faible d’Amérindiens auraient péri dans la tragédie, aujourd’hui, une bonne dizaine de millions d’individus peuplent cette même partie du monde. La sécurité civile anticipe des pertes de 3 à 4 habitants pour 1000 en considérant un séisme de 9+ et le tsunami y correspondant. Pour une population touchée de 10 millions, les pertes pourraient se chiffrer à 40000 individus.

Tsunami

On est encore bien loin du bilan de 250 000 décès survenus lors de la catastrophe du 26 décembre 2004 dans l’océan Indien, toutefois, les conditions technologiques humaines entre les deux événements ne se comparent en rien. Pour l’Amérique du Nord, cette hécatombe constituerait la pire catastrophe à jamais avoir eu lieu sur tout le continent. Les pertes matérielles seraient, elles aussi, correspondantes au quantités d’éléments structuraux, industriels, commerciaux et résidentiels qui s’y trouvent.

F03A2CD5-DFD9-45B8-84E7CE098C4E0D91

De l’événement de 1700 presque complètement disparu de la mémoire des humains, celui qui surviendra persistera bien au-delà de 300 ans… si notre espèce peuple encore la Terre en ces temps-là.

C’est la faute aux ondes gravitationnelles

Il existe une nouvelle mode depuis quelque temps, celle de placer les mots «ondes gravitationnelles» partout où l’on voit des rides ou des vagues. Les nuages forment des moutons parallèles, c’est l’effet des ondes gravitationnelles. Des rides dans des dunes, les ondes gravitationnelles. Des rides sur l’eau, les ondes gravitationnelles.

onde_gravit_spl_cosmos_72dpi_recadree

Les ondes gravitationnelles ne sont pas visibles à notre échelle et ne laissent pas de traces apparentes de leur passage. Elles déforment l’espace d’une manière microscopique lorsqu’elles se propagent à la vitesse de la lumière. Depuis peu, on les détecte en faisant voyager un rayon laser entre des miroirs distants de plusieurs dizaines de kilomètres et l’on réussit à peine à mesurer une variation infinitésimale de cette longueur. Si elles faisaient des vagues dans des dunes, soyez certain que nous serions en train d’être pulvérisés par deux trous noirs en coalescence dans la banlieue proche de la Terre.

Alors, non, les ondes gravitationnelles ne font pas rider les dunes ni ne dessinent des rouleaux dans les nuages. De bien grandes bêtises proférées par des gens ignorant tout de ce phénomène qui fut prédit par Albert Einstein un an après avoir complété sa théorie de la relativité générale. Il publia un article à ce sujet dans une revue scientifique en 1916, mais il a quand même toujours fortement douté de leur existence, changeant plusieurs fois d’idée par la suite. Une fois de plus, son instinct ne l’avait pas trompé.

images-5

Les ondes gravitationnelles ne ressemblent pas aux ondes électromagnétiques connues qui utilisent les photons pour transporter l’énergie. Ce sont donc des ondes de gravitation qui déforment l’espace-temps lorsqu’elles irradient à partir de leur lieu d’origine.

Il est raisonnable de penser qu’une particule joue le même rôle que le photon, dans leur propagation, ce serait le graviton. Lui aussi se déplacerait à la même vitesse c que son homologue électromagnétique. Mais si les ondes gravitationnelles ont été récemment détectées et confirmées, il n’en fut pas de même pour le graviton qui reste une particule hypothétique.

Les déformations spatiales exigent de l’énergie, on ne plie pas l’espace gratuitement. Ainsi, deux trous noirs qui se tournent autour avant de fusionner perdront une partie de leur masse transportée sous forme d’énergie par les ondes gravitationnelles.

Ligo_Virgo_1

La première détection d’ondes gravitationnelles a eu lieu le 14 septembre 2015 par les trois détecteurs LIGO et les scientifiques ont pu le confirmer le 11 février 2016, un siècle après la parution de l’article d’Einstein. Mais ce qui a rendu cette détection si spectaculaire est le fait d’avoir situé dans l’espace le lieu d’où provenait la production de ces ondes.

Couplée à d’autres observations résalisées par des télescopes traditionnels détectant des effets électromagnétiques complémentaires, ensemble, elles ont permis de découvrir la fusion de deux trous noirs de 36 et 29 masses solaires survenue à une distance de 1,3 milliard d’années-lumière. Il en est résulté un trou noir de 62 masses solaires. Ils ont donc perdu 5 % de leur masse, l’équivalent de trois fois la masse de notre Soleil, transformée en énergie qui a déformé l’espace jusqu’à nous. À leur arrivée sur Terre, le train d’ondes a fait osciller nos dimensions spatiales de seulement quelques zeptomètres (10-21 m). C’est tout dire sur la difficulté de mesurer ces variations infinitésimales de compression et dilatation d’espace.

News-Feb11_LIGO-image2

Depuis, d’autres détections ont eu lieu, confirmant la première tout en donnant du pep à d’autres détecteurs en cours de construction. Bientôt, nous posséderons tout un réseau de détecteurs capables de bien mesurer et localiser les sources de ces émissions.

Mais soyez assuré et rassuré, aucun phénomène visible n’est causé par le passage de ces vagues d’espace-temps et il vous est impossible de les sentir.

Déboulonner la création spontanée d’univers parallèles

D’entrée de jeu, je vous avise que je ne remets pas en question dans cet article la possibilité d’existence d’univers parallèles, mais seulement de la façon dont parfois on envisage leur création.

Le concept d’univers parallèles à celui que l’on connait, le nôtre, est devenu sérieux dans la tête des physiciens avec les travaux du mathématicien Hugh Everett.

Il existe des tas de façons d’imaginer des univers parallèles, mais la plus populaire reste celle montrée à l’écran dans la série «Fringe». On parle d’un ou plusieurs univers presque en tout point semblables au nôtre à quelques exceptions près.

2893466-fringe-tv-series-tv___people-wallpapers

Par exemple, on imagine un autre univers semblable au nôtre, mais dans lequel les nazis auraient gagné la Seconde Guerre mondiale, ou encore un monde où John F. Kennedy n’aurait pas été assassiné. Ensuite, on extrapole une suite plausible.

Le problème se situe dans l’évolution de ces univers dans leur passé. Comment ces univers auraient-ils pu rester identiques au nôtre jusqu’à un point de divergence quelconque? Pourquoi ce point de divergence ne s’est-il pas produit bien avant?

Si on admet le principe de divergence, pourquoi se limiter à un seul point de séparation? Pourquoi pas mille, un million, un milliard, une infinité? Le concept d’un ou de plusieurs univers parallèles maintenus identiques au nôtre durant des milliards d’années et qui divergeraient tout à coup n’a donc aucun sens. C’est comme imaginer deux bonbonnes de gaz identiques où tous les atomes à l’intérieur se comporteraient de façon parfaitement identique à leur homologue durant des temps immémoriaux et que tout à coup l’un d’entre eux ne suivrait pas le tracé de son équivalent dans la seconde bonbonne.

marius-vieth8

On comprend facilement que les atomes formant des gaz possèdent des comportements aléatoires et chaotiques. Même si les deux bonbonnes et leur contenu partaient d’un moment où ils étaient parfaitement identiques, à la toute première fraction de seconde de leur évolution, plus aucune paire d’atomes homologues ne se retrouverait au même endroit à l’intérieur de leur bonbonne respective.

Imaginez maintenant tous les atomes de notre univers qui seraient capables d’une telle prouesse avec ceux d’un univers parallèle, et ce depuis le début de leur histoire commune, donc 13,8 milliards d’années. Si les univers parallèles existent, ils ne peuvent pas ressembler au nôtre à cause des divergences infinies qui se seraient produites dans le passé.

La physique quantique nous a montré que l’univers n’est pas déterministe. Ainsi, ce genre de tracé parallèle continu entre deux univers est impossible.

La riposte des scientifiques fut d’imaginer qu’un tout nouvel univers se crée spontanément au moment d’un choix. Si je tourne à gauche ou si je tourne à droite, ces deux possibilités créent la divergence qui engendre deux univers identiques en tout point, sauf que dans un cas, l’évolution se poursuivra avec mon premier choix et dans le deuxième univers ma vie prendra le second tournant.

multivers-physique-temps.jpg

Mais d’où proviendrait l’énergie nécessaire à créer ces tout nouveaux univers remplis soudainement de toute cette masse nouvelle (E = mc2) et déjà parfaitement ordonnés exactement comme le premier? Et qui, ou quoi, peut faire un choix qui engendre un nouvel univers? Seulement l’humain? Un primate a-t-il ce privilège? Et une souris? Une bactérie? Un brin d’ADN? Une molécule? Un atome?

Et lorsqu’un choix contient mille possibilités différentes, ça créerait mille univers? Et si le choix contient des milliards de possibilités, comme le choix des trajectoires possibles? Lorsque je tiens le volant de ma voiture, je choisis consciemment ou inconsciemment de le tourner légèrement, mais combien légèrement? Un peu, un peu plus, un peu moins, ma main peut prendre des positions infinies correspondant chacune à un choix différent qui créerait autant d’univers qu’il y a de positions possibles de ma main sur ce volant. Et là, je ne parle que d’une seule correction de trajectoire. Et quel est le temps de latence entre deux choix permettant ou non de créer un nouvel univers parallèle? Un siècle, un an, une journée, une seconde, une microseconde, une femtoseconde?

univers-paralleles

Penser que des univers parallèles se créent à partir d’un choix n’a aucun sens puisque c’est le concept même du choix et de ses différentes possibilités qui y sont rattachées qui n’a aucun sens.

On a mis au défi certains promoteurs de cette théorie. S’ils y croyaient vraiment, ça ne devrait pas les déranger de se suicider puisqu’ils existent dans une multitude d’autres univers. Étrangement, aucun n’a semblé vouloir y croire jusqu’à ce point.

Vagues scélérates

Évitez de confondre une vague produite par un tsunami et une vague scélérate. Leurs processus de création ne se comparent en rien et on ne les retrouve pas du tout aux mêmes endroits.

Vous voguez en pleine mer, les vagues tout autour de votre navire paraissent normales. Tout à coup, l’horizon devant vous devient noir. Un mur d’eau semble se rapprocher de vous. De 20 à 30 mètres de hauteur, le record rapporté fait état d’un monstre de 33 mètres, cette vague apparait non seulement anormale par sa hauteur, mais aussi par sa forme.

Elle ne ressemble en rien à une houle que votre bateau parvient toujours à gravir pour redescendre de l’autre côté. Non, cette eau vous arrive dessus en formant une paroi presque verticale. Les chances de vous en sortir indemne se réduisent à néant, car votre navire est condamné à subir un terrible choc pour lequel il n’a jamais été conçu, peu importe sa grosseur.

Vague Scélérate - Vue d'artiste - Rogue Wave - Artist view

Les vagues scélérates constituèrent un mythe jusqu’au milieu du XXe siècle et elles furent acceptées comme étant réelles par les scientifiques durant les années 1990. Oui, ces derniers se retranchaient derrière leurs équations linéaires qui prédisaient l’émergence d’une vague de cette amplitude aux 10000 ans!

omae_135_3_031108_f008

Les choses changent le 1er janvier 1995 quand la plateforme pétrolière Draupner en mer du Nord enregistre la hauteur d’une vague venue la percuter à 25,6 mètres de hauteur. Pour qu’une vague soit appelée «scélérate», elle doit mesurer plus de 2,1 fois la hauteur significative Hs des vagues de l’endroit. Celle-ci correspondait à 2,37 fois cette hauteur et elle représentait la première preuve béton de l’existence de ces monstres incompréhensibles.

Aujourd’hui, les vagues scélérates avérées, les scientifiques se défendent d’avoir toujours cru les récits de ces capitaines chevronnés, mais ils tentent en réalité de faire disparaitre les preuves de leur ancien dédain lorsqu’ils les traitaient tous de menteurs et d’ivrognes tandis qu’eux-mêmes n’avaient jamais posé les pieds sur un navire en plein océan durant une tempête.

On a pensé détenir la cause de leur formation en analysant des vagues le long de la côte de l’Afrique du Sud. Le fort courant vers l’ouest associé à des vents opposés parviennent à créer des vagues de hauteur dépassant parfois la cote 2,1 Hs. Toutefois, les témoignages de vagues scélérates apparues très loin des courants marins ont mis à mal cette théorie reléguée depuis à un phénomène de diffraction.

CapBonne-Courant

Les vagues scélérates ne partagent pas toutes les mêmes caractéristiques. Hormis leur taille inhabituelle et leur forme quasi verticale, leur direction peut varier d’une vingtaine de degrés par rapport aux autres vagues. Elles peuvent aussi survenir par paquet de trois et sont alors appelées «les trois sœurs».

En anglais, ils utilisaient le terme «freak wave», mais cette désignation semble vouloir disparaitre au profit de la «rogue wave».

Ce type de vague crée des pressions énormes sur les structures métalliques des navires marchands et de croisière, dix fois plus importantes que celles prises en considération lors de leur conception. C’est donc dire qu’aucun bateau ne leur est invincible. Les vagues frappent de plein fouet le château des plus grands navires, brisant leurs vitres et les commandes de navigation. On estime la perte d’un cargo par année due à ces vagues apparues de nulle part.

Mais comment se forment-elles? Une réponse a surgi d’un tout autre domaine d’expertise, comme pour la résolution de plusieurs énigmes scientifiques. Les vagues auraient un comportement linéaire bien connu et maitrisé, mais elles auraient également un comportement non linéaire décrit par l’équation de Schrödinger de la physique quantique.

ob_c98bf6_schrodingerequation1

Imaginez un train d’ondes, ce sont les vagues. Tout à coup, pour des raisons restées mystérieuses, l’une d’elles commence à pomper l’énergie de ses deux voisines, faisant baisser leur hauteur au profit de la sienne qui s’élève anormalement. Un mur d’eau vient de se créer devant vos yeux. On sait que ce processus existe, on ignore encore dans quelles circonstances il se déclenche.

Rajoutez à ce concept de pompage énergétique la probabilité de superposition lorsque deux trains de vagues de directions différentes interfèrent et vous obtenez des vagues dépassant largement les 2,1 Hs.

Les structures élevées des navires n’étant pas conçues pour résister à de fortes pressions, une vague scélérate peut faire couler n’importe quel navire en quelques minutes, comme cela survint au réputé insubmersible (un autre!) cargo allemand München le 12 décembre 1978 en Atlantique Nord.

Rhine_Forest-1_Port_of_Rotterdam_24-Feb-2006.jpg

Avec l’avènement des satellites radar, les vagues des océans du monde sont constamment mesurées et la fréquence des scélérates se situe bien au-delà de tout ce qu’on avait cru possible. Il n’est pas rare d’en trouver quelques-unes en train de se déchainer simultanément sur l’une ou sur plusieurs mers du monde.

L’ancienne estimation d’une seule vague scélérate par dix mille ans montre jusqu’à quel point les scientifiques peuvent parfois se tromper lourdement et ils devraient, du moins j’espère, gagner en humilité. Ça leur ferait un bien fou de croire aux humains leur racontant des expériences vécues et de prendre l’air en leur compagnie plutôt que de rester enterrés au fond de leur bureau à tripoter avec concupiscence leurs équations fétiches inadéquates, mais combien rassurantes!

La catastrophe Cascadia

On pourrait croire à une rumeur, comme il en existe des milliers sur internet provenant de gens en mal de célébrité ou de revenus provenant d’une vidéo mal foutue mise sur YouTube.

Pourtant, ce dont je vais vous parler n’est pas du tout une farce ou une rumeur infondée et elle concerne une catastrophe naturelle encore plus importante que celle ayant engendré un tsunami dévastateur en Indonésie en 2004, mais cette fois-ci, le malheur frappera l’ouest du Canada et des É.-U.

Pâtiront de ce cataclysme, les villes populeuses de Vancouver, Seattle, Portland et Tacoma. Cependant, des dégâts majeurs et des pertes de vies par dizaines de milliers se produiront sur une longueur de 700 km le long de la côte ouest-nord-américaine. Les autorités des deux pays sont au courant depuis un bon bout de temps, mais on n’évacue pas des millions de personnes réparties dans une région aussi grande que la France sans raison évidente à très court terme.

seisme

Je parle d’un séisme comme nous en avons peu connu. Les experts évaluent la magnitude du séisme déjà nommé Cascadia à 9,2 sur l’échelle Richter. En comparaison, le méga séisme de 2004 avait une magnitude de 9,0. Le cataclysme Cascadia correspondrait au troisième plus important séisme enregistré de notre histoire.

Pourquoi cette prévision n’est-elle pas une rumeur? Voici les faits. En l’an 1700, un terrible tsunami a dévasté le Japon ainsi que la côte ouest-américaine. Des légendes amérindiennes et des écrits japonais en ont attesté. Les géologues ont pu relier ces deux événements à un seul cataclysme de magnitude approximative de 9,0 survenu près des côtes américaines. D’autres cataclysmes d’amplitudes comparables se sont produits au même endroit à des époques plus lointaines. Ces séismes de très grandes amplitudes attestées par des preuves géologiques laissées par les tsunamis ont une récurrence d’environ 240 ans.

796446.jpg

Ainsi, autour des années 1940, un autre séisme de cette nature aurait dû se produire, mais ce ne fut pas le cas. Ce retard de 78 ans augure très mal puisque l’énergie continuant de s’accumuler à un rythme constant, lors de sa libération, elle en sera d’autant plus importante, de là l’évaluation du 9,2, une prévision très réaliste vu la longueur importante de 700 km de la rupture qui l’engendrera.

De fait, la cause de ces séismes de grande amplitude est bien connue. Le restant d’une vieille plaque tectonique nommée Juan de Fuca plonge sous la plaque nord-américaine qui se déforme sous l’énorme pression occasionnée par le frottement des plaques l’une sur l’autre. Lorsque l’élasticité de la plaque nord-américaine atteindra son point de rupture, elle décrochera en libérant toute l’énergie qu’elle aura accumulée durant ces 318 années le long des 700 km que mesure la plaque Juan de Fuca (ligne rouge).

Cascadia1.pngLa Colombie-Britannique et les états américains de Washington et de l’Oregon seront les premiers touchés par ce séisme, mais aussi par le tsunami dévastateur qui frappera les côtes seulement une quinzaine de minutes après le méga tremblement de terre. Bien peu de gens des basses altitudes auront le temps et l’opportunité de fuir vers des lieux surs à hauteur suffisante pour éviter les flux et reflux meurtriers.

Les organismes comme l’USGS (US Geological Survey)) et le FEMA (Federal Emergency Management Agency) ne peuvent rien faire pour éviter cette catastrophe. Ils installent des pancartes le long des côtes pour indiquer aux gens vers où s’enfuir. Ils organisent les futurs secours, mais s’ils voulaient réduire de façon importante les victimes, il faudrait évacuer les habitants de la côte ouest-nord-américaine sans connaitre pour combien de temps. On parle donc d’un déménagement permanent et non d’une simple évacuation. Puisque cela ne se produira pas et que le séisme frappera sans prévenir, le nombre de victimes sera conséquent.

Photos : geide.asso.frsciencealert.comexpress.co.uk

Classifications du niveau d’évolution des civilisations

Plusieurs personnes ont défini des niveaux de civilisation permettant de cataloguer leur degré d’évolution. Même moi, je m’y suis mis avec mon échelle Keaq inventée pour les besoins d’une nouvelle que j’ai écrite en 2015.

La plus idiote de ces classifications et malheureusement l’une des plus connues, non ce n’est pas la Keaq, vilain lecteur, c’est la Kardachev, du nom de son inventeur, sûrement un imbuvable camarade soviétique rouge sur la vodka qui en fit la publication lors d’une conférence en 1964, donc avant la crise du pétrole de 1973.

Elle possède seulement trois échelons.

I. La civilisation capte et consomme 100 % de l’énergie de sa planète
II. La civilisation capte et consomme 100 % de l’énergie de son étoile
III. La civilisation capte et consomme 100 % de l’énergie de sa galaxie

 

alien-sphere-dyson_5498763

Construction d’une sphère de Dyson qu’utiliserait une civilisation de niveau II pour capturer l’énergie entière d’une étoile

 

Considérant l’échelle Kardachev, vous les terriens — moi je suis un extraterrestre et je me dissocie totalement de vous tous — vous n’êtes rien, niveau néant, moins mille, dans la fosse des Mariannes, au sommet des tours jumelles du World Trade Center, au même niveau qu’une bique, qu’une lamproie, qu’une éponge, qu’une amibe. Les 4 dernières comparaisons ne sont pas une insulte de ma part, mais une réalité selon la classification Kardachev.

Ouais, comme vous pouvez le voir, l’échelle Kardachev est un peu réductrice pour les populations qui croient valoir quand même un petit quelque chose au-dessus du zéro, comme les humains, genre.

Ma principale critique concernant cette classification est qu’elle possède beaucoup trop peu d’échelons dans son ensemble, ce qui engendre des défauts majeurs.

1. L’absence d’échelons sous le premier niveau
2. Les fossés abyssaux séparant deux échelons
3. La forte improbabilité de l’existence de l’échelon III dans l’Univers
4. Rien ne peut capter la totalité d’une énergie disponible
5. Une civilisation vraiment très avancée dépense peut-être beaucoup moins d’énergie que des civilisations incapables de bien la maitriser et qui la gaspillent, donc sous-évoluées.

Dans le passé, Carl Sagan avait déjà émis des commentaires défavorables à son égard. Plus récemment, le vulgarisateur scientifique Michio Kaku parlait de remplacer l’énergie dépensée par une échelle basée sur l’économie du savoir. Mais là, on ne parle plus du tout de l’échelle de Kardachev. Aussi bien prendre la classification Keaq, tant qu’à faire ! Mais là, j’empiète sur un autre article.

Le pied d’un fantôme dans la bouche

Brian Cox, un scientifique du Cern vient de faire une déclaration hors de son domaine d’expertise. C’est toujours risqué de tenter une incursion dans une autre discipline en utilisant ses seules connaissances liées à sa formation.

Il affirme que les fantômes n’existent pas, sinon le LHC, le grand collisionneur de hadrons du Cern les aurait mis en évidence. Oui, oui, vous connaissez cette machine, elle a détecté les fameux bosons de Higgs.

Tout d’abord, les détecteurs du Cern sont calibrés pour retrouver ce qu’ils tentent de découvrir et les fantômes n’étaient pas sur leur fiche de travail. Ensuite, cette machine crée tellement de données qu’il faut en éliminer la très grosse majorité pour ne conserver que celles permettant de découvrir ce que les scientifiques cherchent et une fois encore, les fantômes n’étaient pas au programme. Les données qui auraient peut-être permis de découvrir des traces de fantômes ont été jetées aux orties. Pour ces deux raisons, ce scientifique parle au travers de son chapeau.

CMS2

Puisque les fantômes passent à travers les objets, il postule qu’ils ne sont que pure énergie, donc qu’ils ne sont constitués d’aucune matière. Une fois encore, il n’utilise qu’une partie de ses connaissances. Les atomes sont constitués très majoritairement de vide. Ce qui empêche les objets de passer au travers de la matière ce sont les électrons qui se repoussent. Le vide interne des atomes peut laisser passer n’importe quoi si une entité quelconque est insensible aux forces électroniques.

Il dit ensuite que les fantômes ne peuvent exister parce que l’entropie ne permet pas qu’une forme d’énergie pure se conserve avec le temps. Il a raison, mais il omet de dire que le vide contient suffisamment d’énergie pour conserver des formes fantomatiques si elles s’abreuvent à cette source inépuisable d’énergie.

ghost-girl-street.jpg

Évidemment, il ne croit pas aux fantômes et tout argument fallacieux est utilisé comme arme de combat. Dommage, il aurait dû apprendre à s’occuper de ses oignons. Il passera peut-être à la postérité, non pour avoir démontré l’inexistence des fantômes, mais pour s’être planté le pied d’un fantôme le plus loin dans la gorge.

Personnellement, l’existence des fantômes ne me pose pas de problèmes, mais ne suscite pas chez moi un engouement démesuré. Je suis bien prêt à reconnaitre leur existence, mais je ne courrai pas leur chercher des noises afin de prouver leur réalité. Je suis donc neutre à leur sujet. Je n’ai pas écrit cet article pour tenter de défendre la thèse les accréditant. Je l’ai écrit pour démontrer comment il est toujours risqué d’utiliser une certaine forme de notoriété et une petite partie de ses connaissances en omettant sciemment l’autre partie pour faire connaitre au monde son opinion personnelle sur un sujet qui nous dépasse.

Images : srussenschuck.comwall.alphacoders.com ; destinationamerica.com

« On le fait et on se tait »

Tous ces flashs aperçus un peu partout depuis un certain temps autour de la planète sont-ils dus à des météorites ou à des débris spatiaux qui retombent sur Terre ? À mon avis, à un peu des deux sortes. Les débris spatiaux sont légion et en recevoir de plus en plus souvent sur le crâne est normal puisqu’on multiplie les vols spatiaux.

météore

De l’autre côté, jusqu’à ce jour, on a répertorié plusieurs géocroiseurs, la liste officielle n’en contient cependant que 1 889. Autant dire qu’elle est vide. C’est évident qu’il en existe un multiple important de ce nombre. Les météores qui zèbrent le ciel inopinément ne font pas partie de cette liste, sinon ils auraient été répertoriés et on aurait été alertés.

Ce qu’on oublie souvent lorsqu’on parle de débris spatiaux ou de météores c’est la fabuleuse énergie que transportent ces objets, même lorsque leur masse est modeste. Leur énergie cinétique est proportionnelle au carré de leur vitesse et lorsqu’ils pénètrent dans l’atmosphère, celle-ci peut valoir une vingtaine de kilomètres par seconde ! Même une fois en décélération par notre atmosphère, les cailloux ou les composantes de fusées peuvent facilement ravager les vitres de tout un quartier s’ils explosent avant de toucher le sol.

-360108

Par contre, je suis intrigué par quelque chose qui risquerait bien de devenir le thème d’une nouvelle conspiration.

Comme on peut le constater sur l’image en tête de cet article, le nombre de débris spatiaux est absolument faramineux, surtout en orbite basse près de la boule bleue. Le grand cercle blanc correspond aux débris sur les orbites géosynchrones, mais près de la Terre, c’est le bouchon de circulation !

Je suis à peu près certain que les compagnies gérant le lancement de nouvelles fusées se grattent la tête pour savoir sur quelle trajectoire et à quelle heure organiser le vol des prochaines fusées pour passer à travers cette mer de débris.

is_p46359_hd.jpg

Que leur reste-t-il à faire pour se donner plus de latitudes ? Nettoyer l’espace pour réduire le nombre de débris et éviter le plus possible d’en générer de nouveaux.

Mais cette opération signifie de nous faire tomber sur la tête ce qui a été lancé dans l’espace. Les risques qu’un débris cause des dommages sont faibles, mais non négligeables. Toutefois, il serait vraiment surprenant qu’une agence spatiale avoue faire exprès pour ramener des débris sur Terre sans connaitre avec précision la trajectoire d’entrée dans l’atmosphère et les risques de dégâts.

Elles s’appliquent donc à taire leur petit jeu pour ne pas causer des vagues dans la population alors que les risques sont minimes, même s’ils sont loin d’être nuls. Gestion de l’image oblige. C’est la politique du « on le fait et on se tait ».

Le coût énergétique pour écrire des bits en mémoire

Ce que je vais vous apprendre vous surprendra peut-être. Je vais donc tenter de l’expliquer le mieux possible. Considérons qu’un bit de valeur zéro correspond à une tension de zéro volt et un bit de valeur 1 correspond à une tension de 5 volts.

Commençons par donner la réponse théorique à la question posée dans le titre. Quelle puissance est nécessaire pour stocker en mémoire une certaine quantité de bits ? La question étant théorique, la réponse est en première approximation.

La puissance dépensée dans cette opération est de zéro watt. Peu importe si on écrit des zéros (0) ou des uns (1), il n’y a aucune dépense énergétique à inscrire des bits en mémoire, peu importe sa valeur. En première approximation, ça va de soi, et voici pourquoi.

Traitons le cas où il faut écrire 1 en mémoire alors que le niveau initial est à 0. Pour ce faire, vous apportez l’énergie du bloc d’alimentation vers la cellule mémoire grâce à un interrupteur électronique que vous actionnez. Une cellule mémoire possède une résistance électrique valant un chiffre astronomique qu’on qualifie d’infini. D’autre part, si la capacitance de l’unité mémoire, sa capacité d’accumuler des électrons et sa capacité d’accumuler un champ magnétique, son inductance, sont toutes les deux nulles, aucun courant ne circulera même si la tension aux bornes de l’unité mémoire deviendra 5 volts, la valeur du potentiel électrique de la source. Pour inscrire un zéro, on court-circuite simplement l’unité mémoire qui amène la valeur du bit à zéro (0).

Mais où est l’astuce ? Où est la consommation d’énergie ? La consommation d’énergie n’est pas dans l’écriture, mais dans la lecture de la valeur inscrite en mémoire. La lecture exige que l’unité mémoire soit en mesure de faire connaitre sa valeur au système de lecture. Pour ce faire, deux solutions existent. Soit l’unité mémoire a suffisamment accumulé d’électrons durant l’écriture et ainsi elle a consommé du courant durant l’écriture. Si on garde l’écriture sans consommation énergétique, l’autre solution c’est l’unité de lecture qui va devoir consommer pour lire efficacement le contenu de l’unité mémoire.

Peu importe les économies de consommation à l’écriture, quelque part dans le processus opérationnel global qui englobe les lectures, le système finira inévitablement par consommer de l’énergie tôt ou tard.

Il existe un autre domaine d’expertise où la lecture, la détection en d’autres termes, joue aux rabat-joies et c’est en physique quantique. Mais j’aborderai ce sujet dans un autre article.

Le choix

« Le choix est une illusion créée par ceux possédant le pouvoir pour ceux qui en sont privés »

Cette réplique (une traduction personnelle) vient du film « La Matrice rechargée ». Le Mérovingien lance cette affirmation à Néo quand ce dernier lui dit qu’il existe toujours un choix.

Nos choix ne sont-ils qu’apparents ? Y aurait-il un Grand Horloger qui voit tout venir et qui déplace les pilules en nous laissant l’impression qu’on a réellement choisi la pilule rouge parmi les autres ? Les autres pilules n’existaient peut-être pas réellement et notre cerveau a choisi la seule vraie parmi la seule possible.

La question du choix engendre des théories scientifiques sérieuses, mais totalement loufoques comme un dédoublement de l’Univers à chaque fois que nous ferions un choix.

Mais d’où provient l’énergie pour engendrer un second Univers semblable au premier à la différence près que l’un est constitué de mon choix A et l’autre de mon choix B ?

Par quel mécanisme ce dédoublement est-il produit ? Quel type de choix est un choix valide ou pas pour générer un nouvel Univers ? Lorsqu’on choisit parmi une liste de 200 possibilités, y a-t-il création de 199 autre Univers ?

Les scientifiques qui croient à ce genre de stupidité cherchent une solution dans des directions qui invalideraient toutes les autres théories physiques, dont celle de la conservation de l’énergie et de l’énergie requise pour structurer un Univers depuis ses débuts isotropes jusqu’à un Univers organisé et structuré comme est le nôtre à l’heure actuelle. C’est ni plus ni moins de faire intervenir un Créateur omnipotent, même s’ils se défendent bien de ça.

C’est vrai que la physique quantique pousse notre raison dans ses derniers retranchements, mais je suis convaincu qu’elle ne viole pas la loi de la conservation d’énergie ni la dépense d’énergie requise (entropie) pour créer des structures inhomogènes de plus en plus complexes.

Niels Bohr, l’un des piliers de la physique quantique, avait laissé entendre que la loi de la conservation d’énergie était violable, mais il fut débouté par la mise en place de la théorie de la chromodynamique quantique qui a fini par expliquer ce qui paraissait être une violation de la conservation d’énergie. Faut croire que certains scientifiques s’amusent à réinventer des théories violant pas juste un peu cette loi, mais la violant à des échelles plus qu’astronomiques.