Un Univers créé à partir de rien

Est-ce possible de créer tout un univers, le nôtre en l’occurrence, à partir de rien ? Les physiciens se le demandent puisque la cause ayant généré le Big Bang reste très mystérieuse. Et comme je l’écrivais dans un autre article, une intervention divine est à rejeter tant que persisteront d’autres possibilités moins ésotériques et moins théologiques.

Awake

Fluctuations quantiques
Vous connaissez les fluctuations quantiques ? Selon le principe d’indétermination de Heisenberg à la base de la théorie de la physique quantique, le vide ne peut pas toujours rester vide sinon il violerait cette inégalité mathématique où ∆E⋅∆t  > ħ/2

∆E équivaut à la variation de l’énergie. Un vide total signifie que l’énergie ne fluctue pas, donc ce terme vaudrait zéro.

∆t équivaut à la variation du temps. Plus la plage de temps en question est grande, plus ce terme est grand.

Mais la multiplication de ces deux coefficients donnera toujours zéro si ∆E vaut zéro.

De l’autre côté de l’inégalité, on a ħ (h barre), la constante de Planck réduite (h/2 π) qui, même si sa valeur est extrêmement faible (h = 6,626 x 10-34 Joule⋅seconde), elle est nécessairement plus grande que zéro.

Ainsi, l’inégalité oblige ∆E⋅∆t à avoir une valeur positive toujours plus grande que ħ/2. Donc ∆E ne peut jamais être nul. Pour parler français, cette équation dit que la fluctuation de l’énergie du vide (∆E) ne peut jamais être nulle, peu importe la petitesse de l’intervalle de temps (∆t) à laquelle on l’observe. L’énergie du vide doit fluctuer. Donc le vide n’est jamais, jamais, jamais vide d’énergie.

Dans la réalité, comment le vide s’y prend-il pour ne jamais être totalement vide ? Comment son énergie fluctue-t-elle ? La solution est sans équivoque. Le vide doit créer en permanence des paires dites virtuelles de particule-antiparticule. Ces paires ont une masse et selon la formule d’Einstein E = mc2, une énergie correspondante.

Ces paires de matière-antimatière vivent très peu longtemps (∆t), et si ce temps est suffisamment faible pour que la multiplication ∆E⋅∆t soit inférieure à ħ/2, on emprunte de l’énergie (∆E) mais pas suffisamment longtemps (∆t) pour obtenir un produit supérieur à ħ/2, alors c’est comme si on n’avait absolument rien emprunté.

Analogie
Prenons un exemple plus concret. J’emprunte un énorme montant à une banque que j’utilise immédiatement pour créer une gigantesque entreprise. Je pirate et efface les écritures comptables prouvant cet emprunt avant minuit au moment où mon solde et les intérêts sont mis à jour. Le solde étant identique, je n’aurai aucun intérêt à payer. L’important est que le temps passé à effectuer ces opérations ne dépasse pas la limite temporelle pour laquelle le système réagira.

Ainsi, on peut emprunter gratuitement de l’énergie, créer des paires de particule-antiparticule de la dimension d’un univers sans que toute cette opération ne soit perçue comme étant réellement survenue, tant et aussi longtemps que le produit ∆E⋅∆t demeure inférieur à ħ/2.

Création d’un univers
Imaginons la création d’une énergie ∆E formidablement importante constituée d’innombrables paires particule-antiparticule dont leur durée de temps soit infinitésimalement petite avant leur annihilation de sorte que le produit ∆E⋅∆t demeure inférieur à ħ/2. Un univers vient de naitre de rien.

Imaginons maintenant qu’il existe une asymétrie naturelle dans la production des paires à hauteur de 1 milliard de particules de matière pour 1 milliard moins 1 de particules d’antimatière.

Lors de l’annihilation de 1 pour 1, toute l’énergie sera restituée, sauf celle équivalant aux particules de matière en surnombre qui ne peuvent pas se désintégrer, faute d’antiparticule. Un univers comme le nôtre, constitué uniquement de particules de matière, existe maintenant.

Conditions à respecter
Mais ce scénario en apparence plausible se heurte à des conditions bien difficiles à rencontrer.

Pour que l’inégalité ∆E⋅∆t  > ħ/2 ne soit pas dépassée alors que l’énergie en cause ∆E est faramineuse, l’intervalle de temps d’existence des particules-antiparticules ∆t doit être ridiculement faible, un temps incommensurablement inférieur au temps de Planck. Est-ce possible ? Peut-être que la banque refuse le remboursement d’un prêt avant la plus petite période de calcul qui est au moins 1 jour. Si on ne peut pas restituer l’énergie avant le temps imparti, on ne parle plus d’un emprunt, mais d’un vol d’énergie. La sacro-sainte loi de la conservation de l’énergie serait violée.

Bien que l’on connaisse déjà l’existence d’une asymétrie entre matière et antimatière, est-il possible que cette asymétrie s’applique à la formation des paires virtuelles de particules-antiparticules dans le vide ?

Le temps ∆t de cette opération peut-il vraiment être inférieur au temps de Planck ? Si le temps de Planck est une limite infranchissable, il ne sera jamais possible de créer un univers entier sans violer la loi de la conservation de l’énergie.

Mon opinion
À tout prendre, je préfère le scénario des branes qui s’entrechoquent. Le multivers serait formé de (mem) branes et lorsque celles-ci entrent en interaction, un univers se crée en pompant l’énergie déjà présente dans ces branes. Rien ne se crée à partir de rien, seulement à partir d’un niveau énergétique supérieur.

Retour à la métaphysique
Mais les cosmologistes font-ils toujours de la science lorsqu’ils spéculent de la sorte ou ont-ils basculé du côté de la métaphysique ?

La physique et la métaphysique partagent un point commun, celle d’émettre des hypothèses à partir de raisonnements logiques. La différence entre les deux disciplines tient du fait que la métaphysique ne prévoit pas d’expérimentations qui prouveraient ses assertions, souvent parce que cela s’avère impossible, parfois parce qu’on déclare cette étape sans intérêt.

Les hypothèses de la physique cosmogonique moderne jouent bien du côté de la métaphysique. On émet des hypothèses rationnelles sans connaitre aucun moyen de les tester, de les prouver. Elles se contentent de donner une explication plausible à l’existence de notre univers, comme cette idée d’être né d’une fluctuation quantique, d’un emprunt monstrueusement grand… non remboursable.

Et après
Aujourd’hui, nous émettons des hypothèses cosmogoniques en utilisant deux théories physiques incompatibles, donc nécessairement fausses. Si on voulait être parfaitement honnêtes, on cesserait toutes nos spéculations puisqu’elles ne peuvent pas s’avérer exactes. Nous la jouons en prétendant toujours faire de la science alors que nous ne faisons que de la métaphysique. Tant et aussi longtemps qu’une « théorie du tout » réunissant la physique quantique et la relativité ne voit pas le jour, nous ne faisons que perdre notre temps en d’inutiles tergiversations. Mais depuis Einstein qui s’y est cassé les dents durant les quarante dernières années de sa vie, personne n’est parvenu à prouver une quelconque théorie du tout, même si les candidates sont nombreuses à se bousculer aux portes de la science.

Alors, il ne reste qu’une seule chose à faire, se mettre au boulot !

On n’a jamais mesuré la vitesse de la lumière

Ouais ! Bon ! Je vous entends penser. « Une autre théorie complotiste du même genre que « La Terre est plate ». Pourtant, si vous persistez dans votre lecture malgré votre scepticisme, je vous prouverai que c’est vrai. Cet article est subdivisé en deux parties. La première concentre les explications et la seconde traite des fondements mathématiques que vous pourrez éluder si votre goût pour les calculs ressemble au mien pour les radis.

Vitesse limite inconnue. Malgré ce manquement expérimental fondamental, on a quand même basé notre unité de distance, le mètre, sur la valeur de cette vitesse « inconnue » mais estimée constante dans tous les référentiels à 299 792 458 mètres par seconde.

Vous attendez que je vous dégote un argument tordu pour réfuter cette apparente connaissance universelle et… vous avez raison. Mais aussi dingue qu’elle soit, mon explication s’avère parfaitement exacte.

Pour mesurer avec précision la vitesse d’une balle de tennis ou de fusil, on peut envoyer un faisceau d’ondes (de la lumière) sur celui-ci. La différence de la fréquence émise par rapport à celle obtenue après réflexion sur l’objet détermine la vitesse de cet objet. C’est l’effet Doppler, le complice des policiers pour les aider à nous donner des contraventions. Mais cette procédure est inapplicable pour déterminer la vitesse de la lumière, car la vitesse de l’élément à mesurer est égale à la vitesse de l’élément mesureur. On ne peut mesurer la vitesse de la lumière avec de la lumière ou toute autre sorte d’onde électromagnétique dont on ne connait pas la vitesse exacte puisque c’est ce qu’on cherche à la connaitre par des mesures.

La seconde façon de mesurer des vitesses consiste à déterminer le temps que prend un objet pour parcourir une distance précise et connue. On place deux balises et lorsqu’un objet franchit la première, le chronomètre démarre et lorsqu’il atteint la seconde, on l’arrête. La division de la distance parcourue par la mesure du temps détermine la vitesse de l’objet en m/s, en km/h, etc.

Pour mesurer la vitesse de la lumière dans le vide, vitesse absolue parmi toutes, il n’est pas possible d’utiliser un faisceau d’ondes, lui-même une lumière. Il n’est pas plus possible de mesurer le temps entre deux bornes puisque notre appareil d’enregistrement doit également et préalablement connaitre la vitesse de la lumière pour mesurer… la vitesse de la lumière.

Bon. Pas de problème, vous vous dites. Recourons à des horloges atomiques. Une à chaque borne et parfaitement synchronisées. Mais pour les synchroniser, il faut transmettre une information de l’une à l’autre à la vitesse de la lumière, vitesse qu’on cherche justement à mesurer. Cette procédure est prise en défaut en recourant à une inconnue pour mesurer cette même inconnue.

Dans ce cas, synchronisons les 2 horloges à partir de la même borne et envoyons-en une à la seconde borne. Erreur ! Puisqu’une horloge se déplace par rapport à l’autre, la théorie de la relativité restreinte nous apprend que le temps diffère entre 2 objets en vitesses inégales entre eux. Et pour corriger ce décalage, il faut connaitre la vitesse de la lumière, vitesse qui, comme vous devez commencer à me haïr, est celle qu’on cherche inlassablement à mesurer.

La solution est cependant simple, direz-vous, et c’est justement cette technique qui a été utilisée et qui l’est encore pour mesurer cette fameuse vitesse c. À l’aide d’un miroir, faisons parcourir à la lumière la distance aller-retour et divisons le temps mesuré par 2 pour obtenir cette foutue valeur de c. Et le tour est joué ! pensez-vous, et le bec du Corbot cloué !

Cet exercice pratique est cependant basé sur un postulat. Et l’on sait que si un postulat est faux, le résultat de la mesure par l’expérience sera faux. Le fameux postulat utilisé dans l’expérimentation précédente et sciemment accepté par Einstein lui-même est le suivant: 

Nous avons tenu pour acquis que la lumière se déplace à la même vitesse à l’aller comme au retour, en éloignement comme en rapprochement, ce qui permet de diviser le temps par 2 pour déterminer le temps d’un trajet dans une seule direction.

Mais rien ne prouve que le temps requis pour parcourir la même distance est le même dans les deux directions. C’est une affirmation non prouvée, un postulat parfaitement gratuit. Évidemment, faute de mieux, il est raisonnable de le considérer comme véridique, mais ce n’est qu’une croyance et en aucun cas une certitude prouvée.

Il n’est pas possible de mesurer la vitesse de la lumière dans une seule direction puisqu’il faudrait déjà connaitre cette vitesse pour ensuite la déterminer. On ne peut définir une chose par elle-même.

Il est raisonnable de penser que la vitesse de la lumière est égale dans toutes les directions, y compris lorsqu’elle s’éloigne de nous ou lorsqu’elle nous revient. Malheureusement, aucune expérience ne peut le prouver une bonne fois pour toutes. Essayez d’en inventer une et elle sera réfutable.

La seule solution consisterait à découvrir des particules voyageant plus vite que la lumière, des tachyons par exemple. Nous pourrions alors utiliser un faisceau de tachyons pour mesurer la vitesse des photons et en appliquant quelques formules mathématiques, nous obtiendrions la valeur tant recherchée de c dans une seule direction.

Mais voilà. Si Einstein avait raison, rien ne peut voyager plus vite que la lumière dans le vide (c). Les tachyons ne sont présentement que des inventions de l’esprit. Leur gros problème est qu’ils pourraient violer le principe de causalité (quoique ce soit discutable et discuté). Ils démarreraient leur périple après être parvenus à destination. Ça parait un peu bizarre. Aussi aberrante que cette situation puisse paraitre, elle n’est pas totalement ridicule. La physique quantique nous a habitués à rencontrer des comportements totalement illogiques et pourtant parfaitement véridiques. Il pourrait en être de même avec les tachyons.

La véritable impossibilité théorique est d’accélérer un objet jusqu’à ce qu’il atteigne la vitesse c puisque cette action nécessiterait une énergie infinie à cause de l’augmentation de la masse conséquente. Le fameux accélérateur de particules LHC a longuement prouvé le principe que la masse augmente avec la vitesse. Mais rien n’interdirait une particule de naitre en voyageant déjà plus vite que la vitesse limite c puisqu’elle ne passerait pas par une phase d’accélération. Voilà pourquoi les tachyons pourraient bien exister. Et fait surprenant, ils perdraient de la masse en augmentant leur vitesse.

Pour revenir au sujet principal, à défaut de connaitre actuellement avec certitude la vitesse de la lumière, la présomption qu’elle vaille 299 792 458 m/s dans toutes les directions et à tout moment nous permet de créer des applications comme les GPS et autres systèmes de calculs relativistes. Mais si un jour on vous apprend que cette vitesse n’est pas égale dans tous les systèmes de référence, ne vous surprenez pas. Le postulat utilisé consciemment par Einstein dans son article de 1905 sur la relativité restreinte se sera avéré inexact.

Les probabilités semblent extrêmement faibles que c varie selon qu’il s’éloigne ou se rapproche de nous, mais pour l’instant, le mieux qu’on peut affirmer avec absolue certitude est que cette vitesse « limite » reste à ce jour une valeur non mesurée.

Complément mathématique pour les presque nuls en maths 

La théorie de la relativité restreinte d’Einstein utilise les transformations de Lorentz dont le facteur s’écrit ainsi.

Gamma (𝛾) multiplie la masse, l’énergie et le temps relatif et il vaut entre 1 et l’infini (∞) selon que la vitesse (v) d’un objet varie de zéro jusqu’à atteindre c. De fait, si v vaut zéro, le résultat sous le radical vaut 1, le radical de 1 = 1 et finalement 1/1 = 1. Interprétation : à vitesse relative nulle, pas de changement de masse, d’énergie ou de temps relatif.

En revanche, si v vaut c, le résultat sous le radical vaut 0, le radical de 0 = 0 et 1/0 = ∞. Interprétation : Un déplacement à la vitesse de la lumière multiplie la masse, l’énergie et le temps relatif par l’infini.

Pour un tachyon qui aurait une vitesse v supérieure à c, la valeur sous le radical devient négative. On sait qu’il n’existe aucun nombre réel résolvant un radical d’une valeur négative, mais il en existe parmi les nombres imaginaires purs. Ce n’est pas parce qu’on parle de nombres imaginaires que ces nombres sont fabulatoires ou insensés. On aurait fort bien pu utiliser un autre terme. À preuve, tous les condensateurs et les bobines de ce monde (moteurs, antennes, accumulateurs, etc), des objets bien réels s’ils en sont, fonctionnent selon des mathématiques qui utilisent les nombres imaginaires pour déterminer leur courant selon la tension exercée à leurs bornes.

Ainsi, un tachyon pourrait fort bien exister dans un temps perpendiculaire au temps que nous connaissons et que nous expérimentons à longueur de journée. Un temps qui est inaccessible parfaitement reconnu et prouvé.

Le mystère de l’observation

En physique quantique, l’observation joue un rôle critique. Vous avez certainement entendu parler du chat de Schrödinger placé dans une boite dotée d’un mécanisme de désintégration radioactive qui, si elle survient, brise une fiole de gaz mortel. Si on laisse le chat dans la boite durant un temps équivalent à la demi-vie de l’atome radioactif, il a une chance sur deux de mourir.

chat-schrodinger-bandeau-750x400

D’ailleurs, je félicite ce physicien d’avoir placé un chat dans sa boite. Il partage certainement avec moi une aversion pour ces boules de poils volatilophages.

En physique quantique, le concept du chat miaulant à moitié s’interprète légèrement différemment. Il n’est plus simplement question de statistique du genre « soit l’un, soit l’autre », mais plutôt « moitié l’un et moitié l’autre ». Ainsi, le chat se trouve simultanément dans les états vivant et mort jusqu’à ce qu’un observateur ouvre la boite pour constater lequel des deux a préséance. Mais avant ce constat, le chat partage les deux états à parts égales.

Évidemment, Schrödinger a utilisé la métaphore du chat pour expliquer des phénomènes quantiques réels. À l’échelle macroscopique, à notre échelle, les phénomènes quantiques se sont depuis longtemps résorbés et jamais on ne pourra établir qu’un chat soit simultanément mi-mort mi-vivant. Toutefois, à l’échelle microscopique, la simultanéité de deux états doit être considérée comme exacte. Il ne s’agit pas simplement d’une image, mais de la stricte vérité.

Slits

Il faut cependant expliquer une différence fondamentale entre l’observation d’un chat et l’observation d’un photon, d’un électron ou d’un atome pour mieux comprendre la subtilité du phénomène quantique.

Dans notre monde quotidien, un bon observateur se doit de ne pas interagir avec son sujet d’étude s’il veut obtenir des données recevables. S’il perturbe le milieu observé, ses conclusions seront biaisées. En physique quantique, il est impossible d’observer sans perturber l’élément étudié. On ne peut pas connaitre les propriétés d’un photon ou d’un électron sans le faire interagir avec un instrument de mesure quelconque. Ainsi, l’observation quantique ne se contente pas d’observer à distance, elle perturbe violemment son sujet d’étude.

eclipse-lune-2018-bulgarie

En fait, si on n’interagit pas avec une particule, elle semble rester totalement intangible et son existence ne devient réelle que lorsqu’il y a une observation. Einstein avait ce principe en horreur. Il disait : « Je ne peux pas croire que la Lune n’est pas là lorsque je ne la regarde pas ».

Cette façon de voir n’est pas correcte. On devrait plutôt penser de la sorte. Même si la Lune n’existe pas véritablement lorsqu’on ne l’observe pas, les informations la concernant sont, elles, bien réelles. Ainsi, notre astre continue de générer des marées même si personne ne l’observe puisque l’espace conserve toutes les informations concernant l’ensemble de ses particules.

Ainsi, que la Lune prenne forme et couleurs uniquement lorsqu’on la regarde, ça ne change rien puisque ses informations restent bien présentes. Elles sont simplement lues, ou pas.

Je vous propose de vous référer à un autre de mes articles concernant l’univers informatif. Il est plus facile de démystifier les bizarreries de la physique quantique lorsqu’on imagine un univers où tout n’est qu’informations plutôt qu’un univers constitué à la base de matières et d’ondes. Oui, matières et énergies finissent par émerger par une interaction ou par une observation. Cependant, leurs informations restent toujours tapies au plus profond de la trame spatiotemporelle et ce sont elles qui comptent véritablement au bout du compte.

L’angle de Planck

Si vous ne connaissez pas les dimensions de Planck, sachez qu’elles sont connues depuis 120 ans déjà. Ce sont les dimensions extrêmes de notre Univers. Dans le cas des longueurs de distance et de temps, elles valent environ 10-35 mètre et 10-44 seconde.

Il est impossible de fragmenter ces valeurs, elles sont les atomes (éléments insécables) de notre univers. De là à imaginer que notre univers est discontinu, il y a un pas à franchir qui pour moi devient évident, mais pas pour une majorité de physiciens qui croient encore, malgré cela, que le temps coule sans faire de bonds et que l’espace n’est pas atomisé.

Cependant, pour rendre compatibles nos deux piliers actuels de la physique, la physique quantique et la relativité, les théories basées sur la discontinuité du temps et de l’espace semblent prometteuses. Certains travaux de physique théorique actuels voient l’espace composé de microscopiques tétraèdres de longueur équivalente à celle de Planck, soit 10-35 m.

Je me suis donc posé la question suivante. Si l’espace est discret, discontinu, pourquoi n’en serait-il pas autant des angles de rotation ? Pourquoi tous les angles seraient-ils permis ? L’Univers est discontinu ou ne l’est pas et si c’est le cas, alors les angles le sont également.

Mais je ne trouve rien sur ce sujet. Il semblerait que personne n’a pris la peine de se poser la question. Rien, nada, le vide, non le néant. Pourtant, je ne peux concevoir une longueur minimale pouvant tourner librement de façon totalement continue, sans limite minimale.

Comment peut-on concrètement représenter cet angle de Planck ? Celui-ci aurait le même effet que nos convertisseurs du numérique à analogique actuels. Oui, ces engins qui transforment les bits de nos CD en onde sinusoïdale qu’on peut entendre. En fonction de la résolution de ces convertisseurs, les ondes restituées possèdent plus ou moins de paliers, mais aucune n’est totalement continue. Les sinusoïdes ont des marches, mais nos oreilles ne peuvent les percevoir si elles sont minuscules.

PaliersPlus

L’angle de Planck causerait le même effet dans les ondes électromagnétiques. Cependant, à cause de sa petitesse, il nous est très difficile de distinguer des paliers dans la lumière reçue ou émise. Par l’observation, il est cependant possible de déterminer sa limite supérieure, mais seule une théorie nous permettrait d’en donner une valeur précise.

Pour générer des ondes à paliers, le rotateur doit tourner en saccade, avancer coche par coche, comme une horloge dont la trotteuse marque chaque seconde d’un tic caractéristique.

Il existe la notion de « temps de Planck » qui se rapporte au temps que prend la plus petite longueur d’onde possible à parcourir son cycle, sa période. Ce temps déterminé par les constantes fondamentales vaut 5,391 x 10-44 seconde. Mais ce temps représente l’ensemble du temps passé pour faire une rotation complète, l’équivalent de la minute pour une trotteuse, alors que moi je cherche l’équivalent de la seconde. Pour une trotteuse, son angle minimal vaut 6 degrés, puisque 360°/60 s = 6°/s.

Il existerait donc un temps plus petit que le temps de Planck, c’est le temps de chaque palier que possède une onde. En considérant le pire, soit un seul palier par valeur positive et négative et les deux paliers à zéro, on doit diviser le temps de Planck par 4 pour trouver le temps de chacun des paliers d’un cycle.

PaliersMin

En revanche, plusieurs paliers divisent d’autant la plus petite division temporelle. Il est possible que le temps de Planck fasse qu’il n’existe qu’un seul palier par demi-cycle et qu’ainsi la résolution angulaire, l’angle de Planck, à cette hyperfréquence soit égale à 90°. L’angle de Planck déterminerait le type de maillage spatiotemporel. S’il vaut 90°, l’espace-temps serait une construction formée de cubes empilés.

Cependant, une de nos théories actuelles de la gravitation quantique fait intervenir des mailles spatiotemporelles de la forme d’un tétraèdre. Si cette description est exacte, l’angle de Planck serait plutôt équivalent à 30° et il existerait donc quatre paliers de valeurs distinctes (en incluant le zéro) par demi-cycle plutôt que deux.

Quels seraient les impacts d’un angle de rotation de Planck de 30° sur notre compréhension actuelle de l’univers ?

L’accélération de l’expansion de l’univers pourrait ainsi n’être qu’un artéfact et ce n’est pas rien. Les galaxies lointaines apparaitraient plus éloignées que la réalité. Ainsi, nos estimations actuelles de l’énergie sombre seraient erronées et même peut-être totalement fausses. Le destin de notre univers en serait chamboulé puisque le Big Rip ne surviendrait pas.

 Ce serait une excellente nouvelle puisque selon la théorie actuelle, tous nos atomes finiront écartelés, déchirés par cette énergie sombre délétère.

Je mise sur un angle de Planck non nul qui pourrait peut-être sauver notre univers d’une mort horrible que nous promet actuellement ce que nous appelons l’énergie sombre, un terme signifiant que nous ignorons complètement sa nature.

Un angle de Planck valant 30° réduirait à néant l’obligation de recourir au principe d’une énergie sombre répulsive pour expliquer ce que l’on observe. Surtout, il redéfinirait les dimensions et le destin de l’Univers.

Courage

Lorsqu’un animal est attaqué, il peut choisir entre six solutions pour s’en sortir. Le premier réflexe en est un de défense passive, se figer pour faire perdre au prédateur sa cible de vue. Le camouflage et le mimétisme ont sauvé la vie de bien des animaux qui ont vu leur ennemi passer tout près sans les apercevoir. Cette technique statique a également contribué à faire perdre la vie à bien d’autres animaux, car elle implique de rester dans l’aire de danger. Elle donne cependant du temps à la proie pour déterminer le degré réel de dangerosité ainsi que le ménagement de ses efforts, car toute dépense énergétique se paye cher dans la nature.

Criquet

La deuxième technique peut sembler la meilleure, car elle éloigne, du moins temporairement, la proie du prédateur, c’est la fuite. Mais si elle est située au deuxième rang, c’est qu’elle n’offre pas que des avantages. Le mouvement se remarque très facilement. Le fuyard se tatoue donc une cible sur lui. Généralement, la nature a doté les prédateurs de vitesse de pointe plus élevée, sinon ils ne pourraient pas survivre. Ainsi, fuir ne suffit pas, cette technique doit être accompagnée d’une stratégie consistant à trouver rapidement un abri sûr. Fuir, mais où ? Sans objectif, il ne reste que l’épuisement et la chance apportés par les obstacles du terrain à l’avantage de l’un ou de l’autre pour déterminer qui remportera la course.

Guepard

Semblable à la première, la troisième technique ne peut se pratiquer que par certaines espèces. Elle consiste à attendre l’attaque et laisser ses défenses naturelles venir à bout de l’ennemi. Être muni d’une carapace épaisse ou de dangereuses épines peut venir à bout de la patience et de la sensibilité de l’attaquant tout en se laissant malmener.

article-2314541-1979CBB1000005DC-537_634x462

La quatrième façon d’aborder l’ennemi est de l’attaquer. Pris au piège, l’affrontement peut parfois faire tourner le vent en faveur de la victime. Un coup de croc ou de griffe bien placé, un jet de substance biologique sur le museau ou dans les yeux, des épines plantées dans les pattes ou le nez, le prédateur pas toujours expert en la matière risque parfois d’en prendre bien plus qu’il ne l’aurait cru.

1

L’avant-dernière façon d’aborder son ennemi est plus rare, car elle ne fonctionne que dans certaines conditions particulières, c’est la soumission. Se soumettre à son ennemi, implorer sa clémence, collaborer avec lui pour lui rapporter plus d’avantages qu’une simple nourriture immédiate peut constituer la dernière ligne de défense. Elle exige toutefois de changer son style de vie pour se soumettre à un être supérieur.

Le dernier moyen de prendre le dessus sur un ennemi est de trouver du renfort. À ce sujet, on trouve deux types d’alliés différents, les naturels et les improbables. Il existe parfois, pas toujours, un prix à payer pour cette protection providentielle. Les circonstances et les individus en cause viendront déterminer les conditions de ce contrat d’alliance. Dans la gamme des alliances naturelles, les congénères d’une hyène attaquée viendront évidemment à son secours. Un lion venant au secours d’un bébé gnou attaqué par un autre lion, ça semble pas mal plus étrange et pourtant ça s’est vu.

x1080

Vous l’aurez probablement compris, ces six comportements se rapportent également aux humains, plus vraiment dans le contexte d’un mangeur et d’un mangé au sens propre, mais dans des relations difficiles à l’école, à la maison, au travail, dans des cercles d’amis ou de loisirs.

Le principe de prédateur-proie reste valable, tout comme les six techniques décrites pour affronter l’adversité. Instinctivement, nous adoptons parfois l’une d’entre elles sans vraiment nous en rendre compte, sans avoir jugé de sa pertinence face à un ennemi en particulier et des conséquences possibles de ce choix sur la suite des événements. Choisir sa technique de défense en connaissance de cause nous éloigne déjà d’un statut de simple victime.

Qu’on le veuille ou non, il existera toujours des attaquants qui s’en prendront à des travaux, à l’intégrité, aux valeurs, aux résultats, à la popularité ou aux idées des autres. Certaines attaques resteront bénignes, mais parfois un individu des plus déplaisants et bien déterminé à attaquer une personne sans raison évidente surgira et fondera sur sa proie.

Il n’est pas toujours possible d’utiliser les techniques de défense passive. Il n’est pas toujours possible d’attaquer plus puissant que soi. Il n’est pas toujours possible de fuir. Il n’est pas toujours possible de collaborer. Par contre, il est presque toujours possible de trouver des alliés quelque part, même s’ils agissent dans d’autres sphères, même s’ils paraissent éloignés de nos soucis, même s’ils ne nous ressemblent pas.

amitie-animaux-entre-chien-orang-outan2.jpg.png

Le prix à payer pour cette demande d’aide externe est souvent l’exclusion du cercle dans lequel l’individu évolue. Est-ce une véritable perte ou une fabuleuse occasion à saisir ? Parfois, la peur de l’inconnu semble plus forte que la crainte de ses faux amis, ses véritables ennemis.

Ça demande du courage. Cette qualité se développe à partir d’une première tentative, puis d’une autre et encore une autre, sans égard aux résultats apparents. Le courage ne peut appartenir qu’aux victimes, car les prédateurs n’agissent jamais par courage, seulement par opportunisme, car attaquer un plus faible est la marque des vrais faibles.

Alors, courage ! Sors-t’en !

Ne nous faites pas confiance !

Plusieurs personnes croient aux Ummites, de prétendus individus provenant de la planète Ummo qui seraient venus s’installer sur Terre en 1950 après avoir entendu les premières transmissions électromagnétiques d’origine humaine au début des années 1930.

Je ne commenterai pas cette croyance, car je n’ai aucune opinion, n’ayant jamais lu aucun des nombreux écrits qu’ils auraient composés et envoyés depuis 1965 sous forme de lettres à des individus disséminés un peu partout sur la planète.

Si cette histoire est véridique, leur planète étant située d’après leurs dires à 14,4 années-lumière de la Terre, ils bénéficieraient donc de moyens de transport aux capacités fantastiques dont la vitesse friserait ou dépasserait même la vitesse de la lumière.

Si Einstein vivait, il ferait évidemment partie des sceptiques. Pour lui, rien de très massif ne peut s’approcher de la vitesse de la lumière sans une débauche d’énergie impossible à embarquer à bord d’un vaisseau spatial. Quant à carrément dépasser la vitesse limite, le mot limite devrait être suffisamment explicite pour rejeter cette hypothèse.

Pourtant, sans contredire la physique relativiste, il semblerait possible de créer des conditions qui permettraient de se déplacer d’un point à l’autre de l’espace en créant l’illusion d’avoir dépassé la vitesse de la lumière sans passer par un écrabouilleur et létal trou de ver.

iStock-898633500-e1528790579564

En tordant l’espace, en le déformant, en le pliant ou en sautant à travers une quatrième dimension spatiale, il serait théoriquement possible de se déplacer entre Ummo et la Terre sans vraiment parcourir l’entière distance au sens classique du terme. Le voyage serait ainsi écourté et il suffirait d’une énergie et d’un temps raisonnables pour parvenir à destination.

En supposant qu’il soit possible de générer une distorsion spatiale de manière énergétiquement acceptable, voudrions-nous utiliser ce moyen pour aller coloniser d’autres planètes ?

Certes, nous sauterions sur l’occasion de s’accaparer cette technologie. Ayant dévasté la Terre, il est évident que nous voudrions trouver d’autres planètes susceptibles de posséder des ressources vierges et abondantes afin de les piller à notre guise sans gouvernement pour nous restreindre à suivre de multiples règles.

On peut d’ores et déjà connaitre le résultat de ces colonies, un recommencement des erreurs ayant mené à la ruine du milieu dans lequel on vit encore. L’humain est trop vorace pour faire attention à quoi que ce soit. Il est trop cupide et même trop idiot pour apprendre de ses erreurs.

J’en appelle donc aux Ummites ou à toute autre race extraterrestre grenouillant dans nos parages. Tenez les humains loin des technologies qui leur permettraient de partir à la conquête d’autres systèmes planétaires. L’espace a beau être vaste, faut-il vraiment que d’autres mondes supportent nos ravages ? 

Par contre et à tout hasard, n’auriez-vous pas un bidule très puissant à me prêter ? Non, pas le truc pour plier l’espace, l’autre machin plus utile encore, celui pouvant ramener la population de la Terre à l’Âge de pierre. Je vous le rends dès que j’en aurai fait bon usage !

L’avenir sera courage et inhumanité

Nous avons trop longtemps cru, à tort, que l’humain pouvait avoir le dessus sur la Nature. Depuis les débuts de l’ère industrielle, nous avons vécu avec le sentiment que nous pouvions harnacher les éléments à notre profit. La Nature nous dérangeait, nous l’avons tassée, ignorée et maltraitée. Nous avons cru prendre le dessus sur celle qui nous empêchait de réaliser nos rêves les plus fous.

Nuclear-Explosion-HD-1024x640-1728x800_c

En bon parent patient, elle a subi nos frasques, nous a enduré autant qu’elle a pu, mais aujourd’hui ces moments calmes sont terminés. La Nature n’est pas revancharde, elle en a juste plein le c… Son vase est rempli et il ne fait que commencer à déborder.

Imaginez la Terre comme un immense réservoir possédant une très grande capacité de rétention. Elle peut absorber une quantité phénoménale de gaz à effets de serre tout en laissant une partie du dioxyde de carbone et du méthane dans l’atmosphère afin de retenir un peu de la chaleur reçue du Soleil. L’équilibre atteint est parfait pour obtenir des températures moyennes favorisant la vie telle que nous la connaissons, c’est-à-dire à base d’eau liquide.

lagrande4-03

Mais voilà, durant les deux derniers siècles, l’humain a exploité les ressources pétrolières et charbonnières enfouies dans le sous-sol afin de produire de l’énergie utilisée par ses machines et pour son confort. Avec une totale insouciance, il est parvenu à atteindre la capacité maximale de rétention des gaz à effets de serre de sa planète.

Cette limite dépassée, la Terre refusera les prochains excédents. Cependant, son véritable comportement ne se contentera pas d’être aussi simple. Si c’était le cas, nous aurions le temps de changer nos habitudes de vie et nous pourrions retrouver un équilibre légèrement différent de celui du passé, mais toujours acceptable. Ce qui surviendra ne s’apparentera pas, même de loin, à ce sage scénario optimiste, pour ne pas dire totalement irréaliste.

co2-atm-temp-fig13.gif

Pensez plutôt à la Terre comme un immense réservoir derrière un barrage hydroélectrique où les excédents d’eau sont évacués en aval. Mais que se passe-t-il lorsque la pression d’eau devient plus grande que la résistance de la structure? Le barrage tout entier s’effondre et l’eau accumulée derrière lui se déverse en emportant tout sur son passage. Afin de mieux représenter ce qui surviendra plus précisément, considérons une désagrégation graduelle plutôt qu’un effondrement instantané. Quoi qu’il en soit, le réservoir se videra de toute l’eau accumulée de manière artificielle.

La Terre est déjà entrée dans une boucle de rétroaction positive et rien ne pourra changer cette situation qui s’avérera bien plus grave que nous le pensons, que nous voulons le croire, que nous l’espérons.

PT_terre_bleue-1134.1532970284

Anciennement, l’humain avait de la compassion pour ses proches, ses voisins, ses connaissances puisque ces dernières se limitaient à un environnement plutôt immédiat. Aujourd’hui, on suit en direct sur tous nos écrans des sauvetages héroïques d’inconnus situés à l’autre bout de la Terre. Nous pleurons des victimes d’actes insensés perpétrés partout sur la planète. Nous vivons dans des mégalopoles impersonnelles et pourtant notre capacité à nous émouvoir reste toujours bien présente, vestige d’un passé où notre univers se limitait à notre entourage environnant.

À la vue des événements à venir, au mieux nous serons des témoins impuissants d’hécatombes, au pire nous ferons partie des nombreuses victimes. L’ère de l’insouciance est bien terminée et la prochaine sera celle de l’indifférence. Nous ne pourrons plus nous soucier de tous les événements catastrophiques violents tant ils seront nombreux et leurs victimes légion.

Nous nous préoccuperons tout d’abord de notre propre sécurité, car la Nature pourra venir nous frapper partout sur Terre. Aucun lieu ne sera totalement sûr. Nous utiliserons les événements climatiques survenant aux autres, non plus pour nous émouvoir de leur sort, mais comme sources d’information pour nous préparer nous-mêmes au pire.

cache_2472554859

Nous retournerons à une ère où nos pensées seront essentiellement centrées sur nos proches et nos voisins. La vie redeviendra survie avec tout son beau courage, mais également avec sa si laide inhumanité.

Rodgers Creek Fault

Ce nom ne dit pas grand-chose à la plupart des gens. Comme son nom anglais l’indique, on parle d’une faille, la faille du ruisseau Rodgers. Elle est située en Californie et l’on parle évidemment d’une faille tectonique. Située à l’est de la fameuse faille de San Andreas et à l’ouest de la vallée de Napa que tous connaissent, elle commence à la hauteur de San Francisco pour se prolonger elle aussi vers le Nord-Ouest.

collect2

Si cette faille ne fait pas autant parler d’elle que sa grande sœur, c’est qu’elle est très calme. Pourtant, les géologues spécialistes de la région s’entendent à dire que le prochain grand séisme pourrait bien provenir de celle-ci. En fait, on évalue les probabilités de décrochage majeur de magnitude M>=6,7 de la faille Rodgers Creek à près de 33 % d’ici les 25 prochaines années.

De type coulissante, cette faille accumule les tensions au rythme de 6 à 10 mm par année. En 2016, on a revu son degré de dangerosité à la hausse ainsi que sa longueur totale en lui ajoutant 17 km. Au sud, elle est reliée à la faille Hayward qui descend jusqu’à San José. Le lieu de leur union se situe au cœur de la baie de San Pablo, une étendue d’eau connectée au nord de la baie de San Francisco.

Hayward-Rodger-Creek-Fault-Bay-Area-Fault-Map-San-Andreas-Fault.jpg

Le parallélisme des failles de San Andreas et du duo Rodgers Creek – Hayward démontre la complexité du réseau de failles situées en Californie et conséquemment la difficulté de connaitre le lieu de la prochaine catastrophe. On est toutefois assuré que les déplacements permanents des plaques les unes par rapport aux autres finiront par se traduire en un décrochage d’autant plus violent que les plaques seront restées longtemps silencieuses.

F2.large

Bien qu’on parle encore quotidiennement du fameux tremblement de terre de 1906, San Francisco ne semble pas vraiment en avoir tiré des leçons pour l’avenir. Le réveil sera brutal lorsque surviendra un énorme séisme, surtout s’il provient d’un endroit peu connu pour en causer de sérieux.

041816-kgo-1906-sf-great-quake-img_image_16-48-4712-1024x576

Cette ville de la côte pacifique a connu son dernier grand tremblement de terre le 17 octobre 1989 lorsqu’un séisme d’une magnitude de 6,9 l’a frappée de plein fouet. J’ai pu voir les dégâts, car je me suis retrouvé à San Francisco quelques jours plus tard. Je n’ose imaginer la destruction qu’occasionnerait un séisme de magnitude 8,0 ou plus. Étrangement, la ville n’a pas de normes de constructions de la trempe des villes nippones susceptibles d’être frappées par un fort séisme. La ville californienne a été reconstruite et agrandie dans l’insouciance qui caractérise très souvent les habitants de ce pays et ils risquent bientôt de la payer cher.

Skyline-Downtown-Close-up-1500

Un scénario jugé probable par l’USGS (United States Geological Survey) considère un décrochage de la faille Rogers Creek de 0,9 m sur une distance de 63 km associé à un décrochage simultané de la faille Hayward de 1,2 m sur une distance de 83 km occasionnerait un séisme de magnitude 7,2. Toutefois, si on se fie à la carte des amplifications des secousses occasionnées par la fluidité de certains terrains, plusieurs régions densément peuplées subiraient des dégâts très importants.

shechbri

Cependant, la magnitude d’un séisme n’est qu’un parmi plusieurs indices de sa dangerosité. Elle évalue l’énergie relâchée durant cet épisode, mais pas directement l’amplitude des ondes sismiques qui occasionnent les dégâts matériels. Pour une même magnitude, de fortes amplitudes sur une surface restreinte s’avèreront plus dangereuses que de faibles amplitudes sur une plus grande surface.

bayamate

On ne s’attend pas que le fameux Big One tant discuté provienne de la faille Rodgers Creek, mais plutôt de la faille de San Andreas qui la longe plus à l’Ouest et qui démontre un potentiel de dangerosité bien supérieur puisqu’elle court directement sous la ville de San Francisco. Toutefois, si un séisme risque de surprendre là où on s’attend moins à en subir un, c’est bien celui qui surviendra lors du décrochage de la faille Rodgers Creek.

Le paradoxe de la machine

L’outil n’est pas propre à l’humain, même des corbeaux en conçoivent et les utilisent, c’est pour dire! La machine, par contre, semble effectivement être un point d’inflexion entre l’humain et ses proches biologiques.

gammasquadcrows2

Un outil est manipulé par un animal quelconque, parfois par l’humain, pour effectuer un travail. Une machine effectue un travail sans l’apport constant d’une entité biologique. Une fois en route, elle poursuit sa tâche de manière autonome. Elle accomplit une opération pour laquelle elle a été conçue. Une machine ne doit rien au hasard, sauf peut-être l’idée, mais ensuite, on la harnache par volonté afin d’obtenir un effet prévisible et prévu.

roue-a-aube

La machine a commencé de manière toute simple. Le moulin à vent, la roue à aubes. On récupère une énergie et la machine la transforme. La machine est donc bien plus qu’un outil, elle déplace de l’énergie pour en produire une autre plus adéquate à nos besoins. À part sécher le linge, le vent était plus nuisible qu’utile. Les voiliers ont changé la donne, ils ont transformé l’énergie éolienne pour faire mouvoir leur imposante masse sur un liquide susceptible de les déplacer plus aisément.

1200-x-9001

Le vent moud du grain en faisant tourner une meule. Une fois les pales en action, le moulin poursuit son travail tout seul. C’est une machine, pas juste un outil, car une machine doit être munie d’une source d’énergie pour garder son autonomie d’action. Vent, gravité, électricité, différence de température ou de pression, lumière, le choix énergétique est vaste et l’humain a harnaché la plupart des formes d’énergies de la nature. Il s’est construit une quantité phénoménale de machines à tout faire et celles qui lui manquent verront le jour.

Étrangement, ou plutôt paradoxalement, la machine qui devait nous affranchir du travail ne nous a pas affranchis d’elle. Bien au contraire, nous avons toujours été dépendants de nos créations et aujourd’hui plus que jamais. Ce n’est plus un culte en son honneur, c’est une soumission totale envers elle.

plateforme-petrole

Bien sûr, tout ceci était prévisible et a effectivement été prévu par certains visionnaires ou simplement par des gens dotés d’un gros bon sens. La machine nous a affranchis de certaines tâches qu’elle prend en charge pour nous asservir à elle-même.

L’échange valait-il le coût? Sommes-nous mieux aujourd’hui qu’avant l’invention de la machine?

homme-enchainé

Bien entendu, la machine possède une certaine autonomie, elle ne nous enchaine pas totalement à elle, mais lorsqu’elle cesse de fonctionner, elle n’a pas son pareil pour nous culpabiliser et nous obliger à la remettre en fonction. On nous apprend vite qu’une machine arrêtée fait perdre une fortune à ses propriétaires sans donner la contrepartie, combien elle leur fait amasser de fric. On nous parle toujours que des pertes et plus la machine est grosse…. Alors on court la secourir et la remettre en marche, peu importe le jour, l’heure et ce que nous étions en train de faire.

Voilà le nœud du problème. Nous ne maitrisons plus notre horaire, nous laissons la machine décider à notre place. On apprend à laisser pleurer un enfant la nuit pour qu’il s’habitue à ne pas nous manipuler et on devient incapable de laisser une machine hors d’usage sans virer fous.

20150128-094845-g

Les nouvelles bestioles technologiques enfouies dans nos poches sont les pires de toutes. Elles nous soumettent aux supplices de la pastille, du bandeau, du vibrateur et de l’alarme sans égards à notre sommeil, nos pauses, ni même à nos moments intimes sur le trône. Et on les laisse nous manipuler, nous enchainer, nous esclavager, alors qu’elles devraient nous libérer. Nous libérer de quoi? Certainement pas des machines!

uploads%2Fstory%2Fthumbnail%2F55364%2F15e4ddd3-60ed-4916-a871-0f8a03109fee.png%2F950x534.png

Alors, partez immédiatement à la recherche de notre John Connor, celui qui nous sauvera du règne des machines, car cette ère est déjà commencée.

Séismes, un mois en apparence normal

Depuis le dernier mois, l’activité sismique d’importance, c’est-à-dire 6,0 et au-delà sur l’échelle Richter, est essentiellement concentrée dans la région de l’Indonésie, de la Papouasie – Nouvelle-Guinée, des iles Fidji, du Vanuatu, de la Nouvelle-Calédonie, des iles Salomon et toute cette région située au Nord et au nord-est de l’Australie, aux jonctions de la plaque tectonique australienne avec les plaques pacifique, philippine et eurasienne. L’Australie poursuit son périple océanique au rythme de 6 à 7 cm par année vers des latitudes plus clémentes et pour ce faire, elle bouscule allègrement les joueurs qui occupent actuellement le terrain.

Séismes-201810.png

D’autres tremblements de terre d’importance se sont produits en Russie orientale (iles Kouriles) et en Alaska (iles Aléoutiennes). Enfin, quelques séismes secondaires, mais assez inquiétants à cause de la population environnante, ont frappé le Guatemala à 5,7 et Haïti à 5,9.

Je constate dans le dernier mois le maintien de la moyenne d’un séisme d’importance survenant tous les deux jours et parmi ceux-ci, deux ont franchi la barre du 7 (7,0 et 7,5), conformément aux probabilités.

Ce mois peut donc être qualifié comme ayant été dans la normale statistique, mais la concentration importante des secousses presque au même endroit a tout de même de quoi étonner. Ces activités nous renseignent toutefois sur certains comportements de la croûte terrestre. Lorsque des régions ont vécu des épisodes de calme relatif comme ce fut le cas pour la région au Nord et au nord-est de l’Australie avant la récente reprise des activités s’ensuit une concentration de plusieurs séismes d’importance. Toutefois, la Terre aurait pu se déchirer d’un seul coup, ce qui aurait engendré un cataclysme comme on en a connu en 2004 et 2011 avec des secousses de magnitude 9,1 et 9,0.

magnum_f

Un séisme d’une telle ampleur survient en moyenne une fois aux dix ans, mais savoir l’endroit où il se produira relève d’une science très inexacte. J’ai déjà ciblé la côte ouest de l’Amérique du Nord dans mon article sur la catastrophe Cascadia. Toute la région citée en début d’article reste toutefois le lieu le plus probable où surviendrait un tel événement. Cependant, on ne peut oublier de regarder en direction de régions moins fébriles, mais tout aussi susceptibles d’accumuler de grandes quantités d’énergie comme le long de la côte ouest de l’Amérique du Sud, les Caraïbes, l’Alaska, la Russie orientale et même l’Europe orientale et le Moyen-Orient.

Heureusement, nous prenons de plus en plus de précautions pour protéger la population des effets néfastes engendrés par ces catastrophes naturelles, mais jamais celles-ci n’empêcheront totalement des destructions massives et des pertes de vie en grand nombre. Le dernier tsunami survenu aux Célèbes en septembre dernier met fortement en lumière les faiblesses de nos protocoles d’intervention où les alertes au tsunami ont été levées juste avant son arrivée sur les côtes, tuant du même coup des milliers de riverains!

7906530_5a3de780-c3cf-11e8-bfc0-d34ee9c61331-0

Puisque la croûte terrestre ne cesse et ne cessera de se déplacer, de se fracturer, de se frotter et de collisionner, nous pouvons affirmer avec certitude que les séismes surviendront en suivant des lois de probabilités logarithmiques telles qu’actuellement définies et que ceux-ci continueront de nous faire trembler… de crainte et de tous nos membres.