Séismes, un mois en apparence normal

Depuis le dernier mois, l’activité sismique d’importance, c’est-à-dire 6,0 et au-delà sur l’échelle Richter, est essentiellement concentrée dans la région de l’Indonésie, de la Papouasie – Nouvelle-Guinée, des iles Fidji, du Vanuatu, de la Nouvelle-Calédonie, des iles Salomon et toute cette région située au Nord et au nord-est de l’Australie, aux jonctions de la plaque tectonique australienne avec les plaques pacifique, philippine et eurasienne. L’Australie poursuit son périple océanique au rythme de 6 à 7 cm par année vers des latitudes plus clémentes et pour ce faire, elle bouscule allègrement les joueurs qui occupent actuellement le terrain.

Séismes-201810.png

D’autres tremblements de terre d’importance se sont produits en Russie orientale (iles Kouriles) et en Alaska (iles Aléoutiennes). Enfin, quelques séismes secondaires, mais assez inquiétants à cause de la population environnante, ont frappé le Guatemala à 5,7 et Haïti à 5,9.

Je constate dans le dernier mois le maintien de la moyenne d’un séisme d’importance survenant tous les deux jours et parmi ceux-ci, deux ont franchi la barre du 7 (7,0 et 7,5), conformément aux probabilités.

Ce mois peut donc être qualifié comme ayant été dans la normale statistique, mais la concentration importante des secousses presque au même endroit a tout de même de quoi étonner. Ces activités nous renseignent toutefois sur certains comportements de la croûte terrestre. Lorsque des régions ont vécu des épisodes de calme relatif comme ce fut le cas pour la région au Nord et au nord-est de l’Australie avant la récente reprise des activités s’ensuit une concentration de plusieurs séismes d’importance. Toutefois, la Terre aurait pu se déchirer d’un seul coup, ce qui aurait engendré un cataclysme comme on en a connu en 2004 et 2011 avec des secousses de magnitude 9,1 et 9,0.

magnum_f

Un séisme d’une telle ampleur survient en moyenne une fois aux dix ans, mais savoir l’endroit où il se produira relève d’une science très inexacte. J’ai déjà ciblé la côte ouest de l’Amérique du Nord dans mon article sur la catastrophe Cascadia. Toute la région citée en début d’article reste toutefois le lieu le plus probable où surviendrait un tel événement. Cependant, on ne peut oublier de regarder en direction de régions moins fébriles, mais tout aussi susceptibles d’accumuler de grandes quantités d’énergie comme le long de la côte ouest de l’Amérique du Sud, les Caraïbes, l’Alaska, la Russie orientale et même l’Europe orientale et le Moyen-Orient.

Heureusement, nous prenons de plus en plus de précautions pour protéger la population des effets néfastes engendrés par ces catastrophes naturelles, mais jamais celles-ci n’empêcheront totalement des destructions massives et des pertes de vie en grand nombre. Le dernier tsunami survenu aux Célèbes en septembre dernier met fortement en lumière les faiblesses de nos protocoles d’intervention où les alertes au tsunami ont été levées juste avant son arrivée sur les côtes, tuant du même coup des milliers de riverains!

7906530_5a3de780-c3cf-11e8-bfc0-d34ee9c61331-0

Puisque la croûte terrestre ne cesse et ne cessera de se déplacer, de se fracturer, de se frotter et de collisionner, nous pouvons affirmer avec certitude que les séismes surviendront en suivant des lois de probabilités logarithmiques telles qu’actuellement définies et que ceux-ci continueront de nous faire trembler… de crainte et de tous nos membres.

Gras rance, rançon au gras

On a tous humé l’odeur d’une huile ou d’un beurre rance. Ce relent caractéristique nous renseigne de façon importante sur une propriété fondamentale des gras. Ils  piègent et emmagasinent des molécules mises à leur contact, que ces molécules viennent de leur propre décomposition ou de produits extérieurs. Pensez que le goût des aliments se transporte toujours mieux dans du gras, raison de leurs saveurs plus intenses lorsqu’on leur rajoute des huiles ou des graisses.

maxresdefault1-1

On établit le bilan de santé des cétacés en analysant leurs graisses. Les nôtres accumulent aussi tout un tas de molécules, dont plein de toxines et de poisons. Plus notre corps contient une quantité importante de graisse, plus il accumule des molécules toxiques. Ces substances sont ensuite libérées dans le corps, elles envahissent alors nos organes vitaux et les détériorent inexorablement.

obésité-854x570

L’embonpoint constitue un formidable contenant à poisons et chaque kilo de gras en trop accumule des milliers de produits indésirables qui auraient dû être éliminés par notre organisme. Alors si vous voulez maigrir, il est déraisonnable de perdre votre surpoids trop rapidement. Une diète sévère libérera une quantité trop grande de toxines dans votre corps et vos organes risquent un important choc.

obese

Il faut donc y aller de manière graduelle et continue. S’imposer trop d’exercices ne règlera pas le problème à moins d’en faire un nouveau mode de vie permanent. Car dès la fin de votre période d’exercices acharnés, votre organisme se mettra en mode « j’accumule pour affronter les prochaines dépenses d’énergie » qui ne viendront pas. Vous aurez constamment faim, vous dévorerez n’importe quoi et vous réengraisserez et accumulant encore plus de produits toxiques qu’auparavant.

AM-prendre-poids

La seule solution reste de manger moins et mieux. Vous allez malheureusement souffrir de la faim, je ne vous le cache pas. Le cerveau envoie des signaux d’alarme lorsqu’il entame ses réserves de graisse, car il a horreur de devoir se fier à ses réserves, même si elles sont imposantes. Le sentiment de faim vient en grande partie de ce processus hérité de notre instinct de survie. Elle nous pousse à chercher de la nourriture même lorsque le frigo et le garde-manger débordent, même lorsque nous pourrions vivre longtemps sur nos graisses.

soil-microbes

Car même si nous croyons avoir évolué, notre cerveau continue de penser que réussir à se nourrir n’est pas une mince tâche. Son moyen de nous stimuler à trouver des denrées est le sentiment de faim qu’il nous crée sans relâche. Cependant, avec de la nourriture à profusion à portée de main, la faim représente un caractère archaïque.

La faim ne se déclenche pas qu’à partir d’un besoin de se nourrir. Notre corps anticipe ses besoins futurs dès qu’il s’aperçoit qu’on pioche dans ses réserves. 

La faim est une rançon exigée par notre gras. Lorsqu’on cherche à se débarrasser de lui, il nous menace en créant ce sentiment quasi permanent de faux besoin.

Reprise des forts séismes

Après une accalmie des séismes de moyennes et grandes ampleurs dont je m’inquiétais, ceux-ci ont recommencé à faire trembler la Terre. Un séisme de magnitude 8,2 a secoué les iles Fidji, un autre de 7,3 est survenu au Venezuela, 7,1 au Pérou et un plus modeste, mais peut-être plus évocateur a atteint 6,2 à l’ouest de l’état de l’Oregon à la jonction des plaques tectoniques Pacifique et Juan de Fuca. Les deux mêmes plaques ont également vibré aux environs de Vancouver quelques jours auparavant.

Seisme-Fidji

Malgré la grande différence entre l’énergie dégagée par chacun de ces importants séismes, celui de 6,2 étant 100 fois moins énergétique que celui de 8,2, les deux tremblements à l’ouest de l’Oregon et de la Colombie-Britannique en plein océan Pacifique n’annoncent vraiment rien de bon.

Séisme-Oregon-1

La micro plaque tectonique Juan de Fuca est poussée par une montée de magma survenant dans le Pacifique, lieu des deux séismes récents, en direction de la côte ouest-américaine. Ce faisant, elle s’enfonce sous ce continent par un phénomène appelé «subduction». Les deux plaques se frottent et se déforment sans coulisser jusqu’à leur limite de friction en emmagasinant toute l’énergie de cette pression.

Earthquake

Dans mon article sur les Cascades, j’explique l’origine de cette chaine de volcans de l’Ouest américain, dont fait partie le mont St Helens, et sur le mécanisme qui les crée et les fait entrer en éruption. Une faille entre deux plaques tectoniques, la Juan de Fuca et la plaque nord-américaine n’ont pas coulissé depuis des lustres et on considère son décrochage comme hautement prévisible à court terme. Puisqu’elle s’est tenue calme depuis plus longtemps que la normale, l’énergie emmagasinée y est plus grande, ce qui se traduirait probablement par une série de séismes majeurs. On évoque régulièrement une magnitude de 9+.Il-y-a-cinq-ans-un-tsunami-devaste-le-Japon.jpg

Ce faisant, un tsunami monstrueux dévasterait les côtes et les basses terres environnantes des états de Washington, Oregon, Californie aux É.U.A. et de la Colombie-Britannique au Canada.

Est-ce un signe avant-coureur d’un monstre en train de se réveiller d’une trop longue dormance et qui fera bientôt tonner son existence longtemps oubliée?

maxresdefault-2

Pour comprendre l’épée de Damoclès, il faut remonter à l’année 1700. Quelques légendes amérindiennes font état dudit monstre qui avait frappé à cette époque. L’oiseau du tonnerre a guerroyé avec la baleine, causant les grondements, les tremblements de la terre et les inondations titanesques. Cependant, ce sont dans les annales japonaises de janvier 1700 qu’on retrouve une description précise de l’événement survenu bien loin de là !

Un tsunami modeste, mais qui a tout de même ravagé une série de villages côtiers, atteint le Japon et est répertorié. Sa moyenne amplitude peut correspondre à deux causes distinctes. Un séisme proche des côtes nippones aurait soulevé une colonne d’eau relativement faible. Ou encore, un séisme de forte ampleur a sévi de l’autre côté de l’océan Pacifique et s’est amoindri en le traversant entièrement jusqu’à rejoindre le Japon.

cascade-tsunami

Si le tsunami a bel et bien été répertorié au Japon, aucun signe d’un séisme préalable n’a été perçu. La thèse d’un fort séisme trans pacifique prend alors des galons. Des traces géologiques viendront confirmer cette hypothèse. Sa magnitude sera évaluée entre 8,7 et 9,2!

Le 26 janvier 1700 vers 9 h, la terre tremble durant plus de quatre minutes comme aucune mémoire d’homme n’a conscience. La rupture de la faille s’est produite sur une longueur de plus de 1000 kilomètres pour un décrochage de 20 mètres.

Atwater.idd

La moyenne de 590 ans séparant des séismes majeurs dans la région est depuis longtemps dépassée. Puisque le glissement des plaques s’effectue à vitesse presque constante, soit 40 mm/an, un super séisme à venir n’est pas une hypothèse, mais une certitude.

181-News_Image-3

Contrairement à la situation survenue en 1700 où une quantité relativement faible d’Amérindiens auraient péri dans la tragédie, aujourd’hui, une bonne dizaine de millions d’individus peuplent cette même partie du monde. La sécurité civile anticipe des pertes de 3 à 4 habitants pour 1000 en considérant un séisme de 9+ et le tsunami y correspondant. Pour une population touchée de 10 millions, les pertes pourraient se chiffrer à 40000 individus.

Tsunami

On est encore bien loin du bilan de 250 000 décès survenus lors de la catastrophe du 26 décembre 2004 dans l’océan Indien, toutefois, les conditions technologiques humaines entre les deux événements ne se comparent en rien. Pour l’Amérique du Nord, cette hécatombe constituerait la pire catastrophe à jamais avoir eu lieu sur tout le continent. Les pertes matérielles seraient, elles aussi, correspondantes au quantités d’éléments structuraux, industriels, commerciaux et résidentiels qui s’y trouvent.

F03A2CD5-DFD9-45B8-84E7CE098C4E0D91

De l’événement de 1700 presque complètement disparu de la mémoire des humains, celui qui surviendra persistera bien au-delà de 300 ans… si notre espèce peuple encore la Terre en ces temps-là.

C’est la faute aux ondes gravitationnelles

Il existe une nouvelle mode depuis quelque temps, celle de placer les mots «ondes gravitationnelles» partout où l’on voit des rides ou des vagues. Les nuages forment des moutons parallèles, c’est l’effet des ondes gravitationnelles. Des rides dans des dunes, les ondes gravitationnelles. Des rides sur l’eau, les ondes gravitationnelles.

onde_gravit_spl_cosmos_72dpi_recadree

Les ondes gravitationnelles ne sont pas visibles à notre échelle et ne laissent pas de traces apparentes de leur passage. Elles déforment l’espace d’une manière microscopique lorsqu’elles se propagent à la vitesse de la lumière. Depuis peu, on les détecte en faisant voyager un rayon laser entre des miroirs distants de plusieurs dizaines de kilomètres et l’on réussit à peine à mesurer une variation infinitésimale de cette longueur. Si elles faisaient des vagues dans des dunes, soyez certain que nous serions en train d’être pulvérisés par deux trous noirs en coalescence dans la banlieue proche de la Terre.

Alors, non, les ondes gravitationnelles ne font pas rider les dunes ni ne dessinent des rouleaux dans les nuages. De bien grandes bêtises proférées par des gens ignorant tout de ce phénomène qui fut prédit par Albert Einstein un an après avoir complété sa théorie de la relativité générale. Il publia un article à ce sujet dans une revue scientifique en 1916, mais il a quand même toujours fortement douté de leur existence, changeant plusieurs fois d’idée par la suite. Une fois de plus, son instinct ne l’avait pas trompé.

images-5

Les ondes gravitationnelles ne ressemblent pas aux ondes électromagnétiques connues qui utilisent les photons pour transporter l’énergie. Ce sont donc des ondes de gravitation qui déforment l’espace-temps lorsqu’elles irradient à partir de leur lieu d’origine.

Il est raisonnable de penser qu’une particule joue le même rôle que le photon, dans leur propagation, ce serait le graviton. Lui aussi se déplacerait à la même vitesse c que son homologue électromagnétique. Mais si les ondes gravitationnelles ont été récemment détectées et confirmées, il n’en fut pas de même pour le graviton qui reste une particule hypothétique.

Les déformations spatiales exigent de l’énergie, on ne plie pas l’espace gratuitement. Ainsi, deux trous noirs qui se tournent autour avant de fusionner perdront une partie de leur masse transportée sous forme d’énergie par les ondes gravitationnelles.

Ligo_Virgo_1

La première détection d’ondes gravitationnelles a eu lieu le 14 septembre 2015 par les trois détecteurs LIGO et les scientifiques ont pu le confirmer le 11 février 2016, un siècle après la parution de l’article d’Einstein. Mais ce qui a rendu cette détection si spectaculaire est le fait d’avoir situé dans l’espace le lieu d’où provenait la production de ces ondes.

Couplée à d’autres observations résalisées par des télescopes traditionnels détectant des effets électromagnétiques complémentaires, ensemble, elles ont permis de découvrir la fusion de deux trous noirs de 36 et 29 masses solaires survenue à une distance de 1,3 milliard d’années-lumière. Il en est résulté un trou noir de 62 masses solaires. Ils ont donc perdu 5 % de leur masse, l’équivalent de trois fois la masse de notre Soleil, transformée en énergie qui a déformé l’espace jusqu’à nous. À leur arrivée sur Terre, le train d’ondes a fait osciller nos dimensions spatiales de seulement quelques zeptomètres (10-21 m). C’est tout dire sur la difficulté de mesurer ces variations infinitésimales de compression et dilatation d’espace.

News-Feb11_LIGO-image2

Depuis, d’autres détections ont eu lieu, confirmant la première tout en donnant du pep à d’autres détecteurs en cours de construction. Bientôt, nous posséderons tout un réseau de détecteurs capables de bien mesurer et localiser les sources de ces émissions.

Mais soyez assuré et rassuré, aucun phénomène visible n’est causé par le passage de ces vagues d’espace-temps et il vous est impossible de les sentir.

Déboulonner la création spontanée d’univers parallèles

D’entrée de jeu, je vous avise que je ne remets pas en question dans cet article la possibilité d’existence d’univers parallèles, mais seulement de la façon dont parfois on envisage leur création.

Le concept d’univers parallèles à celui que l’on connait, le nôtre, est devenu sérieux dans la tête des physiciens avec les travaux du mathématicien Hugh Everett.

Il existe des tas de façons d’imaginer des univers parallèles, mais la plus populaire reste celle montrée à l’écran dans la série «Fringe». On parle d’un ou plusieurs univers presque en tout point semblables au nôtre à quelques exceptions près.

2893466-fringe-tv-series-tv___people-wallpapers

Par exemple, on imagine un autre univers semblable au nôtre, mais dans lequel les nazis auraient gagné la Seconde Guerre mondiale, ou encore un monde où John F. Kennedy n’aurait pas été assassiné. Ensuite, on extrapole une suite plausible.

Le problème se situe dans l’évolution de ces univers dans leur passé. Comment ces univers auraient-ils pu rester identiques au nôtre jusqu’à un point de divergence quelconque? Pourquoi ce point de divergence ne s’est-il pas produit bien avant?

Si on admet le principe de divergence, pourquoi se limiter à un seul point de séparation? Pourquoi pas mille, un million, un milliard, une infinité? Le concept d’un ou de plusieurs univers parallèles maintenus identiques au nôtre durant des milliards d’années et qui divergeraient tout à coup n’a donc aucun sens. C’est comme imaginer deux bonbonnes de gaz identiques où tous les atomes à l’intérieur se comporteraient de façon parfaitement identique à leur homologue durant des temps immémoriaux et que tout à coup l’un d’entre eux ne suivrait pas le tracé de son équivalent dans la seconde bonbonne.

marius-vieth8

On comprend facilement que les atomes formant des gaz possèdent des comportements aléatoires et chaotiques. Même si les deux bonbonnes et leur contenu partaient d’un moment où ils étaient parfaitement identiques, à la toute première fraction de seconde de leur évolution, plus aucune paire d’atomes homologues ne se retrouverait au même endroit à l’intérieur de leur bonbonne respective.

Imaginez maintenant tous les atomes de notre univers qui seraient capables d’une telle prouesse avec ceux d’un univers parallèle, et ce depuis le début de leur histoire commune, donc 13,8 milliards d’années. Si les univers parallèles existent, ils ne peuvent pas ressembler au nôtre à cause des divergences infinies qui se seraient produites dans le passé.

La physique quantique nous a montré que l’univers n’est pas déterministe. Ainsi, ce genre de tracé parallèle continu entre deux univers est impossible.

La riposte des scientifiques fut d’imaginer qu’un tout nouvel univers se crée spontanément au moment d’un choix. Si je tourne à gauche ou si je tourne à droite, ces deux possibilités créent la divergence qui engendre deux univers identiques en tout point, sauf que dans un cas, l’évolution se poursuivra avec mon premier choix et dans le deuxième univers ma vie prendra le second tournant.

multivers-physique-temps.jpg

Mais d’où proviendrait l’énergie nécessaire à créer ces tout nouveaux univers remplis soudainement de toute cette masse nouvelle (E = mc2) et déjà parfaitement ordonnés exactement comme le premier? Et qui, ou quoi, peut faire un choix qui engendre un nouvel univers? Seulement l’humain? Un primate a-t-il ce privilège? Et une souris? Une bactérie? Un brin d’ADN? Une molécule? Un atome?

Et lorsqu’un choix contient mille possibilités différentes, ça créerait mille univers? Et si le choix contient des milliards de possibilités, comme le choix des trajectoires possibles? Lorsque je tiens le volant de ma voiture, je choisis consciemment ou inconsciemment de le tourner légèrement, mais combien légèrement? Un peu, un peu plus, un peu moins, ma main peut prendre des positions infinies correspondant chacune à un choix différent qui créerait autant d’univers qu’il y a de positions possibles de ma main sur ce volant. Et là, je ne parle que d’une seule correction de trajectoire. Et quel est le temps de latence entre deux choix permettant ou non de créer un nouvel univers parallèle? Un siècle, un an, une journée, une seconde, une microseconde, une femtoseconde?

univers-paralleles

Penser que des univers parallèles se créent à partir d’un choix n’a aucun sens puisque c’est le concept même du choix et de ses différentes possibilités qui y sont rattachées qui n’a aucun sens.

On a mis au défi certains promoteurs de cette théorie. S’ils y croyaient vraiment, ça ne devrait pas les déranger de se suicider puisqu’ils existent dans une multitude d’autres univers. Étrangement, aucun n’a semblé vouloir y croire jusqu’à ce point.

Vagues scélérates

Évitez de confondre une vague produite par un tsunami et une vague scélérate. Leurs processus de création ne se comparent en rien et on ne les retrouve pas du tout aux mêmes endroits.

Vous voguez en pleine mer, les vagues tout autour de votre navire paraissent normales. Tout à coup, l’horizon devant vous devient noir. Un mur d’eau semble se rapprocher de vous. De 20 à 30 mètres de hauteur, le record rapporté fait état d’un monstre de 33 mètres, cette vague apparait non seulement anormale par sa hauteur, mais aussi par sa forme.

Elle ne ressemble en rien à une houle que votre bateau parvient toujours à gravir pour redescendre de l’autre côté. Non, cette eau vous arrive dessus en formant une paroi presque verticale. Les chances de vous en sortir indemne se réduisent à néant, car votre navire est condamné à subir un terrible choc pour lequel il n’a jamais été conçu, peu importe sa grosseur.

Vague Scélérate - Vue d'artiste - Rogue Wave - Artist view

Les vagues scélérates constituèrent un mythe jusqu’au milieu du XXe siècle et elles furent acceptées comme étant réelles par les scientifiques durant les années 1990. Oui, ces derniers se retranchaient derrière leurs équations linéaires qui prédisaient l’émergence d’une vague de cette amplitude aux 10000 ans!

omae_135_3_031108_f008

Les choses changent le 1er janvier 1995 quand la plateforme pétrolière Draupner en mer du Nord enregistre la hauteur d’une vague venue la percuter à 25,6 mètres de hauteur. Pour qu’une vague soit appelée «scélérate», elle doit mesurer plus de 2,1 fois la hauteur significative Hs des vagues de l’endroit. Celle-ci correspondait à 2,37 fois cette hauteur et elle représentait la première preuve béton de l’existence de ces monstres incompréhensibles.

Aujourd’hui, les vagues scélérates avérées, les scientifiques se défendent d’avoir toujours cru les récits de ces capitaines chevronnés, mais ils tentent en réalité de faire disparaitre les preuves de leur ancien dédain lorsqu’ils les traitaient tous de menteurs et d’ivrognes tandis qu’eux-mêmes n’avaient jamais posé les pieds sur un navire en plein océan durant une tempête.

On a pensé détenir la cause de leur formation en analysant des vagues le long de la côte de l’Afrique du Sud. Le fort courant vers l’ouest associé à des vents opposés parviennent à créer des vagues de hauteur dépassant parfois la cote 2,1 Hs. Toutefois, les témoignages de vagues scélérates apparues très loin des courants marins ont mis à mal cette théorie reléguée depuis à un phénomène de diffraction.

CapBonne-Courant

Les vagues scélérates ne partagent pas toutes les mêmes caractéristiques. Hormis leur taille inhabituelle et leur forme quasi verticale, leur direction peut varier d’une vingtaine de degrés par rapport aux autres vagues. Elles peuvent aussi survenir par paquet de trois et sont alors appelées «les trois sœurs».

En anglais, ils utilisaient le terme «freak wave», mais cette désignation semble vouloir disparaitre au profit de la «rogue wave».

Ce type de vague crée des pressions énormes sur les structures métalliques des navires marchands et de croisière, dix fois plus importantes que celles prises en considération lors de leur conception. C’est donc dire qu’aucun bateau ne leur est invincible. Les vagues frappent de plein fouet le château des plus grands navires, brisant leurs vitres et les commandes de navigation. On estime la perte d’un cargo par année due à ces vagues apparues de nulle part.

Mais comment se forment-elles? Une réponse a surgi d’un tout autre domaine d’expertise, comme pour la résolution de plusieurs énigmes scientifiques. Les vagues auraient un comportement linéaire bien connu et maitrisé, mais elles auraient également un comportement non linéaire décrit par l’équation de Schrödinger de la physique quantique.

ob_c98bf6_schrodingerequation1

Imaginez un train d’ondes, ce sont les vagues. Tout à coup, pour des raisons restées mystérieuses, l’une d’elles commence à pomper l’énergie de ses deux voisines, faisant baisser leur hauteur au profit de la sienne qui s’élève anormalement. Un mur d’eau vient de se créer devant vos yeux. On sait que ce processus existe, on ignore encore dans quelles circonstances il se déclenche.

Rajoutez à ce concept de pompage énergétique la probabilité de superposition lorsque deux trains de vagues de directions différentes interfèrent et vous obtenez des vagues dépassant largement les 2,1 Hs.

Les structures élevées des navires n’étant pas conçues pour résister à de fortes pressions, une vague scélérate peut faire couler n’importe quel navire en quelques minutes, comme cela survint au réputé insubmersible (un autre!) cargo allemand München le 12 décembre 1978 en Atlantique Nord.

Rhine_Forest-1_Port_of_Rotterdam_24-Feb-2006.jpg

Avec l’avènement des satellites radar, les vagues des océans du monde sont constamment mesurées et la fréquence des scélérates se situe bien au-delà de tout ce qu’on avait cru possible. Il n’est pas rare d’en trouver quelques-unes en train de se déchainer simultanément sur l’une ou sur plusieurs mers du monde.

L’ancienne estimation d’une seule vague scélérate par dix mille ans montre jusqu’à quel point les scientifiques peuvent parfois se tromper lourdement et ils devraient, du moins j’espère, gagner en humilité. Ça leur ferait un bien fou de croire aux humains leur racontant des expériences vécues et de prendre l’air en leur compagnie plutôt que de rester enterrés au fond de leur bureau à tripoter avec concupiscence leurs équations fétiches inadéquates, mais combien rassurantes!

La catastrophe Cascadia

On pourrait croire à une rumeur, comme il en existe des milliers sur internet provenant de gens en mal de célébrité ou de revenus provenant d’une vidéo mal foutue mise sur YouTube.

Pourtant, ce dont je vais vous parler n’est pas du tout une farce ou une rumeur infondée et elle concerne une catastrophe naturelle encore plus importante que celle ayant engendré un tsunami dévastateur en Indonésie en 2004, mais cette fois-ci, le malheur frappera l’ouest du Canada et des É.-U.

Pâtiront de ce cataclysme, les villes populeuses de Vancouver, Seattle, Portland et Tacoma. Cependant, des dégâts majeurs et des pertes de vies par dizaines de milliers se produiront sur une longueur de 700 km le long de la côte ouest-nord-américaine. Les autorités des deux pays sont au courant depuis un bon bout de temps, mais on n’évacue pas des millions de personnes réparties dans une région aussi grande que la France sans raison évidente à très court terme.

seisme

Je parle d’un séisme comme nous en avons peu connu. Les experts évaluent la magnitude du séisme déjà nommé Cascadia à 9,2 sur l’échelle Richter. En comparaison, le méga séisme de 2004 avait une magnitude de 9,0. Le cataclysme Cascadia correspondrait au troisième plus important séisme enregistré de notre histoire.

Pourquoi cette prévision n’est-elle pas une rumeur? Voici les faits. En l’an 1700, un terrible tsunami a dévasté le Japon ainsi que la côte ouest-américaine. Des légendes amérindiennes et des écrits japonais en ont attesté. Les géologues ont pu relier ces deux événements à un seul cataclysme de magnitude approximative de 9,0 survenu près des côtes américaines. D’autres cataclysmes d’amplitudes comparables se sont produits au même endroit à des époques plus lointaines. Ces séismes de très grandes amplitudes attestées par des preuves géologiques laissées par les tsunamis ont une récurrence d’environ 240 ans.

796446.jpg

Ainsi, autour des années 1940, un autre séisme de cette nature aurait dû se produire, mais ce ne fut pas le cas. Ce retard de 78 ans augure très mal puisque l’énergie continuant de s’accumuler à un rythme constant, lors de sa libération, elle en sera d’autant plus importante, de là l’évaluation du 9,2, une prévision très réaliste vu la longueur importante de 700 km de la rupture qui l’engendrera.

De fait, la cause de ces séismes de grande amplitude est bien connue. Le restant d’une vieille plaque tectonique nommée Juan de Fuca plonge sous la plaque nord-américaine qui se déforme sous l’énorme pression occasionnée par le frottement des plaques l’une sur l’autre. Lorsque l’élasticité de la plaque nord-américaine atteindra son point de rupture, elle décrochera en libérant toute l’énergie qu’elle aura accumulée durant ces 318 années le long des 700 km que mesure la plaque Juan de Fuca (ligne rouge).

Cascadia1.pngLa Colombie-Britannique et les états américains de Washington et de l’Oregon seront les premiers touchés par ce séisme, mais aussi par le tsunami dévastateur qui frappera les côtes seulement une quinzaine de minutes après le méga tremblement de terre. Bien peu de gens des basses altitudes auront le temps et l’opportunité de fuir vers des lieux surs à hauteur suffisante pour éviter les flux et reflux meurtriers.

Les organismes comme l’USGS (US Geological Survey)) et le FEMA (Federal Emergency Management Agency) ne peuvent rien faire pour éviter cette catastrophe. Ils installent des pancartes le long des côtes pour indiquer aux gens vers où s’enfuir. Ils organisent les futurs secours, mais s’ils voulaient réduire de façon importante les victimes, il faudrait évacuer les habitants de la côte ouest-nord-américaine sans connaitre pour combien de temps. On parle donc d’un déménagement permanent et non d’une simple évacuation. Puisque cela ne se produira pas et que le séisme frappera sans prévenir, le nombre de victimes sera conséquent.

Photos : geide.asso.frsciencealert.comexpress.co.uk

Classifications du niveau d’évolution des civilisations

Plusieurs personnes ont défini des niveaux de civilisation permettant de cataloguer leur degré d’évolution. Même moi, je m’y suis mis avec mon échelle Keaq inventée pour les besoins d’une nouvelle que j’ai écrite en 2015.

La plus idiote de ces classifications et malheureusement l’une des plus connues, non ce n’est pas la Keaq, vilain lecteur, c’est la Kardachev, du nom de son inventeur, sûrement un imbuvable camarade soviétique rouge sur la vodka qui en fit la publication lors d’une conférence en 1964, donc avant la crise du pétrole de 1973.

Elle possède seulement trois échelons.

I. La civilisation capte et consomme 100 % de l’énergie de sa planète
II. La civilisation capte et consomme 100 % de l’énergie de son étoile
III. La civilisation capte et consomme 100 % de l’énergie de sa galaxie

 

alien-sphere-dyson_5498763

Construction d’une sphère de Dyson qu’utiliserait une civilisation de niveau II pour capturer l’énergie entière d’une étoile

 

Considérant l’échelle Kardachev, vous les terriens — moi je suis un extraterrestre et je me dissocie totalement de vous tous — vous n’êtes rien, niveau néant, moins mille, dans la fosse des Mariannes, au sommet des tours jumelles du World Trade Center, au même niveau qu’une bique, qu’une lamproie, qu’une éponge, qu’une amibe. Les 4 dernières comparaisons ne sont pas une insulte de ma part, mais une réalité selon la classification Kardachev.

Ouais, comme vous pouvez le voir, l’échelle Kardachev est un peu réductrice pour les populations qui croient valoir quand même un petit quelque chose au-dessus du zéro, comme les humains, genre.

Ma principale critique concernant cette classification est qu’elle possède beaucoup trop peu d’échelons dans son ensemble, ce qui engendre des défauts majeurs.

1. L’absence d’échelons sous le premier niveau
2. Les fossés abyssaux séparant deux échelons
3. La forte improbabilité de l’existence de l’échelon III dans l’Univers
4. Rien ne peut capter la totalité d’une énergie disponible
5. Une civilisation vraiment très avancée dépense peut-être beaucoup moins d’énergie que des civilisations incapables de bien la maitriser et qui la gaspillent, donc sous-évoluées.

Dans le passé, Carl Sagan avait déjà émis des commentaires défavorables à son égard. Plus récemment, le vulgarisateur scientifique Michio Kaku parlait de remplacer l’énergie dépensée par une échelle basée sur l’économie du savoir. Mais là, on ne parle plus du tout de l’échelle de Kardachev. Aussi bien prendre la classification Keaq, tant qu’à faire ! Mais là, j’empiète sur un autre article.

Le pied d’un fantôme dans la bouche

Brian Cox, un scientifique du Cern vient de faire une déclaration hors de son domaine d’expertise. C’est toujours risqué de tenter une incursion dans une autre discipline en utilisant ses seules connaissances liées à sa formation.

Il affirme que les fantômes n’existent pas, sinon le LHC, le grand collisionneur de hadrons du Cern les aurait mis en évidence. Oui, oui, vous connaissez cette machine, elle a détecté les fameux bosons de Higgs.

Tout d’abord, les détecteurs du Cern sont calibrés pour retrouver ce qu’ils tentent de découvrir et les fantômes n’étaient pas sur leur fiche de travail. Ensuite, cette machine crée tellement de données qu’il faut en éliminer la très grosse majorité pour ne conserver que celles permettant de découvrir ce que les scientifiques cherchent et une fois encore, les fantômes n’étaient pas au programme. Les données qui auraient peut-être permis de découvrir des traces de fantômes ont été jetées aux orties. Pour ces deux raisons, ce scientifique parle au travers de son chapeau.

CMS2

Puisque les fantômes passent à travers les objets, il postule qu’ils ne sont que pure énergie, donc qu’ils ne sont constitués d’aucune matière. Une fois encore, il n’utilise qu’une partie de ses connaissances. Les atomes sont constitués très majoritairement de vide. Ce qui empêche les objets de passer au travers de la matière ce sont les électrons qui se repoussent. Le vide interne des atomes peut laisser passer n’importe quoi si une entité quelconque est insensible aux forces électroniques.

Il dit ensuite que les fantômes ne peuvent exister parce que l’entropie ne permet pas qu’une forme d’énergie pure se conserve avec le temps. Il a raison, mais il omet de dire que le vide contient suffisamment d’énergie pour conserver des formes fantomatiques si elles s’abreuvent à cette source inépuisable d’énergie.

ghost-girl-street.jpg

Évidemment, il ne croit pas aux fantômes et tout argument fallacieux est utilisé comme arme de combat. Dommage, il aurait dû apprendre à s’occuper de ses oignons. Il passera peut-être à la postérité, non pour avoir démontré l’inexistence des fantômes, mais pour s’être planté le pied d’un fantôme le plus loin dans la gorge.

Personnellement, l’existence des fantômes ne me pose pas de problèmes, mais ne suscite pas chez moi un engouement démesuré. Je suis bien prêt à reconnaitre leur existence, mais je ne courrai pas leur chercher des noises afin de prouver leur réalité. Je suis donc neutre à leur sujet. Je n’ai pas écrit cet article pour tenter de défendre la thèse les accréditant. Je l’ai écrit pour démontrer comment il est toujours risqué d’utiliser une certaine forme de notoriété et une petite partie de ses connaissances en omettant sciemment l’autre partie pour faire connaitre au monde son opinion personnelle sur un sujet qui nous dépasse.

Images : srussenschuck.comwall.alphacoders.com ; destinationamerica.com

« On le fait et on se tait »

Tous ces flashs aperçus un peu partout depuis un certain temps autour de la planète sont-ils dus à des météorites ou à des débris spatiaux qui retombent sur Terre ? À mon avis, à un peu des deux sortes. Les débris spatiaux sont légion et en recevoir de plus en plus souvent sur le crâne est normal puisqu’on multiplie les vols spatiaux.

météore

De l’autre côté, jusqu’à ce jour, on a répertorié plusieurs géocroiseurs, la liste officielle n’en contient cependant que 1 889. Autant dire qu’elle est vide. C’est évident qu’il en existe un multiple important de ce nombre. Les météores qui zèbrent le ciel inopinément ne font pas partie de cette liste, sinon ils auraient été répertoriés et on aurait été alertés.

Ce qu’on oublie souvent lorsqu’on parle de débris spatiaux ou de météores c’est la fabuleuse énergie que transportent ces objets, même lorsque leur masse est modeste. Leur énergie cinétique est proportionnelle au carré de leur vitesse et lorsqu’ils pénètrent dans l’atmosphère, celle-ci peut valoir une vingtaine de kilomètres par seconde ! Même une fois en décélération par notre atmosphère, les cailloux ou les composantes de fusées peuvent facilement ravager les vitres de tout un quartier s’ils explosent avant de toucher le sol.

-360108

Par contre, je suis intrigué par quelque chose qui risquerait bien de devenir le thème d’une nouvelle conspiration.

Comme on peut le constater sur l’image en tête de cet article, le nombre de débris spatiaux est absolument faramineux, surtout en orbite basse près de la boule bleue. Le grand cercle blanc correspond aux débris sur les orbites géosynchrones, mais près de la Terre, c’est le bouchon de circulation !

Je suis à peu près certain que les compagnies gérant le lancement de nouvelles fusées se grattent la tête pour savoir sur quelle trajectoire et à quelle heure organiser le vol des prochaines fusées pour passer à travers cette mer de débris.

is_p46359_hd.jpg

Que leur reste-t-il à faire pour se donner plus de latitudes ? Nettoyer l’espace pour réduire le nombre de débris et éviter le plus possible d’en générer de nouveaux.

Mais cette opération signifie de nous faire tomber sur la tête ce qui a été lancé dans l’espace. Les risques qu’un débris cause des dommages sont faibles, mais non négligeables. Toutefois, il serait vraiment surprenant qu’une agence spatiale avoue faire exprès pour ramener des débris sur Terre sans connaitre avec précision la trajectoire d’entrée dans l’atmosphère et les risques de dégâts.

Elles s’appliquent donc à taire leur petit jeu pour ne pas causer des vagues dans la population alors que les risques sont minimes, même s’ils sont loin d’être nuls. Gestion de l’image oblige. C’est la politique du « on le fait et on se tait ».

Le coût énergétique pour écrire des bits en mémoire

Ce que je vais vous apprendre vous surprendra peut-être. Je vais donc tenter de l’expliquer le mieux possible. Considérons qu’un bit de valeur zéro correspond à une tension de zéro volt et un bit de valeur 1 correspond à une tension de 5 volts.

Commençons par donner la réponse théorique à la question posée dans le titre. Quelle puissance est nécessaire pour stocker en mémoire une certaine quantité de bits ? La question étant théorique, la réponse est en première approximation.

La puissance dépensée dans cette opération est de zéro watt. Peu importe si on écrit des zéros (0) ou des uns (1), il n’y a aucune dépense énergétique à inscrire des bits en mémoire, peu importe sa valeur. En première approximation, ça va de soi, et voici pourquoi.

Traitons le cas où il faut écrire 1 en mémoire alors que le niveau initial est à 0. Pour ce faire, vous apportez l’énergie du bloc d’alimentation vers la cellule mémoire grâce à un interrupteur électronique que vous actionnez. Une cellule mémoire possède une résistance électrique valant un chiffre astronomique qu’on qualifie d’infini. D’autre part, si la capacitance de l’unité mémoire, sa capacité d’accumuler des électrons et sa capacité d’accumuler un champ magnétique, son inductance, sont toutes les deux nulles, aucun courant ne circulera même si la tension aux bornes de l’unité mémoire deviendra 5 volts, la valeur du potentiel électrique de la source. Pour inscrire un zéro, on court-circuite simplement l’unité mémoire qui amène la valeur du bit à zéro (0).

Mais où est l’astuce ? Où est la consommation d’énergie ? La consommation d’énergie n’est pas dans l’écriture, mais dans la lecture de la valeur inscrite en mémoire. La lecture exige que l’unité mémoire soit en mesure de faire connaitre sa valeur au système de lecture. Pour ce faire, deux solutions existent. Soit l’unité mémoire a suffisamment accumulé d’électrons durant l’écriture et ainsi elle a consommé du courant durant l’écriture. Si on garde l’écriture sans consommation énergétique, l’autre solution c’est l’unité de lecture qui va devoir consommer pour lire efficacement le contenu de l’unité mémoire.

Peu importe les économies de consommation à l’écriture, quelque part dans le processus opérationnel global qui englobe les lectures, le système finira inévitablement par consommer de l’énergie tôt ou tard.

Il existe un autre domaine d’expertise où la lecture, la détection en d’autres termes, joue aux rabat-joies et c’est en physique quantique. Mais j’aborderai ce sujet dans un autre article.

Le choix

« Le choix est une illusion créée par ceux possédant le pouvoir pour ceux qui en sont privés »

Cette réplique (une traduction personnelle) vient du film « La Matrice rechargée ». Le Mérovingien lance cette affirmation à Néo quand ce dernier lui dit qu’il existe toujours un choix.

Nos choix ne sont-ils qu’apparents ? Y aurait-il un Grand Horloger qui voit tout venir et qui déplace les pilules en nous laissant l’impression qu’on a réellement choisi la pilule rouge parmi les autres ? Les autres pilules n’existaient peut-être pas réellement et notre cerveau a choisi la seule vraie parmi la seule possible.

La question du choix engendre des théories scientifiques sérieuses, mais totalement loufoques comme un dédoublement de l’Univers à chaque fois que nous ferions un choix.

Mais d’où provient l’énergie pour engendrer un second Univers semblable au premier à la différence près que l’un est constitué de mon choix A et l’autre de mon choix B ?

Par quel mécanisme ce dédoublement est-il produit ? Quel type de choix est un choix valide ou pas pour générer un nouvel Univers ? Lorsqu’on choisit parmi une liste de 200 possibilités, y a-t-il création de 199 autre Univers ?

Les scientifiques qui croient à ce genre de stupidité cherchent une solution dans des directions qui invalideraient toutes les autres théories physiques, dont celle de la conservation de l’énergie et de l’énergie requise pour structurer un Univers depuis ses débuts isotropes jusqu’à un Univers organisé et structuré comme est le nôtre à l’heure actuelle. C’est ni plus ni moins de faire intervenir un Créateur omnipotent, même s’ils se défendent bien de ça.

C’est vrai que la physique quantique pousse notre raison dans ses derniers retranchements, mais je suis convaincu qu’elle ne viole pas la loi de la conservation d’énergie ni la dépense d’énergie requise (entropie) pour créer des structures inhomogènes de plus en plus complexes.

Niels Bohr, l’un des piliers de la physique quantique, avait laissé entendre que la loi de la conservation d’énergie était violable, mais il fut débouté par la mise en place de la théorie de la chromodynamique quantique qui a fini par expliquer ce qui paraissait être une violation de la conservation d’énergie. Faut croire que certains scientifiques s’amusent à réinventer des théories violant pas juste un peu cette loi, mais la violant à des échelles plus qu’astronomiques.