Déboulonner la création spontanée d’univers parallèles

D’entrée de jeu, je vous avise que je ne remets pas en question dans cet article la possibilité d’existence d’univers parallèles, mais seulement de la façon dont parfois on envisage leur création.

Le concept d’univers parallèles à celui que l’on connait, le nôtre, est devenu sérieux dans la tête des physiciens avec les travaux du mathématicien Hugh Everett.

Il existe des tas de façons d’imaginer des univers parallèles, mais la plus populaire reste celle montrée à l’écran dans la série «Fringe». On parle d’un ou plusieurs univers presque en tout point semblables au nôtre à quelques exceptions près.

2893466-fringe-tv-series-tv___people-wallpapers

Par exemple, on imagine un autre univers semblable au nôtre, mais dans lequel les nazis auraient gagné la Seconde Guerre mondiale, ou encore un monde où John F. Kennedy n’aurait pas été assassiné. Ensuite, on extrapole une suite plausible.

Le problème se situe dans l’évolution de ces univers dans leur passé. Comment ces univers auraient-ils pu rester identiques au nôtre jusqu’à un point de divergence quelconque? Pourquoi ce point de divergence ne s’est-il pas produit bien avant?

Si on admet le principe de divergence, pourquoi se limiter à un seul point de séparation? Pourquoi pas mille, un million, un milliard, une infinité? Le concept d’un ou de plusieurs univers parallèles maintenus identiques au nôtre durant des milliards d’années et qui divergeraient tout à coup n’a donc aucun sens. C’est comme imaginer deux bonbonnes de gaz identiques où tous les atomes à l’intérieur se comporteraient de façon parfaitement identique à leur homologue durant des temps immémoriaux et que tout à coup l’un d’entre eux ne suivrait pas le tracé de son équivalent dans la seconde bonbonne.

marius-vieth8

On comprend facilement que les atomes formant des gaz possèdent des comportements aléatoires et chaotiques. Même si les deux bonbonnes et leur contenu partaient d’un moment où ils étaient parfaitement identiques, à la toute première fraction de seconde de leur évolution, plus aucune paire d’atomes homologues ne se retrouverait au même endroit à l’intérieur de leur bonbonne respective.

Imaginez maintenant tous les atomes de notre univers qui seraient capables d’une telle prouesse avec ceux d’un univers parallèle, et ce depuis le début de leur histoire commune, donc 13,8 milliards d’années. Si les univers parallèles existent, ils ne peuvent pas ressembler au nôtre à cause des divergences infinies qui se seraient produites dans le passé.

La physique quantique nous a montré que l’univers n’est pas déterministe. Ainsi, ce genre de tracé parallèle continu entre deux univers est impossible.

La riposte des scientifiques fut d’imaginer qu’un tout nouvel univers se crée spontanément au moment d’un choix. Si je tourne à gauche ou si je tourne à droite, ces deux possibilités créent la divergence qui engendre deux univers identiques en tout point, sauf que dans un cas, l’évolution se poursuivra avec mon premier choix et dans le deuxième univers ma vie prendra le second tournant.

multivers-physique-temps.jpg

Mais d’où proviendrait l’énergie nécessaire à créer ces tout nouveaux univers remplis soudainement de toute cette masse nouvelle (E = mc2) et déjà parfaitement ordonnés exactement comme le premier? Et qui, ou quoi, peut faire un choix qui engendre un nouvel univers? Seulement l’humain? Un primate a-t-il ce privilège? Et une souris? Une bactérie? Un brin d’ADN? Une molécule? Un atome?

Et lorsqu’un choix contient mille possibilités différentes, ça créerait mille univers? Et si le choix contient des milliards de possibilités, comme le choix des trajectoires possibles? Lorsque je tiens le volant de ma voiture, je choisis consciemment ou inconsciemment de le tourner légèrement, mais combien légèrement? Un peu, un peu plus, un peu moins, ma main peut prendre des positions infinies correspondant chacune à un choix différent qui créerait autant d’univers qu’il y a de positions possibles de ma main sur ce volant. Et là, je ne parle que d’une seule correction de trajectoire. Et quel est le temps de latence entre deux choix permettant ou non de créer un nouvel univers parallèle? Un siècle, un an, une journée, une seconde, une microseconde, une femtoseconde?

univers-paralleles

Penser que des univers parallèles se créent à partir d’un choix n’a aucun sens puisque c’est le concept même du choix et de ses différentes possibilités qui y sont rattachées qui n’a aucun sens.

On a mis au défi certains promoteurs de cette théorie. S’ils y croyaient vraiment, ça ne devrait pas les déranger de se suicider puisqu’ils existent dans une multitude d’autres univers. Étrangement, aucun n’a semblé vouloir y croire jusqu’à ce point.

Vagues scélérates

Évitez de confondre une vague produite par un tsunami et une vague scélérate. Leurs processus de création ne se comparent en rien et on ne les retrouve pas du tout aux mêmes endroits.

Vous voguez en pleine mer, les vagues tout autour de votre navire paraissent normales. Tout à coup, l’horizon devant vous devient noir. Un mur d’eau semble se rapprocher de vous. De 20 à 30 mètres de hauteur, le record rapporté fait état d’un monstre de 33 mètres, cette vague apparait non seulement anormale par sa hauteur, mais aussi par sa forme.

Elle ne ressemble en rien à une houle que votre bateau parvient toujours à gravir pour redescendre de l’autre côté. Non, cette eau vous arrive dessus en formant une paroi presque verticale. Les chances de vous en sortir indemne se réduisent à néant, car votre navire est condamné à subir un terrible choc pour lequel il n’a jamais été conçu, peu importe sa grosseur.

Vague Scélérate - Vue d'artiste - Rogue Wave - Artist view

Les vagues scélérates constituèrent un mythe jusqu’au milieu du XXe siècle et elles furent acceptées comme étant réelles par les scientifiques durant les années 1990. Oui, ces derniers se retranchaient derrière leurs équations linéaires qui prédisaient l’émergence d’une vague de cette amplitude aux 10000 ans!

omae_135_3_031108_f008

Les choses changent le 1er janvier 1995 quand la plateforme pétrolière Draupner en mer du Nord enregistre la hauteur d’une vague venue la percuter à 25,6 mètres de hauteur. Pour qu’une vague soit appelée «scélérate», elle doit mesurer plus de 2,1 fois la hauteur significative Hs des vagues de l’endroit. Celle-ci correspondait à 2,37 fois cette hauteur et elle représentait la première preuve béton de l’existence de ces monstres incompréhensibles.

Aujourd’hui, les vagues scélérates avérées, les scientifiques se défendent d’avoir toujours cru les récits de ces capitaines chevronnés, mais ils tentent en réalité de faire disparaitre les preuves de leur ancien dédain lorsqu’ils les traitaient tous de menteurs et d’ivrognes tandis qu’eux-mêmes n’avaient jamais posé les pieds sur un navire en plein océan durant une tempête.

On a pensé détenir la cause de leur formation en analysant des vagues le long de la côte de l’Afrique du Sud. Le fort courant vers l’ouest associé à des vents opposés parviennent à créer des vagues de hauteur dépassant parfois la cote 2,1 Hs. Toutefois, les témoignages de vagues scélérates apparues très loin des courants marins ont mis à mal cette théorie reléguée depuis à un phénomène de diffraction.

CapBonne-Courant

Les vagues scélérates ne partagent pas toutes les mêmes caractéristiques. Hormis leur taille inhabituelle et leur forme quasi verticale, leur direction peut varier d’une vingtaine de degrés par rapport aux autres vagues. Elles peuvent aussi survenir par paquet de trois et sont alors appelées «les trois sœurs».

En anglais, ils utilisaient le terme «freak wave», mais cette désignation semble vouloir disparaitre au profit de la «rogue wave».

Ce type de vague crée des pressions énormes sur les structures métalliques des navires marchands et de croisière, dix fois plus importantes que celles prises en considération lors de leur conception. C’est donc dire qu’aucun bateau ne leur est invincible. Les vagues frappent de plein fouet le château des plus grands navires, brisant leurs vitres et les commandes de navigation. On estime la perte d’un cargo par année due à ces vagues apparues de nulle part.

Mais comment se forment-elles? Une réponse a surgi d’un tout autre domaine d’expertise, comme pour la résolution de plusieurs énigmes scientifiques. Les vagues auraient un comportement linéaire bien connu et maitrisé, mais elles auraient également un comportement non linéaire décrit par l’équation de Schrödinger de la physique quantique.

ob_c98bf6_schrodingerequation1

Imaginez un train d’ondes, ce sont les vagues. Tout à coup, pour des raisons restées mystérieuses, l’une d’elles commence à pomper l’énergie de ses deux voisines, faisant baisser leur hauteur au profit de la sienne qui s’élève anormalement. Un mur d’eau vient de se créer devant vos yeux. On sait que ce processus existe, on ignore encore dans quelles circonstances il se déclenche.

Rajoutez à ce concept de pompage énergétique la probabilité de superposition lorsque deux trains de vagues de directions différentes interfèrent et vous obtenez des vagues dépassant largement les 2,1 Hs.

Les structures élevées des navires n’étant pas conçues pour résister à de fortes pressions, une vague scélérate peut faire couler n’importe quel navire en quelques minutes, comme cela survint au réputé insubmersible (un autre!) cargo allemand München le 12 décembre 1978 en Atlantique Nord.

Rhine_Forest-1_Port_of_Rotterdam_24-Feb-2006.jpg

Avec l’avènement des satellites radar, les vagues des océans du monde sont constamment mesurées et la fréquence des scélérates se situe bien au-delà de tout ce qu’on avait cru possible. Il n’est pas rare d’en trouver quelques-unes en train de se déchainer simultanément sur l’une ou sur plusieurs mers du monde.

L’ancienne estimation d’une seule vague scélérate par dix mille ans montre jusqu’à quel point les scientifiques peuvent parfois se tromper lourdement et ils devraient, du moins j’espère, gagner en humilité. Ça leur ferait un bien fou de croire aux humains leur racontant des expériences vécues et de prendre l’air en leur compagnie plutôt que de rester enterrés au fond de leur bureau à tripoter avec concupiscence leurs équations fétiches inadéquates, mais combien rassurantes!

La catastrophe Cascadia

On pourrait croire à une rumeur, comme il en existe des milliers sur internet provenant de gens en mal de célébrité ou de revenus provenant d’une vidéo mal foutue mise sur YouTube.

Pourtant, ce dont je vais vous parler n’est pas du tout une farce ou une rumeur infondée et elle concerne une catastrophe naturelle encore plus importante que celle ayant engendré un tsunami dévastateur en Indonésie en 2004, mais cette fois-ci, le malheur frappera l’ouest du Canada et des É.-U.

Pâtiront de ce cataclysme, les villes populeuses de Vancouver, Seattle, Portland et Tacoma. Cependant, des dégâts majeurs et des pertes de vies par dizaines de milliers se produiront sur une longueur de 700 km le long de la côte ouest-nord-américaine. Les autorités des deux pays sont au courant depuis un bon bout de temps, mais on n’évacue pas des millions de personnes réparties dans une région aussi grande que la France sans raison évidente à très court terme.

seisme

Je parle d’un séisme comme nous en avons peu connu. Les experts évaluent la magnitude du séisme déjà nommé Cascadia à 9,2 sur l’échelle Richter. En comparaison, le méga séisme de 2004 avait une magnitude de 9,0. Le cataclysme Cascadia correspondrait au troisième plus important séisme enregistré de notre histoire.

Pourquoi cette prévision n’est-elle pas une rumeur? Voici les faits. En l’an 1700, un terrible tsunami a dévasté le Japon ainsi que la côte ouest-américaine. Des légendes amérindiennes et des écrits japonais en ont attesté. Les géologues ont pu relier ces deux événements à un seul cataclysme de magnitude approximative de 9,0 survenu près des côtes américaines. D’autres cataclysmes d’amplitudes comparables se sont produits au même endroit à des époques plus lointaines. Ces séismes de très grandes amplitudes attestées par des preuves géologiques laissées par les tsunamis ont une récurrence d’environ 240 ans.

796446.jpg

Ainsi, autour des années 1940, un autre séisme de cette nature aurait dû se produire, mais ce ne fut pas le cas. Ce retard de 78 ans augure très mal puisque l’énergie continuant de s’accumuler à un rythme constant, lors de sa libération, elle en sera d’autant plus importante, de là l’évaluation du 9,2, une prévision très réaliste vu la longueur importante de 700 km de la rupture qui l’engendrera.

De fait, la cause de ces séismes de grande amplitude est bien connue. Le restant d’une vieille plaque tectonique nommée Juan de Fuca plonge sous la plaque nord-américaine qui se déforme sous l’énorme pression occasionnée par le frottement des plaques l’une sur l’autre. Lorsque l’élasticité de la plaque nord-américaine atteindra son point de rupture, elle décrochera en libérant toute l’énergie qu’elle aura accumulée durant ces 318 années le long des 700 km que mesure la plaque Juan de Fuca (ligne rouge).

Cascadia1.pngLa Colombie-Britannique et les états américains de Washington et de l’Oregon seront les premiers touchés par ce séisme, mais aussi par le tsunami dévastateur qui frappera les côtes seulement une quinzaine de minutes après le méga tremblement de terre. Bien peu de gens des basses altitudes auront le temps et l’opportunité de fuir vers des lieux surs à hauteur suffisante pour éviter les flux et reflux meurtriers.

Les organismes comme l’USGS (US Geological Survey)) et le FEMA (Federal Emergency Management Agency) ne peuvent rien faire pour éviter cette catastrophe. Ils installent des pancartes le long des côtes pour indiquer aux gens vers où s’enfuir. Ils organisent les futurs secours, mais s’ils voulaient réduire de façon importante les victimes, il faudrait évacuer les habitants de la côte ouest-nord-américaine sans connaitre pour combien de temps. On parle donc d’un déménagement permanent et non d’une simple évacuation. Puisque cela ne se produira pas et que le séisme frappera sans prévenir, le nombre de victimes sera conséquent.

Photos : geide.asso.frsciencealert.comexpress.co.uk

Classifications du niveau d’évolution des civilisations

Plusieurs personnes ont défini des niveaux de civilisation permettant de cataloguer leur degré d’évolution. Même moi, je m’y suis mis avec mon échelle Keaq inventée pour les besoins d’une nouvelle que j’ai écrite en 2015.

La plus idiote de ces classifications et malheureusement l’une des plus connues, non ce n’est pas la Keaq, vilain lecteur, c’est la Kardachev, du nom de son inventeur, sûrement un imbuvable camarade soviétique rouge sur la vodka qui en fit la publication lors d’une conférence en 1964, donc avant la crise du pétrole de 1973.

Elle possède seulement trois échelons.

I. La civilisation capte et consomme 100 % de l’énergie de sa planète
II. La civilisation capte et consomme 100 % de l’énergie de son étoile
III. La civilisation capte et consomme 100 % de l’énergie de sa galaxie

 

alien-sphere-dyson_5498763

Construction d’une sphère de Dyson qu’utiliserait une civilisation de niveau II pour capturer l’énergie entière d’une étoile

 

Considérant l’échelle Kardachev, vous les terriens — moi je suis un extraterrestre et je me dissocie totalement de vous tous — vous n’êtes rien, niveau néant, moins mille, dans la fosse des Mariannes, au sommet des tours jumelles du World Trade Center, au même niveau qu’une bique, qu’une lamproie, qu’une éponge, qu’une amibe. Les 4 dernières comparaisons ne sont pas une insulte de ma part, mais une réalité selon la classification Kardachev.

Ouais, comme vous pouvez le voir, l’échelle Kardachev est un peu réductrice pour les populations qui croient valoir quand même un petit quelque chose au-dessus du zéro, comme les humains, genre.

Ma principale critique concernant cette classification est qu’elle possède beaucoup trop peu d’échelons dans son ensemble, ce qui engendre des défauts majeurs.

1. L’absence d’échelons sous le premier niveau
2. Les fossés abyssaux séparant deux échelons
3. La forte improbabilité de l’existence de l’échelon III dans l’Univers
4. Rien ne peut capter la totalité d’une énergie disponible
5. Une civilisation vraiment très avancée dépense peut-être beaucoup moins d’énergie que des civilisations incapables de bien la maitriser et qui la gaspillent, donc sous-évoluées.

Dans le passé, Carl Sagan avait déjà émis des commentaires défavorables à son égard. Plus récemment, le vulgarisateur scientifique Michio Kaku parlait de remplacer l’énergie dépensée par une échelle basée sur l’économie du savoir. Mais là, on ne parle plus du tout de l’échelle de Kardachev. Aussi bien prendre la classification Keaq, tant qu’à faire ! Mais là, j’empiète sur un autre article.

Le pied d’un fantôme dans la bouche

Brian Cox, un scientifique du Cern vient de faire une déclaration hors de son domaine d’expertise. C’est toujours risqué de tenter une incursion dans une autre discipline en utilisant ses seules connaissances liées à sa formation.

Il affirme que les fantômes n’existent pas, sinon le LHC, le grand collisionneur de hadrons du Cern les aurait mis en évidence. Oui, oui, vous connaissez cette machine, elle a détecté les fameux bosons de Higgs.

Tout d’abord, les détecteurs du Cern sont calibrés pour retrouver ce qu’ils tentent de découvrir et les fantômes n’étaient pas sur leur fiche de travail. Ensuite, cette machine crée tellement de données qu’il faut en éliminer la très grosse majorité pour ne conserver que celles permettant de découvrir ce que les scientifiques cherchent et une fois encore, les fantômes n’étaient pas au programme. Les données qui auraient peut-être permis de découvrir des traces de fantômes ont été jetées aux orties. Pour ces deux raisons, ce scientifique parle au travers de son chapeau.

CMS2

Puisque les fantômes passent à travers les objets, il postule qu’ils ne sont que pure énergie, donc qu’ils ne sont constitués d’aucune matière. Une fois encore, il n’utilise qu’une partie de ses connaissances. Les atomes sont constitués très majoritairement de vide. Ce qui empêche les objets de passer au travers de la matière ce sont les électrons qui se repoussent. Le vide interne des atomes peut laisser passer n’importe quoi si une entité quelconque est insensible aux forces électroniques.

Il dit ensuite que les fantômes ne peuvent exister parce que l’entropie ne permet pas qu’une forme d’énergie pure se conserve avec le temps. Il a raison, mais il omet de dire que le vide contient suffisamment d’énergie pour conserver des formes fantomatiques si elles s’abreuvent à cette source inépuisable d’énergie.

ghost-girl-street.jpg

Évidemment, il ne croit pas aux fantômes et tout argument fallacieux est utilisé comme arme de combat. Dommage, il aurait dû apprendre à s’occuper de ses oignons. Il passera peut-être à la postérité, non pour avoir démontré l’inexistence des fantômes, mais pour s’être planté le pied d’un fantôme le plus loin dans la gorge.

Personnellement, l’existence des fantômes ne me pose pas de problèmes, mais ne suscite pas chez moi un engouement démesuré. Je suis bien prêt à reconnaitre leur existence, mais je ne courrai pas leur chercher des noises afin de prouver leur réalité. Je suis donc neutre à leur sujet. Je n’ai pas écrit cet article pour tenter de défendre la thèse les accréditant. Je l’ai écrit pour démontrer comment il est toujours risqué d’utiliser une certaine forme de notoriété et une petite partie de ses connaissances en omettant sciemment l’autre partie pour faire connaitre au monde son opinion personnelle sur un sujet qui nous dépasse.

Images : srussenschuck.comwall.alphacoders.com ; destinationamerica.com

« On le fait et on se tait »

Tous ces flashs aperçus un peu partout depuis un certain temps autour de la planète sont-ils dus à des météorites ou à des débris spatiaux qui retombent sur Terre ? À mon avis, à un peu des deux sortes. Les débris spatiaux sont légion et en recevoir de plus en plus souvent sur le crâne est normal puisqu’on multiplie les vols spatiaux.

météore

De l’autre côté, jusqu’à ce jour, on a répertorié plusieurs géocroiseurs, la liste officielle n’en contient cependant que 1 889. Autant dire qu’elle est vide. C’est évident qu’il en existe un multiple important de ce nombre. Les météores qui zèbrent le ciel inopinément ne font pas partie de cette liste, sinon ils auraient été répertoriés et on aurait été alertés.

Ce qu’on oublie souvent lorsqu’on parle de débris spatiaux ou de météores c’est la fabuleuse énergie que transportent ces objets, même lorsque leur masse est modeste. Leur énergie cinétique est proportionnelle au carré de leur vitesse et lorsqu’ils pénètrent dans l’atmosphère, celle-ci peut valoir une vingtaine de kilomètres par seconde ! Même une fois en décélération par notre atmosphère, les cailloux ou les composantes de fusées peuvent facilement ravager les vitres de tout un quartier s’ils explosent avant de toucher le sol.

-360108

Par contre, je suis intrigué par quelque chose qui risquerait bien de devenir le thème d’une nouvelle conspiration.

Comme on peut le constater sur l’image en tête de cet article, le nombre de débris spatiaux est absolument faramineux, surtout en orbite basse près de la boule bleue. Le grand cercle blanc correspond aux débris sur les orbites géosynchrones, mais près de la Terre, c’est le bouchon de circulation !

Je suis à peu près certain que les compagnies gérant le lancement de nouvelles fusées se grattent la tête pour savoir sur quelle trajectoire et à quelle heure organiser le vol des prochaines fusées pour passer à travers cette mer de débris.

is_p46359_hd.jpg

Que leur reste-t-il à faire pour se donner plus de latitudes ? Nettoyer l’espace pour réduire le nombre de débris et éviter le plus possible d’en générer de nouveaux.

Mais cette opération signifie de nous faire tomber sur la tête ce qui a été lancé dans l’espace. Les risques qu’un débris cause des dommages sont faibles, mais non négligeables. Toutefois, il serait vraiment surprenant qu’une agence spatiale avoue faire exprès pour ramener des débris sur Terre sans connaitre avec précision la trajectoire d’entrée dans l’atmosphère et les risques de dégâts.

Elles s’appliquent donc à taire leur petit jeu pour ne pas causer des vagues dans la population alors que les risques sont minimes, même s’ils sont loin d’être nuls. Gestion de l’image oblige. C’est la politique du « on le fait et on se tait ».

Le coût énergétique pour écrire des bits en mémoire

Ce que je vais vous apprendre vous surprendra peut-être. Je vais donc tenter de l’expliquer le mieux possible. Considérons qu’un bit de valeur zéro correspond à une tension de zéro volt et un bit de valeur 1 correspond à une tension de 5 volts.

Commençons par donner la réponse théorique à la question posée dans le titre. Quelle puissance est nécessaire pour stocker en mémoire une certaine quantité de bits ? La question étant théorique, la réponse est en première approximation.

La puissance dépensée dans cette opération est de zéro watt. Peu importe si on écrit des zéros (0) ou des uns (1), il n’y a aucune dépense énergétique à inscrire des bits en mémoire, peu importe sa valeur. En première approximation, ça va de soi, et voici pourquoi.

Traitons le cas où il faut écrire 1 en mémoire alors que le niveau initial est à 0. Pour ce faire, vous apportez l’énergie du bloc d’alimentation vers la cellule mémoire grâce à un interrupteur électronique que vous actionnez. Une cellule mémoire possède une résistance électrique valant un chiffre astronomique qu’on qualifie d’infini. D’autre part, si la capacitance de l’unité mémoire, sa capacité d’accumuler des électrons et sa capacité d’accumuler un champ magnétique, son inductance, sont toutes les deux nulles, aucun courant ne circulera même si la tension aux bornes de l’unité mémoire deviendra 5 volts, la valeur du potentiel électrique de la source. Pour inscrire un zéro, on court-circuite simplement l’unité mémoire qui amène la valeur du bit à zéro (0).

Mais où est l’astuce ? Où est la consommation d’énergie ? La consommation d’énergie n’est pas dans l’écriture, mais dans la lecture de la valeur inscrite en mémoire. La lecture exige que l’unité mémoire soit en mesure de faire connaitre sa valeur au système de lecture. Pour ce faire, deux solutions existent. Soit l’unité mémoire a suffisamment accumulé d’électrons durant l’écriture et ainsi elle a consommé du courant durant l’écriture. Si on garde l’écriture sans consommation énergétique, l’autre solution c’est l’unité de lecture qui va devoir consommer pour lire efficacement le contenu de l’unité mémoire.

Peu importe les économies de consommation à l’écriture, quelque part dans le processus opérationnel global qui englobe les lectures, le système finira inévitablement par consommer de l’énergie tôt ou tard.

Il existe un autre domaine d’expertise où la lecture, la détection en d’autres termes, joue aux rabat-joies et c’est en physique quantique. Mais j’aborderai ce sujet dans un autre article.

Le choix

« Le choix est une illusion créée par ceux possédant le pouvoir pour ceux qui en sont privés »

Cette réplique (une traduction personnelle) vient du film « La Matrice rechargée ». Le Mérovingien lance cette affirmation à Néo quand ce dernier lui dit qu’il existe toujours un choix.

Nos choix ne sont-ils qu’apparents ? Y aurait-il un Grand Horloger qui voit tout venir et qui déplace les pilules en nous laissant l’impression qu’on a réellement choisi la pilule rouge parmi les autres ? Les autres pilules n’existaient peut-être pas réellement et notre cerveau a choisi la seule vraie parmi la seule possible.

La question du choix engendre des théories scientifiques sérieuses, mais totalement loufoques comme un dédoublement de l’Univers à chaque fois que nous ferions un choix.

Mais d’où provient l’énergie pour engendrer un second Univers semblable au premier à la différence près que l’un est constitué de mon choix A et l’autre de mon choix B ?

Par quel mécanisme ce dédoublement est-il produit ? Quel type de choix est un choix valide ou pas pour générer un nouvel Univers ? Lorsqu’on choisit parmi une liste de 200 possibilités, y a-t-il création de 199 autre Univers ?

Les scientifiques qui croient à ce genre de stupidité cherchent une solution dans des directions qui invalideraient toutes les autres théories physiques, dont celle de la conservation de l’énergie et de l’énergie requise pour structurer un Univers depuis ses débuts isotropes jusqu’à un Univers organisé et structuré comme est le nôtre à l’heure actuelle. C’est ni plus ni moins de faire intervenir un Créateur omnipotent, même s’ils se défendent bien de ça.

C’est vrai que la physique quantique pousse notre raison dans ses derniers retranchements, mais je suis convaincu qu’elle ne viole pas la loi de la conservation d’énergie ni la dépense d’énergie requise (entropie) pour créer des structures inhomogènes de plus en plus complexes.

Niels Bohr, l’un des piliers de la physique quantique, avait laissé entendre que la loi de la conservation d’énergie était violable, mais il fut débouté par la mise en place de la théorie de la chromodynamique quantique qui a fini par expliquer ce qui paraissait être une violation de la conservation d’énergie. Faut croire que certains scientifiques s’amusent à réinventer des théories violant pas juste un peu cette loi, mais la violant à des échelles plus qu’astronomiques.

Mexico et les séismes

La ville de Mexico est une mégalopole sacrément mal foutue. Bien sûr, je n’entre dans l’équation ni le soleil brûlant, ni les sites archéologiques exceptionnels, ni les piña coladas glacés et encore moins les chicas bombées. Par contre, j’y inclus les plaques tectoniques, les volcans et le type de sol.

Mexico se trouve à la jonction de quatre plaques tectoniques : les Plaques pacifique, nord-américaine, des Cocos et des Caraïbes, en plus d’être influencée par la plaque sud-américaine pas très loin. Il va sans dire que les séismes y sont fréquents et particulièrement violents. Nous en avons eu un aperçu cette semaine avec une secousse sismique évaluée à 7,1 sur l’échelle Richter.

Le tamponnage ininterrompu de ces diverses parties de l’écorce terrestre engendre la Cordillère néovolcanique, une chaine de volcans actifs dont plusieurs entourent la cité. C’est le cas du célèbre Popocatepetl situé à seulement 70 km de la grande ville. Si le panorama qu’offrent ces montagnes environnantes est particulièrement grandiose, les images des buildings effondrés, des infrastructures pulvérisées, mais surtout des gens morts, blessés ou sans-abris, nous rappellent tristement que Mexico ne sera jamais une ville sécuritaire. Et ici, rien à voir avec les risques occasionnés par les gangs de malfrats de toutes allégeances.

Mexico n’est pas la seule ville au monde à avoir été construite en zone dangereuse, d’ailleurs j’ai déjà consacré un article à Naples, mais ce qui caractérise Mexico par rapport aux autres, c’est la nature de son sol. Du sable. Instinctivement, on aurait tendance à croire que les séismes seraient moins ravageurs dans ce type de sol semblable à un coussin absorbant que sur du roc solide qui vibre très facilement à la moindre secousse. Il faut comprendre que les ondes sismiques transportent l’énergie du séisme en partant de l’épicentre vers les zones environnantes. Cette énergie se dissipe comme les ondes d’une antenne émettrice. Un sol rigide comme le roc absorbe très peu l’énergie d’un séisme. C’est pourquoi l’onde de choc est ressentie à de très longues distances, mais très faiblement en chaque point du territoire affecté.

Un séisme d’intensité équivalente se propage difficilement dans un sol meuble. Ainsi, toute l’énergie du séisme se dissipe sur une très petite surface du territoire. Les ondes de choc sont stoppées net par le sable, causant une accumulation de l’énergie à cet endroit. Autour et proche de l’épicentre, le sol se liquéfie. Il ne devient pas liquide, mais le sable acquiert un comportement comparable à du liquide. Et tout le monde sait que des bâtiments ayant leurs assises sur un liquide ne resteront pas debout bien longtemps.

Le récent séisme de Mexico nous rappelle de façon tragique que l’humain d’aujourd’hui est incapable de réfléchir à long terme. Les peuples « primitifs » de la région ont, eux, construit des édifices capables de résister aux mêmes séismes, comme le prouve le site archéologique de Teotihuacan situé à moins de 40 km de la grande ville. Il nous faudra beaucoup d’autres preuves pour que nous finissions par admettre notre bêtise et celles de nos œuvres, si jamais on en arrive là. Peu d’individus survivront aux tares de l’humanité. Ne me traitez pas de pessimiste, je suis simplement un oiseau de malheur. Personne n’oserait prendre au sérieux ce satané volatile noir ! Personne ?

Énergie ? Mais laquelle ?

Je me promène plus ou moins régulièrement sur YouTube et d’autres sites semblables pour écouter des reportages sur divers sujets. J’y vois souvent des individus totalement ignorants pérorer autour de certains principes scientifiques en croyant avoir découvert une faille majeure dans telle ou telle théorie. Ils en profitent alors pour déclarer haut et fort qu’on se fait emplir de mensonges éhontés et qu’eux seuls ont su découvrir la vérité. Un des sujets récurrents est sans conteste la fameuse loi E = mc2 de mon pote Albert.

Voici le raisonnement tenu par beaucoup de ces scientifrics. La lumière n’a pas de masse, donc dans l’équation E = mc2, m vaut zéro. Lorsqu’on multiplie n’importe quelle valeur, en l’occurrence c2, par zéro, on obtient toujours zéro. Donc l’énergie de la lumière vaut toujours zéro, ce qui est évidemment faux, tous les gens se faisant cuire la peau au soleil vous le diront. Donc la loi d’Einstein est fausse et les physiciens n’ont jamais relevé cette erreur, même après cinq années d’université à étudier comme des dingues.

À leur place, j’aurais au moins eu un petit doute sur la validité de leur raisonnement. Ce qu’ils n’ont pas cherché à savoir, c’est quelle énergie il est question dans la formule d’Einstein. Et effectivement, c’est l’« Énergie d’une masse au repos ». Il est donc tout à fait normal qu’une particule sans masse, comme le photon, ait une énergie de masse au repos valant zéro. Même Kim Jong-Un l’a compris puisqu’il ne conçoit pas ses bombes nucléaires à partir de photons.

Pour connaitre l’énergie véhiculée par une particule sans masse, on utilise la formule E = hv. La lettre h est la constante de Planck et v (lettre grecque nu) est la fréquence du photon (de l’onde électromagnétique). Puisque la fréquence v ne peut jamais être nulle et que la constante de Planck n’est évidemment pas nulle, toute onde électromagnétique possède une énergie E non nulle, même si son énergie de masse au repos vaut bien zéro.

Ce qui me sidère le plus dans tout cela, ce n’est pas l’ignorance de ceux qui tentent de discréditer les scientifiques, mais leur comportement malveillant. Plutôt que de traiter toute la communauté scientifique de charlatans devant public en déclarant qu’ils ont tous oublié la règle de l’élément absorbant de la multiplication (le zéro qui génère toujours un résultat égal à zéro), j’aurais esréré qu’ils auraient au moins dû demander conseil ou simplement ouvrir un navigateur web et effectuer une recherche que n’importe quel enfant du primaire peut exécuter avec succès. Au contraire, ils emplissent une piscine olympique d’insanités et la font avaler par la suite aux gens ayant tout juste suffisamment retenu certaines connaissances mathématiques ou scientifiques pour les croire.

Leur attitude irresponsable et condescendante n’est pas causée par une erreur qu’ils commettent, mais bien par une négligence crasse, ou pire, par une volonté de désinformer. Elle  a d’ailleurs reçu un numéro d’identification scientifique, oui oui, c’est le comportement  numéro « ID dix T ». Ou autrement écrit : « ID10T ».

 

Ma petite amie, c’est l’Univers

En physique des particules, en astrophysique et en cosmologie, lorsqu’on ne comprend pas quelque chose, on lui affuble l’épithète noir ou sombre (dark, en anglais, ils sont plus économes de mots). Énergie sombre, matière noire, trou noir, manquerait-on d’imagination ? C’est très utile, on n’a rien à prouver pourvu qu’on qualifie toutes nos incompréhensions de l’un de ces deux termes, ou même des deux. Ça semble leur donner une existence, une réalité et ça nous permet de ne pas chercher plus loin. Entendre ici, de mettre en doute nos théories actuelles.

Bon, d’accord, je charrie un peu. Si on se trouvait en présence d’un trou noir, on verrait fort probablement une forme réellement noire mate. C’est son horizon des événements (enfin un terme en physique où les mots noir et sombre sont absents).

Actuellement en physique et en cosmologie, à l’instar du langage utilisé, nous vivons des moments sombres. Selon nos lois et connaissances observationnelles actuelles, plus de 95 % du contenu de l’Univers nous sont totalement inconnus. Aucune particule élémentaire faisant partie du bestiaire actuel ne peut expliquer comment il se fait que les étoiles des galaxies ne s’écartent pas les unes des autres, les galaxies tournant trop vite sur elles-mêmes pour préserver la cohésion de l’ensemble selon la loi de la gravitation d’Einstein (relativité générale).

Ensuite, on observe que l’Univers a entamé une phase d’expansion accélérée, ce qui aurait pour effet de le refroidir de plus en plus vite. Mais cet effet oblige la présence d’une énergie compensant la force gravitationnelle qui, elle, cause nécessairement une décélération de la vitesse des objets célestes. Mais rien de connu n’expliquerait cette fameuse énergie répulsive. Ouais, il y a bien l’énergie du vide, mais lorsque nos calculs engendrent une différence de l’ordre de 10 à l’exposant 120 (un nombre composé de 121 chiffres) par rapport aux observations, on peut dire qu’on ne comprend rien de rien à cette énergie répulsive sombre.

Si l’on fait le bilan, matières et énergies connues composent à peine 5 % de l’Univers observé. La matière noire ferait 27 % de son contenu total et l’énergie sombre, un joli 68 %. Ainsi, 95 % de notre Univers nous sont totalement incompréhensibles. Étrangement, 95%, c’est la valeur correspondant exactement au taux de mon incompréhension des pensées de ma petite amie. Tout est dans tout. C’est sûrement le côté fractal de l’Univers. Ça ne m’aide pas à mieux la comprendre, mais à tout le moins à mieux l’accepter puisqu’elle est l’image miniature de notre Univers tout entier.

Wow, dernière grande nouvelle, ma théorie concernant les similitudes fractales entre l’Univers et ma petite amie s’est confirmée. Depuis qu’elle a lu ce texte, son attitude s’est grandement refroidie, elle me démontre une sombre et puissante énergie répulsive et elle est d’une humeur noire massacrante. Alors, lorsqu’elle m’a posé la question à savoir si j’aime l’Univers tel qu’il est, soyez certain que je lui ai répondu OUI sans hésiter. Je sais maintenant pourquoi certains mystères de l’Univers resteront pour toujours et à jamais dans la zone d’ombre. Un gars pas fou, ça surveille ses intérêts personnels !