Les sept merveilles

Saviez-vous que la seule merveille du monde antique à toujours exister est la pyramide de Khéops?

Connaissez-vous les sept nouvelles merveilles du Monde moderne? Ouais, bon, Monde moderne, faudra repasser. Ce n’est pas parce qu’elles sont plus récentes que les sept merveilles du monde antique qu’elles sont modernes pour autant.

Voici donc les sept nouvelles merveilles du monde moderne.

La grande muraille de Chine

bigstock-great-wall-of-china-at-mutiany-20488712

Le Taj Mahal en Inde

TajMahalPainting.jpg

Le Machu Picchu au Pérou

machu-picchu-pictures-hd-wallpaper-23_0.jpg

Chichén Itzá au Mexique

ChichenItza

Le Colisée de Rome

colisee.jpg

 Le Christ rédempteur à Rio de Janeiro

christ_modern_wonder_world

Pétra en Jordanie.

petra-jordan-camels-treasury

Comme je le disais, l’aspect moderne de ces constructions est relatif. On doit aussi savoir qu’entrent dans cette catégorie uniquement des merveilles créées par l’humain et pas des beautés naturelles du paysage. À ce sujet, voir la liste des sites faisant partie du patrimoine mondial de l’UNESCO.

Ma petite amie a voulu savoir si j’avais voté pour elle afin de la couronner l’une des sept merveilles du Monde. Je lui ai expliqué que n’entrent en considération que des constructions humaines. Elle m’a alors rétorqué qu’elle avait été fabriquée par deux humains.

Je n’ai pas su quoi répondre. Les femmes ont toujours le dernier mot et j’ai couché sur le sofa durant une nuit pour ne pas avoir moussé sa candidature. Tant pis pour elle et pour ses pieds gelés. J’avais raison, elle s’est levée en pleine nuit pour me dire qu’elle me pardonnait. Et vous savez ce qui survient quand une femme dit qu’elle nous pardonne. C’est leur façon de nous demander une gâterie, ou de nous en offir une, ou les deux.

Je vous parlerai de certaines des merveilles modernes dans des articles séparés en omettant volontairement de vous parler de ma plus grande merveille personnelle. Ce serait trop long.

Séismes au Québec

Comme je l’indiquais dans l’article sur le Bouclier canadien dont la province de Québec fait partie, ce vaste territoire contient des parties (cratons) parmi les plus vieilles au monde. La solidité générale du sous-sol est excellente, sauf à quelques endroits où la croûte terrestre a été malmenée par des astéroïdes qui ont atteint le sol. De plus, le long du fleuve Saint-Laurent court une faille et la géologie de la partie sud est plus fragile que les terres situées sur la rive nord.

Le comté de Charlevoix est reconnu pour avoir reçu la visite d’un astéroïde voilà 365 millions d’années. C’est aussi la région enregistrant le plus de séismes de la province. Toutefois, les sursauts de la croûte terrestre se font rares et leur énergie est plutôt réduite. En 1663, soit 55 ans après la fondation de la ville de Québec, la terre a fortement tremblé. Un séisme d’une magnitude estimée entre 6,5 et 7,2 sur l’échelle Richter a surpris tout le monde. Au lieu de l’épicentre, on nomma cet endroit «Les Éboulements» puisque d’importants éboulis s’y sont produits.

Oui, de mémoire d’homme, ce séisme fut le plus important jamais ressenti et commenté au Québec. Alors, si vous souffrez de sismophobie également nommée séismophobie, le Québec serait une terre d’accueil très appropriée pour vous. Toutefois, ce n’est pas parce que les séismes importants sont très rares que la terre ne tremble jamais. De par son sol très dur, les séismes voyagent particulièrement loin de leur épicentre, sans toutefois causer de lourds dégâts. Des bibelots et des livres qui dégringolent de leur tablette, ce n’est pas le genre de séisme pour lequel on s’inquiète outre mesure. Alors si vous tenez par-dessus tout à vos statuettes et autres œuvres fragiles, il suffit de quelques précautions mineures pour s’assurer qu’elles seront protégées.

Le dernier tremblement de terre digne de ce nom à se produire au Québec survint en 2010. Une secousse d’une magnitude de 5,0 fit frissonner le sol. En 1988, un séisme de magnitude 6,0 secoua le Québec. Celui-là, je n’ai absolument rien ressenti puisque je me promenais à dix mille mètres d’altitude en route pour San Francisco, un autre bon moyen de se prémunir contre les effets des séismes, quoique un peu dispendieux!

Mais d’où vient tant de brillance ?

Oui, bon, je tiens à remercier tous mes fans, je ne voulais pas parler de moi, mais d’un phénomène céleste. Quoi ? Oui je sais, je suis un phénomène, il me manque juste un peu de… de… célestitude, mais j’y travaille.

L’Univers n’a pas fini de nous étonner. Certains objets célestes sont si brillants qu’ils nous enlèvent les mots de la bouche, ou plutôt, ils nous forcent à inventer un mot pour les désigner.

CTA 102 est un blazar, de l’anglais Blasting Quasar. Et Quasar signifie Quasi Stellar Radio Source.

Ce serait l’objet le plus brillant jamais observé depuis la Terre. En fait, c’est un trou noir dévorant tout sur son passage et son pinceau lumineux balaye la Terre en l’illuminant parfois directement. C’est pourquoi cet objet possède une luminosité absolue dépassant tout ce qui est connu.

L’objet est loin, très loin, heureusement. Il est aujourd’hui totalement éteint si l’on se fie aux courbes d’évolution. Mais puisque sa lumière prend un certain temps à nous parvenir, dans son cas ce sont plusieurs milliards d’années, ce blazar a eu tout le temps d’épuiser le combustible à sa portée.

Aujourd’hui il trône probablement au centre d’une galaxie quelconque, en se rallumant faiblement à l’occasion, si un petit nuage de gaz a le malheur d’avoir migré trop près de lui. Il peut peser des milliard de masses solaires et être totalement invisible. Bouffi par ses gargantuesques festins d’antan, plus rien ou presque ne s’aventure maintenant dans ses parages.

Laissé tranquille, il maintient toutefois l’équilibre gravitationnel dans sa galaxie hôte en assurant une certaine cohésion d’ensemble. C’est donc dire que le vieillard garde quand même quelques atouts dans sa manche. Et rien ne lui ferait plus plaisir que de dévorer une petite jeunesse d’étoile. Ça lui mettrait instantanément le feu au …

Inversion des pôles

D’entrée de jeu, une précision très importante. Lorsqu’il est question d’inversion des pôles dans l’actualité, il est toujours question des pôles magnétiques de la Terre, jamais des pôles géographiques. Certains JeConnaisTout semblent incapables de faire la différence entre les deux types. Ils font ainsi toutes sortes de prédictions stupides à partir d’une fausse hypothèse. Les pôles géographiques ne peuvent pas s’inverser à cause de la présence de la Lune, entre autres choses. L’impact de la Terre avec un astéroïde géant pourrait les inverser, mais on crèverait pour une autre raison que l’inversion des pôles géographiques.

Ceci étant clarifié, les pôles magnétiques, eux, certainement qu’ils peuvent s’inverser et ils l’ont fait très souvent dans le passé. La dernière inversion s’est produite voilà 780 000 ans. Comment est-ce possible de savoir ces choses alors qu’il n’y avait personne pour s’en rendre compte ?

389158.jpg

Les planchers océaniques se renouvellent à partir des dorsales qui rejettent de la lave. Les particules ferromagnétiques de cette lave sont sensibles au champ magnétique terrestre et s’orientent selon ce dernier. Lorsque la lave durcit, les particules figent en conservant pour toujours leur orientation magnétique. Il ne reste qu’à lire cette orientation et à mesurer le temps géologique déterminé par la distance séparant les particules aimantées de la dorsale. Connaissant la vitesse à laquelle le plancher océanique se régénère, on obtient le temps. Voilà comment on parvient à mesurer le moment où la dernière inversion et toutes les précédentes se sont produites.

Depuis quelques années, le nord magnétique s’affole. Il se déplace très rapidement du Canada vers la Sibérie. C’est l’un des signes précurseurs d’une inversion, ou à tout le moins d’une excursion si le pôle magnétique se déplace, mais ne bascule pas. Il y a eu 7 excursions depuis le dernier basculement. Les inversions ne semblent pas suivre de périodicité. Certaines inversions furent très rapides, alors que d’autres ont pris encore plus de temps que la dernière dans laquelle nous vivons aujourd’hui. On ne peut donc pas les prédire à partir d’un cycle stable.

Mais le problème ne vient pas de l’inversion des pôles si on exclut l’obsolescence des boussoles. Il vient de l’affaiblissement du champ magnétique avant et après l’inversion. La force du champ magnétique diminue actuellement de 5 % par décennie, 10 fois plus vite qu’avant 1980. De plus, le pôle Nord magnétique se déplace actuellement de 90 km par année du Canada vers la Sibérie. Tous ces signes sont précurseurs d’une inversion qui semble survenir beaucoup plus rapidement qu’imaginée auparavant. La Terre pourrait aussi adopter plusieurs pôles magnétiques Nord et Sud durant l’inversion comme on le voit ici sur la simulation numérique.

magnetic-inversion

Un champ magnétique plus faible nous protège moins bien des rayons cosmiques et des tempêtes solaires. En haute altitude, comme en avion, nous serons laissés pratiquement sans aucune protection. Et même sur le plancher des vaches, cette protection moindre ouvrira la voie à de multiples conséquences au niveau de notre santé, dont de multiples cas de cancers.

Images : le-veilleur.com; maxicours.com; sites.google.com

Le coût énergétique pour écrire des bits en mémoire

Ce que je vais vous apprendre vous surprendra peut-être. Je vais donc tenter de l’expliquer le mieux possible. Considérons qu’un bit de valeur zéro correspond à une tension de zéro volt et un bit de valeur 1 correspond à une tension de 5 volts.

Commençons par donner la réponse théorique à la question posée dans le titre. Quelle puissance est nécessaire pour stocker en mémoire une certaine quantité de bits ? La question étant théorique, la réponse est en première approximation.

La puissance dépensée dans cette opération est de zéro watt. Peu importe si on écrit des zéros (0) ou des uns (1), il n’y a aucune dépense énergétique à inscrire des bits en mémoire, peu importe sa valeur. En première approximation, ça va de soi, et voici pourquoi.

Traitons le cas où il faut écrire 1 en mémoire alors que le niveau initial est à 0. Pour ce faire, vous apportez l’énergie du bloc d’alimentation vers la cellule mémoire grâce à un interrupteur électronique que vous actionnez. Une cellule mémoire possède une résistance électrique valant un chiffre astronomique qu’on qualifie d’infini. D’autre part, si la capacitance de l’unité mémoire, sa capacité d’accumuler des électrons et sa capacité d’accumuler un champ magnétique, son inductance, sont toutes les deux nulles, aucun courant ne circulera même si la tension aux bornes de l’unité mémoire deviendra 5 volts, la valeur du potentiel électrique de la source. Pour inscrire un zéro, on court-circuite simplement l’unité mémoire qui amène la valeur du bit à zéro (0).

Mais où est l’astuce ? Où est la consommation d’énergie ? La consommation d’énergie n’est pas dans l’écriture, mais dans la lecture de la valeur inscrite en mémoire. La lecture exige que l’unité mémoire soit en mesure de faire connaitre sa valeur au système de lecture. Pour ce faire, deux solutions existent. Soit l’unité mémoire a suffisamment accumulé d’électrons durant l’écriture et ainsi elle a consommé du courant durant l’écriture. Si on garde l’écriture sans consommation énergétique, l’autre solution c’est l’unité de lecture qui va devoir consommer pour lire efficacement le contenu de l’unité mémoire.

Peu importe les économies de consommation à l’écriture, quelque part dans le processus opérationnel global qui englobe les lectures, le système finira inévitablement par consommer de l’énergie tôt ou tard.

Il existe un autre domaine d’expertise où la lecture, la détection en d’autres termes, joue aux rabat-joies et c’est en physique quantique. Mais j’aborderai ce sujet dans un autre article.

Ingéniosité et tête de mule

L’humain est une bête étrange, souvent pour le pire, parfois pour le mieux. Cette vidéo de 5 minutes explique comment des chercheurs sont parvenus à détecter les premières étoiles qui se sont allumées dans notre Univers grâce à un détecteur de la grandeur d’une table de cuisine.

Leur projet allait à l’encontre de l’ensemble de la communauté astronomique qui refusait d’y croire, préférant attendre les télescopes géants censés être opérationnels en 2020 et au-delà, des appareils valant une fortune contre une poignée de petite monnaie pour l’expérience présentée ici.

La courte vidéo est en anglais, mais les images parlent d’elles-mêmes.

Reportage sur le sujet à Radio-Canada.ca

Une soirée à l’OM sous le signe de la puissance

Hier marquait le retour en salle montréalaise du maestro Yannick Nézet-Séguin après ses sept prestations à la barre du Metropolitan Opera de New York alors qu’il a dirigé Parsifal de Richard Wagner. Les deux œuvres présentées hier soir, le concerto pour piano n° 1 en do mineur de Medtner ainsi que la symphonie n° 4 en fa mineur de Tchaïkovski, ont été jouées en faisant appel à l’orchestre partie en tournée européenne, c’est-à-dire avec des sections cuivres et percussions enrichies.

Le concertiste-pianiste était Serhiy Salov. Il a obtenu son doctorat en musique à l’Université de Montréal et est le soliste en résidence à l’Orchestre Métropolitain pour la saison actuelle. Il possède un jeu franchement dynamique, mais il martèle les notes aiguës un peu trop à mon goût. Mis à part ce léger désagrément, sa complicité avec Nézet-Séguin était parfaite, chacun prenant bien soin de synchroniser leurs efforts. Toutefois, Nézet-Séguin a fait joué son orchestre un peu trop fort, noyant le jeu du pianiste à deux reprises malgré, ou peut-être à cause, de la puissance naturelle du soliste.

La symphonie de Tchaïkovski, quant à elle, n’a pas souffert de beaucoup de problèmes d’interprétation et permet de comprendre le succès retentissant du maestro à travers le monde. D’entrée de jeu, le premier mouvement fait éclater la salle sans perdre la grande qualité de Tchaïkovski qui est un maitre dans l’art d’enrichir une œuvre sans créer de cacophonie.

La finale était tout simplement étourdissante. Il a fait joué son orchestre à la limite de la vitesse à laquelle les musiciens peuvent projeter un son puissant avec leur instrument, surtout les cordes. À ce chapitre, des félicitations grandement méritées au violoncelliste Christopher Best qui a tout donné et a réussi à tenir la cadence tout en conservant une grande luminosité.

Comme toujours, la finale de l’œuvre a été magnifiquement interprétée. Nézet-Séguin sait comment terminer une soirée de façon mémorable et tout l’orchestre a amplement gagné l’océan d’applaudissements qui a suivi. Toujours très généreux, il a parcouru les sections de son orchestre pour que la salle puisse les applaudir individuellement. Je tiens également à souligner le travail toujours remarquable du percussionniste-soliste Julien Bélanger aux timbales.

Une belle soirée qui, malheureusement, termine la saison en salle de Nézet-Séguin avec l’OM, mais ce n’est que partie remise. La programmation pour la prochaine saison sera dévoilée aujourd’hui même.

Le fil cassé d’Ariane

La fusée européenne Ariane 5 est l’un des meilleurs lanceurs de satellites sur le marché, mais l’offre devient de plus en plus grande et le dernier succès de la fusée Falcon Heavy de SpaceX n’arrange en rien la position de plus en plus précaire d’Arianespace qui ne recycle pas les premiers étages de ses fusées et qui verra donc ses coûts de lancement largement dépasser ceux de cette concurrence.

Par contre, on pouvait compter sur la fiabilité de la marque Arianespace. Ce n’est plus tout à fait le cas avec le demi-échec du vol VA 241 de janvier dernier qui a propulsé deux satellites sur de mauvaises orbites.

152183361_e54f8ab557

La bonne nouvelle vient de tomber. La fiabilité de la fusée Ariane 5 n’est pas remise en cause, car l’erreur est due à un mauvais paramétrage. La mauvaise est qu’Arianespace a quand même manqué à ses devoirs de contrôle de qualité.

J’ai suffisamment travaillé longtemps en contrôle de la qualité pour savoir exactement ce qui s’est produit. Les modules contenant des programmes informatiques sont conçus pour être compilés. À partir de ce moment, il n’est plus vraiment possible de le modifier sans retourner au code source, faire les modifications, le compiler et le redéployer.

Cependant, pour ajuster les paramètres de vol des fusées qui varient d’un lancement à l’autre, ces modules comportent des valeurs pouvant être modifiées de l’extérieur du module sans altérer son code source. Ce sont les paramètres du code source.

saf2016_0198943-1.jpg

Concernant le dernier échec d’Ariane 5, on a omis de modifier certaines valeurs de ces paramètres pour les rendre conformes au plan de vol.

C’est la base d’une planification de vol. L’erreur est tellement stupide qu’elle a immédiatement démontré l’amateurisme du groupe du contrôle de qualité d’Arianespace. Entre ça et une erreur de conception, c’est évidemment mieux puisque la fusée n’est pas interdite de vol. Pour les clients par contre, il y a de quoi les rendre nerveux, suffisamment pour lorgner ailleurs. Et c’est là qu’une bêtise anodine prend toute son importance, car en aérospatiale, les bêtises idiotes ne doivent jamais exister. Les procédures standards d’opérations utilisées en QC (contrôle de la qualité) sont censées être suffisamment élaborées et pertinentes pour réduire à zéro les chances de rater son coup de la sorte.

Arianespace vient de servir sur un plateau d’argent ses clients les plus fidèles à ses compétiteurs qui l’en remercient certainement. Ils en profiteront pour affaiblir encore plus la réputation du consortium européen en tournant le fer dans la plaie. C’est à suivre.

Le vide et l’information

Ce n’est pas la première fois que j’en parle, on y arrive tranquillement, graduellement, une brique à la fois. À quoi, demandez-vous? À la preuve que nous vivons dans un monde informatique, que l’Univers est une simulation numérique, à lire dans Pour la Science ainsi que dans Esprit Science Métaphysiques et sur Radio-Canada. Les liens suivants vous amènent vers mes deux précédents articles dans lesquels j’abordais ce sujet. Univers et simulation et L’utilité véritable d’un trou noir.

Au début du XXe siècle, un pas de géant s’effectue en science avec l’élaboration de la physique quantique, l’une des deux théories qui après un siècle gardent encore toute leur pertinence. La seconde est la physique relativiste.

space-time-at-planck-length-vibrating-at-speed-of-light-due-to-heisenberg-uncertainty-principle-jason-padgett.jpg

Depuis ce temps, on sait qu’il existe des dimensions limites indivisibles, comme des atomes d’espace. Un cube d’espace fondamental appelé «espace de Planck» mesure environ 10-105 mètre cube.

Il existe également des atomes de temps qu’on nomme «ère de Planck» et qui valent 10-43 seconde. Il est donc impossible de savoir ce qui s’est passé au plus près du Big Bang sous cet atome temporel.

speed_of_light.jpg

On sait également, preuves expérimentales à l’appui que le vide n’est pas vide. J’en ai déjà parlé dans un autre article. Ce qu’on appelle le vide n’est pas le néant. S’il existe de l’espace, ce n’est pas rien. Ce faux vide est plein d’énergie et s’il possède de l’énergie, il possède de la matière qui se crée spontanément à partir de cette énergie.

Et voilà la dernière brique que la science fondamentale vient de rajouter dans l’équation, le vide serait constitué, non seulement d’énergie, mais aussi d’information.

On pouvait émettre cette hypothèse depuis les travaux de Ludwig Boltzmann, dont j’ai également brièvement parlé sur ce blogue, en y ajoutant le concept des unités de mesure fondamentales de Planck.

L’Univers, même vide de toute matière, serait quand même constitué de briques fondamentales d’information et on peut facilement imaginer qu’elle s’alimente à partir de l’énergie du vide.

DSC-B1216_01b

Tout ceci constitue un puzzle dont toutes les pièces se mettent en place les unes après les autres pour finalement apporter la preuve que nous sommes des constituants calculés, mais ayant de multiples degrés de liberté. Il ne faut pas croire que les programmes informatiques amènent des résultats nécessairement prédéterminés qui feraient que tout l’avenir serait décidé à partir du moment où l’ordinateur Universel commence à exécuter lesdits programmes, en l’occurrence à partir du Big Bang.

Ce qu’il faut surtout retenir, c’est le principe que l’Univers est information au sens informatique du terme, c’est-à-dire une information ayant des constituants de base indivisibles, comme le bit est celui de notre société technologique actuelle.

Je cite le scientifique Trhnh Xuan Thuan « Le vide est la matrice de tout » à lire dans Science et Avenir.

Photos : http://irfu.cea.frhttp://discovermagazine.com/; https://fineartamerica.comhttp://bigthink.com.

Temps de qualité

Le monde change et le langage par le fait même. Auparavant, on n’utilisait jamais l’expression « se donner du temps de qualité ». Se donner du temps suffisait et par la suite on savait quoi faire. La qualité était intrinsèquement incluse dans le temps qu’on se donnait, parce qu’on avait peu de temps libre. On le planifiait comme une chose précieuse, et justement, il l’était.

On n’a peut-être pas la société de loisirs qu’on prédisait pour tous, mais plusieurs personnes l’ont très certainement et osons imaginer qu’ils sont à l’origine de l’expression « se donner du temps de qualité ».