Malheureux de naitre avec dix doigts

Si j’écris 10, et que je vous dis que ce n’est pas un dix, vous me prendriez pour un illuminé. À l’instar de la pipe de Magritte dans son célèbre tableau « La trahison des images » qui n’est pas une pipe, mais la représentation d’une pipe, 10 n’est pas un dix, mais une représentation de plusieurs nombres possibles dont l’une est un dix.

J’étais en sixième année du primaire lorsqu’on m’a enseigné pour la première fois le principe mathématique des bases. Nous partions de la prémisse que nous rencontrions des extraterrestres à huit doigts et qu’ainsi, eux ne comptaient pas dix symboles différents pour écrire les nombres, mais seulement huit en incluant le zéro. Donc, au-delà de sept, il fallait comprendre que nous devions travailler à deux chiffres, comme lorsqu’on arrive au-delà de neuf dans le système décimal. En écrivant 10 (lire un, zéro), ça ne valait plus dix, mais bien huit. Et on poursuivait sur cette lancée, 11 (lire un, un) valait neuf, 12 (lire un, deux) valait dix, etc. En changeant de la base 10 à la base 8, on réapprenait comment on écrit symboliquement les nombres. J’étais loin de me douter que je retrouverais cette base 8 bien plus tard en informatique et que 10 (lire un, zéro) serait effectivement la représentation octonumérique du nombre huit.

L’humain est né désavantagé. Il a été conçu avec dix doigts plutôt que huit. Ainsi, la base décimale (base 10) est devenue sa principale façon de compter. Nous utilisons dix chiffres différents, dix symboles distincts en commençant par le 0 jusqu’au 9. Pour compter au-delà de neuf, on doit utiliser deux symboles dont la position de chacun par rapport à l’autre définit une valeur différente. On sait tous que l’écriture décimale du nombre dix s’écrit 10. Le 1 ne vaut plus un, mais dix, et le 0 signifie qu’on additionne zéro à dix. Et une fois ce concept compris et maitrisé, nous sommes en mesure d’écrire n’importe quelle valeur numérique à partir de seulement dix symboles différents.

Si l’humain était né avec huit doigts, il aurait été avantagé au moment de traiter l’information sous forme binaire, car huit est une puissance du chiffre deux, deux étant la quantité maximale de symboles différents utilisés dans un compte binaire que traite un ordinateur conventionnel, soit le zéro et le un.

Si nous avions eu seulement huit doigts, symboliquement, 10 vaudrait huit plutôt que dix. Ainsi, le système octal à huit symboles ou le système hexadécimal à seize symboles utilisés en électronique de l’information nous auraient posé moins de problèmes de compréhension puisque huit et seize sont tous deux des puissances de deux. 2 x 2 x 2 = huit et 2 x 2 x 2 x 2 = seize, mais dix n’est pas une puissance de deux.

Ainsi 10 (un un suivi d’un zéro) vaut deux en binaire (base deux), vaut huit en octal (base huit), vaut seize en hexadécimal (base seize) et il vaut dix lorsque les créatures naissent malheureusement avec dix doigts.

C’est la faute au zéro !

Cet article parle des deux façons différentes de compter.

Nous vivons aujourd’hui au XXIe siècle qui a commencé le Premier de l’an 2001 et se terminera à la toute fin de l’année 2100.

Nous commettons deux erreurs en lien avec les siècles. La première est de croire qu’ils commencent l’année où le chiffre marquant le centenaire change. Ça aurait été si simple, mais nous verrons pourquoi cela n’est pas le cas.

La seconde erreur est de calculer mentalement le siècle actuel en tronquant l’année et la décennie pour ne garder que le siècle et le millénaire. On obtient ainsi le XXe siècle plutôt que le XXIe pour la date actuelle. Ça semble logique et pourtant c’est encore faux.

D’où proviennent ces erreurs ? Est-ce une ancienne faute commise aux premiers temps du calendrier et perpétuée depuis par nécessité de conserver des intervalles de dates correspondant à la réalité ? Ça aurait pu être le cas, mais il n’en est rien. Il n’y a pas d’erreur.

On vit actuellement dans l’ère de Jésus, l’ère chrétienne, que vous y croyez ou pas. Celle-ci commence à sa naissance supposée. Toutefois, on n’a commencé à écrire la date de l’ère chrétienne que bien après sa vie et même bien plus tard après sa mort. L’Église chrétienne ne devint pas très populaire instantanément après sa crucifixion. Aux alentours de 525 de l’ère chrétienne qui n’était pas encore désignée sous cette forme, l’Église tenta avec succès d’implanter l’ère de Jésus-Christ. Donc toutes les dates antérieures à l’année 525 correspondaient à des dates en rapport avec le règne d’autres rois, pharaons, empereurs, etc. et aucune n’était universelle. On peut imaginer l’imbroglio occasionné par autant de dates différentes qu’il y avait de souverains narcissiques !

L’Église chrétienne a calculé le nombre d’années qui séparait le présent de la naissance du Christ. Il en découla le nombre 525. C’est alors qu’elle commença à calculer les années de l’ère chrétienne à partir de ce chiffre. La France adopta cette façon de désigner la date au cours du VIIe siècle.

Intuitivement on comprend pourquoi qu’en 2017 on est au XXIe siècle. Entre l’an 1 et 100 inclusivement, c’était le 1er siècle et en continuant de cette façon, inexorablement on obtient le résultat actuel du XXIe siècle pour les ans 2 001 à 2 100.

Aujourd’hui, lorsqu’on a le bonheur d’avoir un enfant, on compte son âge de façon intéressante. Il a 1 an uniquement à la fin de sa première année d’existence. On ne dit pas qu’il est dans sa première année de vie lorsqu’il vient de naitre. Pourtant avec les siècles, c’est bien ce que nous faisons. Dès le début du compte, c’est le premier siècle. Pour un bébé, on ne dit pas qu’il a zéro an lorsqu’il n’a pas encore 1 an. On compte alors les mois, plus jeunes on compte les semaines, et avant une semaine, ce sont les jours.

On parvient de cette façon à éviter de parler du chiffre zéro. C’est normal puisque zéro ne donne aucune indication sur l’âge du nourrisson. Pour calculer l’âge, chaque nombre avancé est considéré comme étant chose terminée. Pour le nombre de siècles, on aurait pu considérer l’an 1 jusqu’à l’an 100 comme étant le siècle zéro. Ainsi, le siècle 1 aurait signifié que plus de cent ans se seraient écoulés, d’autant plus qu’on n’a jamais écrit ni utilisé les siècles actuels de notre ère avant l’an 525. Ce n’est pas ce qui survint.

Alors pourquoi dit-on que nous vivons dans le vingt-et-unième siècle plutôt que de dire avoir complété vingt siècles entiers ? Les deux formulations sont rigoureusement exactes, mais l’usage de la première formulation s’est imposé pour une raison bien précise. À cette époque, le chiffre 0 (zéro) n’était pas vraiment connu et encore moins utilisé par la population, ni même des savants. Ainsi, le siècle zéro n’aurait correspondu à aucune réalité compréhensible, car personne n’imaginait en ces temps reculés qu’un jour, on comprendrait l’intérêt d’utiliser le zéro comme un vrai nombre au même titre que tous les autres. Pour preuve, il est impossible d’écrire le nombre zéro en numérotation de l’époque, en chiffres romains, puisqu’il n’existe pas de chiffre romain pour désigner le zéro. Ainsi, le siècle dont les années sont comprises entre un (I) et cent (C) est forcément le premier siècle puisque le siècle zéro n’aurait pas pu être écrit. C’est le même constat pour l’année. L’an zéro n’existant pas plus, l’année où Jésus serait né est l’an premier. S’il est mort en l’an 33e de notre ère, en fait il serait mort alors qu’il avait 32 ans par rapport à la façon actuelle dont nous comptons l’âge de quelqu’un. Rien ne sert de s’en faire avec cette imprécision puisqu’en recoupant certaines dates de l’époque, il apparait que Jésus serait vraisemblablement né aux alentours de l’an -5e ou -7e de sa propre ère et il serait mort en l’an 30e ou 33e. Et encore là, l’an zéro n’existant pas, on saute une année entre les années -1 et +1, une fois de plus à cause de l’absence du zéro. Alors J.C. serait mort à un âge compris dans une fourchette de presque dix ans. Aussi bien considérer qu’on n’en sait strictement rien.

C’est aussi pourquoi nous continuons à utiliser la notation romaine pour écrire les siècles, car les chiffres arabes comprennent ce qu’est le zéro. De plus, on parle du vingt-et-unième siècle, pas du siècle 20. L’usage de l’adjectif numéral ordinal vingt-et-unième (XXIe) plutôt que l’adjectif numéral cardinal 20 permet de différencier la façon dont le compte est effectué.

Voilà comment on parvient encore à notre âge à se rendre compte qu’on utilise deux façons différentes de compter. Le type d’adjectif numéral utilisé distingue si le compte commence avec 1 (premier) ou avec 0 (zéro) et aussi pourquoi dans le premier cas, il est nécessaire de rajouter un e (ième) au bout du chiffre pour marquer cette distinction dans l’adjectif numéral utilisé.

En revanche, l’heure a très bien intégré le zéro. À minuit, il est 0 h. La journée commence et il ne sera 1 h qu’à la fin complète de la première heure. On utilise donc les nombres cardinaux lorsqu’il est question de donner la « quantité » d’heures passées dans la journée plutôt que les nombres ordinaux qui ne feraient que classer les heures dans un certain « ordre ». Si on parle de la « huitième heure », cette façon de s’exprimer correspondrait à un intervalle de temps compris entre 7 h 01 et 8 h 00. Elle ne spécifie aucunement une heure précise à l’intérieur de cet intervalle d’une heure. Les nombres cardinaux donnent un compte précis. Les nombres ordinaux ne marquent que l’ordre à l’intérieur d’un ensemble donné.

Jeune, je servais la messe à l’église de la paroisse. Durant une prière lue par le prêtre, il disait « et le troisième jour il est ressuscité des morts » en parlant évidemment de Jésus. Pourtant, il était mort le vendredi pour ressusciter le dimanche. Dans ma tête d’enfant, ça ne faisait que deux jours, pas trois. Lorsque j’ai posé la question en classe, j’ai failli causer l’apoplexie de ma prof de catéchèse qui m’a répondu que c’était un mystère comme celui de la Trinité. L’Univers semblait profondément détester le chiffre 3 avec lequel il ne s’entendait jamais. Mais en utilisant la méthodologie précédente, tout se comprend puisque la formulation parle du troisième jour et pas qu’il est resté mort trois jours. Le premier jour de sa mort est le vendredi, donc le troisième tombe effectivement le dimanche même si l’intervalle entre vendredi et dimanche ne donne bien que deux jours.

Mais le concept des adjectifs numéraux cardinaux et ordinaux et leur différence dans le langage ne faisait pas partie du corpus de la petite école. J’en étais donc venu à croire que les gens de l’Antiquité, pas plus que ma prof de catéchèse, ne savaient correctement… compter jusqu’à trois.

Je vous le donne en mille ! Par un curieux hasard, le prochain article s’intitulera : « Compter jusqu’à trois ».

Soyez-y, sinon vous pourriez rater quelque chose, même si ça semble difficile à croire ! Après tout, ce n’est que trois !

Du zéro, de la température et des chemins glacés… des prédictions

Zéro est un chiffre et un nombre. Une valeur nulle, mais zéro, ce n’est pas rien. Zéro est important, surtout lorsqu’il est situé dans un nombre composé de chiffres dont leur position relative leur confère une valeur différent du chiffre en soi. L’habitude d’écrire des nombres en base 10 est tellement ancrée qu’on en finit par oublier que dans le nombre 2847, le 4 vaut 40 et le 2 vaut 2 000, car les zéros ne valent pas rien.

Remarquez, le zéro n’apparait pas dans la suite des chiffres romains ? Même si leur base de calcul est également 10, le zéro est tout de même inexistant, et pour cause. À cette époque, les nombres servaient seulement… à compter. Ils comptaient des jours, des soldats, des sesterces, des acres, bref des choses comptabilisables. Lorsqu’ils n’avaient rien à compter, ils ne comptaient pas. Ainsi, puisque le zéro n’avait aucune utilité pratique, les Romains n’ont pas vu l’intérêt de donner une réalité à ce chiffre plutôt particulier.

La valeur zéro revêt une signification bien étonnante lorsqu’on l’utilise pour évaluer une température. Longtemps l’humain s’est demandé ce qu’était vraiment la température. Sachant même la mesurer, il ignorait toutefois ce qu’il mesurait exactement. Puis la température s’est progressivement laissé saisir. Aujourd’hui, on sait exactement ce qu’on mesure lorsqu’on plonge un thermomètre dans un milieu quelconque. On mesure l’agitation des atomes ou des molécules de ce milieu. Plus ils sont mobiles, plus la température est élevée. En revanche, plus ils sont figés, plus on se rapproche du zéro de température. Pas le zéro degré Celsius, mais le zéro kelvin, également appelé le zéro absolu. À zéro kelvin, les briques élémentaires de notre monde ont cessé de s’agiter. Cette température valant -273,15 °C, le zéro kelvin est une limite improbable à atteindre à cause des lois quantiques. Aujourd’hui, le record de froid atteint lors d’expérimentations scientifiques très sophistiquées est 450 pK (picokelvin) ou 0,000 000 000 450 kelvin.

L’unité de température kelvin a été donnée en l’honneur de William Thomson, Lord Kelvin qui en élabora le principe. Pour ceux dont ce physicien reste méconnu, il était l’une des plus importantes figures scientifiques de la fin du XIXe siècle, principalement en thermodynamique. Lors d’un exposé à la Royal Institution de Londres en 1900, il déclara qu’à part deux petits nuages, la physique arrivait au bout de son parcours. Ces deux nuages devinrent quelques années plus tard la physique relativiste et la physique quantique, les deux pans fondamentaux de la physique actuelle. Comme quoi, on a beau avoir inventé le zéro absolu, il est fort possible d’obtenir une note de zéro lorsqu’on s’attaque à faire des prédictions, même dans son propre champ d’expertise, y compris pour le plus grand spécialiste de son domaine.

Nous devons à tout prix garder une attitude suspicieuse lorsqu’une sommité veut nous éblouir avec des prédictions basées sur des faits et des calculs indéniables. Malgré que ces huiles puissent être admirables, ils deviennent faillibles comme nous tous lorsque, imbus, les impudents s’aventurent imprudemment sur les chemins glacés des prédictions.

Lire la suite « Du zéro, de la température et des chemins glacés… des prédictions »