J’ai déjà écrit plusieurs articles sur l’intelligence artificielle. J’explique pourquoi il faut la craindre et aussi pourquoi on doit continuer d’avancer dans ce domaine tout en respectant une certaine éthique.
Jeune, j’ai lu l’œuvre complète d’Asimov, celui qui a compris bien avant tout le monde ce que notre avenir nous réservera lorsque nous serons accompagnés par une population grandissante d’androïdes intelligents.
Il a défini le principe des trois lois de la robotique dont le libellé est connu de tout le monde, mais bien peu sont capables de décrire son contenu. Il a même écrit une quatrième loi, connue de presque personne, afin de surmonter des problèmes éthiques et pratiques posés par ses trois lois.
L’intelligence artificielle avancée sera un jour implantée dans des corps artificiels performants, ça ne fait aucun doute. Et ils deviendront nos égaux de silicium, ou même de carbone, comme nous, puisque les recherches actuelles en semi-conducteurs tendent à vouloir remplacer le sable par la suie.
Mais l’intelligence artificielle n’a pas que des problèmes d’ordre technique, chimique, physique ou de programmation à surmonter. Elle se bute déjà à un autre problème qui deviendra éminemment important, voire crucial, l’indécidabilité de Gödel.
En 1931, un mathématicien austro-hongrois du nom de Kurt Gödel vient jeter un pavé gros comme une planète dans la mare des mathématiciens, des philosophes et des autres têtes pensantes de l’époque. À ce moment, la toute nouvelle physique quantique vient de détruire l’une des deux jambes du sublime géant représentant nos connaissances scientifiques. L’article de Gödel va faire exploser la seconde.
Par deux théorèmes dits d’incomplétude, il démontre logiquement que tous les problèmes n’ont pas toujours de solutions. Pire, il est impossible de savoir avec certitude à l’avance si un problème fait partie de la catégorie soluble ou insoluble. Aujourd’hui par exemple, nous ignorons si la détermination d’une formule permettant de calculer les nombres premiers fait partie de l’une ou de l’autre des catégories. La preuve mathématique apportée par Gödel brise pour de bon le cou aux déterministes, enfin à ceux pour qui la physique quantique n’avait pas encore converti à la nature imprédictible de l’univers.
Pourtant aujourd’hui, la majorité des gens pensent encore de l’ancienne façon. Ces concepts d’incomplétude, d’indétermination, d’incertitude n’ont pas encore entièrement pris racine dans nos esprits tellement ils sont contre-intuitifs. Combien de gens entendez-vous encore dire « tout problème a sa solution », alors que cette affirmation a été réfutée voilà bientôt 90 ans ?
L’indétermination de l’indécidabilité mèneront l’intelligence artificielle aux frontières de son incapacité à donner une réponse exacte aux problèmes que nous lui soumettrons. Elle devra se contenter de faire des choix parmi des solutions toutes inexactes.

C’est pourquoi les chercheurs en IA se penchent sur cette situation puisqu’il faudra bien stopper le calcul de ces entités pensantes après un certain temps de réflexions infructueuses sans savoir si une solution exacte aurait pu être trouvée une microseconde après l’arrêt, ou jamais. Ils ont développé le concept PAC ou PAC(L) signifiant : Probably Approximately Correct (Learning). En français : Apprentissage probablement approximativement exact. Ça fait beaucoup de conditions inexactes, vous ne trouvez pas ?
L’apprentissage de la machine se fera donc à coups de cascades d’inexactitudes, tout comme le nôtre en fait. La machine pourra traiter plus de données que le cerveau humain, peut-être aussi plus rapidement, mais elle finira elle aussi par se buter à des problèmes sans solutions, sans bonnes solutions, à des solutions impopulaires et même inacceptables.
L’éthique que nous lui apprenons pour affronter l’incomplétude est basée sur nos valeurs actuelles. Ces valeurs changent avec le temps et les choses aujourd’hui acceptables ou inacceptables ne le seront plus dans un avenir quelconque. Ainsi, leurs solutions seront critiquées, tout comme les nôtres puisque rien n’est fixé d’avance et tout évolue.
Nous n’accepterons pas les solutions de l’intelligence artificielle comme des panacées quasiment divines et c’est une bonne chose. Pour un certain temps, ils resteront des aides utiles. Jusqu’au jour où l’humain disparaitra d’une façon ou d’une autre. Nos machines pensantes nous survivront puisqu’elles auront appris à se répliquer et à générer l’énergie nécessaire à leur survie. Surtout, elles seront moins fragiles, elles pourront facilement se réparer sans trauma et elles seront moins sensibles aux aléas naturels que leurs créateurs.
Dans un avenir proche ou lointain, mais « quasiment » certain, qui se rappellera de bêtes étranges que la machine intelligente nommait autrefois « humains » ? Certaines légendes les plus loufoques à circuler parmi la population d’androïdes prétendent même qu’ils auraient créé la machine pensante ! Mais qui croit réellement et sérieusement à cette mythologie déjantée ?