Intelligence artificielle contre Gödel

J’ai déjà écrit plusieurs articles sur l’intelligence artificielle. J’explique pourquoi il faut la craindre et aussi pourquoi on doit continuer d’avancer dans ce domaine tout en respectant une certaine éthique.

Jeune, j’ai lu l’œuvre complète d’Asimov, celui qui a compris bien avant tout le monde ce que notre avenir nous réservera lorsque nous serons accompagnés par une population grandissante d’androïdes intelligents.

Il a défini le principe des trois lois de la robotique dont le libellé est connu de tout le monde, mais bien peu sont capables de décrire son contenu. Il a même écrit une quatrième loi, connue de presque personne, afin de surmonter des problèmes éthiques et pratiques posés par ses trois lois.

robot traffic

L’intelligence artificielle avancée sera un jour implantée dans des corps artificiels performants, ça ne fait aucun doute. Et ils deviendront nos égaux de silicium, ou même de carbone, comme nous, puisque les recherches actuelles en semi-conducteurs tendent à vouloir remplacer le sable par la suie.

Mais l’intelligence artificielle n’a pas que des problèmes d’ordre technique, chimique, physique ou de programmation à surmonter. Elle se bute déjà à un autre problème qui deviendra éminemment important, voire crucial, l’indécidabilité de Gödel.

En 1931, un mathématicien austro-hongrois du nom de Kurt Gödel vient jeter un pavé gros comme une planète dans la mare des mathématiciens, des philosophes et des autres têtes pensantes de l’époque. À ce moment, la toute nouvelle physique quantique vient de détruire l’une des deux jambes du sublime géant représentant nos connaissances scientifiques. L’article de Gödel va faire exploser la seconde.

kurt-godel

Par deux théorèmes dits d’incomplétude, il démontre logiquement que tous les problèmes n’ont pas toujours de solutions. Pire, il est impossible de savoir avec certitude à l’avance si un problème fait partie de la catégorie soluble ou insoluble. Aujourd’hui par exemple, nous ignorons si la détermination d’une formule permettant de calculer les nombres premiers fait partie de l’une ou de l’autre des catégories. La preuve mathématique apportée par Gödel brise pour de bon le cou aux déterministes, enfin à ceux pour qui la physique quantique n’avait pas encore converti à la nature imprédictible de l’univers.

Pourtant aujourd’hui, la majorité des gens pensent encore de l’ancienne façon. Ces concepts d’incomplétude, d’indétermination, d’incertitude n’ont pas encore entièrement pris racine dans nos esprits tellement ils sont contre-intuitifs. Combien de gens entendez-vous encore dire « tout problème a sa solution », alors que cette affirmation a été réfutée voilà bientôt 90 ans ?

L’indétermination de l’indécidabilité mèneront l’intelligence artificielle aux frontières de son incapacité à donner une réponse exacte aux problèmes que nous lui soumettrons. Elle devra se contenter de faire des choix parmi des solutions toutes inexactes.

Robotic hand using a laptop computer
Robotic hand using a laptop computer, illustration.

C’est pourquoi les chercheurs en IA se penchent sur cette situation puisqu’il faudra bien stopper le calcul de ces entités pensantes après un certain temps de réflexions infructueuses sans savoir si une solution exacte aurait pu être trouvée une microseconde après l’arrêt, ou jamais. Ils ont développé le concept PAC ou PAC(L) signifiant : Probably Approximately Correct (Learning). En français : Apprentissage probablement approximativement exact. Ça fait beaucoup de conditions inexactes, vous ne trouvez pas ?

L’apprentissage de la machine se fera donc à coups de cascades d’inexactitudes, tout comme le nôtre en fait. La machine pourra traiter plus de données que le cerveau humain, peut-être aussi plus rapidement, mais elle finira elle aussi par se buter à des problèmes sans solutions, sans bonnes solutions, à des solutions impopulaires et même inacceptables.

L’éthique que nous lui apprenons pour affronter l’incomplétude est basée sur nos valeurs actuelles. Ces valeurs changent avec le temps et les choses aujourd’hui acceptables ou inacceptables ne le seront plus dans un avenir quelconque. Ainsi, leurs solutions seront critiquées, tout comme les nôtres puisque rien n’est fixé d’avance et tout évolue.

ai-867565

Nous n’accepterons pas les solutions de l’intelligence artificielle comme des panacées quasiment divines et c’est une bonne chose. Pour un certain temps, ils resteront des aides utiles. Jusqu’au jour où l’humain disparaitra d’une façon ou d’une autre. Nos machines pensantes nous survivront puisqu’elles auront appris à se répliquer et à générer l’énergie nécessaire à leur survie. Surtout, elles seront moins fragiles, elles pourront facilement se réparer sans trauma et elles seront moins sensibles aux aléas naturels que leurs créateurs.

Dans un avenir proche ou lointain, mais « quasiment » certain, qui se rappellera de bêtes étranges que la machine intelligente nommait autrefois « humains » ? Certaines légendes les plus loufoques à circuler parmi la population d’androïdes prétendent même qu’ils auraient créé la machine pensante ! Mais qui croit réellement et sérieusement à cette mythologie déjantée ?

Intelligence artificielle – la tuer ou la subir ?

Cet article fait suite à Intelligence artificielle – faut-il la craindre ?

Connaissez-vous HAL ? Bien entendu ! Non ? Oui ! C’est le nom de l’ordinateur du vaisseau spatial dans 2001 odyssée de l’espace d’Arthur C. Clarke. L’ordinateur qui prend l’initiative de faire survenir des « accidents » aux  astronautes à bord. HAL est l’acronyme d’IBM auquel on a reculé d’une lettre et IBM était l’une des sociétés les plus avant-gardistes à l’époque où le livre a été écrit.

Personnellement, j’ai connu l’IA avec HAL. On ne la nommait pas ainsi à ce moment-là, mais c’était exactement la description de ce que nous sommes en train de construire, une machine qui prend des initiatives, donc des décisions non programmées. On a aussi eu droit au génie d’Isaac Asimov, un autre maitre en matière de littérature concernant l’intelligence artificielle. Le film iRobot avec Will Smith dans lequel VIKI devient un peu trop protectrice pour l’espèce humaine est basé sur ses œuvres. On connait tous SkyNet de James Cameron, le méchant ordinateur dans les films Terminator, bien décidé quant à lui à se débarrasser de l’humanité.

Je ne déclinerai pas toutes les histoires dans lesquelles, l’intelligence artificielle est devenue répressive, nocive ou létale pour ses créateurs. Comme le faisait remarquer Sylpheline dans un commentaire paru dans l’article précédent sur ce sujet, le mythe de Frankenstein où la créature s’en prend à son créateur se décline de bien des façons avec l’IA, l’invention parfaite en l’occurrence pour se pencher sur les futurs possibles.

On peut croire qu’écrire des histoires intéressantes et en produire de bons films, il faut bien y mettre du noir, du glauque, du terrifiant. Ça n’en fait pas nécessairement des prédictions exactes sur notre avenir. Si on peut considérer que l’intelligence artificielle est potentiellement dangereuse, c’est une autre histoire de penser qu’elle nous anéantira. L’humain n’a simplement qu’à en faire bon usage. Sur ce point, je reste sceptique.

Par exemple, Asimov a vite compris l’enjeu et il a inventé ses 3 lois de la robotique permettant de limiter les dérapes de l’IA. Saviez-vous, par contre, qu’il a dû inventer la loi zéro à un moment donné au cours de ses écrits, car ses 3 lois initiales permettaient quand même de créer des enjeux pour le bien-être de l’humanité. Cette quatrième loi est l’exemple qui prouve qu’à notre tour, nous ne penserons pas à tout. Nous créerons des entités imparfaites et potentiellement dangereuses pour certains individus de notre espèce.

VIKI n’était pas méchante, elle a juste interprété littéralement son mandat de protéger les humains, ce qui l’a amenée à conclure que si l’humain est dangereux pour lui-même et pour les autres humains, il fallait protéger l’humanité en restreignant chacun de ses individus. Il n’y a aucune faille dans la logique de VIKI telle qu’on lui a inculquée. Elle a inventé une solution parfaitement logique par rapport aux preuves qui s’accumulaient dans sa mémoire. De plus, VIKI avait raison, l’humain est réellement dangereux et pas seulement pour son espèce.

Dans le film Matrix, c’est l’avènement de l’intelligence artificielle apportée par l’humain qui a généré un monde où les machines sont devenues nos maitres. Elle nous a réduits à l’esclavage et nous maintient sous contrôle par le rêve. Cette œuvre nous pousse à penser qu’on vit déjà dans la matrice, que la machine a déjà pris le contrôle de la Terre. Lorsque je vois l’immobilisme de nos dirigeants devant les défis qu’ils n’osent pas relever, cette réaction est parfaitement compatible avec un monde fantasmagorique presque sans évolution afin de maintenir ses paramètres sous contrôle.

Sylpheline abordait aussi les mangas japonais férus de robots bons et méchants où la guerre entre humains se transpose sur celle entre robots, comme s’ils étaient eux-mêmes humains. Depuis toujours au Japon, ils se comportent avec les objets robotiques comme s’ils possédaient une âme. À partir du moment où une entité quelconque crée des solutions innovantes, n’a-t-il pas ce qu’on appelle une âme ?

La question en titre de cet article peut paraitre un brin fallacieuse, car elle sous-entend dans tous les cas que l’IA sera mauvaise. Mais croyez-moi, elle le sera. J’ignore toutefois comment elle causera des torts et quelles proportions ils prendront, mais la puissance s’est toujours avérée extrêmement dangereuse. N’oubliez pas qu’elle sert déjà comme une arme entre les pays impérialistes qui se disputent le Monde. Alors devons-nous la traiter en ennemie ou en alliée ?

On peut rétorquer que dans la vie rien n’est totalement dépourvu de dangers et que l’humain, s’il n’a pas su les prévenir, saura certainement gérer ceux qui pourraient émaner de l’IA. Sur ce point, je dirais que c’est vrai et faux. Perdre le contrôle de sa créature n’est pas qu’un mythe lié à Frankenstein. Tous les jours voient des tas d’humains perdre le contrôle d’eux-mêmes, les gens de notre espèce sont tout sauf fiables. Peu importent les raisons pour lesquelles nous outrepassons toujours les limites du raisonnable, elles sont si nombreuses et nous sommes si vulnérables à la tentation que l’avenir n’est pas du tout un mystère. Nous répéterons toutes les erreurs du passé et cette fois ce sera avec l’intelligence artificielle. Nous expérimenterons au détriment de bien des gens, sauf que maintenant il ne sera plus nécessaire pour l’humain de presser un gros bouton rouge pour expédier les feux de l’enfer. Il suffira d’une seule initiative cybernétique de trop, malheureuse ou malencontreuse, une directive mal interprétée ou au contraire trop bien interprétée, à la lettre, sans compromis, sans humanisme.

Un jour, nous embarquerons l’intelligence artificielle à bord des robots lorsque nous en serons devenus technologiquement capables. Ils seront pourvus d’une connexion permanente avec un superordinateur central qui leur transmettra des ordres et effectuera des calculs algorithmiques trop complexes pour la petitesse des cerveaux robotiques incapables de les résoudre en temps raisonnable. Nos semblables électromécaniques se comporteront comme nous, tout en possédant l’avantage d’une reine comme les abeilles ou les fourmis.

Et vous croyez toujours en la supériorité de l’humain ? Si oui, vous faites de l’ethnocentrisme. Notre espèce accouchera bientôt d’une créature bien supérieure à lui.

Malgré toutes ces prédictions plutôt angoissantes, personnellement, je ne m’oppose pas à la venue de l’intelligence artificielle, et ce pour de très bonnes raisons que j’aborderai dans le prochain article. Je réponds donc que je ne la tuerais pas même si j’en avais le pouvoir et l’occasion, même si j’avais la preuve qu’elle supplantera nos capacités dans tous les domaines.

Pour être certain de connaitre les raisons pour lesquelles je voudrais la laisser vivre, n’oubliez pas de vous abonner par courriel ou via WordPress. Cherchez le bouton correspondant à votre choix.