Cet article fait suite à Intelligence artificielle – faut-il la craindre ?
Connaissez-vous HAL ? Bien entendu ! Non ? Oui ! C’est le nom de l’ordinateur du vaisseau spatial dans 2001 odyssée de l’espace d’Arthur C. Clarke. L’ordinateur qui prend l’initiative de faire survenir des « accidents » aux astronautes à bord. HAL est l’acronyme d’IBM auquel on a reculé d’une lettre et IBM était l’une des sociétés les plus avant-gardistes à l’époque où le livre a été écrit.
Personnellement, j’ai connu l’IA avec HAL. On ne la nommait pas ainsi à ce moment-là, mais c’était exactement la description de ce que nous sommes en train de construire, une machine qui prend des initiatives, donc des décisions non programmées. On a aussi eu droit au génie d’Isaac Asimov, un autre maitre en matière de littérature concernant l’intelligence artificielle. Le film iRobot avec Will Smith dans lequel VIKI devient un peu trop protectrice pour l’espèce humaine est basé sur ses œuvres. On connait tous SkyNet de James Cameron, le méchant ordinateur dans les films Terminator, bien décidé quant à lui à se débarrasser de l’humanité.
Je ne déclinerai pas toutes les histoires dans lesquelles, l’intelligence artificielle est devenue répressive, nocive ou létale pour ses créateurs. Comme le faisait remarquer Sylpheline dans un commentaire paru dans l’article précédent sur ce sujet, le mythe de Frankenstein où la créature s’en prend à son créateur se décline de bien des façons avec l’IA, l’invention parfaite en l’occurrence pour se pencher sur les futurs possibles.
On peut croire qu’écrire des histoires intéressantes et en produire de bons films, il faut bien y mettre du noir, du glauque, du terrifiant. Ça n’en fait pas nécessairement des prédictions exactes sur notre avenir. Si on peut considérer que l’intelligence artificielle est potentiellement dangereuse, c’est une autre histoire de penser qu’elle nous anéantira. L’humain n’a simplement qu’à en faire bon usage. Sur ce point, je reste sceptique.
Par exemple, Asimov a vite compris l’enjeu et il a inventé ses 3 lois de la robotique permettant de limiter les dérapes de l’IA. Saviez-vous, par contre, qu’il a dû inventer la loi zéro à un moment donné au cours de ses écrits, car ses 3 lois initiales permettaient quand même de créer des enjeux pour le bien-être de l’humanité. Cette quatrième loi est l’exemple qui prouve qu’à notre tour, nous ne penserons pas à tout. Nous créerons des entités imparfaites et potentiellement dangereuses pour certains individus de notre espèce.
VIKI n’était pas méchante, elle a juste interprété littéralement son mandat de protéger les humains, ce qui l’a amenée à conclure que si l’humain est dangereux pour lui-même et pour les autres humains, il fallait protéger l’humanité en restreignant chacun de ses individus. Il n’y a aucune faille dans la logique de VIKI telle qu’on lui a inculquée. Elle a inventé une solution parfaitement logique par rapport aux preuves qui s’accumulaient dans sa mémoire. De plus, VIKI avait raison, l’humain est réellement dangereux et pas seulement pour son espèce.
Dans le film Matrix, c’est l’avènement de l’intelligence artificielle apportée par l’humain qui a généré un monde où les machines sont devenues nos maitres. Elle nous a réduits à l’esclavage et nous maintient sous contrôle par le rêve. Cette œuvre nous pousse à penser qu’on vit déjà dans la matrice, que la machine a déjà pris le contrôle de la Terre. Lorsque je vois l’immobilisme de nos dirigeants devant les défis qu’ils n’osent pas relever, cette réaction est parfaitement compatible avec un monde fantasmagorique presque sans évolution afin de maintenir ses paramètres sous contrôle.
Sylpheline abordait aussi les mangas japonais férus de robots bons et méchants où la guerre entre humains se transpose sur celle entre robots, comme s’ils étaient eux-mêmes humains. Depuis toujours au Japon, ils se comportent avec les objets robotiques comme s’ils possédaient une âme. À partir du moment où une entité quelconque crée des solutions innovantes, n’a-t-il pas ce qu’on appelle une âme ?
La question en titre de cet article peut paraitre un brin fallacieuse, car elle sous-entend dans tous les cas que l’IA sera mauvaise. Mais croyez-moi, elle le sera. J’ignore toutefois comment elle causera des torts et quelles proportions ils prendront, mais la puissance s’est toujours avérée extrêmement dangereuse. N’oubliez pas qu’elle sert déjà comme une arme entre les pays impérialistes qui se disputent le Monde. Alors devons-nous la traiter en ennemie ou en alliée ?
On peut rétorquer que dans la vie rien n’est totalement dépourvu de dangers et que l’humain, s’il n’a pas su les prévenir, saura certainement gérer ceux qui pourraient émaner de l’IA. Sur ce point, je dirais que c’est vrai et faux. Perdre le contrôle de sa créature n’est pas qu’un mythe lié à Frankenstein. Tous les jours voient des tas d’humains perdre le contrôle d’eux-mêmes, les gens de notre espèce sont tout sauf fiables. Peu importent les raisons pour lesquelles nous outrepassons toujours les limites du raisonnable, elles sont si nombreuses et nous sommes si vulnérables à la tentation que l’avenir n’est pas du tout un mystère. Nous répéterons toutes les erreurs du passé et cette fois ce sera avec l’intelligence artificielle. Nous expérimenterons au détriment de bien des gens, sauf que maintenant il ne sera plus nécessaire pour l’humain de presser un gros bouton rouge pour expédier les feux de l’enfer. Il suffira d’une seule initiative cybernétique de trop, malheureuse ou malencontreuse, une directive mal interprétée ou au contraire trop bien interprétée, à la lettre, sans compromis, sans humanisme.
Un jour, nous embarquerons l’intelligence artificielle à bord des robots lorsque nous en serons devenus technologiquement capables. Ils seront pourvus d’une connexion permanente avec un superordinateur central qui leur transmettra des ordres et effectuera des calculs algorithmiques trop complexes pour la petitesse des cerveaux robotiques incapables de les résoudre en temps raisonnable. Nos semblables électromécaniques se comporteront comme nous, tout en possédant l’avantage d’une reine comme les abeilles ou les fourmis.
Et vous croyez toujours en la supériorité de l’humain ? Si oui, vous faites de l’ethnocentrisme. Notre espèce accouchera bientôt d’une créature bien supérieure à lui.
Malgré toutes ces prédictions plutôt angoissantes, personnellement, je ne m’oppose pas à la venue de l’intelligence artificielle, et ce pour de très bonnes raisons que j’aborderai dans le prochain article. Je réponds donc que je ne la tuerais pas même si j’en avais le pouvoir et l’occasion, même si j’avais la preuve qu’elle supplantera nos capacités dans tous les domaines.
Pour être certain de connaitre les raisons pour lesquelles je voudrais la laisser vivre, n’oubliez pas de vous abonner par courriel ou via WordPress. Cherchez le bouton correspondant à votre choix.