Les robots-tueurs sont de véritables dangers pour l’équilibre et la paix du monde

Cyrille Dalmont, chercheur associé à l’Institut Thomas More

            

18 septembre 2018


Réagissant à une décision du Parlement Européen d’interdire les « robots-tueurs » ainsi qu’aux propos de Laurent Alexandre, Cyrille Dalmont explique en quoi ces armes d’un nouveau genre constituent un grave danger, éthique et technique.

Le 12 septembre dernier, le Parlement européen a adopté une résolution visant à interdire les Systèmes d’armes létales autonomes (SALA), ou « robots-tueurs », en appuyant cette recommandation sur les travaux d’un groupe d’experts gouvernementaux sur les technologies émergentes dans le domaine des systèmes d’armes létales automatiques et sur le programme de désarmement de 2018 de l’ONU. Dans sa résolution, le Parlement européen demande à la Commission, aux États membres et au Conseil « d’œuvrer au lancement de négociations internationales pour un instrument juridiquement contraignant qui interdise les systèmes d’armes létales autonomes ».

D’aucuns jugeront, non sans raison, qu’une résolution du Parlement européen n’est pas grand-chose et que l’ONU n’est toujours que le « machin » dont le général de Gaulle se gaussait. Pour autant, les questions posées sont les bonnes et les inquiétudes exprimées légitimes.

Hasard du calendrier, le même jour Laurent Alexandre, auteur à succès de Les robots font ils l’amour ? et de La guerre des intelligences, chantre de l’intelligence artificielle heureuse, du paradis des robots et du remplacement de l’humain par la machine défendait dans la presse la position symétriquement opposée en expliquant qu’« à l’instar de la création, en 1958, d’une force de dissuasion nucléaire […], la France doit casser ses verrous idéologiques et se doter d’unités de combats robotisés autonomes garantissant sa souveraineté nationale »… Rien que cela. Sa démonstration s’achevait par un implacable « nous devons le faire car la Chine le fait ».

Argument aussi sentencieux qu’étrange qui mérite qu’on y réfléchisse une seconde. Faut-il imiter la Chine et son régime qui bafoue allègrement (et de plus en plus) les plus élémentaires des droits humains (qu’on pense au million de Ouïghours enfermé dans des camps de rééducation de masse, comme on l’a appris cet été) ? Faut-il imiter la Chine et le désastre écologique en cours, qui risque de conduire à une catastrophe sanitaire pour les dizaines de millions de personnes qui vivent dans l’air vicié des grandes villes du pays ? Faut-il imiter la Chine, dont les laboratoires publics et privés travaillent sur l’eugénisme dès le stade embryonnaire de ses futurs citoyens ?

Est-ce cela la promesse d’un avenir radieux et de « la mort de la mort » chantée par Laurent Alexandre ? Nous ne sommes certes pas encore des humains augmentés et avons peut-être du mal à comprendre une vision du future trop élaborée pour nous mais il semble que nous ne soyons pas les seuls… Ce qui nous rassure un peu. Car les questions posées par les « robots-tueurs » sont considérables et ne se règlent pas à coup de sentences aussi sommaires.

Sur le plan éthique d’abord. Comment ne pas comprendre qu’ouvrir le droit d’ôter la vie à une machine, aussi évoluée soit elle, ouvre des béances intellectuelles et morales ? Human Rights Watch relevait, dans un rapport d’août dernier, qu’« une arme entièrement autonome serait capable de commettre des actes qui constitueraient des crimes de guerre si c’était une personne qui les perpétrait, mais en l’occurrence les victimes ne verraient personne être puni pour ces crimes ». C’en serait tout simplement fini du droit de la guerre… Les humains savent déjà s’entretuer de toutes les manières possibles depuis des siècles, de la plus subtile à la plus féroce : devons-nous leur offrir le moyen de n’en éprouver aucun remord ni aucune culpabilité ?

Sur le plan pratique ensuite, Laurent Alexandre refuse, comme toujours, de considérer un simple fait technique qui n’est pourtant pas mince : toute machine, toute Intelligence Artificielle, tout robot est piratable, « hackable ». Que fera-t-on si un robot-tueur se retourne contre ceux de son camp sur un champ de bataille ? Comment garantir qu’une opération militaire de routine ou de maintient de l’ordre totalement robotisée ne se terminera pas en en carnage si un virus informatique vient perturber toute cette belle mécanique ? Et faut-il courir le risque que de futurs cyber-terroristes prennent le contrôle de telles armes ?

Les systèmes d’armes létales autonomes sont de véritables dangers pour l’équilibre et la paix du monde et doivent au contraire être strictement interdites au niveau international, sur le modèle de la Convention sur l’interdiction des armes chimiques (CIAC) du 13 janvier 1993. Bien sûr, des États ne respectent pas la convention, l’actualité récente en Syrie nous le rappelle cruellement, mais est-ce une raison pour ne pas maintenir la ligne rouge de l’interdiction ? N’est pas la force de l’Occident d’avoir tenter d’inventer, imparfaitement sans doute, un ordre international dont la morale et le souci de la dignité de l’homme ne sont pas totalement absents ?

L’arrivée de ces robots-tueurs, et plus globalement l’émergence d’une Intelligence Artificielle sans contrôle et sans limites, est un mauvais signe pour notre humanité. Certains pays s’engagent dans cette voie. Certains observateurs s’en réjouissent. Tant pis pour eux… Leur vision du monde – et de notre avenir radieux de semi-hommes au service de demi-dieux de silicium – et l’efficace marketing dont ils savent l’enrober sont définitivement comme la boussole désorientée : mieux vaux marcher au sud quand elle indique le nord… Choisissons donc résolument, et en toute connaissance de cause, de reconnaître la valeur supérieure de notre humanité, fragile et digne, et d’affirmer qu’un progrès technique, si sophistiqué soit-il, ne fait pas la fin de l’homme.