Le Pentagone prépare l'arrivée des robots autonomes tueurs
Le Pentagone a mis l'intelligence artificielle au cœur de sa stratégie de défense à long terme. Les problèmes sont non seulement techniques mais éthiques.
Le Pentagone a mis l'intelligence artificielle au cœur de sa stratégie pour maintenir sa dominance technologique et militaire sur les autres forces armées du monde, un choix qui est passé relativement inaperçu au-delà des cercles de défense.
Dans une enquête du New York Times, la Darpa, l'organisme de recherche et développement du Département de la Défense américain, fait une démonstration d'un drone d'un nouveau type. L'appareil lui-même est très simple, du genre que M. Toulemonde peut acheter dans le commerce. Mais son logiciel est différent. Il vole entre les maisons d'un village arabe en carton-pâte, et son logiciel de reconnaissance des objets identifie chaque soldat. Le logiciel arrive à différencier les civils des militaires. Il arrive même à identifier un journaliste qui brandit un appareil photo, et pas une arme, alors que plusieurs soldats humains ont déjà fait la même erreur.
Le drone n'est pas armé, mais il n'y a aucune raison technique qu'il ne puisse pas l'être.
Le Pentagone, qui consacre 3 milliards de dollars à la « collaboration humain-machine au combat » dans son budget, conçoit et teste également des avions robotiques qui accompagnent les avions à pilote, des missiles qui décident d'eux-mêmes quelles cibles attaquer, et des vaisseaux autonomes qui traquent des sous-marins sur des milliers de kilomètres, sans aucune aide humaine.
La nouvelle stratégie porte le nom de « Combat Centaure », pour évoquer une alliance symbiotique entre l'homme et la machine, comme l'alliance entre l'humain et l'animal dans les personnages de la mythologie grecque, où les éléments technologiques décupleraient la puissance des hommes sans les supplanter. C'est une réponse à ce que les experts du Pentagone appellent en interne le « Dilemme Terminator » : doit-on, peut-on, construire des systèmes d'armes autonomes qui peuvent prendre seuls la décision de tuer ?
Selon toute probabilité, un pays ou une organisation déploiera « quelque chose comme un Terminator », explique le général Paul J. Selva, chef d'état-major adjoint des forces armées américaines. Il a déclaré récemment que les États-Unis auraient la technologie pour construire un robot complètement indépendant qui peut décider lui-même de qui tuer et quand dans environ une décennie, mais que le Pentagone n'a pas l'intention d'en construire.
Dans une lettre ouverte publiée l'année dernière, des centaines de scientifiques et d'experts ont publié une lettre ouverte appelant à une limitation des armes autonomes. « Les armes autonomes deviendront les Kalashnikov de demain », avertissent les auteurs.
Officiellement, la politique du Pentagone est de fabriquer des armes à capacités autonomes, mais toujours placées sous contrôle humain. Pour les décisions de vie et de mort, « il y aura toujours un homme dans la boucle », explique Robert O. Work, secrétaire adjoint à la Défense. La métaphore est moins Terminator qu'Iron Man.
Cependant, en ce qui concerne ces technologies, les États-Unis est loin d'avoir le monopole, ou une avance insurmontable. Des technologies d'intelligence artificielle équivalentes sont développées dans le secteur privé, y compris, par exemple, en Chine et en Israël. Dans le contexte d'une course à l'armement face à un rival hostile, voire d'une guerre, les États-Unis ne pourraient pas forcément se permettre le luxe de tels dilemmes éthiques.
En attendant, qu'on se le tienne pour dit : l'intelligence artificielle est désormais au coeur des enjeux de la guerre du 21ème siècle.