
Dans une lettre ouverte destinée à l'Organisation des Nations Unies, un groupe d'experts en robotique parmi lesquels Elon Musk demande le bannissement des robots tueurs autonomes.
116 experts contre les armes autonomes.
Il est de notoriété publique que le PDG de Tesla et Space X, Elon Musk, est très prudent en ce qui concerne l'intelligence artificielle comme le montre son échange sur le sujet avec Mark Zuckerberg le mois dernier.
Cette fois, le milliardaire a décidé de partir en croisade contre les robots tueurs autonomes et, pour cela, il vient d'adresser, avec un groupe de 115 experts, une lettre ouverte à l'ONU dans laquelle son groupe demande à ce que toute arme létale autonome soit interdite. La lettre en question a été rendue publique hier, au moment de l'ouverture de la conférence mondiale sur l'intelligence artificielle.
Le terme d'arme létale autonome dont il est question ici concerne les drones, chars d'assaut et autres mitrailleuses automatiques pour ne citer qu'elles. En somme, toute arme pouvant ouvrir le feu sans intervention humaine.
Les différents spécialistes ne sont pas sans savoir qu'une utilisation de ce type d'armes létales est envisageable et s'inquiètent donc de la manière dont elles pourraient être utilisées comme l'explique le professeur Toby Walsh, chercheur à l'université de Sidney :
Ces armes peuvent créer la terreur si des tyrans ou des terroristes les utilisent contre la population civile.

Pas la première lettre.
Ce n'est pas la première fois qu'Elon Musk soutient une action de ce genre. Déjà en 2015, une lettre signée conjointement par Steve Wozniak, Toby Walsh et Stephen Hawking pour ne citer qu'eux, alertait sur les dangers des armes létales autonomes. Ladite lettre avait alors été rejetée par l'organisme internationale qui déclarait que "les lois humanitaires internationales était suffisantes pour gérer ce domaine."
https://www.youtube.com/watch?v=ZFfpf0SZD3g
A l'heure actuelle, le plus gros problème concernant ces armes réside dans le fait qu'elles sont, pour l'immense majorité d'entre elles, encore au stade de prototype et qu'il semble difficile d'estimer leur fiabilité. Le risque est alors de voir des "intelligences artificielles stupides" contrôler des armes comme l'explique le professeur Walsh.
Il semble donc qu'un consensus semble difficilement envisageable entre les différents partis. Reste désormais à savoir si une prise de conscience aura eu lieu avant d'ouvrir la boîte de Pandore.