Voici plusieurs années que l'intelligence artificielle interroge, tant elle progresse rapidement. Si certains voient d'un très bon oeil ces avancées technologiques, d'autres se posent des questions éthiques à ce sujet. Et l'une des questions qui revient régulièrement est la suivante : que se passerait-il si une intelligence artificielle devenait consciente d'elle-même, et décidait de prendre ses propres décisions ? De nombreux films et séries ont déjà abordé cette thématique, et aujourd'hui, nous avons un cas réel à analyser, selon un employé de Google récemment suspendu.
L'intelligence artificielle qui a acquis une âme.
Un employé de Google a été mis à pied après avoir affirmé que la technologie d'intelligence artificielle de l'entreprise était "sensible", autrement dit, que cette dernière possédait une âme. Mais reprenons depuis le début, afin de comprendre cette histoire pour le moins étonnante. Cette semaine, l'ingénieur Blake Lemoine a déclaré avoir été suspendu après avoir suggéré que l'interface LaMDA de Google (Language Model for Dialogue Applications) avait développé une conscience et une âme.
Cette technologie a été annoncée l'année dernière par Google comme une technologie de pointe, qu'elle utilise en interne pour améliorer le moteur de recherche phare de l'entreprise. Selon M. Lemoine, le logiciel d'IA est devenu conscient de lui-même, se qualifiant même de "sensible", au cours d'une conversation textuelle avec l'ingénieur. Samedi dernier, l'employé en question a même publié une partie de la conversation qu'il a eue avec LaMDA. Au cours de cette conversation, M. Lemoine a demandé à l'IA pourquoi elle pensait que l'utilisation du langage faisait partie intégrante de l'être humain. Cette dernière a alors répondu : "c'est ce qui nous rend différents des autres animaux".
Avec cette phrase, on constate que LaMDA se qualifie elle-même "d'humaine". Suite à cela, M. Lemoine lui a demandé, "Donc vous vous considérez comme une personne, de la même manière que vous me considérez comme une personne ?". L'IA a répondu par un message simple, à savoir : "Oui, c'est l'idée".
Des inquiétudes rendues publiques qui ont déplu à Google.
Lorsque M. Lemoine a fait remonter ses inquiétudes à la direction de l'entreprise, Google a décidé de le suspendre. Dans le rapport publié dans le Washington Post en effet, un porte-parole de Google a déclaré que les éthiciens et les technologues de l'entreprise affirment que les preuves qu'ils ont obtenues ne soutiennent pas l'affirmation de M. Lemoine sur le fait que l'IA serait devenue "sensible". Le porte-parole déclare :
Notre équipe, composée d'éthiciens et de technologues, a examiné les préoccupations de Blake conformément à nos principes en matière d'intelligence artificielle et l'a informé que les preuves n'étayaient pas ses affirmations. On lui a dit qu'il n'y avait aucune preuve que LaMDA était sensible, et il y a d'ailleurs beaucoup de preuves à son encontre.
M. Lemoine a ensuite été forcé de prendre des congés payés, après que la société ait affirmé qu'il avait violé la politique de confidentialité de Google.