Des commissaires à l'immigration s'inquiètent de l'apparition de demandes d'asiles au Canada rédigées par l'intelligence artificielle (IA). Des demandeurs utilisent un robot conversationnel comme ChatGPT pour rédiger un historique de persécution à leur place ou pour détailler les dangers qui existent dans leur pays d'origine. Une pratique jugée préoccupante, car dans au moins un cas, le logiciel est soupçonné d'avoir fabriqué de fausses preuves pour favoriser l'obtention du statut de réfugié.
C'est ce qui ressort d'une série de courriels internes rédigés par des fonctionnaires fédéraux l'automne dernier et obtenus par La Presse en vertu de la Loi sur l'accès à l'information.
« L'intelligence artificielle devient une plus grande préoccupation », lit-on dans des notes de réunion entre gestionnaires de la Commission de l'immigration et du statut de réfugié (CISR), tribunal administratif chargé d'entendre les demandes d'asile au Canada.
La note évoque la crainte qu'un logiciel « écrive une histoire » au sujet d'un demandeur.
Pour chacune des dizaines de milliers de demandes d'asile présentées au Canada chaque année, un commissaire de la CISR doit étudier la preuve et déterminer si la personne devant lui a vraiment raison de craindre d'être persécutée dans son pays d'origine en raison de sa race, de sa religion, de sa nationalité, de ses opinions politiques ou de son appartenance à un groupe social. Si c'est le cas, et que l'histoire racontée par le demandeur est jugée crédible, on lui accorde le statut de réfugié et lui ouvre les portes du Canada.
Le système permet aux réfugiés authentiques de refaire leur vie loin de la guerre, de la dictature, des gangs ou des zélotes religieux qu'ils ont laissés derrière. Mais il arrive aussi que de faux réfugiés tentent d'être admis au pays sous de faux prétextes. Certains commissaires craignent que les nouveaux outils technologiques leur facilitent la tâche.
Des « similitudes frappantes »
Dans le cadre du processus, chaque personne qui veut obtenir le statut de réfugié doit d'abord remplir un formulaire dans lequel elle détaille son parcours et les raisons qui l'amènent à chercher refuge au Canada.
L'automne dernier, les gestionnaires de la CISR ont rapporté quelques cas de récits individuels dans ces formulaires qui semblaient avoir été rédigés par un robot conversationnel à la place du demandeur.
« La région de l'Ouest nous a rapporté six dossiers dans lesquels ils ont détecté l'utilisation de ChatGPT. Nous aimerions avoir une meilleure compréhension de l'ampleur de ce problème potentiel, et des cas détectés », écrivait Me Sarah Côté, commissaire coordonnatrice établie à Montréal, dans un courriel envoyé à ses collègues en novembre dernier, qui a ensuite suscité plusieurs réponses.
Les exemples discutés dans les échanges obtenus par La Presse incluaient un cas où un commissaire avait détecté de nombreux formulaires détaillant le parcours de différents demandeurs qui présentaient des « similitudes frappantes » et un style particulier.
Comme si un logiciel avait fourni la même réponse à plusieurs personnes qui lui demandaient de rédiger un récit convaincant basé sur les dangers qui peuvent exister dans un certain pays.
Dans d'autres cas, c'était le style de rédaction fleuri et ampoulé, très différent des autres documents remplis par le demandeur, qui laissait croire aux commissaires que le récit du parcours du demandeur n'avait pas été rédigé par lui-même et qui les amenait à se questionner sur son authenticité.
Des hyperliens approximatifs
Dans un autre cas cité dans les échanges, un avocat qui représentait un demandeur d'asile originaire du Rwanda a avoué à un commissaire qu'il avait demandé à ChatGPT de rédiger un document général sur les risques d'embrigadement forcé des jeunes vulnérables dans les rangs de l'armée rwandaise.
Le document soumis en preuve faisait référence à plusieurs sources officielles qui étaient censées confirmer les craintes du demandeur à cet effet. Seul problème, aucun des hyperliens cités en preuve et qui devaient mener aux sources officielles n'était fonctionnel.
Le commissaire chargé du dossier « croit que ChatGPT a fabriqué les liens », lit-on dans un des courriels divulgués par la CISR à La Presse.
En fait, ChatGPT simule des hyperliens vers des sources crédibles (par exemple Human Rights Watch), mais les articles n'existent pas réellement. Ce sont seulement des combinaisons ou approximations de vrais liens.
Un gestionnaire de la CISR
La CISR n'a pas voulu accorder d'entrevue à ce sujet pour cet article.
« En ce qui concerne les risques liés à l'utilisation de l'IA par des personnes dans le cadre de demandes d'asile, la Commission est familière avec bon nombre des risques potentiels », a simplement précisé la porte-parole Anna Pape dans un courriel.
« Lorsqu'ils rendent des décisions, les commissaires de la CISR doivent toujours évaluer la crédibilité des parties et des preuves qu'elles présentent. Il s'agit là d'un élément clé de leur travail, qui consiste à statuer sur chaque cas en fonction de son bien-fondé et conformément à la loi. La manière dont les demandeurs d'asile préparent leurs documents ne change rien à cette responsabilité fondamentale », assure-t-elle.
Difficile de passer à travers l'audience
Me Stéphanie Valois, présidente de l'Association québécoise des avocats et avocates en droit de l'immigration, croit qu'il faut faire une distinction entre un demandeur qui demanderait simplement à un outil comme ChatGPT d'améliorer la rédaction ou la mise en forme du texte de son récit et une situation où les faits eux-mêmes seraient « améliorés » par le logiciel.
« Là, ça signifierait que le client n'a pas écrit sa propre histoire », dit-elle.
Me Valois ajoute que l'avocat d'un demandeur a une responsabilité s'il détecte quelque chose qui cloche. « Si un client ment, on ne peut pas toujours le savoir. Mais si on le sait, on ne peut pas déposer son formulaire », affirme-t-elle.
Me Stéphane Handfield, avocat en immigration qui a longtemps travaillé comme commissaire à la CISR, se veut rassurant. Selon lui, il serait très difficile pour un demandeur d'asile de tromper les décideurs sur la base d'un récit construit par l'intelligence artificielle.
« Il faut rassurer les gens : il y a toujours une audience pour évaluer la crédibilité du demandeur. La personne qui arrive avec une histoire inventée, qu'elle ait été créée par l'IA ou pas, ce sera très difficile pour elle de soutenir un témoignage pendant trois heures avec les questions souvent pointues qui lui seront posées sur ce qu'elle a allégué. Il lui faudra être très solide devant le tribunal pour répondre à toutes ces questions, si l'histoire n'est pas la sienne », croit-il.
156 032
Nombre de dossiers en instance devant la Commission de l'immigration et du statut de réfugié au 31 décembre dernier
37 222
Nombre de demandes d'asile acceptées en 2023