13 mars 2024

L’intelligence artificielle (IA) est sans conteste d’actualité. Mais les innovations qu’elle nous propose et les dérives qui peuvent en découler suscitent encore plusieurs questions. Comment faire en sorte d’adopter des pratiques responsables, exemptes de fraudes ou autres abus? S’y pencher est loin de mener à une seule et unique réponse, mais l’exercice est bien nécessaire.

Pour en discuter, l’École des dirigeants de HEC Montréal a organisé un panel le 8 février dernier, animé par l’avocate et formatrice Ginette Depelteau. Deux panélistes experts du domaine étaient autour de la table :

  • Catherine Régis, professeure titulaire à la Faculté de droit de l’Université de Montréal et membre académique associée à Mila – Institut québécois d’intelligence artificielle
  • Stéphane Eljarrat, associé principal et chef canadien, Droit pénal des affaires chez Norton Rose Fulbright Canada

Un contexte fertile et plus que pressant

Catherine Régis est formelle : depuis la Déclaration de Montréal de 2018, nous avons atteint une autre étape de réflexions sur l’IA. Il y a six ans, on anticipait déjà des réflexions autour d’une « boussole éthique », qui aiderait à définir des comportements responsables entourant l’utilisation de l’IA.


Pour ce faire, les visions non seulement de plusieurs spécialistes en droit, philosophie, intelligence artificielle et autres, mais aussi de citoyens ont été croisées pour obtenir un aperçu de différents scénarios concernant les domaines de la santé, de la justice et de la culture. Et, six ans après, force est de constater que ces préoccupations semblaient fondées : début février, le Conseil de l’innovation du Québec sortait un rapport présentant une série de recommandations pour encadrer les pratiques de développement et d’utilisation de l’IA.

Les spécialistes sont unanimes : des cadres éthiques, comme celui de la Déclaration, et juridiques sont plus qu’essentiels. Stéphane Eljarrat a d’ailleurs souligné lors du panel que certaines situations et usages de l’IA sont plus qu’inquiétants. L’avocat a illustré son propos en parlant uniquement de situations vécues dans le cadre de son travail. L’un des exemples les plus parlants n’est autre que la création de faux documents officiels (titres de propriété) amenant une instabilité du marché. Sans mentionner les faux courriels, messages ou vidéos usurpant l’identité d’une personne, qui se fait ainsi soutirer des informations confidentielles.

Crimes usant de l’IA restés impunis

Selon Stéphane Eljarrat, les principes de criminologie n’ont jamais été aussi vrais lorsqu’il s’agit de l’IA. Prenons le cas des motivations des individus à commettre un crime : les quatre facteurs essentiels que sont l’argent, l’idéologie, l’ego et le fait d’être dans une situation embarrassante sont bien vrais pour des crimes liés à l’IA, qu’importe leur sophistication.

Et très peu d’extorqueurs se font appréhender, rappelle l’avocat. La raison est principalement le manque de traçabilité et de présence physique. Résultat : on ne parvient pas à identifier les personnes responsables et à retrouver les fonds volés.

Protéger les entreprises

Pour Catherine Régis, l’IA digne de confiance passe nécessairement par un cadre législatif approprié, qu’il soit établi dans le projet de loi C-27 ou d’une future loi-cadre proposée tout récemment par Québec. Mais pour l’experte, une loi ne pourra pas régler toutes les questions suscitées par l’IA puisque les enjeux sont multiples et de nature évolutive; une stratégie plurielle qui fait intervenir, certes des outils juridiques, mais aussi techniques (le tatouage numérique par exemple) et éducatif (développement d’habiletés d’esprit critiques par rapport aux bienfaits et risques de l’IA dans nos vies), doit faire partie de notre boîte à outils à cet égard.

Et l’innovation dans tout cela?

Encadrer l’IA sans brimer l’innovation est aussi un enjeu. Si l’on souhaite des écosystèmes innovants, on doit plutôt adopter une approche « basée sur la connaissance des risques », prônent les deux experts. Autrement dit, une approche cohérente et consciente des risques pour que l’innovation se conjugue avec le principe de prudence.

L’un des exemples cités concernait nos communications au moment d’effectuer une transaction. La règle de deux voire trois lignes de communication est essentielle pour s’assurer qu’il ne s’agit pas d’une demande formulée par une IA. « Nous ne sommes plus dans un monde où il faut se demander si un jour nous ferons face à un acte criminel généré par l’IA, mais bien quand ce sera le cas », alerte Stéphane Eljarrat. D’où l’importance de voir à ce que les processus en place soient efficaces et du ressort d’un groupe de personnes capables de faire les vérifications adéquates avant une crise.

Garder des humains dans la boucle

Dernier point abordé pour conclure ce panel : la relation ambiguë entre l’humain et l’IA, souvent mis en concurrence.

Les deux experts ont souligné un principe clé : l’IA est possiblement utile partout où l’intelligence humaine l’est… à condition de la faire intervenir dans les secteurs où les défis sont grands et les ressources, manquantes. Ainsi, si on prend l’exemple du domaine de la santé, son potentiel est énorme en recherche et son utilisation permet notamment d’améliorer la qualité des diagnostics médicaux.

Catherine Régis mentionne des exemples précis concernant certains métiers dans le secteur de la santé qui pourraient ainsi retrouver un autre sens, si les travailleurs étaient libérés de tâches chronophages qui apportent peu de valeur ajoutée sur le plan de la relation soignant-soigné (la prise de notes au dossier médical, la prise de rendez-vous médicaux ou le remplissage de formulaires administratifs). Quant à Stéphane Eljarrat, ce sont les avancées notables dans la recherche scientifique qui l’ont marqué, un domaine où l’IA a su se démarquer ces dernières années.

Pour les avancées ou le soutien essentiel, l’IA doit être pensée comme l’autre partie d’un binôme avec l’humain. Une sorte de valeur ajoutée qui ne peut pas exister sans un travail de vérification. Le travail qui peut et ne doit pas se passer par les humains qui ferment la boucle. Prudence ici, et les experts ont insisté : une seule personne ne peut avoir cette responsabilité. Il est plutôt nécessaire de créer des équipes spécialisées et capables d’adopter un certain esprit critique, une équipe qui comprend à la fois les différents systèmes d’IA et reconnaît ses vulnérabilités.

En d’autres mots, quand on parle de l’IA, le tableau n’est pas totalement sombre. Il est seulement nuancé. Et tant qu’on pensera ces technologies comme une façon de gagner en qualité et de soutenir l’humain, nous avancerons dans la bonne direction.

➲ Vous souhaitez implanter des pratique exemplaires en éthique dans votre organisation, découvrez la certification en éthique et conformité et inscrivez-vous sur notre liste d'attente pour connaître les prochaines cohortes.

➲ Des questions? Prenez rendez-vous avec Joëlle Zoghbi, chargée de programmes.