Les organisations intègrent de plus en plus l’intelligence artificielle (IA) dans les opérations afin d’accroître l’efficacité; cependant, les risques de résultats hallucinés sont progressivement pris en compte par les organismes de réglementation, les organismes gouvernementaux et les tribunaux au Canada. Afin de protéger leur intégrité et de minimiser le risque potentiel de se fier à l’IA, les organisations doivent s’assurer qu’elles se plaignent des directives réglementaires applicables en ce qui concerne l’utilisation de l’IA.
Cet article aborde trois sujets principaux :
Le 5 décembre 2024, les ACVM ont publié l’Avis et consultation 11-348 du personnel des ACVM : Applicabilité des lois canadiennes sur les valeurs mobilières et utilisation des systèmes d’intelligence artificielle sur les marchés financiers (l’avis). Ce document fournit des conseils sur la façon dont la législation sur les valeurs mobilières s’applique à l’utilisation et à la mise en œuvre de l’IA par les participants au marché.
En publiant l’avis, les ACVM soulignent plusieurs « thèmes généraux » concernant l’utilisation des systèmes d’IA sur les marchés financiers. Par exemple, l’avis indique qu'« il est important de noter que c’est l’activité exercée, et non la technologie elle-même, qui est réglementée », soulignant la nature neutre des lois canadiennes sur les valeurs mobilières. L’avis exhorte également les participants au marché à élaborer et à mettre en œuvre de solides pratiques de gouvernance et de gestion des risques lors du déploiement de systèmes d’IA. Il est important de noter que l’avis reconnaît que certains systèmes d’IA ont des niveaux d’explicabilité plus faibles et encourage les participants au marché à trouver un équilibre entre le besoin d’explicabilité et les capacités avancées que les systèmes d’IA peuvent offrir.
Ce qui suit portera sur les exigences de l’avis relatives aux émetteurs assujettis autres que des fonds d’investissement qui sont assujettis aux exigences d’information prévues par le Règlement 51-102 sur les obligations d’information continue (le Règlement 51-102) (chacun un émetteur non FI et collectivement un émetteur non FI).
En tant que « pierre angulaire de la protection et de la confiance des investisseurs », les émetteurs qui ne sont pas des FI sont généralement tenus, en vertu des lois sur les valeurs mobilières, de divulguer publiquement certains renseignements sur leurs activités et leurs affaires dans un prospectus et de façon continue par la suite. Lorsqu’il s’agit d’examiner la façon dont l’information concernant l’utilisation de l’IA par un émetteur non FI devrait être abordée, l’avis indique qu'« une détermination de l’importance relative devrait être faite par les émetteurs non FI » et que toute divulgation devrait :
émetteurs qui utilisent ou développent des systèmes d’IA doivent fournir des informations personnalisées lorsque ces activités sont importantes pour leurs activités. Ces informations doivent éviter les énoncés génériques et offrir des informations propres à l’entité pour aider les investisseurs à comprendre les répercussions opérationnelles, financières et de risque de l’utilisation de l’IA. Des détails précis peuvent inclure, par exemple, la nature et l’incidence des applications d’IA, les avantages et les risques connexes, les contrats importants et l’effet sur le positionnement concurrentiel. Les émetteurs qui ne sont pas des FI doivent également divulguer la source et les fournisseurs des données que le système d’IA utilise pour exécuter ses fonctions, et si le système d’IA est développé à l’interne ou par des tiers, avec des attentes similaires s’étendant aux dépôts de prospectus.
Les émetteurs qui ne sont pas des FI doivent divulguer les risques importants liés à l’IA dans les prospectus et les documents d’information continue, en évitant les termes passe-partout au profit d’explications claires et propres à l’entité. Une divulgation efficace des risques doit décrire la façon dont le conseil d’administration et la direction évaluent et gèrent les risques liés à l’IA, ce qui permet aux investisseurs de bien comprendre leur impact. Les émetteurs sont encouragés à mettre en œuvre de solides pratiques de gouvernance, y compris la reddition de comptes, la gestion des risques et la surveillance liés à l’utilisation de l’IA. Parmi les risques liés à l’IA à prendre en compte, mentionnons les risques opérationnels (tels que l’impact des perturbations), les risques liés aux tiers (dépendre de ces tiers), les risques éthiques (problèmes sociaux découlant de l’utilisation de l’IA), les risques réglementaires (défis juridiques et de conformité), les risques concurrentiels (impact négatif des produits en évolution rapide) et les risques liés à la cybersécurité.
Les émetteurs qui ne sont pas des FI doivent s’assurer que les informations sur leur utilisation ou leur développement de systèmes d’IA sont justes, équilibrées et non trompeuses, et qu’elles sont fondées raisonnablement pour toute allégation formulée. Des informations « trop promotionnelles » (c.-à-d. divulguer que l’émetteur n’est pas un FI utilisent plus d’IA qu’il ne le fait réellement) ou des divulgations vagues et insuffisamment détaillées peuvent induire les investisseurs en erreur et enfreindre les lois sur les valeurs mobilières applicables. Les émetteurs non FI doivent fournir des définitions claires et justifiées de leur utilisation de l’IA, en tenant compte des avantages et des risques connexes afin d’éviter de présenter une vision déséquilibrée. Les nouvelles défavorables doivent être divulguées aussi rapidement que les nouvelles favorables, et les émetteurs non FI doivent maintenir des pratiques d’information uniformes et de haute qualité sur toutes les plateformes, y compris les médias sociaux, pour se conformer à leurs obligations de déclaration.
Les émetteurs qui ne sont pas des FI doivent se demander si une déclaration concernant leur utilisation de l’IA peut constituer de l’information prospective. Si c’est le cas, les émetteurs non FI ne doivent pas divulguer de tels énoncés à moins qu’ils n’aient un motif raisonnable de le faire. La divulgation de FLI concernant la perspective ou l’utilisation des systèmes d’IA doit : (1) être clairement identifiée; (2) inclure une mise en garde indiquant que les résultats réels peuvent varier; (3) divulguer les facteurs ou hypothèses importants utilisés pour élaborer le FLI; et (4) décrire les facteurs de risque qui pourraient faire en sorte que les résultats réels diffèrent considérablement de ceux de l’IFF.
L’avis fournit un exemple dans lequel un émetteur non FI divulgue qu’il prévoit intégrer des systèmes d’IA dans ses produits parce qu’il s’attend à ce que cette intégration augmente les revenus de cinq pour cent. Dans ce cas, l’émetteur non FI est tenu de divulguer tous les facteurs et hypothèses importants qui ont été utilisés pour élaborer cette estimation et de fournir toute analyse de sensibilité nécessaire.
Alors que l’IA continue d’évoluer et de remodeler les industries, son adoption sur les marchés financiers présente à la fois des opportunités et des défis. L’avis vise à promouvoir l’utilisation responsable de l’IA en clarifiant les lois existantes sur les valeurs mobilières et en invitant les parties prenantes à formuler des commentaires pour orienter les orientations futures. Par conséquent, les participants au marché devraient adapter leurs activités pour s’assurer que leur déploiement s’harmonise avec : (1) les principes d’équité, de transparence et d’intégrité du marché; ainsi que (2) les lois applicables en matière de valeurs mobilières et autres.
Le 4 juin 2025, la COMC a publié un avis de pratique régissant l’utilisation de l’IA générative dans les documents préparés aux fins des procédures devant la COMC. Cet avis de pratique fait suite à des cas observés d'« hallucinations » d’IA dans des documents soumis au registraire des marques de commerce.
Le présent avis exige que les parties à une instance en vertu des articles 11.13, 38 ou 45 de la Loi sur les marques de commerce incluent la déclaration suivante sur tout document qui comprend du contenu généré par l’IA :
« L’intelligence artificielle (IA) a été utilisée pour générer du contenu dans ce document. Tout le contenu généré par l’IA, ainsi que l’authenticité de toutes les sources citées dans ce document, ont été examinés et vérifiés par [inclure le nom de la partie à la procédure] ou son agent de marques de commerce.
Une déclaration ne sera pas attendue lorsque des autorisations légales sont fournies ou que des preuves sont produites en réponse à des requêtes de recherche n’ayant que des critères objectifs. Le défaut de fournir une déclaration lorsqu’il est requis ou de fournir une fausse déclaration peut constituer une conduite déraisonnable entraînant l’adjudication de frais à la partie non conforme.
Plusieurs tribunaux au Canada ont fourni des directives sur la question de savoir si les observations doivent indiquer l’utilisation de l’IA.
L’essentiel de cette ligne directrice est l’importance pour le contrôle humain de certifier la satisfaction quant à l’authenticité des sources citées dans une présentation citée. Dans certaines juridictions, une déclaration concernant l’utilisation de l’IA dans une présentation peut également être requise.
Le 6 octobre 2023, la Cour du Banc du Roi de l’Alberta (ABKB) a émis un avis concernant l’intégrité des observations judiciaires lors de l’utilisation de grands modèles de langage. L’avis exhorte les praticiens et les plaideurs à faire preuve de prudence lorsqu’ils font référence à des sources juridiques ou à des analyses dérivées de LLM dans leurs observations. Pour toutes les références à la jurisprudence, aux lois ou aux commentaires, l’avis exige que les parties se fient exclusivement à des sources faisant autorité telles que les sites Web officiels des tribunaux, les éditeurs commerciaux couramment cités ou les services publics bien établis comme CanLII. Enfin, l’avis exige que toutes les soumissions générées par l’IA soient vérifiées avec un contrôle humain significatif.
La Cour supérieure du Québec et la Cour suprême de Terre-Neuve-et-Labrador ont également émis des avis en 2023, avec essentiellement les mêmes directives que celles fournies par l’ABKB. La Cour provinciale de la Nouvelle-Écosse a publié des directives similaires, y compris une exigence supplémentaire pour toute partie souhaitant s’appuyer sur des documents générés par l’utilisation de l’IA pour expliquer comment l’IA a été utilisée.
En juin 2023, la Cour du Banc du Roi du Manitoba et la Cour suprême du Yukon ont publié des directives de pratique concernant l’utilisation de l’IA dans les mémoires judiciaires. La directive de pratique du Manitoba exige que lorsque l’IA a été utilisée dans la préparation de documents déposés auprès du tribunal, ces documents indiquent comment l’IA a été utilisée. La directive de pratique du Yukon exige que si un avocat ou une partie s’appuie sur l’IA (comme ChatGPT ou toute autre IA) pour ses recherches juridiques ou ses observations dans une affaire et sous quelque forme que ce soit devant la Cour, il doit informer la Cour de l’outil utilisé et à quelles fins.
Le 7 mai 2024, la Cour fédérale du Canada (CF) a publié un avis exigeant que les parties à une procédure devant la CF l’informent, et qu’elles s’informent mutuellement, si les documents soumis à la Cour fédérale aux fins d’un litige comprennent du contenu créé ou généré par l’IA. Cette déclaration se fait au moyen d’une déclaration au premier alinéa indiquant que l’IA a été utilisée dans la préparation du document, soit dans son intégralité, soit seulement pour des paragraphes spécifiquement identifiés.
La Cour suprême de la Colombie-Britannique (BCSC) a conseillé aux avocats de divulguer au tribunal et aux parties adverses lorsque des documents soumis au tribunal incluent du contenu généré par des outils d’IA tels que ChatGPT. Dans l’affaire Zhang v Chen, 2024 BCSC 285, un avocat qui avait inclus des hallucinations d’IA dans son avis de demande a été tenu personnellement responsable des coûts, même s’il avait remarqué et supprimé les citations fabriquées.
En revanche, la Cour supérieure de l’Ontario (ONSC) a transformé la discussion sur l’utilisation de l’IA par les avocats en une préoccupation générale concernant l’obligation d’un avocat de certifier sa satisfaction quant à l’authenticité des sources citées. La règle 4.06 des Règles de procédure civile de l’Ontario, édictées en 2024, exige qu’un « mémoire comprenne une déclaration signée par l’avocat de la partie, ou au nom de l’avocat par une personne que l’avocat a expressément autorisée, attestant que la personne qui signe la déclaration est convaincue de l’authenticité de chaque autorité citée dans le mémoire ». L’ONSC a noté que la règle 4.06 a été adoptée spécifiquement pour rappeler aux avocats leur obligation de vérifier les cas cités dans leurs mémoires juridiques pour s’assurer qu’ils sont authentiques, à la lumière des risques et des faiblesses de l’IA non universellement compris.
Dans Ko v Li, 2025 ONSC 2766, une avocate qui avait inclus les hallucinations de l’IA dans son mémoire et qui n’avait pas inclus la certification obligatoire à la section 4.06, aurait « contourné le processus conçu spécifiquement pour éviter le problème qui s’est posé ici ».
L’intégration et l’intégration de l’IA dans les opérations ont le potentiel d’accroître l’efficacité; cependant, les organisations devraient : (1) atténuer le risque de se fier à l’IA générative en s’assurant que tous les résultats sont examinés pour en vérifier l’exactitude; (2) analyser constamment si l’utilisation de l’IA serait considérée comme matérielle ou non; et (3) mettre en œuvre une gouvernance et une gestion des risques solides liées à l’utilisation de l’IA.
Si vous avez des questions sur la façon dont votre organisation peut utiliser et mettre en œuvre l’IA, nous vous invitons à contacter l’un des auteurs de cet article.