Tout ressort dans le lavage : l’action réglementaire sur le lavage de l’IA s’accélère

25 février 2025

Écrit par Jeff Taylor, Katherine Booth et Emma Arnold-Fyfe

Les mesures réglementaires liées aux valeurs mobilières concernant le « lavage de l’IA » se sont multipliées aux États-Unis, ce qui sert d’avertissement sur les développements futurs potentiels au Canada. Le blanchiment de l’IA, tel que défini par les Autorités canadiennes en valeurs mobilières (ACVM), fait référence à un émetteur qui fait des affirmations fausses, trompeuses ou exagérées au sujet de son utilisation de systèmes d’IA dans ses produits ou services afin de tirer parti de l’utilisation croissante des systèmes d’IA et de l’intérêt des investisseurs pour ceux-ci. Les ACVM ont indiqué qu’elles avaient identifié des campagnes de divulgation et de promotion qui comprenaient le lavage de l’IA dans le cadre de son plus récent programme d’examen de la divulgation continue. Nous voyons également des recours collectifs en valeurs mobilières alléguant le blanchiment de l’IA déposés aux États-Unis.

Mesures réglementaires aux États-Unis

Les régulateurs américains mettent en garde contre le lavage de l’IA depuis un certain temps déjà. En février 2023, la Federal Trade Commission (FTC) a publié un blogue complet détaillant les risques associés à une fausse représentation des capacités d’IA et décrivant les domaines que la FTC examinera à l’avenir lorsque des particuliers et des entreprises exagéreront leurs fonctionnalités d’IA.

En février 2024, lors d’une allocution à la faculté de droit de Yale, le président de la Securities and Exchange Commission (SEC) des États-Unis, Gary Gensler, a mis en garde les entreprises ouvertes contre le délavage de l’IA, déclarant que « que ce soit par des entreprises qui lèvent des fonds ou par des intermédiaires financiers, tels que des conseillers en investissement et des courtiers, [le blanchiment de l’IA] peut violer les lois sur les valeurs mobilières ».

La SEC a pris des mesures à plusieurs reprises l’an dernier :

  • Le 18 mars 2024, la SEC a annoncé qu’elle avait réglé les accusations portées contre deux sociétés de conseillers en placement, Delphia (USA) Inc., établie à Toronto, et Global Predictions Inc., établie à San Francisco, pour avoir fait des déclarations fausses ou trompeuses concernant leur utilisation de l’IA. Les entreprises ont accepté de régler les accusations de la SEC et de payer 400 000 $ en pénalités civiles.
  • Le 11 juin 2024, la SEC a accusé Ilit Raz, PDG et fondateur de la startup de recrutement d’IA Joonko, d’avoir escroqué des investisseurs d’au moins 21 millions de dollars. Le même jour, le bureau du procureur américain pour le district sud de New York a annoncé des accusations criminelles contre Raz.
  • Le 10 septembre 2024, la SEC a publié une vidéo avec le président de la SEC, Gary Gensler, discutant des risques de divulgation liés à l’IA et de l’importance pour les entreprises d’avoir une base raisonnable pour les allégations qu’elles font concernant l’IA.
  • Le 10 octobre 2024, la SEC a annoncé des accusations contre les entités de Rimar Capital et le propriétaire Itai Liptz pour avoir fraudé les investisseurs en faisant des déclarations fausses et trompeuses sur l’utilisation de l’IA. Les parties ont convenu de régler les accusations de la SEC et de payer 310 000 $ en pénalités civiles.

Recours collectif en valeurs mobilières fondé sur des allégations de blanchiment d’IA

En plus de l’activité réglementaire fondée sur les valeurs mobilières, les actionnaires ont commencé à déposer des recours collectifs en valeurs mobilières aux États-Unis, alléguant que des sociétés et des administrateurs ont fait des déclarations matériellement fausses et trompeuses au sujet de l’utilisation des technologies d’IA. Ces poursuites font souvent suite à la publication d’un rapport d’investisseur qui identifie les fausses déclarations présumées, ce qui est souvent suivi d’une baisse du cours de l’action de l’entreprise. Bien qu’à notre connaissance, aucun recours collectif en matière de blanchiment d’IA n’ait été déposé au Canada, ces cas prévoient les risques potentiels de litige auxquels les émetteurs canadiens pourraient être confrontés au nord de la frontière.

Voici quelques exemples récents aux États-Unis :

  • En mai 2022, un recours collectif proposé a été déposé contre Upstart, Inc., une plateforme de prêt d’IA basée sur le cloud qui prétendait tirer parti de la technologie de l’IA pour mieux quantifier le risque réel d’un prêt. La plainte allègue que l’entreprise a fait des déclarations fausses et trompeuses en omettant de divulguer que son modèle d’IA ne pouvait pas tenir compte adéquatement des facteurs macroéconomiques tels que les taux d’intérêt qui ont une incidence sur le prix de compensation du marché des prêts, qu’elle subissait une incidence négative sur son taux de conversion et qu’elle était susceptible d’utiliser son bilan pour financer des prêts. Upstart a publié un communiqué de presse le 9 mai 2022, annonçant ses résultats financiers pour le premier trimestre de 2022 et détaillant que les prêts au bilan de la société avaient plus que doublé en un seul trimestre. En conséquence, le cours des actions d’Upstart a baissé de 56%. Le 29 septembre 2023, une décision rendue en réponse à certaines requêtes en rejet et en radiation a détaillé que toutes les allégations de fraude en valeurs mobilières contre les défendeurs Upstart, sauf cinq, ont été rejetées. Deux de ces réclamations portaient sur des déclarations sur les avantages du modèle de souscription d’IA d’Upstart par rapport aux modèles traditionnels basés sur FICO, et des déclarations sur la capacité du modèle à « s’adapter rapidement » aux conditions macroéconomiques changeantes. L’affaire est actuellement en attente de certification de classe. 1
  • En février 2024, un recours collectif a été déposé contre Innodata Inc., une société mondiale d’ingénierie de données qui affirmait qu’elle fournissait des plateformes logicielles et des services basés sur l’IA pour la collecte de données sur l’IA et d’autres processus commerciaux. La plainte allègue qu’Innodata a fait des déclarations matériellement fausses et trompeuses parce qu’elle ne disposait pas en fait d’une technologie d’IA viable, que sa plateforme d’IA était en fait un logiciel rudimentaire développé par une poignée d’employés, qu’elle n’allait pas utiliser l’IA à un degré significatif dans les nouveaux contrats et qu’elle n’investissait pas efficacement dans la recherche et le développement de l’IA. Le cours de l’action d’Innodata a baissé après la publication d’un rapport aux investisseurs alléguant que l’IA d’Innodata était de la « poudre aux yeux ». 2
  • En juillet 2024, un recours collectif proposé a été déposé contre Oddity Tech Inc., une plateforme de cosmétiques en ligne. La poursuite allègue, entre autres, qu’Oddity avait fait des déclarations matériellement fausses et trompeuses concernant sa technologie et ses capacités d’IA et/ou la mesure dans laquelle la technologie d’IA a stimulé les ventes de l’entreprise. Un rapport subséquent allègue que la prétendue technologie d’IA de l’entreprise n’est qu’un questionnaire pour les clients et que les rapports de l’entreprise sur les ventes régulières des clients sont dus à des clients qui ont conclu sans le savoir des plans non annulables, et non au résultat de technologies d’IA. Le cours de l’action d’Oddity a baissé après la publication du rapport. Le 22 août 2024, l’affaire a été transférée au district sud de New York. 3

Ce que disent les organismes de réglementation au Canada

Les ACVM ont identifié le blanchiment de l’IA comme une lacune en matière de divulgation et une forme de divulgation trop promotionnelle dans le cadre de son plus récent programme d’examen de la divulgation continue. 4 Les ACVM ont observé une augmentation du blanchiment de l’IA et ont offert des directives sur la divulgation des pratiques d’IA, déclarant que « lorsqu’ils décrivent des produits, des services ou des activités actuels et proposés, les émetteurs ne doivent pas faire d’allégations fausses, trompeuses et exagérées au sujet de leur utilisation des systèmes d’IA ». Les émetteurs doivent s’assurer que leur divulgation des pratiques en matière d’IA est factuelle, équilibrée et ne met pas trop l’accent sur leurs pratiques en matière d’IA.

La question du blanchiment de l’IA dans les documents d’information continue et les prospectus relève fermement du champ d’attention des ACVM. Nous nous attendons à ce que toute mesure d’application de la loi ressemble à une mesure d’application de la loi prise contre l’écoblanchiment.

Commission des valeurs mobilières de l’Ontario

La Commission des valeurs mobilières de l’Ontario (CVMO) a publié plusieurs rapports et publications sur l’IA. En octobre 2023, la CVMO a publié un rapport sur l’IA sur les marchés financiers de l’Ontario. Le rapport décrit les cas d’utilisation, les avantages et les défis actuels de l’IA dans le but de sensibiliser les gens aux possibilités et aux risques associés à l’IA sur les marchés financiers. Le rapport souligne notamment un défi majeur dans l’adoption des systèmes d’IA sur les marchés financiers, à savoir leur manque d’explicabilité inhérent. Contrairement aux modèles mathématiques traditionnels, les systèmes d’IA sont très complexes et souvent difficiles à comprendre, ce qui peut nuire à la confiance. L’explicabilité est essentielle pour établir la confiance, mais il n’y a pas de définition convenue de ce que signifie réellement l’explicabilité dans l’industrie de l’IA.

En février 2024, la CVMO a publié une annonce mettant en évidence son programme de dénonciation, qui cherche activement des conseils sur des questions nouvelles et émergentes en matière de réglementation des valeurs mobilières, y compris « l’utilisation abusive des algorithmes et de l’intelligence artificielle ». L’accent mis par la CVMO sur les nouveaux enjeux souligne l’importance croissante des préoccupations liées à l’IA et indique que l’application de la loi relative au lavage de l’IA est en hausse au Canada.

Autorité des marchés financiers

L’Autorité des marchés financiers (AMF) a publié en février 2024 un document de travail sur l’IA sur les opportunités et les enjeux associés à l’utilisation de l’IA dans l’industrie. Dans Meilleures pratiques pour l’utilisation responsable de l’IA dans le secteur financier, l’AMF articule des pratiques pour établir un niveau de transparence adéquat quant à l’utilisation de l’IA par les acteurs financiers. Les principaux points de l’Autorité pour accroître la transparence pour les consommateurs comprennent la divulgation de l’information sur la conception et l’utilisation du cadre de l’IA, la divulgation de l’information sur l’utilisation de l’IA dans les produits et services, l’explication au consommateur des résultats liés à la transparence pour les consommateurs et le public, et la fourniture aux consommateurs de canaux de communication et de mécanismes d’aide et de compensation.

Surveillance de l’IA par le conseil d’administration

Dans ses lignes directrices de référence pour le Canada de 2025, Glass Lewis a identifié les risques potentiels de l’IA et a indiqué que les conseils d’administration devraient « être conscients de tout risque important qui pourrait découler de leur utilisation ou de leur développement de l’IA et prendre des mesures pour les atténuer ». 5 Glass Lewis a ensuite recommandé aux entreprises qui développent ou utilisent l’IA de fournir une information claire sur le rôle du conseil d’administration dans la supervision de l’IA.

Principaux points à retenir

Bien que le Canada n’ait pas encore vu d’application de la réglementation et de recours collectifs semblables à ceux des États-Unis, le volume croissant de commentaires et de publications des ACVM et de divers participants au marché suggère que ces mesures sont à venir.

Les entreprises qui cherchent à lever des capitaux au Canada devraient considérer les commentaires des ACVM, ainsi que les commentaires et les mesures d’application de la SEC comme un avertissement de ce qui pourrait bientôt arriver au Canada. Les sociétés qui utilisent ou développent l’IA doivent s’assurer que leur conseil d’administration surveille les risques liés à l’IA et que les actionnaires reçoivent une information significative et exacte sur le rôle du conseil d’administration dans la surveillance de ces risques. Les émetteurs doivent faire preuve de prudence lorsqu’ils divulguent leurs pratiques en matière d’IA et les participants au marché pourraient vouloir adopter des pratiques de diligence raisonnable plus rigoureuses plutôt que de simplement acheter le « battage médiatique » entourant les nouvelles technologies d’IA.

Alors que l’innovation en IA continue de gagner du terrain auprès des participants au marché, une approche prudente de la mise en œuvre, de la gestion des risques et de la divulgation de l’IA doit être appliquée pour protéger les investisseurs et maintenir l’intégrité du marché.

Pour discuter de la façon de gérer l’utilisation de l’IA et de la divulgation connexe, veuillez communiquer avec l’un des auteurs.

Les auteurs sont reconnaissants de l’aide de Nathalie Hunter, étudiante d’été en droit, dans le cadre de la préparation de cet article.


1 Crain c. Upstart Holdings, Inc. (2:22-cv-02935) Cour de district, S.D. Ohio, Plainte de recours collectif pour violation des lois fédérales sur les valeurs mobilières, Document 1

2 D’Agostino v. Innodata Inc. et al., Cour de district des États-Unis (district du New Jersey), dossier de la cour no 2:24-cv-00971, Plainte de recours collectif pour violation des lois fédérales sur les valeurs mobilières, document 1

3 Hoare v. Oddity Tech Ltd. et al., United States District Court (Southern District of New York), dossier judiciaire no 1:24-cv-06571, Class Action Complaint, document 1

Auteur(e)s

Jeff Taylor
604.891.5340
taylorje@bennettjones.com

Katherine Booth
604.891.5336
boothka@bennettjones.com

Emma Arnold-Fyfe
604.891.5187
arnoldfyfee@bennettjones.com



Traduction alimentée par l’IA.

Veuillez noter que cette publication présente un aperçu des tendances juridiques notables et des mises à jour connexes. Elle est fournie à titre informatif seulement et ne saurait remplacer un conseil juridique personnalisé. Si vous avez besoin de conseils adaptés à votre propre situation, veuillez communiquer avec l’un des auteurs pour savoir comment nous pouvons vous aider à gérer vos besoins juridiques.

Pour obtenir l’autorisation de republier la présente publication ou toute autre publication, veuillez communiquer avec Amrita Kochhar à kochhara@bennettjones.com.