Alors que l’IA prend son envol, les régulateurs peinent à suivre

Par James Langton | 28 October 2025 | Last updated on 27 October 2025
3 min read
Une technologie commerciale performante dans votre main. Main d'homme tenant un graphique futuriste en croissance au centre et un circuit imprimé avec des transferts de données vibrantes, représentant la technologie de négociation évolutive du futur.
da-kuk / iStock

Face à l’essor considérable des investissements dans l’intelligence artificielle (IA), la capacité des régulateurs du secteur financier à superviser le déploiement des outils d’IA, qui présentent un risque pour la stabilité financière, ne progresse pas au même rythme, avertit le Conseil de stabilité financière (CSF).

Dans un nouveau rapport, le CSF examine l’état de la surveillance de l’IA dans le secteur financier et formule des recommandations à l’intention des décideurs afin d’améliorer le suivi et de relever les défis rencontrés par les régulateurs.

« Bien que les autorités financières aient fait des progrès dans la compréhension des cas d’utilisation de l’IA, de ses avantages et de ses vulnérabilités, les efforts de suivi en sont encore à un stade précoce », indique le rapport.

Dans un rapport précédent, le CSF avait déjà mis en lumière divers risques associés à l’adoption de l’IA, susceptibles d’entraîner des répercussions sur la stabilité financière, notamment le renforcement des corrélations de marché, les cyberrisques, ainsi que les défis liés à la gouvernance et à la gestion des modèles.

Le nouveau rapport souligne également le risque découlant de la dépendance croissante des institutions financières à un petit nombre de fournisseurs tiers, ce qui « expose les institutions à des vulnérabilités opérationnelles », particulièrement à mesure que l’usage de l’IA générative s’accroît.

L’IA générative, conçue pour produire des contenus, repose fortement sur un nombre restreint de fournisseurs essentiels pour le matériel spécialisé, les infrastructures infonuagiques et les modèles préentraînés.

« Cette forte dépendance peut créer des vulnérabilités s’il existe peu d’alternatives », avertit le rapport.

Les efforts des régulateurs pour suivre ces risques se heurtent également à plusieurs obstacles :

  • un manque de données,
  • une transparence limitée
  • et le rythme rapide d’évolution des systèmes d’IA.

« Les répondants à une enquête menée auprès des membres ont mentionné des défis tels que l’absence de définitions communes de l’IA, les difficultés à assurer la comparabilité entre les juridictions, les obstacles à l’évaluation de l’importance critique des services d’IA, ainsi que le coût et l’étendue du suivi », précise le document.

Dans ce contexte, le CSF exhorte les régulateurs à renforcer leurs mécanismes de surveillance, et propose une série d’indicateurs, directs et indirects, que les autorités pourraient utiliser pour suivre l’adoption de l’IA et les risques potentiels pour le système financier.

« Ces indicateurs peuvent être recueillis par le biais d’enquêtes, de consultations, d’interactions de supervision avec les entités réglementées, de données publiques ou de fournisseurs, ainsi que dans le cadre des structures de supervision existantes », souligne le rapport.

Enfin, le CSF recommande que les efforts de suivi reposent sur des approches rentables, représentatives, alignées sur les vulnérabilités identifiées, rapides à mettre en œuvre et, dans la mesure du possible, conformes aux normes pertinentes.

Abonnez-vous à nos infolettres

James Langton

James Langton est journaliste pour Advisor.ca et Investment Executive. Depuis 1994, il fait des reportages sur la réglementation, le droit des valeurs mobilières, l’actualité de l’industrie et plus encore.