Le FSB tire la sonnette d’alarme sur les risques liés à l’IA

Par James Langton | 4 December 2024 | Last updated on 3 December 2024
4 min read
Voyant d’avertissement rouge mural, tournant et clignotant, sirène de raid aérien.
xxwp / iStock

L’adoption rapide des technologies d’intelligence artificielle (IA) constitue une menace croissante pour la stabilité financière — les décideurs politiques doivent faire davantage pour s’assurer que ces risques sont correctement pris en compte dans les cadres réglementaires, déclare le Conseil de stabilité financière (Financial Stability Board ou FSB).

Dans un nouveau rapport, le groupe de politique mondiale a réexaminé les implications de l’adoption de l’IA pour la stabilité financière, citant l’utilisation croissante de l’IA depuis que le FSB a examiné la question pour la première fois en 2017 — et les capacités croissantes de l’IA générative.

« Alors que de nombreuses institutions financières semblent adopter une approche prudente pour utiliser l’IA générative, l’intérêt reste élevé et l’accessibilité de la technologie pourrait faciliter une intégration plus rapide dans les services financiers », affirme le FSB, ajoutant que l’utilisation par les régulateurs a également augmenté.

« Le rythme rapide de l’innovation et de l’intégration de l’IA dans les services financiers, ainsi que les données limitées sur l’utilisation de l’IA, posent des défis pour le suivi des vulnérabilités et des implications potentielles pour la stabilité financière », continue-t-il.

Le rapport souligne que, bien que la technologie puisse offrir des avantages, elle pourrait aussi exacerber certaines vulnérabilités déjà présentes dans le secteur financier, telles que la dépendance accrue vis-à-vis des fournisseurs de services externes, la corrélation des marchés, les risques cybernétiques, ainsi que ceux liés aux modèles, à la qualité des données et à la gouvernance. Ces facteurs pourraient, en conséquence, accroître le risque systémique.

Par exemple, le rapport indique que « l’utilisation généralisée de modèles d’IA et de sources de données communes pourrait entraîner une augmentation des corrélations dans les transactions, les prêts et la fixation des prix. Cela pourrait amplifier les tensions sur les marchés, exacerber les pénuries de liquidités et accroître les vulnérabilités des prix des actifs ».

En outre, la dépendance à un nombre restreint de fournisseurs externes pour le matériel spécialisé, les services infonuagiques et les modèles expose les utilisateurs, y compris les entreprises financières et les régulateurs, à des vulnérabilités opérationnelles, notamment des cybermenaces accrues. Enfin, l’opacité des modèles d’IA et de leurs données pose le risque de générer des résultats dommageables et inexacts, communément appelés « hallucinations ».

De plus, l’IA générative pourrait être déployée au service de la fraude financière et de la diffusion de la désinformation sur les marchés financiers, selon le FSB.

« Les systèmes d’IA mal alignés qui ne sont pas calibrés pour fonctionner dans les limites légales, réglementaires et éthiques peuvent également adopter un comportement qui nuit à la stabilité financière », résume le rapport.

« Et dans une perspective à plus long terme, l’adoption de l’IA pourrait entraîner des changements dans la structure du marché, les conditions macroéconomiques et l’utilisation de l’énergie qui pourraient avoir des implications pour les marchés financiers et les institutions », précise-t-il.

Bien que les cadres réglementaires existants du secteur financier visent déjà à faire face à ce type de menaces, le rapport du FSB indique que des travaux supplémentaires sont nécessaires pour s’assurer que ces cadres sont suffisamment solides pour faire face à l’intensification possible de ces risques qui pourrait résulter de l’adoption accrue de l’IA.

En conséquence, le rapport invite les régulateurs et les organismes de normalisation à évaluer l’adéquation des cadres existants pour traiter les vulnérabilités liées à l’IA, tant au niveau national qu’international. Il invite également les deux groupes à faciliter la surveillance de l’adoption de l’IA en comblant les lacunes en matière de données et d’informations dans ce domaine et à renforcer leurs capacités de surveillance en assurant la coopération transfrontalière, le partage d’informations et l’utilisation d’outils alimentés par l’IA.

« Les autorités financières sont confrontées à deux défis majeurs pour une surveillance efficace des vulnérabilités : la rapidité de l’évolution de l’IA et le manque de données sur l’utilisation de l’IA dans le secteur financier », indique le rapport.

« Ces évolutions ne se produisent pas de manière isolée, mais renforcent plutôt les tendances existantes vers plus d’automaticité et de rapidité dans le système financier. Ils soulignent la nécessité pour les autorités de surveiller de près et de manière globale les développements de l’IA et les innovations qui y sont liées », conclut-il.

Abonnez-vous à nos infolettres

James Langton

James Langton est journaliste pour Advisor.ca et Investment Executive. Depuis 1994, il fait des reportages sur la réglementation, le droit des valeurs mobilières, l’actualité de l’industrie et plus encore.