Les fraudeurs ont « dix longueurs d’avance »

Par Jonathan Got | 5 December 2025 | Last updated on 4 December 2025
4 min read
Des mensonges sur l’argent. Pile de pièces d’or avec Pinocchio.
malerapaso / iStock

Les risques liés à l’intelligence artificielle (IA) au sein des secteurs financiers canadiens sont amplifiés par des ressources limitées pour soutenir son adoption, par des barrières à l’entrée très faibles pour les criminels et par les défis propres au cadre réglementaire financier du pays.

C’est ce qui ressort d’un atelier récent sur la criminalité financière et l’IA, organisé par le Global Risk Institute en collaboration avec le Centre d’analyse des opérations et déclarations financières du Canada (CANAFE).

La plupart des 60 experts canadiens et internationaux de la criminalité financière et de l’IA ayant participé à l’atelier affirment que les fraudeurs sont « dix pas en avant », alors que les institutions financières demeurent largement réactives, indique un rapport publié début novembre.

Les participants ont jugé que l’utilisation de l’IA par les criminels est la plus susceptible de faire augmenter les cas de fraude (89 %), suivie du blanchiment d’argent (9 %) et des menaces internes (2 %). Ils ont également souligné que les investissements en IA, lorsqu’ils sont déployés adéquatement, peuvent améliorer l’efficacité de la détection et de la lutte contre la criminalité financière. Mais plusieurs obstacles demeurent : près de 48 % des répondants citent les coûts et les contraintes de ressources comme principal frein à l’adoption.

RESSOURCES LIMITÉES

Alors que les organisations se concentrent actuellement sur la réduction de leurs coûts grâce à l’IA, les participants ont souligné que, pour dissuader la criminalité financière, la priorité devrait être d’améliorer l’efficacité opérationnelle.

Autre enseignement important : les entreprises doivent adopter l’IA de manière intentionnelle, si elles veulent lutter efficacement contre la criminalité financière. Chaque outil d’IA devrait être intégré à partir d’un cas d’affaires clair et accompagné d’objectifs mesurables. « La mauvaise question est “Comment adopter l’IA ?” La bonne question serait davantage : “Comment utiliser l’IA pour aider notre entreprise ?” », selon le rapport.

Un accès limité à l’expertise en IA pourrait également freiner la mise en œuvre de technologies appropriées et restreindre la capacité des institutions à évaluer les solutions. Par ailleurs, le remplacement de postes d’entrée par l’IA réduit le bassin de talents futurs ayant acquis une expérience pratique dans la lutte contre la criminalité financière, une expertise historiquement développée par un modèle d’apprentissage sur le terrain.

FAIBLES BARRIÈRES À L’ENTRÉE POUR LES CRIMINELS

Alors que les organisations peinent à adopter l’IA, l’accessibilité croissante de cette technologie a abaissé les coûts d’entrée pour les criminels. Même des individus peu qualifiés peuvent désormais représenter une menace cybercriminelle. Résultat : des attaques plus fréquentes, une meilleure capacité à masquer l’information et un champ d’action élargi, notamment parce que l’IA efface en grande partie la barrière linguistique, qui constituait autrefois un obstacle majeur à la criminalité financière internationale.

Cette amélioration des capacités pour les criminels étrangers se traduit aussi par des taux de détection et de poursuites plus faibles, dans un contexte où le partage transfrontalier d’informations reste limité.

Les cybermenaces alimentées par l’IA utilisent souvent la manipulation sur les réseaux sociaux et permettent de mener des attaques de fraude hautement personnalisées, rendant ces événements plus malveillants et plus difficiles à détecter. Alors que le coût pour lancer une attaque assistée par IA demeure faible, la détection, notamment pour l’évasion de sanctions ou le blanchiment d’argent, exige des ressources nettement plus importantes de la part des institutions financières.

DÉFIS RÉGLEMENTAIRES

La structure fédérale du Canada et la répartition constitutionnelle des compétences font en sorte qu’aucune autorité unique n’a la capacité d’assurer un suivi complet : de la détection à la déclaration, puis jusqu’à la poursuite et à la condamnation. Cette décentralisation complique la coordination et le partage d’information, ont fait valoir les participants.

Alors que les criminels adoptent rapidement l’IA, le régime canadien de lutte contre la criminalité financière évolue lui aussi. Toutefois, des experts ont exprimé leurs préoccupations quant à la capacité de l’industrie à suivre le rythme des menaces et des nouvelles règles. Certains participants ont suggéré que des bacs à sable réglementaires permettraient aux institutions de tester des outils d’IA sans craindre des sanctions.

Abonnez-vous à nos infolettres

Jonathan Got

Jonathan Got est journaliste pour Investment Executive.