Il met son capital retraite en péril en suivant les conseils de ChatGPT

Par Sylvie Lemieux | 29 January 2026 | Last updated on 29 January 2026
4 min read
Homme communiquant avec le robot. Homme communiquant avec l’intelligence artificielle Illustration vectorielle.
Mykyta Atamanchuk / iStock

Un jour ou l’autre, tout conseiller est susceptible de recevoir une demande qui sort de l’ordinaire de la part de ses clients. Dans cette série d’articles, des professionnels partagent leurs expériences et les leçons qu’ils en ont tirées.

De plus en plus d’investisseurs se tournent vers l’intelligence artificielle (IA) pour valider leurs décisions financières. Un client de Patrice Gascon a toutefois appris à ses dépens que l’outil ne remplace pas l’analyse d’un professionnel.

« Il m’a contacté pour me dire qu’il avait apporté un changement à son plan de décaissement. Avant de le faire, il avait toutefois validé son scénario avec ChatGPT qui lui confirmait que son capital suffirait pour la retraite. En refaisant le calcul avec le client, j’ai vite constaté que c’était loin d’être le cas », raconte le planificateur financier.

Pour comprendre d’où venait l’écart, Patrice Gascon a refait le calcul avec les chiffres que l’investisseur avait fournis à l’IA : un capital d’environ 3,6 millions de dollars (M$), un horizon de retraite de 20 ans et un rendement annuel de 5 %. À partir de ces données, la projection laissait croire que les retraits étaient soutenables et qu’il resterait du capital à la fin de la période.

Or, ces chiffres ne correspondaient pas tout à fait à la situation réelle du client. Première correction : l’horizon de retraite. « Il n’était pas de 20 ans, mais plutôt de 25 ans, pour l’amener jusqu’à l’âge de 90 ans. »

Deuxième ajustement : le montant des retraits. « Dans les faits, je ne lui versais pas 12 000 $ par mois pour vivre, mais 14 500 $ », précise celui qui est aussi président de Gestion de patrimoine Gascon. En intégrant uniquement ces deux paramètres — une retraite plus longue et des retraits plus élevés —, le portrait changeait déjà radicalement. Le capital projeté passait de 3,6 M$ à environ 1,7 M$.

Un autre élément majeur n’avait pas été pris en compte : l’impôt. La majorité de l’argent du client était détenue par une société de gestion où les rendements sont imposables. En appliquant un taux d’imposition réaliste de 36 %, le calcul final faisait apparaître un déficit clair. « Quand on a tout intégré, on arrivait à un manque à gagner de plus de 300 000 $ », révèle Patrice Gascon.

La discussion n’a pas été facile pour le client, qui croyait avoir validé sa situation. « Ce n’est jamais agréable de réaliser qu’on s’est trompé, surtout quand on pensait avoir fait les bonnes vérifications », reconnaît-il. Heureusement, cette mise au point a permis au client de rectifier le tir pour que les retraits se poursuivent à un rythme réaliste.

Pour le conseiller, cette situation illustre un phénomène qu’il observe de plus en plus souvent : des clients qui s’appuient sur l’IA en matière de finances personnelles. « Pour bien utiliser l’IA, il faut savoir entrer les bonnes données et posséder les connaissances nécessaires pour interpréter correctement les résultats, soutient Patrice Gascon. Le problème ne réside pas nécessairement dans les sources utilisées par ces outils — souvent crédibles, comme S&P Global ou le Wall Street Journal —, mais dans l’interprétation qui en est faite. »

ENCORE UNE ERREUR DE CALCUL

Récemment, un autre client a contacté Patrice Gascon pour remettre en question le rendement de ses placements, au point d’envisager un transfert de ses actifs. « Il m’affirmait que ses rendements étaient inférieurs à ceux des indices boursiers, en se basant sur des données fournies par Claude, le modèle d’IA développé par Anthropic », explique-t-il.

Pourtant, ses propres outils de suivi montraient le contraire : les portefeuilles obligataires, d’actions canadiennes et d’actions étrangères se situaient tous au-dessus ou très près des indices de référence pour l’année 2025.

Intrigué, Patrice Gascon a utilisé le même outil d’IA avec son client pour analyser la situation et a découvert une erreur dans le traitement du taux de change. « Pour les indices américains, Claude avait ajouté l’appréciation du dollar canadien face au dollar américain — environ 5 % sur l’année — alors qu’il aurait fallu la soustraire pour obtenir un rendement exact en dollars canadiens », précise-t-il.

Dans les deux situations, c’est la relation de confiance établie avec ses clients qui a permis de désamorcer les tensions et de ramener la discussion sur des bases solides. « Mon rôle, ce n’est pas de dire aux clients de ne pas utiliser ces outils, mais de leur rappeler leurs limites. L’intelligence artificielle peut aider, mais elle ne remplace pas l’analyse ni le jugement professionnel », conclut Patrice Gascon.

Abonnez-vous à nos infolettres

Sylvie Lemieux


Sylvie Lemieux collabore à Finance et Investissement et Conseiller.ca. Auparavant, elle a notamment écrit pour Les Affaires.