L'usage des programmes conversationnels comme ChatGPT transforme notre rapport à la santé mentale, agissant parfois comme un ami, un amoureux ou même un thérapeute.
Si ces outils peuvent motiver certains patients à consulter un professionnel en validant leur détresse, ils comportent des risques réels de désinformation.
Le Dr Jean-François de la Sablonnière souligne le phénomène des «hallucinations» informatiques, où l’IA affirme des faits erronés avec une assurance désarmante.
Plus inquiétant encore, l’illusion d’empathie créée par la machine peut enfermer l’utilisateur dans ses propres convictions, empêchant toute confrontation d’idées nécessaire à la croissance personnelle.
Écoutez le médecin psychiatre au CISSS du Bas-Saint-Laurent, expliquer le tout, mardi, à Lagacé le matin.
«Votre robot conversationnel peut halluciner, tenir des affirmations qui ne sont pas vraies, et il est tellement convaincant qu'on a tendance à le croire.»