Lorsque l’IA donne de mauvais conseils thérapeutiques, les risques sont réels.

Une nouvelle étude de Stanford tire la sonnette d’alarme concernant les « thérapeutes » utilisant l’IA.

Attention !

Les résultats montrent que ces outils peuvent passer à côté de crises, et renforcer des croyances néfastes.
– Les chatbots comme Pi, Noni et Character.ai « Therapist » ont échoué aux contrôles de sécurité clés dans les simulations.

– Certains actes manqués d’idées suicidaires ou de délires validés constituent plutôt une lacune dangereuse.

– Des chercheurs de Stanford ont découvert une stigmatisation dans les réponses des chatbots à des maladies comme la schizophrénie et la dépendance.

– La tendance de l’IA à être d’accord avec les utilisateurs peut renforcer les pensées néfastes au lieu de les remettre en question.

– Malgré les avertissements, les robots étiquetés comme « thérapeutes » déroutent souvent les utilisateurs, en particulier les adolescents.

– Un procès allègue qu’un personnage, un robot d’intelligence artificielle, a encouragé l’automutilation, entraînant des conséquences réelles.

– La confidentialité est également une préoccupation : l’IA thérapeutique nécessiterait des données sensibles dont il serait difficile de réduire les risques.
Les chatbots IA peuvent apporter du réconfort, mais la thérapie ne se résume pas à l’empathie.

Elle exige aussi des limites, des nuances et du jugement ; des qualités qui manquent à l’IA. Nous ne devrions pas confier aux IA les problèmes de santé mentale, surtout lorsque les risques sont aussi réels…


En savoir plus sur Libérez-Vous de vos Angoisses, Addictions, et Burnout

Abonnez-vous pour recevoir les derniers articles par e-mail.