Lorsque l’IA donne de mauvais conseils thérapeutiques, les risques sont réels.
| Une nouvelle étude de Stanford tire la sonnette d’alarme concernant les « thérapeutes » utilisant l’IA. Attention ! Les résultats montrent que ces outils peuvent passer à côté de crises, et renforcer des croyances néfastes. |
| – Les chatbots comme Pi, Noni et Character.ai « Therapist » ont échoué aux contrôles de sécurité clés dans les simulations. – Certains actes manqués d’idées suicidaires ou de délires validés constituent plutôt une lacune dangereuse. – Des chercheurs de Stanford ont découvert une stigmatisation dans les réponses des chatbots à des maladies comme la schizophrénie et la dépendance. – La tendance de l’IA à être d’accord avec les utilisateurs peut renforcer les pensées néfastes au lieu de les remettre en question. – Malgré les avertissements, les robots étiquetés comme « thérapeutes » déroutent souvent les utilisateurs, en particulier les adolescents. – Un procès allègue qu’un personnage, un robot d’intelligence artificielle, a encouragé l’automutilation, entraînant des conséquences réelles. – La confidentialité est également une préoccupation : l’IA thérapeutique nécessiterait des données sensibles dont il serait difficile de réduire les risques. |
| Les chatbots IA peuvent apporter du réconfort, mais la thérapie ne se résume pas à l’empathie. Elle exige aussi des limites, des nuances et du jugement ; des qualités qui manquent à l’IA. Nous ne devrions pas confier aux IA les problèmes de santé mentale, surtout lorsque les risques sont aussi réels… |
En savoir plus sur Libérez-Vous de vos Angoisses, Addictions, et Burnout
Abonnez-vous pour recevoir les derniers articles par e-mail.
Poster un commentaire :