L’intelligence artificielle peut être utile dans l’anticipation des risques du cancer et de l’AVC.
L’utilisation de l’Intelligence Artificielle (IA) dans le domaine de la santé peut prendre diverses formes : aide au diagnostic, au développement des médicaments, à l’analyse de l’imagerie médicale, etc. Elle permet de fournir plus d’informations aux médecins pour leur permettre de prendre des décisions éclairées. L’IA a déjà prouvé qu’elle pouvait être utile dans l’anticipation des risques du cancer et de l’AVC, entre autres.
Mais si ces usages concernent les médecins, l’IA comprend une autre branche qui s’adresse aux patients. Il s’agit de l’IA générative ou des fameux chatbots, ces agents conversationnels qui dialoguent avec les utilisateurs en leur prodiguant des informations récupérées sur Internet.
Le phénomène gagne surtout du terrain dans le domaine de la santé mentale où les soins représentent un défi croissant. Malgré les préoccupations concernant la confidentialité des données et l’éthique du conseil fourni, les chatbots de santé mentale utilisant l’IA gagnent en popularité dans le monde entier. Selon l’International Journal of Medical Informatics, on en compte une quarantaine aujourd’hui, qui traitent un large éventail de maladies : des troubles alimentaires aux troubles obsessionnels compulsifs.
Les experts en IA mettent en garde contre les cyber-violations des données sensibles. Ce problème de confidentialité constitue un risque majeur pour les utilisateurs, a constaté la fondation Mozilla dans une étude publiée en mai dernier. Sur 32 applications de santé mentale, comme Talkspace, Woebot et Calm, analysées par l’association technologique à but non lucratif, 28 ont été signalées pour « de fortes inquiétudes concernant la gestion des données des utilisateurs ». Par exemple, l’application de santé mentale Woebot a été mise à l’index pour « partage d’informations personnelles avec des tiers ». De quoi mettre en cause l’expression « intelligence artificielle » que certains voient comme un outil de marketing pour les entreprises.
Chercheur chez Mozilla, Misha Rykov a décrit les applications comme des « machines à aspirer les données sous l’étiquette de la santé mentale », ce qui laisse croire que les données des utilisateurs sont collectées par des courtiers d’assurance et de données, ainsi que des sociétés de réseaux sociaux. « Les chatbots IA sont confrontés au même problème de confidentialité que tout service en ligne qui demande des informations personnelles à ses utilisateurs », souligne de son côté Eliot Bendinelli, du groupe de défense des droits Privacy International.
Mais il ne s’agit pas que de la protection des informations privées. Le traitement de la santé mentale est également discriminatoire dans la mesure où le coût est un obstacle majeur à l’accès. Ainsi, comme le souligne la Brookings Institution, les patients bénéficiant d’une assurance maladie peuvent accéder à des visites de thérapie en personne, tandis que ceux qui n’en ont pas se retrouvent avec l’option de chatbot, moins chère.
Plus grave encore est le fait que les données utilisées pour alimenter l’IA peuvent être biaisées et générer des informations trompeuses ou inexactes, et que cette technologie peut être utilisée à mauvais escient pour générer de la désinformation, de quoi mettre en danger le bien-être humain et la santé publique, met en garde l’Organisation Mondiale de la Santé (OMS).
Utilisation responsable
Après avoir publié en 2021 un rapport mondial sur l’IA appliquée à la santé, l’OMS, face à l’émergence des IA génératives et au déploiement de plus en plus d’applications dans le domaine de la santé, a ajouté de nouvelles recommandations en mai dernier. Elle y préconise notamment une « surveillance rigoureuse, nécessaire pour que ces technologies soient utilisées de manière sûre, efficace et responsable ».
Dans son communiqué, l’OMS souligne que la diffusion publique et l’utilisation expérimentale à des fins liées à la santé des grands modèles de langage, tels que ChatGPT, Bard, Bert et bien d’autres qui imitent la compréhension, le traitement et la production de communications humaines, bien qu’elles suscitent un grand enthousiasme, « il est impératif que les risques soient attentivement examinés lors de l’utilisation de ces modèles pour améliorer l’accès à l’information sanitaire ». Et d’ajouter : « Les grands modèles de langage génèrent des réponses qui semblent faire autorité et sont plausibles pour l’utilisateur. Cependant, ces réponses peuvent être complètement incorrectes ou renfermer de graves erreurs, en particulier concernant les réponses liées à la santé ».
Les applications mobiles de santé ne sont pas destinées à remplacer les consultations médicales.
Tout en s’engageant à exploiter les nouvelles technologies, y compris l’IA et la santé numérique en vue d’améliorer la santé humaine, l’OMS recommande l’élaboration de politiques susceptibles d’assurer la sécurité et la protection des patients pendant que les entreprises spécialisées dans les technologies s’emploient à commercialiser les grands modèles de langage.
Des experts en technologie espèrent qu’une réglementation solide sera finalement en mesure de « protéger contre les pratiques d’IA contraires à l’éthique, de renforcer la sécurité des données et de maintenir la cohérence des normes de santé ». Dans de nombreux pays, notamment occidentaux, les législateurs s’emploient à la réglementation des outils d’IA. En attendant que de nouvelles lois soient élaborées, les entreprises sont encouragées à adopter un code de bonne conduite.
Lien court: