Actualités

Euractiv - Un réseau d’ONG met en garde contre l’utilisation de l’IA dans le secteur de la santé - 11/02/2025

Un réseau d’ONG met en garde contre l’utilisation de l’IA dans le secteur de la santé

Alors que le Sommet sur l’Intelligence artificielle (IA) se tient en ce moment à Paris, le réseau indépendant d’organisation non gouvernementale (ONG) Mental Health Europe alerte contre les risques que l’IA pose pour la santé mentale. Dans une étude publiée avant le sommet, Mental Health Europe affirme que les données utilisées pour former les modèles d’IA reflètent les préjugés sociaux existants et manquent de diversité.

Selon l’étude, il existe un risque pour que les outils d’IA utilisent des bases de données incomplètes ou biaisées. Cela pourrait les amener à mal interpréter les symptômes et comportements communs à certains groupes ethniques ou à des personnes issues de certains milieux socio-économiques. Le rapport souligne également que les troubles mentaux se manifestent généralement de manière unique chez les individus. Ils sont influencés par les expériences personnelles, des facteurs spécifiques, et leur contexte culturel.

Se baser uniquement sur les données disponibles actuellement aux outils d’IA les contraint à négliger ces nuances. Cela les empêche donc de fournir un soutien médical fiable. « Ces risques montrent l’importance de réguler et de surveiller l’utilisation de l’IA dans le domaine de la santé mentale pour garantir que ces technologies soient utilisées de manière éthique et bénéfique pour tous », a déclaré l’eurodéputée française Stéphanie Yon-Courtin, affiliée au groupe Renew Europe au Parlement et référente sur les questions numériques.

Des ONG appellent l'UE à s'engager pour les personnes en situation de handicap Six associations de défense des personnes en situation de handicap expliquent dans une lettre ouverte que des milliers de patients souffrent déjà en Europe de l’Est de l’arrêt des financements américains, et appellent l’Union européenne (UE) à réagir.

Alimenter la discrimination

Aux côtés d’un certain nombre d’ONG, dont Amnesty International et des experts en IA, Mental Health Europe s’inquiète également du traitement des données sensibles. L’une des principales préoccupations concerne le partage de données avec des tiers sans consentement explicite. Il pourrait s’agir des compagnies d’assurance ou des employeurs. Ces derniers pourraient, par exemple, rejeter un client ou un candidat sur la base de résultats générés par l’IA.

Au-delà du partage des données, le rapport attire également l’attention des responsables politiques sur la manière dont les systèmes d’IA traitent ces informations. Dans la plupart des cas, les utilisateurs ne savent pas comment leurs données sont utilisées. Une étude publiée en juillet 2024 par Netskope — une entreprise de cybersécurité — a révélé que près de 35 % des informations que les utilisateurs partagent avec les applications d’IA sont des informations personnelles réglementées.

Les données relatives à la santé mentale sont particulièrement sensibles, car elles pourraient être utilisées à des fins de surveillance et de contrôle par les forces de l’ordre. Des prédictions inexactes pourraient entraîner une intervention inutile des autorités. La question de la surveillance a été un point de discorde majeur entre les États membres de l’Union européenne (UE) lors de l’élaboration du règlement sur l’IA, le cadre juridique de l’Union dans le domaine. Après des efforts de lobbying, la France a obtenu un accord autorisant la surveillance biométrique à distance pour interpréter les émotions ou catégoriser les individus sur la base de critères religieux, sexuels ou politiques à des fins de sécurité nationale.

« Ces pratiques risquent de créer un marché de la surveillance de la santé mentale qui perpétue et même amplifie les pires déséquilibres de pouvoir, inégalités et préjudices en matière de santé mentale », a averti Mental Health Europe. Les chatbots rendent les soins moins personnels Le rapport souligne que les systèmes d’IA, par définition, manquent d’empathie.

Dans le domaine de la santé, l’empathie est pourtant un élément essentiel pour établir un lien de confiance et entretenir de bonnes relations thérapeutiques. Certains chatbots peuvent simuler des émotions. Mais leurs réponses préprogrammées pourraient induire en erreur des personnes vulnérables ou conduire à des réponses inappropriées. Pour cette raison, le réseau d’organisations estime qu’un recours accru à l’IA pourrait rendre les soins plus impersonnels. Le rapport remet également en question les affirmations des entreprises d’IA selon lesquelles leurs modèles rendront les systèmes de santé plus efficaces. Pour Mental Health Europe, peu de preuves soutiennent cette idée.

Alors que la question continue de susciter le débat au sein de l’UE, Stéphanie Yon-Courtin a appelle à reconsidérer la place de l’IA dans nos vies. « Il ne faut pas réduire l’IA à ses risques. Dans le domaine de la santé, elle permet de détecter plus rapidement et précisément les signes du cancer du sein, accélérer la découverte de nouveaux médicaments et personnaliser les traitements », a-t-elle défendu. L’eurodéputé français Laurent Castillo, du Parti populaire européen au Parlement européen partage le même avis, estimant que l’IA ne peut être considérée uniquement sous l’angle du risque. « Oui, l’IA en santé doit rimer avec respect des droits des patients, en particulier la protection des données médicales, mais aussi avec le développement de notre souveraineté en la matière ». Au sommet sur l'IA, la réglementation est passée de mode La croissance et la compétitivité l’emportent sur la sécurité et la durabilité lors du Sommet de l’Intelligence artificielle à Paris, alors que la France soutient le passage de l’Europe de la réglementation à l’innovation.

Thomas Mangin