Microsoft lance Copilot Health : un accès basé sur l’IA à vos données médicales

11

Microsoft a dévoilé Copilot Health, une nouvelle fonctionnalité de son assistant IA conçue pour analyser les données de santé personnelles provenant des dossiers médicaux et des appareils portables. L’outil, lancé par étapes via une liste d’attente, permet aux utilisateurs d’interroger les résultats de laboratoire, de rechercher des prestataires de soins de santé et de suivre les données de plus de 50 appareils portables compatibles (Apple, Oura, Fitbit, etc.).

Combler les lacunes en matière de données dans le domaine des soins de santé personnels

Copilot Health exploite les dossiers médicaux grâce à des intégrations avec HealthEx (couvrant plus de 50 000 établissements aux États-Unis) et Function pour les résultats de laboratoire. Cette capacité représente un changement significatif vers un accès axé sur les patients à leurs propres informations de santé. Auparavant, ces données étaient souvent cloisonnées au sein des systèmes de santé, ce qui rendait difficile leur consolidation et leur compréhension par les individus. Cette décision reflète une tendance plus large dans le domaine de la santé numérique visant à donner aux patients davantage de contrôle sur leurs données personnelles.

Pas un remplaçant pour les médecins, mais un interprète de données

Microsoft souligne que Copilot Health n’est pas destiné à diagnostiquer ou à traiter des affections, mais à aider les utilisateurs à comprendre leurs données. L’outil cite des organisations de santé crédibles dans 50 pays et intègre des « fiches-réponses rédigées par des experts » de Harvard Health pour améliorer la précision. Les réponses incluent des citations, améliorant ainsi la transparence. Cependant, l’IA reste un outil d’interprétation ; les décisions médicales doivent toujours être prises en consultation avec un professionnel qualifié.

Problèmes de confidentialité et de conformité

Les discussions Copilot Health sont séparées des interactions générales Copilot avec des contrôles de sécurité accrus. Microsoft déclare que les données ne seront pas utilisées pour entraîner ses modèles d’IA et que les utilisateurs peuvent supprimer leurs informations de santé à tout moment. Cependant, le système n’est actuellement pas conforme à la HIPAA.

HIPAA (la Health Insurance Portability and Accountability Act) impose des normes strictes de confidentialité des données aux prestataires de soins de santé. Le vice-président de la santé de Microsoft, le Dr Dominic King, affirme que la loi HIPAA n’est pas légalement requise pour un service direct au consommateur utilisant les données fournies par l’utilisateur. L’entreprise dispose d’une certification ISO 42001 pour l’IA responsable, mais King fait allusion à des efforts futurs pour s’aligner sur les contrôles HIPAA sans préciser de détails. Cela soulève des questions sur la sécurité des données à long terme et sur d’éventuels changements de politique.

L’essor de l’IA dans les soins de santé : risques et responsabilités

Copilot Health rejoint les offres similaires d’OpenAI (ChatGPT Health) et d’Amazon (Health AI) dans la course à l’intégration de l’IA dans les soins de santé personnels. Bien que ces outils offrent des informations pratiques et potentielles, les experts mettent en garde contre les risques de conseils inexacts et de modifications des politiques de confidentialité des données. Les systèmes d’IA ont un historique de recommandations médicales erronées, notamment en matière de santé mentale.

L’introduction de l’IA dans les soins de santé est une arme à double tranchant. Il offre un accès sans précédent aux données personnelles, mais introduit également de nouvelles vulnérabilités et incertitudes en matière de confidentialité, d’exactitude et de contrôle à long terme.

Les utilisateurs doivent faire preuve de prudence lorsqu’ils partagent des informations sensibles sur la santé avec des plateformes d’IA. Le paysage évolue rapidement et les politiques de confidentialité des données sont susceptibles de changer.