Microsoft ha presentato Copilot Health, una nuova funzionalità all’interno del suo assistente AI progettata per analizzare i dati sanitari personali provenienti da cartelle cliniche e dispositivi indossabili. Lo strumento, avviato in fasi tramite una lista d’attesa, consente agli utenti di interrogare i risultati di laboratorio, cercare operatori sanitari e monitorare i dati di oltre 50 dispositivi indossabili compatibili (Apple, Oura, Fitbit e altri).
Colmare le lacune di dati nel settore sanitario personale
Copilot Health accede alle cartelle cliniche attraverso l’integrazione con HealthEx (che copre oltre 50.000 strutture negli Stati Uniti) e Function for lab results. Questa funzionalità rappresenta un cambiamento significativo verso l’accesso guidato dai pazienti alle proprie informazioni sanitarie. In precedenza, tali dati venivano spesso archiviati all’interno dei sistemi sanitari, rendendo difficile il consolidamento e la comprensione da parte dei singoli individui. La mossa riflette una tendenza più ampia nella sanità digitale verso la possibilità di conferire ai pazienti un maggiore controllo sui propri dati personali.
Non un sostituto dei medici, ma un interprete dei dati
Microsoft sottolinea che Copilot Health non è destinato a diagnosticare o trattare condizioni, ma ad aiutare gli utenti a comprendere i propri dati. Lo strumento cita organizzazioni sanitarie credibili in 50 paesi e incorpora “schede di risposta scritte da esperti” di Harvard Health per migliorare la precisione. Le risposte includono citazioni, migliorando la trasparenza. L’IA resta comunque uno strumento di interpretazione; le decisioni mediche dovrebbero comunque essere prese in consultazione con un professionista qualificato.
Preoccupazioni in materia di privacy e conformità
Le chat di Copilot Health sono tenute separate dalle interazioni generali di Copilot con maggiori controlli di sicurezza. Microsoft afferma che i dati non verranno utilizzati per addestrare i suoi modelli di intelligenza artificiale e gli utenti potranno eliminare le proprie informazioni sanitarie in qualsiasi momento. Tuttavia, il sistema attualmente non è conforme all’HIPAA.
L’HIPAA (Health Insurance Portability and Accountability Act) impone rigorosi standard sulla privacy dei dati per gli operatori sanitari. Il vicepresidente della sanità di Microsoft, Dr. Dominic King, afferma che l’HIPAA non è legalmente richiesto per un servizio diretto al consumatore che utilizza i dati forniti dagli utenti. L’azienda ha una certificazione ISO 42001 per l’intelligenza artificiale responsabile, ma King accenna agli sforzi futuri per allinearsi ai controlli HIPAA senza specificare i dettagli. Ciò solleva interrogativi sulla sicurezza dei dati a lungo termine e sui potenziali cambiamenti politici.
L’ascesa dell’intelligenza artificiale nel settore sanitario: rischi e responsabilità
Copilot Health si unisce a offerte simili di OpenAI (ChatGPT Health) e Amazon (Health AI) nella corsa per integrare l’intelligenza artificiale nell’assistenza sanitaria personale. Sebbene questi strumenti offrano comodità e potenziali approfondimenti, gli esperti mettono in guardia sui rischi di consigli imprecisi e di modifiche alle politiche sulla privacy dei dati. I sistemi di intelligenza artificiale hanno una storia di raccomandazioni mediche errate, in particolare nel campo della salute mentale.
L’introduzione dell’intelligenza artificiale nel settore sanitario è un’arma a doppio taglio. Offre un accesso senza precedenti ai dati personali, ma introduce anche nuove vulnerabilità e incertezze su privacy, accuratezza e controllo a lungo termine.
Gli utenti dovrebbero prestare attenzione quando condividono informazioni sanitarie sensibili con piattaforme di intelligenza artificiale. Il panorama si sta evolvendo rapidamente e le politiche sulla privacy dei dati sono soggette a modifiche.






























