L’OMS (Organizzazione Mondiale della Sanità) ha pubblicato il documento Regulatory considerations on Artificial Intelligence for health nel quale sono contenute le indicazioni per promuovere un uso efficace, ma anche sicuro e responsabile delle applicazioni dell’intelligenza artificiale in ambito sanitario. La pubblicazione rientra nel piano sulla salute digitale 2020-2025 finalizzato a migliorare le condizioni di salute per qualsiasi persona, indipendentemente da età e da luogo, attraverso l’uso delle tecnologie digitali.

In particolare, tutte le tecnologie sviluppate devono possedere le seguenti caratteristiche per rispettare il diritto alla salute:

  • Appropriate;
  • Accessibili;
  • Economiche;
  • Scalabili;
  • Sostenibili.

Ciò vale anche per l’intelligenza artificiale, basata su modelli di apprendimento logici e statistici, per la quale sono state individuate alcune criticità aggiuntive, principalmente in merito alla tutela dei dati sensibili dei pazienti. E così dopo l’Artifical Intellicence European Act, ecco un altro documento ufficiale, prodotto da un ente sovranazionale, che centra la sua attenzione sull’implementazione della nuova tecnologia stavolta con un focus specifico sulla sanità.

Le applicazioni di AI in ambito sanitario pubblico

L’intelligenza artificiale può trasformare il settore sanitario: così si legge nella pubblicazione dell’Organizzazione Mondiale della Sanità. In quale modo? Attraverso l’uso dei big data e le tecniche analitiche. Ecco qualche esempio pratico di come AI può ottimizzare i processi diagnostici e terapeutici:

  • Implementazione di dispositivi medici che supportano la fase decisionale clinica, facilitando la valutazione dei dati, riducendo gli errori e migliorando il triage (Pronto Soccorso e ricovero);
  • Sperimentazione di nuove terapie e farmaci e identificazione dei trattamenti ottimali in relazione alla risposta prevista da parte del paziente.
  • Miglioramento del monitoraggio della salute pubblica;
  • Rafforzamento dell’erogazione dei servizi sanitari alle popolazioni meno servite.

In sintesi, l’intelligenza artificiale trova impiego come strumento di supporto e di ottimizzazione per tutte le attività di prevenzione, diagnosi, trattamento e monitoraggio delle malattie.

I rischi di IA secondo l’OMS

I sistemi di intelligenza artificiale sono complessi e le loro funzionalità dipendono sia dal codice di programmazione, sia dai dati di addestramento. Questi ultimi, nei contesti sanitari e clinici, provengono da informazioni relative ai pazienti e alla loro salute.

Secondo l’OMS una regolamentazione più puntuale e omogenea potrebbe consentire una migliore gestione dei rischi, soprattutto quelli relativi alla protezione dei dati e al controllo dei bias durante l’elaborazione delle informazioni. Per esempio, può risultare difficile per i modelli di artificial intelligence fornire una rappresentazione accurata delle specificità delle popolazioni, cosa che genera imprecisioni e pregiudizi, rischiando di compromettere del tutto i risultati.

Per favorire un utilizzo appropriato dell’IA, rispettando la privacy e i principi cardine della sicurezza informatica, OMS e UIT (Unione Internazionale delle Telecomunicazioni) hanno istituito un focus group, denominato FG-AI4H, sull’intelligenza artificiale per la salute. A sua volta FG-AI4H è stato organizzato in diversi gruppi di lavoro nei quali istituzioni politiche, università e soggetti dell’industria, si occupano di regolamentazione e di buone pratiche di IA nella sanità.

Le indicazioni normative dell’OMS su IA: le 6 aree tematiche nella sanità

Le tecnologie di AI vengono spesso usate senza una profonda comprensione dei potenziali benefici o danni per gli utenti. Lo scopo della nuova pubblicazione dell’OMS è quello di indicare alcuni principi da seguire per lo sviluppo e l’aggiornamento di linee guida per l’applicazione dell’intelligenza artificiale nell’ecosistema sanitario, che comprende sviluppatori e produttori, autorità di regolamentazione, utenti e pazienti.

Il documento dell’Organizzazione Mondiale della Sanità delinea 6 aree dove agire per regolamentare l’intelligenza artificiale nel campo della salute pubblica:

  1. Documentazione e trasparenza (Documentation and transparency) – Per incoraggiare la fiducia verso l’applicazione della nuova tecnologia, la pubblicazione rimarca la centralità della trasparenza, da supportare documentando l’intero ciclo di vita del prodotto e controllando i processi di sviluppo;
  2. Gestione del rischio e approccio al ciclo di vita dello sviluppo dei sistemi di AI (Risk management and artificial intelligence systems development lifecycle approach) – Per la gestione del rischio, temi quali “apprendimento continuo”, “modelli di formazione” e “minacce alla sicurezza informatica” devono essere affrontati in modo esaustivo, usando modelli completi, ma semplici;
  3. Destinazione d’uso e validazione analitica e clinica (Intended use and analytical and clinical validation) – La sicurezza informativa e la regolamentazione omogenea e trasparente sono garantite dalla convalida esterna dei dati e dalla chiarezza sull’impiego pratico di IA in ambito sanitario;
  4. Qualità dei dati (Data Quality) – È necessario un impegno costante per la qualità dei dati al fine di avere la certezza che i sistemi non amplifichino gli errori, ad esempio con una rigorosa valutazione dei sistemi prima del loro rilascio;
  5. Privacy e protezione dei dati personali e sensibili (Privacy and data protection) – Normative come il GDPR in Europa e l’HIPAA (Health Insurance Portability and Accountability Act) negli Stati Uniti d’America pongono delle sfide impegnative su come affrontare la cyber security in sanità;
  6. Coinvolgimento e collaborazione (Engagement and collaboration) – Coinvolgere attivamente i soggetti presenti nel settore dei prodotti e servizi basati sull’IA applicata alla sanità, quali organismi di regolamentazione, partner governativi, operatori economici e utenti finali, contribuisce a mantenere i prodotti/servizi conformi alle normative durante l’intero ciclo di vita.