L’Oms rilascia la nuova linea guida sull’utilizzo dell’intelligenza artificiale in sanità

L’Organizzazione Mondiale della Sanità ha presentato la Nuova guida sull’etica e la governance dei modelli multimodali di grandi dimensioni dell’IA. Si tratta di un documento composto da oltre 40 raccomandazioni che devono essere prese in considerazione da Governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato dei LMM.

Lo scopo di questa iniziativa dell’OMS è fa sì che si possano cogliere appieno le opportunità offerte dall’utilizzo dell’intelligenza artificiale in ambito sanitario cercando, al contempo, di contenere gli effetti dei possibili rischi associati a questa nuova tecnologia digitale. Infatti, ancora oggi le criticità sono molte: affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano le informazioni per prendere decisioni sulla salute, fino al rischio che vengano impropriamente delegate a un LMM scelte difficili sulla salute delle persone. 

Inoltre, i LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età. In aggiunta, i LMM, come altre forme di IA, sono anche vulnerabili ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria.

Coinvolgere governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile. Per creare LMM sicuri ed efficaci, l’Oms sottolinea la necessità di coinvolgere diverse parti interessate: governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile, in tutte le fasi dello sviluppo e dell’impiego di tali tecnologie, comprese la loro supervisione e regolamentazione.

“Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso dei LMM, al fine di ottenere risultati sanitari migliori e superare le persistenti disuguaglianze sanitarie". - Jeremy Farrar, Chief Scientist dell’Oms 

Sono cinque le aree di applicazioni dei LMM nell’ambito della salute individuate dala nuova Linea guida dell’Oms:


  • Diagnosi e assistenza clinica, ad esempio rispondendo alle domande scritte dei pazienti;
  • Uso guidato dal paziente, ad esempio per indagare sui sintomi e sul trattamento;
  • Compiti amministrativi, come la documentazione e il riepilogo delle visite dei pazienti all’interno delle cartelle cliniche elettroniche;
  • Formazione medica e infermieristica, compresa l’offerta ai tirocinanti di incontri simulati con i pazienti;
  • Ricerca scientifica e sviluppo di farmaci, anche per identificare nuovi composti.

Al fine di creare LMM sicuri ed efficaci, l’Oms sottolinea quindi la necessità di coinvolgere diverse parti interessate: governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile, in tutte le fasi dello sviluppo e dell’impiego di tali tecnologie, comprese la loro supervisione e regolamentazione.

In base ai contenuti del documento, i governi dovrebbero mettere in atto tutta una serie di iniziative:

  • Investire o fornire infrastrutture pubbliche o senza scopo di lucro, tra cui potenza di calcolo e set di dati pubblici, accessibili agli sviluppatori del settore pubblico, privato e non profit, che richiedano agli utenti di aderire a principi e valori etici in cambio dell’accesso;
  • Utilizzare leggi, politiche e regolamenti per garantire che i LMM e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, a prescindere dal rischio o dal beneficio associato alla tecnologia di IA, rispettino gli obblighi etici e gli standard dei diritti umani che riguardano, ad esempio, la dignità, l’autonomia o la privacy di una persona;
  • Assegnare a un’agenzia di regolamentazione il compito di valutare e approvare i LMM e le applicazioni destinate all’assistenza sanitaria o alla medicina, in base alle risorse disponibili;
  • Introdurre verifiche e valutazioni d’impatto obbligatorie dopo il rilascio, anche per quanto riguarda la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene utilizzato su larga scala. Le valutazioni di audit e di impatto dovrebbero essere pubblicate e dovrebbero includere risultati e impatti disaggregati per tipo di utente, ad esempio per età, razza o disabilità.

 

Infine, la guida include anche le raccomandazioni chiave per gli sviluppatori di LMM, che dovrebbero garantire che:

  • i LMM non siano progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi i fornitori di servizi medici, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e avere l’opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l’applicazione di IA in esame;
  • i LMM siano progettati per svolgere compiti ben definiti con l’accuratezza e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero infine anche essere in grado di prevedere e comprendere i potenziali esiti secondari.

 

La Redazione

Source: Quotidianosanita.it