Sono oltre 40 le raccomandazioni stilate e diffuse dall’Organizzazione Mondiale della Sanità (OMS) in merito all’Intelligenza Artificiale. La direzione è un futuro etico e sostenibile
L’Organizzazione Mondiale della Sanità (OMS) ha pubblicato nuove linee guida relative alla gestione e alla governance dei modelli multi-modali di grandi dimensioni (LMM). Gli LMM sono una tecnologia di intelligenza artificiale generativa in rapida crescita, in cui rientrano ChatGPT, Bard e Bert, insieme a molte altre applicazioni nel campo della salute. Gli LMM, in grado di elaborare dati eterogenei come testi, video e immagini, e di generare output diversificati, si contraddistinguono per la loro capacità di emulare la comunicazione umana e di affrontare compiti per i quali non sono stati esplicitamente programmati. Questi modelli hanno guadagnato notevole visibilità nel 2023, diventando le applicazioni adottate più velocemente nella storia.
Numerosi sono i benefici derivanti dall’implementazione di queste tecnologie, ma altrettanti sono i rischi potenziali. Rischi documentati includono la produzione di dichiarazioni false, inesatte, parziali o incomplete, i quali potrebbero causare danni a coloro che basano le proprie decisioni sanitarie su tali informazioni. Inoltre, gli LMM possono essere addestrati utilizzando dati di bassa qualità o contaminati da pregiudizi legati a fattori come razza, etnia, sesso, identità di genere o età. In aggiunta, come altre forme di intelligenza artificiale, gli LMM sono suscettibili ai rischi legati alla sicurezza informatica, che potrebbero compromettere le informazioni sui pazienti o minacciare l’affidabilità di tali algoritmi e l’erogazione generale delle cure sanitarie.
Oltre 40 raccomandazioni
In queste linee guida l’OMS ha presentato oltre 40 raccomandazioni indirizzate ai governi, alle aziende tecnologiche e ai fornitori di assistenza sanitaria, per garantire l’utilizzo appropriato degli LMM nel promuovere e proteggere la salute delle popolazioni. Anche il Chief Scientist dell’OMS, Dr. Jeremy Farrar, ha rilasciato alcune dichiarazioni in merito.“Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se chi le sviluppa, le regola e le utilizza identifica e contabilizza pienamente i rischi associati. Abbiamo bisogno di informazioni trasparenti e politiche per gestire il design, lo sviluppo e l’uso degli LMM per ottenere risultati sanitari migliori e superare le persistenti disuguaglianze nella salute”.
Le nuove linee guida dell’OMS delineano cinque ampie applicazioni degli LMM per la salute: la diagnosi e la cura clinica, l’uso guidato dal paziente, i compiti amministrativi, l’educazione medica e infermieristica e la ricerca scientifica/sviluppo di farmaci. Per creare LMM sicuri ed efficaci, l’OMS sottolinea la necessità di coinvolgere vari stakeholder: governi, aziende tecnologiche, fornitori di assistenza sanitaria, pazienti e società civile, in tutte le fasi di sviluppo e distribuzione di tali tecnologie, inclusa la loro supervisione e regolamentazione.
La grande responsabilità dei governi
Non mancano raccomandazioni ai governi, che hanno la responsabilità primaria di definire standard sia per lo sviluppo e l’impiego degli LMM sia per la loro integrazione e utilizzo a fini di salute pubblica e medica. Secondo l’OMS i governi dovrebbero investire in infrastrutture pubbliche o no-profit, compresa la potenza di calcolo e set di dati pubblici, accessibili agli sviluppatori, che richiedano agli utenti di aderire a principi etici in cambio dell’accesso. Ma non basta. Bisogna anche adoperare leggi, politiche e regolamentazioni per garantire che gli LMM e le loro applicazioni in assistenza sanitaria rispettino gli obblighi etici sui diritti umani come la privacy di una persona.
Tra le altre necessità indicate dall’OMS vi è che gli LMM non vengano progettati solo da scienziati e gli ingegneri. Secondo l’Organizzazione, i potenziali utenti e tutti gli stakeholder diretti e indiretti, inclusi i fornitori di assistenza medica, i ricercatori scientifici, i professionisti della salute e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in un design strutturato, inclusivo e trasparente, con opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l’applicazione IA in considerazione. L’obiettivo finale è che l’Intelligenza Artificiale svolga compiti ben definiti con l’accuratezza e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e avanzare gli interessi dei pazienti.
Documento originale dell’OMS
Potrebbe interessare anche Intelligenza Artificiale prevede il tumore del pancreas