Faith è un progetto europeo che si propone di supportare gli ex-pazienti oncologici per allontanare lo spettro della depressione.

Affrontare un tumore è fisicamente ed emotivamente spossante. Lo stress psicologico per alcune persone continua anche dopo la guarigione, fuori dagli ospedali: il 7% degli ex-pazienti oncologici è angosciato, il 21% soffre di ansia e altrettanti di depressione, stati psichici che aumentano anche il rischio suicidio (sei volte maggiore negli uomini rispetto alle donne che hanno affrontato un tumore). Se durante la malattia il paziente è costantemente seguito anche sul piano psicologico, terminate le cure, in un momento comunque di vulnerabilità, il venir meno di una sorveglianza impedisce il tempestivo riconoscimento di possibili segnali spie di problemi di salute mentale più o meno importanti.

Monitorare la salute degli ex-pazienti oncologici e migliorare la loro qualità della vita è l’obiettivo del progetto europeo FAITH – Federated Artificial Intelligence solution for moniToring mental Health status after cancer treatment che sfrutta l’Intelligenza Artificiale per identificare eventuali markers di depressione nelle persone che hanno sconfitto un tumore.

I data scientist del progetto svilupperanno AI Angel, un’applicazione di AI per smartphone che raccoglierà informazioni sulle abitudini degli ex-pazienti oncologici (attività fisica, assunzione di farmaci, dieta, ecc.) e loro stati d’animo. Ai partecipanti al progetto verrà anche chiesto di indossare braccialetti del tipo fitness-tracker per misurare indicatori fisiologici come quantità e qualità del sonno. Raccolti tutti i dati, l’algoritmo dell’App li analizzerà per rilevare disturbi dell’umore che possono preludere a ben più gravi problemi mentali.

L’AI Angel è uno strumento intelligente e data driven che fornirà ai medici dati oggettivi sulla salute degli ex-pazienti segnalando potenziali situazioni a rischio

«Sgombriamo subito il campo da un possibile equivoco: l’applicazione non farà una diagnosi di depressione. Il suo obiettivo non è sostituire il parere di un medico con l’output di un algoritmo – spiega Giuseppe Frau, data scientist ed esperto in Fattori Umani della società di ricerca e consulenza Deep Blue, tra i partner del progetto coordinato dal Waterford Institute of Technologyl’AI Angel è uno strumento intelligente e data driven che fornirà ai medici dati oggettivi sulla salute degli ex-pazienti segnalando potenziali situazioni a rischio e dando la possibilità, anche nei momenti in cui i contatti diretti sono più difficili da tenere, di intervenire prima che l’ex-paziente sia clinicamente depresso. Inoltre, aiuterà gli ex-pazienti ad avere più consapevolezza del loro benessere. Non sappiamo ancora come intervenire nel caso l’App rilevi una traiettoria negativa nella salute mentale. Forse, previo parere medico, potrebbe inviare alla persona una sorta di invito o notifica per incoraggiarla a consultare uno specialista. Oppure, nei casi più gravi, allertare direttamente il medico».

Le fasi di sviluppo e test dell’applicazione prevedono la raccolta dati in tre ospedali in Irlanda, Spagna e Portogallo. Centinaia di ex-pazienti oncologici che sono stati in cura presso queste strutture “terranno un diario” delle loro giornate e dell’umore, mentre i medici continueranno a seguirli per controllare il loro benessere mentale. Dall’incrocio di questi data set, gli algoritmi impareranno a individuare i possibili segnali di ansia e depressione.

Per superare le criticità legate a protezione, sicurezza e accessibilità dei dati sanitari, nell’AI Angel l’Intelligenza Artificiale funzionerà con un modello di apprendimento automatico chiamato Federated Learning.

«Il modello centralizzato dell’intelligenza artificiale funziona così: i device, oggetti intelligenti o applicazioni, inviano i dati a un server centrale che li elabora restituendo il risultato. Una delle specificità di FAITH – sottolinea Frau è che l’analisi dei dati è decentralizzata, cioè avviene localmente nei device stessi. Ad arrivare al server sono modelli già elaborati, che vengono integrati per produrre un unico modello ottimizzato. Questo torna nuovamente ai dispositivi dove viene ulteriormente migliorato grazie all’acquisizione di nuovi dati, in un circolo virtuoso che permette di generare modelli specializzati rispettando la privacy. In questo processo i dati sensibili non lasciano mai la persona, garantendo una maggiore tranquillità sia a quest’ultima sia a chi li riceve, nel nostro caso il medico».

Altro obiettivo dei ricercatori del progetto è trovare il modo di spiegare agli ex-pazienti e ai medici perché l’algoritmo ha restituito un certo risultato, soprattutto per permettere ai dottori di interpretare correttamente la “diagnosi” fatta dall’Intelligenza Artificiale e decidere se avviare un percorso di cura.

Gli algoritmi elaborano dati e restituiscono un risultato, ma chi lo riceve non sa come ci sono arrivati – dice Frau – sono algoritmi a scatola chiusa, ma se vogliamo un’Intelligenza Artificiale alla quale poterci affidare bisogna che data scientist e sviluppatori trovino il modo di spiegare agli utenti perché i modelli si comportano in un certo modo.

La trasparenza dell’AI è un aspetto da non trascurare: il successo delle applicazioni intelligenti dipenderà anche dal livello di fiducia che vi ripongono gli utenti.

Comments are closed.