UN TEAM DI RICERCATORI HA SVILUPPATO UN'APP PER SMARTPHONE CAPACE DI IDENTIFICARE L'INFEZIONE DA COVID-19 NELLA VOCE DELLE PERSONE - L'INTELLIGENZA ARTIFICIALE PRESENTE NEL PROGRAMMA HA UN'ACCURATEZZA DELL'89% NEL RILEVARE POSITIVI E NEGATIVI, PIÙ ALTA DEI TEST ANTIGENICI RAPIDI - NEL FRATTEMPO L'AIFA HA DATO IL VIA LIBERA ALL'UTILIZZO DEI VACCINI BIVALENTI PFIZER E MODERNA SOPRA AI DODICI ANNI DI ETÀ: LA DOSE BOOSTER PUÒ ESSERE SOMMINISTRATA DOPO ALMENO…
-
Antonio Caperna per “il Giornale”
Intelligenza artificiale (AI) protagonista del Congresso dell'European Respiratory Society ERS a Barcellona: secondo i ricercatori dell'Università di Maastricht, può essere utilizzata per rilevare l'infezione da COVID-19 nella voce delle persone tramite un'app per smartphone.
Inoltre il modello AI utilizzato in questa ricerca è più accurato dei test antigenici rapidi a flusso laterale, che ben conosciamo, ed è economico, veloce e facile da usare, e quindi può essere usato anche nei paesi a basso reddito, dove sono più costosi e difficili da distribuire. Infatti la sua accuratezza complessiva è stata dell'89%; la capacità di rilevare correttamente i casi positivi (il tasso di vero positivo o «sensibilità») dell'89% e di identificare quelli negativi (il tasso di vero negativo o «specificità») ben dell'83%.
L'infezione di solito colpisce le vie respiratorie superiori e le corde vocali, portando a cambiamenti nella voce di una persona. I ricercatori hanno utilizzato i dati dell'app COVID-19 Sounds dell'Università di Cambridge, che contiene 893 campioni audio di 4.352 partecipanti sani e non sani, 308 dei quali sono risultati positivi al virus.
L'app è stata installata sul cellulare e i partecipanti hanno riportato alcune informazioni di base come dati demografici, anamnesi e abitudine al fumo, quindi è stato chiesto di registrare alcuni suoni respiratori: tre colpi di tosse; 3-5 respiri profondi con la bocca; la lettura di una breve frase per 3 volte. È stata utilizzata una tecnica di analisi vocale (Mel-spectrogram analysis), che identifica diverse caratteristiche della voce come volume, potenza e variazione nel tempo.
«In questo modo possiamo scomporre le molte proprietà delle voci dei partecipanti - spiega Wafaa Aljbawi, ricercatrice presso l'Istituto di scienza dei dati, Università di Maastricht -. Per distinguere la voce dei pazienti COVID da quelli che non avevano la malattia, abbiamo costruito diversi modelli di intelligenza artificiale».
Il migliore è quello chiamato Memoria a Lungo Termine (LSTM), che si basa su reti neurali, che imitano il modo in cui opera il cervello umano e riconoscono le relazioni sottostanti nei dati.
Dall'inizio del progetto, sono stati raccolti 53.449 campioni audio da 36.116 partecipanti e possono essere utilizzati per migliorare e convalidare l'accuratezza del modello. I ricercatori stanno poi effettuando ulteriori analisi, per capire quali parametri nella voce stanno influenzando il modello. «Tali test possono essere forniti gratuitamente e sono semplici da interpretare. Inoltre, consentono test virtuali e remoti e hanno un tempo di risposta inferiore a un minuto. Potrebbero essere utilizzati, ad esempio, nei punti di ingresso per grandi assembramenti, consentendo uno screening rapido della popolazione».
Proprio mentre l'Aifa, dopo l'approvzione di Ema, ha dato il via libera all'utilizzo dei vaccini bivalenti Pfizer e Moderna sopra ai dodici anni di età. «Capacità di indurre una risposta anticorpale maggiore di quella del vaccino monovalente», hanno spiegato gli esperti, aggiungendo che la dose booster può essere somministrata dopo almeno tre mesi dal completamento del ciclo vaccinale primario o dall'eventuale dose booster già ricevuta.