Depressione si ‘legge’ in faccia, App cellulare usa Ai per rilevarla

144

(Adnkronos) –
La depressione svelata dallo smartphone. Sorrisi, smorfie di gioia, sguardo ombroso, sopracciglia aggrottate, occhi persi nel vuoto. Quello che le persone non dicono spesso si legge sulle loro facce. E' quello che punta a fare anche un'App per smartphone che utilizza l'intelligenza artificiale abbinata a un software di elaborazione delle immagini facciali per rilevare in modo affidabile l'insorgenza della depressione prima ancora che l'utente si accorga che qualcosa non va. Si chiama MoodCapture ed è stata sviluppata da ricercatori del Dartmouth College. L'App, spiegano gli esperti dell'ateneo statunitense, utilizza la fotocamera frontale del telefono per catturare le espressioni facciali della persona e l'ambiente circostante durante l'uso regolare del telefonino, quindi valuta le immagini per individuare segnali clinici associati al mal di vivere.   In uno studio condotto su 177 persone con diagnosi di disturbo depressivo maggiore, l'App ha identificato correttamente i primi sintomi della depressione con una precisione del 75%. "Le persone usano software di riconoscimento facciale per sbloccare i loro telefonini centinaia di volte al giorno", spiega Andrew Campbell, autore corrispondente dello studio disponibile in versione preprint nel database 'arXiv' e professore di informatica al Dartmouth. Per fare un esempio, l'esperto recentemente ha mostrato di averlo fatto più di 800 volte in una settimana con il suo telefono. "MoodCapture utilizza una pipeline tecnologica simile alla tecnologia di riconoscimento facciale con deep learning e hardware di Ai – illustra – quindi esiste un enorme potenziale per ampliare questa tecnologia senza alcun input o onere aggiuntivo per l'utente".  "Una persona sblocca semplicemente il telefono e MoodCapture conosce le dinamiche della sua depressione e può suggerirle di cercare aiuto", continua Campbell. Questo dispositivo apre le porte al supporto digitale per la salute mentale in tempo reale, riflettono gli autori che presenteranno il lavoro alla conferenza Chi 2024 dell'Association of Computing Machinery a maggio. I documenti sono sottoposti a 'peer review' prima dell'accettazione e saranno pubblicati negli atti della conferenza. Questi risultati "suggeriscono che la tecnologia potrebbe essere disponibile al pubblico entro i prossimi 5 anni con ulteriori sviluppi", affermano i ricercatori del Dipartimento di informatica e della Geisel School of Medicine.  
"E' la prima volta che immagini naturali 'in-the-wild' vengono utilizzate per prevedere la depressione", riflette Campbell, spiegando che c'è stato un movimento dedicato alla tecnologia digitale per la salute mentale che ha portato a trovare "uno strumento in grado di prevedere l'umore nelle persone con diagnosi di depressione grave in modo affidabile e non invasivo". Per lo studio, l'applicazione ha catturato 125mila immagini dei partecipanti nel corso di 90 giorni. Le persone coinvolte nello studio hanno acconsentito a farsi scattare foto tramite la fotocamera anteriore del telefono, ma non sapevano quando ciò stava accadendo. Un primo gruppo di partecipanti è stato utilizzato per programmare MoodCapture addestrandola a riconoscere la depressione. Questi sono stati fotografati in sequenze casuali utilizzando la fotocamera frontale del telefono mentre rispondevano a una domanda ('Mi sono sentito giù, depresso o senza speranza?') del Patient Health Questionnaire in 8 punti, utilizzato dai medici per rilevare e monitorare la depressione maggiore. I ricercatori hanno utilizzato l'Ai per l'analisi delle immagini in modo che il modello predittivo di MoodCapture potesse imparare a correlare le segnalazioni dei pazienti sul sentirsi depressi con specifiche espressioni facciali – sguardo, movimento degli occhi, posizionamento della testa, rigidità muscolare – e caratteristiche ambientali come colori dominanti, illuminazione, posizioni delle foto e numero di persone nell'immagine. Ogni volta che un utente sblocca il telefono, MoodCapture analizza una sequenza di immagini in tempo reale.  Il modello di Ai traccia connessioni tra espressioni e dettagli di sfondo ritenuti importanti, come lo sguardo, i cambiamenti nell'espressione facciale e l'ambiente circostante di una persona. Nel tempo, MoodCapture identifica le caratteristiche dell'immagine specifiche per l'utente. Ad esempio, se qualcuno appare costantemente con un'espressione piatta in una stanza scarsamente illuminata per un periodo prolungato, il modello potrebbe dedurre che stia sperimentando un inizio di depressione. Gli scienziati hanno poi testato il modello predittivo su un gruppo separato di partecipanti, ottenendo appunto un'accuratezza del 75%. La soglia del 90% sarebbe quella di un sensore utilizzabile, precisa Campbel, ma con lo studio è stata dimostrata la fattibilità. "Molti degli interventi terapeutici per la depressione sono incentrati su periodi di tempo più lunghi, ma queste persone sperimentano alti e bassi nella loro condizione – osserva il coautore Nicholas Jacobson, del Center for Technology and Behavioral Health di Dartmouth – Se possiamo usare questo strumento per prevedere e comprendere i rapidi cambiamenti nei sintomi della depressione, possiamo alla fine prevenirli e curarli". Con queste tecnologie si punta a "fornire un maggiore supporto in tempo reale senza aggiungere ulteriore pressione al sistema sanitario". —salutewebinfo@adnkronos.com (Web Info)