Un nuovo modello matematico “gravitazionale” che descrive in modo originale l’attenzione visiva e che permette di prevedere i movimenti oculari: è il lavoro recentemente pubblicato sulla rivista scientifica Nature, frutto della collaborazione tra i ricercatori dei dipartimenti di Scienze mediche, chirurgiche e neuroscienze, Dario Zanca e Alessandra Rufa, e di Ingegneria dell’informazione e scienze matematiche, Marco Gori e Stefano Melacci, dell’Università di Siena.
Uno dei settori più prolifici della ricerca nelle neuroscienze della visione riguarda lo studio dei meccanismi che guidano la selezione degli stimoli e la direzione dello sguardo durante l’esplorazione visuo-spaziale. Nello studio dell’Ateneo senese viene proposta una descrizione delle aree cerebrali coinvolte in questo processo e l’implementazione del modello consente di simulare in real-time i movimenti oculari su un qualsiasi video.
“Nell’essere umano – spiega la professoressa Alessandra Rufa – oltre il 60% dell’attività cerebrale è connessa con l’elaborazione del segnale visivo. Circa il 90% del tempo impiegato nella visione è dedicato alla fissazione, il rimanente 10% è usato per spostare gli occhi da un punto ad un altro. Le fissazioni sono intercalate da movimenti rapidi di spostamento chiamati ‘saccadi’, che sono i movimenti più veloci che il corpo umano possa eseguire. Il sistema visivo umano per sua natura presenta una limitata capacità di processazione dell’enorme quantità di dettagli che provengono dall’ambiente esterno e ciò comporta la necessità di selezionare gli stimoli percettivi più salienti”.
“I risultati del nostro lavoro di ricerca – prosegue la professoressa Rufa – hanno un forte impatto applicativo: in virtual reality, ad esempio, permettono di ottimizzare lo streaming in base ad una stima dei movimenti oculari; rendono possibile pianificare una campagna di marketing valutando in anticipo l’efficacia dei contenuti visivi e prevedendo cosa attrarrà maggiormente l’attenzione degli utenti. Inoltre, simulando i movimenti oculari umani, sarà possibile dotare intelligenze artificiali di capacità simili all’uomo, progettarle per svolgere compiti sempre più complessi e interagire con gli umani in maniera più naturale”.
Grazie alla collaborazione interdisciplinare, il gruppo di ricerca ha ottenuto un finanziamento per l’acquisto di un “Eye Tracking” di ultima generazione.
L’apparecchio, che si trova presso la Clinica neurologica e malattie neurometaboliche dell’Azienda Ospedaliera Universitaria Senese, sarà usato, sotto il coordinamento della professoressa Alessandra Rufa, dal suo team del dipartimento di Scienze mediche, chirurgiche e neuroscienze e congiuntamente dai gruppi di ricerca guidati dal professor Marco Gori, del dipartimento di Ingegneria dell’informazione e scienze matematiche, e del professor Roberto Di Pietra, del dipartimento di Studi aziendali e giuridici, che ha partecipato al progetto per la parte di Neuroaccounting.
La professoressa Rufa e il suo gruppo utilizzeranno lo strumento oltre che per la ricerca, anche per la diagnostica, nell’EVALAB EYETECH, The Eye-tracking & Visual Applications lab of Siena (http://evalab-eyetech.com) e nel laboratorio di ricerca congiunto dell’Ateneo senese “Neurosense” (http://neurosense.wp.unisi.it).
Il gruppo infatti lavora da anni su questa tecnica e ha sviluppato un sistema di quantificazione dei movimenti oculari molto utile nella diagnostica di malattie neurologiche, come Parkinson e demenza, neuropsichiatriche, come autismo e dislessia, ed oculari (strabismi).
Lo studio “Gravitational models explain shifts on human visual attention” è consultabile on line: https://www.nature.com/articles/s41598-020-73494-2.