IT202000016252A1 - ASSESSMENT SYSTEM OF THE TERRITORIAL INCIDENCE OF SYMPTOMS - Google Patents

ASSESSMENT SYSTEM OF THE TERRITORIAL INCIDENCE OF SYMPTOMS Download PDF

Info

Publication number
IT202000016252A1
IT202000016252A1 IT102020000016252A IT202000016252A IT202000016252A1 IT 202000016252 A1 IT202000016252 A1 IT 202000016252A1 IT 102020000016252 A IT102020000016252 A IT 102020000016252A IT 202000016252 A IT202000016252 A IT 202000016252A IT 202000016252 A1 IT202000016252 A1 IT 202000016252A1
Authority
IT
Italy
Prior art keywords
data
evaluation system
images
pixel
network
Prior art date
Application number
IT102020000016252A
Other languages
Italian (it)
Inventor
Federico Fausti
Giuseppe Pitta'
Original Assignee
Devices & Tech Torino S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Devices & Tech Torino S R L filed Critical Devices & Tech Torino S R L
Priority to IT102020000016252A priority Critical patent/IT202000016252A1/en
Publication of IT202000016252A1 publication Critical patent/IT202000016252A1/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/80ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for detecting, monitoring or modelling epidemics or pandemics, e.g. flu
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Absorbent Articles And Supports Therefor (AREA)

Description

Sistema di valutazione dell?incidenza territoriale di sintomatologie Evaluation system of the territorial incidence of symptoms

Descrizione Description

La presente invenzione ha come oggetto un sistema di valutazione dell?incidenza territoriale di determinate sintomatologie, capace di fornire un?indicazione sulla loro densit?, in particolare per predisporre misure di contenimento. The object of the present invention is a system for evaluating the territorial incidence of certain symptoms, capable of providing an indication of their density, in particular for preparing containment measures.

Come ? noto, l?insorgere di epidemie pu? condurre alla sofferenza strutturale un sistema sanitario territoriale, con riflessi anche pesanti sulla capacit? di un sistema sanitario di predisporre sia trattamenti terapeutici sia misure di contenimento, che richiedono di approntare risorse a questo scopo. As ? known, the onset of epidemics can? lead a territorial health system to structural suffering, with even heavy repercussions on the ability to of a health system to prepare both therapeutic treatments and containment measures, which require the preparation of resources for this purpose.

Tra le misure di contenimento, possono essere inclusi l?approvvigionamento di farmaci, di presidi sanitari, di dispositivi di protezione individuale, la disponibilit? di posti letti, personale medico e infermieristico, l?adozione di norme di distanziamento sociale. Among the containment measures, can be included the supply of medicines, health aids, personal protective equipment, the availability of of beds, medical and nursing staff, the adoption of social distancing rules.

Per ottenere una valutazione di quella che potrebbe essere la densit? di predeterminate sintomatologie legate a epidemie e/o endemie, il tracciamento dei contatti con soggetti con sintomi e i test su potenziali contagiati non possono in generale rispondere a esigenze statistiche, ma devono essere mirati all?individuazione di soggetti da isolare e/o da curare. To obtain an evaluation of what could be the density? of predetermined symptoms linked to epidemics and/or endemics, the tracing of contacts with subjects with symptoms and tests on potentially infected people cannot generally respond to statistical needs, but must be aimed at identifying subjects to isolate and/or to treat.

Inoltre, le normali tecniche di tracciamento rischiano di fornire le indicazioni necessarie troppo tardi rispetto a esigenze di programmazione sul territorio. Furthermore, normal tracing techniques risk providing the necessary information too late with respect to planning needs in the area.

Per ovviare a questo inconveniente, sono stati proposti sistemi di tracciamento basati sull?individuazione prematura dei sintomi: questa strada pu? essere considerata promettente, ma ? comunque basata sulle informazioni fornite da soggetti che potrebbero non essere in grado di fare corrette valutazioni sui propri sintomi. To overcome this inconvenience, tracking systems based on the premature identification of symptoms have been proposed: this route can be considered promising, but ? however based on information provided by subjects who may not be able to make correct assessments of their symptoms.

Inoltre, i soggetti che dovrebbero autonomamente fornire le proprie valutazioni potrebbero avere timori circa la divulgazione di dati sensibili riguardanti la propria salute. Furthermore, individuals who should autonomously provide their own assessments may have concerns about the disclosure of sensitive data concerning their health.

Queste paure sarebbero ingiustificate se le norme vigenti sulla privacy fossero rispettate, ma a maggior ragione non avrebbero motivo di essere se lo scopo della valutazione ? quello di comprendere quali potrebbero essere le esigenze di un territorio per rispondere a un?emergenza sanitaria. These fears would be unjustified if the privacy laws in force were respected, but even more so would they have no reason to exist if the purpose of the evaluation? that of understanding what the needs of a territory could be in order to respond to a health emergency.

Il problema tecnico che ? alla base della presente invenzione ? di fornire un sistema di valutazione che consenta di ovviare all?inconveniente menzionato con riferimento alla tecnica nota. The technical problem that ? at the basis of the present invention ? to provide an evaluation system which allows the drawback mentioned with reference to the prior art to be overcome.

Tale problema viene risolto da un sistema di valutazione come sopra specificato che si caratterizza per il fatto di comprendere: This problem is solved by an evaluation system as specified above which is characterized by the fact that it includes:

? un dispositivo indossabile che effettua misurazioni di dati corporei di una pluralit? di utenti associati al sistema; ? a wearable device that takes measurements of body data of a plurality? of users associated with the system;

? un rilevatore di video e immagini digitali, che consente di rilevare dati biometrici di detta pluralit? di utenti; ? a digital video and image detector, which allows you to detect biometric data of said plurality? of users;

? un dispositivo di geo-posizionamento per determinare i dati di posizionamento di detta pluralit? di utenti, e li associa a coordinate geografiche di un?area o di una regione di riferimento; ? a geo-positioning device to determine the positioning data of said plurality? of users, and associates them with geographic coordinates of a reference area or region;

? un dispositivo di trasmissione dei dati corporei, dei video e delle immagini digitali e le coordinate geografiche a un server, su cui ? installato un software di intelligenza artificiale e a un classificatore, che elabora detta valutazione. ? a device for transmitting body data, video and digital images and geographical coordinates to a server, on which installed artificial intelligence software and a classifier, which processes this evaluation.

Il principale vantaggio del sistema di valutazione secondo la presente invenzione risiede nel consentire un?associazione di un insieme di informazioni a coordinate geografiche che non sono legate a ciascuno degli utenti partecipanti. The main advantage of the evaluation system according to the present invention lies in allowing an association of a set of information to geographical coordinates which are not linked to each of the participating users.

In particolare, viene realizzato un ecosistema a cura della condizione di salute di una comunit?, che basato sulla raccolta multi-sorgente dei sintomi, correlando la misura del dispositivo medico a un modello gestito da intelligenza artificiale. In particular, an ecosystem is created to care for the health condition of a community, which is based on the multi-source collection of symptoms, correlating the measurement of the medical device to a model managed by artificial intelligence.

L?utente ha la possibilit? di attivare l?ottimizzazione del modello sullo storico recente dei propri dati biometrici tramite una calibrazione attiva. Questa possibilit? di personalizzazione ? basata su un?elaborazione dell?informazione in locale attraverso un accumulo di dati che avviene unicamente nella memoria fisica del dispositivo mobile (trattasi di file di testo di pochi byte, per ogni set di misura) e sull?elaborazione dei dati effettuata attraverso il software che lavora in locale, nell?applicazione installata sul dispositivo mobile dell?utente. La modalit? sopra descritta, sviluppata seguendo il concetto di privacy-by-design, ? da intendersi nell?ottica degli strumenti di tele-prevenzione. The user has the possibility? to activate the optimization of the model on the recent history of your biometric data through an active calibration. This possibility? of customization? based on local information processing through an accumulation of data that takes place only in the physical memory of the mobile device (these are text files of a few bytes, for each measurement set) and on data processing carried out through the software who works locally, in the application installed on the user's mobile device. The mode? described above, developed following the privacy-by-design concept, ? to be understood from the point of view of tele-prevention tools.

Il risultato dell?interazione utente-ecosistema ? cos? un riscontro sulla condizione di salute e una possibile linea guida come supporto nella routine quotidiana dell?utilizzatore. The result of the user-ecosystem interaction? what? a feedback on the health condition and a possible guideline as support in the daily routine of the user.

La presente invenzione verr? qui di seguito descritta secondo un suo esempio di realizzazione preferita, fornito a scopo esemplificativo e non limitativo con riferimento ai disegni annessi in cui: This invention will come described hereinafter according to a preferred embodiment thereof, provided by way of non-limiting example with reference to the attached drawings in which:

? la figura 1 mostra uno schema a blocchi che illustra il sistema di valutazione secondo la presente invenzione; ? Figure 1 shows a block diagram illustrating the evaluation system according to the present invention;

? la figura 2 mostra uno schema a blocchi che illustra un dispositivo indossabile impiegato nel sistema di valutazione secondo l?invenzione; e ? Figure 2 shows a block diagram illustrating a wearable device used in the evaluation system according to the invention; And

? la figura 3 illustra il processo di trattamento dei dati nel sistema di valutazione secondo l?invenzione. ? Figure 3 illustrates the data processing process in the evaluation system according to the invention.

Con riferimento alle figure, viene descritto un sistema di valutazione dell?incidenza territoriale di determinate sintomatologie. With reference to the figures, a system of evaluation of the territorial incidence of certain symptoms is described.

Come spiegato in precedenza, lo scopo del sistema ? quello di fornire un?indicazione sulla loro densit? in relazione a un territorio predeterminato. As explained above, the purpose of the system ? to provide an? indication on their density? in relation to a predetermined territory.

Tale sistema comprende un dispositivo indossabile che effettua misurazioni di dati corporei di una pluralit? di utenti associati al sistema Such a system includes a wearable device that takes measurements of a plurality of body data. of users associated with the system

Questo dispositivo indossabile pu? essere realizzato assemblando componenti predisposti per raccogliere dati biometrici quali la frequenza cardiaca, frequenza respiratoria, pressione sanguigna, temperatura corporea e saturazione di ossigeno nel sangue. This wearable device can be made by assembling components designed to collect biometric data such as heart rate, respiratory rate, blood pressure, body temperature and blood oxygen saturation.

Oltre a i suddetti sensori, il dispositivo ? dotato di un microprocessore, di modulo di trasmissione, del tipo driver Bluetooth ?, e un?interfaccia con l?utente, per esempio uno schermo touchscreen e un avvisatore acustico. Esso pu? comprendere una batteria integrata nel dispositivo in modo che possa operare senza fili e in mobilit?. In addition to the aforementioned sensors, the device ? equipped with a microprocessor, a transmission module, such as a Bluetooth driver?, and an interface with the user, such as a touchscreen and an acoustic signal. It can include a built-in battery in the device so that it can operate wirelessly and on the go.

Il dispositivo indossabile raccoglie i dati dai propri sensori dedicato, ed essi vengono inviati a un server attraverso l?intermediazione di un dispositivo di comunicazione, per esempio uno smartphone che dispone delle necessarie funzionalit? Bluetooth ? e di un collegamento alla rete (figura 2). The wearable device collects data from its dedicated sensors, and they are sent to a server through the intermediary of a communication device, for example a smartphone that has the necessary functionalities. Bluetooth ? and a connection to the network (figure 2).

Si intende che questi dati vengono inviati a un server che costituisce un centro di calcolo che utilizza procedure adeguate alla normativa su privacy e data security. It is understood that this data is sent to a server which constitutes a computer center which uses procedures adequate to the legislation on privacy and data security.

Il sistema di valutazione comprende quindi un rilevatore che consente di rilevare immagini e dati biometrici di detta pluralit? di utenti. The evaluation system therefore comprises a detector which allows images and biometric data of said plurality to be detected. of users.

Questo rilevatore pu? essere costituito dallo stesso smartphone gi? citato in precedenza, esso pu? essere usato sia per video-fotografare il volto dell?utente sia per captare il fondo della retina. This detector can be made up of the same smartphone already? previously mentioned, it pu? be used both to video-photograph the user's face and to capture the fundus of the retina.

Una volta ottenute, le immagini possono essere inviate al server sopra menzionato, usando eventualmente una applicazione installata sullo smartphone. Once obtained, the images can be sent to the aforementioned server, possibly using an application installed on the smartphone.

Il software in esso installato ? capace di ricavare dati significativi da esse in maniera automatica, ovvero senza che un utente effettui un qualsiasi tipo di intervento. The software installed in it ? capable of obtaining significant data from them automatically, i.e. without a user performing any type of intervention.

La raccolta delle immagini con il suddetto dispositivo richiede all?utente di effettuare un video del volto con la fotocamera frontale dello smartphone, mentre si leggono sottotitoli formulati come frasi brevi e semplici, associati a una slideshow mostrata a schermo. The collection of images with the aforementioned device requires the user to make a video of the face with the front camera of the smartphone, while reading subtitles formulated as short and simple sentences, associated with a slideshow shown on the screen.

Il software opera in base a una logica predittiva/di supporto alla diagnosi che si basa su due macro-livelli di una rete neurale convoluzionale (CNN). Un primo livello identifica la presenza o meno dell?occhio nei frame del video e sceglie per il secondo livello CNN quale sviluppo intraprendere tra due casi. The software operates on the basis of a predictive/diagnostic support logic that is based on two macro-levels of a convolutional neural network (CNN). A first level identifies the presence or absence of the eye in the video frames and chooses for the second level CNN which development to undertake between two cases.

Nel primo caso, l?occhio ? presente nel dato, e il software seleziona alcuni frame e ritaglia le immagini nella zona dell?occhio. L?algoritmo ricerca cluster significativi, mediante ricerca di pattern di regolarit?, all?interno del fundus oculare per lo studio della retina, correlati a determinate patologie dell?occhio stesso e dell?individuo in senso pi? esteso. In the first case, the eye? present in the data, and the software selects some frames and crops the images in the eye area. The algorithm searches for significant clusters, by searching for patterns of regularity, within the ocular fundus for the study of the retina, related to certain pathologies of the eye itself and of the individual in a more general sense. extended.

Nel secondo caso, l?occhio non ? presente nel dato, e quindi le immagini o il video vengono processati per studiare asimmetrie e micro-espressioni particolari come ridotta fluidit? espressiva, tensioni nella zona nella bocca, nell?arcata sopracciliare e nella fronte. Possono essere usate tecniche di visual scanning behaviours (VSBs), adottate per lo studio della risposta a stimoli emozionali o non emozionali permettono di rilevare informazioni della sfera psicologica. Un esempio di questa applicazione ? la ricerca di manifestazione di apatia in soggetti malati di Alzheimer. In the second case, the eye is not present in the data, and therefore the images or the video are processed to study particular asymmetries and micro-expressions such as reduced fluidity? expression, tensions in the area of the mouth, browbone and forehead. Visual scanning behaviors (VSBs) techniques can be used, adopted for the study of the response to emotional or non-emotional stimuli, which allow the detection of information from the psychological sphere. An example of this application? the research of manifestation of apathy in Alzheimer's patients.

La presenza dei due livelli permette di ottimizzare le risorse in termini di impego del potere computazionale, tempo di calcolo e efficienza nella convergenza dell?algoritmo. La rete neurale ? strutturata su pi? livelli in modo tale da seguire un percorso decisionale che prevede comparti di approfondimento il cui accesso (e quindi attivazione) avviene secondo il diagramma di flusso di figura 4. The presence of the two levels makes it possible to optimize resources in terms of use of computational power, calculation time and efficiency in the convergence of the algorithm. The neural network? structured on pi? levels in such a way as to follow a decision-making path which provides in-depth sections whose access (and therefore activation) takes place according to the flow chart in figure 4.

Pertanto, nel primo livello viene identificata la presenza o meno dell?occhio nei frame video, andando a studiare il point-of-gaze (PoG: punto di vista), punto all?interno del campo visivo che viene visualizzato sulla fovea centralis, regione della retina al centro della macula lutea. Questa parte dell?occhio viene identificata come zona di massima acutezza visiva e punto centrale di focalizzazione dell?attenzione visiva. Lo studio del PoG viene impiegato in vari campi come nell?ottimizzazione di dispositivi di assistenza per disabilit? motorie, feedback sulla qualit? dell?interfaccia utente con il digitale e studi sui disturbi umorali. Tipiche caratteristiche prese in considerazione sono il centro della pupilla e le riflessioni della cornea. Therefore, in the first level, the presence or absence of the eye in the video frames is identified by studying the point-of-gaze (PoG: point of view), a point within the visual field which is displayed on the fovea centralis, region of the retina in the center of the macula lutea. This part of the eye is identified as the zone of maximum visual acuity and the central focus of visual attention. The study of PoG is used in various fields such as the optimization of assistive devices for disabilities? motor skills, feedback on the quality? of user interface with digital and studies on mood disorders. Typical features considered are the center of the pupil and reflections from the cornea.

Sebbene informazioni video permettano di raccogliere una enorme quantit? di informazioni aggiuntive rispetto a un?immagine fotografica, la ricerca delle menzionate caratteristiche risulta essere complicata dal movimento del target, da qui la necessit? di un supporto AI basato su metodi di apprendimento profondo. Although video information allows you to collect a huge amount of additional information compared to a photographic image, the search for the aforementioned characteristics is complicated by the movement of the target, hence the need? of AI support based on deep learning methods.

Una prima fase di definizione di un livello di riferimento rispetto al quale valutare in maniera pi? accurata lo stato di salute dell?utilizzatore del sistema prevede una procedura di calibrazione guidata per determinare alcuni riferimenti geometrici come il raggio di curvatura della cornea, la distanza tra il centro della curvatura della cornea e il centro della pupilla, e gli angoli di offset verticale e orizzontale tra l?asse ottico e quello visivo. A first phase of definition of a reference level against which to evaluate more? accurate the state of health of the system user provides a guided calibration procedure to determine some geometric references such as the radius of curvature of the cornea, the distance between the center of the curvature of the cornea and the center of the pupil, and the vertical offset angles and horizontal between the optical and visual axes.

La procedura ? basata sul focalizzare il PoG di vista dell?individuo verso target a riferimento spaziale noto e sull?acquisizione di campioni immagine e video. The procedure ? based on focusing the PoG of sight of the individual towards targets with known spatial reference and on the acquisition of image and video samples.

A partire da questa prima interazione, vengono impiegate tecniche di comparazione differenziale a supporto del software e della routine di ottimizzazione del metodo. Starting from this first interaction, differential comparison techniques are employed to support the software and the method optimization routine.

Per identificare regioni di interesse e pattern di riferimento nell?immagine oculare si ? scelto di usare algoritmi basati su una specifica configurazione di reti neurali feed-forward e multilivello, ovvero una reti neurali convoluzionali ottimizzate per il processamento adattivo di immagini dell?occhio che sono in grado di svolgere attivit? di pre-processamento e classificazione in un unico flusso con molteplici mappe, ognuna destinata alla rivelazione e classificazione di una determinata caratteristica. Ogni mappa ? dotata di un set di pesi e bias. To identify regions of interest and reference patterns in the ocular image yes ? chosen to use algorithms based on a specific configuration of feed-forward and multilevel neural networks, i.e. a convolutional neural network optimized for the adaptive processing of images of the eye that are able to perform of pre-processing and classification in a single flow with multiple maps, each intended for the detection and classification of a given characteristic. Each map ? equipped with a set of weights and bias.

Gli output delle unit? di convoluzione vengono modellate con una funzione di attivazione a sigmoide non lineare, per poi essere inviate come input per un livello di campionamento pi? interno della rete. Per ogni mappa nel livello di convoluzione esiste un piano di unit? nel livello di campionamento interno. Ogni unit? di questo livello di campionamento interno calcola la media dei valori in ingresso da una regione, nella mappa di caratteristiche corrispondente. Per rivelare la presenza o meno dell?occhio, basta una regione 2x2. La media calcolata viene poi moltiplicata per un peso e viene poi sommato un valore di bias (figura 5). The outputs of the units? of convolution are modeled with a non-linear sigmoid activation function, to then be sent as input for a sampling level more? inside the network. For every map in the convolution layer, is there a unit plane? in the internal sampling level. Each unit? of this internal sampling level calculates the average of the input values from a region, in the corresponding feature map. To reveal the presence or absence of the eye, a 2x2 region is enough. The calculated mean is then multiplied by a weight and a bias value is then added (figure 5).

Per il primo livello di rete neurale convoluzionale, quello relativo all?individuazione della presenza dell?occhio, la rete neurale presenta due stadi di convoluzione Cs1, Cs2 e due livelli di campionamento interno S1, S2. For the first level of the convolutional neural network, the one relating to the detection of the presence of the eye, the neural network has two convolutional stages Cs1, Cs2 and two internal sampling levels S1, S2.

Un primo stadio di convoluzione Cs1 ? volto all?estrazione di informazioni basilari dall?immagine in input, utilizzando una risoluzione spaziale a massima densit? di pixel e tecniche di analisi differenziale rispetto al riferimento. A first stage of convolution Cs1 ? aimed at the extraction of basic information from the input image, using a spatial resolution at maximum density? of pixels and differential analysis techniques with respect to the reference.

Un secondo stadio di convoluzione Cs2 apprende il riconoscimento di pattern come riferimenti spaziali ricorrenti, generando set di caratteristiche. A second stage of Cs2 convolution learns pattern recognition as recurring spatial references, generating feature sets.

Per estrarre diverse tipologie di caratteristiche dal secondo stadio di convoluzione Cs2, un primo livello di campionamento interno S1 invia set di input differenti. In questo modo, ci si pu? aspettare che il secondo livello di campionamento interno S2 impari ad estrarre caratteristiche scorrelate da quanto fatto dal primo livello S1, e relative a punti specifici dell?immagine. To extract different types of characteristics from the second convolution stage Cs2, a first internal sampling level S1 sends different input sets. In this way, you can? wait for the second internal sampling level S2 to learn to extract characteristics unrelated to what was done by the first level S1, and related to specific points of the image.

Queste ultime caratteristiche possono essere usate per la classificazione. un terzo stadio di convoluzione Cs3 ? cos? uno stadio completamente connesso (fully-connected), dove ogni unit? ? connessa a tutte le unit? di una singola mappa corrispondente nel secondo livello di campionamento interno S2. These latter characteristics can be used for classification. a third stage of convolution Cs3 ? what? a stage completely connected (fully-connected), where each unit? ? connected to all units? of a single corresponding map in the second internal sampling level S2.

Per ultimo, tutte le unit? di sono totalmente connesse cos? da generare due output con una funzione di attivazione di tipo softmax, con funzione esponenziale normalizzata: Finally, all the units? of are totally connected cos? to generate two outputs with a softmax type activation function, with normalized exponential function:

k = 0 per le immagini con l?occhio presente e k = 1 per le immagini con l?occhio assente. ?k ? il parametro k di attivazione dell?output k = 0 for the images with the eye present and k = 1 for the images with the absent eye. ?k ? the output activation parameter k

Con wki e wk0 come parametri di tuning della rete per l?output k e zi ? l?output per l?unit? nascosta i in Cs3 e N il numero di unit? nel livello Cs3, With wki and wk0 as network tuning parameters for output k and zi ? the?output for the?unit? hidden i in Cs3 and N the number of units? in level Cs3,

Nell?esempio di rete neurale convoluzionale qui descritta, impiegata per l?individuazione dell?occhio nell?immagine, l?architettura utilizza 2162 parametri distribuiti come segue. In the example of a convolutional neural network described here, used to identify the eye in the image, the architecture uses 2162 parameters distributed as follows.

Cs1 ? un livello di convoluzione con 4 mappe di caratteristiche. Ogni unit? in ogni mappa di caratteristiche ? connessa a un campo 5x5 nell?intorno dell?immagine in input (delle dimensioni di 38x38 pixel). Le dimensioni di ogni mappa di caratteristiche ? di 34x34 pixel, risultato della convoluzione del kernel 5x5 con l?immagine in ingresso. Ogni mappa ha 40 parametri adattivi (160 in totale, in Cs1). Cs1 ? a convolution layer with 4 feature maps. Each unit? in each feature map ? connected to a 5x5 field around the input image (with dimensions of 38x38 pixels). The size of each feature map ? of 34x34 pixels, result of the convolution of the 5x5 kernel with the input image. Each map has 40 adaptive parameters (160 in total, in Cs1).

Il livello di campionamento interno S1 ? composto da 4 mappe, una per ogni mappa in Cs1 (da 16x16 pixel). Ogni mappa ha 2 parametri adattivi, 8 in totale per S1. Cs2 ? un livello di convoluzione a 15 mappe che ricevono input da sottoinsiemi di mappe da S1. Nelle mappe in S1, ogni unit? in ogni mappa ? connessa a un campo 4x4 in quella locazione. In Cs2 ogni mappa ? da 18x18 pixel e i parametri totali in Cs2 sono 400. The internal sampling level S1 ? composed of 4 maps, one for each map in Cs1 (16x16 pixels). Each map has 2 adaptive parameters, 8 in total for S1. Cs2 ? a 15-map convolution layer that receives input from subsets of maps from S1. In the maps in S1, each unit? in each map ? connected to a 4x4 field at that location. In Cs2 every map ? from 18x18 pixels and the total parameters in Cs2 are 400.

S2 ? composto da 15 mappe 8x8 pixel e 30 parametri adattivi sono impiegati in questo livello. Cs3 ? composto da 15 unit? ognuna fully-connected a tutte le unit? di una mappa in S2, con 1500 parametri adattivi totali. Tutte le unit? in Cs3 sono in fine connesse per generare 2 output, con 64 parametri adattivi in questo livello finale. S2 ? consisting of 15 8x8 pixel maps and 30 adaptive parameters are employed in this layer. Cs3 ? composed of 15 units? each fully-connected to all units? of a map in S2, with 1500 total adaptive parameters. All units? in Cs3 they are finally connected to generate 2 outputs, with 64 adaptive parameters in this final level.

Per ci? che concerne il training della rete neurale convoluzionale per l?identificazione dell?occhio, ? stato effettuato un esperimento di seguito descritto. For what? which concerns the training of the convolutional neural network for the identification of the eye, ? an experiment described below was carried out.

Quindici persone hanno partecipato raccogliendo 100 fotografie del volto ciascuno (50 con occhi aperti e 50 con occhi chiusi). Le 1500 fotografie originali sono state convertite in scala di grigi per minimizzare la varianza legata a effetti cromatici e sono state ritagliate a 36x36 pixel nell?intorno dell?occhio dx e sx. Per ogni immagine ne sono state prodotte 10 variando artificialmente parametri quali luminosit?, contrasto e saturazione. Le 30000 immagini etichettate come ?occhio aperto? o ?occhio chiuso? sono state fornite come input seriale alla rete neurale convoluzionale dedicata. Fifteen people participated by collecting 100 photographs of each face (50 with eyes open and 50 with eyes closed). The 1500 original photographs have been converted to grayscale to minimize the variance related to chromatic effects and have been cropped to 36x36 pixels around the right and left eyes. For each image, 10 were produced by artificially varying parameters such as brightness, contrast and saturation. The 30,000 images labeled ?open eye? or ?closed eye? were provided as serial input to the dedicated convolutional neural network.

Da un punto di vista tecnico, il training della rete neurale convoluzionale consta nel modificare i parametri w della rete neurale attraverso un fit dei dati in ingresso con la funzione di attivazione YK. Attraverso la minimizzazione della funzione cross-entropy loss che misura la discrepanza tra la funzione restituita dalla rete neurale per ogni valore di w e il dato di training in ingresso. From a technical point of view, the training of the convolutional neural network consists in modifying the parameters w of the neural network through a fit of the input data with the activation function YK. By minimizing the cross-entropy loss function which measures the discrepancy between the function returned by the neural network for each value of w and the input training data.

Con Yk network output, tk presenza o assenza dell?occhio (1,0), n = 1..N le immagini in input. With Yk network output, tk presence or absence of the eye (1,0), n = 1..N the input images.

I 1227 parametri impiegati nella rete neurale convoluzionale sono stati allenati usando il metodo Stochastic Diagonal Levenberg Marquardt method, impegnato nella stima del tasso di apprendimento di ogni parametro, per ottimizzare la velocit? di convergenza della rete neurale. Per predire le capacit? di generalizzazione della rete ? impiegata la procedura di arresto anticipato (W. S. Sarle, ?Stopped training and other remedies for overfitting,? in Proceedings of the 27th Symposium on the Interface of Computing, Science and Statistics, 1995, pp. 352?360). The 1227 parameters employed in the convolutional neural network have been trained using the Stochastic Diagonal Levenberg Marquardt method, engaged in the estimation of the learning rate of each parameter, to optimize the speed? of convergence of the neural network. To predict abilities? of network generalization ? the early shutdown procedure was employed (W. S. Sarle, ?Stopped training and other remedies for overfitting,? in Proceedings of the 27th Symposium on the Interface of Computing, Science and Statistics, 1995, pp. 352?360).

L?apprendimento viene infine interrotto quando viene riconosciuto un minimo errore nella validazione del dataset. The learning is finally interrupted when a minimum error is recognized in the validation of the dataset.

Per quanto riguarda il secondo macro-livello di rete neurale convoluzionale, l?idea generale dell?applicazione ? la seguente: date delle immagini in input, ricavare dati significativi da esse in maniera automatica, ovvero senza che un utente effettui un qualsiasi tipo di intervento. As regards the second macro-level of convolutional neural network, the general idea of the application ? the following: given the input images, obtain significant data from them automatically, i.e. without a user performing any type of intervention.

Pertanto, L?applicazione raccoglie i dati dei sensori e li invia ad un repository online dove vengono elaborati da una rete neurale convoluzionale (CNN) che costituisce un?intelligenza artificiale, con un?architettura basata sul tipo U-Net, per la segmentazione semantica di immagini del fundus oculare o di contenuti video per l?estrapolazione di indicazioni sulla psiche e/o su manifestazioni di patologie fisiche (Face study). Therefore, the application collects sensor data and sends them to an online repository where they are processed by a convolutional neural network (CNN) which constitutes an artificial intelligence, with an architecture based on the U-Net type, for semantic segmentation of images of the ocular fundus or video content for the extrapolation of indications on the psyche and/or manifestations of physical pathologies (Face study).

A ogni pixel di ciascuna immagine l?intelligenza artificiale (AI) assegna una label di definizione e localizzazione. Artificial intelligence (AI) assigns a definition and localization label to each pixel of each image.

Esempi di patologie identificabili da una scansione dell?occhio nello spettro del visibile sono: uveite, ipertensione, sclerosi multipla, retinopatia da diabete, individuazione precoce di leucocoria patologica e distinzione da quella fisiologica. Examples of pathologies identifiable by an eye scan in the visible spectrum are: uveitis, hypertension, multiple sclerosis, diabetic retinopathy, early detection of pathological leukocoria and distinction from physiological.

Il flusso di lavoro di tale software consta fondamentalmente in 4 passaggi: The workflow of this software basically consists of 4 steps:

1. Creazione delle immagini pixel-label per l?addestramento della rete: ogni pixel viene etichettato artificialmente con la categoria di appartenenza sulla base di metriche di correlazione ricavate in fase di training con i dati acquisiti; 1. Creation of pixel-label images for network training: each pixel is artificially labeled with the category it belongs to on the basis of correlation metrics obtained during the training phase with the acquired data;

2. Creazione dell?architettura di rete neurale U-net, in cui ? stata definita la struttura di codifica/decodifica necessaria per la classificazione a livello di pixel; 2. Creation of the U-net neural network architecture, in which ? the coding/decoding structure necessary for the classification at the pixel level has been defined;

3. Impostazione degli iper-parametri, addestramento e validazione della rete mediante cross-validation; 3. Setting of hyper-parameters, training and validation of the network through cross-validation;

4. Fase di post-processing. 4. Post-processing phase.

La struttura U-Net adottata prevede un percorso di contrazione, utile per catturare il contesto nell?immagine e caratterizzato dalla tipica struttura di una CNN, seguito da un percorso di espansione simmetrico per abilitare una precisa localizzazione (figura 3). The adopted U-Net structure foresees a contraction path, useful for capturing the context in the image and characterized by the typical structure of a CNN, followed by a symmetrical expansion path to enable a precise localization (figure 3).

Le mappe di attivazione ottenute nei blocchi di codifica prima del sotto-campionamento vengono memorizzate e trasferite ai corrispondenti blocchi di decodifica per poterle concatenare con le rispettive mappe sovra-campionate attraverso un?operazione di up-convoluzione che, in questo caso, pu? essere ottenuta tramite una convoluzione trasposta. The activation maps obtained in the coding blocks before the under-sampling are stored and transferred to the corresponding decoding blocks in order to be able to concatenate them with the respective over-sampled maps through an up-convolution operation which, in this case, can? be obtained via a transposed convolution.

Il sistema di valutazione comprende un dispositivo di geo-posizionamento per determinare i dati di posizionamento di detta pluralit? di utenti. Does the evaluation system include a geo-positioning device for determining the positioning data of said plurality? of users.

Questo geo-posizionamento, costituito da coordinate geografiche, viene associato a coordinate geografiche che, invece di essere relative all?utente, sono collegate a un?area o di una regione di riferimento. This geo-positioning, made up of geographic coordinates, is associated with geographic coordinates which, instead of being relative to the user, are connected to a reference area or region.

In un flusso di dati parallelo, l?informazione relativa a queste coordinate geografiche ? resa anonima e viene associata quindi a un set di coordinate spaziali che non fa riferimento direttamente alla posizione dell?utilizzatore. In a parallel data flow, the information relating to these geographical coordinates ? made anonymous and is therefore associated with a set of spatial coordinates which does not directly refer to the user's position.

La georeferenziazione del dato viene salvata solo dopo un?elaborazione delle coordinate volta a garantire l?anonimato considerando problematiche come la diversa densit? di popolazione sul territorio. Una volta associato, il dispositivo hardware con lo smartphone, L?utente avvia l?attivit? di rivelazione del dato. Inizia qui la fase di i spaziale dell?informazione, con i seguenti accorgimenti: The georeferencing of the data is saved only after an elaboration of the coordinates aimed at guaranteeing anonymity considering problems such as the different density of population in the area. Once associated, the hardware device with the smartphone, the user starts the activity? of data disclosure. Here begins the phase of information spatial i, with the following expedients:

? il riferimento non ? la coordinata GPS bens? quella del network (cella Wi-Fi o 3G); e ? the reference not ? the GPS coordinate well? that of the network (Wi-Fi or 3G cell); And

? alle coordinate X e Y viene sovrapposta una coppia di valori pseudo-random generati con logica Monte Carlo, sovrapposti alla parte del dato relativa alla risoluzione spaziale pi? alta. Il dato viene poi troncato a una certa cifra decimale (es. la terza cifra decimale, corrispondente a circa 100 m). ? a pair of pseudo-random values generated with Monte Carlo logic is superimposed on the X and Y coordinates, superimposed on the part of the data relating to the spatial resolution pi? high. The datum is then truncated to a certain decimal figure (e.g. the third decimal figure, corresponding to about 100 m).

Il sistema di valutazione comprende infine un dispositivo di trasmettere i dati corporei, le immagini digitali e le coordinate geografiche a detto server, su cui ? installato un software di intelligenza artificiale e a un classificatore, che elabora detta valutazione. Finally, does the evaluation system include a device for transmitting body data, digital images and geographical coordinates to said server, on which ? installed artificial intelligence software and a classifier, which processes this evaluation.

Si intende che anche questo dispositivo di trasmissione pu? essere realizzato dallo smartphone dell?utente. It is understood that this transmission device can also? be made by the user's smartphone.

L?elaborazione dei dati verr? svolta sfruttando l?hardware di un centro di calcolo ottimizzato nel processare dati formato immagine in parallelo, grazie a Graphics Processing Unit (GPU). Tecniche di questo tipo sono state utilizzate per produrre algoritmi di diagnosi per patologie come il melanoma e la retinopatia diabetica partendo dall?analisi di immagini raccolte in contesto medicale, generando risultati di accuratezza comparabile con quanto svolto da personale qualificato. Data processing will carried out by exploiting the hardware of a computer center optimized for processing image format data in parallel, thanks to the Graphics Processing Unit (GPU). Techniques of this type have been used to produce diagnostic algorithms for pathologies such as melanoma and diabetic retinopathy starting from the analysis of images collected in a medical context, generating results of accuracy comparable to those performed by qualified personnel.

Possono essere previsti due tipi di utente: l?utente normale e il superutente. Two types of user can be expected: the normal user and the superuser.

L?utente normale ha dei vincoli di visualizzazione volti a mostrare solamente un intorno della sua posizione. L?accesso alla mappa ? limitato da confini fissi (zoom-out massimo ad esempio a 1 Km<2>) e a un certo livello di dettaglio (il marker del dato ? uno spot circolare colorato con un diametro minimo di 100 m). The normal user has display constraints aimed at showing only a neighborhood of his position. Access to the map? limited by fixed boundaries (maximum zoom-out for example to 1 Km<2>) and a certain level of detail (the data marker is a colored circular spot with a minimum diameter of 100 m).

Il superutente, ovvero amministrazioni di sanit?, protezione civile, azienda sanitaria locale, ha la possibilit? di muoversi sulla mappa senza restrizioni. The super user, or health administrations, civil protection, local health company, has the possibility? to move around the map without restrictions.

Questo sistema di valutazione si propone come infrastruttura che trova maggior espressione in un contesto allargato alla comunit?, promuovendo il singolo a componente attivo, responsabile e interessato al benessere collettivo, condizione ideale per migliorare anche il vissuto personale. Il singolo individuo monitora alcuni parametri biometrici con il dispositivo hardware e contemporaneamente utilizza il sistema di intelligenza artificiale in auto-apprendimento, per avere un feedback pi? avanzato. This evaluation system is proposed as an infrastructure that finds greater expression in a context extended to the community, promoting the individual as an active, responsible and interested component in the collective well-being, an ideal condition for improving personal experience as well. The single individual monitors some biometric parameters with the hardware device and at the same time uses the self-learning artificial intelligence system, to get more accurate feedback. advanced.

L?outcome a beneficio della comunit? deriva da due tipi di attivit?: The outcome for the benefit of the community? comes from two types of activity:

? raccolta dati da parte dei singoli per perfezionare la risposta dell?AI; e ? data collection by individuals to refine the AI response; And

? fornire delle metriche al sistema sanitario, basate su mappatura funzionale interattiva. ? provide metrics to the healthcare system, based on interactive functional mapping.

Al sopra descritto sistema di valutazione un tecnico del ramo, allo scopo di soddisfare ulteriori e contingenti esigenze, potr? apportare numerose ulteriori modifiche e varianti, tutte peraltro comprese nell'ambito di protezione della presente invenzione, quale definito dalle rivendicazioni allegate. To the evaluation system described above, a person skilled in the art, in order to satisfy further and contingent needs, will be able to make numerous further modifications and variations, all however included in the scope of protection of the present invention, as defined by the attached claims.

Claims (9)

RIVENDICAZIONI 1. Sistema di valutazione dell?incidenza territoriale di determinate sintomatologie, comprendente:1. Evaluation system of the territorial incidence of certain symptoms, including: ? un dispositivo indossabile che effettua misurazioni di dati corporei di una pluralit? di utenti associati al sistema;? a wearable device that takes measurements of body data of a plurality? of users associated with the system; ? un rilevatore di immagine digitali, che consente di rilevare immagini biometriche di detta pluralit? di utenti;? a digital image detector, which allows you to detect biometric images of said plurality? of users; ? un dispositivo di geo-posizionamento per determinare i dati di posizionamento di detta pluralit? di utenti, e li associa a coordinate geografiche di un?area o di una regione di riferimento;? a geo-positioning device to determine the positioning data of said plurality? of users, and associates them with geographic coordinates of a reference area or region; ? un dispositivo di trasmissione dei dati corporei, le immagini digitali e le coordinate geografiche a un server, su cui ? installato un software di intelligenza artificiale e a un classificatore, che elabora detta valutazione.? a device for transmitting body data, digital images and geographic coordinates to a server, on which installed artificial intelligence software and a classifier, which processes this evaluation. 2. Sistema di valutazione secondo la rivendicazione 1, in cui il dispositivo indossabile ? predisposto per raccogliere dati biometrici selezionati tra frequenza cardiaca, frequenza respiratoria, pressione sanguigna, temperatura corporea e saturazione di ossigeno nel sangue.The evaluation system according to claim 1, wherein the wearable device is designed to collect biometric data selected from heart rate, respiratory rate, blood pressure, body temperature and blood oxygen saturation. 3. Sistema di valutazione secondo la rivendicazione 1, in cui il dispositivo indossabile ? dotato di un microprocessore, di modulo di trasmissione, di un?interfaccia con l?utente, e di una batteria integrata nel dispositivo indossabile.The evaluation system according to claim 1, wherein the wearable device is equipped with a microprocessor, a transmission module, a user interface, and a battery integrated into the wearable device. 4. Sistema di valutazione secondo la rivendicazione 1, in cui detto software di intelligenza artificiale e detto server formano una rete neurale convoluzionale (CNN) con un?architettura basata sul tipo U-Net, predisposta per effettuare una segmentazione semantica di immagini del fundus oculare, assegnando a ogni pixel di ciascuna immagine una label di definizione e localizzazione.4. Evaluation system according to claim 1, wherein said artificial intelligence software and said server form a convolutional neural network (CNN) with an architecture based on the U-Net type, arranged to carry out a semantic segmentation of images of the ocular fundus , assigning a definition and localization label to each pixel of each image. 5. Sistema di valutazione secondo la rivendicazione 4, in cui detto software di intelligenza artificiale esegue i seguenti passaggi:The evaluation system according to claim 4, wherein said artificial intelligence software performs the following steps: ? creazione delle immagini pixel-label per l?addestramento della rete: ogni pixel viene etichettato artificialmente con la categoria di appartenenza sulla base di metriche di correlazione ricavate in fase di training con i dati acquisiti;? creation of pixel-label images for network training: each pixel is artificially labeled with the category it belongs to on the basis of correlation metrics obtained during the training phase with the acquired data; ? creazione dell?architettura di rete neurale U-net, in cui ? stata definita la struttura di codifica/decodifica necessaria per la classificazione a livello di pixel;? creation of? architecture of neural network U-net, in which? the coding/decoding structure necessary for the classification at the pixel level has been defined; ? impostazione degli iper-parametri, addestramento e validazione della rete mediante cross-validation; e? setting of hyper-parameters, training and validation of the network through cross-validation; And ? post-processing.? post-processing. 6. Sistema di valutazione secondo la rivendicazione 5, in cui detto post-processing prevede un percorso di contrazione, che cattura il contesto nell?immagine, seguito da un percorso di espansione simmetrico per abilitare una precisa localizzazione.The evaluation system according to claim 5, wherein said post-processing provides a contraction path, which captures the context in the image, followed by a symmetrical expansion path to enable a precise localization. 7. Sistema di valutazione secondo la rivendicazione 6, in cui sono ottenute mappe di attivazione da blocchi di codifica prima di un sotto-campionamento, che vengono memorizzate e trasferite ai corrispondenti blocchi di decodifica per poterle concatenare con le rispettive mappe sovra-campionate attraverso un?operazione di upconvoluzione mediante una convoluzione trasposta. Evaluation system according to claim 6, wherein activation maps are obtained from coding blocks before an undersampling, which are stored and transferred to the corresponding decoding blocks in order to be able to concatenate them with the respective oversampled maps through a ?upconvolution operation using a transpose convolution. 8. Sistema di valutazione secondo la rivendicazione 1, in cui detti dati di posizionamento sono trattati in un flusso di dati parallelo, e sono associati a un set di coordinate spaziali che non fa riferimento direttamente alla posizione dell?utilizzatore.8. Evaluation system according to claim 1, wherein said positioning data is processed in a parallel data stream, and is associated with a set of spatial coordinates which does not directly refer to the user's position. 9. Sistema di valutazione secondo la rivendicazione 8, in cui dette coordinate spaziali sono ottenute usando come riferimento la coordinata della cella del network usata per la trasmissione dati, a cui viene sovrapposta una coppia di valori pseudo-random generati con logica Monte Carlo, sovrapposti alla parte del dato relativa alla risoluzione spaziale pi? alta, e il dato viene poi troncato a una cifra decimale predeterminata. 9. Evaluation system according to claim 8, wherein said spatial coordinates are obtained using as reference the coordinate of the cell of the network used for data transmission, to which a pair of pseudo-random values generated with Monte Carlo logic is superimposed, superimposed to the part of the data relating to the spatial resolution pi? high, and the data is then truncated to a predetermined decimal place.
IT102020000016252A 2020-07-06 2020-07-06 ASSESSMENT SYSTEM OF THE TERRITORIAL INCIDENCE OF SYMPTOMS IT202000016252A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
IT102020000016252A IT202000016252A1 (en) 2020-07-06 2020-07-06 ASSESSMENT SYSTEM OF THE TERRITORIAL INCIDENCE OF SYMPTOMS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102020000016252A IT202000016252A1 (en) 2020-07-06 2020-07-06 ASSESSMENT SYSTEM OF THE TERRITORIAL INCIDENCE OF SYMPTOMS

Publications (1)

Publication Number Publication Date
IT202000016252A1 true IT202000016252A1 (en) 2022-01-06

Family

ID=72801806

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102020000016252A IT202000016252A1 (en) 2020-07-06 2020-07-06 ASSESSMENT SYSTEM OF THE TERRITORIAL INCIDENCE OF SYMPTOMS

Country Status (1)

Country Link
IT (1) IT202000016252A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US20190110753A1 (en) * 2017-10-13 2019-04-18 Ai Technologies Inc. Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
US20190332902A1 (en) * 2018-04-26 2019-10-31 Lear Corporation Biometric sensor fusion to classify vehicle passenger state

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US20190110753A1 (en) * 2017-10-13 2019-04-18 Ai Technologies Inc. Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
US20190332902A1 (en) * 2018-04-26 2019-10-31 Lear Corporation Biometric sensor fusion to classify vehicle passenger state

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
W. S.: "Paced training and other procedures for overfitting", 27TH SYMPOSIUM ON THE INTERFACE OF COMPUTING, SCIENCE AND STATISTICS, 1995, pages 352 - 360

Similar Documents

Publication Publication Date Title
Krichen Anomalies detection through smartphone sensors: A review
US20140099623A1 (en) Social graphs based on user bioresponse data
KR20200005986A (en) System and method for diagnosing cognitive impairment using face recognization
Wang et al. Screening early children with autism spectrum disorder via response-to-name protocol
Sivasangari et al. Emotion recognition system for autism disordered people
CN109285602A (en) Main module, system and method for self-examination eyes of user
Saravanan et al. Convolutional Neural Networks-based Real-time Gaze Analysis with IoT Integration in User Experience Design
US20230039882A1 (en) Artificial intelligence-based platform to optimize skill training and performance
Lu et al. Automated strabismus detection for telemedicine applications
Pogorelc et al. Detecting gait-related health problems of the elderly using multidimensional dynamic time warping approach with semantic attributes
Maskeliūnas et al. BiomacVR: A virtual reality-based system for precise human posture and motion analysis in rehabilitation exercises using depth sensors
Edughele et al. Eye-tracking assistive technologies for individuals with amyotrophic lateral sclerosis
Creagh et al. Interpretable deep learning for the remote characterisation of ambulation in multiple sclerosis using smartphones
Xu et al. Eye-Gaze controlled wheelchair based on deep learning
Grifantini Detecting faces, saving lives
Sangeetha A survey on deep learning based eye gaze estimation methods
Xia et al. Dynamic viewing pattern analysis: towards large-scale screening of children with ASD in remote areas
Cheng et al. Computer-aided autism spectrum disorder diagnosis with behavior signal processing
WO2024038134A1 (en) Methods and devices in performing a vision testing procedure on a person
KR102366251B1 (en) Method and system for human body medical examination using chatbot inpuiry
Deng et al. A machine Learning-Based monitoring system for attention and stress detection for children with autism spectrum disorders
IT202000016252A1 (en) ASSESSMENT SYSTEM OF THE TERRITORIAL INCIDENCE OF SYMPTOMS
Thomas et al. Design of a portable retinal imaging module with automatic abnormality detection
Fernandes et al. Digital Alternative Communication for Individuals with amyotrophic lateral sclerosis: what we have
Shekar et al. Vreye: Exploring human visual acuity test using virtual reality