IT202100017468A1 - SYSTEM AND METHOD OF IDENTIFYING PEOPLE IN AN ENVIRONMENT. - Google Patents

SYSTEM AND METHOD OF IDENTIFYING PEOPLE IN AN ENVIRONMENT. Download PDF

Info

Publication number
IT202100017468A1
IT202100017468A1 IT102021000017468A IT202100017468A IT202100017468A1 IT 202100017468 A1 IT202100017468 A1 IT 202100017468A1 IT 102021000017468 A IT102021000017468 A IT 102021000017468A IT 202100017468 A IT202100017468 A IT 202100017468A IT 202100017468 A1 IT202100017468 A1 IT 202100017468A1
Authority
IT
Italy
Prior art keywords
person
environment
information
video camera
facial
Prior art date
Application number
IT102021000017468A
Other languages
Italian (it)
Inventor
Nicola Bombieri
Stefano Aldegheri
Roberto Zanini
Rosalba Giugno
Original Assignee
Digitalrestaurant S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digitalrestaurant S R L filed Critical Digitalrestaurant S R L
Priority to IT102021000017468A priority Critical patent/IT202100017468A1/en
Publication of IT202100017468A1 publication Critical patent/IT202100017468A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Description

SISTEMA E METODO DI IDENTIFICAZIONE DI PERSONE IN UN AMBIENTE SYSTEM AND METHOD OF IDENTIFYING PEOPLE IN AN ENVIRONMENT

DESCRIZIONE DESCRIPTION

Il presente trovato ha come oggetto un sistema e un metodo di identificazione di persone in un ambiente, ad esempio una stanza, particolarmente, seppur non esclusivamente, utili e pratici nell?ambito della gestione automatica o semiautomatica del pagamento di un conto presso esercizi pubblici con servizio al tavolo come ad esempio ristoranti, bar e pi? in generale ambienti con tavoli per la consumazione. The present invention relates to a system and a method for identifying people in an environment, for example a room, which is particularly, though not exclusively, useful and practical in the context of the automatic or semi-automatic management of the payment of an account at public establishments with table service such as restaurants, bars and more in general environments with tables for consumption.

Attualmente, sono note varie soluzioni tecniche per il rilevamento e/o il tracciamento di un corpo umano, e quindi di una persona, tipicamente a partire da immagini acquisite tramite videocamere di tipo RGB (Red, Green, Blue) o di tipo RGB+D (Red, Green, Blue Depth). Analogamente, sono note varie soluzioni tecniche per il riconoscimento facciale di una persona Tuttavia, queste soluzioni note non sono scevre da inconvenienti, tra i quali va annoverato il fatto che esse non consentono l?associazione della persona rilevata e/o tracciata ad un?area e/o un oggetto di interesse, ad esempio un tavolo presente in una stanza. Currently, various technical solutions are known for the detection and/or tracking of a human body, and therefore of a person, typically starting from images acquired by video cameras of the RGB (Red, Green, Blue) or RGB+D type (Red, Green, Blue Depth). Similarly, various technical solutions for facial recognition of a person are known. However, these known solutions are not free from drawbacks, among which the fact that they do not allow the association of the detected and/or traced person to an area should be mentioned. and/or an object of interest, such as a table in a room.

Un altro inconveniente delle soluzioni note consiste nel fatto che esse non permettono di mantenere memoria di questa associazione tra la persona rilevata e/o tracciata e l?area e/o l?oggetto di interesse. Un ulteriore inconveniente delle soluzioni note consiste nel fatto che esse non consentono di combinare il rilevamento e/o il tracciamento della persona con il riconoscimento facciale della stessa. Another drawback of known solutions consists in that they do not allow to keep memory of this association between the detected and/or traced person and the area and/or object of interest. A further drawback of the known solutions consists in the fact that they do not allow the detection and/or tracking of the person to be combined with the facial recognition of the same.

Compito precipuo del presente trovato ? quello di superare i limiti dell?arte nota sopra esposti, escogitando un sistema e un metodo di identificazione di persone in un ambiente, ad esempio una stanza, che consentano di ottenere effetti migliori rispetto a quelli ottenibili con le soluzioni note e/o effetti analoghi a minor costo e con prestazioni pi? elevate. The main task of the present invention ? that of overcoming the limits of the prior art set out above, by devising a system and a method for identifying people in an environment, for example a room, which allow to obtain better effects than those obtainable with known solutions and/or analogous effects at lower cost and with more performance? elevated.

Nell?ambito di questo compito, uno scopo del presente trovato ? quello di concepire un sistema e un metodo di identificazione di persone in un ambiente che permettano di associare la persona rilevata e/o tracciata ad un?area e/o un oggetto di interesse, ad esempio un tavolo presente in una stanza. Within the scope of this aim, an object of the present invention is that of conceiving a system and a method of identifying people in an environment which allow to associate the detected and/or traced person with an area and/or an object of interest, for example a table in a room.

Un altro scopo del presente trovato ? quello di escogitare un sistema e un metodo di identificazione di persone in un ambiente che consentano di effettuare un pagamento veloce di un conto presso esercizi pubblici con servizio al tavolo come ad esempio ristoranti, bar e pi? in generale ambienti con tavoli per la consumazione. Another aim of the present invention ? to devise a system and a method of identification of people in an environment that allow you to make a quick payment of an account at public establishments with table service such as restaurants, bars and more. in general environments with tables for consumption.

Un ulteriore scopo del presente trovato ? quello di concepire un sistema e un metodo di identificazione di persone in un ambiente che permettano di rispettare il regolamento UE n. Another object of the present invention ? that of conceiving a system and a method of identification of people in an environment that allow compliance with EU regulation no.

2016/679 (o GDPR, in inglese General Data Protection Regulation). 2016/679 (or GDPR, in English General Data Protection Regulation).

Ancora, scopo del presente trovato ? quello di escogitare un sistema e un metodo di identificazione di persone in un ambiente che siano ottimizzati per operare su dispositivi embedded a basso costo e a basso consumo energetico. Again, purpose of the present invention ? that of devising a system and method of identifying people in an environment that are optimized to operate on low-cost, low-power embedded devices.

Non ultimo scopo del presente trovato ? quello di realizzare un sistema e un metodo di identificazione di persone in un ambiente che siano di elevata affidabilit?, di relativamente semplice realizzazione, ed economicamente competitivi se paragonati alla tecnica nota. Not the last aim of the present invention ? that of realizing a system and a method for identifying people in an environment which are highly reliable, relatively simple to make, and economically competitive when compared to the prior art.

Questo compito, nonch? questi ed altri scopi che meglio appariranno in seguito, sono raggiunti da un sistema di identificazione di persone in un ambiente, comprendente almeno un gruppo di rilevamento e tracciamento e almeno un gruppo di riconoscimento facciale reciprocamente collegati e in comunicazione tramite una rete di comunicazione telematica, detto gruppo di rilevamento e tracciamento essendo disposto in detto ambiente dove almeno una persona ? presente, This task, as well as these and other purposes which will become apparent hereinafter, are achieved by a system for identifying people in an environment, comprising at least one detection and tracking group and at least one facial recognition group mutually connected and in communication via a telematic communication network, said detection and tracking group being arranged in said environment where at least one person? present,

detto gruppo di rilevamento e tracciamento comprendendo una prima videocamera, configurata per acquisire immagini di detto ambiente comprendenti detta persona e per convertire dette immagini in almeno un flusso video, e un primo dispositivo di elaborazione operativamente collegato a detta prima videocamera, said detection and tracking unit comprising a first video camera, configured to acquire images of said environment including said person and to convert said images into at least one video stream, and a first processing device operatively connected to said first video camera,

detto gruppo di riconoscimento facciale comprendendo una seconda videocamera, configurata per acquisire immagini facciali di detta persona posizionata di fronte ad essa e per convertire dette immagini facciali in almeno un flusso video, e un secondo dispositivo di elaborazione operativamente collegato a detta seconda videocamera, said facial recognition unit comprising a second video camera, configured to acquire facial images of said person positioned in front of it and to convert said facial images into at least one video stream, and a second processing device operatively connected to said second video camera,

dove detto gruppo di rilevamento e tracciamento comprende ulteriormente: wherein said tracking and tracing group further comprises:

- un modulo di impostazione posizione configurato per impostare rispettive coordinate spaziali di una pluralit? di punti di interesse presenti in detto ambiente, a partire da detto flusso video; - a position setting module configured to set respective spatial coordinates of a plurality? of points of interest present in said environment, starting from said video stream;

- un modulo di rilevamento personale configurato per rilevare detta persona presente in detto ambiente, a partire da detto flusso video, e per restituire un primo insieme di informazioni riguardante detta persona rilevata in detto ambiente; - a personal detection module configured to detect said person present in said environment, starting from said video stream, and to return a first set of information concerning said person detected in said environment;

- un modulo di tracciamento personale configurato per tracciare posizione ed eventuali spostamenti di detta persona rilevata in detto ambiente, a partire da detto flusso video e da detto primo insieme di informazioni, e per restituire un secondo insieme di informazioni riguardante detti posizione ed eventuali spostamenti di detta persona tracciata in detto ambiente; e - a personal tracking module configured to track the position and possible movements of said person detected in said environment, starting from said video stream and from said first set of information, and to return a second set of information regarding said position and possible movements of said person tracked in said environment; And

- un modulo di associazione configurato per associare detta persona ad un punto di interesse pi? vicino, a partire da dette coordinate spaziali di detti punti di interesse presenti in detto ambiente e da detto secondo insieme di informazioni, e per restituire un terzo insieme di informazioni riguardante sia detti posizione ed eventuali spostamenti di detta persona tracciata in detto ambiente sia detta associazione di detta persona a detto punto di interesse pi? vicino; - an association module configured to associate that person with a point of interest more? nearby, starting from said spatial coordinates of said points of interest present in said environment and from said second set of information, and to return a third set of information concerning both said position and possible movements of said person traced in said environment and said association of that person at that point of interest pi? Neighbor;

e dove detto gruppo di riconoscimento facciale comprende: and wherein said facial recognition assembly comprises:

- un modulo di rilevamento facciale configurato per rilevare il volto di detta persona posizionata di fronte a detta seconda videocamera, a partire da detto flusso video, e per restituire un quarto insieme di informazioni riguardante detto volto di detta persona rilevato di fronte a detta seconda videocamera; - a facial detection module configured to detect the face of said person positioned in front of said second video camera, starting from said video stream, and to return a fourth set of information concerning said face of said person detected in front of said second video camera ;

- un modulo di incorporamento facciale configurato per calcolare una stringa numerica di incorporamento facciale, a partire da detto quarto insieme di informazioni, e per restituire detta stringa numerica di incorporamento facciale; - a facial embedding module configured to calculate a facial embed numeric string, starting from said fourth set of information, and to return said facial embed numeric string;

- una base di dati comprendente informazioni relative ad ogni persona conosciuta dove ricercare una corrispondenza a detta stringa numerica di incorporamento facciale, restituendo un insieme di informazioni identificative/anagrafiche di detta persona riconosciuta, detto insieme di informazioni essendo recuperato da detta base di dati; e - a database comprising information relating to each known person where to search for a match to said facial embedding numerical string, returning a set of identification/personal data of said recognized person, said set of information being retrieved from said database; And

- un modulo di controllo configurato per accoppiare detto insieme di informazioni identificative/anagrafiche di detta persona riconosciuta a detto punto di interesse pi? vicino ad essa associato, tramite detto terzo insieme di informazioni. - a control module configured to couple said set of identification/personal data of said recognized person to said point of interest more? close to it associated, through said third set of information.

Il compito e gli scopi prefissati sono altres? raggiunti da un metodo di identificazione di persone in un ambiente, tramite almeno un gruppo di rilevamento e tracciamento e almeno un gruppo di riconoscimento facciale reciprocamente collegati e in comunicazione tramite una rete di comunicazione telematica, detto gruppo di rilevamento e tracciamento essendo disposto in detto ambiente dove almeno una persona ? presente, detto gruppo di rilevamento e tracciamento comprendendo una prima videocamera e un primo dispositivo di elaborazione operativamente collegato a detta prima videocamera, The task and the goals set are also? achieved by a method of identifying persons in an environment, by means of at least one detection and tracking group and at least one facial recognition group mutually connected and in communication via a telematic communication network, said detection and tracking group being arranged in said environment where at least one person ? present, said detection and tracking unit comprising a first video camera and a first processing device operatively connected to said first video camera,

detto gruppo di riconoscimento facciale comprendendo una seconda videocamera e un secondo dispositivo di elaborazione operativamente collegato a detta seconda videocamera, comprendente i passi che consistono nel: said facial recognition unit comprising a second video camera and a second processing device operatively connected to said second video camera, comprising the steps consisting of:

- acquisire immagini di detto ambiente comprendenti detta persona e convertire dette immagini in almeno un flusso video, tramite detta prima videocamera; - acquiring images of said environment including said person and converting said images into at least one video stream, by means of said first video camera;

- impostare rispettive coordinate spaziali di una pluralit? di punti di interesse presenti in detto ambiente, a partire da detto flusso video, tramite un modulo di impostazione posizione compreso in detto gruppo di rilevamento e tracciamento; - set respective spatial coordinates of a plurality? of points of interest present in said environment, starting from said video stream, by means of a position setting module included in said detection and tracking unit;

- rilevare detta persona presente in detto ambiente, a partire da detto flusso video, e restituire un primo insieme di informazioni riguardante detta persona rilevata in detto ambiente, tramite un modulo di rilevamento personale compreso in detto gruppo di rilevamento e tracciamento; - detecting said person present in said environment, starting from said video stream, and returning a first set of information concerning said person detected in said environment, by means of a personal detection module included in said detection and tracing unit;

- tracciare posizione ed eventuali spostamenti di detta persona rilevata in detto ambiente, a partire da detto flusso video e da detto primo insieme di informazioni, e restituire un secondo insieme di informazioni riguardante detti posizione ed eventuali spostamenti di detta persona tracciata in detto ambiente, tramite un modulo di tracciamento personale compreso in detto gruppo di rilevamento e tracciamento; - tracing the position and possible movements of said person detected in said environment, starting from said video stream and said first set of information, and returning a second set of information regarding said position and possible movements of said person traced in said environment, by a personal tracking module included in said tracking and tracking assembly;

- associare detta persona ad un punto di interesse pi? vicino, a partire da dette coordinate spaziali di detti punti di interesse presenti in detto ambiente e da detto secondo insieme di informazioni, e restituire un terzo insieme di informazioni riguardante sia detti posizione ed eventuali spostamenti di detta persona tracciata in detto ambiente sia detta associazione di detta persona a detto punto di interesse pi? vicino, tramite un modulo di associazione compreso in detto gruppo di rilevamento e tracciamento; - associate this person with a point of interest more? nearby, starting from said spatial coordinates of said points of interest present in said environment and from said second set of information, and returning a third set of information concerning both said position and possible movements of said person traced in said environment and said association of said person at said point of interest pi? nearby, through an association module included in said detection and tracking group;

- acquisire immagini facciali di detta persona posizionata di fronte a detta seconda videocamera e convertire dette immagini facciali in almeno un flusso video, tramite detta seconda videocamera; - acquiring facial images of said person positioned in front of said second video camera and converting said facial images into at least one video stream, by means of said second video camera;

- rilevare il volto di detta persona posizionata di fronte a detta seconda videocamera, a partire da detto flusso video, e restituire un quarto insieme di informazioni riguardante detto volto di detta persona rilevato di fronte a detta seconda videocamera, tramite un modulo di rilevamento facciale compreso in detto gruppo di riconoscimento facciale; - detecting the face of said person positioned in front of said second video camera, starting from said video stream, and returning a fourth set of information concerning said face of said person detected in front of said second video camera, by means of a facial detection module included in said facial recognition group;

- calcolare una stringa numerica di incorporamento facciale, a partire da detto quarto insieme di informazioni, e restituire detta stringa numerica di incorporamento facciale, tramite un modulo di incorporamento facciale compreso in detto gruppo di riconoscimento facciale; - calculating a facial embedding numerical string, starting from said fourth set of information, and returning said facial embedding numerical string, by means of a facial embedding module included in said facial recognition unit;

- ricercare una corrispondenza a detta stringa numerica di incorporamento facciale in una base di dati compresa in detto gruppo di riconoscimento facciale e comprendente informazioni relative ad ogni persona conosciuta, restituendo un insieme di informazioni identificative/anagrafiche di detta persona riconosciuta, detto insieme di informazioni essendo recuperato da detta base di dati; e - searching for a match to said facial embedding numerical string in a database included in said facial recognition group and comprising information relating to each known person, returning a set of identification/personal data of said recognized person, said set of information being retrieved from said database; And

- accoppiare detto insieme di informazioni identificative/anagrafiche di detta persona riconosciuta a detto punto di interesse pi? vicino ad essa associato, tramite detto terzo insieme di informazioni, tramite un modulo di controllo compreso in detto gruppo di riconoscimento facciale. - to match said set of identification/personal information of said recognized person to said point of interest more? associated therewith, via said third set of information, via a control module included in said facial recognition group.

Ulteriori caratteristiche e vantaggi del trovato risulteranno maggiormente dalla descrizione di una forma di realizzazione preferita, ma non esclusiva, del sistema e del metodo di identificazione di persone in un ambiente secondo il trovato, illustrata a titolo indicativo e non limitativo con l?ausilio dei disegni allegati, in cui: Further characteristics and advantages of the invention will become clearer from the description of a preferred, but not exclusive, embodiment of the system and method for identifying people in an environment according to the invention, illustrated by way of example and not in limitation with the aid of the drawings attachments, in which:

la figura 1 ? uno schema a blocchi che illustra schematicamente una vista d?assieme di una forma di realizzazione del sistema di identificazione di persone in un ambiente secondo il presente trovato; figure 1 ? a block diagram which schematically illustrates an overall view of an embodiment of the system for identifying people in an environment according to the present invention;

la figura 2A ? uno schema a blocchi che illustra schematicamente una prima variante di una prima porzione, in particolare un gruppo di rilevamento e tracciamento di una forma di realizzazione del sistema di identificazione di persone in un ambiente secondo il presente trovato; figure 2A ? a block diagram which schematically illustrates a first variant of a first portion, in particular a detection and tracking unit of an embodiment of the system for identifying people in an environment according to the present invention;

la figura 2B ? uno schema a blocchi che illustra schematicamente una seconda variante di una prima porzione, in particolare una coppia di gruppi di rilevamento e tracciamento, di una forma di realizzazione del sistema di identificazione di persone in un ambiente secondo il presente trovato; figure 2B ? a block diagram which schematically illustrates a second variant of a first portion, in particular a pair of detection and tracking units, of an embodiment of the system for identifying people in an environment according to the present invention;

la figura 3 ? uno schema a blocchi che illustra schematicamente una seconda porzione, in particolare un gruppo di riconoscimento facciale, di una forma di realizzazione del sistema di identificazione di persone in un ambiente secondo il presente trovato; figure 3 ? a block diagram which schematically illustrates a second portion, in particular a facial recognition unit, of an embodiment of the system for identifying people in an environment according to the present invention;

la figura 4 ? uno schema a blocchi che illustra schematicamente la logica di funzionamento di un modulo di controllo, in particolare per pagamento, di una forma di realizzazione del sistema di identificazione di persone in un ambiente secondo il presente trovato; figure 4 ? a block diagram which schematically illustrates the operating logic of a control module, in particular for payment, of an embodiment of the system for identifying persons in an environment according to the present invention;

la figura 5 ? un diagramma di flusso che illustra schematicamente una forma di realizzazione del metodo di identificazione di persone in un ambiente secondo il presente trovato. figure 5 ? a flowchart schematically illustrating an embodiment of the method of identifying people in an environment according to the present invention.

Con particolare riferimento alla figura 1, il sistema di identificazione di persone in un ambiente secondo il presente trovato, indicato globalmente con il numero di riferimento 10, comprende sostanzialmente almeno un gruppo di rilevamento e tracciamento 12 e almeno un gruppo di riconoscimento facciale 14. With particular reference to figure 1, the system for identifying people in an environment according to the present invention, globally indicated with the reference number 10, substantially comprises at least one detection and tracking unit 12 and at least one facial recognition unit 14.

Il gruppo di rilevamento e tracciamento 12 e il gruppo di riconoscimento facciale 14 sono collegati e in comunicazione tramite una rete di comunicazione telematica 16, come ad esempio una rete LAN (Local Area Network), una rete WLAN (Wireless Local Area Network) o la rete Internet. The detection and tracking unit 12 and the facial recognition unit 14 are connected and in communication via a telematic communication network 16, such as for example a LAN (Local Area Network), a WLAN (Wireless Local Area Network) or the Internet network.

Il gruppo di rilevamento e tracciamento 12 ? disposto all?interno o in prossimit? di un ambiente, ad esempio una stanza, dove almeno una persona 20 ? presente. Conseguentemente, il gruppo di rilevamento e tracciamento 12 ? associato a questo ambiente e monitora la persona 20 presente in questo ambiente. Analogamente, il gruppo di riconoscimento facciale 14 ? disposto all?interno o in prossimit? dello stesso ambiente di cui sopra o di un altro ambiente. Ad esempio, l?ambiente di cui sopra ? una sala di un ristorante e la persona 20 ? un cliente di questo ristorante. The Track and Trace Group 12 ? placed inside or near? of an environment, such as a room, where at least one person 20 ? present. As a result, the detection and tracking group 12 ? associated with this environment and monitors the 20 person present in this environment. Similarly, the facial recognition group 14 ? placed inside or near? of the same environment above or of another environment. For example, the environment above ? a room of a restaurant and the person 20 ? a customer of this restaurant.

Il gruppo di rilevamento e tracciamento 12 del sistema 10 di identificazione di persone in un ambiente secondo il trovato ? configurato per rilevare la persona 20 presente nell?ambiente, ad esempio una stanza, e per tracciare la posizione e gli eventuali spostamenti di questa persona 20 all?interno dell?ambiente. The detection and tracking unit 12 of the system 10 for identifying people in an environment according to the invention ? configured to detect the person 20 present in the environment, for example a room, and to trace the position and any movements of this person 20 within the environment.

Il gruppo di rilevamento e tracciamento 12 sar? descritto nel seguito di questo documento con particolare riferimento alle figure 2A e 2B. Track and trace group 12 will be? described later in this document with particular reference to figures 2A and 2B.

Il gruppo di rilevamento e tracciamento 12 comprende una prima videocamera 21 disposta all?interno dell?ambiente e orientata in modo da inquadrare questo ambiente sostanzialmente nella sua interezza. La prima videocamera 21 ? configurata per acquisire immagini dell?ambiente comprendenti la persona 20 e per convertire queste immagini in almeno un flusso video 22 restituito in uscita. The detection and tracking unit 12 comprises a first video camera 21 arranged inside the environment and oriented so as to frame this environment substantially in its entirety. The first camcorder 21 ? configured to acquire images of the environment including the person 20 and to convert these images into at least one video stream 22 returned in output.

Preferibilmente, la prima videocamera 21, e conseguentemente il flusso video 22 restituito da essa, sono di tipo RGB (Red, Green, Blue), ad esempio con risoluzione di 1920x1080 pixel e frequenza di 30 Hz. Preferably, the first video camera 21, and consequently the video stream 22 returned by it, are of the RGB (Red, Green, Blue) type, for example with a resolution of 1920x1080 pixels and a frequency of 30 Hz.

Il gruppo di rilevamento e tracciamento 12 comprende ulteriormente un primo dispositivo di elaborazione 61, preferibilmente una scheda elettronica di tipo embedded (ad esempio modello NVIDIA Jetson TX2), operativamente collegato alla prima videocamera 21. Il primo dispositivo di elaborazione 61 riceve in ingresso, e successivamente elabora, il flusso video 22 restituito dalla prima videocamera 21. The detection and tracking unit 12 further comprises a first processing device 61, preferably an electronic board of the embedded type (for example the NVIDIA Jetson TX2 model), operatively connected to the first video camera 21. The first processing device 61 receives input, and subsequently it processes the video stream 22 returned by the first video camera 21.

Il primo dispositivo di elaborazione 61 comprende una unit? di controllo, un ricetrasmettitore e una memoria (tutti e tre non illustrati). Il primo dispositivo di elaborazione 61 comprende ulteriormente un modulo di impostazione posizione 24, un modulo di rilevamento personale 23, un modulo di tracciamento personale 27 e un modulo di associazione 28. The first processing device 61 comprises a unit controller, a transceiver and a memory (all three not shown). The first processing device 61 further comprises a location setting module 24, a personal tracking module 23, a personal tracking module 27 and a pairing module 28.

L?unit? di controllo del dispositivo di elaborazione 61 ? dotata di opportune capacit? di calcolo e di interfacciamento con la videocamera 21 e con gli altri elementi del dispositivo di elaborazione 61. Questa unit? di controllo ? configurata per comandare, controllare e coordinare il funzionamento degli elementi con i quali essa ? operativamente collegata. Questa unit? di controllo ? ulteriormente configurata per eseguire i moduli di cui sopra, descritti in dettaglio nel seguito di questo documento. The unit processing device control 61 ? endowed with appropriate capabilities? calculation and interfacing with the video camera 21 and with the other elements of the processing device 61. This unit? control ? configured to command, control and coordinate the operation of the elements with which it? operationally connected. This unit? control ? further configured to run the above modules, described in detail later in this document.

Il gruppo di rilevamento e tracciamento 12 comprende ulteriormente un modulo di impostazione posizione 24 di punti (o aree) di interesse 18 presenti nell?ambiente. Il modulo di impostazione posizione 24 ? configurato per impostare le coordinate spaziali 26 di ogni punto di interesse 18 presente all?interno dell?ambiente, a partire dal flusso video 22 (come detto preferibilmente di tipo RGB) restituito dalla videocamera 21. The detection and tracking unit 12 further comprises a module for setting the position 24 of points (or areas) of interest 18 present in the environment. The position setting module 24 ? configured to set the spatial coordinates 26 of each point of interest 18 present within the environment, starting from the video stream 22 (preferably of the RGB type as said) returned by the video camera 21.

In corrispondenza del punto (o dei punti) di interesse 18 si concentra l?attenzione del monitoraggio della persona 20 presente nell?ambiente, eseguito dal gruppo di rilevamento e tracciamento 12. In correspondence with the point (or points) of interest 18, the attention of the monitoring of the person 20 present in the environment is concentrated, performed by the detection and tracking group 12.

Tornando all?esempio in cui l?ambiente ? una sala di un ristorante e la persona 20 ? un cliente di questo ristorante, il punto di interesse 18 ? un tavolo disposto in questa sala di questo ristorante. Going back to the example in which the environment? a room of a restaurant and the person 20 ? a customer of this restaurant, the point of interest 18 ? a table arranged in this room of this restaurant.

La posizione del punto di interesse 18 nell?ambiente, e conseguentemente le coordinate spaziali 26 dello stesso punto di interesse 18, sono definite dall?utente. Le coordinate spaziali 26 del punto di interesse 18 sono inizializzate e successivamente modificate in caso di spostamento dello stesso punto di interesse 18. The position of the point of interest 18 in the environment, and consequently the spatial coordinates 26 of the same point of interest 18, are defined by the user. The spatial coordinates 26 of the point of interest 18 are initialized and subsequently modified in case of movement of the same point of interest 18.

Il gruppo di rilevamento e tracciamento 12 comprende ulteriormente un modulo di rilevamento 23 delle persone 20 presenti nell?ambiente. Il modulo di rilevamento personale 23 ? configurato per rilevare ogni persona 20 presente all?interno dell?ambiente, a partire dal flusso video 22 (come detto preferibilmente di tipo RGB) restituito dalla videocamera 21. The detection and tracking unit 12 further comprises a detection module 23 of the people 20 present in the environment. The Personal Survey Form 23 ? configured to detect each person 20 present in the environment, starting from the video stream 22 (preferably of the RGB type as mentioned) returned by video camera 21.

Preferibilmente, il modulo di rilevamento personale 23 comprende mezzi a rete neurale, preferibilmente una rete neurale convoluzionale (Convolutional Neural Network, o CNN), configurati e addestrati per eseguire un?applicazione inferenziale di rilevamento del corpo umano atta a rilevare ogni persona 20 presente all?interno dell?ambiente, a partire dal flusso video 22 (come detto preferibilmente di tipo RGB) restituito dalla videocamera 21. Preferably, the personal detection module 23 comprises neural network means, preferably a convolutional neural network (CNN), configured and trained to perform an inferential human body detection application suitable for detecting each person 20 present in the inside the environment, starting from the video stream 22 (preferably of the RGB type as mentioned) returned by video camera 21.

Il modulo di rilevamento personale 23 ? ulteriormente configurato per restituire in uscita un primo insieme di informazioni 25 riguardante ogni persona 20 rilevata all?interno dell?ambiente. The Personal Survey Form 23 ? further configured to output a first set of information 25 concerning each person 20 detected within the environment.

Il gruppo di rilevamento e tracciamento 12 comprende ulteriormente un modulo di tracciamento 27 delle persone 20 presenti nell?ambiente. Il modulo di tracciamento personale 27 ? configurato per tracciare la posizione e gli eventuali spostamenti di ogni persona 20 rilevata all?interno dell?ambiente, a partire dal flusso video 22 (come detto preferibilmente di tipo RGB) restituito dalla videocamera 21 e dal primo insieme di informazioni 25 restituito dal modulo di rilevamento personale 23. The detection and tracking group 12 further comprises a tracking module 27 of the people 20 present in the environment. The personal tracking module 27 ? configured to trace the position and any movements of each person 20 detected within the environment, starting from the video stream 22 (preferably of the RGB type as mentioned) returned by the video camera 21 and by the first set of information 25 returned by the personal tracking 23.

Preferibilmente, il modulo di tracciamento personale 27 ? configurato per eseguire un?applicazione di tracciamento del corpo umano, ad esempio il filtro di Kalman e/o il tracciatore di Lucas-Kanade-Tomasi (LKT tracker), atta a tracciare la posizione e gli eventuali spostamenti di ogni persona 20 presente all?interno dell?ambiente, a partire dal flusso video 22 (come detto preferibilmente di tipo RGB) restituito dalla videocamera 21 e dal primo insieme di informazioni 25 restituito dal modulo di rilevamento personale 23. Preferably, the personal tracking module 27 ? configured to run a human body tracking application, for example the Kalman filter and/or the Lucas-Kanade-Tomasi tracker (LKT tracker), suitable for tracking the position and any movements of each person 20 present at the? inside the environment, starting from the video stream 22 (preferably of the RGB type as mentioned) returned by the video camera 21 and by the first set of information 25 returned by the personal detection module 23.

In pratica, il modulo di tracciamento personale 27 ? un tracciatore multi oggetto atto a registrare lo stato, o meglio l?evoluzione dello stato nel tempo, delle persone 20 rilevate all?interno dell?ambiente. In practice, the personal tracking module 27 ? a multi-object tracer capable of recording the state, or rather the evolution of the state over time, of the 20 people detected within the environment.

Il modulo di tracciamento personale 27 ? ulteriormente configurato per restituire in uscita un secondo insieme di informazioni 29 riguardante la posizione e gli eventuali spostamenti di ogni persona 20 tracciata all?interno dell?ambiente. The personal tracking module 27 ? further configured to output a second set of information 29 regarding the position and possible movements of each person 20 traced within the environment.

Il gruppo di rilevamento e tracciamento 12 comprende ulteriormente un modulo di associazione 28 delle persone 20 e dei punti di interesse 18 presenti nell?ambiente. Il modulo di associazione 28 ? configurato per associare ogni persona 20 ad un rispettivo punto di interesse 18, dove quest?ultimo ? il punto di interesse 18 pi? vicino alla stessa persona 20, a partire dalle coordinate spaziali 26 di ogni punto di interesse 18 presente all?interno dell?ambiente definite dal modulo di impostazione posizione 24 e dal secondo insieme di informazioni 29 restituito dal modulo di tracciamento personale 27. The detection and tracking unit 12 further comprises an association module 28 of the people 20 and of the points of interest 18 present in the environment. The association form 28 ? configured to associate each person 20 with a respective point of interest 18, where the latter ? the point of interest 18 pi? close to the same person 20, starting from the spatial coordinates 26 of each point of interest 18 present within the environment defined by the position setting module 24 and by the second set of information 29 returned by the personal tracking module 27.

In particolare, il modulo di associazione 28 prima ricava informazioni sulla distanza tra la persona 20, o meglio la sua posizione 29 restituita dal modulo di tracciamento personale 27, e i vari punti di interesse 18, o meglio le loro coordinate spaziali 26 prodotte dal modulo di impostazione posizione 24, e poi associa la persona 20 al punto di interesse 18 pi? vicino (ossia come distanza minore) ad essa. In particular, the association module 28 first obtains information on the distance between the person 20, or rather his position 29 returned by the personal tracing module 27, and the various points of interest 18, or rather their spatial coordinates 26 produced by the position setting 24, and then associates the person 20 to the point of interest 18 more? close (ie as a minor distance) to it.

Il modulo di associazione 28 ? ulteriormente configurato per restituire in uscita un terzo insieme di informazioni 31 riguardante sia la posizione e gli eventuali spostamenti di ogni persona 20 tracciata all?interno dell?ambiente sia l?associazione di ogni persona 20 ad un rispettivo punto di interesse 18 presente all?interno dell?ambiente. The association form 28 ? further configured to output a third set of information 31 concerning both the position and any movements of each person 20 traced within the environment and the association of each person 20 with a respective point of interest 18 present inside of the environment.

Tornando all?esempio in cui l?ambiente ? una sala di un ristorante, la persona 20 ? un cliente di questo ristorante e il punto di interesse 18 ? un tavolo disposto in questa sala di questo ristorante, il gruppo di rilevamento e tracciamento 12 ? configurato per rilevare questo cliente e tracciare la sua posizione in questa sala di questo ristorante, nonch? per associare questo cliente al tavolo dove egli ? seduto. In altre parole, il gruppo di rilevamento e tracciamento 12 ? configurato per seguire questo cliente da quando egli ? seduto al proprio tavolo fino a quando egli raggiunge la stazione di pagamento, ad esempio in forma di un totem, di questo ristorante. Going back to the example in which the environment? a room of a restaurant, the person 20 ? a customer of this restaurant and the point of interest 18 ? a table arranged in this room of this restaurant, detection and tracking group 12 ? configured to detect this customer and track his location in this room of this restaurant, as well as? to associate this customer to the table where he ? sitting. In other words, the detection and tracking group 12 ? configured to follow this customer since he ? sitting at his table until he reaches the payment station, for example in the form of a totem, of this restaurant.

Come illustrato in figura 2B, il sistema 10 di identificazione di persone in un ambiente secondo il trovato pu? comprendere una pluralit? di gruppi di rilevamento e tracciamento 12, dove ogni gruppo di rilevamento e tracciamento 12 ? disposto in un rispettivo ambiente, ad esempio una stanza (due stanze = due gruppi 12, tre stanze = tre gruppi 12, e cos? via). As shown in figure 2B, the system 10 for identifying people in an environment according to the invention can understand a plurality of 12 tracking and tracing groups, where each 12 tracking and tracing group ? arranged in a respective environment, for example a room (two rooms = two groups 12, three rooms = three groups 12, and so on).

In questo caso, vantaggiosamente, il sistema 10 secondo il trovato comprende ulteriormente un modulo di sincronizzazione multi-ambientale 30. Il modulo di sincronizzazione multi-ambientale 30 ? configurato per sincronizzare i vari gruppi di rilevamento e tracciamento 12, e quindi le rispettive telecamere 21, i rispettivi dispositivi di elaborazione 61, e cos? via, disposti nei vari ambienti, in modo da tracciare la persona 20 in movimento tra ambienti diversi. In this case, advantageously, the system 10 according to the invention further comprises a multi-environment synchronization module 30. The multi-environment synchronization module 30 ? configured to synchronize the various detection and tracking groups 12, and therefore the respective cameras 21, the respective processing devices 61, and so on? away, arranged in the various environments, so as to trace the person 20 moving between different environments.

Il gruppo di riconoscimento facciale 14 del sistema 10 di identificazione di persone in un ambiente secondo il trovato ? configurato per riconoscere il volto di una persona 20 in movimento dall?ambiente, ad esempio una stanza, e per identificare questa persona 20 in una base di dati comprendente informazioni relative alle persone 20 conosciute. Ad esempio, il gruppo di riconoscimento facciale 14 ? in forma di un totem. The facial recognition group 14 of the system 10 for identifying people in an environment according to the invention ? configured to recognize the face of a moving person 20 from the environment, for example a room, and to identify this person 20 in a database comprising information relating to known persons 20. For example, the facial recognition group 14 ? in the form of a totem.

Il gruppo di riconoscimento facciale 14 sar? descritto nel seguito di questo documento con particolare riferimento alla figura 3. The facial recognition group 14 will be? described later in this document with particular reference to figure 3.

Il gruppo di riconoscimento facciale 14 comprende una seconda videocamera 35 orientata in modo da inquadrare frontalmente una persona 20 posizionata davanti alla stessa videocamera 35. La seconda videocamera 35 ? configurata per acquisire immagini del volto, ossia immagini facciali, della persona 20 e per convertire queste immagini in almeno un flusso video 36, 37 restituito in uscita. The facial recognition group 14 comprises a second video camera 35 oriented so as to frontally frame a person 20 positioned in front of the same video camera 35. The second video camera 35? configured to acquire face images, i.e. facial images, of the person 20 and to convert these images into at least one video stream 36, 37 returned in output.

Preferibilmente, la seconda videocamera 35, e conseguentemente il primo flusso video 37 restituito da essa, sono di tipo RGB (Red, Green, Blue), ad esempio con risoluzione di 1920x1080 pixel e frequenza di 30 Hz. Ancora pi? preferibilmente, la seconda videocamera 35 ? di tipo sia RGB (Red, Green, Blue) sia profondit? (Depth o 3D), e conseguentemente essa produce, oltre al primo flusso video 37 di tipo RGB di cui sopra, anche un secondo flusso video 36 di tipo profondit? (Depth o 3D), ad esempio con risoluzione di 1920x720 pixel e frequenza di 30 Hz. Preferably, the second video camera 35, and consequently the first video stream 37 returned by it, are of the RGB (Red, Green, Blue) type, for example with a resolution of 1920x1080 pixels and a frequency of 30 Hz. preferably, the second camera 35 ? of type both RGB (Red, Green, Blue) and depth? (Depth or 3D), and consequently it produces, in addition to the first video stream 37 of the above RGB type, also a second video stream 36 of the depth type. (Depth or 3D), for example with a resolution of 1920x720 pixels and a frequency of 30 Hz.

Il gruppo di riconoscimento facciale 14 comprende ulteriormente un secondo dispositivo di elaborazione 62, operativamente collegato alla seconda videocamera 35. Il secondo dispositivo di elaborazione 62 riceve in ingresso, e successivamente elabora, i flussi video 36, 37 restituiti dalla seconda videocamera 35. The facial recognition group 14 further comprises a second processing device 62, operatively connected to the second video camera 35. The second processing device 62 receives in input, and subsequently processes, the video streams 36, 37 returned by the second video camera 35.

Il secondo dispositivo di elaborazione 62 comprende una unit? di controllo, un ricetrasmettitore e una memoria (tutti e tre non illustrati). Il secondo dispositivo di elaborazione 62 comprende ulteriormente un modulo di rilevamento facciale 39, un modulo di incorporamento facciale 42, una base di dati comprendente informazioni relative ad ogni persona 20 conosciuta, e un modulo di controllo (non illustrato). Vantaggiosamente, il secondo dispositivo di elaborazione 62 comprende ulteriormente un modulo di vitalit? facciale 38. Vantaggiosamente, il secondo dispositivo di elaborazione 62 comprende ulteriormente un modulo di calcolo orientamento 41. The second processing device 62 comprises a unit controller, a transceiver and a memory (all three not shown). The second processing device 62 further comprises a facial detection module 39, a facial embedding module 42, a database comprising information relating to each known person 20, and a control module (not shown). Advantageously, the second processing device 62 further comprises a vitality module facial 38. Advantageously, the second processing device 62 further comprises an orientation calculation module 41.

L?unit? di controllo del dispositivo di elaborazione 62 ? dotata di opportune capacit? di calcolo e di interfacciamento con la videocamera 35 e con gli altri elementi del dispositivo di elaborazione 62. Questa unit? di controllo ? configurata per comandare, controllare e coordinare il funzionamento degli elementi con i quali essa ? operativamente collegata. Questa unit? di controllo ? ulteriormente configurata per eseguire i moduli di cui sopra, descritti in dettaglio nel seguito di questo documento. The unit processing device control 62 ? endowed with appropriate capabilities? calculation and interfacing with the video camera 35 and with the other elements of the processing device 62. This unit? control ? configured to command, control and coordinate the operation of the elements with which it? operationally connected. This unit? control ? further configured to run the above modules, described in detail later in this document.

Il gruppo di riconoscimento facciale 14 comprende ulteriormente un modulo di rilevamento facciale 39. Il modulo di rilevamento facciale 39 ? configurato per rilevare il volto di ogni persona 20 posizionata di fronte alla videocamera 35, a partire dal primo flusso video 37 (come detto preferibilmente di tipo RGB) restituito dalla stessa videocamera 35. The facial recognition assembly 14 further comprises a facial detection module 39. The facial detection module 39 is configured to detect the face of each person 20 positioned in front of the video camera 35, starting from the first video stream 37 (preferably of the RGB type as mentioned) returned by the video camera 35 itself.

Preferibilmente, il modulo di rilevamento facciale 39 comprende mezzi a rete neurale, preferibilmente una rete neurale convoluzionale a cascata multi-task (Multi-task Cascade Convolutional Neural Network, o MTCNN), configurati e addestrati per eseguire un?applicazione inferenziale di rilevamento del volto umano atta a rilevare il volto di ogni persona 20 posizionata di fronte alla videocamera 35, a partire dal primo flusso video 37 (come detto preferibilmente di tipo RGB) restituito dalla stessa videocamera 35. Preferably, the face detection module 39 comprises neural network means, preferably a multi-task cascade convolutional neural network (MTCNN), configured and trained to run a face detection inferential application able to detect the face of each person 20 positioned in front of the video camera 35, starting from the first video stream 37 (preferably of the RGB type as mentioned) returned by the same video camera 35.

Il modulo di rilevamento facciale 39 ? ulteriormente configurato per restituire in uscita un quarto insieme di informazioni 40 riguardante il volto di ogni persona 20 rilevato di fronte alla videocamera 35. The facial detection module 39 ? further configured to output a fourth set of information 40 concerning the face of each person 20 detected in front of the video camera 35.

Il gruppo di riconoscimento facciale 14 comprende ulteriormente un modulo di incorporamento facciale 42. Il modulo di incorporamento facciale 42 ? configurato per calcolare, tramite una funzione di hash, una stringa numerica chiamata incorporamento facciale (o in inglese face embedding), preferibilmente con una lunghezza di 512 numeri in virgola mobile applicata al volto in elaborazione, a partire dal quarto insieme di informazioni 40 restituito dal modulo di rilevamento facciale 39. The facial recognition assembly 14 further comprises a facial embedding module 42. The facial embedding module 42 is configured to compute, via a hash function, a numerical string called face embedding, preferably with a length of 512 floating point numbers applied to the face being processed, starting from the fourth set of information 40 returned by the facial detection module 39.

Il modulo di incorporamento facciale 42 ? ulteriormente configurato per restituire in uscita questa stringa numerica di incorporamento facciale. The facial embedding module 42 ? further configured to output this facial embed numeric string.

Il gruppo di riconoscimento facciale 14 comprende ulteriormente una base di dati comprendente informazioni relative ad ogni persona 20 conosciuta, tra cui rispettive informazioni identificative/anagrafiche e rispettive stringhe numeriche di incorporamento facciale. Preferibilmente, per ogni persona 20, ? compresa una pluralit? di stringhe numeriche di incorporamento facciale, in particolare una stringa numerica di incorporamento facciale per ogni possibile orientamento del volto della persona 20. In particolare, questa base di dati ? archiviata nella memoria del dispositivo di elaborazione 62 del gruppo di riconoscimento facciale 14. The facial recognition unit 14 further comprises a database comprising information relating to each known person 20, including respective identification/personal data and respective facial embedding numerical strings. Preferably, for each 20 person, ? including a plurality of facial embedding numerical strings, in particular a facial embedding numerical string for each possible orientation of the person's face 20. In particular, this database ? stored in the memory of the processing device 62 of the facial recognition unit 14.

Il dispositivo di elaborazione 62 del gruppo di riconoscimento facciale 14 ? dotato di una modalit? di identificazione, dove esso ? configurato per eseguire una ricerca 43 nella base di dati di cui sopra, in particolare per ricercare una corrispondenza alla stringa numerica, calcolata dal modulo di incorporamento facciale 42, nella base di dati. In caso di esito positivo di questa ricerca 43, ossia se la persona 20 ? presente nella base di dati ed ? quindi riconosciuta, il dispositivo di elaborazione 62 ? ulteriormente configurato per restituire in uscita un insieme di informazioni identificative/anagrafiche 44 della persona 20 riconosciuta, dove questo insieme di informazioni 44 ? recuperato dalla base di dati. The processing device 62 of the facial recognition unit 14 ? equipped with a mode identification, where it ? configured to perform a search 43 in the above database, in particular to search for a match to the numerical string, calculated by the facial embedding module 42, in the database. In the event of a positive outcome of this research 43, i.e. if the person 20 ? present in the database and ? then recognized, the processing device 62 ? further configured to output a set of identification/personal data 44 of the recognized person 20, where this set of information 44 ? retrieved from the database.

Vantaggiosamente, il gruppo di riconoscimento facciale 14 comprende ulteriormente un modulo di vitalit? facciale 38. Il modulo di vitalit? facciale 38 ? configurato per verificare la vitalit? del volto della persona 20, ovvero assicurare che la persona 20 che si sta identificando sia una persona reale e non una fotografia, a partire dal secondo flusso video 36 (come detto preferibilmente di tipo profondit?) restituito dalla videocamera 35 e dal quarto insieme di informazioni 40 restituito dal modulo di rilevamento facciale 39. Advantageously, the facial recognition group 14 further comprises a vitality module facial 38. The form of vitality? facial 38 ? configured to verify the vitality? of the face of the person 20, i.e. ensuring that the person 20 who is being identified is a real person and not a photograph, starting from the second video stream 36 (preferably of the depth type as mentioned) returned by the video camera 35 and from the fourth set of information 40 returned by facial detection module 39.

Il modulo di vitalit? facciale 38 ? ulteriormente configurato per restituire in uscita l?esito 46 di questa verifica, ad esempio un valore booleano, ossia se l?oggetto di identificazione ? una persona 20 reale (esito positivo) oppure se l?oggetto di identificazione ? una fotografia (esito negativo). The vitality module? facial 38 ? further configured to return the outcome 46 of this check, for example a boolean value, i.e. if the identification object ? a real person 20 (positive result) or if the object of identification ? a photograph (failed result).

Vantaggiosamente, il gruppo di riconoscimento facciale 14 comprende ulteriormente un modulo di calcolo orientamento 41. Il modulo di calcolo orientamento 41 ? configurato per calcolare l?orientamento 45 del volto della persona 20, a partire dal quarto insieme di informazioni 40 restituito dal modulo di rilevamento facciale 39. Advantageously, the facial recognition unit 14 further comprises an orientation calculation module 41. The orientation calculation module 41 ? configured to calculate the orientation 45 of the face of the person 20, starting from the fourth set of information 40 returned by the facial detection module 39.

Il modulo di calcolo orientamento 41 ? ulteriormente configurato per restituire in uscita questo orientamento 45 del volto della persona 20. The orientation calculation module 41 ? further configured to output this orientation 45 of the face of the person 20.

In una forma di realizzazione, il dispositivo di elaborazione 62 del gruppo di riconoscimento facciale 14 ? ulteriormente dotato di una modalit? di registrazione, dove esso ? configurato per aggiungere nuove persone 20 alla base di dati, in particolare per aggiungere informazioni relative ad ogni persona 20 sconosciuta, tra cui rispettive informazioni identificative/anagrafiche e rispettive stringhe numeriche di incorporamento facciale, alla base di dati. Preferibilmente, per ogni nuova persona 20, ? registrata una pluralit? di stringhe numeriche di incorporamento facciale, in particolare una stringa numerica di incorporamento facciale per ogni possibile orientamento del volto della nuova persona 20. In one embodiment, the processing device 62 of the facial recognition assembly 14 is further equipped with a mode? registration, where it ? configured to add 20 new persons to the database, in particular to add information relating to each 20 unknown persons, including respective identification/personality information and respective facial embed number strings, to the database. Preferably, for every 20 new person, ? registered a plurality? of facial embed number strings, in particular a face embed number string for each possible face orientation of the new person 20.

Preferibilmente, per la registrazione di nuove persone 20 alla base di dati, il dispositivo di elaborazione 62 comprende mezzi a rete neurale, preferibilmente una rete neurale convoluzionale (Convolutional Neural Network, o CNN), configurati e addestrati per eseguire un?applicazione inferenziale che guida ogni nuova persona 20 attraverso le fasi di acquisizione delle immagini del volto, tramite la videocamera 35, e di inserimento delle informazioni identificative/anagrafiche nella base di dati. Preferably, for registering new persons 20 to the database, the processing device 62 comprises neural network means, preferably a convolutional neural network (CNN), configured and trained to execute an inferential application which guides each new person 20 through the phases of acquiring the images of the face, by means of the video camera 35, and of entering the identification/personal information in the database.

In una forma di realizzazione preferita del sistema 10 di identificazione di persone in un ambiente secondo il trovato, nessuna informazione sensibile delle persone 20 (ad esempio immagini del volto, ecc.) ? conservata in quanto tale nella base di dati, ai sensi del regolamento UE n. In a preferred embodiment of the system 10 for identifying people in an environment according to the invention, no sensitive information of the people 20 (for example images of the face, etc.) is present. stored as such in the database, pursuant to EU regulation no.

2016/679 (o GDPR, in inglese General Data Protection Regulation). L?identit? e l?univocit? di ogni persona 20, e quindi le informazioni sensibili di ogni persona 20, sono codificate e rappresentate tramite stringhe numeriche. 2016/679 (or GDPR, in English General Data Protection Regulation). The identity and the? uniqueness? of each person 20, and therefore the sensitive information of each person 20, is encoded and represented by means of numerical strings.

Il gruppo di riconoscimento facciale 14 comprende ulteriormente un modulo di controllo. Il modulo di controllo ? configurato per accoppiare la persona 20 riconosciuta, o meglio il relativo insieme di informazioni identificative/anagrafiche 44, al punto di interesse 18 ad essa associato, tramite il terzo insieme di informazioni 31 restituito dal modulo di associazione 28 del gruppo di gruppo di rilevamento e tracciamento 12, che come detto riguarda sia la posizione e gli eventuali spostamenti di ogni persona 20 rilevata all?interno dell?ambiente sia l?associazione di ogni persona 20 ad un rispettivo punto di interesse 18 presente all?interno dell?ambiente. The facial recognition unit 14 further comprises a control module. The control module? configured to pair the recognized person 20, or rather the relative set of identification/personal data 44, to the point of interest 18 associated with it, through the third set of information 31 returned by the association module 28 of the detection and tracking group 12, which as mentioned concerns both the position and any movements of each person 20 detected within the environment and the association of each person 20 with a respective point of interest 18 present within the environment.

In pratica, il modulo di controllo ? configurato per unire e sincronizzare il riconoscimento facciale della persona 20, operato dal gruppo di riconoscimento facciale 14, con il rilevamento e il tracciamento della persona 20 all?interno dell?ambiente, operato dal gruppo di rilevamento e tracciamento 12. In practice, the control module ? configured to combine and synchronize the facial recognition of the person 20, operated by the facial recognition unit 14, with the detection and tracking of the person 20 within the environment, operated by the detection and tracking unit 12.

Vantaggiosamente, in presenza del modulo di vitalit? facciale 38, e quindi del relativo esito 46, il modulo di controllo ? ulteriormente configurato per eseguire una verifica preliminare 51 sulla ?realt??, ossia sull?attendibilit?, della persona 20. Nel caso in cui l?esito 46 sia positivo, ossia se l?oggetto di identificazione ? una persona 20 reale, il modulo di controllo esegue l?accoppiamento della persona 20 riconosciuta al punto di interesse 18 ad essa associato, come descritto sopra. Invece, nel caso in cui l?esito 46 sia negativo, se l?oggetto di identificazione ? una fotografia, il modulo di controllo produce un segnale 52 per l?invalidit? dalla persona 20 e il conseguente tentativo di frode tramite una fotografia. Advantageously, in the presence of the vitality module? facial 38, and therefore of the relative outcome 46, the control module ? further configured to perform a preliminary check 51 on the ?reality?, i.e. on the reliability?, of the person 20. In the event that the outcome 46 is positive, i.e. if the object of identification is? a real person 20, the control module performs the coupling of the recognized person 20 to the point of interest 18 associated with it, as described above. Instead, in the event that outcome 46 is negative, if the object of identification is? a photograph, the control module produces a signal 52 for? invalidity? by person 20 and the subsequent attempted fraud using a photograph.

In una forma di realizzazione, in caso di esito negativo della ricerca 43 eseguita dal dispositivo di elaborazione 62, ossia se la persona 20 non ? presente nella base di dati e non ? quindi riconosciuta, il modulo di controllo non ? in grado di procedere all?accoppiamento della persona 20 riconosciuta al punto di interesse 18 ad essa associato, come descritto sopra, ed ? ulteriormente configurato per produce un segnale 54 per il mancato riscontro della persona 20 e/o per proporre la registrazione della persona 20 nella base di dati. In one embodiment, in the event of a negative result of the search 43 performed by the processing device 62, i.e. if the person 20 does not? present in the database and not ? therefore recognized, the control module is not ? able to proceed with the pairing of the recognized person 20 to the point of interest 18 associated with it, as described above, and is it able to further configured to produce a signal 54 for no acknowledgment of the person 20 and/or to propose the registration of the person 20 in the database.

Come detto, il sistema 10 di identificazione di persone in un ambiente secondo il trovato pu? essere utilizzato per la gestione automatica o semiautomatica del pagamento di un conto presso esercizi pubblici con servizio al tavolo come ad esempio ristoranti, bar e pi? in generale ambienti con tavoli per la consumazione. Con particolare riferimento alla figura 4, il modulo di controllo pu? essere configurato per operare come segue. As said, the system 10 for identifying people in an environment according to the invention can be used for the automatic or semi-automatic management of the payment of an account in public establishments with table service such as restaurants, bars and more? in general environments with tables for consumption. With particular reference to figure 4, the control module can? be configured to operate as follows.

In caso di esito positivo della ricerca 43 eseguita dal dispositivo di elaborazione 62, ossia se la persona 20 ? presente nella base di dati ed ? quindi riconosciuta, il modulo di controllo ? ulteriormente configurato per proporre il conto o la fattura gi? compilati e completi di tutte le informazioni identificative/anagrafiche 44 del cliente, eventualmente chiedendo preliminarmente una conferma del punto di interesse 18, ad esempio del numero di tavolo. In the event of a positive outcome of the search 43 performed by the processing device 62, i.e. if the person 20 ? present in the database and ? then recognized, the control module ? further configured to propose the bill or the invoice already? filled in and complete with all the customer's identification/personal data 44, possibly requesting a preliminary confirmation of the point of interest 18, for example the table number.

Invece, in caso di esito negativo della ricerca 43 eseguita dal dispositivo di elaborazione 62, ossia se la persona 20 non ? presente nella base di dati e non ? quindi riconosciuta, il modulo di controllo ? ulteriormente configurato per proporre il conto al cliente o per richiedere la compilazione manuale della fattura, eventualmente chiedendo preliminarmente una conferma del punto di interesse 18, ad esempio del numero di tavolo. On the other hand, in the event of a negative outcome of the search 43 performed by the processing device 62, i.e. if the person 20 is not present in the database and not ? then recognized, the control module ? further configured to offer the bill to the customer or to request the manual compilation of the invoice, possibly requesting a preliminary confirmation of the point of interest 18, for example of the table number.

In una forma di realizzazione preferita del sistema 10 di identificazione di persone in un ambiente secondo il trovato, i dispositivi di elaborazione 61, 62 e tutti i relativi moduli sopra descritti sono implementati per l?edge computing, vale a dire che essi elaborano i flussi video e i successivi insiemi di informazioni in prossimit? delle rispettive videocamere 21, 35. Pertanto, nessuna informazione sensibile delle persone 20 (ad esempio immagini del volto, ecc.) ? trasmessa sulla rete Internet, ai sensi del regolamento UE n. 2016/679 (o GDPR, in inglese General Data Protection Regulation). In a preferred embodiment of the system 10 for identifying people in an environment according to the invention, the processing devices 61, 62 and all the relative modules described above are implemented for edge computing, i.e. they process the flows video and subsequent sets of information in the vicinity? of the respective video cameras 21, 35. Therefore, none of the sensitive information of the persons 20 (for example images of the face, etc.) ? transmitted on the Internet, pursuant to EU regulation no. 2016/679 (or GDPR, in English General Data Protection Regulation).

Con riferimento alla figura 5, il metodo di identificazione di persone in un ambiente secondo il presente trovato comprende i passi descritti di seguito. With reference to figure 5, the method of identifying people in an environment according to the present invention comprises the steps described below.

Inizialmente, al passo 65, la videocamera 21 del gruppo di rilevamento e tracciamento 12, come detto disposta all?interno dell?ambiente e orientata in modo da inquadrare questo ambiente sostanzialmente nella sua interezza, acquisisce immagini dell?ambiente comprendenti la persona 20 e converte queste immagini in almeno un flusso video 22 restituito in uscita. Initially, at step 65, the video camera 21 of the detection and tracking unit 12, as mentioned arranged inside the environment and oriented so as to frame this environment substantially in its entirety, acquires images of the environment including the person 20 and converts these images in at least one output video stream 22.

Al passo 66, il modulo di impostazione posizione 24 del gruppo di rilevamento e tracciamento 12, in particolare del relativo dispositivo di elaborazione 61, imposta le coordinate spaziali 26 di ogni punto di interesse 18 presente all?interno dell?ambiente, a partire dal flusso video 22 restituito dalla videocamera 21 al passo 65. At step 66, the position setting module 24 of the detection and tracking unit 12, in particular of the relative processing device 61, sets the spatial coordinates 26 of each point of interest 18 present within the environment, starting from the flow video 22 returned from camera 21 at step 65.

Come detto, in corrispondenza del punto (o dei punti) di interesse 18 si concentra l?attenzione del monitoraggio della persona 20 presente nell?ambiente, eseguito dal gruppo di rilevamento e tracciamento 12. As mentioned, in correspondence with the point (or points) of interest 18 the attention of the monitoring of the person 20 present in the environment is concentrated, performed by the detection and tracking group 12.

Tornando all?esempio in cui l?ambiente ? una sala di un ristorante e la persona 20 ? un cliente di questo ristorante, il punto di interesse 18 ? un tavolo disposto in questa sala di questo ristorante. Going back to the example in which the environment? a room of a restaurant and the person 20 ? a customer of this restaurant, the point of interest 18 ? a table arranged in this room of this restaurant.

Al passo 67, il modulo di rilevamento personale 23 del gruppo di rilevamento e tracciamento 12, in particolare del relativo dispositivo di elaborazione 61, rileva ogni persona 20 presente all?interno dell?ambiente, a partire dal flusso video 22 restituito dalla videocamera 21 al passo 65. At step 67, the personal detection module 23 of the detection and tracking group 12, in particular of the relative processing device 61, detects each person 20 present inside the environment, starting from the video stream 22 returned by the video camera 21 to step 65.

Ancora al passo 67, il modulo di rilevamento personale 23 restituisce in uscita un primo insieme di informazioni 25 riguardante ogni persona 20 rilevata all?interno dell?ambiente. Still in step 67, the personal detection module 23 outputs a first set of information 25 concerning each person 20 detected within the environment.

Al passo 68, il modulo di tracciamento personale 27 del gruppo di rilevamento e tracciamento 12, in particolare del relativo dispositivo di elaborazione 61, traccia la posizione e gli eventuali spostamenti di ogni persona 20 rilevata all?interno dell?ambiente, a partire dal flusso video 22 restituito dalla videocamera 21 al passo 65 e dal primo insieme di informazioni 25 restituito dal modulo di rilevamento personale 23 al passo 67. At step 68, the personal tracing module 27 of the detection and tracing group 12, in particular of the relative processing device 61, traces the position and any movements of each person 20 detected within the environment, starting from the flow video 22 returned by video camera 21 at step 65 and by the first set of information 25 returned by personal tracking module 23 at step 67.

In pratica, il modulo di tracciamento personale 27 ? un tracciatore multi oggetto atto a registrare lo stato, o meglio l?evoluzione dello stato nel tempo, delle persone 20 rilevate all?interno dell?ambiente. In practice, the personal tracking module 27 ? a multi-object tracer capable of recording the state, or rather the evolution of the state over time, of the 20 people detected within the environment.

Ancora al passo 68, il modulo di tracciamento personale 27 restituisce in uscita un secondo insieme di informazioni 29 riguardante la posizione e gli eventuali spostamenti di ogni persona 20 rilevata all?interno dell?ambiente. Still in step 68, the personal tracing module 27 outputs a second set of information 29 concerning the position and possible movements of each person 20 detected within the environment.

Al passo 69, il modulo di associazione 28 del gruppo di rilevamento e tracciamento 12, in particolare del relativo dispositivo di elaborazione 61, associa ogni persona 20 ad un rispettivo punto di interesse 18, dove quest?ultimo ? il punto di interesse 18 pi? vicino alla stessa persona 20, a partire dalle coordinate spaziali 26 di ogni punto di interesse 18 presente all?interno dell?ambiente definite dal modulo di impostazione posizione 24 al passo 66 e dal secondo insieme di informazioni 29 restituito dal modulo di tracciamento personale 27 al passo 68. At step 69, the association module 28 of the detection and tracking group 12, in particular of the related processing device 61, associates each person 20 with a respective point of interest 18, where the latter is? the point of interest 18 pi? close to the same person 20, starting from the spatial coordinates 26 of each point of interest 18 present within the environment defined by the position setting module 24 at step 66 and from the second set of information 29 returned by the personal tracing module 27 at step 68.

In particolare, il modulo di associazione 28 prima ricava informazioni sulla distanza tra la persona 20, o meglio la sua posizione 29 restituita dal modulo di tracciamento personale 27, e i vari punti di interesse 18, o meglio le loro coordinate spaziali 26 prodotte dal modulo di impostazione posizione 24, e poi associa la persona 20 al punto di interesse 18 pi? vicino (ossia come distanza minore) ad essa. In particular, the association module 28 first obtains information on the distance between the person 20, or rather his position 29 returned by the personal tracing module 27, and the various points of interest 18, or rather their spatial coordinates 26 produced by the position setting 24, and then associates the person 20 to the point of interest 18 more? close (ie as a minor distance) to it.

Ancora al passo 69, il modulo di associazione 28 restituisce in uscita un terzo insieme di informazioni 31 riguardante sia la posizione e gli eventuali spostamenti di ogni persona 20 rilevata all?interno dell?ambiente sia l?associazione di ogni persona 20 ad un rispettivo punto di interesse 18 presente all?interno dell?ambiente. Still in step 69, the association module 28 outputs a third set of information 31 concerning both the position and any movements of each person 20 detected within the environment and the association of each person 20 to a respective point of interest 18 present within the environment.

Tornando all?esempio in cui l?ambiente ? una sala di un ristorante, la persona 20 ? un cliente di questo ristorante e il punto di interesse 18 ? un tavolo disposto in questa sala di questo ristorante, il gruppo di rilevamento e tracciamento 12 ? configurato per rilevare questo cliente e tracciare la sua posizione in questa sala di questo ristorante, nonch? per associare questo cliente al tavolo dove egli ? seduto. In altre parole, il gruppo di rilevamento e tracciamento 12 ? configurato per seguire questo cliente da quando egli ? seduto al proprio tavolo fino a quando egli raggiunge la stazione di pagamento, ad esempio in forma di un totem, di questo ristorante. Going back to the example in which the environment? a room of a restaurant, the person 20 ? a customer of this restaurant and the point of interest 18 ? a table arranged in this room of this restaurant, detection and tracking group 12 ? configured to detect this customer and track his location in this room of this restaurant, as well as? to associate this customer to the table where he ? sitting. In other words, the detection and tracking group 12 ? configured to follow this customer since he ? sitting at his table until he reaches the payment station, for example in the form of a totem, of this restaurant.

Al passo 70, la videocamera 35 del gruppo di riconoscimento facciale 14, come detto orientata in modo da inquadrare frontalmente una persona 20 posizionata davanti alla stessa videocamera 35, acquisisce immagini del volto, ossia immagini facciali, della persona 20 e converte queste immagini in almeno un flusso video 36, 37 restituito in uscita. At step 70, the video camera 35 of the facial recognition group 14, as mentioned oriented so as to frontally frame a person 20 positioned in front of the same video camera 35, acquires images of the face, i.e. facial images, of the person 20 and converts these images into at least a video stream 36, 37 returned out.

Al passo 71, il modulo di rilevamento facciale 39 del gruppo di riconoscimento facciale 14, in particolare del relativo dispositivo di elaborazione 62, rileva il volto di ogni persona 20 posizionata di fronte alla videocamera 35, a partire dal primo flusso video 37 restituito dalla stessa videocamera 35 al passo 70. At step 71, the facial detection module 39 of the facial recognition group 14, in particular of the related processing device 62, detects the face of each person 20 positioned in front of the video camera 35, starting from the first video stream 37 returned by the same camera 35 at pitch 70.

Ancora al passo 71, il modulo di rilevamento facciale 39 restituisce in uscita un quarto insieme di informazioni 40 riguardante il volto di ogni persona 20 rilevato di fronte alla videocamera 35. Still in step 71, the facial detection module 39 outputs a fourth set of information 40 concerning the face of each person 20 detected in front of the video camera 35.

Al passo 72, il modulo di incorporamento facciale 42 del gruppo di riconoscimento facciale 14, in particolare del relativo dispositivo di elaborazione 62, calcola una stringa numerica chiamata incorporamento facciale (o in inglese face embedding), preferibilmente con una lunghezza di 512 numeri in virgola mobile, tramite una funzione di hash applicata al volto in elaborazione, a partire dal quarto insieme di informazioni 40 restituito dal modulo di rilevamento facciale 39 al passo 71. At step 72, the facial embedding module 42 of the facial recognition group 14, in particular of the related processing device 62, calculates a numerical string called face embedding, preferably with a length of 512 comma numbers mobile, through a hash function applied to the face being processed, starting from the fourth set of information 40 returned by the facial detection module 39 at step 71.

Ancora al passo 72, il modulo di incorporamento facciale 42 restituisce in uscita questa stringa numerica di incorporamento facciale. Still at step 72, the face embed module 42 outputs this face embed number string.

Come detto, il gruppo di riconoscimento facciale 14 comprende ulteriormente una base di dati comprendente informazioni relative ad ogni persona 20 conosciuta, tra cui rispettive informazioni identificative/anagrafiche e rispettive stringhe numeriche di incorporamento facciale. Preferibilmente, per ogni persona 20, ? compresa una pluralit? di stringhe numeriche di incorporamento facciale, in particolare una stringa numerica di incorporamento facciale per ogni possibile orientamento del volto della persona 20. As mentioned, the facial recognition group 14 further comprises a database comprising information relating to each known person 20, including respective identification/personal data and respective numerical facial embedding strings. Preferably, for each 20 person, ? including a plurality of facial embed number strings, in particular a face embed number string for each possible face orientation of the person 20.

Al passo 73, il dispositivo di elaborazione 62 del gruppo di riconoscimento facciale 14 esegue una ricerca 43 nella base di dati di cui sopra, in particolare per ricercare una corrispondenza alla stringa numerica, calcolata dal modulo di incorporamento facciale 42 al passo 72, nella base di dati. At step 73, the processing device 62 of the facial recognition unit 14 performs a search 43 in the above database, in particular to search for a match to the numerical string, calculated by the facial embedding module 42 at step 72, in the base of data.

Ancora al passo 73, in caso di esito positivo di questa ricerca 43, ossia se la persona 20 ? presente nella base di dati ed ? quindi riconosciuta, il dispositivo di elaborazione 62 restituisce in uscita un insieme di informazioni identificative/anagrafiche 44 della persona 20 riconosciuta, dove questo insieme di informazioni 44 ? recuperato dalla base di dati. Still in step 73, in the event of a positive outcome of this search 43, i.e. if the person 20 ? present in the database and ? then recognized, the processing device 62 outputs a set of identification/personal data 44 of the recognized person 20, where this set of information 44 ? retrieved from the database.

Vantaggiosamente, al passo 74, il modulo di vitalit? facciale 38 del gruppo di riconoscimento facciale 14, in particolare del relativo dispositivo di elaborazione 62, verifica la vitalit? del volto della persona 20, ovvero assicura che la persona 20 che si sta identificando sia una persona reale e non una fotografia, a partire dal secondo flusso video 36 restituito dalla videocamera 35 al passo 70 e dal quarto insieme di informazioni 40 restituito dal modulo di rilevamento facciale 39 al passo 71. Advantageously, at step 74, the form of vitality? face 38 of the facial recognition group 14, in particular of the related processing device 62, checks the vitality? of the face of the person 20, i.e. it ensures that the person 20 who is being identified is a real person and not a photograph, starting from the second video stream 36 returned by the video camera 35 at step 70 and from the fourth set of information 40 returned by the face detection 39 to step 71.

Ancora al passo 74, il modulo di vitalit? facciale 38 restituisce in uscita l?esito 46 di questa verifica, ad esempio un valore booleano, ossia se l?oggetto di identificazione ? una persona reale (esito positivo) oppure se l?oggetto di identificazione ? una fotografia (esito negativo). Still at step 74, the form of vitality? facial 38 returns the outcome 46 of this check, for example a boolean value, i.e. if the identification object ? a real person (positive outcome) or if the? object of identification ? a photograph (failed result).

Vantaggiosamente, al passo 75, il modulo di calcolo orientamento 41 del gruppo di riconoscimento facciale 14, in particolare del relativo dispositivo di elaborazione 62, calcola l?orientamento 45 del volto della persona 20, a partire dal quarto insieme di informazioni 40 restituito dal modulo di rilevamento facciale 39 al passo 71. Advantageously, at step 75, the orientation calculation module 41 of the facial recognition group 14, in particular of the relative processing device 62, calculates the orientation 45 of the face of the person 20, starting from the fourth set of information 40 returned by the module of face detection 39 to step 71.

Ancora al passo 75, il modulo di calcolo orientamento 41 restituisce in uscita questo orientamento 45 del volto della persona 20. Still in step 75, the orientation calculation module 41 outputs this orientation 45 of the face of the person 20.

Infine, al passo 76, il modulo di controllo del gruppo di riconoscimento facciale 14, in particolare del relativo dispositivo di elaborazione 62, accoppia la persona 20 riconosciuta, o meglio il relativo insieme di informazioni identificative/anagrafiche 44, al punto di interesse 18 ad essa associato, tramite il terzo insieme di informazioni 31 restituito dal modulo di associazione 28 del gruppo di gruppo di rilevamento e tracciamento 12 al passo 69, che come detto riguarda sia la posizione e gli eventuali spostamenti di ogni persona 20 rilevata all?interno dell?ambiente sia l?associazione di ogni persona 20 ad un rispettivo punto di interesse 18 presente all?interno dell?ambiente. Finally, at step 76, the control module of the facial recognition group 14, in particular of the relative processing device 62, couples the recognized person 20, or rather the relative set of identification/personal data 44, to the point of interest 18 to it associated, through the third set of information 31 returned by the association module 28 of the detection and tracing group 12 at step 69, which, as mentioned, concerns both the position and any movements of each person 20 detected inside the? environment is the association of each person 20 with a respective point of interest 18 present within the environment.

In pratica, il modulo di controllo unisce e sincronizza il riconoscimento facciale della persona 20, operato dal gruppo di riconoscimento facciale 14, con il rilevamento e il tracciamento della persona 20 all?interno dell?ambiente, operato dal gruppo di rilevamento e tracciamento 12. In practice, the control module combines and synchronizes the facial recognition of the person 20, operated by the facial recognition unit 14, with the detection and tracking of the person 20 within the environment, operated by the detection and tracking unit 12.

Vantaggiosamente, ancora al passo 76, in presenza del modulo di vitalit? facciale 38, e quindi del relativo esito 46, il modulo di controllo esegue una verifica preliminare 51 sulla ?realt??, ossia sull?attendibilit?, della persona 20. Nel caso in cui l?esito 46 sia positivo, ossia se l?oggetto di identificazione ? una persona 20 reale, il modulo di controllo esegue l?accoppiamento della persona 20 riconosciuta al punto di interesse 18 ad essa associato, come descritto sopra. Invece, nel caso in cui l?esito 46 sia negativo, se l?oggetto di identificazione ? una fotografia, il modulo di controllo produce un segnale 52 per l?invalidit? dalla persona 20 e il conseguente tentativo di frode tramite una fotografia. Advantageously, still at step 76, in the presence of the vitality module? face 38, and therefore of the relative outcome 46, the control module performs a preliminary check 51 on the ?reality?, i.e. on the reliability?, of the person 20. In the event that the outcome 46 is positive, i.e. if the? identification object ? a real person 20, the control module performs the coupling of the recognized person 20 to the point of interest 18 associated with it, as described above. Instead, in the event that outcome 46 is negative, if the object of identification is? a photograph, the control module produces a signal 52 for? invalidity? by person 20 and the subsequent attempted fraud using a photograph.

Si ? in pratica constatato come il trovato assolva pienamente il compito e gli scopi prefissati. In particolare, si ? visto come il sistema e il metodo di identificazione di persone in un ambiente, ad esempio una stanza, cos? concepiti permettono di superare i limiti qualitativi dell?arte nota, in quanto consentono di ottenere effetti migliori rispetto a quelli ottenibili con le soluzioni note e/o effetti analoghi a minor costo e con prestazioni pi? elevate. Yes ? in practice it has been observed that the invention fully achieves the intended aim and objects. In particular, yes? seen as the system and method of identifying people in an environment, such as a room, so? conceived allow to overcome the qualitative limits of the prior art, as they allow to obtain better effects than those obtainable with known solutions and/or similar effects at lower cost and with better performances? elevated.

Un vantaggio del sistema e del metodo di identificazione di persone in un ambiente secondo il presente trovato consiste nel fatto che essi permettono di associare la persona rilevata e/o tracciata ad un?area e/o un oggetto di interesse, ad esempio un tavolo presente in una stanza. An advantage of the system and method for identifying people in an environment according to the present invention consists in the fact that they allow the person detected and/or traced to be associated with an area and/or an object of interest, for example a table present in a room.

Un altro vantaggio del sistema e del metodo di identificazione di persone in un ambiente secondo il presente trovato consiste nel fatto che essi consentono di effettuare un pagamento veloce di un conto presso esercizi pubblici con servizio al tavolo come ad esempio ristoranti, bar e pi? in generale ambienti con tavoli per la consumazione. Another advantage of the system and method for identifying people in an environment according to the present invention consists in the fact that they allow quick payment of a bill in public establishments with table service such as restaurants, bars and more. in general environments with tables for consumption.

Un ulteriore vantaggio del sistema e del metodo di identificazione di persone in un ambiente secondo il presente trovato consiste nel fatto che essi permettono di rispettare il regolamento UE n. 2016/679 (o GDPR, in inglese General Data Protection Regulation). A further advantage of the system and method for identifying people in an environment according to the present invention consists in the fact that they allow compliance with EU regulation no. 2016/679 (or GDPR, in English General Data Protection Regulation).

Ancora, un vantaggio del sistema e del metodo di identificazione di persone in un ambiente secondo il presente trovato consiste nel fatto che essi sono ottimizzati per operare su dispositivi embedded a basso costo e a basso consumo energetico. Again, an advantage of the system and of the method for identifying people in an environment according to the present invention consists in the fact that they are optimized to operate on low-cost and low-energy consumption embedded devices.

Bench? il sistema e il metodo di identificazione di persone in un ambiente secondo il trovato siano stati concepiti in particolare per la gestione automatica o semiautomatica del pagamento di un conto presso esercizi pubblici con servizio al tavolo come ad esempio ristoranti, bar e pi? in generale ambienti con tavoli per la consumazione, essi potranno comunque essere utilizzati, pi? generalmente, in qualsiasi ambito dove l?identificazione di persone risulta utile e/o necessaria. Bench? the system and the method for identifying people in an environment according to the invention have been conceived in particular for the automatic or semi-automatic management of the payment of a bill in public establishments with table service such as for example restaurants, bars and more? in general environments with tables for consumption, they can still be used, more? generally, in any field where the identification of people is useful and/or necessary.

Il trovato cos? concepito ? suscettibile di numerose modifiche e varianti, tutte rientranti nell?ambito del concetto inventivo. Inoltre, tutti i dettagli potranno essere sostituiti da altri elementi tecnicamente equivalenti. The found what? conceived ? susceptible to numerous modifications and variations, all falling within the scope of the inventive concept. Furthermore, all the details may be replaced by other technically equivalent elements.

In pratica, i materiali impiegati, purch? compatibili con l?uso specifico, nonch? le dimensioni e le forme contingenti potranno essere qualsiasi a seconda delle esigenze e dello stato della tecnica. In practice, the materials used, provided? compatible with the specific use, as well as? the contingent dimensions and shapes may be any according to the requirements and to the state of the art.

In conclusione, l?ambito di protezione delle rivendicazioni non deve essere limitato dalle illustrazioni o dalle forme di realizzazione preferite illustrate nella descrizione sotto forma di esempi, ma piuttosto le rivendicazioni devono comprendere tutte le caratteristiche di novit? brevettabile che risiedono nella presente invenzione, incluse tutte le caratteristiche che sarebbero trattate come equivalenti dal tecnico del ramo. In conclusion, the scope of the claims should not be limited by the illustrations or preferred embodiments illustrated in the description in the form of examples, but rather the claims should include all novelty features patentable property residing in the present invention, including all features which would be treated as equivalent by those skilled in the art.

Claims (11)

RIVENDICAZIONI 1. Sistema (10) di identificazione di persone in un ambiente, comprendente almeno un gruppo di rilevamento e tracciamento (12) e almeno un gruppo di riconoscimento facciale (14) reciprocamente collegati e in comunicazione tramite una rete di comunicazione telematica (16), detto gruppo di rilevamento e tracciamento (12) essendo disposto in detto ambiente dove almeno una persona (20) ? presente,1. System (10) for identifying people in an environment, comprising at least one detection and tracking group (12) and at least one facial recognition group (14) mutually connected and in communication via a telematic communication network (16), said detection and tracking unit (12) being arranged in said environment where at least one person (20) is present, detto gruppo di rilevamento e tracciamento (12) comprendendo una prima videocamera (21), configurata per acquisire immagini di detto ambiente comprendenti detta persona (20) e per convertire dette immagini in almeno un flusso video (22), e un primo dispositivo di elaborazione (61) operativamente collegato a detta prima videocamera (21),said detection and tracking unit (12) comprising a first video camera (21), configured to acquire images of said environment including said person (20) and to convert said images into at least one video stream (22), and a first processing device (61) operatively connected to said first video camera (21), detto gruppo di riconoscimento facciale (14) comprendendo una seconda videocamera (35), configurata per acquisire immagini facciali di detta persona (20) posizionata di fronte ad essa e per convertire dette immagini facciali in almeno un flusso video (36, 37), e un secondo dispositivo di elaborazione (62) operativamente collegato a detta seconda videocamera (35),said facial recognition unit (14) comprising a second video camera (35), configured to acquire facial images of said person (20) positioned in front of it and to convert said facial images into at least one video stream (36, 37), and a second processing device (62) operatively connected to said second video camera (35), caratterizzato dal fatto checharacterized in that detto gruppo di rilevamento e tracciamento (12) comprende ulteriormente:said detection and tracking group (12) further comprises: - un modulo di impostazione posizione (24) configurato per impostare rispettive coordinate spaziali (26) di una pluralit? di punti di interesse (18) presenti in detto ambiente, a partire da detto flusso video (22);- a position setting module (24) configured to set respective spatial coordinates (26) of a plurality? of points of interest (18) present in said environment, starting from said video stream (22); - un modulo di rilevamento personale (23) configurato per rilevare detta persona (20) presente in detto ambiente, a partire da detto flusso video (22), e per restituire un primo insieme di informazioni (25) riguardante detta persona (20) rilevata in detto ambiente;- a personal detection module (23) configured to detect said person (20) present in said environment, starting from said video stream (22), and to return a first set of information (25) concerning said detected person (20) in said environment; - un modulo di tracciamento personale (27) configurato per tracciare posizione ed eventuali spostamenti di detta persona (20) rilevata in detto ambiente, a partire da detto flusso video (22) e da detto primo insieme di informazioni (25), e per restituire un secondo insieme di informazioni (29) riguardante detti posizione ed eventuali spostamenti di detta persona (20) tracciata in detto ambiente; e- a personal tracking module (27) configured to track the position and possible movements of said person (20) detected in said environment, starting from said video stream (22) and from said first set of information (25), and to return a second set of information (29) concerning said position and possible movements of said person (20) traced in said environment; And - un modulo di associazione (28) configurato per associare detta persona (20) ad un punto di interesse (18) pi? vicino, a partire da dette coordinate spaziali (26) di detti punti di interesse (18) presenti in detto ambiente e da detto secondo insieme di informazioni (29), e per restituire un terzo insieme di informazioni (31) riguardante sia detti posizione ed eventuali spostamenti di detta persona (20) tracciata in detto ambiente sia detta associazione di detta persona (20) a detto punto di interesse (18) pi? vicino;- an association module (28) configured to associate said person (20) with a point of interest (18) more? nearby, starting from said spatial coordinates (26) of said points of interest (18) present in said environment and from said second set of information (29), and to return a third set of information (31) concerning both said position and possible movements of said person (20) traced in said environment is said association of said person (20) to said point of interest (18) more? Neighbor; detto gruppo di riconoscimento facciale (14) comprende:said facial recognition group (14) comprises: - un modulo di rilevamento facciale (39) configurato per rilevare il volto di detta persona (20) posizionata di fronte a detta seconda videocamera (35), a partire da detto flusso video (37), e per restituire un quarto insieme di informazioni (40) riguardante detto volto di detta persona (20) rilevato di fronte a detta seconda videocamera (35);- a facial detection module (39) configured to detect the face of said person (20) positioned in front of said second video camera (35), starting from said video stream (37), and to return a fourth set of information ( 40) concerning said face of said person (20) detected in front of said second video camera (35); - un modulo di incorporamento facciale (42) configurato per calcolare una stringa numerica di incorporamento facciale, a partire da detto quarto insieme di informazioni (40), e per restituire detta stringa numerica di incorporamento facciale;- a face embedding module (42) configured to calculate a face embed numeric string, starting from said fourth set of information (40), and to return said face embed numeric string; - una base di dati comprendente informazioni relative ad ogni persona (20) conosciuta dove ricercare una corrispondenza a detta stringa numerica di incorporamento facciale, restituendo un insieme di informazioni identificative/anagrafiche (44) di detta persona (20) riconosciuta, detto insieme di informazioni (44) essendo recuperato da detta base di dati; e - un modulo di controllo configurato per accoppiare detto insieme di informazioni identificative/anagrafiche (44) di detta persona (20) riconosciuta a detto punto di interesse (18) pi? vicino ad essa associato, tramite detto terzo insieme di informazioni (31).- a database comprising information relating to each known person (20) where to search for a match to said facial embedding numerical string, returning a set of identification/personal data (44) of said recognized person (20), said set of information (44) being retrieved from said database; and - a control module configured to couple said set of identification/personal information (44) of said recognized person (20) to said point of interest (18) more? close to it associated, through said third set of information (31). 2. Sistema (10) di identificazione di persone in un ambiente secondo la rivendicazione 1, comprendente una pluralit? di gruppi di rilevamento e tracciamento (12), dove ogni gruppo di rilevamento e tracciamento (12) ? disposto in un rispettivo ambiente, caratterizzato dal fatto che comprende ulteriormente un modulo di sincronizzazione multi-ambientale (30) configurato per sincronizzare detti gruppi di rilevamento e tracciamento (12), in modo da tracciare detta persona (20) in movimento tra ambienti diversi.The system (10) for identifying persons in an environment according to claim 1, comprising a plurality of of tracking and tracing groups (12), where each tracking and tracing group (12) ? arranged in a respective room, characterized in that it further comprises a multi-room synchronization module (30) configured to synchronize said detection and tracking groups (12), so as to track said person (20) moving between different rooms. 3. Sistema (10) di identificazione di persone in un ambiente secondo la rivendicazione 1 o 2, caratterizzato dal fatto che detto gruppo di riconoscimento facciale (14) comprende ulteriormente un modulo di vitalit? facciale (38) configurato per verificare la vitalit? di detto volto di detta persona (20) rilevato di fronte a detta seconda videocamera (35), a partire da detto flusso video (36) e da detto quarto insieme di informazioni (40), e per restituire un esito (46) di detta verifica.3. System (10) for identifying persons in an environment according to claim 1 or 2, characterized in that said facial recognition unit (14) further comprises a vitality module; facial (38) configured to verify the vitality? of said face of said person (20) detected in front of said second video camera (35), starting from said video stream (36) and from said fourth set of information (40), and to return an outcome (46) of said verify. 4. Sistema (10) di identificazione di persone in un ambiente secondo la rivendicazione 3, caratterizzato dal fatto che detto modulo di controllo ? ulteriormente configurato per eseguire una verifica preliminare (51) sull?attendibilit? di detta persona (20) posizionata di fronte a detta seconda videocamera (35).4. System (10) for identifying people in an environment according to claim 3, characterized in that said control module ? further configured to perform a preliminary check (51) on? of said person (20) positioned in front of said second video camera (35). 5. Sistema (10) di identificazione di persone in un ambiente secondo una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto che detto gruppo di riconoscimento facciale (14) comprende ulteriormente un modulo di calcolo orientamento (41) configurato per calcolare l?orientamento (45) di detto volto di detta persona (20) rilevato di fronte a detta seconda videocamera (35), a partire da detto quarto insieme di informazioni (40), e per restituire detto orientamento (45) di detto volto.5. System (10) for identifying people in an environment according to any one of the preceding claims, characterized in that said facial recognition unit (14) further comprises an orientation calculation module (41) configured to calculate orientation (45 ) of said face of said person (20) detected in front of said second video camera (35), starting from said fourth set of information (40), and to return said orientation (45) of said face. 6. Sistema (10) di identificazione di persone in un ambiente secondo una qualsiasi delle rivendicazioni precedenti, caratterizzato dal fatto che detti dispositivi di elaborazione (61, 62) sono implementati per l?edge computing, elaborando detti flussi video (22, 36, 37) e i successivi insiemi di informazioni (25, 29, 31, 40) in prossimit? di dette rispettive videocamere (21, 35).6. System (10) for identifying people in an environment according to any one of the preceding claims, characterized in that said processing devices (61, 62) are implemented for edge computing, processing said video streams (22, 36, 37) and subsequent sets of information (25, 29, 31, 40) in the vicinity? of said respective video cameras (21, 35). 7. Metodo di identificazione di persone in un ambiente, tramite almeno un gruppo di rilevamento e tracciamento (12) e almeno un gruppo di riconoscimento facciale (14) reciprocamente collegati e in comunicazione tramite una rete di comunicazione telematica (16), detto gruppo di rilevamento e tracciamento (12) essendo disposto in detto ambiente dove almeno una persona (20) ? presente,7. Method of identifying people in an environment, through at least one detection and tracking group (12) and at least one facial recognition group (14) mutually connected and in communication via a telematic communication network (16), said group of detection and tracking (12) being arranged in said environment where at least one person (20) ? present, detto gruppo di rilevamento e tracciamento (12) comprendendo una prima videocamera (21) e un primo dispositivo di elaborazione (61) operativamente collegato a detta prima videocamera (21),said detection and tracking unit (12) comprising a first video camera (21) and a first processing device (61) operatively connected to said first video camera (21), detto gruppo di riconoscimento facciale (14) comprendendo una seconda videocamera (35) e un secondo dispositivo di elaborazione (62) operativamente collegato a detta seconda videocamera (35),said facial recognition unit (14) comprising a second video camera (35) and a second processing device (62) operatively connected to said second video camera (35), caratterizzato dal fatto che comprende i passi che consistono nel:characterized by the fact that it includes the steps which consist of: - acquisire (65) immagini di detto ambiente comprendenti detta persona (20) e convertire dette immagini in almeno un flusso video (22), tramite detta prima videocamera (21);- acquiring (65) images of said environment including said person (20) and converting said images into at least one video stream (22), by means of said first video camera (21); - impostare (66) rispettive coordinate spaziali (26) di una pluralit? di punti di interesse (18) presenti in detto ambiente, a partire da detto flusso video (22), tramite un modulo di impostazione posizione (24) compreso in detto gruppo di rilevamento e tracciamento (12);- set (66) respective spatial coordinates (26) of a plurality? of points of interest (18) present in said environment, starting from said video stream (22), through a position setting module (24) included in said detection and tracking group (12); - rilevare (67) detta persona (20) presente in detto ambiente, a partire da detto flusso video (22), e restituire un primo insieme di informazioni (25) riguardante detta persona (20) rilevata in detto ambiente, tramite un modulo di rilevamento personale (23) compreso in detto gruppo di rilevamento e tracciamento (12);- detecting (67) said person (20) present in said environment, starting from said video stream (22), and returning a first set of information (25) concerning said person (20) detected in said environment, through a form of personal detection (23) included in said detection and tracking assembly (12); - tracciare (68) posizione ed eventuali spostamenti di detta persona (20) rilevata in detto ambiente, a partire da detto flusso video (22) e da detto primo insieme di informazioni (25), e restituire un secondo insieme di informazioni (29) riguardante detti posizione ed eventuali spostamenti di detta persona (20) tracciata in detto ambiente, tramite un modulo di tracciamento personale (27) compreso in detto gruppo di rilevamento e tracciamento (12);- trace (68) the position and possible movements of said person (20) detected in said environment, starting from said video stream (22) and from said first set of information (25), and return a second set of information (29) concerning said position and possible movements of said person (20) traced in said environment, by means of a personal tracking module (27) included in said detection and tracking group (12); - associare (69) detta persona (20) ad un punto di interesse (18) pi? vicino, a partire da dette coordinate spaziali (26) di detti punti di interesse (18) presenti in detto ambiente e da detto secondo insieme di informazioni (29), e restituire un terzo insieme di informazioni (31) riguardante sia detti posizione ed eventuali spostamenti di detta persona (20) tracciata in detto ambiente sia detta associazione di detta persona (20) a detto punto di interesse (18) pi? vicino, tramite un modulo di associazione (28) compreso in detto gruppo di rilevamento e tracciamento (12);- associate (69) said person (20) to a point of interest (18) more? nearby, starting from said spatial coordinates (26) of said points of interest (18) present in said environment and from said second set of information (29), and return a third set of information (31) concerning both said position and any movements of said person (20) traced in said environment is said association of said person (20) to said point of interest (18) more? nearby, through an association module (28) included in said detection and tracking unit (12); - acquisire (70) immagini facciali di detta persona (20) posizionata di fronte a detta seconda videocamera (35) e convertire dette immagini facciali in almeno un flusso video (36, 37), tramite detta seconda videocamera (35);- acquiring (70) facial images of said person (20) positioned in front of said second video camera (35) and converting said facial images into at least one video stream (36, 37), by means of said second video camera (35); - rilevare (71) il volto di detta persona (20) posizionata di fronte a detta seconda videocamera (35), a partire da detto flusso video (37), e restituire un quarto insieme di informazioni (40) riguardante detto volto di detta persona (20) rilevato di fronte a detta seconda videocamera (35), tramite un modulo di rilevamento facciale (39) compreso in detto gruppo di riconoscimento facciale (14);- detecting (71) the face of said person (20) positioned in front of said second video camera (35), starting from said video stream (37), and returning a fourth set of information (40) concerning said face of said person (20) detected in front of said second video camera (35), by means of a facial detection module (39) included in said facial recognition group (14); - calcolare (72) una stringa numerica di incorporamento facciale, a partire da detto quarto insieme di informazioni (40), e restituire detta stringa numerica di incorporamento facciale, tramite un modulo di incorporamento facciale (42) compreso in detto gruppo di riconoscimento facciale (14);- calculating (72) a facial embedding numerical string, starting from said fourth set of information (40), and returning said facial embedding numerical string, through a facial embedding module (42) included in said facial recognition group ( 14); - ricercare (73) una corrispondenza a detta stringa numerica di incorporamento facciale in una base di dati compresa in detto gruppo di riconoscimento facciale (14) e comprendente informazioni relative ad ogni persona (20) conosciuta, restituendo un insieme di informazioni identificative/anagrafiche (44) di detta persona (20) riconosciuta, detto insieme di informazioni (44) essendo recuperato da detta base di dati; e - accoppiare (76) detto insieme di informazioni identificative/anagrafiche (44) di detta persona (20) riconosciuta a detto punto di interesse (18) pi? vicino ad essa associato, tramite detto terzo insieme di informazioni (31), tramite un modulo di controllo compreso in detto gruppo di riconoscimento facciale (14).- searching (73) for a correspondence to said facial embedding numerical string in a database included in said facial recognition group (14) and including information relating to each known person (20), returning a set of identification/personal data ( 44) of said recognized person (20), said set of information (44) being retrieved from said database; and - coupling (76) said set of identification/personal information (44) of said recognized person (20) to said point of interest (18) more? associated near it, through said third set of information (31), through a control module included in said facial recognition unit (14). 8. Metodo di identificazione di persone in un ambiente secondo la rivendicazione 7, caratterizzato dal fatto che comprende ulteriormente il passo che consiste nel sincronizzare una pluralit? di gruppi di rilevamento e tracciamento (12), dove ogni gruppo di rilevamento e tracciamento (12) ? disposto in un rispettivo ambiente, in modo da tracciare detta persona (20) in movimento tra ambienti diversi, tramite un modulo di sincronizzazione multiambientale (30).8. Method of identifying persons in an environment according to claim 7, characterized in that it further comprises the step which consists in synchronizing a plurality? of tracking and tracing groups (12), where each tracking and tracing group (12) ? arranged in a respective environment, so as to track said person (20) moving between different environments, via a multi-environment synchronization module (30). 9. Metodo di identificazione di persone in un ambiente secondo la rivendicazione 7 o 8, caratterizzato dal fatto che comprende ulteriormente il passo che consiste nel verificare (74) la vitalit? di detto volto di detta persona (20) rilevato di fronte a detta seconda videocamera (35), a partire da detto flusso video (36) e da detto quarto insieme di informazioni (40), e restituire un esito (46) di detta verifica, tramite un modulo di vitalit? facciale (38) compreso in detto gruppo di riconoscimento facciale (14).9. Method of identifying people in an environment according to claim 7 or 8, characterized in that it further comprises the step which consists in verifying (74) the vitality? of said face of said person (20) detected in front of said second video camera (35), starting from said video stream (36) and from said fourth set of information (40), and returning a result (46) of said verification , through a form of vitality? facial (38) included in said facial recognition unit (14). 10. Metodo di identificazione di persone in un ambiente secondo la rivendicazione 9, caratterizzato dal fatto che comprende ulteriormente il passo che consiste nell?eseguire una verifica preliminare (51) sull?attendibilit? di detta persona (20) posizionata di fronte a detta seconda videocamera (35), tramite detto modulo di controllo di detto gruppo di riconoscimento facciale (14).10. Method of identifying people in an environment according to claim 9, characterized in that it further comprises the step which consists in carrying out a preliminary check (51) on the reliability of said person (20) positioned in front of said second video camera (35), via said control module of said facial recognition group (14). 11. Metodo di identificazione di persone in un ambiente secondo una qualsiasi delle rivendicazioni da 7 a 10, caratterizzato dal fatto che comprende ulteriormente il passo che consiste nel calcolare (75) l?orientamento (45) di detto volto di detta persona (20) rilevato di fronte a detta seconda videocamera (35), a partire da detto quarto insieme di informazioni (40), e restituire detto orientamento (45) di detto volto, tramite un modulo di calcolo orientamento (41) compreso detto gruppo di riconoscimento facciale (14). 11. Method of identifying people in an environment according to any one of claims 7 to 10, characterized in that it further comprises the step which consists in calculating (75) the orientation (45) of said face of said person (20) detected in front of said second video camera (35), starting from said fourth set of information (40), and return said orientation (45) of said face, by means of an orientation calculation module (41) including said facial recognition unit ( 14).
IT102021000017468A 2021-07-05 2021-07-05 SYSTEM AND METHOD OF IDENTIFYING PEOPLE IN AN ENVIRONMENT. IT202100017468A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
IT102021000017468A IT202100017468A1 (en) 2021-07-05 2021-07-05 SYSTEM AND METHOD OF IDENTIFYING PEOPLE IN AN ENVIRONMENT.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102021000017468A IT202100017468A1 (en) 2021-07-05 2021-07-05 SYSTEM AND METHOD OF IDENTIFYING PEOPLE IN AN ENVIRONMENT.

Publications (1)

Publication Number Publication Date
IT202100017468A1 true IT202100017468A1 (en) 2023-01-05

Family

ID=77910938

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102021000017468A IT202100017468A1 (en) 2021-07-05 2021-07-05 SYSTEM AND METHOD OF IDENTIFYING PEOPLE IN AN ENVIRONMENT.

Country Status (1)

Country Link
IT (1) IT202100017468A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075464A1 (en) * 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075464A1 (en) * 2010-09-23 2012-03-29 Stryker Corporation Video monitoring system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FENG G C ET AL: "Recognition of Head-&-Shoulder Face Image Using Virtual Frontal-View Image", IEEE TRANSACTIONS ON SYSTEMS, MAN AND CYBERNETICS. PART A:SYSTEMS AND HUMANS, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 30, no. 6, 1 November 2000 (2000-11-01), XP011056349, ISSN: 1083-4427 *
SAPTARSHI CHAKRABORTY ET AL: "An Overview of Face Liveness Detection", INTERNATIONAL JOURNAL ON INFORMATION THEORY, vol. 3, no. 2, 30 April 2014 (2014-04-30), pages 11 - 25, XP055421188, ISSN: 2320-8465, DOI: 10.5121/ijit.2014.3202 *

Similar Documents

Publication Publication Date Title
CN102197412B (en) Spoofing detection system, spoofing detection method and spoofing detection program
CN110045823B (en) Motion guidance method and device based on motion capture
US9390334B2 (en) Number of persons measurement device
JP2007317062A (en) Person recognition apparatus and method
US10019624B2 (en) Face recognition system and face recognition method
JPWO2012077286A1 (en) Object detection apparatus and object detection method
JP2009248193A (en) Reception system and reception method
WO2020230340A1 (en) Facial recognition system, facial recognition method, and facial recognition program
US20230162533A1 (en) Information processing device, information processing method, and program
CN107341443A (en) Method for processing video frequency, device and storage medium
BR112021018149A2 (en) Facial recognition spoofing detection with mobile devices
CN108921881A (en) A kind of across camera method for tracking target based on homography constraint
Moon et al. A new human identification method for intelligent video surveillance system
CN101364257B (en) Human face recognizing method for recognizing image origin
JP2018061114A (en) Monitoring device and monitoring method
CN107038783A (en) One kind is applied to building receptionist's system
JP2023024519A (en) Information processing device
IT202100017468A1 (en) SYSTEM AND METHOD OF IDENTIFYING PEOPLE IN AN ENVIRONMENT.
TW200707310A (en) Facial recognition method based on recognition of facial features
CN105979161B (en) Light measuring method, apparatus and system when taking pictures
JP2005250692A (en) Method for identifying object, method for identifying mobile object, program for identifying object, program for identifying mobile object, medium for recording program for identifying object, and medium for recording program for identifying traveling object
EP4052150A1 (en) Fast face image capture system
CN205540990U (en) Patrol system based on face identification
US20160292523A1 (en) Method and apparatus for identifying a person by measuring body part distances of the person
CN208563157U (en) Gate