FR3019926A1 - METHOD AND DEVICE FOR DETECTING OCCUPANCY OF A ZONE, AND METHOD AND SYSTEM FOR MANAGING QUEUE QUEUE IMPLEMENTING SAID METHOD AND DEVICE - Google Patents

METHOD AND DEVICE FOR DETECTING OCCUPANCY OF A ZONE, AND METHOD AND SYSTEM FOR MANAGING QUEUE QUEUE IMPLEMENTING SAID METHOD AND DEVICE Download PDF

Info

Publication number
FR3019926A1
FR3019926A1 FR1453362A FR1453362A FR3019926A1 FR 3019926 A1 FR3019926 A1 FR 3019926A1 FR 1453362 A FR1453362 A FR 1453362A FR 1453362 A FR1453362 A FR 1453362A FR 3019926 A1 FR3019926 A1 FR 3019926A1
Authority
FR
France
Prior art keywords
image
interest
value
distance
rgb
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1453362A
Other languages
French (fr)
Other versions
FR3019926B1 (en
Inventor
Frederic Rieux
David Gelly
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ESII SAS
Original Assignee
ESII SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ESII SAS filed Critical ESII SAS
Priority to FR1453362A priority Critical patent/FR3019926B1/en
Publication of FR3019926A1 publication Critical patent/FR3019926A1/en
Application granted granted Critical
Publication of FR3019926B1 publication Critical patent/FR3019926B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

La présente invention concerne un procédé (200) de détection d'occupation d'une zone d'intérêt, comprenant une étape (102) d'obtention d'une image, dite référence, au format RGB de la zone d'intérêt, et au moins une itération d'une phase (110) de détection, comprenant les étapes suivantes : - obtention (112) d'une nouvelle image au format RGB de la zone d'intérêt ; - calcul (122-124) d'une distance entre au moins une des composantes RGB de ladite nouvelle image et au moins une des composantes RGB de ladite image de référence, et - détermination (126) de l'occupation ou non de ladite au moins une zone d'intérêt par comparaison de ladite valeur de distance calculée avec une valeur seuil de distance prédéterminée.The present invention relates to a method (200) for detecting the occupancy of an area of interest, comprising a step (102) of obtaining an image, referred to as a reference, in the RGB format of the area of interest, and at least one iteration of a detection phase (110), comprising the following steps: - obtaining (112) a new RGB-format image of the area of interest; calculating (122-124) a distance between at least one of the RGB components of said new image and at least one of the RGB components of said reference image, and determining (126) whether or not the said RGB component is occupied. least one area of interest by comparing said calculated distance value with a predetermined distance threshold value.

Description

- 1 - « Procédé et dispositif pour la détection d'occupation d'une zone, et procédé et système de gestion de file d'attente mettant en oeuvre de tels procédé et dispositif » Domaine technique La présente invention concerne un procédé de détection de l'occupation d'une zone. Elle concerne également un dispositif mettant en oeuvre un tel procédé, et un procédé et un système de gestion d'une file d'attente commune à plusieurs points de service mettant en oeuvre de tels procédé et dispositif. Le domaine de l'invention est plus particulièrement, le domaine de la détection de l'occupation d'une zone, plus particulièrement d'une zone d'un point de service et/ou d'une file d'attente commune à plusieurs points de service et la gestion d'une file d'attente commune à plusieurs points de service. Etat de la technique Il existe de nombreux domaines dans lesquels la détection de l'occupation d'une zone présente une information importante permettant de 20 prendre des décisions pour le début, la fin ou la suite d'un processus. Parmi ces domaines, on peut citer celui des sites, par exemple les supermarchés, dans lesquels plusieurs points de service, par exemple des caisses, traitent les demandes de plusieurs personnes formant une file d'attente commune à ces points de service. Un tel fonctionnement nécessite 25 la détection de la disponibilité de chacun des points de service en service pour signaler aux personnes attendant dans la file d'attente commune de se diriger vers un point service disponible. Il existe des procédés et systèmes manuels de la signalisation de la disponibilité d'une caisse dans les supermarchés. Ces systèmes, déjà en 30 service, présentent des inconvénients qui ont poussé les acteurs de ce domaine à s'orienter vers des systèmes de détection automatisée de la disponibilité d'une caisse. Dans ces systèmes, un point crucial consiste en la détection de l'occupation d'une caisse de manière automatisée, cette - 2 - information d'occupation étant capitale pour déterminer la disponibilité ou non d'une caisse. Certains de ces systèmes automatisés mettant en oeuvre des capteurs, par exemple infrarouges ou ultrasons, disposés au niveau de chacune des 5 caisses en périphérie du tapis de caisse ou dans le couloir d'une caisse, permettent de déterminer de matière automatisée l'occupation du tapis, respectivement du couloir, de la caisse. Cependant l'installation de ces capteurs nécessite de modifier la caisse. De plus, il est nécessaire d'équiper chaque zone de surveillance autour de la caisse de tels capteurs, ce qui 10 représente une installation longue et coûteuse, et nécessite une immobilisation de la caisse lors de l'installation des capteurs et lors de chaque opération de maintenance. Dans d'autres systèmes automatisés, les capteurs sont remplacés par des caméras. Cependant ces systèmes s'avèrent peu efficaces au niveau de 15 la détection, et présentent un taux d'erreur important. De plus leur efficacité varie en fonction de l'environnement dans lequel ils sont utilisés. Un but de la présente invention est de remédier aux inconvénients précités. 20 Un but de la présente invention est de proposer un procédé et un dispositif de détection d'occupation moins couteux à installer/entretenir tout en présentant moins de taux d'erreur et s'adaptant à l'environnement. Un autre but de la présente invention est de proposer un procédé et un dispositif de détection d'occupation plus efficace que les systèmes connus 25 sans nécessiter une modification de l'environnement d'utilisation. Encore un autre but de la présente invention est de proposer un procédé et un dispositif de détection d'occupation flexible et personnalisable à chaque environnement. 30 Exposé de l'invention L'invention permet d'atteindre au moins un de ces objectifs par un procédé de détection d'occupation d'au moins une zone, dite d'intérêt, ledit procédé comprenant une étape d'obtention d'une image, dite référence, au - 3 - format RGB de ladite au moins une zone d'intérêt, et au moins une itération d'une phase, dite de détection, comprenant les étapes suivantes : - obtention d'une nouvelle image au format RGB de ladite au moins une zone d'intérêt ; - calcul d'une valeur, dite distance, relative à une différence entre au moins une des composantes RGB de ladite nouvelle image et ladite au moins une des composantes RGB de ladite image de référence, et - détermination de l'occupation ou non de ladite au moins une zone d'intérêt par comparaison de ladite valeur de distance calculée avec une valeur seuil de distance prédéterminée. Ainsi, le procédé selon l'invention permet de réaliser une détection d'un objet ou d'une personne dans une zone d'intérêt par comparaison d'au moins une des composantes RGB de l'image pour ladite zone d'intérêt avec 15 la même composante RGB d'une image de référence de la zone d'intérêt. Un tel procédé de détection selon l'invention propose de réaliser une détection d'occupation basée sur des images de la zone d'intérêt, prises par un moyen capteur qui peut être disposé à distance de la zone d'intérêt. Ainsi, le procédé selon l'invention ne nécessite pas ou très peu de modification de 20 la zone d'intérêt, ou l'environnement adjacent de la zone d'intérêt. De plus, le procédé évite une immobilisation de la zone d'intérêt lors d'une opération d'installation ou de maintenance. Par ailleurs, le fait de disposer un capteur d'image à distance de la zone d'intérêt permet de protéger le capteur contre les dégradations qui peuvent être causées par les objets/personnes 25 présentes dans la zone d'intérêt, ce qui diminue les frais de maintenance. Le procédé selon l'invention propose de réaliser une détection en comparant une/des composantes individuelles RGB de deux images de la zone d'intérêt. Les inventeurs ont découvert qu'une telle comparaison permet de fournir une détection avec un taux d'erreur plus faible et une 30 efficacité plus grande, par rapport à une comparaison de deux images prises dans leur globalité. Par ailleurs, la détection d'occupation selon l'invention est basée sur deux images de la zone d'intérêt et non sur des paramètres de détection - 4 - externes ou des relations préétablies indépendantes de l'environnement de la zone d'intérêt. Par conséquent, le procédé de détection d'occupation est flexible et adaptable à chaque environnement.FIELD OF THE INVENTION The present invention relates to a method for detecting the occupancy of a zone, and to a method and system for managing a queue using such method and device. occupation of an area. It also relates to a device implementing such a method, and a method and a management system of a queue common to several service points implementing such method and device. The field of the invention is more particularly the field of detection of the occupation of a zone, more particularly of a zone of a service point and / or of a common queue at several points. service and management of a common queue at multiple service points. STATE OF THE ART There are many areas in which the detection of zone occupancy has important information for making decisions for the beginning, the end, or the continuation of a process. These areas include sites, such as supermarkets, in which several points of service, such as cash desks, handle the requests of several persons forming a common queue at these points of service. Such operation requires the detection of the availability of each of the service points of service to signal people waiting in the common queue to go to an available service point. There are manual processes and systems for signaling the availability of cash in supermarkets. These systems, already in use, have drawbacks that have pushed the players in this field to move towards automated detection systems of the availability of a box. In these systems, a crucial point is the detection of the occupancy of a cash register in an automated manner, this occupancy information being crucial to determine the availability or not of a cash register. Some of these automated systems employing sensors, for example infrared or ultrasound, arranged at each of the five boxes at the periphery of the cash register or in the corridor of a cash register, make it possible to determine the automated carpets, respectively of the corridor, of the box. However the installation of these sensors requires to modify the box. In addition, it is necessary to equip each surveillance zone around the body of such sensors, which represents a long and expensive installation, and requires immobilization of the body during the installation of the sensors and during each operation. of maintenance. In other automated systems, the sensors are replaced by cameras. However, these systems are not very effective at the detection level, and have a high error rate. Moreover their effectiveness varies according to the environment in which they are used. An object of the present invention is to overcome the aforementioned drawbacks. It is an object of the present invention to provide a less costly method and occupancy detection device to be installed / maintained while having less error rates and adapting to the environment. Another object of the present invention is to provide a more efficient method and occupancy detecting device than known systems without requiring modification of the environment of use. Yet another object of the present invention is to provide a method and a device for occupancy detection flexible and customizable to each environment. SUMMARY OF THE INVENTION The invention makes it possible to achieve at least one of these objectives by a method for detecting the occupation of at least one zone, said to be of interest, said method comprising a step of obtaining a image, called reference, in the RGB format of said at least one zone of interest, and at least one iteration of a phase, called detection phase, comprising the following steps: obtaining a new image in RGB format said at least one area of interest; calculating a value, called said distance, relating to a difference between at least one of the RGB components of said new image and said at least one of the RGB components of said reference image, and determining whether the said image is occupied or not at least one area of interest by comparing said calculated distance value with a predetermined distance threshold value. Thus, the method according to the invention makes it possible to detect an object or a person in an area of interest by comparing at least one of the RGB components of the image for said area of interest with the object. the same RGB component of a reference image of the area of interest. Such a detection method according to the invention proposes to perform occupancy detection based on images of the area of interest, taken by a sensor means which can be arranged at a distance from the area of interest. Thus, the method according to the invention does not require or very little modification of the area of interest, or the adjacent environment of the area of interest. In addition, the method avoids immobilization of the area of interest during an installation or maintenance operation. Furthermore, having an image sensor remote from the area of interest makes it possible to protect the sensor against the damage that can be caused by the objects / persons present in the area of interest, which reduces the maintenance fee. The method according to the invention proposes to carry out a detection by comparing one / the individual RGB components of two images of the area of interest. The inventors have discovered that such a comparison makes it possible to provide a detection with a lower error rate and a higher efficiency, compared to a comparison of two images taken as a whole. Furthermore, the occupancy detection according to the invention is based on two images of the area of interest and not on external detection parameters or pre-established relationships independent of the environment of the area of interest. As a result, the occupancy detection method is flexible and adaptable to each environment.

Avantageusement, au moins une étape d'obtention d'une image d'au moins une zone d'intérêt peut comprendre une étape de sélection de ladite zone d'intérêt dans une image comprenant la zone d'intérêt. Une telle sélection peut être réalisée de manière manuelle. Alternativement une telle sélection peut être réalisée de manière automatisée en définissant des points d'intérêt ou des marqueurs sur une image comprenant la zone d'intérêt. De tels points d'intérêts ou marqueurs peuvent correspondre à un/des éléments physiques distinctifs se trouvant dans l'environnement de la zone d'intérêts et apparaissant sur l'image comprenant la zone d'intérêt.Advantageously, at least one step of obtaining an image of at least one zone of interest may comprise a step of selecting said zone of interest in an image comprising the zone of interest. Such a selection can be done manually. Alternatively, such a selection can be performed automatically by defining points of interest or markers on an image comprising the area of interest. Such points of interest or markers may correspond to a distinctive physical element (s) in the environment of the area of interest and appearing on the image comprising the area of interest.

Avantageusement, au moins une étape d'obtention d'une image de la zone d'intérêt au format RGB peut être réalisée suivant l'une des options suivantes : - une étape de prise d'image au format RGB, - une sélection d'une image au format RBG dans un flux d'image au format RGB, - une étape de prise d'image à un autre format que le format RGB et une étape de conversation dudit autre format vers le format RGB, ou - une sélection d'une image dans un flux d'image à un autre format que le format RGB et une étape de conversation dudit autre format vers le format RGB. Avantageusement, suivant un exemple de réalisation préféré du 30 procédé selon l'invention : - lorsque la valeur de distance calculée est supérieure à la valeur seuil, la phase de détection comprend en outre une étape de signalisation d'une occupation de la zone d'intérêt, et - 5 - - lorsque la valeur de distance calculée est inférieure à la valeur seuil, la phase de détection comprend en outre une étape de signalisation d'une non-occupation de la zone d'intérêt. Avantageusement, la valeur seuil peut être déterminée préalablement 5 pour la/chaque zone d'intérêt lors d'une phase d'initialisation, à chaque démarrage du procédé selon l'invention. De plus, l'image de référence pour la zone d'intérêt peut avantageusement être prise à chaque démarrage du procédé selon 10 l'invention. Par exemple, dans le cas d'une utilisation pour la détection d'une occupation d'une caisse d'un supermarché, la zone d'intérêt peut être une zone couvrant au moins une partie d'un tapis et/ou d'un couloir de la caisse. Dans ce cas, lorsque le procédé est arrêté et redémarré entre deux plages horaires l'image de référence est une image prise à chaque démarrage du 15 procédé. De cette manière, le procédé selon l'invention permet de réaliser une détection plus flexible et plus personnalisée pour chaque zone d'intérêt, quels que soient les changements d'aménagements réalisés dans la zone d'intérêt ou dans son environnement proche. 20 Dans une version préférée du procédé selon l'invention, l'étape de calcul peut comprendre un calcul d'une valeur de distance pour chacune des trois composantes RGB de ladite nouvelle image et de ladite image de référence. 25 Dans ce cas, pour l'image i, l'étape de calcul fournit une valeur de distance, calculée par rapport à l'image de référence, pour chacune des composantes RGB, à savoir : une distance pour la composante R, notée DR, dans la suite ; une distance pour la composante G, notée DG, j dans la suite ; et 30 une distance pour la composante B, notée DB, j dans la suite. Dans cette version préférée, l'étape de détermination de l'occupation est alors réalisée en fonction desdites trois valeurs de distance. - 6 - En particulier, l'étape de détermination de l'occupation peut être réalisée en fonction d'une moyenne des trois distances ainsi calculée. Dans ce cas, le procédé selon l'invention comprend, lors de l'étape de calcul ou l'étape de détermination de l'occupation, une étape de calcul de la moyenne des trois distances. La moyenne des distances pour la nouvelle image i, peut être calculée selon la relation suivante : DR,; = ' 3 Avantageusement, pour au moins une composante RGB, le calcul de la 10 distance peut comprendre, pour au moins un, préférentiellement chaque pixel de l'image de référence, un calcul individuel d'une distance entre ledit pixel de l'image de référence et un pixel de la nouvelle image associé à un même point de la zone d'intérêt que ledit pixel de ladite image de référence. Dans ce cas, le calcul de distance pour une composante RGB peut être 15 réalisée par : - calcul d'une distance entre les pixels de l'image de référence et de la nouvelle image correspondant un même point de la région d'intérêt, et - sommation de toutes les distances calculées pour tous les points de la zone d'intérêt, i.e. pour tous les pixels de l'image de référence ou de 20 la nouvelle image. Autrement dit, le procédé comprend un calcul, de manière individuelle, de la distance entre un pixel de l'image de référence et le pixel de la nouvelle image correspondant au même point de la zone d'intérêt que le pixel de l'image de référence, et une sommation des distances obtenues de manière 25 individuelle pour tous les pixels de l'image de référence. Un tel calcul d'une distance individuelle pour un pixel de coordonnées (j,k) d'une composante RGB peut être réalisé par soustraction de la valeur du pixel (j,k) pour cette composante RGB de l'image de référence, de la valeur du pixel (j,k) pour cette composante RGB de la nouvelle image. 30 Dans une version particulièrement préférée mais nullement limitatif du procédé selon l'invention, le calcul de la valeur de distance pour au moins une, préférentiellement chaque, composante RGB peut prendre en compte - 7 - au moins un coefficient de pondération dont la valeur dépend de la luminosité de l'image de référence et/ou de la luminosité de la nouvelle image. Dans ce cas, le procédé selon l'invention peut en outre comprendre 5 une étape de calcul dudit au moins un coefficient de pondération L'utilisation d'un tel coefficient de pondération permet de rendre la détection plus robuste et moins sensible par rapport à la variation de la luminosité au niveau de la zone d'intérêt. 10 Préférentiellement, le coefficient de pondération peut être utilisé pour pondérer individuellement chaque pixel de l'image de référence et/ou de la nouvelle image pendant ou avant le calcul de la distance, que le calcul de la distance comprenne ou non un calcul de distance pour chaque pixel de manière individuelle. 15 Dans un mode de réalisation particulièrement préféré du procédé selon l'invention, le coefficient de pondération peut être calculé en fonction : - de la valeur de la composante V au formant HSV pour l'image de référence, en particulier pour au moins un, préférentiellement 20 chaque, pixel de ladite image de référence, et - de la valeur de la composante V au formant HSV pour la nouvelle image, en particulier pour au moins un, préférentiellement chaque, pixel de ladite nouvelle image. Plus précisément, le coefficient de pondération peut être égal au 25 rapport de ces deux valeurs. Préférentiellement, le coefficient de pondération peut être calculé pour chaque pixel individuellement, en fonction : - de la valeur de la composante V pour chaque pixel de l'image de 30 référence au formant HSV, et - de la valeur de la composante V pour chaque de la nouvelle image au formant HSV. Plus précisément, pour chaque pixel, le coefficient de pondération peut être égal au rapport de ces deux valeurs et la pondération peut être réalisée - 8 - pour chaque pixel de manière individuelle, pendant ou avant le calcul de la distance, pour ce pixel, entre l'image de référence et la nouvelle image. La valeur de la composante V de chaque pixel (j,k) d'une image peut 5 être obtenue en utilisant l'image au format RGB, et selon la relation suivante : V (j, k) = max(rj,k, g 1,k, bj,k) avec r,,k, g,,k, b,,k les valeurs respectivement des composantes R, G et B pour le pixel (j,k). Le coefficient de pondération pour un pixel peut alors être déterminé 10 selon la relation suivante : V U, k) de l'image de référence w(i'k) V(j, k)de la nouvelle image i Selon un exemple de réalisation préféré, mais nullement limitatif, pour une nouvelle image i, la valeur de distance pour une composante RGB peut être déterminée selon la relation suivante : N M DR ou G ou B,i = P/(Iref k) li(j,k).wi(j,k))P j=1 k=1 15 avec : (j,k) les coordonnées de chaque pixel dans l'image de référence, notée Ireff, et dans la nouvelle image i, notée I,, w,(j,k) le coefficient de pondération obtenu pour chaque pixel (j,k) en fonction des valeurs du paramètre y, et 20 p un entier quelconque, en général p=1 ou p=2, et préférentiellement p=2. Selon un autre mode de réalisation du procédé selon l'invention le coefficient de pondération peut être déterminé en fonction d'une valeur 25 d'historisation. Dans ce cas, pour au moins une, préférentiellement chaque, composante RGB, l'étape de calcul de l'au moins un coefficient de pondération peut comprendre une étape d'historisation de ladite composante - 9 - RGB de chaque image, ladite étape d'historisation comprenant pour ladite composante de chaque image : - un dénombrement du nombre de pixels présentant le même niveau de couleur, et ce pour chaque niveau de couleur ; et - une transformation en fréquence cumulée du résultat fourni par ledit dénombrement. L'étape d'historisation fournit alors, pour la composante RGB, une valeur d'historisation pour l'image de référence et une valeur d'historisation pour la nouvelle image. La valeur du coefficient de pondération pour la 10 composante est déterminée en fonction desdites valeurs d'historisation. Par exemple, la valeur du coefficient de pondération peut être l'écart type entre les valeurs d'historisation. Selon un exemple de réalisation, le dénombrement pour une, ou chaque, composante RGB d'une image peut être réalisé en comptant pour 15 chaque valeur de couleur comprise entre 0 et 255, le nombre de pixel présentant cette valeur. Le nombre de pixels obtenu pour chaque niveau de couleur peut ensuite être mémorisé. Selon un exemple de réalisation, pour une composante RGB d'une image, la transformation en fréquence cumulée du résultat fourni par l'étape 20 de dénombrement peut être réalisée par calcul de la probabilité qu'un pixel donné ait une couleur inférieure ou égale à chaque niveau de couleur. Dans le cas où la distance est calculée pour chaque composante RGB, une étape d'historisation est appliquée à chaque composante RGB de chaque image, en particulier de manière indépendante. Cette étape d'historisation 25 fournit une valeur d'historisation pour chaque composante RBG et pour chaque image, à savoir : - une valeur d'historisation pour la composante R de l'image de référence, notée HR,ref dans la suite ; - une valeur d'historisation pour la composante G de l'image de 30 référence, notée HG,ref dans la suite ; - une valeur d'historisation pour la composante B de l'image de référence, notée HB,ref dans la suite ; - une valeur d'historisation pour la composante R de la nouvelle image i, notée HR,,, dans la suite ; -10- - une valeur d'historisation pour la composante G de la nouvelle image i, notée HG,; dans la suite ; et - une valeur d'historisation pour la composante B de la nouvelle image i, notée H13,1 dans la suite.Advantageously, at least one step of obtaining an image of the area of interest in RGB format can be performed according to one of the following options: - a step of taking image in RGB format, - a selection of an image in RGB format in an image stream in RGB format, - an imaging step in a different format than the RGB format and a conversational step of said other format to the RGB format, or - a selection of an image in an image stream to another format than the RGB format and a conversational step of said other format to the RGB format. Advantageously, according to a preferred embodiment of the method according to the invention: when the calculated distance value is greater than the threshold value, the detection phase further comprises a signaling step of a zone occupation; interest, and when the calculated distance value is less than the threshold value, the detection phase further comprises a step of signaling a nonoccupancy of the zone of interest. Advantageously, the threshold value can be determined beforehand for the / each zone of interest during an initialization phase, at each start of the method according to the invention. In addition, the reference image for the zone of interest can advantageously be taken at each start of the process according to the invention. For example, in the case of a use for the detection of a supermarket checkout, the area of interest may be an area covering at least a portion of a carpet and / or a corridor of the cash register. In this case, when the process is stopped and restarted between two time periods, the reference image is an image taken at each start of the process. In this way, the method according to the invention makes it possible to achieve a more flexible and personalized detection for each zone of interest, whatever the changes of developments made in the area of interest or in its close environment. In a preferred version of the method according to the invention, the calculation step may comprise a calculation of a distance value for each of the three RGB components of said new image and said reference image. In this case, for the image i, the calculation step provides a distance value, calculated with respect to the reference image, for each of the RGB components, namely: a distance for the component R, denoted DR , in the following ; a distance for the component G, denoted DG, j in the following; and a distance for component B, denoted DB, j in the following. In this preferred version, the occupation determination step is then performed according to said three distance values. In particular, the occupation determination step can be performed based on an average of the three distances thus calculated. In this case, the method according to the invention comprises, during the calculation step or the step of determining the occupation, a step of calculating the average of the three distances. The average of the distances for the new image i, can be calculated according to the following relation: DR ,; Advantageously, for at least one RGB component, the calculation of the distance may comprise, for at least one, preferably each pixel of the reference image, an individual calculation of a distance between said pixel of the image. reference and a pixel of the new image associated with the same point of the area of interest as said pixel of said reference image. In this case, the distance calculation for an RGB component can be performed by: calculating a distance between the pixels of the reference image and the new image corresponding to the same point of the region of interest, and summation of all the distances calculated for all the points of the zone of interest, ie for all the pixels of the reference image or of the new image. In other words, the method comprises calculating, individually, the distance between a pixel of the reference image and the pixel of the new image corresponding to the same point of the zone of interest as the pixel of the image of the image. reference, and a summation of the distances obtained individually for all the pixels of the reference image. Such a calculation of an individual distance for a coordinate pixel (j, k) of an RGB component can be done by subtracting the value of the pixel (j, k) for this RGB component of the reference image, from the value of the pixel (j, k) for this RGB component of the new image. In a particularly preferred but non-limiting version of the method according to the invention, the calculation of the distance value for at least one, preferably each, RGB component may take into account at least one weighting coefficient whose value depends on the brightness of the reference image and / or the brightness of the new image. In this case, the method according to the invention may further comprise a step of calculating said at least one weighting coefficient. The use of such a weighting coefficient makes it possible to make the detection more robust and less sensitive compared to the variation of brightness at the level of the area of interest. Preferably, the weighting coefficient may be used to individually weight each pixel of the reference image and / or the new image during or before the calculation of the distance, whether or not the calculation of the distance includes a distance calculation. for each pixel individually. In a particularly preferred embodiment of the method according to the invention, the weighting coefficient can be calculated as a function of: from the value of the component V to the HSV formant for the reference image, in particular for at least one, preferably, each pixel of said reference image, and of the value of the component V to the HSV formation for the new image, in particular for at least one, preferably each, pixel of said new image. More precisely, the weighting coefficient may be equal to the ratio of these two values. Preferably, the weighting coefficient may be calculated for each pixel individually, as a function of: the value of the component V for each pixel of the reference image to the HSV formant, and the value of the component V for each from the new image to the HSV trainer. More precisely, for each pixel, the weighting coefficient can be equal to the ratio of these two values and the weighting can be performed for each pixel individually, during or before the calculation of the distance, for this pixel, between the reference image and the new image. The value of the component V of each pixel (j, k) of an image can be obtained by using the image in RGB format, and according to the following relation: V (j, k) = max (rj, k, g 1, k, bj, k) with r ,, k, g ,, k, b ,, k the values respectively of the components R, G and B for the pixel (j, k). The weighting coefficient for a pixel can then be determined according to the following relationship: VU, k) of the reference image w (i'k) V (j, k) of the new image i According to a preferred embodiment , but not limiting, for a new image i, the distance value for an RGB component can be determined according to the following relation: NM DR or G or B, i = P / (Iref k) li (j, k) .wi (j, k)) P j = 1 k = 1 with: (j, k) the coordinates of each pixel in the reference image, denoted Ireff, and in the new image i, denoted I ,, w, ( j, k) the weighting coefficient obtained for each pixel (j, k) as a function of the values of the parameter y, and p any integer, in general p = 1 or p = 2, and preferably p = 2. According to another embodiment of the method according to the invention the weighting coefficient can be determined according to a historization value. In this case, for at least one, preferably each, RGB component, the step of calculating the at least one weighting coefficient may comprise a step of historization of said component - 9 - RGB of each image, said step of historization comprising for said component of each image: a count of the number of pixels having the same level of color, and for each color level; and a cumulative frequency transformation of the result provided by said count. The logging step then provides, for the RGB component, a logging value for the reference image and a logging value for the new image. The value of the weighting coefficient for the component is determined according to said historization values. For example, the value of the weighting factor may be the standard deviation between the logging values. According to an exemplary embodiment, the count for one or each RGB component of an image can be made by counting for each color value between 0 and 255, the number of pixels having this value. The number of pixels obtained for each color level can then be stored. According to an exemplary embodiment, for an RGB component of an image, the cumulative frequency transformation of the result provided by the enumeration step can be performed by calculating the probability that a given pixel has a color less than or equal to each level of color. In the case where the distance is calculated for each RGB component, a historization step is applied to each RGB component of each image, in particular independently. This historization step 25 provides a historization value for each RBG component and for each image, namely: a historization value for the component R of the reference image, denoted HR, ref in the following; a historization value for the component G of the reference image, denoted HG, ref in the following; a historization value for the component B of the reference image, denoted HB, ref in the following; a historization value for the component R of the new image i, noted HR ,,, in the following; A historization value for the component G of the new image i, denoted HG; in the following ; and a historization value for the component B of the new image i, denoted H13.1 in the following.

Selon un exemple de réalisation nullement limitatif, pour une nouvelle image i, la valeur de distance pour une composante RGB peut être déterminée selon la relation suivante : N M P DR ou G ou B,i = f k) - R ou G ou B,i)P j =1 k=1 avec - (j,k) les coordonnées de chaque pixel dans l'image de référence, notée Ireff, et dans la nouvelle image i, notée - w R ou G ou B,i le coefficient de pondération utilisé pour la composante R ou G ou B, obtenu en fonction des valeurs d'historisation pour cette composante R ou G ou B, et - p un entier quelconque, en général p=1 ou p=2, et préférentiellement p=2. En outre, lorsqu'au bout d'un nombre prédéterminé d'itérations de la phase de détection, la différence entre la distance calculée et la valeur seuil est supérieure ou égale à une valeur prédéterminée, dite erreur, le procédé selon l'invention peut avantageusement comprendre une étape de mémorisation : - de l'une quelconque des valeurs de distance calculées comme nouvelle valeur seuil, par exemple la dernière valeur de distance calculée peut être mémorisée comme valeur seuil ; et - d'au moins une donnée relative à l'image correspondante, par exemple la dernière image prise. Ainsi, le procédé selon l'invention permet de réaliser, au fur et à mesure de la détection, un apprentissage automatique et individuel à chaque zone d'intérêt permettant de réaliser une détection d'occupation plus efficace 30 et plus robuste. - 11 - L'au moins une donnée relative à l'image mémorisée peut comprendre une des données suivante ou une combinaison quelconque des données suivantes : - l'image elle-même, - au moins une, préférentiellement chacune, des composantes RGB de l'image, - une valeur de V pour au moins un, préférentiellement, chaque pixel, - une valeur fournie par l'étape de dénombrement décrite plus haut, pour au moins une, préférentiellement chacune, des composantes RGB de l'image, et/ou - une valeur d'historisation, pour au moins une, préférentiellement chacune, des composantes RGB de l'image.According to a non-limiting exemplary embodiment, for a new image i, the distance value for an RGB component can be determined according to the following relationship: NMP DR or G or B, i = fk) - R or G or B, i) P j = 1 k = 1 with - (j, k) the coordinates of each pixel in the reference image, denoted Ireff, and in the new image i, denoted by - w R or G or B, i the weighting coefficient used for the component R or G or B, obtained as a function of the historization values for this component R or G or B, and - p any integer, in general p = 1 or p = 2, and preferably p = 2. Furthermore, when at the end of a predetermined number of iterations of the detection phase, the difference between the calculated distance and the threshold value is greater than or equal to a predetermined value, called error, the method according to the invention can advantageously comprise a storage step of: - any of the distance values calculated as a new threshold value, for example the last calculated distance value can be stored as a threshold value; and at least one datum relating to the corresponding image, for example the last image taken. Thus, the method according to the invention makes it possible, as and when the detection, an automatic and individual learning to each area of interest to achieve a more effective and more robust occupancy detection. The at least one piece of data relating to the stored image may comprise one of the following data or any combination of the following data: the image itself, at least one, preferably each, of the RGB components of the image; image, a value of V for at least one, preferably each pixel, a value provided by the enumeration step described above, for at least one, preferably each, of the RGB components of the image, and or - a historization value, for at least one, preferably each, of the RGB components of the image.

Bien entendu, le procédé selon l'invention peut être mis en oeuvre pour la détection d'occupation d'une pluralité de zones d'intérêt imagées ensemble, c'est-à-dire toutes comprises dans une même image. Dans ce cas, le procédé selon l'invention est mis en oeuvre pour chaque zone d'intérêt indépendamment, chaque zone d'intérêt étant préalablement sélectionnée dans ladite image. Le procédé selon l'invention peut être appliqué, de manière non limitative, à la surveillance d'un point de service, et en particulier d'une caisse de supermarché par exemple au niveau d'au moins une partie d'un tapis de caisse et/ou d'un couloir associé à ladite caisse, pour déterminer si la caisse est occupée par un/des objets et/ou une/des personnes, et/ou si la caisse est accessible, par exemple si un objet disposé à l'entrée de la caisse empêche ou non l'accès à cette caisse, en surveillant une zone à l'entrée de la caisse.Of course, the method according to the invention can be implemented for the detection of occupation of a plurality of zones of interest imaged together, that is to say all included in the same image. In this case, the method according to the invention is implemented for each zone of interest independently, each zone of interest being previously selected in said image. The method according to the invention can be applied, in a nonlimiting manner, to the monitoring of a service point, and in particular of a supermarket box for example at least a portion of a cash register mat. and / or a corridor associated with said box, to determine whether the box is occupied by an object (s) and / or a person (s), and / or if the box is accessible, for example if an object disposed of cashier entry prevents or denies access to this cash register, by monitoring an area at the entrance to the cash register.

Selon un autre aspect de la même invention, il est proposé un dispositif de détection d'occupation d'au moins une zone, dite d'intérêt, comprenant des moyens agencés pour mettre en oeuvre toutes les étapes du procédé selon l'une quelconque des revendications précédentes. - 12 - Suivant une version préférée, le dispositif selon l'invention peut comprendre : - au moins un moyen de prise d'images ou de prise d'un flux d'images de l'au moins une zone d'intérêt, tel que par exemple une caméra CCD ou un appareil photo, une webcam, ou tout autre moyen pour prendre des images ou un flux d'images de l'au moins une zone d'intérêt ; et - un ou plusieurs modules électroniques/informatiques configurés pour réaliser les étapes de calculs et de détection d'occupation, et éventuellement une combinaison quelconque des étapes optionnelles décrites plus haut. Un tel module électronique/informatique peut être un ordinateur, un calculateur, un processeur, une puce électronique, un FPGA, etc. configuré 15 avec des instructions agencées pour mettre en oeuvre ces étapes. Selon encore un autre aspect de la même invention, il est proposé un procédé de gestion d'une file commune à une pluralité de points de service, en particulier des caisses de supermarché, comprenant au moins une 20 itération des étapes suivantes : - détermination de la disponibilité ou non de chacun desdits points de service, - détermination de la présence ou non d'au moins une personne dans ladite file d'attente commune, et 25 - signalisation de la disponibilité d'au moins un point de service au niveau de ladite file d'attente commune, lorsque : ^ au moins une personne est présente dans ladite file d'attente commune, et ^ au moins un point de service est disponible ; 30 caractérisé en ce qu'au moins une des étapes de détermination comprend le procédé de détection d'occupation selon l'invention. Autrement dit : - la détermination de la disponibilité ou non de chacun des points de service peut être réalisée en détectant l'occupation ou non d'au - 13 - moins une zone au niveau de chacun des points de service par le procédé de détection d'occupation selon l'invention, ou - la détermination de la présence ou non d'une personne dans la file d'attente commune peut être réalisée en détectant l'occupation ou non d'au moins une zone de la file d'attente commune par le procédé de détection d'occupation selon l'invention. Avantageusement, chacune des étapes de détermination peut comprendre le procédé de détection d'occupation selon l'invention. 10 Autrement dit : - la détermination de la disponibilité ou non de chacun des points de service peut être réalisée en détectant l'occupation ou non d'au moins une zone au niveau de chacun des points de service par le procédé de détection d'occupation selon l'invention, et 15 - la détermination de la présence ou non d'une personne dans la file d'attente commune peut être réalisée en détectant l'occupation ou non d'au moins une zone de la file d'attente commune par le procédé de détection d'occupation selon l'invention. 20 La prise d'image de chacun des points de service peut être réalisée par un capteur d'image dédié à chaque point de service. Alternativement, un même capteur d'image peut être utilisé pour prendre une image d'au moins deux des points de service, en particulier de tous les points de service. Dans ce cas, au moins une zone d'intérêt est 25 sélectionnée sur l'image pour chaque point de service et le procédé de détection d'occupation est réalisé pour chaque zone d'intérêt indépendamment. Suivant encore un autre aspect de l'invention, il est proposé un 30 système de gestion d'une file commune à une pluralité de points de service comprenant : - au moins un premier moyen pour déterminer la disponibilité de chacun desdits points de service, - 14 - - au moins un deuxième moyen pour détecter la présence ou non d'au moins une personne dans ladite file d'attente commune, et - au moins un moyen de signalisation de la disponibilité d'au moins un point de service au niveau de ladite file d'attente commune, lorsque : ^ au moins une personne est présente dans ladite file d'attente commune, et ^ au moins un point de service est disponible ; caractérisé en ce que ledit au moins un premier moyen et/ou ledit au moins 10 un deuxième moyen comprend : - un dispositif de détection d'occupation selon l'invention, ou - des moyens configurés pour mettre en oeuvre toutes les étapes du procédé de détection d'occupation selon l'invention. 15 Préférentiellement, chacun des premier et deuxième moyens peut comprendre ; - un dispositif de détection d'occupation selon l'invention, ou - des moyens configurés pour mettre en oeuvre toutes les étapes du procédé de détection d'occupation selon l'invention. 20 Alternativement, l'un uniquement des premier et deuxième moyens peut comprendre : - un dispositif de détection d'occupation selon l'invention, ou - des moyens configurés pour mettre en oeuvre toutes les étapes 25 du procédé de détection d'occupation selon l'invention. L'autre des premier et deuxième moyens peut comprendre des moyens de détection par infrarouge, par pesage, par RFID, etc. En outre, le moyen de signalisation peut comprendre : 30 - au moins un moyen de signalisation lumineux et/ou sonore, et - un module central : ^ recevant de l'au moins un premier moyen un signal relatif à la disponibilité desdits points de service, et - 15 - - recevant de l'au moins un deuxième moyen un signal relatif à la présence ou non d'au moins une personne dans la file commune, et ^ émettant vers ledit moyen de signalisation lumineux et/ou sonore des données relatives à au moins un point de service disponible. Avantageusement au moins un moyen de signalisation lumineux et/ou sonore peut être disposé au niveau de la file commune mais également au 10 niveau de chacun des points de service. Le moyen de signalisation lumineux et/ou sonore disposé au niveau de la file commune peut signaler : - uniquement le fait qu'un point de service est disponible, et/ou - un identifiant du point de service disponible. 15 Le système selon l'invention peut en outre comprendre un moyen de signalisation lumineux guidant une personne depuis la file commune vers le point de service disponible, tel que par exemple un moyen de signalisation lumineux disposé au sol. 20 Description des figures et modes de réalisation D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée d'exemples nullement limitatifs, et des dessins annexés sur lesquels : 25 - la FIGURE 1 est une représentation schématique des étapes d'un premier exemple de réalisation non limitatif d'un procédé de détection d'occupation d'une zone selon l'invention ; - la FIGURE 1 est une représentation schématique des étapes d'un deuxième exemple de réalisation non limitatif d'un procédé de 30 détection d'occupation d'une zone selon l'invention ; - la FIGURE 3 est une représentation schématique des étapes d'un exemple de réalisation non limitatif d'un procédé de gestion d'une file unique selon l'invention ; - 16 - - la FIGURE 4 est une représentation schématique d'un exemple de réalisation non limitatif d'un dispositif de détection d'occupation d'une zone selon l'invention ; et - la FIGURE 5 est une représentation schématique d'un exemple de réalisation non limitatif d'un système de gestion d'une file d'attente selon l'invention. Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. En particulier toutes les variantes et tous les modes de réalisation 20 décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique. Sur les figures, les éléments communs à plusieurs figures conservent la même référence. 25 La FIGURE 1 est une représentation schématique d'un premier exemple de réalisation non limitatif d'un procédé de détection d'occupation d'une zone selon l'invention. Le procédé 100 représenté sur la FIGURE 1 comprend une étape 102 d'obtention d'une image, dite de référence, de la zone d'intérêt. L'étape 102 30 comprend une étape 104 de prise d'une image comprenant la zone d'intérêt au format RGB et une étape 106 de sélection de la zone d'intérêt dans l'image prise lors de l'étape 104, soit manuellement soit de manière automatisée en utilisant des marqueurs apparents sur l'image prise. - 17 - La zone d'intérêt, et en particulier chacune des composantes RGB de la zone d'intérêt sont ensuite mémorisées lors d'une étape de mémorisation 108. Le procédé 100 comprend ensuite une phase 110, dite de détection.According to another aspect of the same invention, there is provided a device for detecting the occupancy of at least one area of interest, comprising means arranged to implement all the steps of the method according to any one of the preceding claims. According to a preferred version, the device according to the invention may comprise: at least one means of taking images or taking a stream of images of the at least one area of interest, such as for example a CCD camera or a camera, a webcam, or any other means for taking images or a stream of images of the at least one area of interest; and one or more electronic / computer modules configured to perform the calculation and occupancy detection steps, and possibly any combination of the optional steps described above. Such an electronic / computer module can be a computer, a computer, a processor, an electronic chip, an FPGA, etc. configured with instructions arranged to implement these steps. According to yet another aspect of the same invention, there is provided a method of managing a common queue at a plurality of service points, in particular supermarket checkouts, comprising at least one iteration of the following steps: the availability or not of each of said service points, - determining the presence or absence of at least one person in said common queue, and 25 - signaling the availability of at least one point of service at the level of said common queue, when: at least one person is present in said common queue, and at least one service point is available; Characterized in that at least one of the determining steps comprises the occupancy detecting method according to the invention. In other words: the determination of the availability or not of each of the service points can be carried out by detecting the occupation or not of at least one zone at each of the service points by the detection method of the service points. occupation according to the invention, or - determining the presence or absence of a person in the common queue can be achieved by detecting the occupation or not of at least one zone of the common queue by the occupation detection method according to the invention. Advantageously, each of the determination steps may comprise the occupation detection method according to the invention. In other words: the determination of the availability or not of each of the service points can be achieved by detecting the occupation or not of at least one zone at each of the service points by the occupation detection method. according to the invention, and 15 - the determination of the presence or absence of a person in the common queue can be carried out by detecting the occupation or not of at least one zone of the common queue by the occupancy detection method according to the invention. The imaging of each of the service points can be performed by an image sensor dedicated to each service point. Alternatively, the same image sensor can be used to take an image of at least two of the service points, especially all service points. In this case, at least one area of interest is selected on the image for each service point and the occupancy detection method is performed for each zone of interest independently. In yet another aspect of the invention there is provided a system for managing a common queue at a plurality of service points comprising: at least one first means for determining the availability of each of said service points; At least one second means for detecting the presence or absence of at least one person in said common queue, and at least one means for signaling the availability of at least one service point at the level of said common queue, when: at least one person is present in said common queue, and at least one service point is available; characterized in that said at least one first means and / or said at least one second means comprises: - a occupancy detection device according to the invention, or - means configured to implement all the steps of the method of occupancy detection according to the invention. Preferably, each of the first and second means may comprise; a device for detecting occupancy according to the invention, or means configured to implement all the steps of the occupancy detection method according to the invention. Alternatively, only one of the first and second means may comprise: a occupancy detection device according to the invention, or means configured to implement all the steps of the occupancy detection method according to the invention. 'invention. The other of the first and second means may comprise means of detection by infrared, weighing, RFID, etc. In addition, the signaling means may comprise: at least one light and / or sound signaling means, and a central module receiving from the at least one first means a signal relating to the availability of said service points. and receiving from the at least one second means a signal relating to the presence or absence of at least one person in the common queue, and transmitting to said light and / or sound signaling means data relating to at least one available point of service. Advantageously at least one luminous and / or audible signaling means may be arranged at the level of the common line but also at each of the service points. The light and / or sound signaling means arranged at the common line may indicate: - only the fact that a service point is available, and / or - an identifier of the available service point. The system according to the invention may further comprise light signaling means guiding a person from the common line to the available service point, such as, for example, a ground-based light signaling means. DESCRIPTION OF THE FIGURES AND EMBODIMENTS Other advantages and features will become apparent upon review of the detailed description of non-limitative examples, and the accompanying drawings in which: FIGURE 1 is a schematic representation of the steps of a first non-limiting exemplary embodiment of a method for detecting occupation of a zone according to the invention; FIG. 1 is a schematic representation of the steps of a second nonlimiting exemplary embodiment of a method for detecting occupation of a zone according to the invention; FIG. 3 is a schematic representation of the steps of a nonlimiting exemplary embodiment of a single file management method according to the invention; FIG. 4 is a schematic representation of a nonlimiting exemplary embodiment of a device for detecting occupation of a zone according to the invention; and FIG. 5 is a diagrammatic representation of a nonlimiting exemplary embodiment of a management system of a queue according to the invention. It is understood that the embodiments which will be described in the following are in no way limiting. It will be possible, in particular, to imagine variants of the invention comprising only a selection of characteristics described subsequently isolated from the other characteristics described, if this selection of characteristics is sufficient to confer a technical advantage or to differentiate the invention with respect to the state of the art. This selection comprises at least one feature preferably functional without structural details, or with only a part of the structural details if this part alone is sufficient to confer a technical advantage or to differentiate the invention from the state of the prior art. In particular, all the variants and embodiments described are combinable with one another if there is nothing to prevent this combination from the technical point of view. In the figures, the elements common to several figures retain the same reference. FIG. 1 is a schematic representation of a first nonlimiting exemplary embodiment of a method for detecting occupation of a zone according to the invention. The method 100 shown in FIG. 1 comprises a step 102 for obtaining a so-called reference image of the area of interest. Step 102 includes a step 104 of taking an image comprising the area of interest in RGB format and a step 106 of selecting the area of interest in the image taken during step 104, either manually either automatically using markers apparent on the image taken. The zone of interest, and in particular each of the RGB components of the area of interest, are then stored during a storage step 108. The method 100 then comprises a phase 110, called a detection phase.

La phase de détection 110 comprend une étape 112 d'obtention d'une nouvelle image RGB. Cette étape 112 est par exemple identique à l'étape 102 et fournit une nouvelle image de la zone d'intérêt, en particulier les composantes RGB correspondant à la zone d'intérêt dans la nouvelle image. Le procédé comprend ensuite une étape 114 de détermination d'un 10 coefficient de pondération relatif à la différence de luminosité entre l'image de référence et la nouvelle image. Dans le procédé 100 représenté sur la FIGURE 1 l'étape 114 de détermination du coefficient de pondération comprend des étapes 116-120 réalisées indépendamment pour chaque composante RGB. 15 L'étape 116 réalise, pour chaque composante RGB le dénombrement de chaque niveau de couleur de cette composante RGB dans chaque image. Un tel dénombrement des niveaux de couleur de chaque composante RGB de chaque image peut être réalisé en comptant pour chaque valeur de couleur, par exemple comprise entre 0-255, le nombre de pixels qui ont cette valeur. 20 Puis, lors d'une étape 118, le résultat de dénombrement fourni pour chaque composante de chaque image est transformé en fréquence cumulée de manière individuelle. Une telle transformation en fréquence cumulée du résultat du dénombrement pour chaque composante RGB de chaque image peut être réalisée en déterminant, pour chaque valeur de couleur, la 25 probabilité qu'un pixel présente une valeur inférieure ou égale à cette valeur de couleur. Cette étape 118 fournit une valeur d'historisation pour chaque composante RBG de pour chaque image, à savoir : 30 - une valeur d'historisation pour la composante R de l'image de référence, notée HR,ref dans la suite ; - une valeur d'historisation pour la composante G de l'image de référence, notée HG,ref dans la suite ; -18- - une valeur d'historisation pour la composante B de l'image de référence, notée HB,ref dans la suite ; - une valeur d'historisation pour la composante R de la nouvelle image i, notée HR,,, dans la suite ; - une valeur d'historisation pour la composante G de la nouvelle image i, notée HG,; dans la suite ; et - une valeur d'historisation pour la composante B de la nouvelle image i, notée HB,1 dans la suite.The detection phase 110 comprises a step 112 of obtaining a new RGB image. This step 112 is for example identical to step 102 and provides a new image of the area of interest, in particular the RGB components corresponding to the area of interest in the new image. The method then comprises a step 114 of determining a weighting coefficient relative to the difference in brightness between the reference image and the new image. In the method 100 shown in FIG. 1, step 114 for determining the weighting coefficient comprises steps 116-120 performed independently for each RGB component. Step 116 provides, for each RGB component, the count of each color level of that RGB component in each image. Such a count of the color levels of each RGB component of each image can be achieved by counting for each color value, for example between 0-255, the number of pixels that have this value. Then, in a step 118, the count result provided for each component of each image is converted into an accumulated frequency individually. Such a cumulative frequency transformation of the count result for each RGB component of each image can be accomplished by determining, for each color value, the probability that a pixel has a value less than or equal to that color value. This step 118 provides a historization value for each RBG component for each image, namely: a historization value for the component R of the reference image, denoted HR, ref in the following; a historization value for the component G of the reference image, denoted HG, ref in the following; A historization value for the component B of the reference image, denoted HB, ref in the following; a historization value for the component R of the new image i, noted HR ,,, in the following; a historization value for the component G of the new image i, denoted HG; in the following ; and a historization value for the component B of the new image i, noted HB, 1 in the following.

Ensuite, une étape 120 détermine, pour chaque composante RGB, un coefficient de pondération, notée W R ou G ou B, pour ajuster la luminosité de la nouvelle image i à la luminosité de l'image de référence. Pour ce faire l'étape 120 détermine par exemple, pour chaque composante RGB, l'écart type entre la valeur de l'historisation pour cette composante de l'image de référence, à savoir HR ou G ou B, reff et la valeur de l'historisation pour cette composante de la nouvelle image, à savoir HR ou G ou B, i- Une étape 122 détermine ensuite une distance entre l'image de référence et la nouvelle image pour chacune des composantes RGB. Cette 20 étape 122 fournit trois valeurs de distance, une pour chaque composante RGB et notées : DR, I, DG,; et DB,1. Le calcul d'une distance pour un composante RGB entre l'image de référence et la nouvelle image est réalisé en déterminant de manière individuelle la distance pour chaque pixel et en sommant les distances 25 individuelles calculées pour tous les pixels. Un tel calcul peut être réalisé selon la relation suivante : N M DR ou G ou B,i = 11(iref (j, - , k). w R ou G ou B,i)P j=1 k=1 avec (j,k) les coordonnées de chaque pixel dans l'image de référence, notée Iref, et dans la nouvelle image i, notée I,, et p=2 30 Lors d'une étape 124 une distance moyenne, noté Dmoy,,, entre l'image de référence et la nouvelle image i est déterminée en fonction des trois - 19 - valeurs de distance DR,i, DG,i et DB,' fournies par l'étape 122. Cette distance moyenne Dmoy,, peut être déterminée par exemple selon la relation suivante : DR; = ' 3 Une étape 126 compare la distance moyenne Dmoy,, à une valeur seuil notée D',,,, prédéterminée.Next, a step 120 determines, for each RGB component, a weighting coefficient, denoted W R or G or B, for adjusting the brightness of the new image i to the brightness of the reference image. For this purpose, step 120 determines, for example, for each RGB component, the standard deviation between the value of the historization for this component of the reference image, namely HR or G or B, reff and the value of the historization for this component of the new image, namely HR or G or B, i- A step 122 then determines a distance between the reference image and the new image for each of the RGB components. This step 122 provides three distance values, one for each RGB component and denoted: DR, I, DG ,; and DB, 1. The calculation of a distance for a RGB component between the reference image and the new image is performed by individually determining the distance for each pixel and summing the individual distances calculated for all the pixels. Such a calculation can be made according to the following relation: NM DR or G or B, i = 11 (iref (j, -, k) .w R or G or B, i) P j = 1 k = 1 with (j , k) the coordinates of each pixel in the reference image, denoted Iref, and in the new image i, noted I ,, and p = 2. During a step 124, an average distance, denoted Dmoy ,,, between the reference image and the new image i are determined according to the three distance values DR, i, DG, i and DB, provided by step 122. This average distance Dmoy ,, can be determined by example according to the following relation: DR; A step 126 compares the average distance Dmoy ,, to a threshold value denoted D ',,, predetermined.

Lorsque la distance moyenne Dmoy,, est inférieure à la distance Dse,,,,, la zone d'intérêt est signalée non occupée, lors d'une étape 128 et la phase de détection est réitérée à nouveau à une fréquence prédéterminée ou sur demande. Lorsque la distance moyenne Dmoy,, est supérieure à la distance D',,,, 10 la zone d'intérêt est signalée occupée lors d'une étape 130. Suite à l'étape 130, c'est-à-dire dans le cas où Dmoy,, est supérieure à la distance D',,,, une étape 132 peut réaliser une mémorisation de la distance calculée Dmoy,i comme nouvelle distance seuil, et éventuellement une mémorisation d'au moins une des données suivantes : 15 - l'une quelconque des valeurs prédéterminées lors de l'étape 114 de calcul de distance, à savoir, au moins une valeur de dénombrement, au moins une valeur d'historisation, et/ou - la nouvelle image. Alternativement, l'étape de mémorisation 132 peut être réalisée au 20 bout d'un nombre prédéterminé d'itérations de la phase de détection 110 qui fournissent chacune une distance Dmoy,, supérieure à la distance seuil Dse,,,I. Dans tous les cas une nouvelle itération de la phase de détection 110 est réalisée suivant une fréquence prédéterminée ou sur demande. 25 La FIGURE 2 est une représentation schématique d'un deuxième exemple de réalisation non limitatif d'un procédé de détection d'occupation d'une zone selon l'invention. Le procédé 200 représenté sur la FIGURE 2 est un exemple de 30 réalisation suivant une version préférée du procédé selon l'invention. Le procédé 200 représenté sur la FIGURE 2 comprend toutes les étapes du procédé 100 représenté sur la FIGURE 1, à ceci près que l'étape 114 de - 20 - détermination des coefficients de pondération est remplacée par une étape 202 de détermination des coefficients de pondération différente. L'étape 202 de détermination des coefficients de pondération, dans le procédé 200 représenté sur la FIGURE 2, comprend une étape 204 déterminant pour chaque pixel (j,k) de la nouvelle image i, la valeur du paramètre V de ce pixel au format HSV, notée V1(j,k), par exemple selon la relation suivante : Vi (j, k) = max 91,k, bi,k)il avec r,,k, g,,k, ID,,k les valeurs respectivement des composantes R, G et B pour ce pixel (j,k) de la nouvelle image i.When the average distance Dmoy ,, is less than the distance Dse ,,,,, the zone of interest is signaled unoccupied, during a step 128 and the detection phase is reiterated again at a predetermined frequency or on request . When the average distance Dmoy ,, is greater than the distance D ',,, the area of interest is signaled occupied during a step 130. Following step 130, that is to say in the where Dmoy ,, is greater than the distance D ',,,, a step 132 can realize a storage of the calculated distance Dmoy, i as a new threshold distance, and possibly a storage of at least one of the following data: any one of the predetermined values during step 114 of distance calculation, namely, at least one count value, at least one historization value, and / or - the new image. Alternatively, the storage step 132 may be performed after a predetermined number of iterations of the detection phase 110 which each provide a distance Dmoy, greater than the threshold distance Dse ,,, I. In all cases a new iteration of the detection phase 110 is performed at a predetermined frequency or on request. FIG. 2 is a schematic representation of a second nonlimiting exemplary embodiment of a method for detecting occupation of a zone according to the invention. The method 200 shown in FIG. 2 is an exemplary embodiment according to a preferred version of the method according to the invention. The method 200 shown in FIGURE 2 includes all the steps of the method 100 shown in FIGURE 1, except that the step 114 of determining the weighting coefficients is replaced by a step 202 of determining the weighting coefficients. different. The step 202 of determining the weighting coefficients, in the method 200 shown in FIG. 2, comprises a step 204 determining for each pixel (j, k) of the new image i, the value of the parameter V of this pixel in the format HSV, denoted V1 (j, k), for example according to the following relation: Vi (j, k) = max 91, k, b, k) with r ,, k, g ,, k, ID ,, k values respectively of the components R, G and B for this pixel (j, k) of the new image i.

Lorsque la valeur du paramètre V de ce même pixel (j,k) au format HSV de l'image de référence, notée V'f(j,k), n'est pas connue, une étape optionnelle 206 détermine pour ce même pixel (j,k) cette valeur selon la relation suivante : vref(i, k) =max bl,k)ref] avec r,,k, g,,k, ID,,k les valeurs respectivement des composantes R, G et B pour ce pixel (j,k) de l'image de référence. Le coefficient de pondération, noté w,(j,k), pour chaque pixel (j,k) est alors déterminée pour l'image i lors d'une étape 208, par exemple selon la 20 relation suivante : Vref(j,k) wi (1, k) =Vi (j, k) Ce sont ces coefficients de pondération qui seront utilisés lors de l'étape 122 de calcul de distance. Dans le procédé 200 représenté sur la FIGURE 2, l'étape 122 de calcul de la distance pour chaque composante est réalisée par exemple en utilisant 25 la relation suivante : N M DR ou G ou B,i = P/(Iref k) - 11(j, k). wi (j, k))P j=1 k=1 avec : - (j,k) les coordonnées de chaque pixel dans l'image de référence, notée Ireff et dans la nouvelle image i, notée I,, - 21 - w,(j,k) le coefficient de pondération obtenu pour chaque pixel (j,k) en fonction des valeurs du paramètre y, et p=2 Dans le procédé 200 représenté sur la FIGURE 2, l'étape 132 de mémorisation peut mémoriser par exemple, les valeurs Vo ,k),i du paramètre V de la nouvelle image, comme valeur de référence si la nouvelle image est considérée/mémorisée comme image de référence pour une prochaine itération de la phase 110. Dans le cas contraire les valeurs V(o,k),ref relatives à l'image de référence 10 peuvent être mémorisées pour éviter d'avoir à les recalculer lors de la prochaine itération de la phase de détection 110. La FIGURE 3 est une représentation schématique d'un exemple non 15 limitatif d'un procédé de gestion d'une file unique selon l'invention. Le procédé 300 permet de gérer une file commune à plusieurs points de service, tel que des caisses de supermarché. Le procédé 300 comprend une étape 302 surveillant au moins une zone d'une file d'attente commune à plusieurs points de service, tels que des 20 caisses de supermarché, selon le procédé 100 décrit en référence à la FIGURE 1 ou le procédé 200 décrit en référence à la FIGURE 2. Le procédé 300 comprend des étapes 3041-304x, réalisées en même temps que l'étape 302, et surveillant chacune au moins une zone d'un point de service, par exemple au moins une partie d'un tapis ou d'un couloir de 25 caisse de supermarché, selon le procédé 100 décrit en référence à la FIGURE 1 ou le procédé 200 décrit en référence à la FIGURE 2. Chacune des étapes 302, 3041-304x de la FIGURE 3 fournit en boucle ou à une fréquence prédéterminée, un signal relatif à l'occupation ou non de la file d'attente commune, respectivement de chacun des points de service. 30 En fonction des signaux reçus de chacune des étapes 302 et 3041- 304X, une étape 306 détermine si au moins un point de service est disponible et s'il existe au moins une personne dans la file d'attente commune. Si ces conditions sont réunies, une étape 308 émet une signalisation de la disponibilité d'un point de service. Une telle signalisation peut être - 22 - vocale, lumineuse, peut indiquer un numéro du point de service disponible, activer un moyen de signalisation de guidage d'une personne vers le point de service disponible etc.When the value of the parameter V of the same pixel (j, k) in the HSV format of the reference image, denoted V'f (j, k), is not known, an optional step 206 determines for this same pixel (j, k) this value according to the following relation: vref (i, k) = max bl, k) ref] with r ,, k, g ,, k, ID ,, k the values of the components R, G and B for this pixel (j, k) of the reference image. The weighting coefficient, denoted w, (j, k), for each pixel (j, k) is then determined for the image i during a step 208, for example according to the following relationship: Vref (j, k ) wi (1, k) = Vi (j, k) It is these weighting coefficients that will be used during step 122 of distance calculation. In the method 200 shown in FIG. 2, step 122 for calculating the distance for each component is performed for example using the following relationship: NM DR or G or B, i = P / (Iref k) - 11 (j, k). wi (j, k)) P j = 1 k = 1 with: - (j, k) the coordinates of each pixel in the reference image, denoted Ireff and in the new image i, noted I ,, - 21 - w, (j, k) the weighting coefficient obtained for each pixel (j, k) as a function of the values of the parameter y, and p = 2 In the method 200 shown in FIG. 2, the memory step 132 can memorize for example, the values Vo, k), i of the parameter V of the new image, as a reference value if the new image is considered / stored as a reference image for a next iteration of the phase 110. Otherwise the values V (o, k), ref relative to the reference image 10 can be memorized to avoid having to recalculate them during the next iteration of the detection phase 110. FIG. 3 is a schematic representation of an example non-limiting of a management method of a single file according to the invention. The method 300 makes it possible to manage a common queue at several points of service, such as supermarket checkouts. The method 300 includes a step 302 monitoring at least one area of a queue common to several service points, such as supermarket crates, according to the method 100 described with reference to FIGURE 1 or method 200 described. FIG. 2. The method 300 comprises steps 3041-304x, performed at the same time as step 302, and each monitoring at least one area of a service point, for example at least a portion of a carpet or a supermarket checkout aisle, according to the method 100 described with reference to FIGURE 1 or method 200 described with reference to FIGURE 2. Each of the steps 302, 3041-304x of FIGURE 3 provides a loop or at a predetermined frequency, a signal relating to the occupation or not of the common queue, respectively of each of the service points. Depending on the signals received from each of steps 302 and 3041- 304X, a step 306 determines whether at least one service point is available and whether there is at least one person in the common queue. If these conditions are met, a step 308 issues a signaling of the availability of a service point. Such signaling may be voice, light, may indicate a number of the available service point, activate a person's guidance signaling means to the available service point, etc.

La FIGURE 4 est une représentation schématique d'un exemple non limitatif d'un dispositif de détection d'occupation d'une zone selon l'invention. Le dispositif 400 représenté sur la FIGURE 4 peut être configuré pour mettre en oeuvre le procédé 100 de la FIGURE 1 ou le procédé 200 de la FIGURE 2. Le dispositif 400 comprend un moyen capteur 402 pour capter des images comprenant au moins une zone d'intérêt 4041 et 4042 à surveiller et fournir chacune de ces images au format RGB. Un tel moyen capteur 402 peut être une caméra CCD ou une webcam ou un appareil photo, etc.FIGURE 4 is a schematic representation of a non-limiting example of a device for detecting occupation of a zone according to the invention. The device 400 shown in FIG. 4 can be configured to implement the method 100 of FIG. 1 or the method 200 of FIG. 2. The device 400 comprises a sensor means 402 for capturing images comprising at least one zone of FIG. interest 4041 and 4042 to monitor and provide each of these images in RGB format. Such sensor means 402 may be a CCD camera or webcam or camera, etc.

Le dispositif 400 comprend un module de traitement 406. Ce module de traitement 406 comprend un module de sélection 408 pour sélectionner de manière automatisée les zones d'intérêts 4041,4042 dans les images fournies par le moyen capteur 402 en s'aidant de marqueurs pré-renseignés par l'utilisateur. Ce module de sélection 408 fournit l'image de chaque zone d'intérêt 4041,4042 sélectionnée au format RGB. Le module de traitement 406 comprend en outre un ou des modules 410 réalisant un calcul de coefficients de pondération selon l'étape 202 de la FIGURE 2 ou selon l'étape 114 de la FIGURE 1. Le module de traitement 406 comprend en outre un module 412 de 25 calcul de distance fournissant une valeur de distance moyenne entre deux images, à savoir une image de référence et une nouvelle image, le calcul de la distance moyenne étant réalisé tel que décrit plus haut pour chaque zone d'intérêt 4041,4042 de manière indépendante. Un module de décision 414 compare la distance moyenne ainsi 30 calculée et émet un signal relatif à l'occupation ou non de chaque zone d'intérêt en fonction des règles prédéterminées et décrites plus haut. Le module de traitement 406 comprend en outre une base de données 416 dans laquelle sont mémorisées : -23- - au moins une valeur de dénombrement et/ou au moins une valeur d'historisation et/ou au moins valeur V, calculées pour une image de référence, et/ou une image de référence, et - une valeur seuil de distance D',,, utilisée par le module de décision 412. et - une image de référence au format RGB, une nouvelle image acquise au format RGB etc.The device 400 comprises a processing module 406. This processing module 406 comprises a selection module 408 for automatically selecting the areas of interest 4041, 4042 in the images provided by the sensor means 402 with the aid of pre-markers. -processed by the user. This selection module 408 provides the image of each selected area of interest 4041, 402 in RGB format. The processing module 406 further comprises one or more modules 410 performing a calculation of weighting coefficients according to step 202 of FIGURE 2 or according to step 114 of FIGURE 1. The processing module 406 further comprises a module 412 of distance calculation providing a mean distance value between two images, namely a reference image and a new image, the calculation of the average distance being performed as described above for each area of interest 4041,4042 of independently. A decision module 414 compares the calculated average distance and transmits a signal relating to the occupation or not of each zone of interest according to the predetermined rules described above. The processing module 406 further comprises a database 416 in which are stored: at least one counting value and / or at least one historization value and / or at least one V value, calculated for an image reference, and / or a reference image, and - a distance threshold value D ',,, used by the decision module 412. and - a reference image in RGB format, a new image acquired in RGB format, etc.

La FIGURE 5 est une représentation schématique d'un exemple non limitatif d'un système de gestion d'une file d'attente selon l'invention. Le système 500 représenté sur la FIGURE 5 permet de gérer une file d'attente 502 commune à plusieurs points de services 5041-504x. Chaque point de service 5041-504x est, dans l'exemple représenté sur la FIGURE 5, une caisse de supermarché comprenant un tapis de caisse, respectivement 5061-506x et un couloir de passage, respectivement 5081-508x, permettant aux usagers d'accéder et de sortir des caisses 5041-504x. Le système 500 comprend un module central de gestion 510 relié à un premier dispositif de détection 512 pour détecter la présence ou non d'au moins une personne dans la file d'attente 502, et un dispositif de surveillance, respectivement 5141-514x, pour détecter l'occupation ou non de chacun des points de service 5041-504x. Le dispositif de détection 512 est prévu pour surveiller une zone 516 en partie avant de la file d'attente et chacun des dispositifs 514, est prévu pour surveiller une zone 518, en partie avant d'un point de service SO4, couvrant sensiblement toute la largeur du point de service 504,, à savoir toute la largeur du tapis 506, et du couloir 508, du point de service SO4., Chacun des dispositifs de détection 512, 5141-514x peut être le même que celui décrit en référence à la FIGURE 4 ou une version alternative de 30 celui-ci conformément à la présente invention. Le système 500 comprend en outre un moyen de signalisation lumineux, tel qu'un écran 520, et/ou un moyen de signalisation sonore, tel qu'un haut-parleur 522, disposé(s) au niveau de la file d'attente 502, et prévu(s) pour afficher/annoncer la disponibilité d'un point de service 5041- - 24 - 504, et préférentiellement le numéro du point de service 5041-504, disponible. Le système 500 comprend en outre un moyen de signalisation lumineux, respectivement 5241-524' associé à chaque point de service respectivement 5041-504, pour signaler la disponibilité ou non de chaque point de service 5041-504,. Chaque moyen de signalisation lumineux 5241524, peut afficher une première couleur, par exemple vert, lorsque le point de service associé est disponible et une deuxième couleur, par exemple rouge, lorsque le point de service associé n'est pas disponible.FIGURE 5 is a schematic representation of a non-limiting example of a management system of a queue according to the invention. The system 500 shown in FIG. 5 makes it possible to manage a queue 502 that is common to several 5041-504x service points. Each service point 5041-504x is, in the example shown in FIG. 5, a supermarket box comprising a box mat, respectively 5061-506x and a passage corridor, respectively 5081-508x, allowing users to access and to get out 5041-504x cases. The system 500 comprises a central management module 510 connected to a first detection device 512 for detecting the presence or absence of at least one person in the queue 502, and a monitoring device, respectively 5141-514x, for detect the occupation or not of each of the 5041-504x service points. The detection device 512 is provided for monitoring an area 516 at the front of the queue and each of the devices 514, is provided for monitoring an area 518, in front of a service point SO4, substantially covering the entire area. the width of the service point 504, namely the entire width of the belt 506, and the corridor 508, of the service point SO4. Each of the detection devices 512, 5141-514x may be the same as that described with reference to FIG. FIGURE 4 or an alternative version thereof according to the present invention. The system 500 further comprises light signaling means, such as a screen 520, and / or sound signaling means, such as a loudspeaker 522, arranged at the level of the queue 502. , and provided for displaying / announcing the availability of a service point 5041- - 24-504, and preferably the service point number 5041-504, available. The system 500 further comprises a luminous signaling means, respectively 5241-524 'associated with each service point respectively 5041-504, to signal the availability or not of each service point 5041-504,. Each light signaling means 5241524, can display a first color, for example green, when the associated service point is available and a second color, for example red, when the associated service point is not available.

Le fonctionnement du système 500 est le suivant. Chaque dispositif de détection 514, surveille le point de service SO4, et signale au module de gestion 510 la disponibilité ou non du point de service 514,. En fonction des données reçues du dispositif de détection 514, le module de gestion 510 commande le moyen de signalisation lumineux 524, pour afficher l'état de disponibilité du point de service. De plus, le dispositif de détection 512 surveille la file d'attente 502 et signale au module de gestion 510 la présence ou non d'une personne dans la file d'attente 502. Lorsqu'au moins un point de service 5041-504, est disponible et qu'il y a au moins une personne présente dans la file d'attente 502 alors le module de gestion commande : - le moyen de signalisation lumineux 520 pour y afficher le numéro du ou d'un point de service disponible ; et/ou - le moyen de signalisation sonore 522 pour y annoncer le numéro du ou d'un point de service disponible. Au moins une partie des communications entre le module de gestion 25 510 et chacun des dispositifs de surveillance 512, 5141-514' et entre le module de gestion 510 et chacun des moyens de signalisation 520, 522, 5241-524, peuvent être réalisés de manière filaire ou sans fil. Dans l'exemple représenté sur la FIGURE 5, un dispositif de détection est associé/dédié à chaque point de service. Alternativement, un seul 30 dispositif de détection peut être mis en oeuvre pour surveiller au moins deux, voire tous les, points de service. Dans ce cas, le moyen capteur d'image 402 du dispositif de détection réalise une image comprenant les zones 518 associées à chacun des points de service, chaque zone 518 étant ensuite traitée indépendamment. - 25 - De plus, dans l'exemple représenté sur la FIGURE 5, le module de traitement 406 de chaque dispositif de détection 512, 5141-514x est représenté au niveau, respectivement, de la file d'attente 502 et chaque point de service 5041-504x. Alternativement, le module de traitement d'au 5 moins un, préférentiellement de chaque, module de détection 512, 5141514X, peut être déporté à distance respectivement, de la file d'attente 502 et chaque point de service 5041-504x. Préférentiellement, le module de traitement 406 d'au moins un, préférentiellement de chaque, module de détection 512, 5141-514x, peut être intégré dans le module de gestion 510 10 du système 500. Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces 15 exemples sans sortir du cadre de l'invention. Par exemple, plusieurs zones indépendantes peuvent être surveillées au niveau d'un point de service pour déterminer la disponibilité ou non de la zone de service.The operation of the system 500 is as follows. Each detection device 514, monitors the service point SO4, and reports to the management module 510 the availability or not of the service point 514. Based on the data received from the detection device 514, the management module 510 controls the light signaling means 524 to display the state of availability of the service point. In addition, the detection device 512 monitors the queue 502 and signals the management module 510 whether or not there is a person in the queue 502. When at least one service point 5041-504, is available and there is at least one person in the queue 502 then the management module controls: - the light signaling means 520 to display the number of the or an available service point; and / or the sound signaling means 522 for announcing the number of the or an available service point. At least a portion of the communications between the management module 510 and each of the monitoring devices 512, 5141-514 'and between the management module 510 and each of the signaling means 520, 522, 5241-524 can be realized from wired or wireless way. In the example shown in FIG. 5, a detection device is associated / dedicated to each service point. Alternatively, a single detection device may be implemented to monitor at least two, if not all, service points. In this case, the image sensor means 402 of the detection device produces an image comprising the areas 518 associated with each of the service points, each area 518 then being independently processed. Moreover, in the example shown in FIG. 5, the processing module 406 of each detection device 512, 5141-514x is represented at the level of, respectively, the queue 502 and each service point 5041-504x. Alternatively, the processing module of at least one, preferably each, detection module 512, 5141514X, can be remotely distanced respectively from the queue 502 and each service point 5041-504x. Preferably, the processing module 406 of at least one, preferably each, detection module 512, 5141-514x, can be integrated into the management module 510 of the system 500. Of course, the invention is not limited to the examples which have just been described and many adjustments can be made to these examples without departing from the scope of the invention. For example, several independent zones can be monitored at a service point to determine whether or not the service area is available.

Claims (15)

REVENDICATIONS1. Procédé (100; 200) de détection d'occupation d'au moins une zone (404), dite d'intérêt, ledit procédé (100; 200) comprenant une étape (102) d'obtention d'une image, dite référence, au format RGB de ladite au moins une zone d'intérêt (404), et au moins une itération d'une phase (110), dite de détection, comprenant les étapes suivantes : - obtention (112) d'une nouvelle image au format RGB de ladite au moins une zone d'intérêt (404) ; - calcul (122, 124) d'une valeur, dite distance, relative à une différence entre au moins une des composantes RGB de ladite nouvelle image et ladite au moins une des composantes RGB de ladite image de référence, et - détermination (126) de l'occupation ou non de ladite au moins une zone d'intérêt (404) par comparaison de ladite valeur de distance calculée avec une valeur seuil de distance prédéterminée.REVENDICATIONS1. A method (100; 200) for detecting the occupancy of at least one area (404) of interest, said method (100; 200) comprising a step (102) of obtaining an image, referred to as a reference, in the RGB format of said at least one area of interest (404), and at least one iteration of a phase (110), called detection phase, comprising the following steps: - obtaining (112) a new image in the format RGB of said at least one area of interest (404); calculating (122, 124) a value, referred to as a distance, relating to a difference between at least one of the RGB components of said new image and said at least one of the RGB components of said reference image, and - determining (126) the occupation or not of said at least one area of interest (404) by comparing said calculated distance value with a predetermined distance threshold value. 2. Procédé (100; 200) selon la revendication précédente, caractérisé en ce que, - lorsque la valeur de distance calculée est supérieure à la valeur seuil, la phase de détection (110) comprend en outre une étape (130) de signalisation d'une occupation de la zone d'intérêt (404), et - lorsque la valeur de distance calculée est inférieure à la valeur seuil, la phase de détection (110) comprend en outre une étape (128) de signalisation d'une non-occupation de la zone d'intérêt (404).Method (100; 200) according to the preceding claim, characterized in that, when the calculated distance value is greater than the threshold value, the detection phase (110) further comprises a signaling step (130). an occupation of the area of interest (404), and - when the calculated distance value is less than the threshold value, the detection phase (110) further comprises a signaling step (128) of a occupation of the area of interest (404). 3. Procédé (100; 200) selon l'une quelconque des revendications 30 précédentes, caractérisé en ce que, l'étape de calcul (122,124) : - comprend un calcul (122) d'une valeur de distance pour chacune des trois composantes RGB de ladite nouvelle image et de ladite image de référence, et - fournit trois valeurs de distance ;- 27 - l'étape détermination (126) de l'occupation étant réalisée en fonction desdites trois valeurs de distance.3. Method (100; 200) according to any one of the preceding claims, characterized in that the computing step (122,124): - comprises a calculation (122) of a distance value for each of the three components RGB of said new image and said reference image, and - provides three distance values, the determination step (126) of the occupation being performed according to said three distance values. 4. Procédé (100; 200) selon la revendication précédente, caractérisé en ce 5 que la phase de détection (110) comprend une détermination (124) d'une moyenne des trois distances, l'étape de détermination (126) de l'occupation étant réalisée en fonction de ladite distance moyenne.4. Method (100; 200) according to the preceding claim, characterized in that the detection phase (110) comprises a determination (124) of an average of the three distances, the determination step (126) of the occupation being performed according to said average distance. 5. Procédé (100; 200) selon l'une quelconque des revendications 10 précédentes, caractérisé en ce que, pour au moins une composante RGB, le calcul de la distance comprend, pour au moins un, préférentiellement chaque pixel de l'image de référence, un calcul individuel d'une distance entre ledit pixel de l'image de référence et un pixel de la nouvelle image associé à un même point de la zone d'intérêt (404) que ledit pixel de ladite image de 15 référence.5. Method (100; 200) according to any one of the preceding claims, characterized in that, for at least one RGB component, the calculation of the distance comprises, for at least one, preferably each pixel of the image of reference, an individual calculation of a distance between said pixel of the reference image and a pixel of the new image associated with the same point of the area of interest (404) as said pixel of said reference image. 6. Procédé (100; 200) selon l'une quelconque des revendications précédentes, caractérisé en ce que le calcul de la valeur de distance pour au moins une, préférentiellement chaque, composante RGB prend en compte au 20 moins un coefficient de pondération dont la valeur dépend de la luminosité de l'image de référence et/ou de la luminosité de la nouvelle image, ledit procédé (100; 200) comprenant en outre une étape (114; 202) de calcul dudit au moins un coefficient de pondération. 256. Method (100; 200) according to any one of the preceding claims, characterized in that the calculation of the distance value for at least one, preferably each, RGB component takes into account at least one weighting coefficient whose value depends on the brightness of the reference image and / or the brightness of the new image, said method (100; 200) further comprising a step (114; 202) of calculating said at least one weighting coefficient. 25 7. Procédé (200) selon la revendication précédente, caractérisé en ce que le coefficient de pondération est calculé en fonction : - de la valeur de la composante V au formant HSV pour l'image de référence, en particulier pour au moins un, préférentiellement chaque, pixel de ladite image de référence, et 30 - de la valeur de la composante V au formant HSV pour la nouvelle image, en particulier pour au moins un, préférentiellement chaque, pixel de ladite nouvelle image.-28-7. Method (200) according to the preceding claim, characterized in that the weighting coefficient is calculated as a function of: - from the value of the component V to the HSV formation for the reference image, in particular for at least one, preferably each, pixel of said reference image, and the value of the V component to the HSV formant for the new image, in particular for at least one, preferably each, pixel of said new image. 8. Procédé (100) selon la revendication 6, caractérisé en ce que, pour au moins une composante, l'étape (114) de calcul de l'au moins un coefficient de pondération comprend une étape (116-118) d'historisation de ladite composante RGB de chaque image, ladite étape historisation comprenant pour ladite composante de chaque image : - un dénombrement (116) du nombre de pixels présentant le même niveau de couleur, et - une transformation en fréquence cumulée (118) du résultat fourni par ledit dénombrement ; ladite étape d'historisation (116-118) fournissant pour chacune des images une valeur d'historisation de ladite au moins une, préférentiellement chaque, composante RGB, la valeur dudit au moins un coefficient de pondération pour ladite composante étant déterminée en fonction desdites valeurs d'historisation.8. Method (100) according to claim 6, characterized in that, for at least one component, the step (114) for calculating the at least one weighting coefficient comprises a step (116-118) of historization of said RGB component of each image, said historization step comprising for said component of each image: - a count (116) of the number of pixels having the same color level, and - a cumulative frequency transformation (118) of the result provided by said count; said historization step (116-118) providing for each of the images a historization value of said at least one, preferably each, RGB component, the value of said at least one weighting coefficient for said component being determined according to said values of archiving. 9. Procédé (100; 200) selon l'une quelconque des revendications précédentes, caractérisé en ce que, lorsqu'au bout d'un nombre prédéterminé d'itérations de la phase de détection (110), la différence entre la distance calculée et la valeur seuil est supérieure ou égale à une valeur prédéterminée, dite erreur, le procédé (100) comprend en outre une étape (132) de mémorisation : - de l'une quelconque des valeurs de distance calculées comme nouvelle valeur seuil ; et - d'au moins une donnée relative à l'image correspondante. 259. Method (100; 200) according to any one of the preceding claims, characterized in that, after a predetermined number of iterations of the detection phase (110), the difference between the calculated distance and the threshold value is greater than or equal to a predetermined value, called error, the method (100) further comprises a step (132) of storing: - any one of the distance values calculated as a new threshold value; and - at least one datum relating to the corresponding image. 25 10. Procédé (100; 200) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend en outre une sélection (106) d'au moins une zone d'intérêt (404) dans chaque image, ledit procédé (100;200) étant mis en oeuvre pour chaque zone d'intérêt (404) 30 indépendamment.The method (100; 200) according to any one of the preceding claims, characterized in that it further comprises a selection (106) of at least one area of interest (404) in each image, said method ( 100; 200) being implemented for each zone of interest (404) independently. 11. Dispositif (400) de détection d'occupation d'au moins une zone (404), dite d'intérêt, comprenant des moyens (402, 406-420) agencés pour mettre- 29 - en oeuvre toutes les étapes du procédé (100; 200) selon l'une quelconque des revendications précédentes.Apparatus (400) for detecting the occupancy of at least one zone (404) of interest, comprising means (402, 406-420) arranged to carry out all the steps of the method ( 100; 200) according to any one of the preceding claims. 12. Procédé (300) de gestion d'une file commune (502) à une pluralité de 5 points de service (5041-504x), comprenant au moins une itération des étapes suivantes : - détermination (3041-304x) de la disponibilité ou non de chacun desdits points de service (5041-504,), - détermination (302) de la présence ou non d'au moins une 10 personne dans ladite file d'attente commune (502), et - signalisation (306-308) de la disponibilité d'au moins un point de service (5041-504,) au niveau de ladite file d'attente commune (502), lorsque : ^ au moins une personne est présente dans ladite file 15 d'attente commune (502), et ^ au moins un point de service (5041-504,) est disponible ; caractérisé en ce qu'au moins une des étapes de détermination comprend le procédé selon l'une quelconque des revendications 1 à 10. 20A method (300) for managing a common queue (502) at a plurality of service points (5041-504x), comprising at least one iteration of the following steps: - determining (3041-304x) the availability or not each of said service points (5041-504), - determining (302) the presence or absence of at least one person in said common queue (502), and - signaling (306-308) the availability of at least one service point (5041-504,) at said common queue (502), when: at least one person is present in said common queue (502) and at least one service point (5041-504) is available; characterized in that at least one of the determining steps comprises the method of any one of claims 1 to 10. 13. Système (500) de gestion d'une file commune (502) à une pluralité de points de service (5041-504x) comprenant : - au moins un premier moyen (5141-514x) pour déterminer la disponibilité de chacun desdits points de service (5041-504x), - au moins un moyen deuxième (512) pour détecter la présence 25 d'au moins une personne dans ladite file d'attente commune (502), et - au moins un moyen de signalisation (510, 520, 522) de la disponibilité d'au moins un point de service (5041-504x) au niveau de ladite file d'attente commune (502), lorsque : 30 ^ au moins une personne est présente dans ladite file d'attente commune (502), et ^ au moins un point de service (5041-504x) est disponible ; caractérisé en ce que ledit au moins un premier moyen (5141-514x) et/ou ledit au moins un deuxième moyen (512) comprend :- 30 - - un dispositif de détection d'occupation selon la revendication 11, ou - des moyens pour mettre en oeuvre toutes les étapes du procédé de détection d'occupation selon l'une quelconque des revendications 1 à 10.13. System (500) for managing a common queue (502) at a plurality of service points (5041-504x) comprising: - at least a first means (5141-514x) for determining the availability of each of said points of service. service (5041-504x), - at least one second means (512) for detecting the presence of at least one person in said common queue (502), and - at least one signaling means (510, 520) , 522) the availability of at least one service point (5041-504x) at said common queue (502), when: at least one person is present in said common queue ( 502), and at least one service point (5041-504x) is available; characterized in that said at least one first means (5141-514x) and / or said at least one second means (512) comprises: - a occupancy detecting device according to claim 11, or - means for implementing all the steps of the occupancy detection method according to any one of claims 1 to 10. 14. Système (500) selon la revendication précédente, caractérisé en ce que chacun desdits premier et deuxième moyen comprend : - un dispositif de détection d'occupation selon la revendication 11, ou - des moyens pour mettre en oeuvre toutes les étapes du procédé de détection d'occupation selon l'une quelconque des revendications 1 à 10.14. System (500) according to the preceding claim, characterized in that each of said first and second means comprises: - a occupancy detecting device according to claim 11, or - means for implementing all the steps of the method of occupancy detection according to one of claims 1 to 10. 15. Système (500) selon la revendication précédente, caractérisé en ce que le moyen de signalisation comprend : - au moins un moyen de signalisation lumineux et/ou sonore (520, 522), et - un module central (510) : ^ recevant de l'au moins un premier moyen (5141-514x) un signal relatif à la disponibilité desdits points de service (5041-504x), et ^ recevant de l'au moins un deuxième moyen (512) un signal relatif à la présence ou non d'au moins une personne dans la file commune (502), et ^ émettant vers ledit moyen de signalisation lumineux et/ou sonore (520, 522) des données relatives à au moins un point de service (5041-504x) disponible.3015. System (500) according to the preceding claim, characterized in that the signaling means comprises: - at least one light and / or sound signaling means (520, 522), and - a central module (510): ^ receiving at least one first means (5141-514x) a signal relating to the availability of said service points (5041-504x), and ^ receiving from the at least one second means (512) a signal relating to the presence or not at least one person in the common queue (502), and transmitting to said light and / or sound signaling means (520, 522) data relating to at least one available service point (5041-504x). 30
FR1453362A 2014-04-15 2014-04-15 METHOD AND DEVICE FOR DETECTING OCCUPANCY OF A ZONE, AND METHOD AND SYSTEM FOR MANAGING QUEUE QUEUE IMPLEMENTING SAID METHOD AND DEVICE Active FR3019926B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1453362A FR3019926B1 (en) 2014-04-15 2014-04-15 METHOD AND DEVICE FOR DETECTING OCCUPANCY OF A ZONE, AND METHOD AND SYSTEM FOR MANAGING QUEUE QUEUE IMPLEMENTING SAID METHOD AND DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1453362A FR3019926B1 (en) 2014-04-15 2014-04-15 METHOD AND DEVICE FOR DETECTING OCCUPANCY OF A ZONE, AND METHOD AND SYSTEM FOR MANAGING QUEUE QUEUE IMPLEMENTING SAID METHOD AND DEVICE

Publications (2)

Publication Number Publication Date
FR3019926A1 true FR3019926A1 (en) 2015-10-16
FR3019926B1 FR3019926B1 (en) 2017-08-18

Family

ID=51518885

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1453362A Active FR3019926B1 (en) 2014-04-15 2014-04-15 METHOD AND DEVICE FOR DETECTING OCCUPANCY OF A ZONE, AND METHOD AND SYSTEM FOR MANAGING QUEUE QUEUE IMPLEMENTING SAID METHOD AND DEVICE

Country Status (1)

Country Link
FR (1) FR3019926B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507156A (en) * 2019-01-30 2020-08-07 斯特拉德视觉公司 Method and device for detecting occupation of vehicle by using key points of passengers

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BUNDESMINISTERIUM DER JUSTIZ ED - BUNDESMINISTERIUM DER JUSTIZ: "Handbuch der Rechtsförmlichkeit,Teil B: Allgemeine Empfehlungen für das Formulieren von Rechtsvorschriften; 1: Sprachliche Gestaltung von Gesetzen und Rechtsverordnungen", 1 January 2008 (2008-01-01), XP002686041, Retrieved from the Internet <URL:http://hdr.bmj.de/page_b.1.html> [retrieved on 20121025] *
JEAN-YVES DUFOUR: "Outils d'analyse vidéo", 1 January 2012, HERMES SCIENCES, article "Chapitre 10 Suivi d'objets d'intérêt dans un réseau de caméras", pages: 193 - 211, XP002735329 *
JINGDAN ZHANG ET AL: "Robust Tracking and Stereo Matching under Variable Illumination", CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2006 IEEE COMPUTER SOCIETY , NEW YORK, NY, USA 17-22 JUNE 2006, IEEE, PISCATAWAY, NJ, USA, vol. 1, 17 June 2006 (2006-06-17), pages 871 - 878, XP010923049, ISBN: 978-0-7695-2597-6, DOI: 10.1109/CVPR.2006.260 *
NEELAM PATEL: "International Journal of Emerging Technology and Advanced Engineering Motion Detection based on Multi Frame Video under Surveillance System", INT. J. OF EMERGING TECHNOLOGY AND ADVANCED ENGINEERING, vol. 2, no. 1, 1 January 2012 (2012-01-01), pages 124 - 129, XP055166410, ISSN: 2250-2459 *
R B FISHER: "Change Detection in Color Images", 1 January 1999 (1999-01-01), pages 1 - 6, XP055167809, Retrieved from the Internet <URL:http://homepages.inf.ed.ac.uk/rbf/PAPERS/iccv99.pdf> [retrieved on 20150206] *
RANJAN PAREKH: "Principles of Multimedia", 1 January 2006, TATA MCGRAW-HILL, pages: 587, XP002735694 *
TASLEEM MADRUPKAR ET AL: "Smart Video Security Surveillance with Mobile Remote Control", INT. J. OF ADVANCED RESEARCH IN COMPUTER SCIENCE AND SOFTWARE ENGINEERING, vol. 3, no. 3, 1 March 2013 (2013-03-01), pages 352 - 356, XP055167978 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507156A (en) * 2019-01-30 2020-08-07 斯特拉德视觉公司 Method and device for detecting occupation of vehicle by using key points of passengers
CN111507156B (en) * 2019-01-30 2023-09-15 斯特拉德视觉公司 Method and device for detecting vehicle occupancy by utilizing key points of passengers

Also Published As

Publication number Publication date
FR3019926B1 (en) 2017-08-18

Similar Documents

Publication Publication Date Title
US20150312529A1 (en) System and method for video-based determination of queue configuration parameters
JP7069667B2 (en) Estimating program, estimation system, and estimation method
JP4811653B2 (en) Object detection device
WO2016146937A1 (en) Method for processing an asynchronous signal
CN111178116A (en) Unmanned vending method, monitoring camera and system
EP3388976B1 (en) Method for detecting fraud
EP2817964B1 (en) Method and system for scene supervision, especially in a retail store
EP0296011B1 (en) Method and device for determining the number of persons present in a determined room
FR3019926A1 (en) METHOD AND DEVICE FOR DETECTING OCCUPANCY OF A ZONE, AND METHOD AND SYSTEM FOR MANAGING QUEUE QUEUE IMPLEMENTING SAID METHOD AND DEVICE
EP1656650B1 (en) Method and system for detecting a body in a zone located proximate an interface
EP3926529B1 (en) Systems and methods for determining a number of persons in a vehicle
WO2008142238A2 (en) Method of determining the number of objects present in a given surface region by infrared thermography
FR2945883A1 (en) METHOD AND SYSTEM FOR DETECTING THE OPEN OR CLOSED STATE OF THE EYES OF A FACE.
FR3019925A1 (en) METHODS AND SYSTEMS FOR MEASURING A PASSAGE TIME IN A FILE, ESPECIALLY A MEDIUM PASSAGE TIME
FR3104874A1 (en) Electronic device for identifying and tracking at least one target, associated electronic system, method and computer program
US20230186505A1 (en) System and method for estimating a quantity of a produce in a tray
WO2015092040A1 (en) Method for estimating the number of persons and/or objects in a space
WO2015092049A1 (en) Method for detecting people and/or objects in a space
EP3360055A1 (en) Method of optimizing decomposition of an asynchronous signal
EP4340546A1 (en) Method for detecting a malfunction of a luminaire, associated electronic detection device and computer program product
EP2825995A1 (en) System for determining the identification of a photographic apparatus on the basis of a photograph and method implemented in such a system
FR3080938A1 (en) HIGH PASSENGER IDENTIFICATION OF PASSENGERS IN PORTAL SURVEILLANCE
EP4167197A1 (en) Method for calibrating a solution for re-identification of an object using a network of a plurality of cameras
EP3488383A1 (en) Method and device for aiding the navigation of a vehicule
FR3127601A1 (en) Method and system for counting people in a place, and public transport vehicle equipped with such a system.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11