FR3019925A1 - Procedes et systemes de mesure d'un temps de passage dans une file, en particulier d'un temps de passage moyen - Google Patents

Procedes et systemes de mesure d'un temps de passage dans une file, en particulier d'un temps de passage moyen Download PDF

Info

Publication number
FR3019925A1
FR3019925A1 FR1453361A FR1453361A FR3019925A1 FR 3019925 A1 FR3019925 A1 FR 3019925A1 FR 1453361 A FR1453361 A FR 1453361A FR 1453361 A FR1453361 A FR 1453361A FR 3019925 A1 FR3019925 A1 FR 3019925A1
Authority
FR
France
Prior art keywords
image
queue
interest
distance
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1453361A
Other languages
English (en)
Other versions
FR3019925B1 (fr
Inventor
Frederic Rieux
Laurent Rossi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ESII SAS
Original Assignee
ESII SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ESII SAS filed Critical ESII SAS
Priority to FR1453361A priority Critical patent/FR3019925B1/fr
Publication of FR3019925A1 publication Critical patent/FR3019925A1/fr
Application granted granted Critical
Publication of FR3019925B1 publication Critical patent/FR3019925B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

La présente invention concerne un procédé (100) pour déterminer un temps de passage dans une file, caractérisé en ce qu'il comprend pour un passage donné, les étapes suivantes : - acquisition (102) d'une image, dite de sortie, d'une zone d'intérêt à une sortie de ladite file lors dudit passage, - identification (108,120), dans une base de données, d'une image, dite d'entrée, prise au niveau d'une zone d'intérêt à une entrée dans la file lors dudit passage, - détermination (122) du temps d'attente par comparaison des données horaires desdites images d'entrée et de sortie. Elle concerne également un procédé de détermination d'un temps de passage moyen dans ladite file d'attente et des systèmes mettant en œuvre de tels procédés.

Description

- 1 - « Procédés et systèmes de mesure d'un temps de passage dans une file, en particulier d'un temps de passage moyen » Domaine technique La présente invention concerne un procédé de mesure d'un temps de passage dans une file comprenant une pluralité de personnes. Elle concerne également un procédé de mesure d'un temps de passage moyen dans une telle file. Elle concerne en outre des systèmes mettant en oeuvre de tels procédés.
Le domaine de l'invention est le domaine de la détermination d'un temps de passage, en particulier un temps de passage moyen, dans une file comprenant plusieurs personnes, et plus particulièrement dans une file d'attente commune à plusieurs points de services.
Etat de la technique Il existe de nombreux sites dans lesquels une file d'attente commune, ou en particulier une file d'attente unique, permet d'alimenter plusieurs points de services, tels que par exemple les supermarchés dans lesquels une file d'attente commune permet d'alimenter plusieurs caisses ou les sites administratifs dans lesquels une file d'attente permet d'alimenter plusieurs guichets dans lesquels des opérateurs délivrent un service aux usagers. Le temps de passage, également appelé temps d'attente, ponctuel ou moyen, est une information importante dans la gestion des points de service, mais également dans la qualité du service proposé aux utilisateurs.
Il existe différents systèmes pour mesurer ce temps de passage. Un premier système, principalement utilisé dans les supermarchés, propose d'associer à chaque utilisateur un moyen d'identification RFID, par exemple disposé dans un chariot emprunté par l'utilisateur. Ce système présente l'inconvénient de devoir équiper chaque utilisateur d'un moyen d'identification RFID. Un deuxième système permet de traquer, par un système vidéo, chaque utilisateur depuis leur entrée dans la file jusqu'à leur sortie. Ce système évite d'équiper chaque utilisateur avec un identifiant RFID, contrairement au premier système. Cependant, ce deuxième système ne permet pas de mesurer de manière précise le temps de passage car l'utilisateur traqué peut - 2 - entrer et sortir de la file d'attente. De plus, lorsque l'utilisateur est caché par un autre utilisateur ou par un objet dans la file d'attente, il ne peut plus être traqué et est perdu. Enfin, ce système nécessite de surveiller la totalité de la file d'attente du début à la fin. Par conséquent, lorsque la file d'attente est longue il est nécessaire d'utiliser plusieurs caméras, ce qui augmente son coût et sa complexité, les caméras devant alors être synchronisées entre-elles. Un but de la présente invention est de remédier aux inconvénients précités.
Un autre but de la présente invention est de proposer un procédé et un système de mesure du temps de passage dans une file moins couteux tout en permettant une mesure précise du temps de passage. Il est aussi un but de la présente invention de proposer un procédé et un système de mesure du temps de passage dans une file moins complexe à 15 mettre en place tout en permettant une mesure précise du temps de passage. Encore un autre but de la présente invention est de proposer un procédé et un système de mesure du temps de passage dans une file dont la complexité et la précision sont indépendantes de la taille de la file. 20 Exposé de l'invention L'invention permet d'atteindre au moins un de ces objectifs par un procédé pour déterminer un temps de passage dans une file, en particulier dans une file d'attente, caractérisé en ce qu'il comprend au moins une itération des étapes suivantes : 25 - acquisition d'au moins une image, dite d'entrée, d'une zone d'intérêt à une entrée dans la file lors de l'entrée d'au moins une personne dans ladite file, - mémorisation, dans une base de données, de chaque image d'entrée avec une donnée de temps relative au moment de son 30 acquisition, - acquisition d'une image, dite de sortie, d'une zone d'intérêt à une sortie de ladite file lors de la sortie d'au moins une personne de ladite file, - pour chaque image de sortie : - 3 - - calcul d'une valeur, dite distance, relative à une différence entre ladite image de sortie et chaque image d'entrée mémorisée dans ladite base de données, et ^ identification, en fonction des valeurs de distance calculées, d'une image d'entrée associée à ladite image de sortie ; et - calcul du temps de passage en fonction de la donnée de temps de l'image d'entrée identifiée et d'une donnée de temps relative au moment de l'acquisition de ladite image de sortie.
Le procédé selon l'invention propose donc de prendre des images à l'entrée de la file à chaque fois qu'une entrée est détectée dans la file et de mémoriser ces images avec une donnée de temps pour chaque image. Puis, lorsqu'une sortie est détectée, une image de sortie est prise. En comparant l'image de sortie à chacune des images d'entrée mémorisées, l'image d'entrée correspondant à l'utilisateur qui sort de la file est identifiée. Le temps de passage est ensuite déterminé en comparant les heures de prises de l'image d'entrée et de l'image de sortie. Ainsi, le procédé selon l'invention évite d'équiper chaque utilisateur 20 avec un identifiant. De plus, le procédé selon l'invention permet de réaliser une détection plus simple à mettre en place car il ne nécessite pas de suivre une personne tout au long de la file. Il suffit de prendre une image de la personne à l'entrée de la file et une image de la personne à la sortie de la file. 25 En outre, le procédé selon l'invention est indépendant de la longueur et/ou de la forme de la file puisqu'une image de la personne à l'entrée de la file et une image de la personne à la sortie de la file suffisent. Par ailleurs, la mesure du temps de passage est plus précise car le temps de passage est mesuré pour chaque utilisateur qui sort de la file par la 30 sortie de la file. Autrement dit, l'utilisateur qui entre dans la file puis change d'avis et en ressort ne sera pas pris en compte dans le calcul du temps de passage. En outre, même si un utilisateur est caché par un objet ou une personne dans la file cela n'a aucune conséquence pour la mesure du temps passage. 35 - 4 - Dans une version préférée du procédé selon l'invention, l'étape de calcul de distance entre l'image de sortie et chaque image d'entrée peut comprendre, pour chacune desdites images : - une pondération spatiale de chacune desdites images relativement à plusieurs, en particulier cinq, points d'intérêts suivant une relation prédéterminée ; et pour chaque point d'intérêt, un calcul de distance entre : ^ ladite image de sortie pondérée relativement audit point d'intérêt, et ^ ladite image d'entrée pondérée relativement à chacun desdits points d'intérêt ; ladite étape de calcul de distance déterminant ainsi entre l'image de sortie et l'image d'entrée au moins quatre, préférentiellement vingt-cinq, valeurs de distance.
Une telle pondération spatiale par rapport à plusieurs points d'intérêts, à la fois de l'image d'entrée et de l'image de sortie, et un calcul de distance entre ces images pondérées individuellement pour chacun des points d'intérêts, permet pour un utilisateur donné d'identifier plus efficacement l'image d'entrée associée à l'image de sortie. En effet, un utilisateur donné n'a pas forcément la même position, à savoir la même orientation et le même positionnement, dans la zone d'intérêt à l'entrée de la file et dans la zone d'intérêt à la sortie de la file. Il n'apparaitra donc pas dans la même configuration dans l'image d'entrée et dans l'image de sortie. Par exemple, l'utilisateur peut apparaitre en haut à gauche de l'image d'entrée et en bas à droite de l'image de sortie. Dans cette version préférée, le procédé selon l'invention permet de comparer la partie en haut à gauche de l'image d'entrée (en plaçant un point d'intérêt en haut à gauche de l'image d'entrée) avec la partie en bas à droite de l'image de sortie (en plaçant un point d'intérêt en bas à droite de l'image de sortie), et ainsi d'identifier la bonne image d'entrée associée à l'image de sortie. Avantageusement, pour une image, les points d'intérêts peuvent comprendre : - un barycentre de la zone d'intérêt dans l'image, - 5 - - au moins un point sur la périphérie de la zone d'intérêt, en particulier les quatre coins de la zone d'intérêt lorsque ladite zone d'intérêt est un quadrilatère. Ainsi, la zone d'intérêt est entièrement couverte sur chaque image et 5 des calculs de distance peuvent être réalisés individuellement pour chaque point d'intérêt. Selon un exemple de réalisation, la distance entre l'image de sortie et une image d'entrée peut correspondre à la distance minimale parmi toutes les 10 distances calculées par rapport à tous les points d'intérêts. Par exemple, lorsque cinq points d'intérêts sont choisis pour l'image de sortie et cinq points d'intérêts sont choisis pour l'image d'entrée, l'étape de calcul de distance détermine en tout vingt-cinq distances. La distance entre l'image de sortie et l'image d'entrée peut être la plus petite distance parmi les 15 vingt-cinq distances calculées. La pondération spatiale utilisée pour chaque point d'intérêt peut être préférentiellement une pondération réalisée pour chaque pixel indépendamment. 20 De plus, la pondération spatiale utilisée pour chaque point d'intérêt peut être préférentiellement une pondération inversement proportionnelle à la distance séparant un pixel du point d'intérêt. Autrement dit, la valeur du pixel est pondérée de manière inversement proportionnelle à la distance séparant ce pixel du point d'intérêt. 25 Suivant un exemple de réalisation préféré, la pondération peut être réalisée selon la relation suivante : (x-x/)2 (Y-3//)2 V (x, y) E Image, Px,,y,: (x, y) H 1 e x2cr12 . 1 0- \/-27/- e 2'5.3712 6xi 27T Y avec (xi,yi) les points d'intérêt de l'image. Le nombre des points d'intérêt utilisés pour l'image de sortie peut être 30 identique au nombre de point d'intérêt utilisés pour l'image d'entrée. - 6 - Alternativement, le nombre des points d'intérêt utilisés pour l'image de sortie peut être différent du nombre de point d'intérêt utilisés pour l'image d'entrée.
Au moins un, préférentiellement, chaque point d'intérêt utilisé pour l'image de sortie peut être positionné à la même position sur l'image d'entrée. Alternativement, au moins un, préférentiellement, chaque point d'intérêt utilisé pour l'image de sortie peut être positionné à une position différente sur l'image d'entrée.
Plus généralement, l'image de sortie peut être pondérée relativement à « M » point d'intérêts et l'image d'entrée peut être pondérée relativement à « M' » point d'intérêts, avec M>_2 et M'2, et M=M' ou Mee. Dans ce cas, l'étape de calcul comprend un calcul de « MxM' » valeurs de distances.
La distance retenue entre l'image de sortie et l'image d'entrée peut être la distance minimale parmi ces « MxM' » distances. Préférentiellement, le procédé selon l'invention peut comprendre une pondération d'une luminosité de l'image de sortie et/ou de l'image d'entrée, 20 avec au moins un coefficient de pondération, dit de luminosité. Une telle pondération permet de rendre le procédé selon l'invention plus robuste par rapport aux différences de luminosité entre l'image d'entrée et l'image de sortie. Selon un exemple de réalisation, le coefficient de pondération peut être 25 utilisé pour pondérer l'image de sortie. Le procédé selon l'invention peut en outre comprendre un calcul d'au moins un coefficient de pondération de luminosité. 30 Selon un mode de réalisation préféré, le(s) coefficient(s) de pondération peu(ven)t être calculé(s) en fonction : - de la valeur de la composante V au format HSV pour l'image de de sortie, en particulier pour au moins un, préférentiellement chaque, pixel de ladite image de sortie, et - 7 - - de la valeur de la composante V au format HSV pour l'image d'entrée, en particulier pour au moins un, préférentiellement chaque, pixel de ladite image d'entrée. Dans ce cas, le coefficient de pondération de luminosité peut être 5 calculé de manière indépendante pour chaque pixel de l'image. Plus précisément, pour chaque pixel, le coefficient de pondération peut être égal au rapport de ces deux valeurs. Par exemple, le coefficient de pondération, noté w(j,k), pour le pixel (j,k) peut être déterminé selon la relation suivante : V U, k) de l'image de sortie w(j,k) V(j, k)de l'image d'entrée 10 avec V(j,k) la valeur de la composante V pour le pixel (j,k). Lorsque l'image de sortie ou l'image d'entrée sont obtenues à un autre format que le format HSV, alors le procédé selon l'invention peut comprendre une transformation de ladite image, ou de chaque pixel, au format HSV. Par exemple, lorsque l'image de sortie ou l'image d'entrée sont 15 obtenues au format RGB, la valeur de la composante V de chaque pixel (j,k) d'une image peut être obtenue en utilisant l'image au format RGB, et selon la relation suivante : V U, k) = max(rj,k, g 1,k,b1,k) avec rj,k, g,,k, b,,k les valeurs respectivement des composantes R, G et B pour le pixel (j,k). 20 Selon un mode de réalisation alternatif, le(s) coefficient(s) de pondération peu(ven)t être calculé(s) en fonction d'au moins une valeur d'historisation d'au moins une composante RGB, ladite valeur d'historisation étant calculée par : 25 - un dénombrement du nombre de pixels présentant le même niveau de couleur, et - une transformation en fréquence cumulée du résultat fourni par ledit dénombrement. Dans cas, l'image de sortie et l'image d'entrée sont au format RGB. 30 Dans le cas contraire, le procédé selon l'invention peut comprendre une transformation au format RGB de chaque image. - 8 - Pour une composante RGB, l'étape d'historisation fournit alors une valeur d'historisation pour l'image de sortie et une valeur d'historisation pour l'image d'entrée. La valeur du coefficient de pondération pour cette composante est déterminée en fonction desdites valeurs d'historisation.
Par exemple, la valeur du coefficient de pondération peut être l'écart type entre les valeurs d'historisation. Selon un exemple de réalisation, le dénombrement pour une, ou chaque, composante RGB d'une image peut être réalisé en comptant pour chaque valeur de couleur comprise entre 0 et 255, le nombre de pixel présentant cette valeur. Le nombre de pixels obtenu pour chaque niveau de couleur peut ensuite être mémorisé. Selon un exemple de réalisation, pour une composante RGB d'une image, la transformation en fréquence cumulée du résultat fourni par l'étape de dénombrement peut être réalisée par calcul de la probabilité qu'un pixel 15 donné ait une couleur inférieure ou égale à chaque niveau de couleur. Le procédé peut comprendre un calcul d'un coefficient de pondération de luminosité pour chaque composante RGB. Dans ce cas, l'étape d'historisation est appliquée à chaque composante RGB de chaque image, en 20 particulier de manière indépendante. Cette étape d'historisation fournit une valeur d'historisation pour chaque composante RBG et pour chaque image, à savoir : - une valeur d'historisation pour la composante R de l'image de sortie, notée HR,S dans la suite ; 25 - une valeur d'historisation pour la composante G de l'image de sortie, notée HG,S dans la suite ; - une valeur d'historisation pour la composante B de l'image de sortie, notée HB,S dans la suite ; - une valeur d'historisation pour la composante R de l'image 30 d'entrée, notée HR,E, dans la suite ; - une valeur d'historisation pour la composante G de l'image d'entrée, notée HG,E dans la suite ; et - une valeur d'historisation pour la composante B de l'image d'entrée, notée HB,E dans la suite. -9 Préférentiellement, la pondération de luminosité pour une image peut être réalisée pour chacun des pixels de l'image.
Selon une version préférée, les images d'entrée et de sortie sont acquises au format RGB. Dans ce cas, l'étape de calcul d'une distance, entre l'image de sortie et une image d'entrée, peut avantageusement comprendre un calcul de distance pour au moins une, préférentiellement chaque, composante RGB de manière 10 indépendante. Dans le cas où l'image d'entrée et l'image de sortie sont pondérées spatialement alors l'étape de calcul de la distance entre les images pondérées peut avantageusement comprendre un calcul de distance pour au moins une, préférentiellement chaque, composante RGB des images pondérées. 15 Préférentiellement, lorsque l'étape de calcul comprend un calcul d'une distance pour chacune des trois composantes RGB de l'image de sortie et de l'image d'entrée, éventuellement pondérées spatialement, la distance retenue entre cette image de sortie, éventuellement pondérée spatialement, et cette 20 image d'entrée, éventuellement pondérée spatialement, est déterminée en fonction des trois distances calculées pour les trois composantes RGB, et en particulier correspond à une moyenne de ces trois distances. Pour au moins une composante RGB, le calcul de la distance peut être 25 réalisé par calcul d'une distance pour chaque pixel et par sommation des distances calculées pour tous les pixels. Avantageusement, le procédé selon l'invention peut en outre comprendre une détection d'occupation de la zone d'intérêt à l'entrée de la 30 file, respectivement à la sortie de la file, l'étape d'acquisition et/ou de mémorisation d'une image d'entrée, respectivement d'une image de sortie, étant réalisée lorsque ladite zone d'intérêt est occupée. Selon un premier mode de réalisation, pour la zone d'intérêt à l'entrée 35 de la file et/ou pour la zone d'intérêt à la sortie de la file, la détection - 10 - d'occupation de ladite zone peut être réalisée par utilisation d'au moins un capteur de présence, par exemple de type infrarouge, positionné au niveau de la zone d'intérêt à l'entrée de la file, respectivement à la sortie de la file.
Selon un mode de réalisation préféré, pour la zone d'intérêt à l'entrée de la file et/ou pour la zone d'intérêt à la sortie de la file, la détection d'occupation de ladite zone peut comprendre une étape d'obtention d'une image, dite référence, au format RGB de ladite zone d'intérêt, et au moins une itération d'une phase, dite de détection, comprenant les étapes suivantes : - obtention d'une nouvelle image au format RGB de ladite zone d'intérêt ; - calcul d'une valeur, dite distance, relative à une différence entre au moins une des composantes RGB de ladite nouvelle image et ladite au moins une des composantes RGB de ladite image de référence, et - détermination de l'occupation ou non de ladite zone d'intérêt par comparaison de ladite valeur de distance calculée avec une valeur seuil de distance prédéterminée.
Ainsi, lorsque l'étape de détermination d'occupation détermine que la zone d'intérêt à l'entrée de la file, respectivement à la sortie de la file, est occupée, la nouvelle image est mémorisée comme nouvelle image d'entrée, respectivement nouvelle image de sortie. Ce mode de réalisation permet d'éviter l'utilisation de capteurs de 25 présence additionnels, en plus des moyens d'acquisition d'image utilisés pour acquérir les images d'entrée et de sortie. La phase de détection peut comprendre une pondération de la luminosité de l'image de référence et/ou de la nouvelle image, selon l'un au 30 moins des modes de réalisation décrits plus haut. Le calcul de la valeur de distance entre l'image de référence et la nouvelle image lors de la phase de détection peut comprendre un calcul d'une distance pour chaque composante RGB, et une détermination de la moyenne 35 de ces trois distances, tel que décrit plus haut.
En outre, lorsqu'au bout d'un nombre prédéterminé d'itérations de la phase de détection, la différence entre la distance calculée et la valeur seuil est supérieure ou égale à une valeur prédéterminée, dite erreur, le procédé selon l'invention peut avantageusement comprendre une étape de mémorisation : - de l'une quelconque des valeurs de distance calculées comme nouvelle valeur seuil, par exemple la dernière valeur de distance calculée peut être mémorisée comme valeur seuil ; et - d'au moins une donnée relative à l'image correspondante, par exemple la dernière image prise. Ainsi, le procédé selon l'invention permet de réaliser, au fur et à mesure de la détection, un apprentissage automatique et individuel à chaque zone d'intérêt permettant de réaliser une détection d'occupation plus efficace 15 et plus robuste pour chaque zone d'intérêt. Selon un autre aspect de l'invention, il est proposé un procédé pour déterminer un temps de passage moyen dans une file, en particulier dans une file d'attente, comprenant : 20 - une détermination de plusieurs temps de passage dans la file d'attente, en particulier pour des passages consécutifs, suivant le procédé selon l'invention ; et - calcul d'une moyenne desdits temps de passages. 25 Selon encore un autre aspect de l'invention, il est proposé un système pour déterminer un temps de passage dans une file, en particulier dans une file d'attente, ledit système comprenant des moyens agencés pour mettre en oeuvre toutes les étapes du procédé de détermination d'un temps de passage selon. 30 Plus particulièrement, le système selon l'invention peut comprendre une première caméra pour l'acquisition des images d'entrée positionnée au niveau de la zone d'intérêt à l'entrée de la file, une deuxième caméra pour l'acquisition des images de sortie positionnée au niveau de la zone d'intérêt à la sortie de la file, au moins un moyen de mémorisation de la base de - 12 - données, et un ou des modules électroniques informatiques pour réaliser les étapes : - de calcul de la distance entre une image de sortie et chaque image d'entrée de la base de données, tel que décrit plus haut, - d'identification d'une image d'entrée associée à l'image de sortie, - de calcul de temps de passage, et - éventuellement la phase de détection telle que décrite plus haut. Selon encore un autre aspect de l'invention, il est proposé un système 10 pour déterminer un temps de passage moyen dans une file, en particulier dans une file d'attente, ledit système comprenant : - un système pour mesurer plusieurs temps de passage dans la file d'attente, en particulier pour des passages consécutifs, avec le système pour déterminer un temps de passage dans une file selon 15 l'invention, et - un moyen de calcul d'une moyenne desdits temps de passage. Le système peut en outre comprendre un moyen d'affichage lumineux pour afficher la valeur du temps de passage moyen. 20 Préférentiellement, l'invention peut être mise en oeuvre pour la mesure du temps de passage dans une file d'attente commune à plusieurs points de services, et en particulier à plusieurs caisses dans un supermarché. Description des figures et modes de réalisation 25 D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée d'exemples nullement limitatifs, et des dessins annexés sur lesquels : - la FIGURE 1 est une représentation schématique des étapes d'un exemple de réalisation non limitatif d'un procédé de mesure d'un 30 temps de passage l'invention ; - la FIGURE 2 est une représentation schématique des étapes d'un exemple de réalisation non limitatif d'un procédé de mesure d'un temps de passage moyen l'invention ; - 13 - - la FIGURE 3 est une représentation schématique d'un premier exemple d'une étape d'acquisition pouvant être mise en oeuvre dans le procédé selon l'invention ; - la FIGURE 4 est une représentation schématique d'un deuxième exemple d'une étape d'acquisition pouvant être mise en oeuvre dans le procédé selon l'invention ; - la FIGURE 5 est une représentation schématique d'un premier exemple de réalisation non limitatif d'une étape de calcul des coefficients de pondération de luminosité entre une première image et une deuxième image pouvant être mise en oeuvre dans le procédé selon l'invention ; - la FIGURE 6 est une représentation schématique d'un deuxième exemple de réalisation non limitatif d'une étape de calcul des coefficients de pondération de luminosité entre une première image et une deuxième image pouvant être mise en oeuvre dans le procédé selon l'invention ; - la FIGURE 7 est une représentation schématique d'un exemple non limitatif d'un système de mesure d'un temps de passage dans une file, et en particulier dans une file d'attente, selon l'invention ; et - la FIGURE 8 est une représentation schématique d'un exemple non limitatif d'un système de mesure d'un temps de passage moyen dans une file, et en particulier dans une file d'attente, selon l'invention.
Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour - 14 - conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison 5 sur le plan technique. Sur les figures, les éléments communs à plusieurs figures conservent la même référence. La FIGURE 1 est une représentation schématique d'un exemple de 10 réalisation non limitatif d'un procédé de mesure du temps de passage. Le procédé 100 représenté sur la FIGURE 1 comprend une étape d'acquisition 102 d'une image, dite d'entrée, de la zone d'intérêt à l'entrée de la file d'attente. L'image d'entrée est mémorisée, dans une base de données, avec une donnée de temps relative au moment de son acquisition. Cette 15 étape d'acquisition 102 est réalisée à chaque détection de l'occupation de la zone d'intérêt à l'entrée de la file d'attente. Le procédé 100 représenté sur la FIGURE 1 comprend également une étape d'acquisition 104 d'une image, dite de sortie, de la zone d'intérêt à la sortie de la file d'attente. L'image de sortie est mémorisée, dans une base de 20 données, avec une donnée de temps relative au moment de son acquisition. Cette étape d'acquisition 104 est réalisée à chaque détection de l'occupation de la zone d'intérêt à la sortie de la file d'attente. Le procédé 100 représenté sur la FIGURE 1 comprend également une étape d'acquisition 110 d'une image de la zone d'intérêt à la sortie de la file 25 d'attente. Pour chaque image de sortie mémorisée lors de l'étape 104, le procédé selon l'invention comprend une phase 106 de mesure du temps de passage. Cette phase 106 de mesure du temps de passage comprend, une phase 108 de calcul de distance entre l'image de sortie et chaque image d'entrée 30 mémorisée dans la base de données. Autrement, si la base de données comprend « L » images d'entrée, alors la phase 108 de calcul de distance est réalisée « L » fois, c'est-à-dire une fois pour chaque image « I », avec 1 IL. La phase de calcul de distance 106 comprend une étape 110 de détermination d'au moins un coefficient de pondération par traitement de 35 l'image de sortie et de l'image d'entrée I. La détermination du ou des - 15 - coefficients de pondération peut être réalisée de différentes manières, décrites plus loin en référence aux FIGURES 5 et 6. L'étape 110 est suivie d'une étape 112 de pondération de la luminosité de l'image de sortie par rapport à l'image d'entrée I.
Ensuite une étape 114 réalise une pondération spatiale : - de l'image de sortie par rapport à M points d'intérêts, et - de l'image d'entrée par rapport à M' points d'intérêts. Cette pondération fournit M images de sortie pondérées spatialement et M' images d'entrée pondérées spatialement. Dans le présente exemple, pour 10 faciliter la description, on considère de manière nullement limitative que M=M'=5. De plus, dans le présent exemple, chaque zone d'intérêt est un quadrilatère et pour chaque image, un point d'intérêt est disposé au niveau du barycentre de la zone d'intérêt imagée et quatre autre points d'intérêts 15 sont disposés à chaque coin de la zone d'intérêt. Lors d'une étape 116, une distance est calculée entre chaque image de sortie pondérée spatialement obtenue à partir de l'image de sortie, et chaque image d'entrée pondérée spatialement obtenue à partir de l'image d'entrée I. Pour calculer une distance entre deux images pondérées spatialement, une 20 distance est calculée pour chaque composante RGB de ces deux images, et une moyenne des trois distances est déterminée. Ainsi, la distance entre la « même » image de sortie pondérée spatialement et la « mnème » image d'entrée I pondérée spatialement peut être obtenue selon la relation suivante : = 3 25 avec DR ou G ou Bjr4nY,1 la distance entre les composantes R ou G ou B de l'image de sortie pondérée spatialement relativement au point d'intérêt m et de l'image d'entrée I pondérée spatialement relativement au point d'intérêt m'. L'étape 116 fournit donc MxM' de valeurs de distances, à savoir 25 valeurs de distances entre l'image de sortie et cette image d'entrée I. 30 Lors d'une étape 118 la distance minimale parmi les MxM' distances est sélectionnée, comme étant la distance entre l'image de sortie et l'image d'entrée I, par exemple selon la relation suivante : Dl= ismsmmin et IsmiMr(Dm->mi,l) - 16 - Cette distance DI est mémorisée en association avec l'image I. Les étapes 110-118 de la phase de calcul de distance sont réitérées pour chacune des L images d'entrée mémorisées dans la base de données. Ainsi, la phase 108 fournit autant de valeurs de distances qu'il y d'images 5 d'entrée dans la base de données, à savoir L valeurs de distances. Puis, lorsque la phase de calcul de distance a été calculée, une étape 120 réalise une identification de l'image d'entrée associée à cette image de sortie. Pour ce faire, l'étape 120 sélectionne l'image d'entrée I pour laquelle la distance DI calculée lors de la phase de calcul de distance 108 est la plus 10 petite, par exemple selon la relation suivante : min (DI) 11L Lorsque l'image d'entrée associée à l'image de sortie est sélectionnée, une étape 122 réalise une soustraction entre la donnée de temps de l'image de sortie et la donnée de temps de l'image d'entrée sélectionnée pour déterminer le temps de passage. 15 La FIGURE 2 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé de mesure du temps de passage moyen dans une file d'attente. 20 Le temps de passage est mesuré selon le procédé 100 de la FIGURE 1. Chaque temps de passage est mémorisé lors d'une étape 202. Puis lors d'une étape 204 le temps de passage moyen est calculé par sommation des temps de passage et division par le nombre de temps de passage obtenu. 25 Le procédé 200 peut en outre comprendre une étape 206 optionnelle d'affichage du temps passage moyen sur un moyen d'affichage. Les étapes 204 et 206 peuvent être réalisées après un nombre prédéterminé, supérieur ou égale 1, d'itérations des étapes 100 et 202. Dans l'exemple représenté sur la FIGURE 2 les étapes 204 et 206 sont réalisées 30 après chaque itération des étapes 100 et 202. - 17 - La FIGURE 3 est une représentation schématique d'un premier exemple de réalisation non limitatif d'une étape d'acquisition d'une image pouvant être mise en oeuvre dans le procédé 100 de la FIGURE 1. L'étape d'acquisition 300 représentée en FIGURE 3 peut être mise en 5 oeuvre dans le procédé 100 de la FIGURE 1 comme l'étape d'acquisition 102 de l'image d'entrée au niveau de l'entrée de la file et/ou l'étape d'acquisition 104 de l'image de sortie au niveau de la sortie de la file. L'étape d'acquisition 300 représentée sur la FIGURE 3 comprend une étape 302 déterminant une occupation de la zone d'intérêt. Cette occupation 10 peut par exemple être déterminée par l'utilisation de capteurs de présence de type capteurs infrarouge ou capteurs de poids etc. Puis une étape 304 réalise une prise d'une image de la zone d'intérêt. Lorsque l'étape d'acquisition 300 est réalisée pour l'entrée de la file, c'est-à-dire comme étape d'acquisition 102, alors l'image prise est une image 15 d'entrée. Lorsque l'étape d'acquisition 300 est réalisée pour la sortie de la file, c'est-à-dire comme étape d'acquisition 104, alors l'image prise est une image de sortie. L'image prise lors de l'étape 304, ainsi qu'une donnée de temps relative au moment de la prise de l'image d'entrée, sont mémorisées dans une base 20 de données lors d'une étape 306. L'étape d'acquisition 300 est réalisée à chaque détection de l'occupation de la zone d'intérêt. 25 La FIGURE 4 est une représentation schématique d'un deuxième exemple de réalisation non limitatif d'une étape d'acquisition d'une image pouvant être mise en oeuvre dans le procédé 100 de la FIGURE 1. L'étape d'acquisition 400 représentée en FIGURE 4 peut être mise en oeuvre dans le procédé 100 de la FIGURE 1 comme l'étape d'acquisition 102 30 de l'image d'entrée au niveau de l'entrée de la file et/ou l'étape d'acquisition 104 de l'image de sortie au niveau de la sortie de la file. L'étape d'acquisition 400 représentée sur la FIGURE 4 comprend une étape 402 de prise d'une image, dite de référence de la zone d'intérêt. Cette image de référence est mémorisée lors d'une étape 404, dans une base de 35 données. - 18 - Puis, une phase 406 de détection est réalisée à une fréquence prédéterminée. Cette phase de détection 406 a pour objectif de déterminer l'occupation ou non de la zone d'intérêt en fonction de l'image de référence.
La phase de détection 406 comprend une étape 408 prise d'une nouvelle image de la zone d'intérêt. Une étape 410 détermine un ou plusieurs coefficients de pondération de luminosité en fonction de l'image de référence et de la nouvelle image. La détermination du ou des coefficients de pondération peut être réalisée de 10 plusieurs façons tel que décrit plus loin. Lors d'une étape 412, la luminosité de la nouvelle image est pondérée par rapport à la luminosité de l'image de référence. Lors d'une étape 414 une distance est calculée entre l'image de référence et la nouvelle image dont la luminosité a été pondérée. Pour ce 15 faire, une distance est calculée pour chaque composante RGB de ces deux images, et une moyenne des trois distances est déterminée. Ainsi, la distance D, entre l'image de référence et la nouvelle image i peut être obtenue selon la relation suivante : 3 avec DR ou G ou B,i la distance entre les composantes R ou G ou B de l'image de 20 référence et de la nouvelle image i dont la luminosité a été pondérée. Lors d'une étape 416, la distance D, est ensuite comparée à une distance seuil prédéterminée Dseuil. Si la distance D, est inférieure à la distance seuil Dseuil, alors la zone n'est pas occupée et la nouvelle image n'est pas mémorisée. 25 Si la distance D, est supérieure à la distance seuil Dseuil, alors la zone est occupée et la nouvelle image est mémorisée lors d'une étape 418 avec une donnée de temps relative au moment de sa prise à l'étape 408. Optionnellement, lorsque la distance D, est supérieure à la distance Dseuii, l'étape de mémorisation 418 peut réaliser une mémorisation de la 30 distance calculée D, comme nouvelle distance seuil, et une mémorisation de la nouvelle image comme image de référence. DR,; D, = ' - 19 - La FIGURE 5 est une représentation schématique d'un premier exemple de réalisation non limitatif d'une étape de calcul des coefficients de pondération de luminosité entre une première image et une deuxième image pouvant être mise en oeuvre dans le procédé selon l'invention.
L'étape 500 représentée en FIGURE 5 peut être mise en oeuvre pour la détermination du ou des coefficients de pondération : - lors de l'étape 110 dans le procédé 100 de la FIGURE 1 pour pondérer la luminosité de l'image de sortie par rapport à la luminosité de chaque image d'entrée ; et/ou - lors de l'étape 410 représentée à la FIGURE 4 pour pondérer la luminosité de la nouvelle image par rapport à la luminosité de l'image de référence. L'exemple 500 représenté sur la FIGURE 5 comprend une étape 502 qui réalise pour chaque composante RGB de chacune des deux images un dénombrement de chaque niveau de couleur de cette composante RGB dans chaque image. Un tel dénombrement des niveaux de couleur de chaque composante RGB de chaque image peut être réalisé en comptant pour chaque valeur de couleur, par exemple comprise entre 0-255, le nombre de pixels qui ont cette valeur.
Puis, lors d'une étape 504, le résultat de dénombrement fourni pour chaque composante de chaque image est transformé en fréquence cumulée de manière individuelle. Une telle transformation en fréquence cumulée du résultat du dénombrement pour chaque composante RGB de chaque image peut être réalisée en déterminant, pour chaque valeur de couleur, la probabilité qu'un pixel présente une valeur inférieure ou égale à cette valeur de couleur. Cette étape 504 fournit une valeur d'historisation pour chaque composante RBG de pour chaque image, à savoir : - une valeur d'historisation pour la composante R de la première image, notée HR,1 dans la suite ; - une valeur d'historisation pour la composante G de la première image, notée HG,1 dans la suite ; - une valeur d'historisation pour la composante B de la première image, notée 1-113,1 dans la suite ; -20- - une valeur d'historisation pour la composante R de la deuxième image, notée HR,2, dans la suite ; - une valeur d'historisation pour la composante G de la deuxième image, notée HG,2 dans la suite ; et - une valeur d'historisation pour la composante B de la deuxième image, notée HB,2 dans la suite. Ensuite, une étape 506 détermine, pour chaque composante RGB, un coefficient de pondération, notée w -R ou G ou B, pour ajuster la luminosité de la première image à la luminosité de de la deuxième image. Pour ce faire l'étape 506 détermine par exemple, pour chaque composante RGB, l'écart type entre la valeur de l'historisation pour cette composante de la première image, à savoir HR ou G ou B, 1, et la valeur de l'historisation pour cette composante de la deuxième image, à savoir HR ou G ou B, 2 Lorsque le coefficient de pondération est calculé selon cette méthode la 15 distance pour composante RGB entre deux images peut être déterminée selon la relation suivante : N M DR ou G ou B = (11(j, k) - 12(j, k). wR ou G ou B)P j=1 k=1 avec (j,k) les coordonnées de chaque pixel dans chaque image et p=1 ou 2, et préférentiellement p=2. Dans cet exemple de réalisation, un coefficient de pondération est 20 calculé pour chaque composante RGB. Lorsque l'étape 500 représentée en FIGURE 5 est mise en oeuvre pour la détermination des coefficients de pondération lors de l'étape 110 dans le procédé 100 de la FIGURE 1 pour pondérer la luminosité de l'image de sortie par rapport à la luminosité de chaque image d'entrée, alors la première image 25 peut être l'image de sortie et la deuxième image peut être l'image d'entrée I et la relation utilisée pour calculer la distance devient alors : N M DR ou G ou B,1 = NM 13.\/(Isortie(j, k) lentrée,I(j, k)- wR ou G ou B,1)P j=1 k=1 avec : - (j,k) les coordonnées de chaque pixel dans l'image de sortie, notée 'sortie, et dans l'image d'entrée I, notée Ientrée,li - 21 - - W RouGouB,1 le coefficient de pondération pour chaque composante R ou G ou B calculé pour l'image de sortie I, et - p=1 ou 2, et préférentiellement p=2.
Lorsque l'étape 500 représentée en FIGURE 5 est mise en oeuvre pour la détermination des coefficients de pondération lors de l'étape 410 représentée à la FIGURE 4 pour pondérer la luminosité de la nouvelle image par rapport à la luminosité de l'image de référence, alors la première image peut être l'image référence et la deuxième image peut être la nouvelle image i et la relation utilisée pour calculer la distance devient alors : N M DR ou G ou B,i = NM (Iref (j, - k)- WR ou G ou B,iY j=1 k=1 avec : - (j,k) les coordonnées de chaque pixel dans l'image de référence, notée Ireff et dans la nouvelle image i, notée I,, - W RouGouB,1 le coefficient de pondération pour chaque composante R ou G ou B calculé pour la nouvelle image i, et - p=1 ou 2, et préférentiellement p=2. La FIGURE 6 est une représentation schématique d'un deuxième 20 exemple de réalisation non limitatif d'une étape de calcul des coefficients de pondération de luminosité entre une première image et une deuxième image pouvant être mise en oeuvre dans le procédé selon l'invention. L'étape 600 représentée en FIGURE 6 peut être mise en oeuvre pour la détermination du ou des coefficients de pondération : 25 - lors de l'étape 110 dans le procédé 100 de la FIGURE 1 pour pondérer la luminosité de l'image de sortie par rapport à la luminosité de chaque image d'entrée ; et/ou - lors de l'étape 410 représentée à la FIGURE 4 pour pondérer la luminosité de la nouvelle image par rapport à la luminosité de 30 l'image de référence. L'exemple 600 représenté sur la FIGURE 6 comprend une étape 602 qui détermine pour chaque pixel (j,k) de la première image, la valeur du - 22 - paramètre V de ce pixel au format HSV, notée V1(j,k), par exemple selon la relation suivante : Vi( k) = max Rri,k, g J,k,bi,k)1] avec r,,k, g,,k, ID,,k les valeurs respectivement des composantes R, G et B pour ce pixel (j,k) de la première image.
Puis une étape 604 détermine pour ce même pixel (j,k) de la deuxième image la valeur du paramètre V de ce pixel au format HSV, notée V2(1,4 selon la relation suivante : V2 (j, k) = max Rri,k, g J,k,bi,k) 2 avec rj,k, g,,k, b,,k les valeurs respectivement des composantes R, G et B pour 10 ce pixel (j,k) de la deuxième image. Le coefficient de pondération, noté w(j,k), pour chaque pixel (j,k) est alors déterminé lors d'une étape 606, par exemple selon la relation suivante : 171(j, k) w( j, k) = V2 (j, k) Ce sont ces coefficients de pondération qui seront utilisés lors de l'étape 15 de calcul de distance. Dans cet exemple de réalisation, un coefficient de pondération est calculé pour chaque pixel de l'image. Lorsque l'étape 600 représentée en FIGURE 6 est mise en oeuvre pour 20 la détermination des coefficients de pondération lors de l'étape 110 dans le procédé 100 de la FIGURE 1 pour pondérer la luminosité de l'image de sortie par rapport à la luminosité de chaque image d'entrée, alors la première image peut être l'image de sortie et la deuxième image peut être l'image d'entrée I et la relation utilisée pour calculer la distance devient alors : N M '\P DR ou G ou B,I = P/ (Isortie (j, k) - entrée,1U, 10.1/V1U, IC))NM j=1 k=1 25 avec : - (j,k) les coordonnées de chaque pixel dans l'image de sortie, notée 'sortie, et dans l'image d'entrée I, notée Ientrée,li - 23 - - Wi(j,k) le coefficient de pondération obtenu pour chaque pixel (j,k) en fonction des valeurs du paramètre v pour l'image d'entrée I, et - p=1 ou 2, et préférentiellement p=2.
Lorsque l'étape 600 représentée en FIGURE 6 est mise en oeuvre pour la détermination des coefficients de pondération lors de l'étape 410 représentée à la FIGURE 4 pour pondérer la luminosité de la nouvelle image par rapport à la luminosité de l'image de référence, alors la première image peut être l'image référence et la deuxième image peut être la nouvelle image i et la relation utilisée pour calculer la distance devient alors : N M DR ou G ou B,i = NmII\i (Ire f (j, k) 10.141i(i IC))P j =1 k=1 avec : - (j,k) les coordonnées de chaque pixel dans l'image de référence, notée Ireff et dans la nouvelle image i, notée I,, - w,(j,k) le coefficient de pondération obtenu pour chaque pixel (j,k) en fonction des valeurs du paramètre v pour la nouvelle image i, et - p=1 ou 2, et préférentiellement p=2. La FIGURE 7 est une représentation schématique d'un exemple non 20 limitatif d'un système de mesure d'un temps de passage dans une file, et en particulier dans une file d'attente. Le système 700 représenté sur la FIGURE 7 est par exemple configuré pour mettre en oeuvre le procédé 100 de la FIGURE 1. Le système 700 représenté sur la FIGURE 7 est configuré pour mesurer 25 le temps de passage dans une file 702 comprenant une entrée 704 et une sortie 706. Le passage dans la file est réalisé selon la flèche 708 depuis l'entrée 704 vers la sortie 706. Le système700 comprend une première caméra 710 pour prendre des images d'une zone d'intérêt 712 au niveau de l'entrée 704 de la file 702 et 30 une deuxième caméra 714 pour prendre des images d'une zone d'intérêt 716 au niveau de la sortie 706 de la file 702. - 24 - Les images prises par les caméras 710 et 714 sont transmises vers un module de traitement 718 qui met en oeuvre les étapes du procédé selon l'invention. Plus particulièrement, le module de traitement 718 comprend un module 5 de détection de présence 720 et 722 associé à chaque zone d'intérêt, respectivement 712 et 716. Chaque module de détection 720 et 722 réalise une détection de présence dans la zone d'intérêt qui lui est associée par traitement de l'image qu'il reçoit, par exemple suivant l'étape de détection 400 de la FIGURE 4. Lorsqu'une présence est détectée l'image reçue est 10 mémorisée dans une base de données 724 comme image d'entrée, respectivement comme image de sortie. Le module de traitement 718 comprend par ailleurs un ou des modules 726 d'identification d'une image d'entrée associée à une image de sortie, et un ou des modules de calcul 728 temps de passage dans la file d'attente.
15 Dans l'exemple représenté sur la FIGURE 7, la détection de présence au niveau de chaque zone d'intérêt est réalisée par traitement d'une image de la zone d'intérêt, suivant l'étape de détection 400 de la FIGURE 4. Alternativement, au niveau d'au moins une des zones d'intérêt 712 et 716, la détection de présence peut être réalisée par utilisation de capteur de 20 présence, de type capteur infrarouge ou capteur de poids. Dans ce cas, le ou les modules de détection de présence associé(s) à cette ou ces zones d'intérêt traitent les signaux provenant de ce ou ces capteurs pour déclencher une prise d'image par la ou les caméras 710 et 714, suivant l'étape 300 de la FIGURE 3.
25 La FIGURE 8 est une représentation schématique d'un exemple non limitatif d'un système de mesure d'un temps de passage moyen dans une file, et en particulier dans une file d'attente.
30 Le système 800 représenté sur la FIGURE 8 est par exemple configuré pour mettre en oeuvre le procédé 200 de la FIGURE 2. Le système 800 comprend tous les éléments du système 700 de mesure de temps de passage représenté sur la FIGURE 7. Le système 800 comprend en outre un module 802 qui reçoit du module de traitement 718 tous les - 25 - temps de passage calculés et calcule une moyenne de ces temps de passage, par exemple sur une période prédéterminée, en particulier glissante. Le système 800 peut en outre comprendre un moyen d'affichage visuel 804 optionnel, disposé du côté de la sortie de la file d'attente 702 et 5 permettant d'afficher le temps d'attente moyen. Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples 10 sans sortir du cadre de l'invention.

Claims (15)

  1. REVENDICATIONS1. Procédé (100) pour déterminer un temps de passage dans une file (702), en particulier dans une file d'attente, caractérisé en ce qu'il comprend au moins une itération des étapes suivantes : - acquisition (102) d'au moins une image, dite d'entrée, d'une zone d'intérêt (712) à une entrée (704) dans la file (702) lors de l'entrée d'au moins une personne dans ladite file (702), - mémorisation (102), dans une base de données (724), de chaque image d'entrée avec une donnée de temps relative au moment de son acquisition ; - acquisition (104) d'une image, dite de sortie, d'une zone d'intérêt (716) à une sortie (706) de ladite file (702) lors de la sortie d'au moins une personne de ladite file, - pour chaque image de sortie : ^ calcul (108) d'une valeur, dite distance, relative à une différence entre ladite image de sortie et chaque image d'entrée mémorisée dans ladite base de données (724), et ^ identification (120), en fonction des valeurs de distance calculées, d'une image d'entrée associée à ladite image de sortie ; et - calcul (122) du temps de passage en fonction de la donnée de temps de l'image d'entrée identifiée et d'une donnée de temps relative au moment de l'acquisition de ladite image de sortie.
  2. 2. Procédé (100) selon la revendication précédente, caractérisé en ce que l'étape (108) de calcul entre l'image de sortie et chaque image d'entrée comprend, pour chacune desdites images : - une pondération (114) spatiale de chacune desdites Images relativement à plusieurs, en particulier cinq, points d'intérêts suivant une relation prédéterminée ; et pour chaque point d'intérêt, un calcul (116) de distance entre : ^ ladite image de sortie pondérée relativement audit point d'intérêt, et- 27 - ^ ladite image d'entrée pondérée relativement à chacun desdits points d'intérêt ; ladite étape (108) de calcul de distance déterminant ainsi entre l'image de sortie et l'image d'entrée au moins quatre, préférentiellement vingt-cinq, valeurs de distance.
  3. 3. Procédé (100) selon la revendication précédente, caractérisé en ce que, pour une image, les points d'intérêts comprennent : - un barycentre de la zone d'intérêt (712,716) dans l'image, 10 - au moins un point sur la périphérie de la zone d'intérêt (712,716), en particulier les quatre coins de la zone d'intérêt (712,716) lorsque ladite zone d'intérêt (712,716) est un quadrilatère. 15
  4. 4. Procédé (100) selon l'une quelconque des revendications 2 ou 3, caractérisé en ce que l'étape (108) de calcul de distance entre l'image de sortie et une image d'entrée, comprend une sélection (118) d'une distance minimale parmi les distances calculées pour tous les points d'intérêts. 20
  5. 5. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend une pondération (112) d'une luminosité de l'image de sortie et/ou de l'image d'entrée, avec au moins un coefficient de pondération, dit de luminosité. 25
  6. 6. Procédé (100) selon la revendication précédente, caractérisé en ce qu'il comprend un calcul (110,600) d'au moins un coefficient de pondération de luminosité en fonction : - de la valeur de la composante V au format HSV pour l'image de de sortie, en particulier pour au moins un, préférentiellement 30 chaque, pixel de ladite image de sortie, et - de la valeur de la composante V au format HSV pour l'image d'entrée, en particulier pour au moins un, préférentiellement chaque, pixel de ladite image d'entrée.-28-
  7. 7. Procédé (100) selon la revendication 5, caractérisé en ce qu'il comprend un calcul (110,500) d'au moins un coefficient de pondération en fonction d'au moins une valeur d'historisation d'au moins une composante RGB, ladite valeur d'historisation étant calculée par : - un dénombrement du nombre de pixels présentant le même niveau de couleur, et - une transformation en fréquence cumulée du résultat fourni par ledit dénombrement.
  8. 8. Procédé (100) selon l'une quelconque des revendications 5 à 7, caractérisé en ce que la pondération (112) est réalisée pour chacun des pixels de l'image de sortie et/ou de l'image d'entrée.
  9. 9. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que, les images d'entrée et de sortie sont au format RGB, et l'étape (108) de calcul de distance comprend un calcul de distance pour au moins une, préférentiellement chaque, composante RGB de manière indépendante.
  10. 10. Procédé (100) selon la revendication précédente, caractérisé en ce que, pour au moins une composante RGB, le calcul de la distance comprend un calcul individuel de distances pour chaque pixel et une sommation desdites distances calculées entre lesdits pixels.
  11. 11. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend en outre une détection (302;406) d'occupation de la zone d'intérêt (712,716) à l'entrée (704) de la file (702), respectivement à la sortie (706) de la file (702), l'étape (304,306;418) d'acquisition et/ou de mémorisation d'une image d'entrée, respectivement d'une image de sortie, étant réalisée lorsque ladite zone d'intérêt (712,716) est occupée.
  12. 12. Procédé (100) selon la revendication 11, caractérisé en ce que la détection d'occupation d'une zone d'intérêt (712,716) comprend une étape- 29 - (402) d'obtention d'une image, dite référence, au format RGB de ladite zone d'intérêt (712,716), et au moins une itération d'une phase (406), dite de détection, comprenant les étapes suivantes : - obtention (408) d'une nouvelle image au format RGB de ladite zone d'intérêt (712,716) ; - calcul (414) d'une valeur, dite distance, relative à une différence entre au moins une des composantes RGB de ladite nouvelle image et ladite au moins une des composantes RGB de ladite image de référence, et - détermination (416) de l'occupation ou non de ladite zone d'intérêt par comparaison de ladite valeur de distance calculée avec une valeur seuil de distance prédéterminée.
  13. 13. Procédé (200) pour déterminer un temps de passage moyen dans une file (702), en particulier dans une file d'attente comprenant : - une détermination de plusieurs temps de passage dans la file d'attente, en particulier pour des passages consécutifs, suivant le procédé (100) selon l'une quelconque des revendications précédentes ; et - calcul (204) d'une moyenne desdits temps de passages.
  14. 14. Système (700) pour déterminer un temps de passage dans une file (702), en particulier dans une file d'attente, ledit système (700) comprenant des moyens (710, 714, 718-728) agencés pour mettre en oeuvre toutes les étapes du procédé (100) selon l'une quelconque des revendications 1 à 12.
  15. 15. Système (800) pour déterminer un temps de passage moyen dans une file (702), en particulier dans une file d'attente, ledit système (800) comprenant : - un système (700) pour mesurer plusieurs temps de passage dans la file, en particulier pour des passages consécutifs, selon la revendication précédente, et - un moyen (802) de calcul d'une moyenne desdits temps de passage.
FR1453361A 2014-04-15 2014-04-15 Procedes et systemes de mesure d'un temps de passage dans une file, en particulier d'un temps de passage moyen Active FR3019925B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1453361A FR3019925B1 (fr) 2014-04-15 2014-04-15 Procedes et systemes de mesure d'un temps de passage dans une file, en particulier d'un temps de passage moyen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1453361A FR3019925B1 (fr) 2014-04-15 2014-04-15 Procedes et systemes de mesure d'un temps de passage dans une file, en particulier d'un temps de passage moyen

Publications (2)

Publication Number Publication Date
FR3019925A1 true FR3019925A1 (fr) 2015-10-16
FR3019925B1 FR3019925B1 (fr) 2017-09-15

Family

ID=51483546

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1453361A Active FR3019925B1 (fr) 2014-04-15 2014-04-15 Procedes et systemes de mesure d'un temps de passage dans une file, en particulier d'un temps de passage moyen

Country Status (1)

Country Link
FR (1) FR3019925B1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090222388A1 (en) * 2007-11-16 2009-09-03 Wei Hua Method of and system for hierarchical human/crowd behavior detection
US20110228984A1 (en) * 2010-03-17 2011-09-22 Lighthaus Logic Inc. Systems, methods and articles for video analysis
US20130030875A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for site abnormality recording and notification
EP2677460A1 (fr) * 2012-06-20 2013-12-25 Xovis AG Procédé de détermination de la longueur dýune file d'attente

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090222388A1 (en) * 2007-11-16 2009-09-03 Wei Hua Method of and system for hierarchical human/crowd behavior detection
US20110228984A1 (en) * 2010-03-17 2011-09-22 Lighthaus Logic Inc. Systems, methods and articles for video analysis
US20130030875A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for site abnormality recording and notification
EP2677460A1 (fr) * 2012-06-20 2013-12-25 Xovis AG Procédé de détermination de la longueur dýune file d'attente

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BUNDESMINISTERIUM DER JUSTIZ ED - BUNDESMINISTERIUM DER JUSTIZ: "Handbuch der Rechtsförmlichkeit,Teil B: Allgemeine Empfehlungen für das Formulieren von Rechtsvorschriften; 1: Sprachliche Gestaltung von Gesetzen und Rechtsverordnungen", 1 January 2008 (2008-01-01), XP002686041, Retrieved from the Internet <URL:http://hdr.bmj.de/page_b.1.html> [retrieved on 20121025] *
JEAN-YVES DUFOUR: "Outils d'analyse vidéo", 1 January 2012, HERMES SCIENCES, article "Chapitre 10 Suivi d'objets d'intérêt dans un réseau de caméras", pages: 193 - 211, XP002735329 *
JINGDAN ZHANG ET AL: "Robust Tracking and Stereo Matching under Variable Illumination", CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2006 IEEE COMPUTER SOCIETY , NEW YORK, NY, USA 17-22 JUNE 2006, IEEE, PISCATAWAY, NJ, USA, vol. 1, 17 June 2006 (2006-06-17), pages 871 - 878, XP010923049, ISBN: 978-0-7695-2597-6, DOI: 10.1109/CVPR.2006.260 *
NEELAM PATEL: "International Journal of Emerging Technology and Advanced Engineering Motion Detection based on Multi Frame Video under Surveillance System", INT. J. OF EMERGING TECHNOLOGY AND ADVANCED ENGINEERING, vol. 2, no. 1, 1 January 2012 (2012-01-01), pages 124 - 129, XP055166410, ISSN: 2250-2459 *

Also Published As

Publication number Publication date
FR3019925B1 (fr) 2017-09-15

Similar Documents

Publication Publication Date Title
EP2104907B1 (fr) Procédé et dispositif d&#39;utilisation d&#39;informations de profondeur d&#39;image
FR3073311A1 (fr) Procede d&#39;estimation de pose d&#39;une camera dans le referentiel d&#39;une scene tridimensionnelle, dispositif, systeme de realite augmentee et programme d&#39;ordinateur associe
EP3271869A1 (fr) Procédé de traitement d&#39;un signal asynchrone
EP3234913A1 (fr) Procede de detection de defaut sur une surface de pneumatique
EP2937812A1 (fr) Système de localisation d&#39;un même véhicule dans plusieurs zones différentes les unes des autres dans lesquelles ledit véhicule passe consécutivement
FR2958767A1 (fr) Procede de detection de cibles dans des images stereoscopiques.
CH717611B1 (fr) Système de détermination de position sur une ligne de passage d&#39;une compétition sportive, et procédé pour sa mise en action.
FR3019925A1 (fr) Procedes et systemes de mesure d&#39;un temps de passage dans une file, en particulier d&#39;un temps de passage moyen
EP3926529B1 (fr) Systèmes et méthodes de détermination d&#39;un nombre de personnes dans un véhicule
WO2021255069A1 (fr) Procédé d&#39;authentification d&#39;un élément optiquement variable.
EP3310039B1 (fr) Dispositif électronique d&#39;analyse d&#39;une scène
EP0559594B1 (fr) Procédé de création de la signature d&#39;un objet représenté sur une image numérique,du type consistant à définir au moins un calibre dimensionnel caractéristique dudit objet, et procédé correspondant de vérification de la signature d&#39;un objet
FR2945883A1 (fr) Procede et systeme de detection de l&#39;etat ouvert ou ferme des yeux d&#39;un visage.
FR3019926A1 (fr) Procede et dispositif pour la detection d&#39;occupation d&#39;une zone, et procede et systeme de gestion de file d&#39;attente mettant en œuvre de tels procede et dispositif
FR3054347B1 (fr) Procede et dispositif d&#39;aide a la navigation d&#39;un vehicule
FR3104874A1 (fr) Dispositif électronique d’identification et de suivi d’au moins une cible, système électronique, procédé et programme d’ordinateur associés
FR3080938A1 (fr) Identification a haut debit de passagers dans la surveillance de portail
WO2017187059A1 (fr) Methode de reglage d&#39;un appareil de prise de vue stereoscopique
EP2409276B1 (fr) Procede de traitement d&#39;image pour l&#39;analyse de circuits integres, et systeme de mise en oeuvre du procede
FR2927443A1 (fr) Procede de suivi d&#39;individus dans un champ de vision d&#39;une camera
EP3770805A1 (fr) Procede d&#39;identification d&#39;une personne dans une video, par une signature visuelle de cette personne, programme d&#39;ordinateur et dispositif correspondants
FR3054708B1 (fr) Procede de comparaison d&#39;objets et dispositif associe
EP4167197A1 (fr) Procédé de calibration d&#39;une solution de ré-identification d&#39;objet mettant en oeuvre un réseau de plusieurs caméras
FR3116932A1 (fr) Procédés de calibration d’une caméra et de mesure de distances réelles à partir d’une image acquise par la caméra
FR3034229A1 (fr) Procede de denombrement d&#39;objets dans une zone spatiale predeterminee

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11