FR3015731A1 - Procede d'estimation du nombre de personnes et ou d'obets dans un espace - Google Patents

Procede d'estimation du nombre de personnes et ou d'obets dans un espace Download PDF

Info

Publication number
FR3015731A1
FR3015731A1 FR1303047A FR1303047A FR3015731A1 FR 3015731 A1 FR3015731 A1 FR 3015731A1 FR 1303047 A FR1303047 A FR 1303047A FR 1303047 A FR1303047 A FR 1303047A FR 3015731 A1 FR3015731 A1 FR 3015731A1
Authority
FR
France
Prior art keywords
connected component
threshold
circularity
depth
surface threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1303047A
Other languages
English (en)
Other versions
FR3015731B1 (fr
Inventor
Simona Maggio
Jean Francois Guillaume Goudou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR1303047A priority Critical patent/FR3015731B1/fr
Priority to PCT/EP2014/078905 priority patent/WO2015092040A1/fr
Publication of FR3015731A1 publication Critical patent/FR3015731A1/fr
Application granted granted Critical
Publication of FR3015731B1 publication Critical patent/FR3015731B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

L'invention concerne un procédé d'estimation du nombre de personnes et/ou d'objets dans un espace comportant une étape de : - détermination d'une composante connexe dans une carte en profondeur, - comparaison de l'aire de la composante connexe à au moins un seuil de surface, - estimation du nombre de personnes et/ou d'objets dans la composante connexe en fonction du résultat de l'étape de comparaison de l'aire, les valeurs du au moins un seuil de surface dépendant d'un modèle de tête d'une personne moyenne et de paramètres d'acquisition de la carte en profondeur et/ou de traitements appliqués à la carte en profondeur.

Description

Procédé d'estimation du nombre de personnes et/ou d'objets dans un espace La présente invention concerne un procédé d'estimation du nombre de personnes et/ou d'objets dans un espace, un programme d'ordinateur associé et un système de contrôle d'accès utilisant un tel procédé d'estimation. Des systèmes de contrôle d'accès sont couramment utilisés dans le domaine des transports de personnes. A titre d'exemple, des systèmes de contrôle d'accès sont employés dans les transports en commun terrestres et aériens. Ainsi, de tels systèmes se trouvent dans les gares, les stations de métro ou les aérogares.
Ces systèmes de contrôle d'accès comprennent un couloir dont l'accès est régulé par l'ouverture ou la fermeture d'une porte. Il convient alors de convenablement détecter le passage ou du moins la présence d'une personne dans la portion de couloir qui précède la porte. L'ouverture de la porte est alors synchronisée avec le passage de la personne détectée. De plus, la durée de l'ouverture de la porte est adaptée et limitée pour permettre le passage de la personne détectée sans autoriser le passage de la personne suivante dont le droit d'accès n'a pas été contrôlé et validé. En effet, il est souhaitable de n'autoriser le passage du système de contrôle d'accès physique qu'aux personnes munies d'un titre de transport valide, en vue d'éviter la fraude. Pour cela, il est connu des systèmes de contrôle d'accès dont le couloir est délimité latéralement de chaque côté par un coffre. Un des coffres comporte des cellules d'émission de faisceaux lumineux et l'autre coffre comprend des cellules de réception de faisceaux lumineux placées en regard d'une cellule d'émission correspondante. Ainsi, la détection des personnes est réalisée par coupure d'un ou de plusieurs faisceaux lumineux.
Des raisons économiques conduisent à limiter le nombre de cellules. Il en résulte des accidents, en particulier dus à une fermeture brutale et intempestive de la porte sur une personne. Par exemple, dans le cas d'une personne adulte accompagnée d'une jeune enfant, de petite taille, la porte risque de se refermer avant le passage de l'enfant, si l'enfant suit la personne adulte. D'une manière similaire, si une personne porte un gros sac à dos ou tire un bagage à roulettes ou conduit une poussette, ce qui est relativement courant dans le cas d'accès à des réseaux de transport, il existe un risque de fermeture intempestive de la porte sur le sac à dos ou le bagage à roulettes ou la poussette. Pour empêcher de tels accidents, le temps d'ouverture de la porte est simplement augmenté.
Mais ceci n'est pas complètement satisfaisant. En effet, d'une part le risque de fraude est augmenté, puisqu'une possibilité de passage à des personnes non autorisées est laissée. D'autre part, le nombre de personnes pouvant franchir un couloir par unité de temps est réduit, ce qui peut affecter la « fluidité » du passage, à moins d'augmenter le nombre de couloirs parallèles. Ainsi, pour assurer une bonne sécurité, il convient de disposer du plus grand nombre possible de cellules dans les coffres des systèmes de contrôle d'accès. Toutefois, dans certaines situations, du fait de l'éloignement des cellules, des cas spécifiques de fraude comme deux personnes qui se suivent de manière très proche ou se situent au même niveau ne sont pas détectées. Ce type de fraude est appelé « tailgating ».
Il existe donc un besoin pour un procédé d'estimation du nombre de personnes et/d'objets dans un espace présentant une meilleure efficacité. Selon l'invention, ce but est atteint par un procédé d'estimation du nombre de personnes et/ou d'objets dans un espace à l'aide d'une carte en profondeur de l'espace issue d'un capteur optique comportant une étape de détermination d'une composante connexe dans la carte en profondeur, une étape de comparaison de l'aire de la composante connexe à au moins un seuil de surface, et une étape d'estimation du nombre de personnes et/ou d'objets dans la composante connexe en fonction du résultat de l'étape de comparaison de l'aire. Les valeurs du au moins un seuil de surface dépendent d'un modèle de tête d'une personne moyenne et de paramètres d'acquisition de la carte en profondeur et/ou de traitements appliqués à la carte en profondeur. Autrement dit, les valeurs d'au moins un seuil de surface dépendent d'un modèle de tête d'une personne moyenne, et d'au moins un paramètre choisi parmi des paramètres d'acquisition de la carte en profondeur et des paramètres de traitements appliqués à la carte en profondeur.
Suivant des modes de réalisation particuliers, le procédé comprend une ou plusieurs des caractéristiques suivantes, prise(s) isolement ou suivant toutes les combinaisons techniquement possibles : - l'étape de comparaison de l'aire comprend la comparaison de l'aire de la composante connexe à un premier seuil de surface, à un deuxième seuil de surface et à un troisième seuil de surface, le deuxième seuil de surface étant strictement supérieur au premier seuil de surface et le troisième seuil de surface étant strictement supérieur au deuxième seuil de surface. - le procédé comporte, en outre, une étape de calcul de la circularité de la composante connexe, la circularité étant définie mathématiquement par C P2 4zA Où. - C est la circularité de la composante connexe, - A est l'aire de la composante connexe, et - P est le périmètre de la composante connexe. - le procédé comporte, en outre, une étape de comparaison de la circularité calculée à un seuil de circularité, le seuil de circularité dépendant d'un modèle de tête d'une personne moyenne, de paramètres d'acquisition de la carte en profondeur et/ou de traitements appliqués à la carte en profondeur, l'étape d'estimation du nombre de personnes et/ou d'objets dans la composante connexe étant également fonction de l'étape de comparaison de la circularité. - à l'étape d'estimation, il est estimé qu' aucun élément n'est présent dans la composante connexe si l'aire de la composante connexe est inférieure au premier seuil de surface, qu'un élément est présent dans la composante connexe si l'aire de la composante connexe est comprise entre le premier seuil de surface et le deuxième seuil de surface, qu'un élément est présent dans la composante connexe si l'aire de la composante connexe est comprise entre le deuxième seuil de surface et le troisième seuil de surface et si la circularité est inférieure au seuil de circularité, qu'un élément est présent dans la composante connexe si l'aire de la composante connexe est comprise entre le deuxième seuil de surface et le troisième seuil de surface et si la circularité est supérieure au seuil de circularité, que deux éléments sont présents dans la composante connexe si l'aire de la composante connexe est comprise entre le deuxième seuil de surface et que le troisième seuil de surface et si la circularité est inférieure au seuil de circularité, et trois éléments sont présents dans la composante connexe si l'aire de la composante connexe est supérieure au troisième seuil de surface, l'élément étant une personne ou un objet. - les paramètres d'acquisition de la carte en profondeur sont choisis dans le groupe constitué de la hauteur de la caméra, de la fréquence d'acquisition de la caméra et du champ de la caméra. - les paramètres de traitements appliqués à la carte en profondeur sont obtenus par un algorithme d'apprentissage sur des personnes ou sur des personnes portant des objets ou sur des personnes poussant ou tirant des objets. - les étapes de détection sont mises en oeuvre par une détection de la tête et des épaules des éventuelles personnes dans la carte en profondeur. En outre, il est proposé un programme d'ordinateur comportant des instructions de codes de programmation aptes à être mises en oeuvre par un processeur, le processeur étant apte à mettre en oeuvre le procédé tel que précédemment décrit.
Il est également proposé un système de contrôle d'accès comportant un couloir s'étendant le long d'une première direction et barré par une porte s'ouvrant ou se fermant pour autoriser ou interdire le passage de personnes, en fonction de la détection de présences de personnes et/ou de vérification d'autorisation d'accès affectés auxdites personnes. Le système de contrôle d'accès comprend un moyen de reconnaissance d'endroits d'accès au couloir, un capteur optique propre à acquérir une carte de profondeur d'au moins une partie du système de contrôle d'accès et positionnée à l'aplomb du couloir, et un contrôleur propre à réaliser la reconnaissance et le suivi de contour de personnes et/ou d'objets présents dans le couloir, en vue d'une commande adaptée d'ouverture et de fermeture de la porte, le contrôleur étant propre à mettre en oeuvre le procédé tel que précédemment décrit. D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description qui suit de modes de réalisation de l'invention, donnée à titre d'exemple uniquement et en référence aux dessins qui sont : - figure 1, une vue d'ensemble, en perspective, d'un exemple de système de contrôle d'accès, - figure 2, une vue en plan de dessus du système de contrôle d'accès de la figure 1, - figure 3, un ordinogramme d'un exemple de procédé de détection, - figure 4, un exemple de carte de profondeur du fond, - figure 5, un exemple de carte de profondeur représentant une personne avec une poussette, - figure 6, un exemple de masque obtenu avec un premier seuil de sensibilité, - figure 7, un exemple de masque obtenu avec un deuxième seuil de sensibilité, - figure 8, un exemple de carte de profondeur correspondant au passage d'une personne, - figure 9, une représentation du volume occupé par la personne représentée à la figure 8, - figure 10, une représentation schématique de la personne de la figure 8 après la sous-étape de détermination de régions d'intérêt, - figure 11, une représentation schématique de la sous-étape de comparaison avec une zone théorique formant la tête de la personne de la figure 8, et - figure 12, une représentation schématique de la sous-étape de comparaison avec une zone théorique formant la tête et des épaules de la personne de la figure 8. Un système de contrôle d'accès 10 est représenté à la figure 1.
Le système de contrôle d'accès 10 est un système de contrôle d'accès physique. Le système de contrôle d'accès 10 est de type bidirectionnel. Dans le cas d'un système de contrôle d'accès « bidirectionnel », tel que considéré dans l'exemple illustré à la figure 1, il peut s'agir d'un système de contrôle d'accès bidirectionnel alterné, c'est-à- dire qui, pendant une période donnée n'autorise le passage que dans l'un des deux sens, convenablement choisi, ou d'un système de contrôle d'accès bidirectionnel permanent, c'est-à-dire qui, à tout moment, autorise le passage dans les deux sens. Selon l'exemple de la figure 1, le sens de circulation autorisé est indiqué par une flèche 12. De ce fait, il peut être défini un côté gauche et un côté droit. Le côté gauche correspond au côté gauche d'un passager circulant dans le sens de circulation alors que le côté droit correspond au côté droit du même passager circulant dans le sens de circulation. Le système de contrôle d'accès 10 comporte un couloir 14, une porte 16, un capteur optique 18 et un contrôleur 20.
Le couloir 14 comprend un passage 22, un premier coffre 24, un deuxième coffre 26 et deux moyens de reconnaissance 28 d'un droit d'accès. Le passage 22 s'étend principalement le long d'une première direction X. Le premier coffre 24 se situe sur le côté gauche du passage 22 tandis que le deuxième coffre se situe sur la droite du passage 22.
Selon l'exemple de la figure 1, dans le sens de circulation, le deuxième coffre 26 comporte le premier moyen de reconnaissance 28. Le premier moyen de reconnaissance 28 est positionné à une extrémité du deuxième coffre 26, cette extrémité étant l'extrémité distale par rapport à la porte 16. En outre, dans le sens inverse du sens de circulation, le premier coffre 24 comporte le deuxième moyen de reconnaissance 28, le deuxième moyen de reconnaissance 28 étant positionné à une extrémité du premier coffre 24, cette extrémité étant l'extrémité distale par rapport à la porte 16. Dans l'exemple représenté, chaque moyen de reconnaissance 28 est un lecteur. Le moyen de reconnaissance 28 est propre à permettre le passage du couloir 14 par une personne lorsqu'un titre de transport, une carte magnétique conférant un droit d'accès, est présenté au lecteur 28. Pour conférer un droit d'accès, le titre de transport ou la carte magnétique doit être reconnu comme valable par le moyen de reconnaissance 28. En variante, le deuxième coffre 26 comporte un lecteur à distance capable de lire à distance le moyen d'identification de ladite personne au lieu du lecteur 28.
La porte 16 est propre à s'ouvrir ou se fermer pour autoriser ou interdire le passage de personnes en fonction de la détection de présence de personnes et/ou de vérification d'autorisations d'accès affectées auxdites personnes. La porte 16 s'étend le long d'une deuxième direction Y perpendiculaire à la première direction X et est disposée à mi-distance du couloir 14. Cela signifie que la porte 16 se trouve à égale distance le long de la première direction X de chaque extrémité des coffres 24, 26 délimitant le couloir 14. La porte 16 comporte deux vantaux 30 et 32 : un vantail gauche 30 et un vantail droit 32.
Par exemple, les deux vantaux 30 et 32 sont fabriqués en verre afin d'obtenir des vantaux résistants du point de vue mécanique. Les deux vantaux 30 et 32 sont déplaçables dans un même plan vertical transversal au couloir 14 entre une position dite position d'ouverture et une position dite position de fermeture. Le passage de la position d'ouverture à la position de fermeture se fait par un coulissement. Ce coulissement est indiqué par deux flèches 34 sur la ligne 1. Les deux flèches 34 sont selon la deuxième direction Y. La position d'ouverture est représentée sur la figure 1. Dans la position d'ouverture, les deux vantaux 30, 32 sont escamotés respectivement dans le premier coffre 24 et dans le deuxième coffre 26, ce qui libère le passage par le couloir 14.
La position de fermeture des vantaux 30 et 32 est représentée sur la figure 2. Dans la position de fermeture, les deux vantaux 30 et 32 sont rapprochés l'un de l'autre de manière à barrer le passage par le couloir 14. Pour obtenir ce fonctionnement particulier, selon l'exemple de la figure 1, chaque coffre 24, 26 comporte un organe de commande des mouvements du vantail 30, 32 respectif. Les organes de commande ne sont pas représentés sur les figures 1 et 2 dans un souci de simplification. Les organes de commande sont propres à commander l'ouverture et la fermeture du vantail 30, 32 auquel ces organes sont associés. L'organe de commande du premier coffre 24 est ainsi propre à commander les mouvements du vantail gauche 30 alors que l'organe de commande du deuxième coffre 26 est propre à commander les mouvements du vantail droit 32. Par exemple, les organes de commande sont des moteurs. En variante, les deux vantaux 30, 32 sont déplaçables entre une position d'ouverture et de fermeture par rotation des vantaux 30 et 32 autour d'un axe propre. Dans ce cas, les deux vantaux 30 et 32 sont pivotants.
Selon d'autres modes de réalisation, la porte 16 comporte un seul vantail ou est un portillon.
Le capteur optique 18 est propre à acquérir une ou plusieurs images du système de contrôle d'accès 10. Plus spécifiquement, le capteur 18 est propre à acquérir des images d'au moins le passage 22 du couloir 14. Pour cela, selon l'exemple de la figure 1, le capteur optique 18 est positionné à l'aplomb du couloir 14. Dans le cas particulier de la figure 1, cela signifie que le capteur optique 18 est sensiblement, selon une troisième direction Z, perpendiculaire aux directions X et Y. En outre, comme le capteur optique 18 est propre à acquérir des images d'au moins le passage 22 du couloir 14, cela implique que la distance du capteur optique 18 le long de la troisième direction Z par rapport au sol délimitant le couloir 14 est relativement grande, typiquement supérieure à 300 cm et de préférence supérieure à 250 cm. Dans l'exemple représenté, le capteur optique 18 est une caméra fonctionnant sur le principe du temps de vol (souvent désigné par l'acronyme anglais correspondant TOF pour « Time of Flight »). Une telle caméra permet d'acquérir des cartes tridimensionnelles ou cartes de profondeur du couloir 14. Par définition, une carte de profondeur ou carte tridimensionnelle est une matrice bidimensionnelle donnant la distance de l'élément vu par le capteur 18 par rapport au capteur optique 18 au lieu de donner le nombre de photons provenant de l'élément vu par le capteur optique 18. Dans l'exemple représenté, le capteur optique 18 comprend un détecteur matriciel 36 et un système optique 38. Le détecteur matricielle 36 est, par exemple, un détecteur de type CCD. Un détecteur de type CCD (acronyme anglais de « Charge Coupled Device » pour « dispositif à transfert de charges ») est un détecteur propre à transformer en signal lumineux en signal électrique.
Le système optique 38 comprend, à titre d'illustration, des lentilles. En variante, le système optique 38 comporte des prismes et/ou des guides d'ondes. Selon un autre mode de réalisation, le capteur optique 18 comporte uniquement un détecteur matricielle 36.
Le contrôleur 20 est propre à réaliser la reconnaissance et le suivi de contour de personnes et/ou d'objets présents dans le couloir 14 à partir des cartes de profondeur acquises par le capteur optique 18, en vue d'une commande adaptée d'ouverture/ fermeture de la porte 16. Notamment, le contrôleur 20 est propre à reconnaître les contours des personnes engagées dans le couloir 14, y compris la présence éventuelle d'un sac à dos, ou d'un objet volumineux tiré par la personne, ou d'un enfant de petite taille accompagnant ladite personne. Le contrôleur 20 est également propre à prendre une décision d'ouverture ou de fermeture en fonction des contours reconnus et/ou suivis.
Le contrôleur 20 comporte une unité électrique de traitement propre à effecteur l'analyse et le traitement des cartes de profondeur issues du capteur 18. En particulier, l'unité électronique de traitement est propre à mettre en oeuvre un procédé de détection de personnes et/ou d'objets dans un espace. Selon l'exemple de la figure 1, le contrôleur 20 est situé dans le deuxième coffre 26 et coopère avec le capteur optique 18, le moyen de reconnaissance d'un droit d'accès 28 et les organes de commande des mouvements de chaque vantail 30 et 32. Cette coopération est, par exemple, mise en oeuvre par communication de signaux optiques. Le fonctionnement du système de contrôle d'accès 10 est maintenant décrit. Une personne introduit dans le lecteur 28 un titre de transport reconnu comme valable et autorisant le passage de la personne. En parallèle, le capteur 18 acquiert des cartes de profondeur qui montrent la personne en train de passer par le passage 22. Le contrôleur 20 est alors propre à détecter une ou des personnes et/ou un ou des objets dans les cartes de profondeur acquises par le capteur optique 18.
Pour cela, le contrôleur 20, ou plus précisément l'unité électronique de traitement, met en oeuvre un procédé de détection de personnes et/ou d'objets dans le couloir 14 tel qu'illustré par l'ordinogramme de la figure 3. Le procédé de détection comporte une étape 100 de fourniture d'une carte de profondeur du couloir 14 et des éventuelles personnes et/ou objets se trouvant dans le couloir 14. La carte de profondeur est issue du capteur optique 18. Par exemple, le capteur optique 18 envoie les données correspondant à la carte de profondeur acquise au contrôleur 20 via des signaux optiques. Le procédé de détection comprend alors une étape 102 de traitement de la carte de profondeur fournie à l'étape 100 de fourniture.
L'étape 102 de traitement vise à améliorer la qualité de la carte de profondeur fournie. Notamment, il est souhaitable de réduire le bruit d'acquisition qui provient du moment où le capteur optique 18 a acquis les cartes de profondeur pour augmenter le rapport signal/bruit. De préférence, l'étape 102 de traitement est mise en oeuvre à l'aide d'un algorithme de débruitage d'image.
Par exemple, à l'étape 102 de traitement, un lissage de la carte de profondeur par un noyau gaussien est utilisé. En l'occurrence, le noyau gaussien est caractérisable par rapport à un pixel de la carte de profondeur, le noyau gaussien est de taille 3x3 pixels avec une largeur de 0,5 pixels.
En variante d'autres types de lissage ou de traitement sont envisageables. A l'issue de l'étape 102 de traitement, une carte de profondeur traitée est donc obtenue. Le procédé de détection comprend ensuite une étape 104 d'extraction du fond de la carte de profondeur traitée.
L'étape 104 d'extraction du procédé de détection comprend quatre sous-étapes 104_1, 104_2, 104_3 et 104_4 qui vont maintenant être détaillées. Le procédé de détection comporte d'abord une première sous-étape 104_1 de fourniture d'une carte de profondeur du couloir 14 en l'absence de personnes et/ou d'objets dans le couloir 14. Une telle carte de profondeur est appelée dans la suite de la description, une « carte de profondeur de fond » ou « background image » selon la terminologie anglaise. De préférence, la carte de profondeur de fond correspond à une carte de profondeur du couloir 14 en l'absence de personnes ou d'objets ayant subi le même traitement visant à améliorer la qualité que le traitement proposé à l'étape 102 de traitement. Notamment, selon l'exemple du procédé de l'ordinogramme de la figure 3, un lissage de la carte de profondeur de fond est effectué avec un noyau gaussien. Le procédé comporte une deuxième sous-étape 104_2 de choix d'une première hauteur de détection souhaitée. La première hauteur de détection souhaitée est notée H1 dans la suite de la description.
Selon les cas, le choix est automatique ou effectué par un utilisateur du procédé. Le procédé comporte ensuite une troisième sous-étape 104_3 de génération d'une première carte de fond à partir de la carte de profondeur de fond et de la première hauteur de détection H1. Pour cela, le contrôleur 20 convertit la première hauteur de détection H1 en un premier paramètre P1 dit facteur d'échelle ou facteur de sensibilité. Ce premier paramètre P1 est compris entre 0 et 1. Le contrôleur obtient ensuite la première image de profondeur de fond par multiplication de la carte de profondeur de fond avec le premier paramètre P1. Dans ce contexte, pour définir la multiplication d'une carte de profondeur par un scalaire, il convient de rappeler qu'une carte de profondeur correspond à la valeur de la distance par rapport au capteur optique 18 pour une pluralité de pixels. Ainsi, multiplier une carte de profondeur par un scalaire signifie que la valeur de distance de chaque pixel est multipliée par le scalaire. Le procédé comporte ensuite une quatrième sous-étape 104_4 de soustraction de la première carte de profondeur de fond à la carte de profondeur traitée pour obtenir une première carte de profondeur à analyser. Il peut être montré qu'en soustrayant la première carte de profondeur de fond, une carte de profondeur limitée à une certaine hauteur par rapport au capteur optique 18 est obtenue. Ainsi la première carte de profondeur à analyser permet de détecter l'ensemble des personnes et des objets compris entre le capteur optique 18 et la première hauteur H1 par rapport au sol délimitant le couloir 14. Les figures 4 à 7 illustrent l'étape 104 d'extraction du fond de la carte de profondeur traitée. La figure 4 présente un exemple de carte de profondeur du fond. La carte de profondeur représentée à la figure 5 correspond à une carte de profondeur traitée obtenue en présence d'une personne avec une poussette. Il est choisi un premier paramètre P1 de 0,75. La première image de fond associée n'est pas représentée. En soustrayant cette première carte de profondeur à la carte de profondeur de la figure 5, il est obtenu une première carte de profondeur à analyser. Le masque de profondeur associé est représenté à la figure 6.
Par définition, un masque de profondeur est une représentation binaire d'une carte de profondeur. Une valeur nulle (blanc) indique qu'un objet ou une personne dépasse la hauteur de détection tandis qu'une valeur de 1 (noir) indique l'absence d'un objet ou d'une personne dépassant la hauteur de détection. Dans le cas où le premier paramètre P1 est augmenté à 0,9, le masque de la figure 7 est obtenu. La hauteur de détection diminue lorsque le premier paramètre P1 augmente. De ce fait, pour une hauteur correspondant à un premier paramètre de 0,75, il est observé seulement la tête et les épaules de la personne poussant la poussette alors que pour un premier paramètre égal à 0,9, il est observé à la fois le corps de la personne adulte poussant la poussette, mais également une forme correspondant à la poussette. Autrement dit, dans les cas représentés, pour un premier paramètre de 0,75 il est possible de détecter des objets avec une taille supérieure à 1 m environ (d'où le fait que la poussette n'est pas observée) et pour une sensibilité de 0,9, pratiquement tous les objets de taille supérieure au sol sont détectés.
Le procédé de détection comporte alors une étape 106d'extraction des composantes connexes pertinentes du masque de profondeur.
Un algorithme de calcul des composantes connexes appliqué directement au masque de profondeur permet d'extraire les composantes connexes du masque de profondeur. Ces composantes connexes ne sont toutefois pas les composantes connexes pertinentes dans la mesure où le masque de profondeur comporte des imperfections liées à l'acquisition de la carte de profondeur et aux fluctuations lors de cette acquisition. De ce fait, selon l'exemple de la figure 2, l'étape 106 d'extraction des composantes connexes pertinentes comprend deux sous-étapes 106_1 et 106_2: une première sous-étape 106_1 de régularisation du masque de profondeur et une sous-étape 106_2 de calcul des composantes connexes du masque de profondeur régularisé.
La sous-étape 106_1 de régularisation est effectuée à l'aide d'opérations morphologiques ayant pour but de supprimer les régions de petite taille du masque. Ces régions ne seraient pas pertinentes dans le cadre de l'application visée, à savoir reconnaître des objets macroscopiques et des personnes. Selon les cas, ce sont quelques pixels blancs isolés qui sont noircis ou des pixels noirs qui sont rendus blancs.
Ce changement se fonde sur l'environnement du pixel et la morphologie des zones attendues en présence de personnes ou d'objets usuels. En variante, la sous-étape 106_1 de régularisation comprend des traitements de lissage. L'analyse en composantes connexes de la sous-étape 106_2 de calcul permet alors d'extraire les composantes connexes pertinentes du masque régularisé. Il est donc compris que le terme pertinent dans le cadre de cette étape 106 d'extraction des composantes connexes signifie pertinent vis-à-vis des objets détectés ou des personnes détectées. A l'issue de l'étape 106 d'extraction des composantes connexes pertinentes, il est donc obtenu un certain nombre de composantes connexes. Chacune de ces composantes connexes va être successivement examinée. Dans la suite de la description, le traitement appliqué sur une seule composante connexe est seulement décrit sachant que, dans le cas général, le même traitement est appliqué à toutes les composantes connexes successivement. Pour cela, le procédé sera illustré à l'aide d'une situation particulière où seule une personne est présente ainsi que représenté à la figure 8. Le procédé de détermination comporte ensuite une étape 108 de détermination du nombre d'objets et/ou de personnes contenus dans la composante connexe étudiée. Cette étape 108 de détermination exploite la surface en nombre de pixels de la composante connexe ainsi que sa morphologie.
A titre d'illustration pour le cas présenté, il est estimé que dans une seule composante connexe, un, deux, ou trois éléments (objets ou personnes) sont présents dans les cas suivants : - si l'aire de la composante connexe est inférieure à une première valeur de seuil de surface SI : il n'y a aucun élément dans la composante connexe, - si l'aire de la composante connexe est comprise entre la première valeur de seuil de surface S1 et la deuxième valeur de seuil de surface S2 un élément se trouve dans la composante connexe, - si l'aire de la composante connexe est supérieure à la deuxième valeur de seuil de surface S2 et inférieure à une troisième valeur de seuil de surface S3 et que la circularité de la composante connexe est supérieure à un seuil de circularité C1, un élément est présent dans la composante connexe, - si l'aire de la composante connexe est comprise entre la deuxième valeur de seuil de surface S2 et la troisième valeur de seuil de surface S3 et si la circularité de la composante connexe est inférieure à la valeur de seuil de circularité C1, deux éléments sont présents dans la composante connexe, et - si l'aire de la surface de la composante connexe est supérieure à la troisième valeur de seuil de surface S3, alors il y a trois éléments dans la composante connexe. La circularité notée C est un paramètre défini par la formule suivante : 47rA p2 Où: - A est l'aire de la composante connexe et - P est le périmètre de la composante connexe. Les valeurs de seuil S1, S2, S3 et S4 dépendent d'un modèle de tête d'une 25 personne moyenne. Le modèle dépend également de paramètres d'acquisition de la carte en profondeur et/ou de paramètres de traitements appliqués à la carte en profondeur. Les paramètres d'acquisition de la carte en profondeur peuvent notamment comprendre la hauteur de détection souhaitée (H1 en l'occurrence), la hauteur de la caméra, la fréquence d'acquisition de la caméra, le champ de la caméra. 30 Les paramètres de traitements appliqués à la carte en profondeur comprennent par exemple les paramètres du noyau de débruitage appliqué à la carte en profondeur, le premier paramètre P1 ou encore les paramètres caractéristiques des éventuels filtres morphologiques appliqués pour extraire les composantes connexes pertinentes. Selon les modes de réalisation, les paramètres de traitement sont obtenus de 35 manière empirique en utilisant l'expérience de l'homme du métier ou par un algorithme d'apprentissage sur des personnes ou sur des personnes portant des objets ou sur des20 personnes poussant ou tirant des objets. L'algorithme d'apprentissage permet d'établir une optimisation globale du choix des paramètres en considérant plusieurs paramètres simultanément au contraire de la méthode empirique qui consiste à se positionner pour certains paramètres au niveau d'un optimum local en vue d'obtenir le meilleur choix.
Ce procédé d'estimation du nombre d'objets est donc un procédé avec des seuils évolutifs, ce qui permet d'améliorer la précision de la détection du nombre de personnes et/ou d'objets dans certains cas particuliers, comme lors du passage de deux enfants dans le couloir 14. Avec un modèle utilisant simplement la représentation de la tête d'une personne moyenne, seule une personne est détectée alors qu'avec le procédé proposé, deux personnes sont détectées. En variante, le procédé d'estimation comporte uniquement une étape de comparaison de l'aire de la composante connexe sans comparaison pour la circularité. Ceci est plus simple à mettre en oeuvre. Dans le cas illustré, à l'issue de l'étape 108 d'estimation il est déterminé que l'espace considéré, à savoir la composante connexe étudiée, ne comprend qu'un seul objet ou qu'une seule personne. Le procédé de détection comporte alors une étape 110 de détection de personnes et/ ou d'objets dans la composante connexe étudiée. L'étape 110 de détection comporte une pluralité de sous-étapes 110_1, 110_2 et 110_3 qui sont maintenant décrites. L'étape 110 de détection comporte une sous-étape 110_1 de détermination de régions d'intérêt. Dans le cadre de l'invention, il est rappelé que la carte comporte un ensemble de pixels associés chacun à une distance au capteur optique 18. Une région d'intérêt regroupe les pixels associés à la même distance à ± 5% près. Chaque région d'intérêt peut donc être définie par une distance au capteur optique 18. Selon un mode de réalisation préférée, les régions d'intérêts déterminées regroupent uniquement les pixels contigus. En effet, dans le cadre d'une détection d'un être humain, les régions d'intérêt correspondent à des parties du corps et sont donc continues. De multiples algorithmes connus permettent d'obtenir les régions d'intérêt. A titre d'exemple, une région d'intérêt peut être obtenue par un algorithme de clustering. En analyse de données statistiques, le clustering (data clustering pour les anglophones) décrit des méthodes de classification de données comme la méthode de regroupement hiérarchique ou la méthode de partitionnement de données. En l'occurrence, les données à classer sont des distances au capteur optique 18.
A titre d'illustration, pour le cas d'une personne traversant le couloir (cas de a figure 8), plusieurs régions d'intérêts ont été déterminées comme le montre la figure 10. Apparaissent notamment trois régions d'intérêts : une première région d'intérêt 200 associée à la tête de la personne, une deuxième région d'intérêt 201 associée aux épaules de la personne ainsi qu'une troisième région d'intérêt 204 associée aux bras de la personne. Optionnellement, l'étape 110 de détection comporte une étape additionnelle de sélection des régions d'intérêts. Une manière de sélectionner les régions d'intérêt est de choisir les distances auxquelles elles sont associées. Par exemple, pour le procédé décrit, les deux régions d'intérêt dont la distance au capteur optique 18 est la plus faible sont particulièrement intéressantes dans la mesure où la probabilité que ces régions d'intérêt correspondent à la tête et aux épaules est importante. L'étape 110 de détection comporte en outre une sous-étape 110_2 d'ajustement de zones théoriques issues d'un modèle humain pour la tête et les épaules aux deux premières régions d'intérêt 200 et 202. La région d'intérêt 200 correspondant à la tête et la région d'intérêt 202 correspondant aux épaules sont comparées respectivement à deux zones théoriques. En l'occurrence, la zone théorique de la tête est une première ellipse tandis que deux ellipses correspondent à la zone théorique des épaules. Dans chacun des cas, les zones théoriques sont ajustées selon une métrique sélectionnée pour que les zones théoriques correspondent du point de vue de leur orientation et de leur position aux régions d'intérêt sélectionnées. Dans l'exemple illustré par la figure 11, la meilleure orientation de la zone théorique est choisie comme celle qui donne la meilleure corrélation.
La même procédure est répétée pour les épaules. L'étape 110 de détection une sous-étape de calcul d'un score de similarité entre le modèle humain et la composante connexe étudié, ce score étant comparé à un seuil. Lorsque que le score est supérieur au seuil, un être humain est détecté A l'aide de ces zones théoriques ajustées, il est possible d'obtenir un score de similarité entre la zone théorique ajustée et la région d'intérêt étudiée. Pour la tête, le score de similarité se calcule en utilisant la formule suivante : Miéte - piété stête =1 Mtête + Date Mtête n Dtéte Où: - Ste, est le score de similarité pour la tête, - Mtête est l'aire associée à la zone théorique pour la tête, - Dtête est l'aire associée à la région d'intérêt 200 correspondant à la tête, et - M tête n Dtête est l'aire associée à l'intersection de la zone théorique pour la tête et de la région d'intérêt 200 correspondant à la tête. Le score de similarité pour les épaules se calcule de la même manière Pour obtenir un score de similarité global avec un modèle humain, une moyenne arithmétique des deux scores de similarité est effectuée. Ceci s'écrit mathématiquement comme : = -1 (S - - S 2 tete épaules Où : - S est le score de similarité global, et - Stête est le score de similarité pour les épaules. De préférence, pour améliorer la détection, le score global est diminué si la différence entre la distance associée à la région d'intérêt 200 correspondant à la tête et la distance associée à la région d'intérêt 202 correspondant aux épaules est inférieure à 250 mm. En effet, selon la demanderesse, une telle distance correspond à la distance minimale entre la tête et les épaules. De ce fait, si la distance entre la tête et les épaules est inférieure à 250 mm, cela signifie généralement que la composante connexe détectée et étudiée est en réalité un objet. Par exemple, le score de similarité global peut être multiplié par un scalaire inférieur à 1, par exemple 0,8. Le score de similarité global est alors comparé à un seuil. De préférence, le seuil est déterminé par un algorithme d'apprentissage. En l'occurrence, comme un être humain est présent, il est détecté la présence d'une personne.
Le procédé de détection comporte également une étape 112 de suivi d'objets et/ou de personnes. Par exemple, le suivi d'objets peut être fait selon l'algorithme de Munkres. Le cas échéant, le procédé peut également comporter une étape 114 de détection d'environnement de personnes et/ou d'objets entourant la personne détectée à l'issue de l'étape 110 de détection. Par exemple, une telle étape 114 de détection d'environnement consiste à reprendre les étapes 104 d'extraction du fond, 106 d'extraction des composante connexes pertinentes, 108 d'estimation et 110 de détection de personnes et/ou d'objets dans la composante connexe étudiée à une deuxième hauteur prédéterminée H2 (et donc une valeur de premier paramètre égale à 0,9 au lieu de 0,75). Cela permet de bénéficier des résultats de la première analyse à la première hauteur prédéterminée H1 et de détecter la poussette avec plus de facilité. La présence d'une personne a déjà été détectée et il reste simplement à déterminer qu'une poussette se trouve à côté d'elle. Ainsi, en étudiant le procédé présenté, il a été montré que le contrôleur 20 commande l'ouverture de la porte 16 à l'instant où la personne autorisée se présente devant la porte 16. Tant que la personne n'est pas entièrement passée, le contrôleur 20 maintient l'ouverture de la porte 16. Dès que la personne est passée, le contrôleur 20 commande la fermeture de la porte 16.
L'exemple précédemment décrit de fonctionnement est le cas d'utilisation le plus simple. D'autres exemples sont également gérés par le système de contrôle d'accès 10. Dans certains cas, la personne porte un sac à dos ou un bagage, tire une poussette ou tire la main d'un enfant l'accompagnant. Dans cette situation, tant que ladite personne et ce qu'elle porte, tire ou l'enfant ne sont pas entièrement passés, le contrôleur 20 maintient l'ouverture de la porte 16. Dès que la personne est passée ainsi que ce qu'elle porte, tire ou l'enfant également, le contrôleur 20 commande la fermeture de la porte 16. Similairement, le système de contrôle d'accès 10 permet également d'éviter les fraudes avec deux personnes se suivant de près, ou si une personne cherche à utiliser le droit de passage accordé à une autre personne en franchissant le passage 22 dans le sens opposé au sens de circulation. Ainsi, le système de contrôle d'accès 10 est capable de détecter et de discriminer une personne portant un sac à dos ou une personne tirant un bagage ou une poussette, ou encore une personne accompagnée d'un enfant de petite taille. Le système de contrôle d'accès 10 présente donc une détection précise, permettant notamment d'adapter le temps d'ouverture de la porte 16 à chaque cas. Ceci évite tous les accidents ou incidents dus à une fermeture précoce. De ce fait, le fonctionnement en toute sécurité du système de contrôle d'accès 10 est donc assuré, la porte 16 ne se refermant qu'après le passage complet d'une personne.
Le système de contrôle d'accès 10 est utilisable dans toutes les applications de contrôle d'accès physique : réseaux de transport en commun (gares, stations de métro), aérogares, bâtiments publics ou privés, salles de spectacles, ensembles de manifestations sportifs, ou autres. Le procédé de détection présenté en référence à la figure 2 est utilisable dans toute application dans lequel il convient de détecter le nombre de personnes dans un volume.
En outre, il sera compris que certaines étapes peuvent être réalisées de manière autonome avec d'autres procédés de détection. Notamment, l'étape 104 d'extraction du fond pour obtenir une hauteur prédéterminée peut être mise en oeuvre avec un autre procédé de détection n'impliquant que la détection de la tête. Une fois que la détection de la tête a été effectuée, une détection à une deuxième hauteur est mise en oeuvre par exemple comme c'est le cas ici pour détecter une poussette. Egalement, il est possible d'estimer le nombre d'objets et/ou de personnes (étape 108) dans une composante connexe d'une carte de profondeur dans d'autres contextes. Cette estimation est indépendante du procédé de détection de la tête et des épaules proposé.

Claims (10)

  1. REVENDICATIONS1.- Procédé d'estimation du nombre de personnes et/ou d'objets dans un espace à l'aide d'une carte en profondeur de l'espace issue d'un capteur optique (18) comportant une étape de : - détermination d'une composante connexe dans la carte en profondeur, - comparaison de l'aire de la composante connexe à au moins un seuil de surface, et - estimation du nombre de personnes et/ou d'objets dans la composante connexe en fonction du résultat de l'étape de comparaison de l'aire, les valeurs du au moins un seuil de surface dépendant d'un modèle de tête d'une personne moyenne et de paramètres d'acquisition de la carte en profondeur et/ou de traitements appliqués à la carte en profondeur.
  2. 2.- Procédé d'estimation selon la revendication 1, dans lequel l'étape de comparaison de l'aire comprend la comparaison de l'aire de la composante connexe à un premier seuil de surface à un deuxième seuil de surface et à un troisième seuil de surface, le deuxième seuil de surface étant strictement supérieur au premier seuil de surface et le troisième seuil de surface étant strictement supérieur au deuxième seuil de surface.
  3. 3.- Procédé d'estimation selon la revendication 1 ou 2, dans lequel le procédé comporte, en outre, une étape de : - calcul de la circularité de la composante connexe, la circularité étant définie mathématiquement par : 4rA C =7 P2 Où: - C est la circularité de la composante connexe, - A est l'aire de la composante connexe, et - P est le périmètre de la composante connexe.
  4. 4.- Procédé d'estimation selon la revendication 3, dans lequel le procédé comporte, en outre, une étape de :- comparaison de la circularité calculée à un seuil de circularité, le seuil de circularité dépendant d'un modèle de tête d'une personne moyenne, et de paramètres d'acquisition de la carte en profondeur et/ou de traitements appliqués à la carte en profondeur, l'étape d'estimation du nombre de personnes et/ou d'objets dans la composante connexe étant également fonction de l'étape de comparaison de la circularité.
  5. 5.- Procédé d'estimation selon les revendications 1 à 4, dans lequel à l'étape d'estimation, il est estimé que : - aucun élément n'est présent dans la composante connexe si l'aire de la composante connexe est inférieure au premier seuil de surface, - un élément est présent dans la composante connexe si l'aire de la composante connexe est comprise entre le premier seuil de surface et le deuxième seuil de surface, - un élément est présent dans la composante connexe si l'aire de la composante connexe est comprise entre le deuxième seuil de surface et le troisième seuil de surface et si la circularité est inférieure au seuil de circularité, - un élément est présent dans la composante connexe si l'aire de la composante connexe est comprise entre le deuxième seuil de surface et le troisième seuil de surface et si la circularité est supérieure au seuil de circularité, - deux éléments sont présents dans la composante connexe si l'aire de la composante connexe est comprise entre le deuxième seuil de surface et le troisième seuil de surface et si la circularité est inférieure au seuil de circularité, et - trois éléments sont présents dans la composante connexe si l'aire de la composante connexe est supérieure au troisième seuil de surface, l'élément étant une personne ou un objet.
  6. 6.- Procédé selon l'une quelconque des revendications 1 à 5, dans lequel les paramètres d'acquisition de la carte en profondeur sont choisis dans le groupe constitué de la hauteur de la caméra, de la fréquence d'acquisition de la caméra et du champ de la caméra.
  7. 7.- Procédé selon l'une quelconque des revendications 1 à 6, dans lequel les paramètres de traitements appliqués à la carte en profondeur sont obtenus par un algorithme d'apprentissage sur des personnes ou sur des personnes portant des objets ou sur des personnes poussant ou tirant des objets.
  8. 8.- Procédé de détection selon quelconque des revendications précédentes, dans lequel les étapes de détection sont mises en oeuvre par une détection de la tête et des épaules des éventuelles personnes dans la carte en profondeur.
  9. 9.- Programme d'ordinateur comprenant des instructions de code de programmation aptes à être mises en oeuvre par un processeur, le processeur étant apte à mettre en oeuvre le procédé selon l'une quelconque des revendications 1 à 8.
  10. 10.- Système de contrôle d'accès (10) comportant un couloir (14) s'étendant le long d'une première direction (X) et barré par une porte (16) s'ouvrant ou se fermant pour autoriser ou interdire le passage de personnes, en fonction de la détection de présences de personnes et/ou de vérification d'autorisation d'accès affectés auxdites personnes, le système de contrôle d'accès (10) comprenant : - un moyen de reconnaissance d'endroits d'accès (28) au couloir (14), - un capteur optique (18) propre à acquérir une carte de profondeur d'au moins une partie du système de contrôle d'accès (10) et positionnée à l'aplomb du couloir (14), - un contrôleur (20) propre à réaliser la reconnaissance et le suivi de contour de personnes et/ou d'objets présents dans le couloir (14), en vue d'une commande adaptée d'ouverture et de fermeture de la porte (16), le contrôleur (20) étant propre à mettre en oeuvre le procédé selon l'une quelconque des revendications 1 à 8.
FR1303047A 2013-12-20 2013-12-20 Procede d'estimation du nombre de personnes et ou d'obets dans un espace Active FR3015731B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1303047A FR3015731B1 (fr) 2013-12-20 2013-12-20 Procede d'estimation du nombre de personnes et ou d'obets dans un espace
PCT/EP2014/078905 WO2015092040A1 (fr) 2013-12-20 2014-12-19 Procédé d'estimation du nombre de personnes et/ou d'objets dans un espace

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1303047A FR3015731B1 (fr) 2013-12-20 2013-12-20 Procede d'estimation du nombre de personnes et ou d'obets dans un espace

Publications (2)

Publication Number Publication Date
FR3015731A1 true FR3015731A1 (fr) 2015-06-26
FR3015731B1 FR3015731B1 (fr) 2016-02-05

Family

ID=50828953

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1303047A Active FR3015731B1 (fr) 2013-12-20 2013-12-20 Procede d'estimation du nombre de personnes et ou d'obets dans un espace

Country Status (2)

Country Link
FR (1) FR3015731B1 (fr)
WO (1) WO2015092040A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11480666B2 (en) * 2016-07-12 2022-10-25 Rockwell Collins France Method and device for determining an operational geographical zone observed by a sensor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112539756B (zh) * 2020-11-30 2023-06-20 深圳银星智能集团股份有限公司 一种长通道识别方法及机器人

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1482448A2 (fr) * 2003-05-28 2004-12-01 TRW Automotive U.S. LLC Procédé et dispositif de détermination de position de la tête d'un passager, dans un système déclenchable de retenue de passager
US20070268145A1 (en) * 2006-05-19 2007-11-22 Bazakos Michael E Automated tailgating detection via fusion of video and access control

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103069796B (zh) * 2010-08-17 2016-05-11 Lg电子株式会社 用于计数目标的方法和使用多个传感器的装置
US8903119B2 (en) * 2010-10-11 2014-12-02 Texas Instruments Incorporated Use of three-dimensional top-down views for business analytics
JP2015519687A (ja) * 2012-04-20 2015-07-09 レンセレイアー ポリテクニック インスティテュート 照明空間を特性評価するための検知照明システム及び方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1482448A2 (fr) * 2003-05-28 2004-12-01 TRW Automotive U.S. LLC Procédé et dispositif de détermination de position de la tête d'un passager, dans un système déclenchable de retenue de passager
US20070268145A1 (en) * 2006-05-19 2007-11-22 Bazakos Michael E Automated tailgating detection via fusion of video and access control

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DAVID BEYMER ET AL: "Real-Time Tracking of Multiple People Using Continuous Detection", IEEE ICCV'99 FRAME-RATE WORKSHOP, 21 September 1999 (1999-09-21), XP055143923 *
SANGHO PARK ET AL: "Head segmentation and head orientation in 3D space for pose estimation of multiple people", 20000402; 20000402 - 20000404, 2 April 2000 (2000-04-02), pages 192 - 196, XP010378658 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11480666B2 (en) * 2016-07-12 2022-10-25 Rockwell Collins France Method and device for determining an operational geographical zone observed by a sensor
US20230057370A1 (en) * 2016-07-12 2023-02-23 Rockwell Collins France S.A.S. Method and device for determining an operational geographical zone observed by a sensor
US11835617B2 (en) 2016-07-12 2023-12-05 Rockwell Collins France S.A.S. Method and device for determining an operational geographical zone observed by a sensor

Also Published As

Publication number Publication date
FR3015731B1 (fr) 2016-02-05
WO2015092040A1 (fr) 2015-06-25

Similar Documents

Publication Publication Date Title
EP3707676B1 (fr) Procédé d'estimation de pose d'une caméra dans le référentiel d'une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d'ordinateur associé
EP2024900B1 (fr) Procede d'identification d'une personne et dispositif d'acquisition
Shi et al. Real-time traffic light detection with adaptive background suppression filter
CN107578091B (zh) 一种基于轻量级深度网络的行人车辆实时检测方法
EP2593907B1 (fr) Procédé de détection d'une cible dans des images stéréoscopiques par apprentissage et classification statistique à partir d'une loi de probabilité
WO1993021596A1 (fr) Procede et dispositif d'analyse de sequences d'images routieres pour la detection d'obstacles
EP2751739B1 (fr) Detection de fraude pour systeme de controle d'acces de type biometrique
US11461592B2 (en) Methods and systems for object recognition in low illumination conditions
EP3901794A1 (fr) Procédé d'authentification ou d'identification d'un individu
EP2257924A2 (fr) Procede pour generer une image de densite d'une zone d'observation
FR3015746A1 (fr) Systeme de controle d'acces
FR3015731A1 (fr) Procede d'estimation du nombre de personnes et ou d'obets dans un espace
FR3015730A1 (fr) Procede de detection de personnes et ou d'objets dans un espace
FR2958767A1 (fr) Procede de detection de cibles dans des images stereoscopiques.
FR3015732A1 (fr) Procede de detection de personnes et ou d'objets dans un espace
EP0588815A1 (fr) Procede et dispositif d'analyse de sequences d'images routieres pour la detection d'obstacles
WO2020165544A1 (fr) Identification de zones roulables avec prise en compte de l'incertitude par une méthode d'apprentissage profond
WO2020109122A1 (fr) Dispositif et procede d'authentification d'un individu
CN108288041B (zh) 一种行人目标错检去除的预处理方法
Alharbi et al. Spoofing Face Detection Using Novel Edge-Net Autoencoder for Security.
EP1581911A1 (fr) Syst me de contr le d acc s
Mishra Automatic moving vehicle's information extraction from one-pass worldview-2 satellite imagery
FR2872326A1 (fr) Procede de detection d'evenements par videosurveillance
FR2927443A1 (fr) Procede de suivi d'individus dans un champ de vision d'une camera
Liu et al. Iris Image Quality Assessment Based on Saliency Detection

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11