FR2941317A1 - Objects e.g. human, detecting and classifying method, involves associating detected object with reference objects, if attribute of detected object follows evolution rule of attribute, and classifying detected object - Google Patents
Objects e.g. human, detecting and classifying method, involves associating detected object with reference objects, if attribute of detected object follows evolution rule of attribute, and classifying detected object Download PDFInfo
- Publication number
- FR2941317A1 FR2941317A1 FR0950363A FR0950363A FR2941317A1 FR 2941317 A1 FR2941317 A1 FR 2941317A1 FR 0950363 A FR0950363 A FR 0950363A FR 0950363 A FR0950363 A FR 0950363A FR 2941317 A1 FR2941317 A1 FR 2941317A1
- Authority
- FR
- France
- Prior art keywords
- detected object
- attribute
- detecting
- detected
- odet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 241000282414 Homo sapiens Species 0.000 title description 3
- 230000008859 change Effects 0.000 claims abstract description 19
- 238000004590 computer program Methods 0.000 claims abstract description 7
- 238000001514 detection method Methods 0.000 claims description 15
- 206010000117 Abnormal behaviour Diseases 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B31/00—Predictive alarm systems characterised by extrapolation or other computation using updated historic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/36—Indoor scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Computing Systems (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
Abstract
Description
Arrière-plan de l'invention L'invention se situe dans le domaine des systèmes de surveillance. BACKGROUND OF THE INVENTION The invention lies in the field of surveillance systems.
Elle vise plus particulièrement un procédé et un système de détection et de classification d'objet dans un espace fini ou confiné. Dans ce document, la notion "d'espace fini" ou "d'espace confiné" doit être comprise comme l'espace dans lequel les objets peuvent être détectés, cet espace étant limité par les caractéristiques des capteurs utilisés pour détecter ces objets. En conséquence, un espace fini ou confiné au sens de ces demandes de brevet n'est pas nécessairement un espace clos. Dans ce document, la notion "d'objet" doit être comprise au sens large. Elle vise bien évidement des objets au sens classique du terme, mais aussi des êtres vivants et notamment des humains. Le document WO2008/019467 décrit un système de surveillance comportant une caméra vidéo et des moyens de détection infrarouge agencés pour détecter un objet dans le champ de vision de la caméra. Malheureusement, ce système ne permet pas de classer les objets ainsi détectés. More particularly, it relates to a method and a system for detecting and classifying objects in a finite or confined space. In this document, the concept of "finite space" or "confined space" should be understood as the space in which objects can be detected, this space being limited by the characteristics of the sensors used to detect these objects. As a result, a finite or confined space within the meaning of these patent applications is not necessarily a closed space. In this document, the notion of "object" must be understood in a broad sense. It is obviously objects in the classic sense of the term, but also living things and especially humans. The document WO2008 / 019467 describes a surveillance system comprising a video camera and infrared detection means arranged to detect an object in the field of view of the camera. Unfortunately, this system does not allow to classify the objects thus detected.
Objet et résumé de l'invention La présente invention résout les inconvénients cités de l'art antérieur. OBJECT AND SUMMARY OF THE INVENTION The present invention overcomes the aforementioned drawbacks of the prior art.
Selon un premier aspect, l'invention concerne un procédé de détection et de classification d'objets dans un espace fini observé par au moins un capteur, chaque objet étant défini par au moins un attribut, ce procédé comportant : - une étape de calibration d'au moins un objet de référence comportant, pour chaque attribut de cet objet, la définition d'une règle d'évolution de cet attribut dans le temps ; - une étape de détection, par au moins un des capteurs, d'un premier changement dans l'espace fini ; - une étape de construction d'au moins un objet dit objet détecté , ce ou ces objet(s) comportant au moins un attribut obtenu par analyse de ce premier changement ; - une étape d'association de l'objet détecté avec au moins un des objets de référence si au moins un attribut de l'objet détecté suit la règle d'évolution d'un attribut correspondant de l'objet de référence ; et - une étape de classification de l'objet détecté en fonction du résultat de l'étape d'association. D'une façon générale, l'invention vise à détecter des changements dans l'espace fini, à construire des objets détectés et à identifier des "ressemblances" avec les objets de référence pour les classifier. According to a first aspect, the invention relates to a method for detecting and classifying objects in a finite space observed by at least one sensor, each object being defined by at least one attribute, this method comprising: a calibration step of at least one reference object comprising, for each attribute of this object, the definition of a rule of evolution of this attribute over time; a step of detection, by at least one of the sensors, of a first change in the finite space; a step of constructing at least one object said detected object, this or these object (s) comprising at least one attribute obtained by analysis of this first change; a step of associating the detected object with at least one of the reference objects if at least one attribute of the detected object follows the evolution rule of a corresponding attribute of the reference object; and a step of classifying the detected object according to the result of the association step. In general, the invention aims to detect changes in the finite space, to construct detected objects and to identify "similarities" with the reference objects to classify them.
Conformément à l'invention, ce rapprochement ne se fait pas de façon statique, mais en observant l'évolution dans le temps d'un ou plusieurs attributs de l'objet détecté. Dans un mode particulier de réalisation de l'invention, l'attribut d'un objet peut notamment être choisi parmi la position ou la trajectoire de cet objet dans l'espace fini ou confiné, une information sur la morphologie de cet objet et une information sur la vitesse de cet objet. Conformément à l'invention, on définit pour chaque attribut de chaque objet de référence, une règle d'évolution de cet attribut dans le temps. According to the invention, this approximation is not done statically, but by observing the evolution over time of one or more attributes of the detected object. In a particular embodiment of the invention, the attribute of an object may in particular be chosen from the position or trajectory of this object in the finite or confined space, information on the morphology of this object and information on the speed of this object. According to the invention, for each attribute of each reference object, a rule of evolution of this attribute is defined in time.
A titre d'exemple, considérons un objet de référence constitué par un ballon. Dans cet exemple, les règles d'évolution de la morphologie du ballon, peuvent prendre en compte le coefficient de dilatation du ballon pour déterminer les variations de volume de ce ballon ainsi que les différentes formes que peut prendre ce ballon s'il venait à se dégonfler. For example, consider a reference object consisting of a balloon. In this example, the rules of evolution of the morphology of the balloon, can take into account the coefficient of expansion of the balloon to determine the variations of volume of this balloon as well as the different forms that can take this balloon if it came to deflate.
Toujours pour l'exemple de ce ballon, les règles d'évolution de la position du ballon (autrement dit, "règle de trajectoire") peuvent définir les différentes trajectoires que peuvent suivre ce ballon lorsqu'il roule ou lorsqu'il rebondit. Après l'étape de calibration, lorsqu'un objet est détecté dans l'espace fini, on cherche donc, au cours de l'étape d'association à déterminer si les attributs de cet objet (par exemple sa morphologie et/ou sa position et/ou sa vitesse) évoluent de la même façon que ceux d'un objet de référence. Bien entendu, trois cas peuvent se présenter : Si tous les attributs d'un objet détecté suivent les mêmes règles d'évolution que les attributs correspondants d'un objet de référence, à des tolérances prédéfinies près, on considérera que l'association de l'objet détecté avec l'objet de référence est complète, ce qui signifie que l'on considère, du moins temporairement, que l'objet détecté est du type de cet objet de référence. Still for the example of this ball, the rules for changing the position of the ball (in other words, "trajectory rule") can define the different trajectories that the ball may follow when it rolls or when it bounces. After the calibration step, when an object is detected in the finite space, it is therefore sought during the association step to determine whether the attributes of this object (for example its morphology and / or its position and / or its speed) evolve in the same way as those of a reference object. Of course, three cases may arise: If all the attributes of a detected object follow the same evolution rules as the corresponding attributes of a reference object, to within predefined tolerances, we will consider that the association of the The object detected with the reference object is complete, which means that it is considered, at least temporarily, that the detected object is of the type of this reference object.
Il se peut aussi qu'au moins un attribut de l'objet détecté, mais pas tous, suivent la règle d'évolution du ou des attributs correspondant(s) d'un objet de référence. On dira alors que l'association entre l'objet détecté et l'objet de référence est partielle. Bien entendu, il se peut enfin qu'aucun des attributs de l'objet détecté ne suive une règle d'évolution d'un attribut correspondant d'un objet de référence. On dira alors dans ce cas que l'objet détecté n'est pas associé. Le résultat de l'étape d'association (association complète, association partielle, non association) est utilisé pour classer l'objet détecté. On peut par exemple définir trois classes pour chacune de ses situations à savoir : - classe des objets identifiés (dans le cas de l'association complète avec un objet de référence) ; - classe des objets identifiés perturbés (dans le cas d'une association partielle avec un objet de référence) ; et - classe des objets non identifiés (dans le cas d'un objet non associé avec un objet de référence). Dans un mode particulier de réalisation de l'invention, un message peut être envoyé à un centre de surveillance et de contrôle après chaque détection d'objet. On notera que cette première classification est effectuée dès la détection de l'objet dans l'espace fini. Dans un mode particulier de mise en oeuvre de l'invention, on associe une structure de donnée à chaque objet détecté, cette structure étant mise à jour au fur et à mesure que l'on obtient des informations sur le comportement de l'objet détecté. Dans un mode particulier de réalisation de l'invention, les structures de données des objets détectés peuvent être ultérieurement utilisées pour modifier les attributs des objets de référence et/ou pour créer de nouveaux objets de référence. It is also possible that at least one attribute of the detected object, but not all, follow the evolution rule of the corresponding attribute (s) of a reference object. It will be said that the association between the detected object and the reference object is partial. Of course, it may be that none of the attributes of the detected object follow a rule of evolution of a corresponding attribute of a reference object. In this case, it will be said that the detected object is not associated. The result of the association step (full association, partial association, no association) is used to classify the detected object. One can for example define three classes for each of its situations namely: - class of the identified objects (in the case of the complete association with a reference object); - class of disturbed identified objects (in the case of a partial association with a reference object); and - class unidentified objects (in the case of an object not associated with a reference object). In a particular embodiment of the invention, a message may be sent to a monitoring and control center after each object detection. It will be noted that this first classification is performed as soon as the object is detected in the finite space. In a particular embodiment of the invention, a data structure is associated with each detected object, this structure being updated as information on the behavior of the detected object is obtained. . In a particular embodiment of the invention, the data structures of the detected objects can be subsequently used to modify the attributes of the reference objects and / or to create new reference objects.
Dans un mode particulier de réalisation de l'invention, l'espace fini comporte une ou plusieurs ouvertures observées par au moins un des capteurs. En liaison avec la définition de l'espace fini donnée précédemment, on comprendra que la notion "d'ouverture" peut désigner des zones se trouvant à la frontière entre l'espace fini délimité par la caractéristique des capteurs et l'espace infini qui s'étend au-delà de cet espace fini, mais aussi des ouvertures physiques (fenêtre, une porte, une trappe, ...) à l'intérieur de l'espace fini. Dans un mode particulier de réalisation de l'invention, dès lors qu'un objet détecté franchit une ouverture, que ce soit en entrée (intrusion dans l'espace fini) ou en sortie, une information représentative de l'entrée ou de la sortie de l'objet dans l'espace fini est mémorisée dans la structure de donnée associée à cet objet. Dans un mode particulier de réalisation, on cherche, lorsqu'un objet détecté n'est pas associé, ou, lorsque l'association de cet objet détecté avec un objet de référence n'est que partielle, à estimer au moins un attribut de l'objet détecté, les résultats de cette estimation étant enregistrés dans la structure de donnée de l'objet détecté. Cette estimation consiste principalement à évaluer des "facteurs de hasard". Ceux-ci peuvent porter sur n'importe quel type d'attribut et en particulier sur la morphologie, la trajectoire ou la vitesse de l'objet détecté. Ainsi, par exemple, en combinant les facteurs de hasard portant sur la morphologie et la trajectoire de l'objet détecté, on pourra estimer que l'objet détecté est un humain ou un animal se déplaçant relativement lentement dans l'espace confiné ou au contraire un projectile entré par une ouverture à grande vitesse. Dans un mode particulier de mise en oeuvre de l'invention, on ne se contente pas de la première classification, et on cherche à suivre l'objet détecté pour infirmer, confirmer ou affiner sa classification. Dans ce mode de réalisation, le procédé comporte : - une étape de prédiction de l'évolution des attributs d'au moins un objet détecté à un instant déterminé ; - une étape de détection, par au moins un des capteurs, d'un deuxième changement dans l'espace fini à cet instant déterminé ; une étape de construction d'au moins un objet dit objet courant , ce ou ces objet(s) comportant au moins un attribut, ces attributs étant obtenus par analyse de ce deuxième changement ; une étape de localisation au cours de laquelle on recherche, parmi ces objets courants, d'un objet dit de poursuite dont l'attribut de position correspond, au moins sensiblement, à la valeur prédite de l'attribut de position de l'objet détecté ; et le cas échéant : - une étape de comparaison des attributs de cet objet de poursuite avec les valeurs prédites des attributs correspondants de l'objet détecté ; et une étape de confirmation ou de reclassification de l'objet détecté en fonction du résultat de l'étape de comparaison. L'invention fait ainsi la distinction entre l'association initiale d'un objet détecté avec un objet de référence, et la confirmation de cette association en surveillant l'évolution des attributs de cet objet dans le temps. Plus précisément, après qu'un objet a été détecté, on cherche à prédire son évolution à des instants déterminés, par exemple toutes les deux secondes, puis à vérifier si cette prédiction se confirme en observant l'espace fini à ces instants déterminés. In a particular embodiment of the invention, the finite space comprises one or more openings observed by at least one of the sensors. In connection with the definition of the finite space given above, it will be understood that the notion of "opening" can designate zones situated at the boundary between the finite space delimited by the characteristic of the sensors and the infinite space which is extends beyond this finite space, but also physical openings (window, door, hatch, ...) inside the finite space. In a particular embodiment of the invention, when a detected object crosses an opening, whether it is input (intrusion into finite space) or output, an information representative of the input or the output of the object in finite space is stored in the data structure associated with this object. In a particular embodiment, it is sought, when a detected object is not associated, or, when the association of this detected object with a reference object is only partial, to estimate at least one attribute of the object. detected object, the results of this estimate being recorded in the data structure of the detected object. This estimate consists mainly of evaluating "chance factors". These can relate to any type of attribute and in particular to the morphology, trajectory or speed of the detected object. Thus, for example, by combining the hazard factors relating to the morphology and the trajectory of the detected object, it can be estimated that the detected object is a human or an animal moving relatively slowly in the confined space or on the contrary a projectile entered through a high-speed opening. In a particular mode of implementation of the invention, it is not enough to use the first classification, and one tries to follow the detected object to invalidate, confirm or refine its classification. In this embodiment, the method comprises: a step of predicting the evolution of the attributes of at least one detected object at a given instant; a step of detection, by at least one of the sensors, of a second change in the finite space at this determined instant; a step of constructing at least one object said current object, this or these object (s) having at least one attribute, these attributes being obtained by analysis of this second change; a location step during which one of these current objects is searched for a so-called tracking object whose position attribute corresponds, at least substantially, to the predicted value of the position attribute of the detected object ; and where appropriate: a step of comparing the attributes of this tracking object with the predicted values of the corresponding attributes of the detected object; and a step of confirming or reclassifying the detected object according to the result of the comparing step. The invention thus makes the distinction between the initial association of a detected object with a reference object, and the confirmation of this association by monitoring the evolution of the attributes of this object over time. More precisely, after an object has been detected, it is sought to predict its evolution at given instants, for example every two seconds, and then to check whether this prediction is confirmed by observing the finite space at these determined times.
Par souci de clarté, les objets détectés dans l'espace fini à ces instants déterminés sont appelés objets courants . Si un objet courant occupe dans l'espace fini, à certaines tolérances près, une position équivalente à la position prédite d'un objet détecté, on utilise les attributs de cet objet courant pour confirmer, affiner ou infirmer la classification initiale de cet objet détecté. De tels objets courants sont appelés arbitrairement objets de poursuite , pour les distinguer des autres objets courants. Dans un mode de réalisation de l'invention, un objet courant qui n'est pas traité comme un objet de poursuite vient rejoindre le groupe des objets détectés . Autrement dit, on cherche à associer au moins partiellement cet objet courant avec un objet de référence et on lui attribue une classification initiale en fonction de cette association. On cherche ensuite à valider cette classification, en prédisant l'évolution des attributs de cet objet et en comparant les valeurs prédites de ces attributs avec les attributs de nouveaux objets courants détectés dans l'espace à ces instants déterminés. For the sake of clarity, objects detected in finite space at these determined times are called current objects. If a current object occupies in the finite space, with certain tolerances, a position equivalent to the predicted position of a detected object, we use the attributes of this current object to confirm, refine or invalidate the initial classification of this detected object. . Such common objects are arbitrarily called tracking objects, to distinguish them from other common objects. In one embodiment of the invention, a current object that is not treated as a tracking object joins the group of detected objects. In other words, we try to at least partially associate this current object with a reference object and it is assigned an initial classification according to this association. We then seek to validate this classification, by predicting the evolution of the attributes of this object and by comparing the predicted values of these attributes with the attributes of new current objects detected in space at these determined times.
Dans un mode particulier de réalisation de l'invention, lorsqu'il a été considéré, au cours de l'étape d'association, que l'attribut d'un objet détecté suit la règle d'évolution de l'attribut d'un objet de référence, on utilise cette même règle d'évolution pour prédire l'évolution dans le temps de cet attribut, en vue de sa comparaison avec les attributs des objets de poursuite. Dans un mode particulier de réalisation de l'invention, lorsqu'il a été considéré, au cours de l'étape d'association, que l'attribut d'un objet identifié perturbé ne suit pas la règle d'évolution de l'attribut d'un objet de référence, on utilise pour prédire l'évolution dans le temps de cet attribut, des informations fournies par les capteurs. Dans un mode particulier de réalisation, le procédé de détection et de classification de l'objet selon l'invention comporte au moins une étape de prévision d'un risque de collision d'un objet détecté avec au moins un autre objet de l'espace fini et une étape d'enregistrement de ce risque dans la structure de données associée à l'objet détecté. Dans cette étape de prévision de données de collision, on associe préférentiellement un volume de présence à chaque objet, ce volume correspondant aux positions probables que peut prendre l'objet dans l'espace fini. Dans un mode particulier de réalisation de l'invention, le procédé de détection et de classification d'objets comporte une étape d'alerte en cas de détection d'un comportement anormal de l'objet détecté. Préférentiellement, une alerte n'est générée qu'après interrogation d'une table de décision visant à éviter les fausses alertes. L'invention vise aussi un système de détection et de classification d'objets dans un espace fini, chaque objet étant défini par au moins un attribut, ce système comportant - des moyens de calibration d'au moins un objet de référence aptes à définir, pour chaque attribut de cet objet, une règle d'évolution de cet attribut dans le temps ; au moins un capteur apte détecter au moins un premier changement dans l'espace fini ; - des moyens de construction d'au moins un objet dit objet détecté , ce ou ces objet(s) comportant au moins un attribut obtenu par analyse de ce premier changement ; des moyens d'association de l'objet détecté avec au moins un des objets de référence si au moins un attribut de l'objet détecté suit la règle d'évolution d'un attribut correspondant à l'objet de référence ; et des moyens de classification de l'objet détecté en fonction du résultat de l'étape d'association. Les avantages et caractéristiques particuliers du système de détection et de classification selon l'invention sont identiques à ceux du procédé décrit ci-dessus et ne seront pas rappelés ici. Dans un mode particulier de réalisation, les différentes étapes du procédé de détection et de classification d'objets sont déterminées par des instructions de programmes d'ordinateurs. En conséquence, l'invention vise aussi un programme d'ordinateur sur un support d'informations, ce programme étant susceptible d'être mis en oeuvre dans un ordinateur, ce programme comportant des instructions adaptées à la mise en oeuvre des étapes d'un procédé de détection et de classification d'objets tel que décrit ci-dessus. Ce programme peut utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable. L'invention vise aussi un support d'informations lisible par un ordinateur, et comportant des instructions d'un programme d'ordinateur tel que mentionné ci-dessus. In a particular embodiment of the invention, when it has been considered, during the association step, that the attribute of a detected object follows the evolution rule of the attribute of a reference object, this same evolution rule is used to predict the evolution over time of this attribute, for comparison with the attributes of the tracking objects. In a particular embodiment of the invention, when it has been considered, during the association step, that the attribute of a disturbed identified object does not follow the evolution rule of the attribute of a reference object, it is used to predict the evolution over time of this attribute, information provided by the sensors. In a particular embodiment, the method for detecting and classifying the object according to the invention comprises at least one step for predicting a risk of collision of a detected object with at least one other object in space. finished and a step of recording this risk in the data structure associated with the detected object. In this collision data prediction step, a presence volume is preferably associated with each object, this volume corresponding to the probable positions that the object can take in the finite space. In a particular embodiment of the invention, the method for detecting and classifying objects comprises an alerting step in the event of detection of abnormal behavior of the detected object. Preferably, an alert is generated only after interrogation of a decision table to avoid false alerts. The invention also aims at a system for detecting and classifying objects in a finite space, each object being defined by at least one attribute, this system comprising: means for calibrating at least one reference object able to define, for each attribute of this object, a rule of evolution of this attribute in time; at least one sensor adapted to detect at least a first change in the finite space; means for constructing at least one object said detected object, this or these object (s) comprising at least one attribute obtained by analysis of this first change; means for associating the detected object with at least one of the reference objects if at least one attribute of the detected object follows the evolution rule of an attribute corresponding to the reference object; and means for classifying the detected object according to the result of the association step. The particular advantages and characteristics of the detection and classification system according to the invention are identical to those of the process described above and will not be repeated here. In a particular embodiment, the various steps of the method for detecting and classifying objects are determined by instructions from computer programs. Consequently, the invention also relates to a computer program on an information medium, this program being capable of being implemented in a computer, this program comprising instructions adapted to the implementation of the steps of a method of detecting and classifying objects as described above. This program can use any programming language, and be in the form of source code, object code, or intermediate code between source code and object code, such as in a partially compiled form, or in any other form desirable shape. The invention also relates to a computer-readable information medium, comprising instructions of a computer program as mentioned above.
Le support d'informations peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique, par exemple une disquette (floppy disc) ou un disque dur. D'autre part, le support d'informations peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet. The information carrier may be any entity or device capable of storing the program. For example, the medium may comprise storage means, such as a ROM, for example a CD ROM or a microelectronic circuit ROM, or a magnetic recording medium, for example a diskette (floppy disc) or a disk hard. On the other hand, the information medium may be a transmissible medium such as an electrical or optical signal, which may be conveyed via an electrical or optical cable, by radio or by other means. The program according to the invention can be downloaded in particular on an Internet type network.
Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question. Alternatively, the information carrier may be an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the method in question.
Brève description des dessins D'autres caractéristiques et avantages de la présente invention ressortiront de la description faite ci-dessous, en référence aux dessins annexés qui en illustrent un exemple de réalisation dépourvu de tout 10 caractère limitatif. Sur les figures : la figure 1 représente un système de détection et de classification d'objets conforme à l'invention dans un mode particulier de réalisation ; la figure 2 représente, sous forme d'organigramme, les principales 15 étapes d'un procédé de détection et de classification d'objets conforme à l'invention dans un mode particulier de réalisation ; la figure 3 est une structure de données représentant un objet de référence pouvant être utilisée dans l'invention ; la figure 4 illustre l'invention dans un premier scénario ; 20 la figure 5 est une structure de données représentant un objet détecté pouvant être utilisée dans l'invention ; - les figures 6, 7 et 8A à 8E illustrent l'invention dans un deuxième scénario ; et - les figures 9, et 10A à 10C illustrent l'invention dans un troisième 25 scénario. BRIEF DESCRIPTION OF THE DRAWINGS Other features and advantages of the present invention will emerge from the description given below, with reference to the accompanying drawings, which illustrate an embodiment of the invention which is devoid of any limiting character. In the figures: FIG. 1 represents a system for detecting and classifying objects according to the invention in a particular embodiment; FIG. 2 represents, in flowchart form, the main steps of a method for detecting and classifying objects according to the invention in a particular embodiment; Fig. 3 is a data structure representing a reference object that can be used in the invention; Figure 4 illustrates the invention in a first scenario; FIG. 5 is a data structure representing a detected object that can be used in the invention; FIGS. 6, 7 and 8A to 8E illustrate the invention in a second scenario; and FIGS. 9 and 10A to 10C illustrate the invention in a third scenario.
Description détaillée d'un mode de réalisation La figure 1 représente un système de détection et de classification d'objets conformes à l'invention dans un mode particulier de 30 réalisation. Sur cette figure, on a représenté un espace fini EC délimité schématiquement par un parallélépipède, cet espace fini comportant deux ouvertures OUV. Dans l'exemple de réalisation décrit ici, trois capteurs CAP 35 coopèrent pour observer l'ensemble de l'espace fini EC, au moins certaines parties de cet espace étant couvertes par plusieurs capteurs. DETAILED DESCRIPTION OF AN EMBODIMENT FIG. 1 represents a system for detecting and classifying objects according to the invention in a particular embodiment. In this figure, there is shown a finite space EC delimited schematically by a parallelepiped, this finite space having two openings OUV. In the embodiment described here, three CAP sensors 35 cooperate to observe the whole of the finite space EC, at least some parts of this space being covered by several sensors.
Plus précisément, ces capteurs sont, dans cet exemple, une caméra vidéo, un capteur volumétrique et un capteur de pression. Ces capteurs sont reliés à un ordinateur OC, dont l'organisation matérielle est classique. Cet ordinateur comporte en particulier un processeur 11, une mémoire vive de type RAM 12, une mémoire morte de type ROM 13 et une interface homme-machine IHM. La mémoire morte de type ROM 13 constitue un support d'enregistrement conforme à l'invention sur lequel est enregistré un programme d'ordinateur PG conforme à l'invention, ce programme comprenant des instructions pour exécuter un procédé de détection et de classification d'objets conforme à l'invention dont les principales étapes seront décrites ultérieurement en référence à la figure 2. A la figure 1, on a représenté quatre objets de référence ou OREF1 à OREF4. Dans l'exemple de réalisation décrit ici, l'objet de référence OREF1 est un parallélépipède apte à se déplacer en translation et en rotation dans un volume de présence VP1. L'objet de référence OREF2 est, dans cet exemple, un mur de cartons. Nous allons maintenant décrire, en référence à la figure 2, les 20 principales étapes du procédé de détection et de classification d'objets conformes à l'invention mis en oeuvre par l'ordinateur OC. Au cours d'une première étape E10 dite de calibration, on définit une règle d'évolution de chacun des attributs de chacun des objets de référence OREF1 à OREF4. 25 Dans l'exemple de réalisation décrit ici, cette étape de calibration est effectuée en utilisant l'interface homme-machine IHM de l'ordinateur OC. Nous supposerons, dans cet exemple, que les objets de référence ont quatre attributs, à savoir : 30 - un attribut MOR de morphologie ; - un attribut TRJ de trajectoire ; - un attribut POS de positon dans l'espace fini EC ; et - un attribut VIT de vitesse. Nous supposerons que les morphologies des objets de référence 35 OREF1 à OREF4 sont définies comme étant constantes dans le temps. More specifically, these sensors are, in this example, a video camera, a volumetric sensor and a pressure sensor. These sensors are connected to an OC computer, whose material organization is traditional. This computer comprises in particular a processor 11, a RAM type RAM 12, a ROM type ROM 13 and an HMI human-machine interface. The ROM-type ROM 13 constitutes a recording medium according to the invention on which a PG computer program according to the invention is recorded, this program including instructions for executing a method of detection and classification of objects according to the invention whose main steps will be described later with reference to Figure 2. In Figure 1, there is shown four reference objects or OREF1 to OREF4. In the exemplary embodiment described here, reference object OREF1 is a parallelepiped able to move in translation and in rotation in a presence volume VP1. The reference object OREF2 is, in this example, a wall of boxes. We will now describe, with reference to FIG. 2, the main steps of the method for detecting and classifying objects according to the invention implemented by the computer OC. During a first calibration step E10, an evolution rule is defined for each of the attributes of each of the reference objects OREF1 to OREF4. In the exemplary embodiment described here, this calibration step is performed using the HMI man-machine interface of the OC computer. In this example, it will be assumed that the reference objects have four attributes, namely: a MOR attribute of morphology; a trajectory TRJ attribute; a positon POS attribute in the finite space EC; and - an attribute VIT speed. We will assume that the morphologies of the OREF1 to OREF4 reference objects are defined as being constant over time.
On supposera également que les attributs de position et de vitesse de l'objet OREF1 décrivent parfaitement le mouvement de translation et de rotation de cet objet. La figure 3, illustre une structure de données utilisée pour représenter un objet de référence dans cet exemple de mise en oeuvre de l'invention. Dans l'exemple de réalisation décrit ici, chaque objet de référence comporte : - un champ DATE ; - un champ d'attribut ATB; - un champ TEM_INT. Le champ d'attribut ATB définit pour chacun des attributs de position POS, de trajectoire TRJ, de morphologie MOR et de vitesse VIT, la règle d'évolution EV_POS (t), EV_TRJ(t), EV_MOR (t) et EV_VIT (t) de ces attributs dans le temps. It will also be assumed that the position and speed attributes of the object OREF1 perfectly describe the translational and rotational movement of this object. FIG. 3 illustrates a data structure used to represent a reference object in this exemplary implementation of the invention. In the embodiment described here, each reference object comprises: a DATE field; an attribute field ATB; a field TEM_INT. The attribute field ATB defines for each of the POS position, TRJ trajectory, MOR morphology and VIT speed attributes, the evolution rule EV_POS (t), EV_TRJ (t), EV_MOR (t) and EV_VIT (t). ) of these attributes over time.
Le champ DATE, optionnel pour l'invention, est, dans cet exemple une date de validité de l'objet de référence. Un champ TEM_INT est, dans cet exemple, une information binaire qui définit si un objet du type de cet objet de référence est autorisé à pénétrer dans l'espace fini EC. The DATE field, optional for the invention, is, in this example, a validity date of the reference object. A TEM_INT field is, in this example, a binary information that defines whether an object of the type of this reference object is allowed to enter the finite space EC.
Les objets de référence OREF1 à OREF4 et leurs attributs (morphologie, attributs statiques et dynamiques, loi d'évolution,...) sont, dans cet exemple, mémorisés dans une base de données BD de l'ordinateur OC. Dans l'exemple de réalisation décrit ici, la base de données BD comporte également une table de décision TD analysée par l'ordinateur central OC avant d'envoyer un message d'alerte à l'interface homme-machine IHM de l'ordinateur OC. En référence à la figure 4, nous supposerons maintenant que l'objet de référence OREF1 est mis en mouvement de translation et/ou de 30 rotation. Ce mouvement se traduit par un premier changement dans l'espace fini EC détecté par au moins un des capteurs CAP, au cours d'une étape E15. L'ordinateur OC construit alors, au cours d'une étape E20, un 35 objet détecté, référencé ODET sur la figure 4 dont les attributs sont obtenus par analyse de ce premier changement. The reference objects OREF1 to OREF4 and their attributes (morphology, static and dynamic attributes, evolution law, etc.) are, in this example, stored in a database BD of the computer OC. In the exemplary embodiment described here, the database BD also comprises a decision table TD analyzed by the central computer OC before sending an alert message to the human-machine interface HMI of the computer OC . With reference to FIG. 4, it will now be assumed that reference object OREF1 is moved in translation and / or rotation. This movement results in a first change in the finite space EC detected by at least one of the CAP sensors, during a step E15. The computer OC then builds, during a step E20, a detected object, referenced ODET in FIG. 4, whose attributes are obtained by analyzing this first change.
On détermine, au cours de cette étape E20, les attributs de position POS, de trajectoire TRJ, de morphologie MOR et de vitesse VIT de l'objet détecté ODET1. Dans le cas d'un capteur vidéo statique, on effectue préférentiellement cette étape de détermination en sortie du capteur, avant compression d'image. Dans un mode de réalisation particulier, on considère une série de N trames vidéo consécutives auxquelles on applique le traitement suivant : - Estimation de l'arrière-plan ; - Détection de mouvements et de déplacements sur la série de N trames ; - Estimation de la position et de la vitesse ; - Poursuite et suivi de forme ; - Extraction de forme ; - Obtention d'une information de déformation ; et - Reconnaissance de forme. Chacun de ces traitements d'image est connu en soi de l'homme du métier. Pour plus de détails, on peut notamment se référer au document Handbook Of Image and Video Processing , d'Al Bovik Academic Press Edition, publié en 2005 sous la référence ISBN-10: 0121197921. La figure 5 illustre une structure de données utilisée pour représenter un objet détecté dans cet exemple de mise en oeuvre de l'invention. Cet objet comporte des attributs ATB du type de ceux de l'objet de référence OREF de la figure 3 et une structure de données SD. Dans l'exemple de réalisation décrit ici, la structure de données SD comporte : - des champs IN et OUT pour enregistrer une information représentative du fait que l'objet détecté entre ou sort de l'espace confiné EC , - des champs "Objet Lent", "Objet Rapide", "Homme Lent", "Homme Rapide" dans lesquels on peut enregistrer une estimation du comportement de l'objet détecté ; - des champs "Cible" et "Date" dans lesquels on peut enregistrer la référence d'un objet de l'espace fini EC qui risque d'être percuté par l'objet détecté ODET et la date prévue de cette percussion ; et - un champ VOL_PRE qui définit le volume de présence attendu de l'objet détecté, à savoir l'ensemble des positions probables que peut prendre cet objet dans l'espace fini EC. Au cours d'une étape E25, on détermine si l'objet détecté est un objet qui entre ou qui sort de l'espace fini EC, ce qui est le cas dès lors que l'objet détecté ODET1 occupe une position correspondant à celle des ouvertures OUV. Si tel est le cas, on enregistre l'information d'entrée ou de sortie dans les champs IN ou OUT de la structure de données SD de l'objet détecté ODET1. Cette étape E25 de détection d'entrée/sortie dans/de l'espace fini est suivie par une étape E30 au cours de laquelle on cherche à associer l'objet détecté ODET1 avec au moins un des objets de référence OREF1 à OREF4 mémorisé dans la base de données BD de l'ordinateur OC. Cette étape consiste à vérifier, pour chacun des attributs de position POS, de morphologie MOR et de vitesse VIT de l'objet détecté ODET, si cet attribut suit la règle d'évolution correspondante EV_POS(t), EV_MOR(t) et EV_VIT(t) d'un objet de référence OREF1 à OREF4. Dans l'exemple de la figure 4, il est bien clair que chacun des attributs de l'objet détecté ODET1 suit exactement, aux tolérances près, la règle d'évolution de l'attribut correspondant de l'objet de référence OREF1. During this step E20, the POS position, TRJ trajectory, morphology MOR and speed VIT attributes of the detected object ODET1 are determined. In the case of a static video sensor, this determination step is preferably carried out at the output of the sensor, before image compression. In a particular embodiment, consider a series of N consecutive video frames to which the following treatment is applied: - Estimation of the background; - Detection of movements and displacements on the series of N frames; - Estimation of position and speed; - Prosecution and follow-up of form; - Extraction of form; - Obtaining a deformation information; and - Recognition of form. Each of these image treatments is known to those skilled in the art. For further details, reference may be made to Al Bovik Academic Press's Handbook of Image and Video Processing, published in 2005 as ISBN-10: 0121197921. Figure 5 illustrates a data structure used to represent an object detected in this example of implementation of the invention. This object has ATB attributes of the type of the OREF reference object of FIG. 3 and an SD data structure. In the exemplary embodiment described here, the data structure SD comprises: IN and OUT fields for recording information representative of the fact that the detected object enters or leaves the confined space EC; "," Rapid Object "," Slow Man "," Fast Man "in which an estimate of the behavior of the detected object can be recorded; "Target" and "Date" fields in which the reference of an object of the finite space EC which may be struck by the detected object ODET and the expected date of this percussion can be recorded; and a VOL_PRE field which defines the expected presence volume of the detected object, namely the set of probable positions that this object can take in the finite space EC. During a step E25, it is determined whether the detected object is an object that enters or leaves the finished space EC, which is the case when the detected object ODET1 occupies a position corresponding to that of the openings OUV. If this is the case, the input or output information is recorded in the IN or OUT fields of the SD data structure of the detected object ODET1. This step E25 of input / output detection in / of the finite space is followed by a step E30 during which it is sought to associate the detected object ODET1 with at least one of the reference objects OREF1 to OREF4 stored in the BD database of the OC computer. This step consists in verifying, for each of the POS position attributes, morphology MOR and speed VIT of the detected object ODET, if this attribute follows the corresponding evolution rule EV_POS (t), EV_MOR (t) and EV_VIT ( t) a reference object OREF1 to OREF4. In the example of FIG. 4, it is clear that each of the attributes of the detected object ODET1 exactly follows, with tolerances, the evolution rule of the corresponding attribute of the reference object OREF1.
En conséquence, dans cet exemple, l'association de l'objet détecté ODET avec l'objet de référence OREF1 est totale. L'étape E30 d'association est alors suivie par une étape E40 de classification de l'objet détecté ODET. Dans cet exemple, l'objet détecté ODET1 est classé dans la classe des "objets de référence". Dans l'exemple de réalisation décrit ici, l'étape E40 de classification est suivie par une étape E45 au cours de laquelle on détermine si l'objet détecté ODET risque d'entrer en collision avec un autre objet de l'espace fini EC. As a result, in this example, the association of the detected object ODET with the reference object OREF1 is total. The association step E30 is then followed by a step E40 of classification of the detected object ODET. In this example, the detected object ODET1 is classified in the class of "reference objects". In the exemplary embodiment described here, the classification step E40 is followed by a step E45 in which it is determined whether the detected object ODET may collide with another object of the finite space EC.
Dans cet exemple, ce n'est pas le cas et il n'est pas nécessaire de mettre à jour la structure de données SD de cet objet. In this example, this is not the case and it is not necessary to update the SD data structure of this object.
L'étape E45 de prévision de collision est suivie dans ce mode de réalisation par une boucle constituée par des étapes E55 à E80, boucle au cours de laquelle on cherche à infirmer, confirmer ou affiner la classification et la connaissance du comportement de l'objet détecté ODETI. Cette boucle comporte une première étape E55 de prédiction de l'évolution des attributs de l'objet détecté ODET. Cette étape consiste à prédire, à un instant donné T0, quels seront les valeurs des attributs de cet objet ODET à un instant déterminé, 10 ci-après T1. Conformément au mode de réalisation décrit ici, on utilise, pour cette prédiction, les règles d'évolution de l'objet de référence OREF1, puisque l'association de l'objet détecté ODETI avec cet objet de référence est totale. 15 Puis, au cours d'une étape E60, on détecte, à l'aide d'au moins un des capteurs CAP, un changement dans l'espace fini EC à l'instant Ti. On construit ensuite, au cours d'une étape E62, un ou plusieurs objets dit(s) objet(s) courant(s) dont les attributs sont obtenus par analyse de ce deuxième changement. 20 On supposera, dans cet exemple, que l'espace fini EC n'est perturbé que par le mouvement de l'objet de référence OREF1 si bien que le seul objet courant est l'objet détecté ODETI. Puis, au cours d'une étape E63 de localisation, on recherche s'il existe parmi les objets courants construits à l'étape E62, un objet dit 25 objet de poursuite dont l'attribut de position correspond, au moins sensiblement, à ladite valeur prédite de l'attribut de position d'un objet détecté. En l'occurrence c'est le cas, et l'objet ODETI est un objet de poursuite au sens de l'invention. 30 Au cours d'une étape de poursuite E65, on détermine si au moins un attributs (MOR, TRJ, VIT) de cet objet de poursuite ODET1 a la valeur prédite (à l'étape E55) de l'attribut correspondant de l'objet détecté ODET1 construit à l'étape E20. En l'occurrence c'est le cas ; il n'est donc pas nécessaire de 35 reclassifier l'objet détecté ODETI. The step E45 of collision prediction is followed in this embodiment by a loop consisting of steps E55 to E80, a loop during which it is sought to invalidate, confirm or refine the classification and knowledge of the behavior of the object. detected ODETI. This loop comprises a first step E55 for predicting the evolution of the attributes of the detected object ODET. This step consists in predicting, at a given instant T0, what will be the values of the attributes of this object ODET at a given instant, 10 hereinafter T1. According to the embodiment described here, for this prediction, the evolution rules of the reference object OREF1 are used, since the association of the detected object ODETI with this reference object is total. Then, during a step E60, at least one of the CAP sensors detects a change in the finite space EC at the instant Ti. Then, during a step E62, one or more objects said object (s) stream (s) whose attributes are obtained by analysis of this second change. It will be assumed in this example that the finite space EC is disturbed only by the movement of the reference object OREF1 so that the only current object is the detected object ODETI. Then, during a location step E63, it is searched whether there exists among the current objects constructed in step E62, an object called a tracking object whose position attribute corresponds, at least substantially, to said predicted value of the position attribute of a detected object. In this case it is the case, and the object ODETI is a pursuit object within the meaning of the invention. During a tracking step E65, it is determined whether at least one attribute (MOR, TRJ, VIT) of this tracking object ODET1 has the predicted value (in step E55) of the corresponding attribute of the detected object ODET1 built in step E20. In this case it is the case; it is therefore not necessary to reclassify the detected ODETI object.
L'étape E65 de poursuite est, dans cet exemple, suivie par une étape E75 de prévision de collision identique à l'étape E45 déjà décrite. Comme il n'y a pas de risque de collision dans cet exemple, il n'est pas nécessaire de remettre à jour la structure de données SD de l'objet détecté ODET. L'étape E75 de prévision est donc suivie par l'étape de prédiction E55 pour une nouvelle boucle E55-E80. On supposera, en référence à la figure 6, qu'au cours d'une des étapes E60 de détection des changements de la scène observée, on détecte une nouvelle modification entraînant la construction (étape E62) d'un nouvel objet courant ODET2. Puisqu'il s'agit d'un nouvel objet, on détermine, au cours de l'étape E25 déjà décrite, s'il s'agit d'un objet entrant ou sortant de l'espace confiné EC. The tracking step E65 is, in this example, followed by a collision prediction step E75 identical to the step E45 already described. Since there is no risk of collision in this example, it is not necessary to update the SD data structure of the ODET detected object. The forecasting step E75 is therefore followed by the prediction step E55 for a new loop E55-E80. It will be assumed, with reference to FIG. 6, that during one of the steps E60 of detecting the changes of the observed scene, a new modification is detected, leading to the construction (step E62) of a new current object ODET2. Since this is a new object, it is determined, during the step E25 already described, whether it is an object entering or leaving the confined space EC.
En l'occurrence, c'est le cas, et on vient renseigner cette information dans le champ IN de la structure de données SD de l'objet ODET2. On cherche ensuite à associer cet objet avec l'un des objets de référence OREF1 à OREF4 (étape E30 déjà décrite). In this case, it is the case, and one comes to inform this information in the field IN of the data structure SD of the object ODET2. It is then sought to associate this object with one of the reference objects OREF1 to OREF4 (step E30 already described).
En l'espèce, aucun des attributs de l'objet détecté ODET2 ne correspond à un attribut d'un des objets de référence OREF1 à OREF4. En conséquence, l'objet ODET2 n'est pas associé au cours de cette étape E30. Dans ce cas, l'étape E30 d'association est suivie par une étape E35 au cours de laquelle on estime les attributs de morphologie MOR, de position POS, et de vitesse VIT de l'objet détecté ODET2 à l'aide des capteurs. Dans cet exemple, on supposera qu'il est estimé, à l'étape E35, que l'objet détecté ODET2 est un homme lent. In this case, none of the attributes of the detected object ODET2 corresponds to an attribute of one of the reference objects OREF1 to OREF4. As a result, the ODET2 object is not associated during this step E30. In this case, the association step E30 is followed by a step E35 during which the MOR morphology, POS position, and speed VIT attributes of the detected object ODET2 are estimated using the sensors. In this example, it will be assumed that it is estimated in step E35 that the detected object ODET2 is a slow man.
Cette information est enregistrée dans le champ "Homme Lent" de la structure de données SD de l'objet détecté ODET2 au cours de la même étape E35. Dans cet exemple de réalisation, une alarme est envoyée sur l'interface homme-machine de l'ordinateur OC au cours d'une étape E37. This information is recorded in the "Slow Man" field of the SD data structure of the detected object ODET2 during the same step E35. In this embodiment, an alarm is sent on the human-machine interface of the computer OC during a step E37.
Puis, l'objet détecté ODET2 est classé, au cours de l'étape E45, dans la classe des objets non référencés. Then, the detected object ODET2 is classified, during the step E45, in the class of the unreferenced objects.
On cherche maintenant, comme pour l'objet ODET1 à infirmer, affirmer ou confirmer la classification de l'objet détecté ODET2 en exécutant la boucle d'étapes E55 à E80. Comme pour l'objet détecté ODET1, on cherche donc à prédire l'évolution des attributs de l'objet détecté ODET2 au cours d'une étape E55. Mais, dans ce cas, l'étape de prédiction se fait en utilisant directement l'information fournie par les capteurs CAP. On détecte ensuite (étape E60) les changements dans l'espace fini EC et on construit les objets courants dans l'espace fini EC comme déjà décrit (étape E62). Dans cet exemple, les objets courants correspondent à l'évolution des objets détectés ODET1 et ODET2 dans le temps. A la figure 6, on a représenté l'objet détecté ODET2 pour cinq passages successifs de la boucle d'étape E55 à E80. A la figure 7, on a représenté, par des triangles pointant vers le bas, la position OBSI de l'objet détecté ODET2 à cinq itérations i successives de l'étape E60 et, par des triangles pointant vers le haut, la prédiction PRED; de la position de l'objet détecté ODET2 à cinq itérations successives de l'étape E55 de prédiction. Pour chacune de ces itérations, on s'aperçoit, sur la figure 7, que la position réelle de l'objet détecté ODET2 est très proche de la position prédite pour cet objet, si bien que les étapes E63 de localisation et E65 de poursuite permettent effectivement de suivre le déplacement de l'objet ODET2 dans l'espace fini EC. De ce fait, l'objet détecté ODET2 n'est jamais reclassifié. Dans l'exemple de réalisation décrit ici, on cherche, à chaque itération de l'étape E75 à prévoir un risque de collision de l'objet détecté ODET2 avec un autre objet de l'espace fini EC. It is now sought, as for the object ODET1 to be invalidated, to affirm or confirm the classification of the detected object ODET2 by executing the loop of steps E55 to E80. As for the detected object ODET1, one therefore seeks to predict the evolution of the attributes of the detected object ODET2 during a step E55. But in this case, the prediction step is done using directly the information provided by the CAP sensors. The changes in the finite space EC are then detected (step E60) and the current objects are constructed in the finite space EC as already described (step E62). In this example, the current objects correspond to the evolution of the objects detected ODET1 and ODET2 in time. In FIG. 6, the detected object ODET2 is represented for five successive passages of the step loop E55 to E80. FIG. 7 shows, by triangles pointing downwards, the OBSI position of the detected object ODET2 at five successive iterations i of step E60 and, with triangles pointing upwards, the prediction PRED; the position of the detected object ODET2 at five successive iterations of the prediction step E55. For each of these iterations, it can be seen in FIG. 7 that the actual position of the detected object ODET2 is very close to the position predicted for this object, so that the tracking steps E63 and E65 allow actually follow the displacement of the object ODET2 in the finite space EC. As a result, the ODET2 detected object is never reclassified. In the exemplary embodiment described here, it is sought, at each iteration of step E75, to predict a risk of collision of the detected object ODET2 with another object of the finite space EC.
A cet effet, on calcule un volume de présence VP2 correspondant aux positions possibles de cet objet ODET2 dans l'espace fini EC. Ces volumes de présence sont représentés, pour chacune des itérations, respectivement aux figures 8A à 8E. For this purpose, a presence volume VP2 corresponding to the possible positions of this object ODET2 in the finite space EC is calculated. These presence volumes are represented, for each of the iterations, respectively in FIGS. 8A to 8E.
Il apparaît sur ces figures, que le risque de collision est avéré à la troisième itération (étape 8C) et à la cinquième itération (étape 8E) les volumes de présence VP2 et VP1 ayant une partie commune. Dans le mode de réalisation décrit ici, on vérifie, avant d'envoyer une alerte à l'interface homme-machine IHM de l'ordinateur OC, si une telle alerte est conforme à la table de décision TD enregistrée dans la base de données BD, de façon à diminuer le risque de fausse alerte. On supposera, dans cet exemple, que la table de décision impose deux risques de collision avant d'envoyer une alerte. It appears from these figures that the risk of collision is proved at the third iteration (step 8C) and at the fifth iteration (step 8E) the presence volumes VP2 and VP1 having a common part. In the embodiment described here, it is verified, before sending an alert to the HMI human-machine interface of the computer OC, if such an alert complies with the TD decision table recorded in the database BD , so as to reduce the risk of false alarm. In this example, assume that the decision table imposes two collision risks before sending an alert.
En conséquence, une alerte est effectivement envoyée (étape E75), à l'ordinateur OC à l'issu de la cinquième itération. Dans l'exemple de réalisation décrit ici, la structure de données SD de l'objet détecté ODET2 est mise à jour (étape E80) à chaque itération pour rafraîchir la date probable de collision avec l'objet détecté ODET1. As a result, an alert is effectively sent (step E75) to the OC computer at the end of the fifth iteration. In the exemplary embodiment described herein, the SD data structure of the detected object ODET2 is updated (step E80) at each iteration to refresh the probable date of collision with the detected object ODET1.
Un autre scénario illustrant l'invention va maintenant être décrit en référence aux figures 9, et 10A à 10C. On supposera, dans cet exemple, qu'un des cartons du mur OREF2 tombe et roule vers l'objet détecté ODET1. Lorsque cet évènement se produit, on construit (étape de détection de modification du volume et étape de détermination des attributs) deux nouveaux objets ODET3 et ODET4 correspondant respectivement au mur OREF2 privé du carton qui vient de tomber et du carton lui-même. Comme décrit précédemment pour l'objet ODET2, le procédé retourne à l'étape E20 pour le traitement de ces objets nouvellement détectés. En l'espèce, il n'y a pas de détection d'intrusion, ni de sortie de l'espace confiné (étape E25). En l'espèce, l'objet ODET3 peut être associé partiellement avec l'objet de référence OREF2, car ces objets ont des attributs de position et de vitesse équivalents. Bien entendu, l'association ne peut être totale, leur morphologie étant différente. L'objet ODET4 ne peut être associé à aucun des objets OREF1 à OREF4. Another scenario illustrating the invention will now be described with reference to FIGS. 9 and 10A to 10C. In this example, it is assumed that one of the cartons of the wall OREF2 falls and rolls towards the detected object ODET1. When this event occurs, two new ODET3 and ODET4 objects are constructed (volume change detection step and attribute determination step) corresponding respectively to the private OREF2 wall of the newly fallen carton and the carton itself. As previously described for the ODET2 object, the method returns to step E20 for the processing of these newly detected objects. In this case, there is no intrusion detection or exit from the confined space (step E25). In this case, the object ODET3 can be partially associated with the reference object OREF2, because these objects have equivalent position and velocity attributes. Of course, the association can not be total, their morphology being different. The ODET4 object can not be associated with any of the OREF1 to OREF4 objects.
En conséquence, l'objet détecté ODET3 est classé (étape E40), comme un objet identifié perturbé, et l'objet ODET4 comme un objet non identifié (anciennement non référencé). Comme décrit précédemment pour l'objet ODET2, l'invention permet, dans ce troisième scénario, de prévenir la collision de l'objet détecté ODET3 avec l'objet détecté ODETI au cours des itérations successives de la boucle des étapes E55 à E80. As a result, the detected object ODET3 is classified (step E40), as a disturbed identified object, and the object ODET4 as an unidentified object (formerly unreferenced). As described above for the object ODET2, the invention makes it possible, in this third scenario, to prevent the collision of the detected object ODET3 with the detected object ODETI during the successive iterations of the loop of the steps E55 to E80.
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0950363A FR2941317B1 (en) | 2009-01-21 | 2009-01-21 | METHOD AND SYSTEM FOR DETECTING OBJECTS IN A FINISHED SPACE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0950363A FR2941317B1 (en) | 2009-01-21 | 2009-01-21 | METHOD AND SYSTEM FOR DETECTING OBJECTS IN A FINISHED SPACE |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2941317A1 true FR2941317A1 (en) | 2010-07-23 |
FR2941317B1 FR2941317B1 (en) | 2016-06-24 |
Family
ID=41130160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0950363A Active FR2941317B1 (en) | 2009-01-21 | 2009-01-21 | METHOD AND SYSTEM FOR DETECTING OBJECTS IN A FINISHED SPACE |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2941317B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109699518A (en) * | 2018-12-11 | 2019-05-03 | 武汉理工大学 | A kind of animal container automatic tour inspection system and method based on machine vision |
WO2021069649A1 (en) * | 2019-10-11 | 2021-04-15 | Assa Abloy Ab | Detecting changes in a physical space |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1403817A1 (en) * | 2000-09-06 | 2004-03-31 | Hitachi, Ltd. | Abnormal behavior detector |
-
2009
- 2009-01-21 FR FR0950363A patent/FR2941317B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1403817A1 (en) * | 2000-09-06 | 2004-03-31 | Hitachi, Ltd. | Abnormal behavior detector |
Non-Patent Citations (6)
Title |
---|
COLLINS R ET AL: "A system for Video Surveillance and Monitoring", TECHNICAL REPORT CMU-RI-TR-00-12, CARNEGIE MELLON UNIVERSITY, US, 1 May 2000 (2000-05-01), XP002317229 * |
OHNO Y ET AL: "Tracking players and estimation of the 3D position of a ball in soccer games", PATTERN RECOGNITION, 2000. PROCEEDINGS. 15TH INTERNATIONAL CONFERENCE ON SEPTEMBER 3-7, 2000; [PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION. (ICPR)], LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, vol. 1, 3 September 2000 (2000-09-03), pages 145 - 148, XP010533520, ISBN: 978-0-7695-0750-7 * |
UTSUMI O ET AL: "An object detection method for describing soccer games from video", MULTIMEDIA AND EXPO, 2002. ICME '02. PROCEEDINGS. 2002 IEEE INTERNATIO NAL CONFERENCE ON LAUSANNE, SWITZERLAND 26-29 AUG. 2002, PISCATAWAY, NJ, USA,IEEE, US, vol. 1, 26 August 2002 (2002-08-26), pages 45 - 48, XP010604302, ISBN: 978-0-7803-7304-4 * |
VALERA M ET AL: "INTELLIGENT DISTRIBUTED SURVEILLANCE SYSTEMS: A REVIEW", IEE PROCEEDINGS F. COMMUNICATIONS, RADAR & SIGNALPROCESSING, INSTITUTION OF ELECTRICAL ENGINEERS. STEVENAGE, GB, vol. 152, no. 2, 8 April 2005 (2005-04-08), pages 192 - 204, XP009082344, ISSN: 0956-375X * |
XU M ET AL: "Architecture and algorithms for tracking football players with multiple cameras", INTELLIGENT DISTRIBUTED SURVEILLANCE SYSTEMS, IEE, LONDON, GB, 23 February 2004 (2004-02-23), pages 51 - 55, XP002331014 * |
YAMADA A ET AL: "Tracking players and a ball in video image sequence and estimating camera parameters for 3D interpretation of soccer games", PATTERN RECOGNITION, 2002. PROCEEDINGS. 16TH INTERNATIONAL CONFERENCE ON QUEBEC CITY, QUE., CANADA 11-15 AUG. 2002, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, vol. 1, 11 August 2002 (2002-08-11), pages 303 - 306, XP010613334, ISBN: 978-0-7695-1695-0 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109699518A (en) * | 2018-12-11 | 2019-05-03 | 武汉理工大学 | A kind of animal container automatic tour inspection system and method based on machine vision |
WO2021069649A1 (en) * | 2019-10-11 | 2021-04-15 | Assa Abloy Ab | Detecting changes in a physical space |
Also Published As
Publication number | Publication date |
---|---|
FR2941317B1 (en) | 2016-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113095124B (en) | Face living body detection method and device and electronic equipment | |
US9870512B2 (en) | Lidar-based classification of object movement | |
JP6602851B2 (en) | Interfacing event-based systems with frame-based processing systems | |
EP2965287B1 (en) | Method for tracking a target in an image sequence, taking the dynamics of the target into consideration | |
EP2473867B1 (en) | Multi-target data processing for multi-receiver passive radars in an sfn or mfn mode | |
FR2944903A1 (en) | SYSTEM AND METHOD FOR DETECTING ABNORMAL AUDIO EVENTS | |
JP6543066B2 (en) | Machine learning device | |
FR2994495A1 (en) | METHOD AND SYSTEM FOR DETECTING SOUND EVENTS IN A GIVEN ENVIRONMENT | |
KR102314824B1 (en) | Acoustic event detection method based on deep learning | |
US20190122381A1 (en) | Apparatus and methods of automated tracking and counting of objects on a resource-constrained device | |
JP2008059110A (en) | Object identification parameter learning system, object identification parameter learning method and object identification parameter learning program | |
EP3586319B1 (en) | Trajectory determining device | |
EP1792278B1 (en) | Method for detecting and tracking punctual targets, in an optoelectronic surveillance system | |
FR2941317A1 (en) | Objects e.g. human, detecting and classifying method, involves associating detected object with reference objects, if attribute of detected object follows evolution rule of attribute, and classifying detected object | |
EP3324361B1 (en) | Method for detecting and tracking targets | |
EP2149099B1 (en) | Device and method for processing images to determine a signature of a film | |
EP3836014A1 (en) | Method of tracking an element, associated electronic device and computer program product | |
FR3123479A1 (en) | Device and method for processing a digital model of a system | |
WO2004021265A2 (en) | Fuzzy associative system for multimedia object description | |
WO2020188227A1 (en) | Method for detecting a position change of a radio receiver | |
EP4235570A1 (en) | Method, device and system for real time and multi-camera monitoring of a target object | |
FR3130061A1 (en) | Simultaneous localization and mapping method integrating self-supervised temporal masking and machine learning model to generate such masking. | |
FR2923043A1 (en) | Sound content acknowledge model i.e. extractor, creating method for detecting sound event from e.g. vehicle impact noise, involves decomposing problem into two problems when descriptor does not attains threshold | |
FR2930064A1 (en) | Neural network constructing method for identifying e.g. face of image, involves labeling neural network by labeling unit, where unit associates weight to neuron by embedding signature of initialization image in neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 8 |
|
PLFP | Fee payment |
Year of fee payment: 9 |
|
PLFP | Fee payment |
Year of fee payment: 10 |
|
PLFP | Fee payment |
Year of fee payment: 12 |
|
PLFP | Fee payment |
Year of fee payment: 13 |
|
PLFP | Fee payment |
Year of fee payment: 14 |
|
PLFP | Fee payment |
Year of fee payment: 15 |
|
PLFP | Fee payment |
Year of fee payment: 16 |