EP2329474B1 - Scene surveillance method and system - Google Patents

Scene surveillance method and system Download PDF

Info

Publication number
EP2329474B1
EP2329474B1 EP09807963A EP09807963A EP2329474B1 EP 2329474 B1 EP2329474 B1 EP 2329474B1 EP 09807963 A EP09807963 A EP 09807963A EP 09807963 A EP09807963 A EP 09807963A EP 2329474 B1 EP2329474 B1 EP 2329474B1
Authority
EP
European Patent Office
Prior art keywords
scene
data
sensor
state
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Not-in-force
Application number
EP09807963A
Other languages
German (de)
French (fr)
Other versions
EP2329474A1 (en
Inventor
Cédric TESSIER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Effidence
Original Assignee
Effidence
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Effidence filed Critical Effidence
Publication of EP2329474A1 publication Critical patent/EP2329474A1/en
Application granted granted Critical
Publication of EP2329474B1 publication Critical patent/EP2329474B1/en
Not-in-force legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B31/00Predictive alarm systems characterised by extrapolation or other computation using updated historic data
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19697Arrangements wherein non-video detectors generate an alarm themselves

Definitions

  • the selection step makes it possible to select a sensor signal processing method from among a plurality of available methods, either in addition to or instead of the sensor selection.
  • An example of data that makes it possible to modify the state of a scene from one instant to another is the speed, which has the effect of modifying the position of an object as a function of time.
  • the scene to be monitored is complex and comprises a plurality of sub-scenes related to each other, and in which, during at least one of the steps of the method, the Scene State Data of a sub-scene are used for step a) of estimating the Scene State Data of another sub-scene, related to the first.
  • the central computing system includes an interface for receiving data sources and / or metadata other than sensors.
  • the method and apparatus allow an approach in which the sensors are not used independently of each other. Thus, in a conventional approach and for an intrusion detection function, there would be as many alarms as alerts returned by the sensors.
  • the figure 1 schematically illustrates the operating principle of a monitoring system of a device of known type.
  • the sensors usually cameras, are connected to video devices, allowing to view live, and possibly record what cameras can film scenes concerned.
  • To visualize a lot of data it is necessary to have a plurality of screens, making the consultations and monitoring tiresome and tiring for the operators. If other sensors are used, those are managed independently, and information obtained from different sources is provided separately to the operator.
  • a single operator has difficulty controlling a large number of parameters at the same time. Often, to overcome this limitation, several operators are present.
  • an initialization phase makes it possible to specify, at the start of the process, the available data on the state of the system: value of digital or non-digital quantities, accuracy, reliability, etc.
  • a prediction step makes it possible to pre-establish or evaluate the state of the system at a time or a date t, knowing the state of the system at a date passed t-delta t. The sensors of the device as well as any other data can be exploited to carry out this evaluation.
  • the brightness sensor will not act on the triptych (camera, algorithm, information) or on another triptych: it will improve the knowledge of the state of the system by informing an additional numerical quantity (ie a data of stage state).
  • the system wants to improve the knowledge of the state, it will list all the information (ie metadata) extractable and build the set of possible triptychs. Building does not mean using but rather enumerating and evaluating, that is, characterizing the performance of each triptych. Now the characterization of the performances takes into account the state of the system and therefore the quantity of light (ie numerical quantity of the state of the system which is indicated by the brightness sensor).
  • the system will use the triptych by applying the triptych processing algorithm to the area of interest defined with respect to the sensor data to recognize the information sought.
  • the gain, the cost are defined in relation to these quantities but others can be taken into account.
  • the algorithm searches for the signature of the latter in its area of interest. For this, he compares the footprint of each sample with the signature he has built. The returned sample is the one with the highest degree of resemblance while having a level above a threshold.
  • the fingerprint of each sample is extracted from a sensor measurement, so is likely to be noisy.
  • the signature it is constructed from an information modeling, thus incomplete and simplified.
  • the detection of information can pose some difficulties.
  • H) represents the probability that the detector will return information when the H event is true. In the case of this example, it corresponds to the probability that the algorithm detects a mustache (ie event Y) while the person in front of the camera is mustachioed (ie event H). To calculate it, we determine the probability that no sample will respond positively to the detector. In the area of interest, there are nbBr noise samples. Each of them has a probability (1 - Pbruit) of not being recognized. There are also (nbAr + nbAc) samples that correspond to either the information sought or to information of the same type.
  • Y, H) is the probability that the result returned by the detector is information of the same type as the information sought. In the case of this for example, this corresponds to the probability that the detected information (ie event Y: the rectangle of black color) corresponds to a mustache (ie event G).
  • the area of interest contains (nbAr + nbAc) samples that correspond to information of the same type as the information sought. Taking Pamer into account, there are ((nbAr + nbAc) Pamer) of these samples that responded positively to the algorithm. And among all the samples in the area, there are ((nbAr + nbAc) Pamer + nbBr Pbruit) that responded positively.
  • Y, H) is the ratio of these two quantities: P BOY WUT
  • Y , H NBAR + NBAC ⁇ Pamer / NBAR + NBAC ⁇ Pamer + NBQB ⁇ Pnoise
  • G) is the probability that the result returned by the detector is the information sought assuming that the event G is true. In the case of this example, this corresponds to the probability that the mustache detected (ie event G) corresponds to the mustache that the system wished to detect, that is to say the individual present exactly in front of the camera. As in the previous formula, it is a question of calculating the ratio of the number of favorable cases on the number of possible cases. If the event G is true, there are ((nbAr + nbac) Pamer) samples that may have been returned by the detector but only (nbAr - Pamer), we are interested. The ratio is: P Hnouveau
  • BOY WUT NBAR ⁇ Pamer / NBAR + NBAC ⁇ Pamer
  • P (Ylnon H) it is enough to be inspired by the method used for the computation of P (Y
  • no H 1 - P no Y
  • no H 1 - 1 - Pnoise ⁇ ⁇ NBQB
  • the figure 15 schematizes all of this information. These different sensors, in combination with a surveillance system presented to the figure 3 , allow to implement this example.
  • the planned output is used to periodically, or where necessary, provide the status of the scene to the user or to another application.
  • the monitoring system can use two types of inputs: sensors and data.
  • the crossing sensor its role is different from other previously presented sensors. Indeed, it does not indicate if an intruder is in the room. Nor does it provide data on the position of intruders in the room. On the other hand, whether or not he is solicited provides valuable information as to whether an intruder has entered or left the room. Accompanied by its reliability, it is used in the evaluation stage. In additional input, the use of a map of the room indicating where intruders are likely to come and go can be particularly useful for this application. As in the case of the crossing sensor, these data are used in particular during the evaluation stage.
  • Some settings can be left to the user's choice, or preset in a fixed way. Possible settings include how often the system status is updated. In the case of this example, a frequency of 10Hz is a period of 100 ms is selected.
  • the requirements of the application can also be fixed or adjustable.
  • the figure 3 provides a parameter setting interface. These requirements define the minimum level of knowledge required by the user. This knowledge is all the more important as the accuracy of the state of the system and its reliability is great.
  • the following two tables illustrate an example of setpoint or threshold values that correspond to the requirements of this application. Numeric quantities of the state Desired values Probability of presence of an individual in zone Z1 [0, 0.1 [union] 0.9, 1] ... ...
  • the evaluation stage was able to point out that there is a risk, though low with a probability of 0.16, that an individual entered the room.
  • the system update and alert solicits a sensor. After calculating the contribution for each sensor, it appeared relevant to use the camera to search in the part of the image corresponding to the environment zone having a probability of 0.16 if an individual is present.
  • the image processing method associated with the camera makes it possible to indicate that no person has been detected in the part of the analyzed image.
  • the system is updated. In the end, the probability of an individual being present in the cells of the room located in front of the front door increases to 0.07 (see figure 18 ).
  • the comparator verifies that the state of the system meets the requirements of the application, which is the case. Thus, no further action is taken until the next update, which occurs after the expiration of the expected time interval.
  • the result illustrated on the figure 19 is obtained.
  • the crossing sensor did not detect any entry or exit of individuals from the room.
  • the shadow of the tree outside the room is projected into the same room near the front door.
  • the state of the system after the prediction does not meet the requirements of the application.
  • the state of the system is updated with this information accompanied by its reliability and its proposal.
  • the probability of cells in the room where no individual has been detected increases to 0.071.
  • two new digital quantities are added in the state to describe the detected individual, namely the position and the speed of movement of the individual.
  • a reliability is associated with these new quantities and is worth in the case of this example 0.34, as indicated in the figure 20 .
  • the comparator then verifies that the state of the system meets the requirements of the application, which is not the case because the reliability relative to the detection of the individual is too low.
  • the system update and alert has the ability to extract information from the motion sensor. This sensor indicates that no individual is present in the part of the signal corresponding to the area of the room where an individual is likely to be. Accurate with its reliability, this data makes it possible to update the state of the system. Thus, the reliability associated with the detected individual increases to 0.013 (see figure 21 ).
  • this reliability belongs to the interval [0, 0.1 [union] 0.9, 1]. However, this reliability is in the lower part of the interval. It therefore reflects a very strong certainty concerning the absence of any individual in this zone. The numerical quantities associated with the detected individual are thus removed from the state of the system and finally the following result (see figure 22 ) is obtained, which meets the requirements of the user.
  • the crossing sensor detected an interruption of its laser beam. This means that there is a very high probability that an individual has entered the room. However, his position is not known (see figure 23 ). Clearly, the state of the system does not meet the requirements of the application.
  • the motion sensor or the camera may be used. After calculating the contributions of this potentially extractable information, it is established that the camera, associated with its image processing method, is the most relevant. The result following the solicitation of the sensor is illustrated on the figure 24 . Thanks to the information provided by the image processing method that made it possible to analyze the portion of the image concerned, it is found that an individual is present in front of the door.
  • the system state still does not meet the requirements of the application.
  • the update system has the ability to extract information from the motion sensor.
  • the result of the system updated by this last sensor is represented at the figure 25 .
  • This state still does not meet the requirements of the application, because of cells having a probability greater than 0.1, the accuracy relative to the detected individual, and the reliability about the detected individual.
  • the update system no longer has the ability to retrieve new additional information from the sensors to improve the state.
  • the crossing sensor has detected no entry or exit of individuals from the room.
  • the evaluation stage will make it possible to calculate the state of the system by considering that an individual could enter the room by the door with a low probability and that an individual is likely to be in the cells. of the piece that have a probability greater than 0.1. Indeed, the system considers that there is no individual in the cells that have a probability less than 0.1, that there is an individual in the cells that have a probability higher than 0.9 and that there is may have an individual for the remaining cells. However, if an individual is likely to be in a cell, this individual could possibly move, which the evaluation step must also take into account.
  • the evaluation step will make it possible to estimate the area where this individual is likely to be taking into account his speed of movement. This is an area that integrates all the cells where the individual was able to go.
  • the figure 26 presents the state of the system following the evaluation.
  • the update system extracts additional data.
  • the potentially extractable data that seems to be the most relevant to improve the state of the system can be obtained from the motion sensor. These data make it possible to indicate that there is no individual in front of the door and that the previously detected individual has moved in front of the window. This information extracted from the motion sensor could improve the location accuracy of the individual. In return, this has reduced reliability (see figure 27 ).
  • the update system then extracts information from the camera which leads to the following result (see figure 28 ).
  • the state of the system responds here to the requirements of the application.
  • An alert can therefore be sent to the operator of the surveillance system, who will be informed of the facts established with a reliability higher than the threshold requested. It is therefore found that the use of sensors capable of providing complementary data makes it possible to effectively overcome the lack of reliability associated with the first data of the first sensors.
  • the figure 29 presents the premises of a laboratory working on the development of vaccines against deadly viruses.
  • the laboratory stores these viruses in a cold room (ie zone 5 on the plane).
  • This laboratory is on two levels. It is accessed by level 0 which overlooks the zone 1.
  • level 0 which overlooks the zone 1.
  • the elevator By taking the elevator, one arrives at the reception point zone 2. From this last zone, one can reach various rooms notably zone 3.
  • the Authorized persons who have a badge may pass in zone 4.
  • Zones 4 and 6 are closed outer zones. It is possible to go to zone 6 by illegally crossing the fence.
  • the cold room finally corresponds to zone 5.
  • Zone 1 is equipped with a camera, a sensor provides information on the position of the elevator and a motion sensor is located in zone 2.
  • the door allowing access to zone 4 is equipped with a badge reader and a breakage detection sensor of this glazed door.
  • Zone 4 is equipped with a camera and a brightness sensor.
  • a photocell is positioned at the entrance to zone 5.
  • a thermal camera is placed in the cold room as well as numerous pressure sensors in the floor of this room to measure the weight of objects and individuals in the room.
  • the figure 30 schematically shows the corresponding monitoring system.
  • the laboratory responds to these security issues. Indeed, at zone 4, the camera will be able to detect the intruders who have entered the site through zone 6. Thanks to the brightness sensor, the system will dynamically adapt the reliability (ie in a probabilistic way) of the information. returned by the camera.
  • the photoelectric cell at the entrance to zone 5 makes it possible to know precisely when an individual enters or leaves the cold room. Only authorized individuals can enter this room and they must first identify themselves with their badge at the access control door of zone 4. The laboratory requires that these individuals weigh themselves regularly which allows to know precisely when these same individuals leave the cold room if they steal products.
  • Zone 5 pressure sensors are used to detect any object left in the chamber.
  • the thermal camera it is used to detect and locate all the individuals in the room. Indeed, in the middle of the night (i.e. brightness zero) the camera of the zone 4 can not detect the intruders and the system knows it.
  • the thermal camera coupled to the photocell is the device for detecting intruders in the chamber.
  • the laboratory could have used a conventional color camera rather than a thermal camera.
  • the sensors were chosen based on their ability to provide information on the state of the system. Also any sensor for measuring a physical quantity that will be modified by the element that we want to detect / characterize can be exploited.
  • An individual in a cold room has a temperature different from the air in the room and is therefore detectable by a thermal camera and this much more reliable than with a color camera.
  • the system learns this information and then requests the motion sensor to observe the elevator door. The individual then moves to Zone 4.
  • Zone 4 the system must ensure that there are only authorized individuals. To access this zone, intruders can come from zone 6 or zone 2 after having crossed the access control sensor. This is why the zone 4 camera only monitors the zone 4 border with zone 6 because there is a non-zero risk that an individual crosses the fence. Note that the system uses the information of the brightness sensor to know the reliability of detection of individuals with the camera.
  • the individual Rather than submit to the control of his access badge, the individual breaks the glass door and enters the zone 4.
  • the information of the broken door raised by the sensor indicates to the system that an individual is in the process to enter zone 4.
  • the system solicits the zone 4 camera to detect and locate the individual. From now on, this camera will no longer monitor only the zone 4 border with zone 6 but also the zone 2 border with zone 4 because there is a non-zero risk that another individual enters zone 4 by broken door.
  • the individual then drops an object into the room and runs away.
  • the system detects this object from the pressure sensors of the part and deduces that it is not an individual by soliciting the thermal sensor. Indeed, the temperature, the weight and the shape of the object are incompatible with that of an individual.
  • a jewel is exposed to the public in a gallery.
  • the jewel is presented on a base and is lit by halogen light spots.
  • Several sensors are located nearby.
  • a color camera and a thermal camera film the jewel.
  • the latter is placed on a pressure sensor.
  • a brightness sensor measures the lighting level. Indeed, when the light spots work, they can start to flash.
  • a clock measures the time.
  • the central monitoring system has access to a computer file that specifies the time slots during which the halogen spotlights operate.
  • a belt of ten ultrasonic sensors surrounds the base to indicate if individuals are near the jewel.
  • This application aims to check the presence of the jewel on its base. It is therefore a device against theft.
  • the preparation of the surveillance system involves providing a modeling of the element that we want to monitor and recognize, namely the jewel.
  • the jewel is a metal crown.
  • the model is the following: cylindrical object diameter 15cm, yellow color, weight 300gr, metal.
  • the state of the scene is composed on the one hand of the variable that one wishes to calculate namely: the presence of the jewel on its base. On the other hand, it can be considered that the more individuals around the jewel, the greater the risk that an individual will steal the object.
  • the state of the system includes the number of ultrasonic sensors having detected at least one individual. This last variable will play a particularly important role important in the step of estimating the state of the system at the date t from the historical state of the system at the date t-delta t. Finally a last variable will be used to indicate the level of luminosity around the jewel. This last variable will play a particularly important role in determining the reliability of the metadata extracted from the data (ie color images) of the camera.
  • the following table shows an example of the Stage State: Numeric quantities of the state Possible values Presence of the jewel ⁇ Yes No ⁇ Number of ultrasonic sensors [0, 10] Brightness [0, 1000 lux]
  • This latter table is an example of a result provided by the monitoring method: the state of the system is periodically provided to the user, to another application or to another device.
  • Prediction step This step is very dependent on the digital quantities considered, the application, its context of use.
  • the following modeling is proposed: State at the date t - ⁇ t State at the date t Presence of jewel on date t - ⁇ t: Presence of jewel on date t: • Presence value • Presence value • Reliability presence • Max (0.5, Presence reliability - ( ultrasound value +1) .0.17) Number of ultrasonic sensors on date t- ⁇ t: Number of ultrasonic sensors at date t: • Ultrasonic value • Ultrasonic value • Ultrasound precision • • Ultrasound precision Ultrasonic reliability • Max (0.5, Ultrasonic Reliability - 0.2) Brightness at the date t- ⁇ t: Brightness at date t: • Brightness value • Brightness value • Brightness accuracy • Brightness accuracy • Brightness reliability • Max (0.5, Brightness Reliability - 0.45)
  • the state of the system is as follows: Sizes of the state Value Precision Reliability Presence of jewel Yes X 0.68 Number of ultrasonic sensors 6 4 0.73 Brightness 700 230 0.7
  • the comparison step consists in determining whether there exists one of the numerical magnitudes of the calculated state which has a precision greater than the precision indicated in the state desired by the user (ie requirements of the application) for this same state. magnitude or if there is one of the magnitudes of the calculated state that has a reliability lower than the reliability indicated in the state desired by the user (ie application requirements) for that same magnitude. In this case, the calculated state does not meet the requirements and the system goes into the excited state.
  • the result is returned with its precision and reliability.
  • the accuracy and reliability depend on the sensor and the treatment process considered.
  • the results returned are all the more reliable as the brightness of the scene is important.
  • the reliability evaluation for metadata extracted from the camera image takes into account the brightness level of the scene available in the stage state as a numeric magnitude.
  • the state of the system is as follows: Sizes of the state Value Precision Reliability Presence of jewel Yes X 0.68 Number of ultrasonic sensors 6 4 0.73 Brightness 700 230 0.7
  • Reliability and accuracy of data is an intrinsic feature of sensors, while those of metadata are calculated dynamically by the update and alert system.
  • the determination of the data or metadata that the system must use to improve the state of the scene is performed by means of a comparison function which measures a difference between the theoretical state of the scene produced by a given piece of data or metadata. and the state of the scene desired by the user (ie application requirements).
  • the theoretical state produced by a data item or a metadata corresponds to the state that the system expects to obtain if it requests the recovery of the data or the extraction of the metadata. For this the system takes into account the reliability and the theoretical accuracy of the data and the metadata. It should be noted that at this stage, the update and alert system has not yet recovered the sensor data and has not performed any analysis or processing of the data.
  • the comparison function As far as the comparison function is concerned, it consists of measuring the difference between the accuracy and reliability of each magnitude of the theoretical state with the accuracy and reliability of the state desired by the user. Each of these deviations can be weighted by a coefficient to indicate for example that the brightness accuracy is a more important characteristic than for the other quantities.
  • the following comparison function is used:
  • the comparison function is 0 since the accuracy of the numerical quantities of the theoretical state is less than the accuracy of the quantities the desired state and that the reliability of the magnitudes of the theoretical state is greater than the reliability of the magnitudes of the desired state.
  • the computation time to obtain a metadata can be quite important due to the processing time of the sensor data. It is possible to integrate the estimated time required to obtain data or metadata or the amount of memory estimated necessary to obtain data or metadata, etc., in a cost variable. This cost can be taken into account in the comparison function to reduce the importance of a given datum or metadata. For this, it is possible to add this cost to the comparison function or to multiply the comparison function by the cost, etc.
  • comparison function takes into account all the differences in reliability and accuracy for each quantity between the theoretical state and the desired state. However, these differences were weighted by multiplying coefficients (i.e. 4, 1, 3, 1 and 2). It is possible to use a comparison function which only takes into account the difference of a few quantities and is limited to the precision characteristic (ie the reliability characteristic will not be used). Thus, we obtain the following comparison function:
  • the cost represents an estimate of the necessary processing time in milliseconds to obtain the data or the metadata.

Abstract

The invention relates to a scene surveillance method comprising the following steps: (a) evaluating the scene state data (DES) corresponding to the state of the scene at time t; (b) storing the data; (c) checking if the reliability level of the newly obtained data is below the set acceptable operating threshold (SAFE); (d) if the reliability level is below the threshold, the method continues from step (a); (e) if the reliability level is above the threshold, an updating cycle is launched; (f) activation of the updating system (SYMAJ) actuates a sensor selection step; and (g) the data and/or metadata from the selected sensor are received and used to establish a new scene state calculation phase comprising the following steps, namely (h) calculating the scene state data (DES) corresponding to the state of the scene, (i) storing the data, (j) checking if the reliability level of the newly obtained real scene state data (DES) is below the set acceptable operating threshold (SAFE), (k) if the real reliability level is below the threshold, the method continues from step (a) and (l) if the real reliability level is above the threshold, the method continues from step (f).

Description

DOMAINE TECHNIQUE DE L'INVENTIONTECHNICAL FIELD OF THE INVENTION

L'invention concerne un procédé de surveillance d'une scène permettant de fournir en temps sensiblement réel un état de la scène et un dispositif de surveillance d'une scène correspondant.The invention relates to a method of monitoring a scene for providing in a substantially real time a state of the scene and a monitoring device of a corresponding scene.

ETAT DE LA TECHNIQUE ANTERIEURESTATE OF THE PRIOR ART

On connait de multiples exemples de réalisation de procédés de surveillance de lieux, de locaux ou de bâtiments. De façon générale, les approches connues permettent de récupérer simultanément toutes les informations permettant d'améliorer la connaissance de l'état d'un système et de mettre à jour cet état en une seule fois. Une telle approche nécessite d'importantes capacités de calculs et/ou des temps de calcul particulièrement longs dès lors que le système à surveiller comporte un grand nombre de capteurs. Or, beaucoup d'applications dans de vastes bâtiments avec de nombreuses pièces nécessitent l'utilisation d'un très grand nombre de capteurs, le plus souvent des caméras. Par ailleurs, la complexité de tels systèmes engendre de nombreuses fausses détections ou alarmes. En effet, aucune attention particulière n'est portée sur les résultats des procédés d'analyse des données des capteurs. Ces résultats sont considérés comme imprécis mais toujours juste ce qui n'est pas toujours le cas puisque des erreurs d'analyse peuvent se produire. Enfin, l'opérateur ne connait pas le statut du système. Il n'a pour information que des alarmes ou alertes, et/ou une pluralité d'informations transmises sur une pluralité de sorties telles que des écrans de télévision. Par ailleurs, un seul évènement, par exemple une intrusion, peut impliquer l'excitation de plusieurs capteurs. Les systèmes connus engendrent alors une pluralité d'alertes, classiquement une par capteur. Enfin, lorsque le système est utilisé avec différent types de capteurs comme des caméras, des capteurs d'intrusions, des capteurs de mouvement, il n'existe pas de coopération entre les capteurs. C'est-à-dire que lorsque le système utilise un capteur donné, il ne tient pas compte des données qu'il a reçu des autres capteurs. Quelques systèmes proposent une alternative mais qui se limite à un partage des alertes fournies par chaque capteur.Multiple examples of realization of monitoring methods of places, premises or buildings are known. In general, the known approaches make it possible simultaneously to retrieve all the information making it possible to improve the knowledge of the state of a system and to update this state at one time. Such an approach requires large computing capacities and / or particularly long computation times since the system to be monitored comprises a large number of sensors. However, many applications in large buildings with many parts require the use of a large number of sensors, usually cameras. Moreover, the complexity of such systems generates many false detections or alarms. Indeed, no particular attention is paid to the results of the data analysis methods of the sensors. These results are considered inaccurate but always correct which is not always the case since analysis errors can occur. Finally, the operator does not know the status of the system. It is for information only alarms or alerts, and / or a plurality of information transmitted on a plurality of outputs such as television screens. Moreover, a single event, for example an intrusion, can involve the excitation of several sensors. The known systems then generate a plurality of alerts, typically one per sensor. Finally, when the system is used with different types of sensors such as cameras, intrusion sensors, motion sensors, there is no cooperation between the sensors. That is, when the system uses a given sensor, it does not take into account the data it has received from other sensors. Some systems offer an alternative but which is limited to sharing the alerts provided by each sensor.

De tels systèmes impliquent non seulement des lourdeurs en termes de matériel et des surcoûts, mais occasionnent aussi des difficultés d'utilisation dues notamment aux nombreuses fausses alertes, avec toutes les conséquences que cela peut entraîner.Such systems imply not only heaviness in terms of hardware and additional costs, but also cause difficulties of use due in particular to the many false alarms, with all the consequences that this may entail.

Le document US 2006/059557 , représente l'état de la technique le plus proche de l'objet de l'invention, et décrit un procédé de surveillance d'une scène qui contemple l'acquisition de données en provenance d'une pluralité de capteurs en communication avec la scène à surveiller et avec un système central de surveillance. Ce procède se sert des meta-données en relation avec l'objet surveillé et détermine le niveau de fiabilité relatif aux meta-données, décelant une condition d'alerte en après comparaison de ces meta-données avec un modèle. Le procédé décrit dans ce document tient aussi compte des données d'état du système.The document US 2006/059557 , represents the state of the art closest to the subject of the invention, and describes a method of monitoring a scene that contemplates the acquisition of data from a plurality of sensors in communication with the scene to be monitored and with a central monitoring system. This process uses meta-data in relation to the monitored object and determines the level of reliability relative to the meta-data, detecting a warning condition after comparing these meta-data with a model. The method described in this document also takes into account system state data.

Le document WO 02/19077 , décrit un système de détection d'intrusion sur un réseau informatique utilisant des techniques de corrélation probabilistes afin de réduire la fréquence des fausses alarmes, et améliorer l'information fournie dans les systèmes de détection d'intrusion. Le document décrit un système anti-intrusion comportant des capteurs de différents types. Les seules données émises par les capteurs sont des alertes.The document WO 02/19077 , describes an intrusion detection system on a computer network using probabilistic correlation techniques to reduce the frequency of false alarms, and improve the information provided in intrusion detection systems. The document describes an anti-intrusion system comprising sensors of different types. The only data emitted by the sensors are alerts.

Le système de détection d'intrusion bénéficierait à disposer d'informations de haut-niveau des capteurs qu'il pourrait exploiter pour configurer ou paramétrer les autres capteurs ou procédés d'analyse des données capteurs. Ces données sont corrélées de sorte que l'état (i.e. alerte ou non alerte) d'un capteur peut affecter l'état de l'autre. Ce système utilise également l'ensemble des capteurs disponibles de façon simultanée, nécessitant un système de calcul puissant et une gestion complexe. En effet, la sollicitation d'un procédé d'analyse d'une donnée capteur nécessite d'une part un temps de calcul nécessaire mais entraîne également un risque de « pollution » du résultat final du fait que dans certain cas, le procédé peut conduire à une analyse erronée. Par ailleurs, seuls les états des capteurs sont comparés entre eux : aucune comparaison n'est effectuée par rapport à une autre valeur pouvant éventuellement servir de référence.The intrusion detection system would benefit from having high-level information of the sensors that it could exploit to configure or parameterize the other sensors or methods of analysis of the sensor data. These data are correlated so that the state (i.e. alert or non-alert) of one sensor can affect the state of the other. This system also uses all available sensors simultaneously, requiring a powerful computing system and complex management. Indeed, the solicitation of a method of analysis of a sensor data requires firstly a necessary calculation time but also entails a risk of "pollution" of the final result because in some cases, the method can lead to a wrong analysis. Furthermore, only the states of the sensors are compared with one another: no comparison is made with respect to another value which may possibly be used as a reference.

Enfin, les informations de probabilité utilisées pour l'état des capteurs dépendent uniquement des états (i.e. alerte ou non alerte) des autres capteurs.Dans le cas d'un système de surveillance de détection d'intrusion d'un bâtiment utilisé en conditions difficiles (i.e. poussière, luminosité, pluie, mouvement de la végétation), les informations de probabilités utilisées pour l'état des capteurs ne doivent pas se limiter aux alertes remontées par les autres capteurs mais doivent pouvoir s'adapter dynamiquement aux conditions changeante de perception de la scène.Finally, the probability information used for the state of the sensors depends only on the states (ie alert or non-alert) of the other sensors. In the case of an intrusion detection surveillance system of a building used in difficult conditions (ie dust, brightness, rain, vegetation movement), the probabilistic information used for the sensor state should not be limited to the alerts raised by the other sensors but should be able to adapt dynamically to the changing conditions of perception of the sensors. the scene.

EXPOSE DE L'INVENTIONSUMMARY OF THE INVENTION

Pour éviter ces inconvénients, l'invention prévoit, dans un dispositif de surveillance d'une scène à au moins deux dimensions, délimitée par un pourtour connu et localisé, ledit dispositif comportant un système central de surveillance, une pluralité de capteurs en communication avec la scène à surveiller et avec le système central de surveillance, ledit système central comportant un Système de Mise à Jour et d'Alerte (SYMAJA) permettant de procéder à des acquisitions de données, de fournir des métadonnées en relation avec l'objet surveillé, de déterminer le niveau de fiabilité (et éventuellement de précision) relatif aux métadonnées et de déceler une éventuelle condition d'alerte (correspondant à une supradonnée) en comparant les métadonnées avec au moins un Modèle de Définition de Condition d'Alerte (MODECA), un comparateur, permettant de déterminer si le niveau de fiabilité correspondant aux Données d'Etat de Scène (DES) satisfait un Seuil Admissible de Fonctionnement Etabli (SAFE),To avoid these disadvantages, the invention provides, in a monitoring device of a scene of at least two dimensions, delimited by a known and localized periphery, said device comprising a central monitoring system, a plurality of sensors in communication with the scene to be monitored and with the central monitoring system, said central system including an Update and Alert System (SYMAJA) for performing data acquisitions, providing metadata in relation to the monitored object, determine the level of reliability (and possibly precision) of the metadata and to detect a possible alert condition (corresponding to a supradonne) by comparing the metadata with at least one Condition Definition Model (MODECA), a comparator, to determine whether the level of reliability corresponding to the Scene State Data (DES) satisfies an Admissible Threshold sible of Operating Established (SAFE),

un procédé de surveillance de la scène permettant de fournir en temps sensiblement réel un Etat de la scène, ledit procédé comportant les étapes consistant à :

  1. a) évaluer, à un instant donné t, les Données d'Etat de Scène (DESS) correspondant à l'Etat dans lequel se trouve la scène à l'intervalle t sur la base des données et métadonnées disponibles de l'intervalle précédent t-delta t;
    Cette prédiction étant effectuée uniquement sur la base des données préalablement mémorisées (d'Etat de Scène historiques) plus les données théoriques éventuelles relatives au fonctionnement du système ex ; tout capteur proprioceptif uniquement : capteur de vitesse, accélération, inclinaison ou toute autre donnée d'un fichier ou capteur extéroceptif tel qu'une cellule photo électrique)
  2. b) mémoriser les Données d'Etat de Scène (DESS) nouvellement obtenues ;
  3. c) vérifier, à l'aide du comparateur, si le niveau de fiabilité des Données d'Etat de Scène (DESS) nouvellement obtenues satisfait le Seuil Admissible de Fonctionnement Etabli (SAFE); (selon une variante de réalisation, la fiabilité est remplacée par la précision)
  4. d) si le niveau de fiabilité satisfait le Seuil Admissible de Fonctionnement Etabli (SAFE), le Système de Mise à Jour (SYMAJ) est à l'état inactif, et, après un intervalle de temps prévu, le procédé se poursuit à l'étape a) ;
  5. e) si le niveau de fiabilité ne satisfait pas le Seuil Admissible de Fonctionnement Etabli (SAFE), le Système de Mise à Jour (SYMAJ) passe à l'état actif et un cycle de mise à jour est lancé ;
  6. f) l'activation du Système de Mise à Jour (SYMAJ) actionne une étape de sélection de capteurs permettant de sélectionner au moins un capteur permettant l'obtention de données ou de métadonnées dont les niveaux de fiabilité correspondants permettent de se rapprocher ou de dépasser les niveaux établis par le Seuil Admissible de Fonctionnement Etabli (SAFE);
  7. g) les données et/ou métadonnées du capteur sélectionné sont reçues et prises en compte pour établir une nouvelle phase de calcul d'Etat de Scène selon les étapes suivantes :
  8. h) calculer, à un instant donné (t), les Données d'Etat de Scène (DESS) correspondant à l'état dans lequel se trouve la scène sur la base des données et/ou métadonnées du capteur sélectionné obtenues à cet instant (t) donné ;
  9. i) mémoriser les Données d'Etat de Scène Réel (DESS) nouvellement obtenus ;
  10. j) vérifier, à l'aide d'une étape de comparaison, si le niveau de fiabilité des Données d'Etat de Scène (DESS) réelles nouvellement obtenues satisfait le Seuil Admissible de Fonctionnement Etabli (SAFE);
  11. k) si le niveau de fiabilité réel satisfait le Seuil Admissible de Fonctionnement Etabli (SAFE), le Système de Mise à Jour (SYMAJ) passe à l'état inactif, et, après l'intervalle de temps prévu, le procédé se poursuit à l'étape a) (estimation);
  12. l) si le niveau de fiabilité réel ne satisfait pas le Seuil Admissible de Fonctionnement Etabli (SAFE), le Système de Mise à Jour (SYMAJ) demeure à l'état actif, un nouveau cycle de mise à jour est lancé, et le procédé se poursuit à l'étape f).
a scene monitoring method for providing a real-time state of the scene, said method comprising the steps of:
  1. a) evaluate, at a given time t, the Scene State Data (DESS) corresponding to the state in which the scene is located at the interval t on the basis of available data and metadata from the previous interval t -delta t;
    This prediction being performed solely on the basis of the previously stored data (historical Scene State) plus any theoretical data relating to the operation of the ex system; any proprioceptive sensor only: speed sensor, acceleration, inclination or any other data of a file or exteroceptive sensor such as a photoelectric cell)
  2. b) store the newly obtained Scene State Data (DESS);
  3. c) verify, with the aid of the comparator, whether the reliability level of the newly obtained Stage State Data (DESS) satisfies the Acceptable Set Operating Threshold (SAFE); (according to an alternative embodiment, reliability is replaced by precision)
  4. d) if the reliability level meets the Acceptable Set Operating Threshold (SAFE), the Update System (SYMAJ) is in the idle state, and after a specified time interval, the process continues to step a);
  5. e) if the level of reliability does not meet the Acceptable Operating Threshold (SAFE), the Update System (SYMAJ) goes into the active state and an update cycle is initiated;
  6. f) activation of the Update System (SYMAJ) activates a step of selecting sensors for selecting at least one sensor for obtaining data or metadata whose corresponding reliability levels make it possible to approach or exceed the levels established by the Eligible Operating Threshold Established (SAFE);
  7. g) the data and / or metadata of the selected sensor are received and taken into account to establish a new scene state calculation phase according to the following steps:
  8. h) compute, at a given instant (t), the Scene State Data (DESS) corresponding to the state in which the scene is located on the basis of the data and / or metadata of the selected sensor obtained at that moment ( t) given;
  9. i) memorize the newly obtained Real Scene State Data (DESS);
  10. j) verify, using a comparison step, whether the reliability level of the newly obtained Real Scene State Data (DESS) satisfies the Acceptable Operating Threshold (SAFE);
  11. k) If the actual reliability level satisfies the Established Safe Operating Threshold (SAFE), the Update System (SYMAJ) goes into the idle state, and, after the expected time interval, the process continues to step a) (estimate);
  12. l) If the actual reliability level does not meet the Acceptable Set Operating Threshold (SAFE), the Update System (SYMAJ) remains in the active state, a new update cycle is initiated, and the process continues in step f).

Un tel procédé permet de diminuer le nombre et/ou la fréquence des fausses alarmes, permet de surveiller un plus grand nombre de paramètres tout en proposant une sortie simplifiée facilitant le travail de l'opérateur. Le temps de calcul et/ou la puissance de calcul requise sont par ailleurs considérablement réduits du fait que le nombre de données de capteur à traiter est considérablement réduit. Selon une variante de réalisation, l'intervalle de temps prévu peut changer en cours de processus en fonction par exemple des risques variables dans le cours de la journée.Such a method makes it possible to reduce the number and / or the frequency of the false alarms, makes it possible to monitor a greater number of parameters while proposing a simplified exit facilitating the work of the operator. The calculation time and / or the computation power required are also considerably reduced because the number of sensor data to be processed is considerably reduced. According to an alternative embodiment, the expected time interval may change during the process depending for example on the risks that are variable in the course of the day.

Selon l'invention, les mesures de l'état d'un système sont effectuées par phases. Ainsi, le système de surveillance est soit dans une phase de repos soit dans une phase excitée. Il est dans une phase de repos dès lors que l'état du système calculé répond aux exigences de l'application. Lorsque cette contrainte n'est plus validée, le système passe dans une phase excitée. Ceci entraîne une sollicitation des capteurs pour récupérer leurs données et les traiter afin d'améliorer l'état pour repasser dans une nouvelle phase de repos. En phase de repos, le calcul de l'état du système est réalisé au moyen de modèles, des commandes et/ou entrées du système, comme par exemple les actions réalisées sur un « joystick » pour commander un bras manipulateur, qui indirectement font appel à des capteurs (ex : les capteurs qui mesurent l'orientation du « joystick »).According to the invention, the measurements of the state of a system are carried out in phases. Thus, the monitoring system is either in a rest phase or in an excited phase. It is in a rest phase when the state of the calculated system meets the requirements of the application. When this constraint is no longer validated, the system goes into an excited phase. This results in a solicitation of the sensors to recover their data and process them to improve the state to return to a new phase of rest. In the rest phase, the calculation of the state of the system is carried out by means of models, commands and / or inputs of the system, such as for example the actions performed on a "joystick" for controlling a manipulator arm, which indirectly make use of to sensors (eg sensors that measure the orientation of the "joystick").

Selon un mode de réalisation avantageux, l'étape de sélection de capteur permet de sélectionner le capteur qui fournira un état théorique de scène qui, en comparaison avec le Seuil Admissible de Fonctionnement Etabli (SAFE), présente l'écart le plus faible.According to an advantageous embodiment, the sensor selection step makes it possible to select the sensor that will provide a theoretical scene state which, in comparison with the Acceptable Operation Operating Threshold (SAFE), has the smallest deviation.

Grâce à ces caractéristiques, il est possible de solliciter simultanément un seul ou un nombre restreint de capteurs pour effectuer les premiers calculs, puis de compléter un éventuel manque de fiabilité par des données et/ou métadonnées complémentaires judicieusement et rigoureusement sélectionnées. Ce processus en étapes simplifie la gestion et les opérations pour les systèmes de surveillance disposant d'un nombre important de capteurs. Selon une variante de réalisation, l'étape de sélection permet de sélectionner un procédé de traitement de signal du capteur parmi une pluralité de procédés disponibles, soit en plus ou à la place de la sélection de capteur. Un exemple, de donnée qui permet de modifier l'état d'une scène d'un instant à l'autre est la vitesse, qui a pour effet une modification de la position d'un objet en fonction du temps.Thanks to these characteristics, it is possible to simultaneously solicit a single or a limited number of sensors to perform the first calculations, then complete a possible lack of reliability by additional data and / or metadata judiciously and rigorously selected. This step process simplifies management and operations for surveillance systems with a large number of sensors. According to an alternative embodiment, the selection step makes it possible to select a sensor signal processing method from among a plurality of available methods, either in addition to or instead of the sensor selection. An example of data that makes it possible to modify the state of a scene from one instant to another is the speed, which has the effect of modifying the position of an object as a function of time.

selon un autre exemple, l'étape de sélection de capteur, on compare les niveaux de fiabilité de chacune des données et/ou métadonnées et on sélectionne le capteur et/ou le procédé de traitement de signal de capteur dont le niveau de fiabilité est le plus élevé.in another example, the sensor selection step, comparing the reliability levels of each of the data and / or metadata, and selecting the sensor and / or the sensor signal processing method whose reliability level is the higher.

De manière avantageuse, à l'étape de sélection de capteur, l'écart avec le Seuil Admissible de Fonctionnement Etabli (SAFE) est affecté d'un facteur de correction correspondant au coût requis pour l'obtention dudit écart.Advantageously, at the sensor selection step, the difference with the Acceptable Operating Threshold Set (SAFE) is assigned a correction factor corresponding to the cost required to obtain said deviation.

On ajoute avantageusement au niveau de fiabilité considéré le niveau de précision des grandeurs qui composent le système.The level of accuracy of the magnitudes which make up the system is advantageously added to the level of reliability considered.

Les Données d'Etat de Scène sont de préférence mises à disponibilité (en sortie).The Scene State Data is preferably made available (at the output).

Ceci peut être fait à fout moment, car on a toujours une certaine connaissance de l'état actuel de la scène, et même, dans le cas de l'étape de prédiction, de l'état à venir de la scène. Ainsi, il est utile de pouvoir fournir une sortie indiquant une scène dans laquelle le niveau de fiabilité est insuffisant, ou une scène dans laquelle ce niveau est suffisant avec une éventuelle indication d'une alerte.This can be done at any time, because there is always some knowledge of the current state of the scene, and even, in the case of the prediction stage, of the future state of the scene. Thus, it is useful to be able to provide an output indicating a scene in which the level of reliability is insufficient, or a scene in which this level is sufficient with a possible indication of an alert.

Selon une mode de réalisation avantageux, la scène à surveiller est complexe et comporte une pluralité de sous-scènes liées les unes autres, et dans lequel, lors d'au moins une des étapes du procédé, les Données d'Etat de Scène d'une sous-scène sont utilisées pour l'étape a) d'estimation des Données d'Etat de Scène d'une autre sous-scène, liée à la première.According to an advantageous embodiment, the scene to be monitored is complex and comprises a plurality of sub-scenes related to each other, and in which, during at least one of the steps of the method, the Scene State Data of a sub-scene are used for step a) of estimating the Scene State Data of another sub-scene, related to the first.

Ceci suppose que les liens (par exemple le plan d'agencement des pièces d'un bâtiment) sont connus et pris en compte. Cette caractéristique est particulièrement avantageuse car elle permet à l'étape d'évaluation un niveau de performance particulièrement élevé, évitant ainsi d'effectuer des calculs pour une vaste variété de cas. Par exemple, une scène à surveiller peut être un établissement comportant une pluralité d'enceintes à surveiller, les données relatives à l'état de scènes étant présentées sur une représentation visuelle synthétique dudit établissement. L'établissement peut être un Musée, un aéroport, une banque, un centre commercial, un bâtiment publique, etc. La représentation visuelle peut être une représentation schématique de l'établissement en 2 ou 3 dimensions. Un affichage unique permet alors de représenter un système physique ou une scène complexe, rendant de ce fait la surveillance de cette scène beaucoup plus simple, ergonomique, efficace et sûre.This supposes that the links (for example the layout plan of the rooms of a building) are known and taken into account. This feature is particularly advantageous because it allows the evaluation step a particularly high level of performance, thus avoiding calculations for a wide variety of cases. For example, a scene to be monitored may be an establishment having a plurality of speakers to monitor, the scene state data being presented on a synthetic visual representation of said institution. The establishment can be a museum, an airport, a bank, a shopping center, a public building, etc. The visual representation can be a schematic representation of the establishment in 2 or 3 dimensions. A single display can then represent a physical system or a complex scene, thus making the monitoring of this scene much simpler, ergonomic, efficient and safe.

En cas d'alerte ou alarme dans une enceinte de l'établissement, l'enceinte concernée est indiquée par un signal visuel sur la représentation schématique de l'établissement. Le signal peut être accompagné d'un signal sonore pour alerter un éventuel opérateur, d'un affichage de message, permettant d'identifier la nature de l'alerte et les éventuelles démarches à effectuer pour vérifier la situation et/ou pour y remédier.In the event of an alarm or an alarm in an enclosure of the establishment, the enclosure concerned is indicated by a visual signal on the schematic representation of the establishment. The signal may be accompanied by an audible signal to alert an eventual operator of a message display, to identify the nature of the alert and any steps to be taken to verify the situation and / or to remedy it.

Selon une variante, si les Données d'Etat de Scène (DES) évaluées de la première sous-scène révèlent qu'aucun événement lié à la surveillance n'est susceptible de se produire au niveau de la seconde sous-scène, les capteurs de cette seconde sous-scène sont mis en mode désactivé.Alternatively, if the Scene State Data (ESD) evaluated from the first sub-scene reveals that no event related to monitoring is likely to occur at the second sub-scene, the this second sub-scene are put in deactivated mode.

Grâce à cette caractéristique, il est possible de placer en mode « veille » une pluralité des capteurs, simplifiant grandement le fonctionnement du système, limitant le nombre d'opérations à effectuer, et contribuant à augmenter la rapidité du système, même si le calculateur utilisé ne dispose pas de capacités particulièrement importantes. En particulier, cette caractéristique est particulièrement utile si l'état du système n'indique aucune source d'alerte dans la seconde sous-scène et si cette seconde sous-scène n'est accessible que par la première.Thanks to this characteristic, it is possible to place a plurality of sensors in "sleep" mode, greatly simplifying the operation of the system, limiting the number of operations to be performed, and contributing to increasing the speed of the system, even if the computer used does not have particularly important capabilities. In particular, this feature is particularly useful if the state of the system does not indicate any alert source in the second sub-scene and if this second sub-scene is accessible only by the first.

Selon une autre variante, les capteurs utilisés sont sélectionnés dans la liste comprenant : une caméra, un détecteur de mouvement, un capteur de pression, un capteur de température, un capteur de vibrations, une cellule photoélectrique, un faisceau laser, une caméra thermique, un détecteur d'ouverture de porte ou fenêtre ou autre point d'accès susceptible d'être ouvert, un capteur infrarouge, un capteur à ultrason, un radar, un capteur d'accélération, un capteur d'inclinaison, un capteur de force, un capteur RFID, un capteur d'intrusion tel que les capteurs de bris de vitres, un lecteur de badge d'accès, un capteur magnétique.According to another variant, the sensors used are selected from the list comprising: a camera, a motion detector, a pressure sensor, a temperature sensor, a vibration sensor, a photoelectric cell, a laser beam, a thermal camera, a door opening detector or window or other access point that can be opened, an infrared sensor, an ultrasonic sensor, a radar, an acceleration sensor, an inclination sensor, a force sensor, an RFID sensor, an intrusion sensor such as broken glass sensors, an access badge reader, a magnetic sensor.

L'invention prévoit également un dispositif de surveillance d'une scène à au moins deux dimensions, délimitée par un pourtour connu et localisé, ledit dispositif comportant :

  • un système central de calcul ;
  • une pluralité de capteurs, en communication avec la scène à surveiller, chacun étant apte à surveiller un élément ou phénomène physique pour au moins une portion de ladite scène ;
  • des moyens de transmission de données des capteurs vers le système central de calcul ;
  • ledit système central comportant :
    • une interface d'entrée de données, permettant au système central de recevoir les données des capteurs et d'assurer la compatibilité avec le système ;
    • un Système de Mise à Jour et d'Alerte (SYMAJA), permettant de procéder à des acquisitions de données, de fournir des métadonnées en relation avec l'objet surveillé, de déterminer le niveau de fiabilité (et éventuellement de précision) relatif aux métadonnées et de déceler une éventuelle condition d'alerte en comparant les métadonnées avec au moins un Modèle de Définition de Condition d'Alerte (MODECA) ;
    • un comparateur, permettant de déterminer si le niveau de fiabilité correspondant aux Données d'Etat de Scène satisfait un Seuil Admissible de Fonctionnement Etabli (SAFE) ;
    • une interface de sortie, permettant de fournir une sortie en relation avec les Données d'Etat de Scène. (la sortie peut fournir des données, métadonnées, supradonnées, etc).
The invention also provides a device for monitoring a scene of at least two dimensions delimited by a known and localized periphery, said device comprising:
  • a central system of calculation;
  • a plurality of sensors, in communication with the scene to be monitored, each being able to monitor a physical element or phenomenon for at least a portion of said scene;
  • means for transmitting data from the sensors to the central computing system;
  • said central system comprising:
    • a data entry interface, enabling the central system to receive sensor data and ensure compatibility with the system;
    • an Update and Alert System (SYMAJA), enabling data acquisition, providing metadata related to the monitored object, determining the level of reliability (and possibly precision) relative to the metadata and detecting a possible alert condition by comparing the metadata with at least one Alert Condition Definition Model (MODECA);
    • a comparator, for determining whether the reliability level corresponding to the Scene State Data satisfies an Acceptable Set Operating Threshold (SAFE);
    • an output interface, for providing an output in relation to the Scene State Data. (The output can provide data, metadata, supradata, etc.).

Selon une variante, le système central de calcul comprend une interface pour recevoir des sources de données et/ou métadonnées autres que des capteurs.Alternatively, the central computing system includes an interface for receiving data sources and / or metadata other than sensors.

Par exemple, il peut s'agir de fichiers de données, une horloge, d'instructions et/ou données provenant d'un autre système, d'un individu, etc. ,For example, they may be data files, a clock, instructions and / or data from another system, an individual, etc. ,

L'invention prévoit par ailleurs un logiciel comprenant des éléments de code programmés pour la mise en oeuvre du procédé préalablement décrit, lorsque ledit logiciel est chargé dans un système informatique et exécuté par ledit système informatique.The invention furthermore provides software comprising code elements programmed to implement the previously described method, when said software is loaded into a computer system and executed by said computer system.

Dans une variante, le logiciel est sous forme de produit enregistré sur un support lisible par un système informatique, comprenant des éléments de code programmés.In a variant, the software is in the form of a product recorded on a support readable by a computer system, comprising programmed code elements.

Voici quelques autres avantages procurés par la présente invention. La puissance de calcul est réduite : en phase de repos, le système consomme très peu de ressources ; en phase excité, seuls les capteurs utiles sont sollicités ; en phase excité, le système ne traite pas toute la donnée du capteur mais uniquement la zone adéquate ; contrairement à un système de vidéosurveillance classique où la puissance de calcul nécessaire est fonction du nombre de capteurs, le procédé et le système selon l'invention permettent d'optimiser la puissance de calcul.Here are some other advantages provided by the present invention. The computing power is reduced: in the idle phase, the system consumes very few resources; in the excited phase, only the useful sensors are solicited; in the excited phase, the system does not process all the data of the sensor but only the appropriate zone; unlike a conventional video surveillance system where the computing power required is a function of the number of sensors, the method and the system according to the invention make it possible to optimize the computing power.

Le procédé et le dispositif permettent une approche indépendante du type de capteurs utilisés. Tout capteur permettant de fournir un renseignement sur l'état du système est exploitable. C'est-à-dire tout capteur permettant de mesurer une grandeur physique qui a été modifiée par l'élément que l'on souhaite détecter ou caractériser.The method and the device allow an independent approach of the type of sensors used. Any sensor to provide information on the state of the system is exploitable. That is to say any sensor for measuring a physical quantity that has been modified by the element that it is desired to detect or characterize.

Le procédé et le dispositif permettent une approche intégrant la fiabilité des informations renvoyées par les capteurs. Ainsi, le système de surveillance sollicitera une caméra dans une pièce où l'éclairage est contrôlé mais ne la sollicitera pas s'il fait noir car le capteur n'est plus fiable pour reconnaître des individus.The method and the device allow an approach integrating the reliability of the information returned by the sensors. Thus, the surveillance system will solicit a camera in a room where lighting is controlled but will not solicit it if it is dark because the sensor is no longer reliable to recognize individuals.

Le procédé et le dispositif permettent une approche dans laquelle on n'utilise pas les capteurs indépendamment les uns des autres. Ainsi, dans une approche classique et pour une fonction de détection d'intrusions, il y aurait autant d'alarmes que d'alertes renvoyées par les capteurs.The method and apparatus allow an approach in which the sensors are not used independently of each other. Thus, in a conventional approach and for an intrusion detection function, there would be as many alarms as alerts returned by the sensors.

Selon l'invention, pour un même intrus, il n'y a qu'une seule alarme même s'il passe devant plusieurs capteurs. Par ailleurs, le procédé permet de renvoyer à l'opérateur uniquement les informations utiles par rapport à sa problématique. Par exemple, plutôt que de transmettre une information d'augmentation de température dans une pièce, il est possible d'indiquer qu'une personne se trouve dans la pièce. Cette information est obtenue grâce à une corrélation de manière probabiliste avec des modèles d'augmentation de température et l'ouverture de la porte.According to the invention, for the same intruder, there is only one alarm even if it passes in front of several sensors. Moreover, the method makes it possible to send back to the operator only the information that is useful with respect to its problematic. For example, rather than transmitting temperature increase information in a room, it is possible to indicate that a person is in the room. This information is obtained through a probabilistic correlation with models of temperature increase and the opening of the door.

DESCRIPTION DES FIGURESDESCRIPTION OF THE FIGURES

Tous les détails de réalisation sont donnés dans la description qui suit, complétée par les figures 1 à 34 dans lesquelles:

  • la figure 1 est une représentation schématique du principe de fonctionnement d'un système de surveillance de type connu;
  • la figure 2 est une représentation schématique du principe de fonctionnement d'un système de surveillance selon l'invention;
  • la figure 3 est une représentation schématique du système de surveillance selon l'invention;
  • les figures 4 et 5 présentent les principales étapes du procédé de surveillance selon l'invention ;
  • les figures 6 à 14 illustrent différents aspects relatifs à la notion de tryptique ;
  • les figures 15 à 28 présentent un premier exemple de scène surveillée à l'aide du procédé de l'invention ;
  • les figures 29 et 30 présentent un second exemple de scène surveillée à l'aide du procédé de l'invention ;
  • la figure 31 présente un affichage type de surveillance selon un mode connu ;
  • la figure 32 présente un exemple de présentation des résultats de la surveillance avec le procédé selon l'invention ;
  • les figures 33 et 34 présentent un troisième exemple de scène surveillée à l'aide du procédé de l'invention.
All the details of realization are given in the description which follows, completed by the Figures 1 to 34 in which:
  • the figure 1 is a schematic representation of the operating principle of a known type of surveillance system;
  • the figure 2 is a schematic representation of the operating principle of a monitoring system according to the invention;
  • the figure 3 is a schematic representation of the monitoring system according to the invention;
  • the figures 4 and 5 present the main steps of the monitoring method according to the invention;
  • the Figures 6 to 14 illustrate different aspects relating to the notion of tryptic;
  • the Figures 15 to 28 present a first example of scene monitored using the method of the invention;
  • the figures 29 and 30 present a second example of scene monitored using the method of the invention;
  • the figure 31 presents a typical display of surveillance in a known mode;
  • the figure 32 presents an example of presentation of the results of the monitoring with the method according to the invention;
  • the figures 33 and 34 present a third example of scene monitored using the method of the invention.

DESCRIPTION DETAILLEE DE L'INVENTIONDETAILED DESCRIPTION OF THE INVENTION

Dans la présente description, les termes suivants sont utilisés notamment avec les significations suivantes :In the present description, the following terms are used in particular with the following meanings:

On désigne « donnée » une information de nature technique ou physique fournie par un capteur au système. Il s'agit souvent d'un signal donnant une information de température, vibration, force, une image, un signal d'interruption d'un faisceau laser, un temps de propagation d'une onde, etc."Data" refers to information of a technical or physical nature provided by a sensor to the system. This is often a signal giving information of temperature, vibration, force, an image, an interruption signal of a laser beam, a propagation time of a wave, etc.

On désigne «métadonnée » une information de haut-niveau résultant de l'analyse d'au moins une partie d'une donnée reçue d'un ou plusieurs capteurs par un processus de traitement. Une métadonnée a une relation directe avec l'objet surveillé. Par exemple, une métadonnée peut par exemple correspondre à l'objet de la surveillance par une caractéristique de cet objet qui peut être contrôlée ou vérifiée, tel que une couleur, une forme, un profil, un contour, etc. Une caméra est exemple d'un capteur fournissant une donnée brute non exploitable (signal d'image). Ce signal traité par un processus de traitement d'image permet l'obtention d'une ou plusieurs métadonnées.The term "metadata" refers to high-level information resulting from the analysis of at least a portion of a data item received from one or more sensors by a processing process. A metadata has a direct relationship with the object being monitored. For example, a metadata may for example correspond to the object of monitoring by a feature of that object that can be controlled or verified, such as a color, shape, profile, outline, etc. A camera is an example of a sensor providing raw non-exploitable data (image signal). This signal processed by an image processing process makes it possible to obtain one or more metadata.

On désigne «supradonnée » une information en relation avec le résultat ou objectif final de la surveillance. Par exemple, il y a intrusion ou pas, on a dérobé l'objet surveillé ou pas, etc.The term "supradonne" refers to information related to the end result or objective of the surveillance. For example, there is intrusion or not, we stole the object under surveillance or not, etc.

Par « surveiller », on entend (pour un capteur) les concepts et notions permettant de surveiller, mesurer, détecter, analyser un élément (vivant ou non, donc incluant un animal, une plante, un virus, micro-organisme, personne ou groupe de personnes, etc), ou phénomène physique.By "monitor", we mean (for a sensor) the concepts and notions used to monitor, measure, detect, analyze an element (living or not, therefore including an animal, a plant, a virus, a micro-organism, a person or a group of people, etc.), or physical phenomenon.

On désigne «capteur » un dispositif matériel intégrant éventuellement des outils de traitement qui mesure des grandeurs ou phénomènes physiques.The term "sensor" means a hardware device optionally incorporating processing tools that measure physical quantities or phenomena.

On désigne « état de scène », ou « données d'état de scène » ou « données d'état physique » les informations ou données de nature physique ou technique représentant la valeur d'une grandeur ou d'un phénomène physique présent dans la scène. A titre d'exemple de grandeurs ou phénomènes physiques : présence ou absence d'un élément vivant ou non, couleur, texture, température, vitesse, accélération, luminosité, infrarouge, pression, temps, poids d'un objet ou d'un être vivant, le temps de propagation d'une onde, la réflectivité d'une surface, la position d'un individu, etc. Plus particulièrement, on désigne « état de scène » la description technique de la scène à une date particulière. Cette description technique contient une liste de données d'état de scène. Un des objectifs du procédé et du dispositif consiste à calculer l'état de la scène, c'est-à-dire l'ensemble des données d'état d'une scène. Pour calculer ces données d'état, le système utilise des données ou métadonnées des capteurs. Il est entendu qu'une scène est de préférence statique. Cependant, certaines scènes « mobiles », telles que le cockpit ou la cabine d'un avion, les wagons d'un train ou les salles d'un navire, ne sont pas exclues du procédé selon l'invention."Stage status" or "scene state data" or "physical state data" means information or data of a physical or technical nature representing the value of a magnitude or physical phenomenon present in the scene. By way of example of physical quantities or phenomena: presence or absence of a living or non living element, color, texture, temperature, speed, acceleration, luminosity, infrared, pressure, time, weight of an object or being the propagation time of a wave, the reflectivity of a surface, the position of an individual, etc. More particularly, the term "stage state" is used to describe the description stage technique on a particular date. This technical description contains a list of scene state data. One of the objectives of the method and the device consists in calculating the state of the scene, that is to say the set of state data of a scene. To calculate this state data, the system uses sensor data or metadata. It is understood that a scene is preferably static. However, certain "mobile" scenes, such as the cockpit or the cabin of an aircraft, the wagons of a train or the rooms of a ship, are not excluded from the method according to the invention.

On entend par « SYMAJA » un Système de Mise à Jour et d'Alerte. Ce système permet de procéder à des acquisitions de données, de fournir des métadonnées en relation avec l'objet surveillé, de déterminer le niveau de fiabilité (et éventuellement de précision) relatif aux métadonnées et de déceler une éventuelle condition d'alerte en comparant les métadonnées avec au moins un Modèle de Définition de Condition d'Alerte (MODECA)."SYMAJA" means an Update and Alert System. This system allows for data acquisition, metadata related to the monitored object, determination of the level of reliability (and possibly precision) of the metadata, and detection of a possible alert condition by comparing metadata with at least one Alert Condition Definition Model (MODECA).

On entend par « MODECA », un Modèle de Définition de Condition d'Alerte. Un tel modèle permet d'établir une relation directe ou indirecte entre l'objet de la surveillance et les métadonnées de façon à permettre de déceler une éventuelle condition d'alerte. Par exemple, si une ou plusieurs métadonnées correspondent à des éléments du modèle, une condition d'alerte est donnée. Si un certain nombre de métadonnées correspondent partiellement au modèle, ou si le niveau de fiabilité de certaines métadonnées ne correspond pas aux exigences, le procédé de surveillance pourra permettre l'obtention de données ou métadonnées complémentaires pour valider ou non la condition d'alerte."MODECA" means an Alert Condition Definition Model. Such a model makes it possible to establish a direct or indirect relationship between the object of the surveillance and the metadata in order to detect a possible warning condition. For example, if one or more metadata matches elements of the model, an alert condition is given. If a certain number of metadata partially correspond to the model, or if the reliability level of certain metadata does not correspond to the requirements, the monitoring method may make it possible to obtain additional data or metadata to validate or not the alert condition.

On entend par « fiabilité »: la variable fiabilité de chaque grandeur ou ensemble de grandeurs de l'état du système calculé. Cette valeur est destinée à être comparée à la variable fiabilité de l'état du système demandé par l'utilisateur pour ces mêmes grandeurs. Que la grandeur considérée soit numérique ou pas, la fiabilité est une valeur numérique entre 0 et 1 et la précision est une valeur numérique supérieure ou égale à 0. Ainsi, lorsque l'on réalise la comparaison par rapport aux exigences, on compare les variables de fiabilité et précision et pas les grandeurs auxquelles sont associées ces variables. Or, la fiabilité et la précision sont toujours des valeurs numériques et peuvent toujours être comparées.The term "reliability" means the reliability variable of each quantity or set of quantities of the state of the calculated system. This value is intended to be compared to the reliability variable of the system state requested by the user for these same quantities. Whether the quantity considered is digital or not, the reliability is a numerical value between 0 and 1 and the precision is a numerical value greater than or equal to 0. Thus, when the comparison with the requirements is performed, the variables are compared. of reliability and precision and not the magnitudes to which are associated these variables. However, reliability and accuracy are always numerical values and can always be compared.

L'objectif de ce procédé consiste à établir l'état d'un système, en particulier d'une scène. L'état d'un système correspond à un ensemble de grandeurs numériques et éventuellement non numériques caractéristiques du système.The purpose of this method is to establish the state of a system, particularly a scene. The state of a system corresponds to a set of numerical and possibly non-digital quantities characteristic of the system.

Ainsi, le procédé et le dispositif permettent de calculer ces grandeurs (mesurer leur valeur) avec une certaine précision et une certaine fiabilité. La fiabilité d'une grandeur est la probabilité que la grandeur réelle appartienne à l'intervalle : valeur plus ou moins sa précision. Si la grandeur ne possède pas de précision, alors la fiabilité est la probabilité que la grandeur réelle soit égale à la valeur. La fiabilité peut être définie non pas pour une grandeur mais pour un ensemble de grandeurs. Elle correspond alors à la probabilité que chaque grandeur réelle appartienne à chaque intervalle ou soit égale à la valeur. Dans certains cas, il est nécessaire de calculer des grandeurs supplémentaires pour atteindre la précision et la fiabilité souhaitées sur les grandeurs demandées. Dans la description qui suit, le niveau de fiabilité souhaité par l'utilisateur, et dans certains cas la précision souhaitée par l'utilisateur correspondent aux exigences de l'application.Thus, the method and the device make it possible to calculate these quantities (measure their value) with a certain precision and a certain reliability. The reliability of a quantity is the probability that the actual quantity belongs to the interval: value plus or minus its accuracy. If the quantity has no precision, then the reliability is the probability that the real quantity is equal to the value. Reliability can be defined not for a quantity but for a set of quantities. It then corresponds to the probability that each real quantity belongs to each interval or is equal to the value. In some cases, it is necessary to calculate additional quantities to achieve the desired accuracy and reliability of the quantities requested. In the following description, the level of reliability desired by the user, and in some cases the accuracy desired by the user correspond to the requirements of the application.

La figure 1 illustre schématiquement le principe de fonctionnement d'un système de surveillance d'un dispositif de type connu. Les capteurs, en général des caméras, sont reliées à des dispositifs vidéo, permettant de visualiser en direct, et éventuellement d'enregistrer ce que les caméras peuvent filmer des scènes concernées. Pour visualiser des nombreuses données, il est nécessaire de disposer d'une pluralité d'écrans, rendant les consultations et surveillances fastidieuses et fatigantes pour les opérateurs. Si d'autres capteurs sont utilisés, ceux sont gérés de façon indépendante, et les informations obtenues des différentes sources sont fournies séparément à l'opérateur. En pratique, un seul opérateur parvient difficilement à contrôler un grand nombre de paramètres en même temps. Souvent, pour pallier à cette limitation, plusieurs opérateurs sont présents.The figure 1 schematically illustrates the operating principle of a monitoring system of a device of known type. The sensors, usually cameras, are connected to video devices, allowing to view live, and possibly record what cameras can film scenes concerned. To visualize a lot of data, it is necessary to have a plurality of screens, making the consultations and monitoring tiresome and tiring for the operators. If other sensors are used, those are managed independently, and information obtained from different sources is provided separately to the operator. In practice, a single operator has difficulty controlling a large number of parameters at the same time. Often, to overcome this limitation, several operators are present.

La figure 2 illustre schématiquement un système ou dispositif de surveillance de scène selon l'invention. Un système central de surveillance 2 permet de recevoir toutes les entrées des capteurs. Une approche probabiliste, décrite ultérieurement, permet de prévoir une sollicitation séquentielle des capteurs. Les données des capteurs sont interprétées de façon à permettre une analyse globale de la situation au niveau de la scène. Ceci permet de produire des alertes en fonction des événements plutôt qu'en fonction du nombre de capteurs impliqués. Ainsi, plusieurs capteurs 30 participant à la détection d'un événement unique permettront de produire une détection fiable, et d'envoyer un signal unique à l'opérateur, même si plusieurs capteurs sont impliqués. Le procédé et le système schématisé à la figure 2 sera présenté plus en détails à l'aides des figures suivantes.The figure 2 schematically illustrates a scene monitoring system or device according to the invention. A central monitoring system 2 makes it possible to receive all the inputs of the sensors. A probabilistic approach, described later, makes it possible to predict a sequential solicitation of the sensors. The sensor data is interpreted to allow an overall analysis of the situation at the scene level. This makes it possible to produce alerts based on events rather than on the number of sensors involved. Thus, several sensors 30 participating in the detection of a single event will produce a reliable detection, and send a single signal to the operator, even if several sensors are involved. The process and system schematized at figure 2 will be presented in more detail with the aid of the following figures.

La figure 3 présente un exemple de dispositif ou système de surveillance 1 selon l'invention. On note, sur la portion gauche de la figure, une série de capteurs 30. Ces exemples sont présentés pour illustrer une infinie diversité de capteurs pouvant être utilisés afin d'améliorer les performances du système et/ou pour permettre de détecter une grande variété de phénomènes physiques, mécaniques, électriques, chimiques, etc, ou plus simplement de détecter des individus, des animaux, des objets, etc. Pour certaines applications il est également utile de recevoir des données ou informations d'autres sources 40 que des capteurs, comme par exemple de fichiers de données en provenance d'ordinateurs, de moyens de stockage de données, d'une machine, système ou application diverse.The figure 3 shows an example of a device or monitoring system 1 according to the invention. On the left portion of the figure, a series of sensors 30 is noted. These examples are presented to illustrate an infinite variety of sensors that can be used to improve system performance and / or to detect a wide variety of sensors. physical, mechanical, electrical, chemical, etc., or more simply to detect individuals, animals, objects, etc. For some applications it is also useful to receive data or information from other sources than sensors, such as data files from computers, data storage means, a machine, system or application. diverse.

Un système central de surveillance 2 permet de recevoir les données et métadonnées des divers capteurs 30 et des autres sources 40 par l'entremises d'interfaces 21 spécialement adaptées. Ces interfaces permettent au système central 2 de recevoir les données et signaux des capteurs en assurant la compatibilité entre ces différents éléments. Le système central 2 comprend un système de mise à jour et d'alerte (SYMAJA).22 et un comparateur 23. Ces deux derniers éléments sont avantageusement mis en oeuvre au moyen d'un microprocesseur ou tout autre puissant moyen de calcul, avec les instructions codées adéquates. Les données et métadonnées peuvent être stockées dans un moyen de stockage 26 ou mémoire, prévu à cet effet. Une sortie 24 permet d'envoyer à l'opérateur ou à un autre système les données, métadonnées, alertes, après interprétation et traitement par le système central. L'interface 25 permet de recevoir les seuils ou paramètres de réglage du système si ces paramètres ne sont pas déjà paramétrés dans le système central.A central surveillance system 2 makes it possible to receive the data and metadata of the various sensors 30 and of the other sources 40 via the specially adapted interface interfaces 21. These interfaces allow the central system 2 to receive the data and signals of the sensors by ensuring compatibility between these different elements. The central system 2 comprises an updating and warning system (SYMAJA) .22 and a comparator 23. These last two elements are advantageously implemented by means of a microprocessor or any other powerful means of calculation, with the adequate coded instructions. The data and metadata can be stored in a storage means 26 or memory, provided for this purpose. An output 24 can send to the operator or another system data, metadata, alerts, after interpretation and processing by the central system. The interface 25 makes it possible to receive the thresholds or adjustment parameters of the system if these parameters are not already parameterized in the central system.

Le système de mise à jour et d'alerte 22 est prévu afin de procéder à des acquisitions de données en provenance des capteurs 30, de fournir des métadonnées en relation avec l'objet surveillé, de déterminer le niveau de fiabilité relatif aux métadonnées et de déceler les éventuelles conditions d'alerte. Ces conditions d'alerte sont identifiées en comparant les métadonnées avec au moins un Modèle de Définition de Condition d'Alerte (MODECA). Les données d'état de scène (DES) sont compilées à son niveau, soit par évaluation, soit par acquisition de nouvelles données des capteurs.The updating and alerting system 22 is provided for acquiring data from the sensors 30, providing metadata in relation to the monitored object, determining the level of reliability relating to the metadata, and detect any warning conditions. These alert conditions are identified by comparing the metadata with at least one Condition Definition Model (MODECA). The scene state data (DES) is compiled at its level, either by evaluation or by acquisition of new sensor data.

Le comparateur 23 permet de déterminer si le niveau de fiabilité correspondant aux Données d'Etat de Scène satisfait un Seuil Admissible de Fonctionnement Etabli (SAFE).The comparator 23 makes it possible to determine whether the level of reliability corresponding to the Scene State Data satisfies an Acceptable Operating Threshold Set (SAFE).

La figure 4 présente un organigramme fonctionnel avec les principales étapes du procédé selon l'invention. Tout d'abord, une phase d'initialisation permet de préciser, au démarrage du processus, les données disponibles sur l'état du système : valeur des grandeurs numériques ou non numériques, précision, fiabilité, etc. Une étape de prédiction permet de préétablir ou évaluer l'état du système à un instant ou une date t, connaissant l'état du système à une date passée t-delta t. Les capteurs du dispositif ainsi que toute autre donnée peuvent être exploités pour réaliser cette évaluation.The figure 4 presents a functional flowchart with the main steps of the method according to the invention. Firstly, an initialization phase makes it possible to specify, at the start of the process, the available data on the state of the system: value of digital or non-digital quantities, accuracy, reliability, etc. A prediction step makes it possible to pre-establish or evaluate the state of the system at a time or a date t, knowing the state of the system at a date passed t-delta t. The sensors of the device as well as any other data can be exploited to carry out this evaluation.

Une étape de comparaison aux exigences permet de comparer l'état du système préalablement établi avec les exigences de l'application à savoir l'état du système demandé par l'utilisateur. Lors de cette étape, plusieurs cas peuvent se présenter. Ainsi :

  • Si l'état du système calculé est plus fiable (i.e. la variable fiabilité de chaque grandeur ou ensemble de grandeurs de l'état du système calculé a une valeur supérieure à la variable fiabilité de l'état du système demandé par l'utilisateur pour ces mêmes grandeurs) ou plus précis (i.e. la variable précision de chaque grandeur de l'état du système calculé a une valeur inférieure à la variable précision de l'état du système demandé par l'utilisateur pour ces mêmes grandeurs) que l'état du système demandé par l'utilisateur, alors ce résultat (i.e. l'état du système calculé) est fourni à l'utilisateur, et une nouvelle étape d'évaluation est lancée pour calculer l'état du système à l'itération suivante ;
  • Si l'état du système calculé n'est pas assez fiable ou précis par rapport aux exigences et qu'il existe des informations potentiellement disponibles pour améliorer les données de l'état, en outre, des données provenant des capteurs, alors le processus passe à l'étape de mise à jour ;
  • Si l'état du système calculé n'est pas assez fiable ou précis par rapport aux exigences et qu'il n'existe pas de données nouvelles pour améliorer la connaissance de l'état, alors le processus fournit ce résultat (i.e. l'état du système calculé) à l'utilisateur et reboucle à l'étape d'évaluation pour calculer l'état du système à l'itération suivante.
A comparison step to the requirements makes it possible to compare the state of the system previously established with the requirements of the application, namely the state of the system requested by the user. During this step, several cases may occur. So :
  • If the state of the calculated system is more reliable (ie the reliability variable of each magnitude or set of magnitudes of the calculated system state has a value greater than the reliability variable of the system state requested by the user for these same quantities) or more precise (ie the variable precision of each magnitude of the state of the calculated system has a value lower than the variable precision of the state of the system requested by the user for these same quantities) that the state of the system requested by the user, then this result (ie the state of the calculated system) is provided to the user, and a new evaluation step is started to calculate the state of the system at the next iteration;
  • If the state of the calculated system is not reliable enough or accurate against the requirements and there is potentially available information to improve the state data, in addition, data from the sensors, then the process passes at the update stage;
  • If the state of the calculated system is not reliable enough or accurate with respect to the requirements and there is no new data to improve the state knowledge, then the process provides this result (ie the state of the calculated system) to the user and loops back to the evaluation step to calculate the state of the system at the next iteration.

La figure 5 présente l'étape de mise à jour. Cette étape consiste à utiliser des données disponibles pour mettre à jour l'état du système (par exemple une modification de la valeur des grandeurs numériques, une modification de la précision ou une modification de la fiabilité). Contrairement aux procédés classiques avec lesquels on ne fait que récupérer toutes les informations permettant d'améliorer la connaissance de l'état du système et de mettre à jour cet état en une seule fois, une approche itérative est prévue. Cette approche consiste, non pas à extraire toutes les données en une fois, mais à récupérer et à extraire itérativement une donnée sélectionnée. La donnée est sélectionnée suivant la contribution qu'elle apporte à l'amélioration de la connaissance de l'état du système par rapport aux exigences définies par l'utilisateur. Ce dernier point est schématisé sur la figure 6.The figure 5 presents the update step. This step consists in using available data to update the state of the system (for example a modification of the value of the digital quantities, a modification of the precision or a modification of the reliability). Unlike conventional methods with which all the information to improve the knowledge of the state of the system is recovered and to update this state at once, an iterative approach is provided. This approach consists not in extracting all the data at one time, but in retrieving and extracting a selected data item iteratively. The data is selected according to the contribution it makes to the improvement of the knowledge of the state of the system compared to the requirements defined by the user. This last point is schematized on the figure 6 .

De nouveau à la figure 5, on observe une étape d'énumération des informations, consistant à lister les données ou métadonnées potentiellement extractibles des données fournies par les capteurs et qui peuvent améliorer l'état du système : soit accroître la précision, soit augmenter la fiabilité, soit les deux. Pour chacune des informations potentiellement extractibles listées dans l'étape précédente, un comparateur permet de calculer l'état théorique, à savoir ce que pourrait être l'état du système mis à jour par cette donnée ou métadonnée. Puis le comparateur détermine, pour chacune des données ou métadonnée :

  • le gain qui évalue l'apport de l'information dans le calcul de la connaissance de l'état du système. Très souvent, il s'agit d'une différence entre l'estimation de l'état théorique du système et l'état du système précédent ;
  • le coût qui peut être suivant l'application une estimation du temps nécessaire pour extraire l'information et/ou une estimation de la consommation énergétique nécessaire pour extraire l'information, etc ;
  • la contribution qui pondère l'apport de l'information dans le calcul de la connaissance de l'état du système par rapport au coût d'obtention de l'information. Il s'agit d'une équation mathématique spécifique pour chaque application considérée et qui est fonction du gain et du coût.
Back to the figure 5 there is a step of enumerating the information, which consists in listing the potentially extractable data or metadata of the data provided by the sensors and which can improve the state of the system: either to increase the accuracy, or to increase the reliability, or both. For each potentially extractable information listed in the previous step, a comparator allows to calculate the theoretical state, namely what could be the state of the system updated by this data or metadata. Then the comparator determines, for each of the data or metadata:
  • the gain that evaluates the contribution of the information in the calculation of the knowledge of the state of the system. Very often, it is a difference between the estimate of the theoretical state of the system and the state of the previous system;
  • the cost that can be according to the application an estimate of the time necessary to extract the information and / or an estimate of the energy consumption necessary to extract the information, etc;
  • the contribution that weights the contribution of the information in the calculation of the knowledge of the state of the system compared to the cost of obtaining the information. It is a mathematical equation specific for each application considered and which is a function of the gain and the cost.

Parmi l'ensemble des données ou métadonnées listées potentiellement extractibles, le comparateur sélectionne la donnée ou métadonnée qui a la plus grande contribution. Pour la récupérer, on reçoit le signal de données en provenance du capteur concerné et dans le cas d'une métadonnée, on analyse le signal, au moyen d'un procédé de traitement du signal. Cette dernière étape peut fournir deux résultats en sortie : soit la donnée ou métadonnée qui était recherchée a pu être extraite, soit elle n'a pas pu l'être. Dans le cas où la donnée ou métadonnée recherchée a pu être extraite, l'étape suivante consiste à modifier la valeur des grandeurs de l'état du système, à mettre à jour la précision associée à ces valeurs et à mettre à jour la fiabilité pour les grandeurs qui ont été modifiées. Puisque le dispositif est parvenu à obtenir l'information compatible avec ce qui était recherché, alors la fiabilité augmente. Cependant, avant de réaliser ces actions, une sauvegarde est réalisée pour mémoriser les grandeurs de l'état qui vont être modifiées ainsi que leur précision, la fiabilité associée à l'ensemble de ces grandeurs et les données temporelles telles que date et heure courante.Among the set of data or metadata listed potentially extractable, the comparator selects the data or metadata that has the greatest contribution. To recover it, the data signal from the sensor concerned is received and in the case of a metadata, the signal is analyzed by means of a signal processing method. This last step can provide two output results: either the data or metadata that was searched could be extracted, or it could not be extracted. In the case where the desired data or metadata could be extracted, the next step is to modify the value of the quantities of the state of the system, to update the precision associated with these values and to update the reliability for the quantities that have been modified. Since the device has managed to obtain the information compatible with what was wanted, then the reliability increases. However, before carrying out these actions, a backup is made to memorize the quantities of the state that will be modified as well as their accuracy, the reliability associated with all of these quantities and the temporal data such as date and current time.

Dans le cas où la donnée ou métadonnée recherchée n'a pu être extraite, l'étape suivante consiste à diminuer la fiabilité des grandeurs de l'état qui auraient du être modifiées, en fonction de la qualité de la donnée du capteur, des performances du procédé de traitement du signal, etc. Dans le cas où la donnée ou métadonnée recherchée n'a pu être extraite et si la fiabilité mise à jour est en dessous d'un seuil, alors le processus prévoit de récupérer dans la mémoire et de supprimer de la mémoire les grandeurs qui auraient du être modifiées avec l'information recherchée, leur précision et la fiabilité de cet ensemble. Si la date des grandeurs récupérées diffère de la date courante alors l'étape d'évaluation est utilisée pour calculer ces grandeurs à la date courante.In the case where the data or metadata sought could not be extracted, the next step consists in reducing the reliability of the magnitudes of the state that should have been modified, depending on the quality of the data of the sensor, the performances of signal processing method, etc. In the case where the data or metadata sought could not be extracted and if the updated reliability is below a threshold, then the process provides for recovering from the memory and deleting from the memory the quantities that would have been recovered. be modified with the information sought, their accuracy and reliability of this set. If the date of the recovered values differs from the current date, then the evaluation step is used to calculate these quantities at the current date.

Notion de triptyqueTriptych concept

Dans le cas de la vidéosurveillance, le système peut utiliser une caméra pour détecter les intrus dans la pièce. Le triptyque (caméra, algorithme de traitement, information recherchée, i.e. la métadonnée) a une certaine performance en termes de:

  • probabilité que le triptyque réussisse à extraire (i.e. détecter) l'information (i.e. la métadonnée);
  • dans le cas où le triptyque a réussit à extraire une information compatible avec l'information recherchée ;
  • probabilité que l'information renvoyée correspond à l'information recherchée ;
  • précision de l'information renvoyée.
In the case of CCTV, the system can use a camera to detect intruders in the room. The triptych (camera, processing algorithm, information sought, ie metadata) has a certain performance in terms of:
  • probability that the triptych succeeds in extracting (ie detecting) information (ie metadata);
  • in the case where the triptych has managed to extract information compatible with the information sought;
  • probability that the information returned corresponds to the information sought;
  • accuracy of the information returned.

Cette performance est évaluée en ligne par le système. S'il fait jour ou s'il fait nuit dans la pièce, ce dernier triptyque n'aura pas les mêmes performances. Ainsi on peut équiper la pièce d'un capteur de luminosité qui peut en quelque sorte « partager sa mesure » avec le triptyque pour informer la caméra qu'elle fonctionne d'autant mieux que la scène est suffisamment éclairée.This performance is evaluated online by the system. If it is day or night in the room, this last triptych will not have the same performance. Thus we can equip the room with a light sensor that can somehow "share its measurement" with the triptych to inform the camera that it works even better than the scene is adequately lit.

En réalité, le capteur de luminosité ne va pas agir sur le triptyque (caméra, algorithme, information) ou sur un autre triptyque : il va améliorer la connaissance de l'état du système en renseignant une grandeur numérique supplémentaire (i.e. une donnée d'état de scène). Lorsque le système voudra améliorer la connaissance de l'état, il va lister l'ensemble des informations (i.e. métadonnées) extractibles et construire l'ensemble des triptyques possibles. Construire ne va pas dire utiliser mais plutôt énumérer et évaluer, c'est-à-dire caractériser les performances de chaque triptyque. Or la caractérisation des performances tient compte de l'état du système donc de la quantité de lumière (i.e. grandeur numérique de l'état du système qui est renseignée par le capteur de luminosité). Par exemple, si la lumière est forte, le triptyque aura des probabilités élevées alors que lorsque l'éclairage est faible, le triptyque aura des difficultés pour extraire l'information et l'information renvoyée aura plus de risque de ne pas correspondre à l'information recherchée. Puis pour chaque triptyque, on calcule le gain, le coût, la contribution: le triptyque qui a la contribution la plus importante est sélectionné.In reality, the brightness sensor will not act on the triptych (camera, algorithm, information) or on another triptych: it will improve the knowledge of the state of the system by informing an additional numerical quantity (ie a data of stage state). When the system wants to improve the knowledge of the state, it will list all the information (ie metadata) extractable and build the set of possible triptychs. Building does not mean using but rather enumerating and evaluating, that is, characterizing the performance of each triptych. Now the characterization of the performances takes into account the state of the system and therefore the quantity of light (ie numerical quantity of the state of the system which is indicated by the brightness sensor). For example, if the light is strong, the triptych will have high probabilities whereas when the lighting is weak, the triptych will have difficulties to extract the information and the returned information will have more risk of not corresponding to the information sought. Then for each triptych, one calculates the gain, the cost, the contribution: the triptych which has the most important contribution is selected.

Ainsi, un triptyque définit une manière d'extraire une information utile. Pour l'extraire, le système a besoin de données, d'un algorithme de traitement/recherche de cette donné et de la signature de l'information recherchée (i.e. les caractéristiques de l'information). Un triptyque est une réunion de ces éléments : capteur, algorithme ou processus de traitement, information recherchée (i.e. métadonnée).Thus, a triptych defines a way of extracting useful information. In order to extract it, the system needs data, an algorithm for processing / searching for this data and for signing the information sought (i.e. the characteristics of the information). A triptych is a union of these elements: sensor, algorithm or process of processing, information sought (i.e. metadata).

Exemple (figure 7) : on souhaite développer un système de reconnaissance d'individu. A des fins d'exemple, supposons que le personnage à reconnaitre porte une moustache. Le système de surveillance doit conforter les hypothèses de travail (i.e. améliorer la fiabilité de l'état du système) en vérifiant que l'individu sous surveillance possède une moustache (i.e. l'information recherchée). Ainsi le triptyque est : caméra n°3, algorithme de reconnaissance de moustache, une moustache rectangulaire de hauteur 1 cm, de largeur 3 cm, de couleur noire, qui doit se trouver dans une certaine zone de l'image (appelée zone d'intérêt), etc.Example ( figure 7 ): we want to develop an individual recognition system. For example, suppose the character to be recognized has a mustache. The surveillance system must reinforce working hypotheses (ie improve the reliability of the state of the system) by verifying that the individual under surveillance has a mustache (ie the information sought). Thus the triptych is: camera n ° 3, mustache recognition algorithm, a rectangular mustache of height 1 cm, width 3 cm, of black color, which must be in a certain zone of the image (called zone of interest), etc.

Supposons que l'état du système ne réponde pas aux exigences de l'application et qu'un ensemble de grandeurs numériques de l'état du système doivent être améliorées (i.e. pas assez fiable et/ou pas assez précise).Suppose that the state of the system does not meet the requirements of the application and that a set of digital magnitudes of the system state need to be improved (i.e. not reliable enough and / or not accurate enough).

Le système va définir et sélectionner un triptyque pour améliorer ces grandeurs. C'est-à-dire qu'il sélectionne le capteur et l'algorithme de traitement qu'il utilisera et précisera quelle information il recherchera dans une zone d'intérêt à plusieurs dimensions. Une zone d'intérêt est un sous espace de la donnée du capteur qui permet de restreindre la recherche (ex : on recherche une droite dans une image qui doit appartenir à une zone rectangulaire de l'image, la droite a une inclinaison entre x° et y°, elle a une épaisseur comprise entre a et b cm, etc).The system will define and select a triptych to improve these magnitudes. That is, it selects the sensor and the processing algorithm that it will use and specifies what information it will look for in a multi-dimensional area of interest. An area of interest is a subspace of the data of the sensor which makes it possible to restrict the search (ex: one looks for a straight line in an image which must belong to a rectangular zone of the image, the line has an inclination between x ° and y °, it has a thickness between a and b cm, etc.).

Ce triptyque a été sélectionné car ce dernier avait un gain, un coût, une contribution qui était plus intéressant que les autres triptyques (figure 8).This triptych was selected because it had a gain, a cost, a contribution that was more interesting than the other triptychs ( figure 8 ).

Ensuite, le système va utiliser le triptyque en appliquant l'algorithme de traitement du triptyque sur la zone d'intérêt définie par rapport à la donnée du capteur pour reconnaître l'information recherchée.Then, the system will use the triptych by applying the triptych processing algorithm to the area of interest defined with respect to the sensor data to recognize the information sought.

Deux solutions sont possibles :

  • l'algorithme ne réussit pas à trouver l'information recherchée alors que le système avait comme hypothèse que l'information était présente dans la zone d'intérêt. En conséquence, la fiabilité associée à l'ensemble des grandeurs numériques à améliorer diminue mais cela ne modifie pas leur valeur ni leur précision. (voir figure 9).
  • l'algorithme réussit à trouver une information compatible avec l'information recherchée. Dans le cas de cet exemple, l'information serait : rectangle de couleur noire, de hauteur 1cm et de largeur 3cm à la position x, y dans la donnée image de la caméra. En conséquence, la fiabilité associée à l'ensemble des grandeurs numériques à améliorer augmente mais cela ne modifie pas leur valeur ni leur précision. (voir figure 10).
Two solutions are possible:
  • the algorithm failed to find the information sought when the system assumed that the information was present in the area of interest. As a result, the reliability associated with the set of digital magnitudes to be improved decreases, but this does not modify their value or their accuracy. (see figure 9 ).
  • the algorithm succeeds in finding information compatible with the information sought. In the case of this example, the information would be: rectangle of black color, height 1cm and width 3cm at the position x, y in the image data of the camera. As a result, the reliability associated with the set of digital magnitudes to be improved increases, but this does not change their value or their accuracy. (see figure 10 ).

Grâce à l'information renvoyée par l'algorithme (ou le triptyque), il est possible de mettre à jour les grandeurs numériques valeur, précision de l'état du système ainsi que la fiabilité (car l'algorithme a trouvé l'information mais il y a une certaine incertitude : est ce que le rectangle de couleur noire détecté correspond réellement à une moustache ?). Ces nouvelles valeurs (valeur, précision, fiabilité) sont fonction de l'état du système suite au résultat du triptyque « j'ai trouvé l'information » et des performances du triptyque. (voir figure 11).Thanks to the information returned by the algorithm (or the triptych), it is possible to update the numerical values value, precision of the state of the system as well as the reliability (because the algorithm found the information but there is some uncertainty: is the detected black rectangle actually a mustache?). These new values (value, precision, reliability) are a function of the state of the system following the result of the triptych "I found the information" and performance of the triptych. (see figure 11 ).

Quand la fiabilité augmente ou diminue, c'est en fonction des performances du triptyque. Ces aspects sont gérés par le système de manière probabiliste.When reliability increases or decreases, it depends on the performance of the triptych. These aspects are managed by the system in a probabilistic way.

Nous définissons pour cela :

  • ■ γ la variable aléatoire binaire associée à l'événement « l'algorithme de traitement a détecté une information dans la donnée du capteur compatible avec l'information recherchée ».
    (c'est le résultat «information trouvée »).
  • ■ H la variable aléatoire binaire associée à l'événement « les grandeurs numériques de l'état du système qui vont être modifiées suite à la tentative d'extraction de l'information sont fiables (i.e. justes) ».
    (la probabilité de H (i.e. P(H)) représente la fiabilité du cercle hachuré des figures 8 à 10).
  • ■ Hnouveau la variable aléatoire binaire associée à l'événement « les grandeurs numériques de l'état du système calculées à partir de l'information extraite sont fiables (i.e. justes) ».
    (la probabilité de Hnouveau (i.e. P(Hnouveau)) représente la fiabilité du cercle quadrillé de la figure 11)).
  • ■ G variable aléatoire binaire associée à l'événement « l'information retourné par l'algorithme de traitement est une information du même type que l'information recherché ». Dans le cas de cet exemple, le système souhaite détecter la moustache de l'individu positionnée devant la caméra. Cependant, si le champ de vision de la caméra est important, il est possible que d'autres individus moustachus soient filmés par cette même caméra. Si l'information renvoyée par l'algorithme est une moustache, il s'agit effectivement d'une information du même type que l'information recherchée. En revanche, si l'information renvoyée est un sourcil, il ne s'agit pas d'une information du même type à savoir d'une moustache. En effet, un sourcil et une moustache peuvent avoir des caractéristiques très proches : assimilable à un rectangle de couleur noire, cependant il s'agit de deux types d'informations.
We define for this:
  • ■ γ the binary random variable associated with the event "the processing algorithm has detected information in the sensor data compatible with the information sought".
    (This is the result "information found").
  • ■ H the binary random variable associated with the event "the numerical quantities of the system state that will be modified following the attempt to extract the information are reliable (ie, accurate)".
    (the probability of H (ie P (H)) represents the reliability of the hatched circle of Figures 8 to 10 ).
  • ■ Hnouveau the binary random variable associated with the event "the numerical quantities of the state of the system computed from the information extracted are reliable (ie just)".
    (The probability of Hnouveau (ie P (Hnouveau)) represents the reliability of the squared circle of the figure 11 )).
  • ■ G binary random variable associated with the event "the information returned by the processing algorithm is information of the same type as the information sought". In the case of this example, the system wishes to detect the mustache of the individual positioned in front of the camera. However, if the field of view of the camera is important, it is possible that other moustached individuals are filmed by the same camera. If the information returned by the algorithm is a mustache, it is indeed information of the same type as the information sought. On the other hand, if the information returned is an eyebrow, it is not a question of information of the same type namely of a mustache. Indeed, an eyebrow and a mustache may have very similar characteristics: similar to a black rectangle, however there are two types of information.

Ainsi caractériser un triptyque (avant même de tenter la détection), revient à calculer au minimum les grandeurs suivantes :

  • ■ la probabilité que l'algorithme du triptyque détecte dans la zone d'intérêt de la donnée du capteur, une information compatible avec l'information recherchée en considérant que la connaissance de l'état du système utilisée est juste (i.e. fiable) : P(Y|H).
  • ■ la probabilité que l'information retournée par l'algorithme soit une information du même type que l'information recherchée : P(G|Y,H).
  • ■ la probabilité que le résultat retourné par l'algorithme soit l'information recherchée en supposant que l'information retourné est une information du même type que l'information recherchée P(Hnouveau|G).
  • ■ la précision de l'information renvoyée.
Thus, to characterize a triptych (even before attempting detection) is to calculate at least the following quantities:
  • The probability that the triptych algorithm detects information in the area of interest of the sensor data that is compatible with the information sought by considering that the knowledge of the state of the system used is accurate (ie reliable): P (Y | H).
  • The probability that the information returned by the algorithm is information of the same type as the information sought: P (G | Y, H).
  • The probability that the result returned by the algorithm is the information sought, assuming that the information returned is information of the same type as the information sought P (Hnew | G).
  • ■ the accuracy of the information returned.

Le gain, le coût sont définis par rapport à ces grandeurs mais d'autres peuvent être prises en compte.The gain, the cost are defined in relation to these quantities but others can be taken into account.

La détection d'une information est réalisée en appliquant l'algorithme dans la zone d'intérêt. Si l'on considère que l'événement H est vrai, alors la zone d'intérêt contient nécessairement l'information recherchée. Mais elle peut contenir également d'autres informations ou toutes autres éléments que l'on assimilera à du bruit. Pour pouvoir lister les éléments présents dans cette zone, nous la divisons en échantillons à analyser. Le but de l'algorithme est de retrouver l'échantillon correspondant à l'information recherchée.Detection of information is performed by applying the algorithm in the area of interest. If we consider that the event H is true, then the area of interest necessarily contains the information sought. But it can also contain other information or any other elements that we assimilate to noise. To be able to list the elements present in this zone, we divide it into samples to be analyzed. The purpose of the algorithm is to find the sample corresponding to the information sought.

Soit nbln, le nombre total d'échantillons dans la zone d'intérêt. Parmi tous ces échantillons, il y a l'information recherchée (i.e. la moustache de l'individu présent devant la caméra) représentée par la variable nbAr (i.e. nbAr = 1). Il peut y avoir également d'autres informations du même type que l'information recherchée (des moustaches appartenant à d'autres individus ont put être également filmés) représentées par la variable nbAc. Ces derniers ont une signature très proche de l'information à détecter. Aussi, la probabilité que l'algorithme retourne l'information recherchée ou une information du même type est quasiment identique. Enfin, tous les échantillons restants sont assimilés à un bruit uniforme représenté par la variable nbBr (les sourcils, un col de chemise noir, une bordure noire de lunette épaisse constituent tout un ensemble d'échantillons qui peuvent avoir été filmé par la caméra et qui peuvent perturber l'algorithme de traitement qui pourrait les confondre avec des moustaches). Donc, nous avons nbBr = nbln - nbAr - nbAc.Let nbln be the total number of samples in the area of interest. Among all these samples, there is the information sought (ie the mustache of the individual present in front of the camera) represented by the variable nbAr (ie nbAr = 1). There may also be other information of the same type as the information sought (whiskers belonging to other individuals could also be filmed) represented by the variable nbAc. These have a signature very close to the information to be detected. Also, the probability that the algorithm returns the information sought or information of the same type is almost identical. Finally, all the remaining samples are treated as a uniform noise represented by the nbBr variable (the eyebrows, a black shirt collar, a black thick bezel border are a whole set of samples that may have been filmed by the camera and that can disrupt the processing algorithm that might confuse them with whiskers). So we have nbBr = nbln - nbAr - nbAc.

Pour reconnaître l'information recherchée, l'algorithme recherche la signature de ce dernier dans sa zone d'intérêt. Pour cela, il compare l'empreinte de chaque échantillon avec la signature qu'il a construite. L'échantillon renvoyé est celui qui possède le plus haut degré de ressemblance tout en ayant un niveau supérieur à un seuil.To recognize the information sought, the algorithm searches for the signature of the latter in its area of interest. For this, he compares the footprint of each sample with the signature he has built. The returned sample is the one with the highest degree of resemblance while having a level above a threshold.

L'empreinte de chaque échantillon est extraite d'une mesure capteur, donc est susceptible d'être bruitée. Dans le cas de la signature, elle est construite à partir d'une modélisation de l'information, donc incomplète et simplifiée. En conséquence, la détection d'une information peut poser quelques difficultés. Nous proposons ici de caractériser statistiquement les performances de l'algorithme.The fingerprint of each sample is extracted from a sensor measurement, so is likely to be noisy. In the case of the signature, it is constructed from an information modeling, thus incomplete and simplified. As a result, the detection of information can pose some difficulties. We propose here to characterize statistically the performances of the algorithm.

Deux probabilités sont posées :

  • la première Pamer mesure l'aptitude de l'algorithme à reconnaître l'information recherchée. Il s'agit donc de la probabilité qu'il identifie un échantillon comme étant l'information recherchée lorsque l'échantillon testé est effectivement l'information recherché. Dans le cas de notre exemple, il s'agit de savoir quelle est la probabilité que l'algorithme de détection de moustache reconnaisse une moustache lorsqu'on en lui présente une.
  • la seconde Pbruit est la probabilité que l'algorithme identifie un échantillon comme étant l'information alors que ce dernier n'en est pas un. Dans le cas de cet exemple, il s'agit de savoir quelle est la probabilité que l'algorithme de détection de moustache reconnaisse un sourcil, une bordure de lunette, un col de chemise, etc, comme une moustache.
Two probabilities are posed:
  • the first Pamer measures the ability of the algorithm to recognize the information sought. It is therefore the probability that it identifies a sample as being the information sought when the sample tested is indeed the information sought. In the case of our example, the question is what is the probability that the mustache detection algorithm recognizes a mustache when presented with one?
  • the second Pbruit is the probability that the algorithm identifies a sample as the information while the latter is not one. In the case of this example, it is a question of what is the probability that the mustache detection algorithm recognizes an eyebrow, a rim of a telescope, a shirt collar, etc., like a mustache.

Pour calculer ces deux dernières probabilités, il est utile de procéder comme suit :To calculate these last two probabilities, it is useful to proceed as follows:

Prendre une base de données d'échantillons correspondant à l'information recherché (ex : si l'objectif est de mesurer les performances d'un algorithme de détection de visage, on prend un ensemble de photos de visages de différentes personnes et chaque photo correspond à un échantillon). Pour chaque échantillon, on applique l'algorithme et on récupère le degré de ressemblance avec le modèle. On obtient ainsi l'histogramme de la figure 12.Take a database of samples corresponding to the information sought (eg if the objective is to measure the performance of a face detection algorithm, we take a set of pictures of faces of different people and each photo corresponds to a sample). For each sample, the algorithm is applied and the degree of resemblance to the model is recovered. This gives the histogram of the figure 12 .

Dans un monde idéal, tous les échantillons devraient avoir un degré de ressemblance de 1.In an ideal world, all samples should have a degree of resemblance of 1.

On fait de même avec une base de données d'échantillons n'ayant rien à voir avec l'information que l'on recherche et l'on obtient le résultat de la figure 13.We do the same with a database of samples that have nothing to do with the information we are looking for and we get the result of the figure 13 .

Grâce à ces deux courbes, on peut définir le seuil et l'on a :

  • Pamer = nombre d'échantillons au dessus du seuil sur la courbe 1 divisé par le nombre d'échantillons total de la base de donnée 1.
  • Pbruit = nombre d'échantillons au dessus du seuil sur la courbe 2 divisé par le nombre d'échantillons total de la base de donnée 2.
Thanks to these two curves, we can define the threshold and we have:
  • Pamer = number of samples above the threshold on curve 1 divided by the total number of samples in database 1.
  • Pbruit = number of samples above the threshold on curve 2 divided by the total number of samples in database 2.

Estimation des probabilités du triptyque : il est à présent possible de calculer les probabilités caractérisant un triptyque. La première P(Y|H), représente la probabilité que le détecteur retourne une information quand l'événement H est vrai. Dans le cas de cet exemple, cela correspond à la probabilité que l'algorithme détecte une moustache (i.e. événement Y) alors que la personne devant la caméra est moustachu (i.e. événement H). Pour la calculer, on détermine la probabilité qu'aucun n'échantillon ne réponde positivement au détecteur. Dans la zone d'intérêt, il y a nbBr échantillons de bruit. Chacun d'eux a une probabilité (1 - Pbruit) de ne pas être reconnu. Il y a également (nbAr + nbAc) échantillons qui correspondent soit à l'information recherchée, soit à une information du même type. On peut considérer que chacun de ces échantillons a la même probabilité (1 - Pamer) de ne pas être reconnu par le détecteur. En conséquence, la probabilité P(Y|H) vaut : P Y | H = 1 - P non Y | H = 1 - 1 - Pbruit nbBr × 1 - Pamer nbAr + nbAc

Figure imgb0001
Estimate of probabilities of the triptych: it is now possible to calculate the probabilities characterizing a triptych. The first P (Y | H) represents the probability that the detector will return information when the H event is true. In the case of this example, it corresponds to the probability that the algorithm detects a mustache (ie event Y) while the person in front of the camera is mustachioed (ie event H). To calculate it, we determine the probability that no sample will respond positively to the detector. In the area of interest, there are nbBr noise samples. Each of them has a probability (1 - Pbruit) of not being recognized. There are also (nbAr + nbAc) samples that correspond to either the information sought or to information of the same type. We can consider that each of these samples has the same probability (1 - Pamper) of not being recognized by the detector. As a result, the probability P (Y | H) is: P Y | H = 1 - P no Y | H = 1 - 1 - Pnoise NBQB × 1 - Pamer NBAR + NBAC
Figure imgb0001

La seconde P(G|Y,H), est la probabilité que le résultat retourné par le détecteur soit une information du même type que l'information recherchée. Dans le cas de cet exemple, cela correspond à la probabilité que l'information détectée (i.e. événement Y : le rectangle de couleur noire) corresponde à une moustache (i.e. événement G). Or, la zone d'intérêt contient (nbAr + nbAc) échantillons qui correspondent à une information du même type que l'information recherchée. En tenant compte de Pamer, il y a ((nbAr+nbAc) Pamer) de ces échantillons qui ont répondu positivement à l'algorithme. Et parmi tous les échantillons de la zone, il y en a ((nbAr +nbAc) Pamer +nbBr Pbruit) qui ont répondu positivement. Aussi, P(G|Y,H) est le ratio de ces deux quantités : P G | Y , H = nbAr + nbAc Pamer / nbAr + nbAc Pamer + nbBr Pbruit

Figure imgb0002
The second P (G | Y, H) is the probability that the result returned by the detector is information of the same type as the information sought. In the case of this for example, this corresponds to the probability that the detected information (ie event Y: the rectangle of black color) corresponds to a mustache (ie event G). However, the area of interest contains (nbAr + nbAc) samples that correspond to information of the same type as the information sought. Taking Pamer into account, there are ((nbAr + nbAc) Pamer) of these samples that responded positively to the algorithm. And among all the samples in the area, there are ((nbAr + nbAc) Pamer + nbBr Pbruit) that responded positively. Also, P (G | Y, H) is the ratio of these two quantities: P BOY WUT | Y , H = NBAR + NBAC Pamer / NBAR + NBAC Pamer + NBQB Pnoise
Figure imgb0002

La troisième P(Hnouveau|G), est la probabilité que le résultat retourné par le détecteur soit l'information recherchée en supposant que l'événement G est vrai. Dans le cas de cet exemple, cela correspond à la probabilité que la moustache détectée (i.e. événement G) corresponde à la moustache que le système souhaitait détecté, c'est-à-dire de l'individu présent exactement devant la caméra. Comme dans la formule précédente, il s'agit de calculer le ratio du nombre de cas favorables sur le nombre de cas possibles. Si l'événement G est vrai, il y a ((nbAr + nbac) Pamer) échantillons susceptibles d'avoir été renvoyés par le détecteur mais seulement (nbAr - Pamer), nous intéresse. Le ratio est donc : P Hnouveau | G = nbAr Pamer / nbAr + nbAc Pamer

Figure imgb0003
The third P (Hnouveau | G), is the probability that the result returned by the detector is the information sought assuming that the event G is true. In the case of this example, this corresponds to the probability that the mustache detected (ie event G) corresponds to the mustache that the system wished to detect, that is to say the individual present exactly in front of the camera. As in the previous formula, it is a question of calculating the ratio of the number of favorable cases on the number of possible cases. If the event G is true, there are ((nbAr + nbac) Pamer) samples that may have been returned by the detector but only (nbAr - Pamer), we are interested. The ratio is: P Hnouveau | BOY WUT = NBAR Pamer / NBAR + NBAC Pamer
Figure imgb0003

Pour calculer la dernière probabilité : P(Ylnon H), il suffit de s'inspirer de la méthode utilisée pour le calcul de P(Y|H) en considérant que nbAr= nbAc = 0 donc que nbBr = nbln. P Y | non H = 1 - P non Y | non H = 1 - 1 - Pbruit nbBr

Figure imgb0004
To calculate the last probability: P (Ylnon H), it is enough to be inspired by the method used for the computation of P (Y | H) considering that nbAr = nbAc = 0 so that nbBr = nbln. P Y | no H = 1 - P no Y | no H = 1 - 1 - Pnoise NBQB
Figure imgb0004

Pour simplifier la démonstration, il a été supposé que le bruit était réparti de manière uniforme dans la zone d'intérêt. Nous pourrions imaginer une répartition différente. Pour l'information recherchée, nous avons défini une zone d'intérêt. Nous aurions très bien pu prendre en compte une densité de probabilité sur la présence de l'information. Par exemple, dire que l'information recherchée a deux fois plus de chance de se trouver au centre de la zone que sur les côtés.To simplify the demonstration, it was assumed that the noise was evenly distributed in the area of interest. We could imagine a different distribution. For the information sought, we have defined an area of interest. We could very well have taken into account a probability density on the presence of information. For example, say that the information sought is twice as likely to be in the center of the area than on the sides.

Ainsi, de façon résumée, on caractérise chaque triptyque, puis on calcule le gain, le coût et la contribution, on sélectionne le triptyque plus intéressant (i.e. contribution max), si le triptyque ne réussit pas à extraire/trouver l'information, la fiabilité associée aux grandeurs numériques qui devaient être modifiées chute de la manière suivante (formule de Bayes) : P H | non Y = P non Y | H . P H / ( P non Y .

Figure imgb0005
Thus, in a summarized way, we characterize each triptych, then we calculate the gain, the cost and the contribution, we select the most interesting triptych (ie contribution max), if the triptych is not able to extract / find the information, the reliability associated with the digital quantities that had to be modified fall in the following way (Bayes formula): P H | no Y = P no Y | H . P H / ( P no Y .
Figure imgb0005

Si le triptyque réussit à extraire l'information, la fiabilité du cercle hachuré augmente : P H | Y = P Y | H . P H / ( P Y .

Figure imgb0006
If the triptych succeeds in extracting the information, the reliability of the hatched circle increases: P H | Y = P Y | H . P H / ( P Y .
Figure imgb0006

Puis on calcule l'état du système suite au résultat du triptyque (i.e. le cercle quadrillé de la figure 11) en utilisant une technique de fusion de données comme le filtre de Kalman et l'on calcule la fiabilité associée à ce cercle. P Hnouveau = P Hnouveau | G . P G | H , Y . P H | Y

Figure imgb0007
Then we calculate the state of the system following the result of the triptych (ie the grid circle of the figure 11 ) using a data fusion technique such as the Kalman filter and calculating the reliability associated with this circle. P Hnouveau = P Hnouveau | BOY WUT . P BOY WUT | H , Y . P H | Y
Figure imgb0007

On a vu précédemment comment caractériser les algorithmes. Cette caractérisation est définie pour un certain contexte d'utilisation (i.e. Pâmer et Pbruit ont été définis à partir d'un apprentissage dans certaine condition). A la figure 14, on voit que si on utilise cette caractérisation dans d'autres conditions (ex : l'utilisation de la caméra la nuit) le système va moins bien fonctionner. Si dans l'état du système, une grandeur numérique précise la luminosité de la pièce. Il est possible d'utiliser cette valeur pour prévenir le système qu'il faut utiliser la caractérisation des algorithmes par rapport au contexte nuit par exemple. Dans ce cas, il faut prévoir un ensemble d'apprentissage des grandeurs Pâmer et Pbruit pour tous les contextes que l'on est susceptible de rencontrer et utiliser la connaissance du système pour basculer sur le bon contexte pendant le fonctionnement du procédé (i.e. contexte très lumineux, contexte peu lumineux, contexte sombre).On peut envisager également une caractérisation via une fonction mathématique par exemple : Pamer = f(quantité de lumière dans la pièce).We have seen previously how to characterize the algorithms. This characterization is defined for a certain context of use (ie Pâmer and Pbruit were defined from a learning in certain condition). To the figure 14 we see that if we use this characterization in other conditions (eg the use of the camera at night) the system will work less well. If in the state of the system, a numerical quantity specifies the brightness of the room. It is possible to use this value to prevent the system from using the characterization of the algorithms with respect to the night context for example. In this case, it is necessary to provide a set of learning of the quantities Pâmer and Pbruit for all the contexts that one is likely to meet and use the knowledge of the system to switch on the right context during the operation of the process (ie very context light, dark context, dark context). We can also consider a characterization via a mathematical function for example: Pamer = f (amount of light in the room).

Premier exemple de scèneFirst example of scene

Les figures 15 à 28 présentent un exemple de réalisation du procédé et du système de surveillance pour la surveillance d'une scène simple, correspondant à une pièce. L'objectif de cette application consiste à détecter et localiser tous les individus qui rentrent dans la pièce. Pour ce faire, plusieurs capteurs ont été disposés dans cette pièce :

  • une caméra dans le coin supérieur droit de la pièce,
  • un capteur de mouvement au dessus de la fenêtre,
  • un capteur de franchissement (i.e. une cellule photoélectrique) au niveau de la porte.
The Figures 15 to 28 show an embodiment of the method and the monitoring system for monitoring a simple scene, corresponding to a room. The purpose of this application is to detect and locate all individuals who enter the room. To do this, several sensors have been placed in this room:
  • a camera in the upper right corner of the room,
  • a motion sensor above the window,
  • a crossing sensor (ie a photocell) at the door.

La figure 15 schématise l'ensemble des ces informations. Ces différents capteurs, en association avec un système de surveillance présenté à la figure 3, permettent de mettre en oeuvre cet exemple. La sortie prévue permet de fournir périodiquement, ou lorsque nécessaire, l'état de la scène à l'utilisateur ou à une autre application.The figure 15 schematizes all of this information. These different sensors, in combination with a surveillance system presented to the figure 3 , allow to implement this example. The planned output is used to periodically, or where necessary, provide the status of the scene to the user or to another application.

Tous ces éléments et le procédé selon l'invention permettent d'une part d'obtenir les données et/ou métadonnées relatives à la présence ou à l'absence d'individus dans la pièce et d'autre part d'obtenir les données et/ou métadonnées au sujet des individus détectés afin d'améliorer le processus de localisation et de suivi de ces individus.All these elements and the method according to the invention make it possible on the one hand to obtain the data and / or metadata relating to the presence or absence of individuals in the room and on the other hand to obtain the data and or metadata about detected individuals to improve the tracking and tracking process of these individuals.

A des fins d'exemple, considérons que l'état du système soit constitué des grandeurs numériques suivantes :

  • pour chaque portion de la scène, d'une variable indiquant si la portion en question est libre ou occupée par un ou plusieurs intrus avec la fiabilité associée à cette variable. Pour cette modélisation, on utilise des outils de discrétisation afin de réaliser un découpage de la scène sous forme de cellules rectangulaires, tel qu'illustré à la figure 16. Par ailleurs, la variable indiquant si la cellule est libre et la fiabilité de cette variable peuvent être réunies au sein d'une même probabilité. Ainsi, à chaque cellule est associée la probabilité qu'un individu soit présent dans la cellule.
  • pour chaque intrus, les données concernant la position de l'intrus dans la pièce, la précision associée à cette localisation, la vitesse de déplacement de l'intrus, la précision associée à cette vitesse et la fiabilité, à savoir la probabilité que l'individu soit réellement présent dans la pièce.
For example, consider that the state of the system consists of the following numerical quantities:
  • for each portion of the scene, a variable indicating whether the portion in question is free or occupied by one or more intruders with the reliability associated with this variable. For this modeling, we use discretization tools to cut the scene in the form of rectangular cells, as illustrated in figure 16 . In addition, the variable indicating whether the cell is free and the reliability of this variable can be combined within the same probability. Thus, each cell is associated with the probability that an individual is present in the cell.
  • for each intruder, data on the position of the intruder in the room, the accuracy associated with that location, the speed of the intruder's movement, the accuracy associated with that speed and the reliability, ie the probability that the intruder individual is actually present in the room.

Le tableau suivant résume ces données : Grandeurs numériques de l'état valeurs possibles Précision Fiabilité Probabilité de présence d'un individu dans la zone Z1 [0, 1] X X Probabilité de présence d'un individu dans la zone Z2 [0, 1] X X ... ... X X Probabilité de présence d'un individu dans la zone ZM [0. 1] X X Position du premier individu détecté {X1.Y1} OUI OUI Vitesse de déplacement du premier individu détecté [0, 3 m/s] OUI ... ... Position du dernier individu détecté {XN, YN} OUI OUI Vitesse de déplacement du dernier individu détecté [0, 3 m/s] OUI The following table summarizes these data: Numeric quantities of the state possible values Precision Reliability Probability of presence of an individual in zone Z1 [0, 1] X X Probability of presence of an individual in zone Z2 [0, 1] X X ... ... X X Probability of presence of an individual in the ZM zone [0. 1] X X Position of the first detected individual {} X1.Y1 YES YES Movement speed of the first detected individual [0.3 m / s] YES ... ... Position of the last detected individual {XN, YN} YES YES Movement speed of the last detected individual [0.3 m / s] YES

Le système de surveillance peut utiliser deux types d'entrées : des capteurs et des données.The monitoring system can use two types of inputs: sensors and data.

Analysons de plus près les capteurs et plus particulièrement le triptyque formé par le capteur, le procédé de traitement de signal de ce capteur et les métadonnées extractibles, utilisées dans l'étape de mise à jour. Afin de conserver cet exemple simple, un unique procédé de traitement de signal par capteur est considéré, supprimant ainsi de fait une éventuelle étape consistant à sélectionner le procédé le plus pertinent.

  • Capteur : caméra
  • Donnée renvoyée : image couleur
  • Information recherchée : est ce qu'un individu est présent dans la cellule Zi (i appartenant à [1, M]) ?
  • Procédé de traitement : comparaison de l'image obtenue avec une image prise lorsque la pièce était vide (i.e. aucun individu).
  • Information renvoyée : présence d'un individu avec sa précision de localisation et la fiabilité de cette information sinon absence d'un individu et la fiabilité de cette information.
  • Capteur : capteur de mouvement
  • Donnée renvoyée : signal 2D de mesure du rayonnement infrarouge
  • Information recherchée : est ce qu'un individu est présent dans la cellule Zi (i appartenant à [1, M]) ?
  • Procédé de traitement : comparaison du signal infrarouge avec une mesure prise lorsque la pièce était vide (i.e. aucun individu).
  • Information renvoyée : présence d'un individu avec sa précision de localisation et la fiabilité de cette information sinon absence d'un individu et la fiabilité de cette information.
Let us analyze more closely the sensors and more particularly the triptych formed by the sensor, the signal processing method of this sensor and the extractable metadata used in the updating step. In order to preserve this simple example, a single sensor signal processing method is considered, thus effectively removing a possible step of selecting the most relevant method.
  • Sensor: camera
  • Data returned: color image
  • Information sought: is an individual present in cell Zi (i belonging to [1, M])?
  • Processing method: comparison of the image obtained with an image taken when the room was empty (ie no individual).
  • Information returned: presence of an individual with its location accuracy and the reliability of this information otherwise absence of an individual and the reliability of this information.
  • Sensor: motion sensor
  • Data returned: 2D signal for measuring infrared radiation
  • Information sought: is an individual present in cell Zi (i belonging to [1, M])?
  • Processing method: comparison of the infrared signal with a measurement taken when the room was empty (ie no individual).
  • Information returned: presence of an individual with its location accuracy and the reliability of this information otherwise absence of an individual and the reliability of this information.

En ce qui concerne le capteur de franchissement, son rôle est différent des autres capteurs préalablement présentés. En effet, il ne permet pas d'indiquer si un intrus est dans la pièce. Il ne permet pas non plus d'obtenir de données sur la position des intrus dans la pièce. En revanche, le fait qu'il soit sollicité ou pas fournit une information précieuse pour savoir si un intrus est entré ou sorti de la pièce. Accompagnée de sa fiabilité, il est donc utilisé dans l'étape d'évaluation. En entrée additionnelle, l'utilisation d'une carte de la pièce indiquant par où les intrus sont susceptibles de venir et partir peut s'avérer particulièrement utile pour cette application. Comme dans le cas du capteur de franchissement, ces données sont exploitées en particulier lors de l'étape d'évaluation.Regarding the crossing sensor, its role is different from other previously presented sensors. Indeed, it does not indicate if an intruder is in the room. Nor does it provide data on the position of intruders in the room. On the other hand, whether or not he is solicited provides valuable information as to whether an intruder has entered or left the room. Accompanied by its reliability, it is used in the evaluation stage. In additional input, the use of a map of the room indicating where intruders are likely to come and go can be particularly useful for this application. As in the case of the crossing sensor, these data are used in particular during the evaluation stage.

Certains réglages peuvent être laissés au choix de l'utilisateur, ou préétablis de façon fixe. Parmi les réglages éventuels, notons la fréquence de mise à jour de l'état du système. Dans le cas de cet exemple, une fréquence de 10Hz soit une période de 100 ms est sélectionnée.Some settings can be left to the user's choice, or preset in a fixed way. Possible settings include how often the system status is updated. In the case of this example, a frequency of 10Hz is a period of 100 ms is selected.

Les exigences de l'application peuvent aussi être fixes ou ajustables. La figure 3 prévoit une interface de réglage de paramètres. Ces exigences permettent de définir le niveau de connaissance minimal demandé par l'utilisateur. Cette connaissance est d'autant plus importante que la précision de l'état du système et sa fiabilité est grande. Les deux tableaux suivants illustrent un exemple de valeurs de consigne ou de seuil correspondant aux exigences de cette application. Grandeurs numériques de l'état Valeurs souhaitées Probabilité de présence d'un individu dans la zone Z1 [0, 0.1[ union ]0.9, 1] ... ... Probabilité de présence d'un individu dans la zone ZM [0, 0.1 [ union ]0.9, 1] Grandeurs numériques de l'état Précision souhaitée Fiabilité souhaitée Position du premier individu détecté [0, 0.3m[ ]0.9, 1] Vitesse de déplacement du premier individu détecté [0, 0.3 m/s[ ... ... Position du dernier individu détecté [0, 0.3m[ ]0.9, 1] Vitesse de déplacement du dernier individu détecté [0, 0.3 m/s[ The requirements of the application can also be fixed or adjustable. The figure 3 provides a parameter setting interface. These requirements define the minimum level of knowledge required by the user. This knowledge is all the more important as the accuracy of the state of the system and its reliability is great. The following two tables illustrate an example of setpoint or threshold values that correspond to the requirements of this application. Numeric quantities of the state Desired values Probability of presence of an individual in zone Z1 [0, 0.1 [union] 0.9, 1] ... ... Probability of presence of an individual in the ZM zone [0, 0.1 [union] 0.9, 1] Numeric quantities of the state Desired precision Desired reliability Position of the first detected individual [0, 0.3m [ ] 0.9, 1] Movement speed of the first detected individual [0, 0.3 m / s [ ... ... Position of the last detected individual [0, 0.3m [ ] 0.9, 1] Movement speed of the last detected individual [0, 0.3 m / s [

Illustration du procédé avec 4 itérations :Illustration of the process with 4 iterations: Phase d'initialisationInitialization phase

Supposons qu'initialement, il n'y ait aucun individu dans la pièce. En conséquence, la probabilité de chaque cellule de la zone est nulle.Suppose that initially, there is no individual in the room. As a result, the probability of each cell in the area is zero.

Boucle prédiction/mise à jour n°1Prediction loop / update n ° 1

Après l'étape de prédiction, nous obtenons le résultat illustré sur la figure 17. Bien que le capteur de franchissement n'ait pas détecté une interruption du faisceau laser, un individu a pu malgré tout pénétrer dans la pièce en passant par-dessus ou sous le capteur de franchissement. Cependant, ce cas de figure est relativement peu probable. Compte tenu de la vitesse de déplacement des personnes, si un individu est entré dans la pièce, il est nécessairement entré par l'unique entrée de la pièce à savoir la porte et n'a pu atteindre l'autre extrémité de la pièce pendant un intervalle de temps prévu, c'est-à-dire pendant 100ms.After the prediction step, we get the result shown on the figure 17 . Although the crossing sensor did not detect an interruption of the laser beam, an individual could still enter the room by passing over or under the crossing sensor. However, this case is relatively unlikely. Given the speed of movement of people, if an individual entered the room, he necessarily entered through the only entrance to the room ie the door and could not reach the other end of the room for a while. expected time interval, ie for 100ms.

L'étape d'évaluation a pu mettre en avant qu'il y a un risque, certes faible avec une probabilité de 0.16, qu'un individu soit entré dans la pièce. Afin de répondre aux exigences de l'application, le système de mise à jour et d'alerte (SYMAJA) sollicite un capteur. Après le calcul de la contribution pour chaque capteur, il est apparu pertinent d'utiliser la caméra pour rechercher dans la partie de l'image correspondant à la zone de l'environnement ayant une probabilité de 0.16 si un individu est présent. Le procédé de traitement d'image associé à la caméra permet d'indiquer qu'aucune personne n'a été détectée dans la partie de l'image analysée. En prenant en compte la fiabilité de cette nouvelle information, le système est mis à jour. Au final, la probabilité qu'un individu soit présent dans les cellules de la pièce localisées devant la porte d'entrée passe à 0.07 (voir figure 18). Le comparateur vérifie ensuite que l'état du système répond aux exigences de l'application, ce qui est le cas. Ainsi, plus aucune action n'est entreprise jusqu'à la prochaine mise à jour, qui survient après l'écoulement de l'intervalle de temps prévu.The evaluation stage was able to point out that there is a risk, though low with a probability of 0.16, that an individual entered the room. In order to meet the requirements of the application, the system update and alert (SYMAJA) solicits a sensor. After calculating the contribution for each sensor, it appeared relevant to use the camera to search in the part of the image corresponding to the environment zone having a probability of 0.16 if an individual is present. The image processing method associated with the camera makes it possible to indicate that no person has been detected in the part of the analyzed image. By taking into account the reliability of this new information, the system is updated. In the end, the probability of an individual being present in the cells of the room located in front of the front door increases to 0.07 (see figure 18 ). The comparator then verifies that the state of the system meets the requirements of the application, which is the case. Thus, no further action is taken until the next update, which occurs after the expiration of the expected time interval.

Boucle prédiction/mise à jour n°2Prediction loop / update n ° 2

A la prochaine étape d'évaluation, le résultat illustré sur la figure 19 est obtenu. Comme dans le cas précédent, le capteur de franchissement n'a détecté aucune entrée ou sortie d'individus de la pièce. En revanche, l'ombre de l'arbre situé à l'extérieur de la pièce se projette dans cette même pièce près de la porte d'entrée. L'état du système après la prédiction ne répond pas aux exigences de l'application. Après avoir calculé la contribution de chaque information potentiellement extractible, il est établi qu'il est plus avantageux d'utiliser la caméra pour rechercher dans la partie de l'image correspondant à la zone de l'environnement ayant une probabilité de 0.17 si un individu est présent. Si aucune vérification n'est faite, le système de surveillance pourrait indiquer qu'une personne a été détectée dans la partie de l'image analysée. En réalité, le système n'a pas détecté une personne mais l'ombre de l'arbre. Cependant, cette ombre est, à ce stade, confondue avec une personne. Aussi, l'état du système est mis à jour avec cette information accompagnée de sa fiabilité et sa proposition. D'une part, la probabilité des cellules de la pièce où aucun individu n'a été détecté passe à 0.071. D'autre part, deux nouvelles grandeurs numériques sont ajoutées dans l'état pour décrire l'individu détecté, à savoir la position et la vitesse de déplacement de l'individu. Toujours en tenant compte de l'information extraite de la caméra, une fiabilité est associée à ces nouvelles grandeurs et vaut dans le cas de cet exemple 0.34, tel qu'indiqué à la figure 20.At the next evaluation stage, the result illustrated on the figure 19 is obtained. As in the previous case, the crossing sensor did not detect any entry or exit of individuals from the room. In contrast, the shadow of the tree outside the room is projected into the same room near the front door. The state of the system after the prediction does not meet the requirements of the application. After calculating the contribution of each potentially extractable information, it is established that it is more advantageous to use the camera to search the part of the image corresponding to the area of the environment having a probability of 0.17 if an individual is present. If no verification is done, the monitoring system could indicate that a person has been detected in the portion of the scanned image. In reality, the system did not detect a person but the shadow of the tree. However, this shadow is, at this point, confused with a person. Also, the state of the system is updated with this information accompanied by its reliability and its proposal. On the one hand, the probability of cells in the room where no individual has been detected increases to 0.071. On the other hand, two new digital quantities are added in the state to describe the detected individual, namely the position and the speed of movement of the individual. Always taking into account the information extracted from the camera, a reliability is associated with these new quantities and is worth in the case of this example 0.34, as indicated in the figure 20 .

Le comparateur vérifie ensuite que l'état du système répond aux exigences de l'application, ce qui n'est pas le cas car la fiabilité relative à la détection de l'individu est trop faible.The comparator then verifies that the state of the system meets the requirements of the application, which is not the case because the reliability relative to the detection of the individual is too low.

Or, le système de mise à jour et d'alerte (SYMAJA) a la possibilité d'extraire une information du capteur de mouvement. Ce capteur indique qu'aucun individu n'est présent dans la partie du signal correspondant à la zone de la pièce où un individu est susceptible de s'y trouver. Accompagnée de sa fiabilité, cette donnée permet de mettre à jour l'état du système. Ainsi, la fiabilité associée à l'individu détecté passe à 0.013 (voir figure 21).However, the system update and alert (SYMAJA) has the ability to extract information from the motion sensor. This sensor indicates that no individual is present in the part of the signal corresponding to the area of the room where an individual is likely to be. Accurate with its reliability, this data makes it possible to update the state of the system. Thus, the reliability associated with the detected individual increases to 0.013 (see figure 21 ).

Comme précisé dans les exigences de l'application, cette fiabilité appartient à l'intervalle [0, 0.1[ union ]0.9, 1]. Cependant cette fiabilité est dans la partie inférieure de l'intervalle. Elle traduit donc une très forte certitude concernant l'absence d'individu dans cette zone. Les grandeurs numériques associées à l'individu détecté sont donc retirées de l'état du système et au final le résultat suivant (voir figure 22) est obtenu, ce qui répond aux exigences de l'utilisateur.As specified in the application requirements, this reliability belongs to the interval [0, 0.1 [union] 0.9, 1]. However, this reliability is in the lower part of the interval. It therefore reflects a very strong certainty concerning the absence of any individual in this zone. The numerical quantities associated with the detected individual are thus removed from the state of the system and finally the following result (see figure 22 ) is obtained, which meets the requirements of the user.

Boucle prédiction/mise à jour n°3Prediction loop / Update n ° 3

A l'itération suivante, le capteur de franchissement a détecté une interruption de son faisceau laser. Ceci signifie qu'il y a une très forte probabilité qu'un individu soit entré dans la pièce. Cependant sa position n'est pas connue (voir figure 23). Clairement, l'état du système ne répond pas aux exigences de l'application. Parmi les informations potentiellement extractibles pour améliorer la connaissance de l'état du système, le capteur de mouvement ou la caméra peuvent être utilisés. Après le calcul des contributions de ces informations potentiellement extractibles, il est établi que la caméra, associée à son procédé de traitement d'image, est le plus pertinent. Le résultat suite à la sollicitation du capteur est illustré sur la figure 24. Grâce aux informations fournies par le procédé de traitement d'image ayant permis d'analyser la partie de l'image concernée, il est constaté qu'un individu est présent en face de la porte. En tenant compte de la précision et de la fiabilité de ces données, de nouvelles grandeurs numériques sont ajoutées dans l'état pour décrire l'individu détecté. La fiabilité associée à l'individu détecté est de 0.76. De chaque côté de l'individu détecté, la caméra n'a détecté aucun individu d'où la probabilité de 0.17 de ces cellules. Enfin il est à noter que la caméra n'a pas pu effectuer de perception d'image derrière l'individu détecté ce qui explique que la probabilités de ces cellules n'a pas été modifiée.At the next iteration, the crossing sensor detected an interruption of its laser beam. This means that there is a very high probability that an individual has entered the room. However, his position is not known (see figure 23 ). Clearly, the state of the system does not meet the requirements of the application. Among the potentially extractable information for improving the knowledge of the state of the system, the motion sensor or the camera may be used. After calculating the contributions of this potentially extractable information, it is established that the camera, associated with its image processing method, is the most relevant. The result following the solicitation of the sensor is illustrated on the figure 24 . Thanks to the information provided by the image processing method that made it possible to analyze the portion of the image concerned, it is found that an individual is present in front of the door. By taking into account the accuracy and reliability of this data, new digital quantities are added in the state to describe the detected individual. The reliability associated with the detected individual is 0.76. On each side of the detected individual, the camera did not detect any individual, hence the probability of 0.17 of these cells. Finally it should be noted that the camera could not perform image perception behind the detected individual, which explains why the probabilities of these cells were not modified.

L'état du système ne répond toujours pas aux exigences de l'application. Le système de mise à jour a la possibilité d'extraire des informations du capteur de mouvement. Le résultat du système mis à jour par ce dernier capteur est représenté à la figure 25. Cet état ne répond toujours pas aux exigences de l'application, du fait de cellules ayant une probabilité supérieures à 0.1, de la précision relative à l'individu détecté, et de la fiabilité au sujet de l'individu détecté. Cependant, le système de mise à jour n'a plus la possibilité d'extraire des informations supplémentaires nouvelles des capteurs pour améliorer l'état.The system state still does not meet the requirements of the application. The update system has the ability to extract information from the motion sensor. The result of the system updated by this last sensor is represented at the figure 25 . This state still does not meet the requirements of the application, because of cells having a probability greater than 0.1, the accuracy relative to the detected individual, and the reliability about the detected individual. However, the update system no longer has the ability to retrieve new additional information from the sensors to improve the state.

Boucle prédiction/mise à jour n°4Prediction loop / update n ° 4

A cette itération, le capteur de franchissement n'a détecté aucune entrée ou sortie d'individus de la pièce. Aussi, l'étape d'évaluation va permettre de calculer l'état du système en considérant qu'un individu a pu pénétrer dans la pièce par la porte avec une probabilité faible et qu'un individu est susceptible de se trouver dans les cellules de la pièce qui ont une probabilité supérieure à 0.1. En effet, le système considère qu'il n'y a pas d'individu dans les cellules qui ont une probabilité inférieure à 0.1, qu'il y a un individu dans les cellules qui ont une probabilité supérieure à 0.9 et qu'il y a peut-être un individu pour les cellules restantes. Or, si un individu est susceptible de se trouver dans une cellule, cet individu a pu éventuellement se déplacer, ce que l'étape d'évaluation doit prendre en compte également.At this iteration, the crossing sensor has detected no entry or exit of individuals from the room. Also, the evaluation stage will make it possible to calculate the state of the system by considering that an individual could enter the room by the door with a low probability and that an individual is likely to be in the cells. of the piece that have a probability greater than 0.1. Indeed, the system considers that there is no individual in the cells that have a probability less than 0.1, that there is an individual in the cells that have a probability higher than 0.9 and that there is may have an individual for the remaining cells. However, if an individual is likely to be in a cell, this individual could possibly move, which the evaluation step must also take into account.

Concernant l'individu qui a été détecté à l'itération précédente, l'étape d'évaluation va permettre d'estimer la zone où cet individu est susceptible de se trouver en prenant en compte sa vitesse de déplacement. Il s'agit d'une zone qui intègre toutes les cellules où l'individu a pu aller. La figure 26 présente l'état du système suite à l'évaluation.Regarding the individual that has been detected at the previous iteration, the evaluation step will make it possible to estimate the area where this individual is likely to be taking into account his speed of movement. This is an area that integrates all the cells where the individual was able to go. The figure 26 presents the state of the system following the evaluation.

Pour améliorer l'état du système qui ne répond pas aux exigences de l'application, le système de mise à jour extrait des données additionnelles. Les données potentiellement extractibles qui semblent être les plus pertinentes pour améliorer l'état du système peuvent être obtenues du capteur de mouvement. Ces données permettent d'indiquer qu'il n'y a aucun individu devant la porte et que l'individu précédemment détecté s'est déplacé devant la fenêtre. Cette information extraite du capteur de mouvement a pu améliorer la précision de localisation de l'individu. En contrepartie, ceci a réduit la fiabilité (voir figure 27).To improve the state of the system that does not meet the requirements of the application, the update system extracts additional data. The potentially extractable data that seems to be the most relevant to improve the state of the system can be obtained from the motion sensor. These data make it possible to indicate that there is no individual in front of the door and that the previously detected individual has moved in front of the window. This information extracted from the motion sensor could improve the location accuracy of the individual. In return, this has reduced reliability (see figure 27 ).

L'état du système ne répondant toujours pas aux exigences de l'application, le système de mise à jour extrait alors une information de la caméra qui conduit au résultat suivant (voir figure 28). L'état du système répond ici aux exigences de l'application. Une alerte peut donc être envoyée à l'opérateur du système de surveillance, qui sera informé des faits établis avec une fiabilité supérieure au seuil demandé. On constate donc que l'utilisation de capteurs susceptibles de fournir des données complémentaires permet de pallier de façon efficace au manque de fiabilité associé aux premières données des premiers capteurs.Since the state of the system still does not meet the requirements of the application, the update system then extracts information from the camera which leads to the following result (see figure 28 ). The state of the system responds here to the requirements of the application. An alert can therefore be sent to the operator of the surveillance system, who will be informed of the facts established with a reliability higher than the threshold requested. It is therefore found that the use of sensors capable of providing complementary data makes it possible to effectively overcome the lack of reliability associated with the first data of the first sensors.

Exemple avec une pluralité de scènesExample with a plurality of scenes

La figure 29 présente les locaux d'un laboratoire qui travaille sur l'élaboration de vaccins contre des virus mortels. Pour réaliser ses travaux de recherche, le laboratoire stocke ces virus dans une chambre froide (i.e. la zone 5 sur le plan). Ce laboratoire est sur deux niveaux. On y accède par le niveau 0 qui donne sur la zone 1. En prenant l'ascenseur, on arrive au point d'accueil la zone 2. A partir de cette dernière zone, on peut accéder à différentes salles notamment la zone 3. Les personnes habilitées qui possèdent un badge peuvent passer dans la zone 4. Les zones 4 et 6 sont des zones extérieures fermées. Il est possible d'aller dans la zone 6 en franchissant illégalement la clôture. La chambre froide correspond finalement à la zone 5.The figure 29 presents the premises of a laboratory working on the development of vaccines against deadly viruses. To carry out his research, the laboratory stores these viruses in a cold room (ie zone 5 on the plane). This laboratory is on two levels. It is accessed by level 0 which overlooks the zone 1. By taking the elevator, one arrives at the reception point zone 2. From this last zone, one can reach various rooms notably zone 3. The Authorized persons who have a badge may pass in zone 4. Zones 4 and 6 are closed outer zones. It is possible to go to zone 6 by illegally crossing the fence. The cold room finally corresponds to zone 5.

Le laboratoire souhaite répondre à des normes de sécurité. Pour cela, il doit répondre aux problématiques suivantes :

  • Il est interdit d'apporter et de déposer des objets dans la chambre froide, ceci pour garantir qu'aucun explosif ne sera disposé dans la pièce.
  • Il est interdit de dérober des vaccins ou des virus.
  • Les zones 4, 5 et 6 ne sont autorisées qu'aux personnes habilitées.
The laboratory wants to meet safety standards. For this, it must answer the following problems:
  • It is forbidden to bring and deposit objects in the cold room, this to ensure that no explosive will be placed in the room.
  • It is forbidden to steal vaccines or viruses.
  • Zones 4, 5 and 6 are only allowed to authorized persons.

Pour répondre à ces normes de sécurité, le laboratoire s'est équipé de différents capteurs. N'importe quel individu peut accéder aux zones 1, 2 et 3 dès lors que le laboratoire est ouvert. La zone 1 est équipée d'une caméra, un capteur renseigne sur la position de l'ascenseur et un capteur de mouvement est disposé dans la zone 2. La porte permettant d'accéder à la zone 4 est équipée d'un lecteur de badge et d'un capteur de détection de bris de cette porte vitrée. La zone 4 est équipée d'une caméra et d'un capteur de luminosité. Une cellule photoélectrique est positionnée à l'entrée de la zone 5. Enfin, une caméra thermique est disposée dans la chambre froide ainsi que de nombreux capteurs de pression dans le sol de cette pièce pour mesurer le poids des objets et individus dans la pièce. La figure 30 montre schématiquement le système de surveillance correspondant.To meet these safety standards, the laboratory has been equipped with various sensors. Anyone can access zones 1, 2 and 3 as long as the laboratory is open. Zone 1 is equipped with a camera, a sensor provides information on the position of the elevator and a motion sensor is located in zone 2. The door allowing access to zone 4 is equipped with a badge reader and a breakage detection sensor of this glazed door. Zone 4 is equipped with a camera and a brightness sensor. A photocell is positioned at the entrance to zone 5. Finally, a thermal camera is placed in the cold room as well as numerous pressure sensors in the floor of this room to measure the weight of objects and individuals in the room. The figure 30 schematically shows the corresponding monitoring system.

Avec tous ces dispositifs de mesure, le laboratoire répond à ces problématiques de sécurité. En effet, au niveau de la zone 4, la caméra va permettre de détecter les intrus qui ont pénétré sur le site par la zone 6. Grâce au capteur de luminosité, le système va adapter dynamiquement la fiabilité (i.e. de manière probabiliste) des informations renvoyées par la caméra.With all these measuring devices, the laboratory responds to these security issues. Indeed, at zone 4, the camera will be able to detect the intruders who have entered the site through zone 6. Thanks to the brightness sensor, the system will dynamically adapt the reliability (ie in a probabilistic way) of the information. returned by the camera.

La cellule photoélectrique à l'entrée de la zone 5 permet de connaître précisément lorsqu'un individu pénètre dans la chambre froide ou en sort. Seuls les individus habilités peuvent pénétrer dans cette pièce et ils doivent au préalable s'identifier avec leur badge au niveau de la porte de contrôle d'accès de la zone 4. Le laboratoire impose que ces individus se pèsent régulièrement ce qui permet de savoir précisément lorsque ces mêmes individus sortent de la chambre froide s'ils dérobent des produits.The photoelectric cell at the entrance to zone 5 makes it possible to know precisely when an individual enters or leaves the cold room. Only authorized individuals can enter this room and they must first identify themselves with their badge at the access control door of zone 4. The laboratory requires that these individuals weigh themselves regularly which allows to know precisely when these same individuals leave the cold room if they steal products.

Les capteurs de pression de la zone 5 sont utilisés pour détecter tout objet abandonné dans la chambre. Quant à la caméra thermique, elle est utilisée pour détecter et localiser tous les individus dans la chambre. En effet, en pleine nuit (i.e. luminosité nulle) la caméra de la zone 4 ne peut détecter les intrus et le système le sait. Dans ce cas, la caméra thermique couplée à la cellule photoélectrique constitue le dispositif pour détecter les intrus dans la chambre. Précisons également que le laboratoire aurait pu utiliser une caméra couleur classique plutôt qu'une caméra thermique. Les capteurs ont été choisis en fonction de leur aptitude à fournir un renseignement sur l'état du système. Aussi tout capteur permettant de mesurer une grandeur physique qui sera modifiée par l'élément que l'on souhaite détecter/caractériser peut être exploité. Un individu dans une chambre froide a une température différente de l'air dans la chambre et est donc détectable par une caméra thermique et cela de manière beaucoup plus fiable qu'avec une caméra couleur.Zone 5 pressure sensors are used to detect any object left in the chamber. As for the thermal camera, it is used to detect and locate all the individuals in the room. Indeed, in the middle of the night (i.e. brightness zero) the camera of the zone 4 can not detect the intruders and the system knows it. In this case, the thermal camera coupled to the photocell is the device for detecting intruders in the chamber. It should also be noted that the laboratory could have used a conventional color camera rather than a thermal camera. The sensors were chosen based on their ability to provide information on the state of the system. Also any sensor for measuring a physical quantity that will be modified by the element that we want to detect / characterize can be exploited. An individual in a cold room has a temperature different from the air in the room and is therefore detectable by a thermal camera and this much more reliable than with a color camera.

Soit le scénario suivant : un individu pénètre dans le bâtiment par l'entrée principale. Aussitôt, il est détecté par la caméra qui le localise et le suit. L'individu monte dans l'ascenseur et descend au niveau inférieur. A ce moment, la caméra de la zone 1 concentre son attention uniquement sur l'entrée du bâtiment puisque le seul individu de la zone 1 est parti.Either the following scenario: an individual enters the building through the main entrance. Immediately, it is detected by the camera that locates and follows it. The individual climbs into the elevator and goes down to the lower level. At this point, the zone 1 camera focuses its attention only on the entrance to the building since the only individual in zone 1 has left.

Lorsque l'ascenseur arrive à la zone 2, le système apprend cette information et sollicite alors le capteur de mouvement pour observer la porte de l'ascenseur. L'individu se dirige alors vers la zone 4.When the elevator arrives at zone 2, the system learns this information and then requests the motion sensor to observe the elevator door. The individual then moves to Zone 4.

Dans la zone 4, le système doit garantir qu'il n'y a que des individus habilités. Or pour accéder à cette zone, les intrus peuvent venir de la zone 6 ou de la zone 2 après avoir franchi le capteur de contrôle d'accès. C'est pourquoi la caméra de la zone 4 ne surveille que la frontière de la zone 4 avec la zone 6 car il y a un risque non nul qu'un individu franchisse la clôture. Précisons que le système exploite les informations du capteur de luminosité pour connaître la fiabilité de détection des individus avec la caméra.In Zone 4, the system must ensure that there are only authorized individuals. To access this zone, intruders can come from zone 6 or zone 2 after having crossed the access control sensor. This is why the zone 4 camera only monitors the zone 4 border with zone 6 because there is a non-zero risk that an individual crosses the fence. Note that the system uses the information of the brightness sensor to know the reliability of detection of individuals with the camera.

Plutôt que de se soumettre au contrôle de son badge d'accès, l'individu brise la porte vitrée et pénètre dans la zone 4. L'information du bris de la porte remontée par le capteur indique au système qu'un individu est en train d'entrer dans la zone 4. Aussi, le système sollicite la caméra de la zone 4 pour détecter et localiser l'individu. Désormais, cette caméra ne surveillera plus uniquement la frontière de la zone 4 avec la zone 6 mais également la frontière de la zone 2 avec la zone 4 car il y a un risque non nul qu'un autre individu pénètre dans cette zone 4 par la porte brisée.Rather than submit to the control of his access badge, the individual breaks the glass door and enters the zone 4. The information of the broken door raised by the sensor indicates to the system that an individual is in the process to enter zone 4. Also, the system solicits the zone 4 camera to detect and locate the individual. From now on, this camera will no longer monitor only the zone 4 border with zone 6 but also the zone 2 border with zone 4 because there is a non-zero risk that another individual enters zone 4 by broken door.

Tous les capteurs de la zone 5 sont actuellement au repos. Le système les sollicitera uniquement lorsqu'un individu approchera de la porte de la zone 5. Dès que l'intrus franchit la cellule photoélectrique, le système sollicite la caméra thermique pour le détecter.All sensors in zone 5 are currently at rest. The system will solicit them only when an individual approaches the door of zone 5. As soon as the intruder crosses the photocell, the system solicits the thermal camera to detect it.

L'individu dépose alors un objet dans la pièce et s'enfuit. Le système détecte cet objet à partir des capteurs de pression de la pièce et en déduit qu'il ne s'agit pas d'un individu en sollicitant le capteur thermique. En effet, la température, le poids et la forme de l'objet sont incompatible avec celle d'un individu.The individual then drops an object into the room and runs away. The system detects this object from the pressure sensors of the part and deduces that it is not an individual by soliciting the thermal sensor. Indeed, the temperature, the weight and the shape of the object are incompatible with that of an individual.

Dans le cas de cet exemple, les fonctionnalités suivantes du système ont pu être mises en évidence :

  • Aptitude à solliciter et utiliser uniquement les informations (capteurs) nécessaires et pertinente pour répondre à la problématique de l'utilisateur : les exigences de l'application (i.e. état repos et excité du système) ;
  • Gestion des capteurs de manière coopérative (ex : le capteur de luminosité et la caméra, le capteur de l'ascenseur et le capteur de mouvement, etc) ;
  • Toutes les informations qui transitent dans le système sont probabilisées, de même que l'état du système.
In the case of this example, the following features of the system could be highlighted:
  • Ability to solicit and use only the information (sensors) necessary and relevant to answer the problem of the user: the requirements of the application (ie state of rest and excited system);
  • Collaborative sensor management (eg the brightness sensor and the camera, elevator sensor and motion sensor, etc.);
  • All information passing through the system is probabilized, as is the state of the system.

Représentation du résultat : auparavant, les solutions disponibles étaient des solutions dites de « réalité augmentée » (voir figure 31). A savoir, il s'agissait :

  • d'afficher l'ensemble des mesures ou alarmes renvoyées par les différentes capteurs, (vidéos des caméras de surveillance, alarmes des capteurs d'intrusion, des capteurs de mouvement, etc). Parfois ces données étaient affichées de manière cyclique lorsque leur nombre est trop important.
  • de placer éventuellement ces mesures ou alarmes sur un plan ou une carte par rapport à la localisation des capteurs.
  • d'inclure des informations de haut niveau sur les mesures renvoyées par les capteurs (rectangle autour des personnes détectées sur les vidéos de surveillance, trajectoire des personnes détectées, etc) (i.e. outils de réalité augmentée).
Representation of the result: previously, the solutions available were solutions called "augmented reality" (see figure 31 ). Namely, it was:
  • to display all the measurements or alarms returned by the various sensors, (videos of surveillance cameras, alarms of intrusion sensors, motion sensors, etc.). Sometimes these data were displayed cyclically when their numbers are too large.
  • to possibly place these measurements or alarms on a plane or a map with respect to the location of the sensors.
  • to include high-level information on the measurements returned by the sensors (rectangle around the people detected on the surveillance videos, trajectory of the detected persons, etc.) (ie tools of augmented reality).

Ainsi dans le cas de l'exemple précédent, nous aurions eu 5 alarmes de détection d'intrusion remonté par :

  • le capteur de bris de glace,
  • la caméra de la zone 4,
  • la cellule photoélectrique,
  • les capteurs de pression,
  • la caméra thermique,
qui correspondent à une seule et même intrusion.So in the case of the previous example, we would have had 5 intrusion detection alarms sent back by:
  • the ice breaking sensor,
  • the camera of zone 4,
  • the photocell,
  • pressure sensors,
  • the thermal camera,
which correspond to one and the same intrusion.

La solution selon l'invention permet d'offrir à l'opérateur une visualisation interactive et intelligente correspondant à sa problématique de surveillance. Un des avantages est de faciliter la visualisation et l'analyse de données complexes pour en accélérer leur compréhension, leur communication et la prise de décisions. Les moyens de l'invention offrent une technologie de visualisation interactive de données basées sur des outils de « réalité virtuelle ». Ainsi, tel que montré dans l'exemple de visualisation de la figure 32, le système répond à la problématique de l'opérateur :

  • L'opérateur n'a plus à interpréter les signaux capteurs. Si l'opérateur souhaite savoir si un individu a pénétré dans le site alors la représentation va consister en une vue 3D du site (i.e. réalité virtuelle) où le système indiquera les zones où des intrus sont présents mais les informations bas niveaux, (i.e. les données des capteurs) ne seront pas affichées.
The solution according to the invention makes it possible to offer the operator an interactive and intelligent visualization corresponding to his surveillance problem. One of the advantages is to facilitate the visualization and analysis of complex data to accelerate their understanding, communication and decision-making. The means of the invention provide an interactive data visualization technology based on "virtual reality" tools. Thus, as shown in the visualization example of the figure 32 , the system responds to the problem of the operator:
  • The operator no longer has to interpret the sensor signals. If the operator wants to know if an individual has entered the site then the representation will consist of a 3D view of the site (ie virtual reality) where the system will indicate the areas where intruders are present but the low level information (ie sensor data) will not be displayed.

Le système informe l'utilisateur au sujet de ses limites :

  • Par rapport à la problématique de surveillance, le système informe l'opérateur sur les zones de l'environnement qu'il ne peut percevoir afin que ce dernier n'imagine pas qu'aucun intrus est dans la pièce alors qu'elle n'est simplement pas équipée de capteurs. De même que pour la détection des individus, le système informe l'opérateur s'il a un doute (fiabilité réduite) sur la présence de l'individu.
The system informs the user about its limitations:
  • With regard to the problem of surveillance, the system informs the operator of the areas of the environment that he can not perceive so that the latter can not imagine that no intruder is in the room when he is not simply not equipped with sensors. As for the detection of individuals, the system informs the operator if he has a doubt (reduced reliability) on the presence of the individual.

Le système peut dialoguer avec l'opérateur en lui suggérant de contrôler des événements suspects par rapport à sa problématique ou des résultats qu'il n'a pu analyser :

  • Par rapport à la problématique de l'opérateur, le système va attirer son attention sur les zones pertinentes : intrusion, regroupement d'individus, individus agités, etc, ainsi que sur les zones où les individus ont été détectés avec une fiabilité faible.
  • Le seul moyen de lever les doutes est de contrôler les données des capteurs. Pour cela, uniquement les capteurs en lien avec la représentation 3D sont affichés. Par ailleurs, seul quelques capteurs sont affichés : les plus pertinents, c'est-à-dire ceux qui apportent une information nouvelle. Le système n'affiche pas les capteurs qui fournissent des informations redondantes par rapport à d'autres capteurs.
The system can dialogue with the operator by suggesting to him to control suspicious events with regard to his problematic or results that he has not been able to analyze:
  • In relation to the problem of the operator, the system will draw his attention to the relevant areas: intrusion, grouping of individuals, restless individuals, etc., as well as in areas where individuals have been detected with low reliability.
  • The only way to remove doubts is to control the sensor data. For this, only the sensors related to the 3D representation are displayed. In addition, only a few sensors are displayed: the most relevant, that is to say those that bring new information. The system does not display sensors that provide redundant information compared to other sensors.

Le système est interactif et réponds aux requêtes de l'opérateur :

  • Si l'opérateur veut voir une zone particulière ou suivre un individu, il peut le demander au système en sélectionnant l'information sur la représentation 3D ou sur les donnes capteurs.
The system is interactive and responds to requests from the operator:
  • If the operator wants to see a particular area or follow an individual, he can request it from the system by selecting the 3D representation information or the sensor data.

Ainsi dans le cas de l'exemple précédent, une seule alarme est affichée et mise à disposition de l'opérateur. Le système affiche :

  • une réalité virtuelle du site,
  • focalisée sur le lieu où l'intrus se trouve,
  • tenant compte que la porte badgée est brisée,
  • intégrant les zones non perceptibles du site,
  • couplée à une réalité augmentée des mesures des capteurs,
  • avec uniquement les mesures des capteurs en lien avec la réalité virtuelle,
  • et en priorité les mesures des capteurs les plus pertinentes, c'est-à-dire ceux permettant de vérifier l'analyse qu'a réalisé le système.
Thus in the case of the previous example, a single alarm is displayed and made available to the operator. The system displays:
  • a virtual reality of the site,
  • focused on where the intruder is,
  • taking into account that the badged door is broken,
  • integrating the non-perceptible areas of the site,
  • coupled with augmented reality sensor measurements,
  • with only sensor measurements related to virtual reality,
  • and, in priority, the most relevant sensor measurements, ie those that make it possible to verify the analysis performed by the system.

Deuxième exemple de scène : système de surveillance d'un bijouSecond example of scene: surveillance system of a jewel

Pour cet exemple, un bijou est exposé au public dans une galerie. Le bijou est présenté sur un socle et est éclairé par des spots lumineux halogènes. Plusieurs capteurs sont disposés à proximité. Une caméra couleur et une caméra thermique filment le bijou. Ce dernier est posé sur un capteur de pression. Un capteur de luminosité mesure le niveau d'éclairage. En effet, lorsque les spots lumineux fonctionnent, ils peuvent se mettre à clignoter. Une horloge mesure l'heure. Le système central de surveillance a accès à un fichier informatique qui précise les plages horaires pendant lesquelles les spots lumineux halogènes fonctionnent. Enfin, une ceinture de dix capteurs à ultrasons entoure le socle permettant d'indiquer si des individus sont à proximité du bijou.For this example, a jewel is exposed to the public in a gallery. The jewel is presented on a base and is lit by halogen light spots. Several sensors are located nearby. A color camera and a thermal camera film the jewel. The latter is placed on a pressure sensor. A brightness sensor measures the lighting level. Indeed, when the light spots work, they can start to flash. A clock measures the time. The central monitoring system has access to a computer file that specifies the time slots during which the halogen spotlights operate. Finally, a belt of ten ultrasonic sensors surrounds the base to indicate if individuals are near the jewel.

Cette application a pour objectif de vérifier la présence du bijou sur son socle. Il s'agit donc d'un dispositif contre le vol.This application aims to check the presence of the jewel on its base. It is therefore a device against theft.

La préparation du système de surveillance implique de prévoir une modélisation de l'élément que l'on souhaite surveiller et reconnaître, à savoir le bijou. Dans le cas de cet exemple, le bijou est une couronne en métal. Le modèle est le suivant : objet cylindrique de diamètre 15cm, de couleur jaune, de poids 300gr, en métal.The preparation of the surveillance system involves providing a modeling of the element that we want to monitor and recognize, namely the jewel. In the case of this example, the jewel is a metal crown. The model is the following: cylindrical object diameter 15cm, yellow color, weight 300gr, metal.

L'état de la scène est composé d'une part de la variable que l'on souhaite calculer à savoir : la présence du bijou sur son socle. Par ailleurs, on peut considérer que plus il y a d'individus autour du bijou, plus il y a un risque qu'un individu dérobe l'objet. Aussi, l'état du système comprend le nombre de capteurs à ultrasons ayant détecté au moins un individu. Cette dernière variable jouera un rôle particulièrement important dans l'étape d'estimation de l'état du système à la date t à partir de l'état historique du système à la date t - delta t. Enfin une dernière variable servira à indiquer le niveau de luminosité autour du bijou. Cette dernière variable jouera un rôle particulièrement important pour déterminer la fiabilité des métadonnées extraites des données (i.e. images couleurs) de la caméra.The state of the scene is composed on the one hand of the variable that one wishes to calculate namely: the presence of the jewel on its base. On the other hand, it can be considered that the more individuals around the jewel, the greater the risk that an individual will steal the object. Also, the state of the system includes the number of ultrasonic sensors having detected at least one individual. This last variable will play a particularly important role important in the step of estimating the state of the system at the date t from the historical state of the system at the date t-delta t. Finally a last variable will be used to indicate the level of luminosity around the jewel. This last variable will play a particularly important role in determining the reliability of the metadata extracted from the data (ie color images) of the camera.

Le tableau qui suit présente un exemple de l'Etat de la scène : Grandeurs numériques de l'état Valeurs possibles Présence du bijou {oui, non} Nombre de capteurs ultrasons [0, 10] Luminosité [0, 1000 lux] The following table shows an example of the Stage State: Numeric quantities of the state Possible values Presence of the jewel {Yes No} Number of ultrasonic sensors [0, 10] Brightness [0, 1000 lux]

Pour la phase d'initialisation, il est indiqué qu'initialement, le bijou est sur son socle, il n'y a aucun individu est dans la pièce et le niveau de luminosité n'est pas connu, tel qu'indiqué dans ce tableau : Grandeurs numériques de l'état Valeur Précision Fiabilité Présence de bijou Oui X 1 Nombre de capteurs ultrasons 0 0 1 Luminosité 500 500 0.5 For the initialization phase, it is indicated that initially, the jewel is on its base, there is no individual is in the room and the level of brightness is not known, as indicated in this table : Numeric quantities of the state Value Precision Reliability Presence of jewel Yes X 1 Number of ultrasonic sensors 0 0 1 Brightness 500 500 0.5

On observe qu'il n'y a pas de précision associée à la variable « présence de bijou », ce qui est tout à fait normal car il s'agit d'une variable discrète binaire. On remarque également qu'une fiabilité est associée à chaque grandeur numérique. Dans le cas de certaines applications, il pourrait y avoir une fiabilité non pas pour chaque grandeur mais pour un groupe. Pour la luminosité, le niveau n'est pas connu. La probabilité est fixée à 0.5. La valeur n'étant pas connue, elle est initialisée à la valeur médiane des valeurs possibles soit 500. La précision permet de construire des intervalles d'estimation des grandeurs. L'intervalle étant construit avec pour bornes [valeur - précision, valeur + précision]. Comme précisé précédemment, la valeur a été fixée à 500. Pour la précision, il est fait en sorte que celle-ci puisse permette de construire un intervalle estimé pour la grandeur numérique « luminosité » englobant l'intervalle de l'ensemble des valeurs possibles pour la grandeur [0, 1000lux]. Donc, la précision est fixée à 500.It is observed that there is no precision associated with the variable "presence of jewel", which is quite normal because it is a discrete binary variable. We also note that reliability is associated with each digital quantity. In the case of some applications, there might be reliability not for each size but for a group. For brightness, the level is not known. The probability is set to 0.5. As the value is not known, it is initialized to the median value of the possible values, ie 500. Precision makes it possible to construct ranges of estimation of the quantities. The interval is built with terminals [value - precision, value + precision]. As stated previously, the value has been fixed at 500. For the precision, it is made so that it can allow to construct an estimated interval for the numerical quantity "luminosity" encompassing the range of the set of possible values for the magnitude [0, 1000lux]. So the precision is 500.

Ce dernier tableau constitue un exemple de résultat fourni par le procédé de surveillance : l'état du système est fourni périodiquement à l'utilisateur, à une autre application ou à un autre dispositif.This latter table is an example of a result provided by the monitoring method: the state of the system is periodically provided to the user, to another application or to another device.

Concernant les exigences de l'application, supposons que l'état demandé par l'utilisateur ait les caractéristiques présentées dans le tableau qui suit : Grandeurs de l'état Précision Fiabilité Présence de bijou X 0.95 Nombre de capteurs ultrasons 3 0.7 Luminosité 100 0.8 Concerning the requirements of the application, suppose that the state requested by the user has the characteristics presented in the following table: Sizes of the state Precision Reliability Presence of jewel X 0.95 Number of ultrasonic sensors 3 0.7 Brightness 100 0.8

Etape de prédiction : Cette étape est très dépendante des grandeurs numériques considérées, de l'application, de son contexte d'utilisation. Dans cet exemple, la modélisation suivante est proposée : Etat à la date t - δt Etat à la date t Présence de bijou à la date t - δt : Présence de bijou à la date t : • Valeurprésence • Valeurprésence • Fiabilitéprésence • Max(0.5, Fiabilitéprésence - (valeurultrasons +1).0.17) Nombre de capteurs ultrasons à la date t- δt: Nombre de capteurs ultrasons à la date t : • Valeurultrasons • Valeurultrasons • Précisionultrasons • Précisionultrasons Fiabilitéultrasons • Max(0.5, Fiabilitéultrasons - 0.2) Luminosité à la date t- δt : Luminosité à la date t : • Valeurluminosité • Valeurluminosité • Prècisionluminositè • Précisionluminosité • Fiabilitéluminosité • Max(0.5, Fiabilitéluminosité - 0.45) Prediction step : This step is very dependent on the digital quantities considered, the application, its context of use. In this example, the following modeling is proposed: State at the date t - δt State at the date t Presence of jewel on date t - δt: Presence of jewel on date t: Presence value Presence value • Reliability presence • Max (0.5, Presence reliability - ( ultrasound value +1) .0.17) Number of ultrasonic sensors on date t- δt: Number of ultrasonic sensors at date t: Ultrasonic value Ultrasonic value Ultrasound precision • Ultrasound precision Ultrasonic reliability • Max (0.5, Ultrasonic Reliability - 0.2) Brightness at the date t- δt: Brightness at date t: Brightness value Brightness value Brightness accuracy Brightness accuracy Brightness reliability • Max (0.5, Brightness Reliability - 0.45)

Ce tableau doit être interprété comme suit : pour le nombre de capteurs à ultrasons, il est considéré que des personnes peuvent s'approcher du socle et d'autres s'éloigner. On ne sait pas du tout comment ceci varie. Ainsi, le niveau de fiabilité de cette grandeur est diminué pour indiquer que cette information est moins fiable. Le raisonnement est identique pour la luminosité.This table should be interpreted as follows: for the number of ultrasonic sensors, it is considered that people can approach the base and others move away. We do not know at all how this varies. Thus, the reliability level of this magnitude is decreased to indicate that this information is less reliable. The reasoning is identical for the brightness.

Pour la grandeur « présence de bijou », il est considéré en plus cette fois-ci que plus le nombre d'individus proches du socle est important, plus le bijou risque d'être dérobé.For the size "presence of jewel", it is considered more this time that the closer the number of individuals close to the base, the more the jewel may be stolen.

A des fins d'exemple, il est supposé qu'à une certaine date, l'état du système est le suivant : Grandeurs de l'état Valeur Précision Fiabilité Présence de bijou Oui X 0.68 Nombres de capteurs ultrasons 6 4 0.73 Luminosité 700 230 0.7 For example, it is assumed that at a certain date, the state of the system is as follows: Sizes of the state Value Precision Reliability Presence of jewel Yes X 0.68 Number of ultrasonic sensors 6 4 0.73 Brightness 700 230 0.7

L'étape de comparaison consiste à déterminer s'il existe une des grandeurs numériques de l'état calculé qui a une précision supérieure à la précision indiquée dans l'état souhaité par l'utilisateur (i.e. exigences de l'application) pour cette même grandeur ou s'il existe une des grandeurs de l'état calculé qui a une fiabilité inférieure à la fiabilité indiquée dans l'état souhaité par l'utilisateur (i.e. exigences de l'application) pour cette même grandeur. Dans ce cas de figure, l'état calculé ne répond pas aux exigences et le système passe dans l'état excité.The comparison step consists in determining whether there exists one of the numerical magnitudes of the calculated state which has a precision greater than the precision indicated in the state desired by the user (ie requirements of the application) for this same state. magnitude or if there is one of the magnitudes of the calculated state that has a reliability lower than the reliability indicated in the state desired by the user (ie application requirements) for that same magnitude. In this case, the calculated state does not meet the requirements and the system goes into the excited state.

Pour cet exemple, la fiabilité des grandeurs « présence de bijou » et « luminosité » est insuffisante, et la précision des grandeurs « nombre de capteurs ultrasons » et « luminosité » est également insuffisante.For this example, the reliability of the quantities "presence of jewelry" and "brightness" is insufficient, and the accuracy of the quantities "number of ultrasonic sensors" and "brightness" is also insufficient.

Etape de mise à jourUpdate step

  • Capteur : caméra Sensor: camera
  • Donnée renvoyée : image couleur du haut du socle où se trouve le bijou. Data returned: color image of the top of the base where is the jewel.
  • Métadonnée recherchée : détection de jaune dans l'image correspond à la perception du bijou. Metadata searched: detection of yellow in the image corresponds to the perception of the jewel.
  • Procédé de traitement d'image : mesure de la quantité de couleur jaune dans une partie de l'image. Image processing method: measuring the amount of yellow color in a part of the image.
  • Résultat renvoyé : si le nombre de pixels de couleur jaune dépasse un seuil alors le procédé de traitement d'image renvoie la métadonnée « détection d'une couleur jaune qui semble correspondre au bijou » sinon « métadonnée recherchée non obtenue ». Result returned: if the number of yellow pixels exceeds a threshold then the image processing method returns metadata "detection of a yellow color that seems to match the jewel" otherwise "metadata searched not obtained".
  • Métadonnée recherchée : détection d'un objet cylindrique de diamètre 15cm dans l'image. Metadata searched: detection of a cylindrical object of diameter 15cm in the image.
  • Procédé de traitement d'image : détection de contours et de formes. Image processing method: detection of contours and shapes.
  • Résultat renvoyé : si un objet cylindrique a pu être reconnu alors le résultat suivant est envoyé : « détection d'un objet cylindrique de diamètre 15cm qui semble correspondre au bijou », sinon « métadonnée recherchée non obtenue ». Result returned: if a cylindrical object could be recognized then the following result is sent: "detection of a cylindrical object of diameter 15cm which seems to correspond to the jewel", otherwise "metadata sought not obtained".
  • Capteur : capteur de pression. Sensor: pressure sensor.
  • Donnée renvoyée : poids de l'objet posé sur le capteur. Data returned: weight of the object placed on the sensor.
  • Information recherchée : est ce que la donnée renvoyée par le capteur vaut 300gr ? Information sought: is the data returned by the sensor worth 300gr?
  • Résultat renvoyé : si la donnée mesurée vaut 300gr alors le résultat suivant est envoyé : « mesure d'un poids compatible avec le poids du bijou », sinon « poids incompatible avec le bijou ». Result returned: if the measured data is worth 300gr then the following result is sent: "measurement of a weight compatible with the weight of the jewel", otherwise "weight incompatible with the jewel".
  • Capteur : caméra thermique. Sensor: thermal camera.
  • Donnée renvoyée : image 2D de la température mesurée. Data returned: 2D image of the measured temperature.
  • Information recherchée : est-ce que la température de l'objet filmé par la caméra thermique a une température compatible avec celle que devrait avoir les bijoux ? Information sought: does the temperature of the object filmed by the thermal camera have a temperature compatible with that which the jewels should have?
  • Résultat renvoyé : en utilisant les informations sur l'heure et sur les plages horaires d'éclairage des bijoux et sur le dégagement thermique produit par les spots, le système peut déduire à quelle température sont les bijoux à une certaine heure. Si la chaleur mesurée par le capteur est compatible avec celle que devrait avoir les bijoux, le résultat suivant est envoyé: « la chaleur thermique dégagée par l'objet filmé est compatible avec la chaleur que devrait dégager les bijoux », sinon « chaleur incompatible avec les bijoux ». Result returned: by using the information on the time and the time slots of lighting of jewels and on the thermal release produced by the spots, the system can deduce at what temperature the jewels are at a certain time. If the heat measured by the sensor is compatible with that which should have the jewels, the following result is sent: "the thermal heat released by the filmed object is compatible with the heat that should clear the jewelry", otherwise "heat incompatible with jewelry ".
  • Métadonnée recherchée : détection d'un objet cylindrique de diamètre 15cm dans l'image thermique du capteur. Metadata sought: detection of a cylindrical object of diameter 15cm in the thermal image of the sensor.
  • Procédé de traitement : détection de contours et de formes dans une image thermique. Processing method: detection of contours and shapes in a thermal image.
  • Résultat renvoyé : si un objet cylindrique a pu être reconnu, alors le résultat suivant est envoyé: « détection d'un objet cylindrique de diamètre 15cm qui semble correspondre au bijou », sinon « métadonnée recherchée non obtenue ». Result returned: if a cylindrical object could be recognized, then the following result is sent: "detection of a cylindrical object of diameter 15cm which seems to correspond to the jewel", otherwise "metadata searched not obtained".
  • Capteur : Capteur de luminosité. Sensor: Brightness sensor.
  • Donnée renvoyée : luminosité de la scène. Data returned: brightness of the scene.
  • Capteur : Ceintures de capteurs ultrasons. Sensor: Ultrasonic sensor belts.
  • Donnée renvoyée : nombre de capteurs ultrasons ayant détecté un obstacle. Data returned: number of ultrasonic sensors having detected an obstacle.

Dans tous les cas, le résultat est retourné avec sa précision et sa fiabilité. La précision et la fiabilité sont fonction du capteur et du procédé de traitement considéré. Dans le cas des procédés de traitement qui travaillent sur l'image de la caméra couleur, les résultats renvoyées sont d'autant plus fiables que la luminosité de la scène est importante. Ainsi, l'évaluation de la fiabilité pour les métadonnées extraites de l'image de la caméra tient compte du niveau de luminosité de la scène disponible dans l'état de la scène sous forme d'une grandeur numérique.In any case, the result is returned with its precision and reliability. The accuracy and reliability depend on the sensor and the treatment process considered. In the case of processing methods that work on the image of the color camera, the results returned are all the more reliable as the brightness of the scene is important. Thus, the reliability evaluation for metadata extracted from the camera image takes into account the brightness level of the scene available in the stage state as a numeric magnitude.

A des fins d'exemple, il est admis qu'à une certaine date, l'état du système est comme suit : Grandeurs de l'état Valeur Précision Fiabilité Présence de bijou oui X 0.68 Nombre de capteurs ultrasons 6 4 0.73 Luminosité 700 230 0.7 For example, it is accepted that at a certain date, the state of the system is as follows: Sizes of the state Value Precision Reliability Presence of jewel Yes X 0.68 Number of ultrasonic sensors 6 4 0.73 Brightness 700 230 0.7

Compte tenu des caractéristiques de l'état, il est nécessaire d'améliorer la fiabilité des grandeurs « présence de bijou » et « luminosité » et la précision des grandeurs « capteurs ultrasons » et « luminosité ».Given the characteristics of the state, it is necessary to improve the reliability of the quantities "presence of jewelry" and "brightness" and the accuracy of the sizes "ultrasonic sensors" and "brightness".

Supposons que le système de mise à jour vienne de recevoir une mesure nouvelle pour chaque capteur. Il dispose donc d'informations potentiellement disponibles pour améliorer la connaissance de l'état. Pour améliorer la grandeur « Présence de bijou », c'est-à-dire confirmer la présence du bijou, le système de surveillance peut utiliser les données ou métadonnées suivantes :

  • Métadonnée : détection de jaune dans l'image couleur ;
  • Métadonnée : détection d'un objet cylindrique de diamètre 15cm dans l'image couleur ;
  • Donnée : poids de l'objet posé sur le capteur de pression ;
  • Donnée : température de l'objet filmé par la caméra thermique ;
  • Métadonnée : détection d'un objet cylindrique de diamètre 15cm dans l'image thermique du capteur.
Suppose the update system comes to receive a new measurement for each sensor. It therefore has potentially available information to improve knowledge of the state. To enhance the "Presence of jewel" size, that is, to confirm the presence of the jewel, the monitoring system may use the following data or metadata:
  • Metadata: detection of yellow in the color image;
  • Metadata: detection of a 15cm diameter cylindrical object in the color image;
  • Data: weight of the object placed on the pressure sensor;
  • Data: temperature of the object filmed by the thermal camera;
  • Metadata: detection of a 15cm diameter cylindrical object in the thermal image of the sensor.

Pour améliorer la grandeur « nombre de capteurs ultrasons », c'est-à-dire déterminer combien de capteurs à ultrasons ont détectés d'individus, le système peut utiliser les données ou métadonnées suivantes :

  • Donnée : nombre de capteurs ultrasons ayant détecté un obstacle.
To improve the size of "number of ultrasonic sensors", ie to determine how many ultrasonic sensors have detected individuals, the system can use the following data or metadata:
  • Given: number of ultrasonic sensors that detected an obstacle.

Pour améliorer la grandeur « luminosité », le système peut utiliser les données ou métadonnées suivantes :

  • Donnée : luminosité de la scène
To improve the "brightness" size, the system can use the following data or metadata:
  • Data: brightness of the scene

La fiabilité et la précision des données est une caractéristique intrinsèque des capteurs, tandis que celles des métadonnées sont calculés dynamiquement pas le système de mise à jour et d'alerte.Reliability and accuracy of data is an intrinsic feature of sensors, while those of metadata are calculated dynamically by the update and alert system.

La détermination de la donnée ou de la métadonnée que le système doit utiliser pour améliorer l'état de la scène est réalisée au moyen d'une fonction de comparaison qui mesure un écart entre l'état théorique de la scène produit par une donnée ou métadonnée et l'état de la scène souhaité par l'utilisateur (i.e. exigences de l'application).The determination of the data or metadata that the system must use to improve the state of the scene is performed by means of a comparison function which measures a difference between the theoretical state of the scene produced by a given piece of data or metadata. and the state of the scene desired by the user (ie application requirements).

L'état théorique produit par une donnée ou une métadonnée correspond à l'état que s'attend à obtenir le système s'il sollicite la récupération de la donnée ou l'extraction de la métadonnée. Pour cela le système tient compte de la fiabilité et de la précision théorique de la donnée et de la métadonnée. Précisons qu'à ce stade, le système de mise à jour et d'alerte n'a pas encore récupéré la donnée du capteur et n'a réalisé aucune analyse ou traitement de la donnée.The theoretical state produced by a data item or a metadata corresponds to the state that the system expects to obtain if it requests the recovery of the data or the extraction of the metadata. For this the system takes into account the reliability and the theoretical accuracy of the data and the metadata. It should be noted that at this stage, the update and alert system has not yet recovered the sensor data and has not performed any analysis or processing of the data.

En ce qui concerne la fonction de comparaison, elle consiste à mesurer l'écart entre la précision et la fiabilité de chaque grandeur de l'état théorique avec la précision et la fiabilité de l'état souhaité par l'utilisateur. Chacun de ces écarts peut être pondéré par un coefficient pour indiquer par exemple que la précision sur la luminosité est une caractéristique plus importante que pour les autres grandeurs. A des fins d'exemple, la fonction de comparaison suivante est posée :As far as the comparison function is concerned, it consists of measuring the difference between the accuracy and reliability of each magnitude of the theoretical state with the accuracy and reliability of the state desired by the user. Each of these deviations can be weighted by a coefficient to indicate for example that the brightness accuracy is a more important characteristic than for the other quantities. For example, the following comparison function is used:

Pour chaque donnée et métadonnée faire :

  • Calculer l'état théorique F etat_theorique etat_souhaite = 4. max 0 , Fiabilité présence souhaité - Fiabilité présence théorique + 1. max 0 , Précision ultrasons théorique - Précision ultrasons souhaité + 3. max 0 , Fiabilité ultrasons souhaité - Fiabilité ultrasons théorique + 1. max 0 , Précision luminosité théorique - Précision luminosité souhaité + 2. max 0 , Fiabilité luminosité souhaité - Fiabilité luminosité théorique
    Figure imgb0008
Fin pourFor each data and metadata do:
  • Calculate the theoretical state F etat_theorique etat_souhaite = Four. max 0 , Reliability presence wish - Reliability presence theoretical + 1. max 0 , Precision ultrasonic theoretical - Precision ultrasonic wish + 3. max 0 , Reliability ultrasonic wish - Reliability ultrasonic theoretical + 1. max 0 , Precision brightness theoretical - Precision brightness wish + 2. max 0 , Reliability brightness wish - Reliability brightness theoretical
    Figure imgb0008
End for

Ainsi, la fonction de comparaison vaut 0 dès lors que la précision des grandeurs numériques de l'état théorique est inférieure à la précision des grandeurs numériques de l'état souhaité et que la fiabilité des grandeurs de l'état théorique est supérieure à la fiabilité des grandeurs de l'état souhaité.Thus, the comparison function is 0 since the accuracy of the numerical quantities of the theoretical state is less than the accuracy of the quantities the desired state and that the reliability of the magnitudes of the theoretical state is greater than the reliability of the magnitudes of the desired state.

Le temps de calcul pour obtenir une métadonnée peut être assez important dû au temps de traitement de la donnée du capteur. Il est possible d'intégrer le temps estimé nécessaire pour obtenir une donnée ou une métadonnée ou bien la quantité de mémoire estimée nécessaire pour obtenir une donnée ou une métadonnée, etc, dans une variable coût. Ce coût peut être pris en compte dans la fonction de comparaison pour diminuer l'importance d'une donnée ou d'une métadonnée. Pour cela, il est possible d'ajouter ce coût à la fonction de comparaison ou de multiplier la fonction de comparaison par le coût, etc.The computation time to obtain a metadata can be quite important due to the processing time of the sensor data. It is possible to integrate the estimated time required to obtain data or metadata or the amount of memory estimated necessary to obtain data or metadata, etc., in a cost variable. This cost can be taken into account in the comparison function to reduce the importance of a given datum or metadata. For this, it is possible to add this cost to the comparison function or to multiply the comparison function by the cost, etc.

Il est à noter que la fonction de comparaison présentée précédemment tient compte de tous les écarts en fiabilité et en précision pour chaque grandeur entre l'état théorique et l'état souhaité. Cependant, ces écarts ont été pondérés par des coefficients multiplicateurs (i.e. 4, 1, 3, 1 et 2). Il est possible d'utiliser une fonction de comparaison qui ne tienne compte que de l'écart de quelques grandeurs et se limite à la caractéristique de précision (i.e. la caractéristique fiabilité ne sera pas utilisée). Ainsi, on obtient la fonction de comparaison suivante :It should be noted that the comparison function presented previously takes into account all the differences in reliability and accuracy for each quantity between the theoretical state and the desired state. However, these differences were weighted by multiplying coefficients (i.e. 4, 1, 3, 1 and 2). It is possible to use a comparison function which only takes into account the difference of a few quantities and is limited to the precision characteristic (ie the reliability characteristic will not be used). Thus, we obtain the following comparison function:

Pour chaque donnée et métadonnée faire :

  • Calculer l'état théorique F etat_theorique etat_souhaite = 0. max 0 , Fiabilité présence souhaité - Fiabilité présence théorique + 3. max 0 , Précision ultrasons théorique - Précision ultrasons souhaité + 0. max 0 , Fiabilité ultrasons souhaité - Fiabilité ultrasons théorique + 1. max 0 , Précision luminosité théorique - Précision luminosité souhaité + 0. max 0 , Fiabilité luminosité souhaité - Fiabilité luminosité théorique
    Figure imgb0009
Fin pour
ce qui revient, après simplification, à la fonction de comparaison suivante :For each data and metadata do:
  • Calculate the theoretical state F etat_theorique etat_souhaite = 0. max 0 , Reliability presence wish - Reliability presence theoretical + 3. max 0 , Precision ultrasonic theoretical - Precision ultrasonic wish + 0. max 0 , Reliability ultrasonic wish - Reliability ultrasonic theoretical + 1. max 0 , Precision brightness theoretical - Precision brightness wish + 0. max 0 , Reliability brightness wish - Reliability brightness theoretical
    Figure imgb0009
End for
which comes back, after simplification, to the following comparison function:

Pour chaque donnée et métadonnée faire :

  • Calculer l'état théorique F etat_theorique etat_souhaite = 3. max 0 , Précision ultrasons théorique - Précision ultrasons souhaité + 1. max 0 , Précision luminosité théorique - Précision luminosité souhaité
    Figure imgb0010
Fin pourFor each data and metadata do:
  • Calculate the theoretical state F etat_theorique etat_souhaite = 3. max 0 , Precision ultrasonic theoretical - Precision ultrasonic wish + 1. max 0 , Precision brightness theoretical - Precision brightness wish
    Figure imgb0010
End for

Dans le cas de cet exemple, on considère que le coût représente une estimation du temps de traitement nécessaire en millisecondes pour obtenir la donnée ou la métadonnée.In the case of this example, it is considered that the cost represents an estimate of the necessary processing time in milliseconds to obtain the data or the metadata.

Supposons que la métadonnée « détection d'un objet cylindrique de diamètre 15cm dans l'image » que le système peut potentiellement obtenir en appliquant un algorithme de détection d'image sur la donnée de la caméra, permettrait d'obtenir l'état théorique suivant : Grandeurs de l'état Valeur Précision théorique Fiabilité théorique Présence de bijou oui X 0.80 Nombre de capteurs ultrasons 6 4 0.73 Luminosité 700 230 0.7 Suppose that the metadata "detection of a cylindrical object with a diameter of 15 cm in the image" that the system can potentially obtain by applying an image detection algorithm on the camera data, would make it possible to obtain the following theoretical state : Sizes of the state Value Theoretical precision Theoretical reliability Presence of jewel Yes X 0.80 Number of ultrasonic sensors 6 4 0.73 Brightness 700 230 0.7

La fonction de comparaison pour cette métadonnée serait de F = 3.max(0, 4 - 3) + 1.max(0, 230 - 100) = 133The comparison function for this metadata would be F = 3.max (0, 4 - 3) + 1.max (0, 230 - 100) = 133

Estimation du temps de traitement nécessaire pour obtenir la métadonnée : 73 millisecondes. Fonction de comparaison + coût de cette métadonnée : 133 + 73 = 206

Figure imgb0011
Estimation of the processing time needed to obtain the metadata: 73 milliseconds. Comparison function + cost of this metadata : 133 + 73 = 206
Figure imgb0011

Supposons que la donnée « luminosité de la scène » fournie par le capteur de luminosité permettrait d'obtenir l'état théorique suivant : Grandeurs de l'état Valeur Précision théorique Fiabilité théorique Présence de bijou oui X 0.68 Nombre de capteurs ultrasons 6 4 0.73 Luminosité 700 110 0.84 Suppose that the data "brightness of the scene" provided by the brightness sensor would obtain the theoretical state: Sizes of the state Value Theoretical precision Theoretical reliability Presence of jewel Yes X 0.68 Number of ultrasonic sensors 6 4 0.73 Brightness 700 110 0.84

La fonction de comparaison pour cette donnée serait de F = 3.max(0, 4 - 3) + 1.max(0, 110-100) = 13The comparison function for this data would be F = 3.max (0, 4 - 3) + 1.max (0, 110-100) = 13

Estimation du temps de traitement nécessaire pour obtenir la donnée : 16 millisecondes.Estimation of the processing time required to obtain the data: 16 milliseconds.

Fonction de comparaison + coût de cette donnée : 13 + 16 = 29Comparison function + cost of this data: 13 + 16 = 29

Supposons que la donnée « nombre de capteurs ultrasons ayant détecté un obstacle » fournie par le capteur « ceinture de capteurs ultrasons », permette d'obtenir l'état théorique suivant : Grandeurs de l'état Valeur Précision théorique Fiabilité théorique Présence de bijou Oui X 0.68 Nombre de capteurs ultrasons 6 2 0.95 Luminosité 700 230 0.7 Suppose that the data "number of ultrasonic sensors having detected an obstacle" provided by the "ultrasonic sensor belt" sensor, makes it possible to obtain the following theoretical state: Sizes of the state Value Theoretical precision Theoretical reliability Presence of jewel Yes X 0.68 Number of ultrasonic sensors 6 2 0.95 Brightness 700 230 0.7

La fonction de comparaison pour cette donnée serait de F = 3.max(0, 2 - 3) + 1.max(0, 230 - 100) = 130The comparison function for this data would be F = 3.max (0, 2 - 3) + 1.max (0, 230 - 100) = 130

Estimation du temps de traitement nécessaire pour obtenir la donnée : 3 millisecondes. Fonction de comparaison + coût de cette donnée : 130 + 3 = 133

Figure imgb0012
Estimation of the processing time required to obtain the data: 3 milliseconds. Comparison function + cost of this data : 130 + 3 = 133
Figure imgb0012

La donnée ou la métadonnée qui serait sélectionnée est celle qui a une valeur « fonction de comparaison + coût » minimale, c'est-à-dire la donnée « luminosité de la scène ».The data or metadata that would be selected is the one that has a minimum "comparison function + cost" value, that is, the data "brightness of the scene".

Dans ces différents exemples, quelques fonctions de comparaison, ont été présentées ainsi qu'un exemple de coût. Cependant, il est possible de proposer n'importe quel type de fonction.In these various examples, some comparison functions have been presented as well as an example of cost. However, it is possible to offer any type of function.

Une fois la donnée ou la métadonnée obtenue, elle est utilisée pour améliorer l'état. Cette opération peut être effectuée de façon classique en utilisant par exemple les outils de fusion de données (i.e. filtre de Kalman, filtre particulaire) pour mettre à jour la valeur et la précision de l'état tandis que la fiabilité des grandeurs numériques de l'état est mise à jour en utilisant la règle de Bayes.Once the data or metadata is obtained, it is used to improve the state. This operation can be carried out in a conventional manner by using, for example, the data fusion tools (ie Kalman filter, particulate filter) to update the value and the accuracy of the state while the reliability of the digital quantities of the state is updated using the Bayes rule.

Les Figures et leurs descriptions faites ci-dessus illustrent l'invention plutôt qu'elles ne la limitent. En particulier, l'invention et ses différentes variantes, définies par les revendications ci-jointes, viennent d'être décrites en relation avec des exemples particuliers de scènes parfois très simples à des fins illustratives. Néanmoins, il est évident pour un homme du métier que l'invention peut être étendue à de multiples autres cas de scènes, dans des habitations, des commerces, des industries, des bâtiments à bureaux, des banques, des aéroports, des parkings, des gares, etc.The figures and their descriptions made above illustrate the invention rather than limiting it. In particular, the invention and its various variants, defined by the appended claims, have just been described in connection with particular examples of sometimes very simple scenes for illustrative purposes. Nevertheless, it is obvious to a person skilled in the art that the invention can be extended to many other cases of scenes, in dwellings, shops, industries, office buildings, banks, airports, car parks, stations, etc.

Les verbes "comprendre" et "comporter" n'excluent pas la présence d'autres éléments que ceux listés dans les revendications. Le mot "un" précédant un élément n'exclue pas la présence d'une pluralité de tels éléments.The verbs "understand" and "include" do not exclude the presence of elements other than those listed in the claims. The word "a" preceding an element does not exclude the presence of a plurality of such elements.

Claims (11)

  1. Scene surveillance method for a scene surveillance device with at least two dimensions, delimited by a known boundary and localised, said device comprising a central surveillance system, a plurality of sensors communicating with the scene under surveillance and with the central surveillance system, said central system comprising an update system allowing to carry out acquisitions of data, to provide metadata related to the object under surveillance, to determine the confidence level relative to the metadata and to detect an eventual alert condition, a comparator allowing to detect whether the confidence level corresponding to data representative of physical values present in the scene fulfils and admissible threshold, said method allowing the provision essentially in real time of a state of the scene; and including the steps consisting of:
    a) evaluate at a given time t, data representative of physical values present in the scene corresponding to the state in which the scene finds itself at the interval t based on data and metadata available at the preceding interval tt;
    b) memorise the data representative of newly obtained physical values present in the scene;
    c) verify with the aid of a comparator whether the confidence level of the data representative of physical values present in the scene fulfils the admissible threshold;
    d) if the confidence level fulfils the admissible threshold, the update system is in the inactive state and, after a preset time interval, the method continues at step a);
    e) if the confidence level does not fulfil the admissible threshold, the update system switches into the active state and an update cycle is triggered;
    f) the activation of the update system actions a step of sensors selection allowing the choice of at least one sensor allowing gathering of data or metadata whose corresponding confidence levels allows to approach or exceed the levels determined by the admissible threshold;
    g) data and/or metadata of the chosen sensor are received and considered to determine a new scene state computation step according to the following steps:
    h) compute, at a given time (t), the data representative of physical values present in the scene corresponding to the state in which the scene finds itself based on data and/or metadata of the chosen sensor obtained at this given time (t);
    i) memorise the real data of the physical values newly obtained;
    j) verify, with the aid of a comparison step, whether the confidence level of the real data of the physical values newly obtained fulfils the admissible threshold;
    k) if the real confidence level fulfils the admissible threshold, the update system switches to the inactive state and, after the preset time interval, the method continues at step a);
    l) if the real confidence level does not fulfil the admissible threshold, the update system remains in the inactive state, a new update cycle is triggered and the method continues at step f).
  2. Surveillance method according to claim 1, wherein the step of sensor selection allows the choice of the sensor that will provide a theoretical scene state that, compared with the admissible threshold, exhibits the lowest difference.
  3. Surveillance method according to one of claims 1 or 2, wherein, in the step of sensor selection, the confidence level of each data or metadata is compared, and the sensor whose confidence level is the highest is selected.
  4. Surveillance method according to one of claims 2 or 3, wherein, in the step of sensor selection, the difference with the admissible threshold is treated with a correction factor corresponding to the cost needed to obtain said difference.
  5. Surveillance method according to one of claims from 1 to 4, wherein the precision level of the quantities composing the system is added to the considered confidence level.
  6. Surveillance method according to one of claims from 2 to 4, wherein the data representative of physical values present in the scene are made available.
  7. Surveillance method according to any of the preceding claims, wherein the scene under surveillance is complex and comprises a plurality of sub-scenes connected with one another, and wherein, in at least one of the method steps, the data representative of physical values present in the scene of a sub-scene are used in step a) of estimate the data representative physical values present in the scene of another sub-scene, connected with the first.
  8. Surveillance method according to claim 7, wherein, if the data representative physical values present in the scene estimated from the first sub-scene reveal that no surveillance-related event is likely to eventuate at the level of the second sub-scene, the sensors of said second sup-scene are put into inactive mode.
  9. Surveillance method according to any of the preceding claims, wherein the sensors used are selected from a list including: a camera, a motion detector, a pressure sensor, a temperature sensor, a vibration sensor, a photoelectric cell, a laser beam, a thermal camera, a detector of opening of a door or a window or another access point that can be opened, an infrared sensor, a ultrasound sensor, a radar, an accelerometer, an inclinometer, a force sensor, a RFID sensor, an intrusion sensor like a glass-crash sensor, a badge reader, a magnetic sensor.
  10. Software comprising the programmed code elements to the execution of the method according to any of claims 1 to 9, when said software is loaded into an information system and executed by said information system.
  11. Software according to claim 10, as a recorded product on a support readable by an information system, including programmed code elements.
EP09807963A 2008-08-18 2009-08-04 Scene surveillance method and system Not-in-force EP2329474B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0804636A FR2935062A1 (en) 2008-08-18 2008-08-18 METHOD AND SYSTEM FOR MONITORING SCENES
PCT/IB2009/006462 WO2010020851A1 (en) 2008-08-18 2009-08-04 Scene surveillance method and system

Publications (2)

Publication Number Publication Date
EP2329474A1 EP2329474A1 (en) 2011-06-08
EP2329474B1 true EP2329474B1 (en) 2012-03-28

Family

ID=40512543

Family Applications (1)

Application Number Title Priority Date Filing Date
EP09807963A Not-in-force EP2329474B1 (en) 2008-08-18 2009-08-04 Scene surveillance method and system

Country Status (4)

Country Link
EP (1) EP2329474B1 (en)
AT (1) ATE551686T1 (en)
FR (1) FR2935062A1 (en)
WO (1) WO2010020851A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1563686B1 (en) * 2002-11-12 2010-01-06 Intellivid Corporation Method and system for tracking and behavioral monitoring of multiple objects moving through multiple fields-of-view
US8272053B2 (en) * 2003-12-18 2012-09-18 Honeywell International Inc. Physical security management system
EP2328131B1 (en) * 2005-03-25 2012-10-10 Sensormatic Electronics LLC Intelligent camera selection and object tracking
US20070096896A1 (en) * 2005-10-28 2007-05-03 Zingelewicz Virginia A System and method for securing an infrastructure

Also Published As

Publication number Publication date
FR2935062A1 (en) 2010-02-19
ATE551686T1 (en) 2012-04-15
WO2010020851A1 (en) 2010-02-25
EP2329474A1 (en) 2011-06-08

Similar Documents

Publication Publication Date Title
US7617167B2 (en) Machine vision system for enterprise management
EP2768389B1 (en) Method of detecting activity with a motion sensor, and corresponding device and computer program
EP3707676B1 (en) Method for estimating the installation of a camera in the reference frame of a three-dimensional scene, device, augmented reality system and associated computer program
FR2944630A1 (en) SYSTEM AND METHOD FOR TARGET LOCATION BY A CAMERA NETWORK
EP3506166A1 (en) Prediction of movement and topology for a network of cameras
EP3614306B1 (en) Method for facial localisation and identification and pose determination, from a three-dimensional view
EP2307948B1 (en) Interactive device and method of use
EP4033399B1 (en) Computer device and method for estimating the density of a crowd
EP3866064A1 (en) Method for authentication or identification of an individual
FR3074594A1 (en) AUTOMATIC EXTRACTION OF ATTRIBUTES OF AN OBJECT WITHIN A SET OF DIGITAL IMAGES
FR3011960A1 (en) METHOD FOR IDENTIFICATION FROM A SPATIAL AND SPECTRAL OBJECT MODEL
EP4070295A1 (en) Fraud detection system and method
EP3608836A1 (en) Method for obtaining a digital fingerprint image
EP0577491B1 (en) Process and device for monitoring a three-dimensional scene using imagery sensors
EP2193435A2 (en) Machine vision system for enterprise management
EP2329474B1 (en) Scene surveillance method and system
EP3926529B1 (en) Systems and methods for determining a number of persons in a vehicle
EP3881222A1 (en) Method for automatically detecting facial impersonation
EP2926294A1 (en) Method for detecting people and/or objects in a space
WO2008104208A1 (en) Method of identifying symbolic points on an image of a person's face
EP3491582B1 (en) Method for comparing objects positioned in the vicinity of one another, and associated device
FR3055163B1 (en) METHOD FOR DETECTING OBJECT IN KNOWN ENVIRONMENT AND DEVICE FOR DETECTING OBJECT
EP3783532A1 (en) Device for detecting persons in a drowning situation or a situation with risk of drowning
EP4235570A1 (en) Method, device and system for real time and multi-camera monitoring of a target object
FR2995430A1 (en) Interactive dressing room, has lighting device controlled by set of computer resources, and interaction object allowed to interact with set of computer resources in real-time in cabin via depth camera and display device

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20110317

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

AX Request for extension of the european patent

Extension state: AL BA RS

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

DAX Request for extension of the european patent (deleted)
GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 551686

Country of ref document: AT

Kind code of ref document: T

Effective date: 20120415

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: FRENCH

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 602009006199

Country of ref document: DE

Effective date: 20120524

REG Reference to a national code

Ref country code: NL

Ref legal event code: VDEP

Effective date: 20120328

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120628

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

LTIE Lt: invalidation of european patent or patent extension

Effective date: 20120328

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120629

REG Reference to a national code

Ref country code: AT

Ref legal event code: MK05

Ref document number: 551686

Country of ref document: AT

Kind code of ref document: T

Effective date: 20120328

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120728

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120730

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: AT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

BERE Be: lapsed

Owner name: EFFIDENCE

Effective date: 20120831

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

26N No opposition filed

Effective date: 20130103

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20120831

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 602009006199

Country of ref document: DE

Effective date: 20130103

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120709

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20120831

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120628

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20120804

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 602009006199

Country of ref document: DE

Representative=s name: WOHLMUTH, JOHANNES, DIPL.-PHYS., DE

Ref country code: DE

Ref legal event code: R082

Ref document number: 602009006199

Country of ref document: DE

Representative=s name: WOHLMUTH, JOHANNES, DIPL.-PHYS., CH

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20130831

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20130831

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20120804

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20090804

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20120328

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20150821

Year of fee payment: 7

Ref country code: GB

Payment date: 20150819

Year of fee payment: 7

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 8

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 602009006199

Country of ref document: DE

Representative=s name: WOHLMUTH, JOHANNES, DIPL.-PHYS., DE

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 602009006199

Country of ref document: DE

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20160804

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20160804

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170301

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 9

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20180731

Year of fee payment: 10

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190831