EP1705451A1 - Dispositif et procédé de localisatin et de perception d'un objet ou d'un évènement - Google Patents
Dispositif et procédé de localisatin et de perception d'un objet ou d'un évènement Download PDFInfo
- Publication number
- EP1705451A1 EP1705451A1 EP06290403A EP06290403A EP1705451A1 EP 1705451 A1 EP1705451 A1 EP 1705451A1 EP 06290403 A EP06290403 A EP 06290403A EP 06290403 A EP06290403 A EP 06290403A EP 1705451 A1 EP1705451 A1 EP 1705451A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- event
- zone
- uncertainty
- locating
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 11
- 238000006073 displacement reaction Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 12
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 239000007787 solid Substances 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 239000000779 smoke Substances 0.000 description 2
- 230000016571 aggressive behavior Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 206010037844 rash Diseases 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/147—Indirect aiming means based on detection of a firing weapon
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41H—ARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
- F41H11/00—Defence installations; Defence devices
- F41H11/02—Anti-aircraft or anti-guided missile or anti-torpedo defence installations or systems
Definitions
- the technical field of the present invention is that of devices and methods for detecting, locating and displaying an event or an object.
- a target such as an event or an object
- Various means of detecting a target are currently known: sensor detection and human surveillance. Detection by sensor makes it possible to monitor a specific event, for example a heat emission, a laser beam or a seismic shock. Unfortunately such sensors do not determine the exact position of the event but the direction (or azimuth) in which it is located with respect to the sensor. In addition, this direction is not always precisely defined, depending on the nature of the event or its environment and we define a half-cone representing the uncertainty zone where the event is located.
- Human surveillance consists of having an operator monitor, using observation means (binoculars, video cameras, etc.), the eventual occurrence of an event.
- observation means binoculars, video cameras, etc.
- Such a method although effective in determining the exact position of the event, is also challenging for the operators and requires the presence of several operators relaying regularly.
- a punctual event once it has been detected, it is sometimes too late to locate it because it is no longer visible.
- the object of the present invention is to provide a method and a device for detecting and visualizing quickly and accurately the location of an event or an object.
- the subject of the invention is therefore a method for locating and perceiving an event or an object, characterized in that a zone of uncertainty is determined in which the event or object detected by means of at least one sensor, and then associated with this area means of image capture, such as video cameras, may have recorded information located in said area.
- the images captured by the image capture means are recorded using a recording means.
- the sensors and image capturing means are synchronized and in that each detection event is dated in order to associate the images recorded simultaneously or previously with the detection by the cameras concerned by the zone. uncertainty.
- a correction ⁇ t is assigned between the date of detection of the event and the date of the images associated with the event depending on the nature of the event or the detected object.
- the displacement of the detected event or object and / or the displacement of the image capture means using displacement sensors is determined in order to associate in real time with the zone of uncertainty all the image capture means capable of capturing one or more images located in said zone.
- the invention also relates to a device for locating an event or an object comprising at least one sensor capable of determining an uncertainty zone in which the event or detected object is located, characterized in that includes at least one image capturing means, at least one image recording means produced by the one or more image capturing means and a means for synchronizing the sensor and the image capturing means and / or the means of registration.
- the device comprises a data merging means for associating with a detected event an uncertainty zone in which the event is located, as well as images produced by at least one capture means. images.
- the device comprises displacement sensors of the uncertainty zone making it possible to measure in real time the displacement of the uncertainty zone and to associate in permanence to an event detected a zone of uncertainty as well as images produced by at least one video camera.
- the device comprises sensors for moving or positioning the cameras, or the platform supporting these cameras, in order to know in real time the orientation of each camera and to associate permanently an event detected a zone of uncertainty as well as images produced by at least one video camera.
- the device comprises a man / machine interface allowing an operator to simultaneously view all the data relating to a detected event and to act on this data.
- a first advantage of the device according to the invention lies in the fact that it allows to quickly and automatically obtain a set of data relating to a detected event.
- Another advantage lies in the fact that it requires a reduced number of operators.
- Another advantage lies in the fact that the operators assigned to event monitoring no longer have to exercise continuous monitoring of the terrain but only to validate the information recorded by the device.
- Another advantage is that the operator can view past events.
- Another advantage lies in the fact that the operator can choose the displayed elements and adjust the display parameters.
- Figure 1 illustrates the operating environment of the invention.
- an event E is detected by a sensor 2
- the latter can not locate precisely the location of the event, but indicates a direction A, as well as a solid angle ⁇ of uncertainty.
- the uncertainty angle is a fact of a globally conical uncertainty zone.
- the solid angle that is to say a volume delimited in space by a cone.
- the direction A is defined in a reference linked to the sensor by its site and bearing angles which are known to the processing electronics because they are those given during the orientation of the sensor.
- the solid angle, or area of uncertainty is a construction feature of the sensor.
- the direction A and the solid angle ⁇ of uncertainty define a zone of uncertainty Z (or half-cone of uncertainty) in which the event is located.
- Z zone of uncertainty
- One of the technical problems to be solved by the invention is precisely that of associating the field C of a camera 3 with the zone Z where the event is located.
- the cameras 3 can be supported by the same platform (for example a building or a vehicle) or by different platforms (several vehicles, building + satellite, etc.).
- the fields Ca and Cc of the cameras 3a and 3c partially cover the zone Z where the event E has been detected.
- Figure 2 illustrates the principle of the invention.
- the invention is realized by a device 1 comprising sensors 2 capable of determining an uncertainty zone in which the event or the detected object is located, a plurality of image acquisition means 3, for example a video camera, an infra-red camera, and a means recording 5 images produced by the means 3 or acquisition of images.
- Synchronization means 4 makes it possible to synchronize the sensors 2 and the image acquisition means 3, that is to say to associate with each detection of a sensor 2 and with each image coming from a means 3, a date allowing to locate chronologically detections and images.
- the invention may also be realized by directly connecting each sensor 2 and each image acquisition means 3 to an individual recording means.
- the synchronization means 4 also makes it possible to date the recorded images as well as the events recorded by the sensor 2.
- the sensors 2 and the recording means 5 are connected to a computer 6.
- the senor 2 transmits to the computer 6 the information relating to the type of event, the direction A, or the uncertainty zone where this event is located and the time at which the event was captured. Furthermore, the computer 6 knows the directions A of the sensors 2 (site and bearing angles in a reference for example linked to a vehicle carrying the sensor) and the viewing directions of the different cameras 3 in this same frame. It is therefore able to determine by calculation which are the camera or cameras for observing the zone Z of uncertainty.
- the computer 6 associates with the detected event the signal picked up by the sensor 2 (for example a sound, a laser beam, an IR spectrum, a radar signal), the images located totally or partially in the uncertainty zone and produced at the moment the event was detected.
- the calculator 6 thus makes it possible to merge all the data relating to a reported event.
- a man / machine interface 7 (for example a video screen, a mouse and a keyboard, a touch screen) allows the operator to simultaneously view all the data relating to the captured event.
- the man / machine interface 7 also allows the operator to modify the data taken into account by the computer, to zoom or refocus images, loop the video of the event, select a filter to refine the data recorded, or any other operation on the stored data.
- a preferred mode of presentation of the data consists in displaying a mosaic of all the images (stills or video sequences) relating to the event, a representation of the origin and the type of signal picked up, as well as a control bar allowing to act simply and quickly on the presented data.
- the fix ⁇ t will be a function of the detected event and the type of sensor.
- ⁇ t will be very small (for example a few ms), whereas for a seismic or sound sensor, ⁇ t will be greater (for example several seconds).
- the corrective ⁇ t can obviously be adjustable by the operator by means of the man / machine interface 7.
- FIG. 3 illustrates an example of application of the invention.
- a projectile has been detected by a sensor (not shown in this figure).
- the projectile is in a zone of uncertainty Z linked to the sensor 9 and moves.
- the displacement of the projectile is measured by means of displacement sensors 9 of the projectile (for example a radar means).
- the computer therefore knows at any time the direction A and the uncertainty zone Z in which the projectile is located. Also knowing the orientations of the different cameras 3, 3 ', it is able to determine at any moment what is the camera allowing observe the zone of uncertainty Z.
- the locating device 1 affects the projectile detected zone Z (t ') and all cameras whose field partially or totally covers the zone Z (t'). It is therefore the camera 3 'which is then associated with the projectile located in the zone Z (t').
- This embodiment is particularly suitable for monitoring threats from a vehicle.
- the orientation calculations of the different directions can be made for a fixed vehicle as well as for a moving vehicle and in which the directions A of the sensors and the directions of the cameras evolve with respect to the position of the projectile but are at every moment known. and mastered.
- FIG. 4 illustrates another example of application of the invention.
- a fixed event has been detected by a sensor 2 and is in a zone of uncertainty Z.
- the cameras 3a and 3b are fixed on a movable platform 10 (here a satellite) which moves.
- a movable platform 10 here a satellite
- the field Cb of the camera 3b covers the zone Z
- the platform 10 has moved and the zone of uncertainty Z is no longer in the field Cb of the camera 3b, but in the field Ca of a camera 3a. It is therefore the camera 3a which is then associated with the event located in the zone Z.
- the displacement of the platform 10 is measured by means of displacement or position sensors, for example a GPS system.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
- Le secteur technique de la présente invention est celui des dispositifs et procédés de détection, de localisation et de visualisation d'un événement ou d'un objet.
- La détection d'une cible tel un événement ou un objet est nécessaire aussi bien dans le domaine militaire (agression, tir de missile, véhicules ennemis) que dans le domaine civil (surveillance des incendies, d'éruptions volcaniques,...). On connaît actuellement différents moyens de détection d'une cible: la détection par capteurs et la surveillance humaine. La détection par capteur permet de surveiller un événement précis, par exemple une émission de chaleur, un faisceau laser, ou encore une secousse sismique. Malheureusement de tels capteurs ne déterminent pas la position exacte de l'événement mais la direction (ou azimut) dans laquelle il se situe par rapport au capteur. De plus, cette direction n'est pas toujours définie avec précision, selon la nature de l'événement ou son environnement et on définit un demi-cône représentant la zone d'incertitude où se trouve l'événement. La surveillance humaine consiste à faire surveiller par un opérateur, à l'aide de moyens d'observation (jumelles, caméras vidéo,...), l'éventuelle apparition d'un événement. Une telle méthode, bien qu'efficace pour déterminer la position exacte de l'événement, est également éprouvante pour les opérateurs et nécessite la présence de plusieurs opérateurs se relayant régulièrement. De plus, lors d'un événement ponctuel, une fois ce dernier détecté, il est parfois trop tard pour le situer car il n'est plus visible.
- Le but de la présente invention est de fournir un procédé et un dispositif permettant de détecter et de visualiser rapidement et précisément la localisation d'un événement ou d'un objet.
- L'invention a donc pour objet un procédé de localisation et de perception d'un événement ou d'un objet, caractérisé en ce qu'on détermine une zone d'incertitude dans laquelle se trouve l'événement ou objet détecté au moyen d'au moins un capteur, puis on associe à cette zone des moyens de capture d'images, telles des caméras vidéos, susceptibles d'avoir enregistré une information située dans ladite zone.
- Selon une caractéristique de l'invention, on enregistre les images capturées par les moyens de capture d'images à l'aide d'un moyen d'enregistrement.
- Selon une autre caractéristique de l'invention, les capteurs et moyens de capture d'images sont synchronisés et en ce que chaque événement de détection est daté afin de lui associer les images enregistrées simultanément ou précédemment à la détection par les caméras concernées par la zone d'incertitude.
- Selon encore une autre caractéristique de l'invention, on affecte un correctif Δt entre la date de détection de l'événement et la date des images associées à l'événement en fonction de la nature de l'événement ou de l'objet détecté.
- Selon une autre caractéristique de l'invention, on détermine le déplacement de l'événement ou objet détecté et/ou le déplacement des moyens de capture d'images à l'aide de capteurs de déplacement, afin d'associer en temps réel à la zone d'incertitude tous les moyens de capture d'images susceptibles de capturer une ou plusieurs images situées dans ladite zone.
- L'invention concerne également un dispositif de localisation d'un événement ou d'un objet comportant au moins un capteur susceptible de déterminer une zone d'incertitude dans lequel se trouve l'événement ou l'objet détecté, caractérisé en ce qu'il comporte au moins un moyen de capture d'images, au moins un moyen d'enregistrement des images produites par le ou les moyen de capture d'images et un moyen de synchronisation du capteur et du moyen de capture d'images et/ou du moyen d'enregistrement.
- Selon une autre caractéristique de l'invention, le dispositif comporte un moyen de fusion de données permettant d'associer à un événement détecté une zone d'incertitude dans laquelle se situe l'événement ainsi que des images produites par au moins un moyen de capture d'images.
- Selon une autre caractéristique de l'invention, le dispositif comporte des capteurs de déplacement de la zone d'incertitude permettant de mesurer en temps réel le déplacement de la zone d'incertitude et d'associer en permanence à un événement détecté une zone d'incertitude ainsi que des images produites par au moins une caméra vidéo.
- Selon une autre caractéristique de l'invention, le dispositif comporte des capteurs de déplacement ou de position des caméras, ou de la plate-forme supportant ces caméras, afin de connaître en temps réel l'orientation de chaque caméra et d'associer en permanence à un événement détecté une zone d'incertitude ainsi que des images produites par au moins une caméra vidéo.
- Selon une autre caractéristique de l'invention, le dispositif comporte une interface homme/machine permettant à un opérateur de visualiser simultanément toutes les données relatives à un événement détecté et à agir sur ces données.
- Un tout premier avantage du dispositif selon l'invention réside le fait qu'il permet d'obtenir rapidement et automatiquement un ensemble de données relatives à un événement détecté.
- Un autre avantage réside dans le fait qu'il nécessite un nombre d'opérateurs réduit.
- Un autre avantage réside dans le fait que les opérateurs affectés à la surveillance d'événement n'ont plus à exercer une surveillance continue du terrain mais uniquement à valider les informations relevées par le dispositif.
- Un autre avantage réside dans le fait que l'opérateur peut visualiser des événements passés.
- Un autre avantage réside dans le fait que l'opérateur peut choisir les éléments visualisés et régler les paramètres de visualisation.
- D'autres caractéristiques, détails et avantages de l'invention ressortiront plus clairement de la description donnée ci-après à titre indicatif en relation avec des dessins dans lesquels :
- la figure 1 représente schématiquement l'environnement de fonctionnement de l'invention,
- la figure 2 est une représentation schématique du principe de l'invention, et
- les figures 3 et 4 illustrent des exemples d'application de l'invention.
- La figure 1 illustre l'environnement de fonctionnement de l'invention. Lorsqu'un événement E est détecté par un capteur 2, ce dernier ne peut situer précisément la localisation de l'événement, mais indique une direction A, ainsi qu'un angle solide α d'incertitude. Dans l'espace, l'angle d'incertitude est un fait une zone d'incertitude globalement conique. Par la suite, dans la description et lorsqu'on parlera de zone, on comprendra l'angle solide, c'est à dire un volume délimité dans l'espace par un cône. La direction A est définie dans un repère lié au capteur par ses angles de site et de gisement qui sont connus de l'électronique de traitement car ils sont ceux donnés lors de l'orientation du capteur. L'angle solide, ou zone d'incertitude, est une caractéristique de construction du capteur. La direction A et l'angle solide α d'incertitude définissent une zone d'incertitude Z (ou demi-cône d'incertitude) dans laquelle se situe l'événement. Pour connaître précisément la localisation de l'événement, il faut qu'un ou plusieurs opérateurs scrutent les images filmées par des caméras vidéos 3, des capteurs LCD, un appareil photographique prenant des photos à intervalles réguliers, ou tout autre moyen de capture d'images.
- Cependant ces moyens de capture d'images peuvent être nombreux et il n'est pas évident pour l'opérateur de savoir quelle caméra est dirigée vers l'événement détecté. Un des problèmes techniques que se propose de résoudre l'invention est justement celui d'associer le champ C d'une caméra 3 avec la zone Z où se situe l'événement. Les caméras 3 peuvent être supportées par une même plate-forme (par exemple un bâtiment ou un véhicule) ou par différentes plates-formes (plusieurs véhicules, bâtiment + satellite, etc.). Dans cet exemple, les champs Ca et Cc des caméras 3a et 3c couvrent partiellement la zone Z où a été détecté l'événement E.
- La figure 2 illustre le principe de l'invention. L'invention est réalisée par un dispositif 1 comportant des capteurs 2 susceptibles de déterminer une zone d'incertitude dans lequel se trouve l'événement ou l'objet détecté, plusieurs moyens 3 d'acquisition d'images, par exemple une caméra vidéo, une caméra infra-rouge, et un moyen d'enregistrement 5 des images produites par le ou les moyens 3 d'acquisition d'images. Un moyen de synchronisation 4 permet de synchroniser les capteurs 2 et les moyens 3 d'acquisition d'images, c'est à dire d'associer à chaque détection d'un capteur 2 et à chaque image provenant d'un moyen3, une date permettant de situer chronologiquement les détections et les images. On pourra également réaliser l'invention en reliant directement chaque capteur 2 et chaque moyens 3 d'acquisition d'images à un moyen d'enregistrement 5 individuel. Le moyen de synchronisation 4 permet également de dater les images enregistrées ainsi que les événements relevés par le capteur 2. Les capteurs 2 et le moyen d'enregistrement 5 sont reliés à un calculateur 6.
- Ainsi, lorsqu'un événement ou un objet est détecté, le capteur 2 transmet au calculateur 6 les informations relatives au type d'événement, à la direction A, ou la zone d'incertitude où se situe cet événement et l'heure à laquelle l'événement a été capté. Par ailleurs, le calculateur 6 connaît les directions A des capteurs 2 (angles de site et de gisement dans un repère par exemple lié à un véhicule portant le capteur) ainsi que les directions d'observation des différentes caméras 3 dans ce même repère. Il est donc capable de déterminer par calcul quelles sont la ou les caméras permettant d'observer la zone Z d'incertitude.
- Le calculateur 6 associe à l'événement détecté le signal relevé par le capteur 2 (par exemple un son, un faisceau laser, un spectre IR, un signal radar), les images situées totalement ou partiellement dans la zone d'incertitude et réalisées à l'instant à laquelle l'événement a été détecté. Le calculateur 6 permet ainsi de réaliser la fusion de l'ensemble des données relatives à un événement relevé. Une interface homme/machine 7 (par exemple un écran vidéo, une souris et un clavier, un écran tactile) permet à l'opérateur de visualiser simultanément toutes les données relatives à l'événement capté.
- L'interface homme/machine 7 permet également à l'opérateur de modifier les données prises en compte par le calculateur, d'effectuer un zoom ou un recentrage des images, de diffuser en boucle la vidéo de l'événement, de sélectionner un filtre afin d'affiner les données relevées, ou tout autre opération sur les données stockées. Un mode préférentiel de présentation des données consiste à afficher une mosaïque de toutes les images (fixes ou séquences vidéo) relatives à l'événement, d'une représentation de l'origine et du type de signal capté, ainsi qu'une barre de commande permettant d'agir simplement et rapidement sur les données présentées.
- Dans une variante de réalisation de l'invention, et en fonction de l'événement capté, on pourra affecter un correctif Δt entre la date (ou heure) de détection de l'événement et la date (ou heure) prise en compte pour la visualisation de l'image associée à l'événement. Ainsi, si par exemple dans le cas de la surveillance d'un tir de projectile, on détecte une fumée à un instant t, on peut considérer que le projectile a été tiré quelques secondes (x secondes) avant la détection de la fumée, les images associées à l'événement seront alors celles prises à l'instant t-x. Le correctif Δt sera fonction de l'événement détecté et du type de capteur. Pour un détecteur du type détecteur laser, Δt sera très faible (par exemple quelques ms), alors que pour un capteur sismique ou sonore, Δt sera plus important (par exemple plusieurs secondes). Le correctif Δt pourra évidemment être ajustable par l'opérateur au moyen de l'interface homme/machine 7.
- La figure 3 illustre un exemple d'application de l'invention.
- Dans cet exemple, un projectile a été détecté par un capteur (non représenté sur cette figure). Le projectile se situe dans une zone d'incertitude Z liée au capteur 9 et se déplace. Le déplacement du projectile est mesuré au moyen de capteurs de déplacement 9 du projectile (par exemple un moyen radar). Le calculateur connaît donc à tout instant la direction A et la zone d'incertitude Z dans laquelle se trouve le projectile. Connaissant par ailleurs les orientations des différentes caméras 3, 3', il est capable de déterminer à tout instant quelle est la caméra permettant d'observer la zone d'incertitude Z.
- Ainsi au moment t où le projectile est détecté, le champ C de la caméra 3 couvre la zone Z(t), alors que quelques instants plus tard, au moment t', la zone d'incertitude s'est déplacée et n'est plus dans le champ C de la caméra 3, mais dans le champ C' d'une caméra 3'. Le dispositif de localisation 1 selon l'invention affecte alors au projectile détecté la zone Z(t') et l'ensemble des caméras dont le champ couvre partiellement ou totalement la zone Z(t'). C'est donc la caméra 3' qui est alors associée au projectile situé dans la zone Z(t'). Ce mode de réalisation est plus particulièrement adapté à la surveillance de menaces à partir d'un véhicule.
- Les calculs d'orientation des différentes directions pourront être faits aussi bien pour un véhicule fixe que pour un véhicule en mouvement et dans lequel les directions A des capteurs et les directions des caméras évoluent par rapport à la position du projectile mais sont à chaque instant connus et maîtrisés.
- La figure 4 illustre un autre exemple d'application de l'invention.
- Dans cet exemple, un événement fixe a été détecté par un capteur 2 et se situe dans une zone d'incertitude Z. Les caméras 3a et 3b sont fixées sur une plate-forme mobile 10 (ici un satellite) qui se déplace. Ainsi au moment t où l'événement est détecté, le champ Cb de la caméra 3b couvre la zone Z, alors que quelques instants plus tard, au moment t', la plate-forme 10 s'est déplacée et la zone d'incertitude Z n'est plus dans le champ Cb de la caméra 3b, mais dans le champ Ca d'une caméra 3a. C'est donc la caméra 3a qui est alors associée à l'événement situé dans la zone Z. Le déplacement de la plate-forme 10 est mesuré au moyen de capteurs de déplacement ou de position, par exemple un système GPS.
- On pourra aussi, dans le cas de caméras mobiles par rapport à la plate-forme 10, disposer des capteurs individuels de déplacement pour chaque caméra. L'information recherchée étant la position relative de l'événement par rapport au champ couvert par chaque caméra, on prendra en compte de manière conjointe le déplacement de la cible (événement ou objet), le déplacement de la plate-forme ainsi que le déplacement de chaque caméra. L'utilisation d'un satellite comme plate-forme mobile a été donnée à titre illustratif, on pourra également disposer les caméras ou capteurs sur d'autres types de plates-formes mobiles, par exemple un véhicule blindé, un avion, un bateau,...
Claims (10)
- Procédé de localisation et de perception d'un événement ou d'un objet, caractérisé en ce qu'on détermine une zone d'incertitude (Z) dans laquelle se trouve l'événement ou objet détecté au moyen d'au moins un capteur (2), puis on associe à cette zone des moyens de capture d'images, telles des caméras vidéos (3), susceptibles d'avoir enregistré une information située dans ladite zone (Z).
- Procédé de localisation d'un événement ou d'un objet selon la revendication 1, caractérisé en ce qu'on enregistre les images capturées par les moyens de capture d'images (3) à l'aide d'un moyen d'enregistrement (5).
- Procédé de localisation d'un événement ou d'un objet selon la revendication 2, caractérisé en ce que les capteurs (2) et moyens de capture d'images (3) sont synchronisés et en ce que chaque événement de détection est daté afin de lui associer les images enregistrées simultanément ou précédemment à la détection par les caméras (3) concernées par la zone d'incertitude (Z).
- Procédé de localisation d'un événement ou d'un objet selon la revendication 3, caractérisé en ce qu'on affecte un correctif Δt entre la date de détection de l'événement et la date des images associées à l'événement en fonction de la nature de l'événement ou de l'objet détecté.
- Procédé de localisation d'un événement ou d'un objet selon l'une des revendications précédentes caractérisé en ce qu'on détermine le déplacement de l'événement ou objet détecté et/ou le déplacement des moyens de capture d'images (3) à l'aide de capteurs de déplacement, afin d'associer en temps réel à la zone d'incertitude (Z) tous les moyens de capture d'images (3) susceptibles de capturer une ou plusieurs images situées dans ladite zone (Z).
- Dispositif de localisation d'un événement ou d'un objet comportant au moins un capteur (2) susceptible de déterminer une zone d'incertitude dans lequel se trouve l'événement ou l'objet détecté, caractérisé en ce qu'il comporte au moins un moyen de capture d'images (3), au moins un moyen d'enregistrement (5) des images produites par le ou les moyen de capture d'images (3) et un moyen de synchronisation (4) du capteur (2) et du moyen de capture d'images (3) et/ou du moyen d'enregistrement (5).
- Dispositif de localisation d'un événement ou d'un objet selon la revendication 6, caractérisé en ce qu'il comporte un moyen (6) de fusion de données permettant d'associer à un événement (E) détecté une zone d'incertitude (Z) dans laquelle se situe l'événement (E) ainsi que des images produites par au moins un moyen de capture d'images (3).
- Dispositif de localisation d'un événement ou d'un objet selon la revendication 7, caractérisé en ce qu'il comporte des capteurs de déplacement de la zone d'incertitude (Z) permettant de mesurer en temps réel le déplacement de la zone d'incertitude et d'associer en permanence à un événement détecté une zone d'incertitude (Z) ainsi que des images produites par au moins une caméra vidéo (3).
- Dispositif de localisation d'un événement ou d'un objet selon la revendication 7 ou 8, caractérisé en ce qu'il comporte des capteurs de déplacement ou de position des caméras (3), ou de la plate-forme (10) supportant ces caméras, afin de connaître en temps réel l'orientation de chaque caméra (3) et d'associer en permanence à un événement détecté une zone d'incertitude (Z) ainsi que des images produites par au moins une caméra vidéo (3).
- Dispositif de localisation d'un événement ou d'un objet selon la revendication 6 à 9 caractérisé en ce qu'il comporte une interface homme/machine (7) permettant à un opérateur de visualiser simultanément toutes les données relatives à un événement détecté et à agir sur ces données.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR0502764A FR2883382A1 (fr) | 2005-03-21 | 2005-03-21 | Dispositif et procede de localisation et de perception d'un objet ou d'un evenement |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| EP1705451A1 true EP1705451A1 (fr) | 2006-09-27 |
Family
ID=35809745
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| EP06290403A Withdrawn EP1705451A1 (fr) | 2005-03-21 | 2006-03-13 | Dispositif et procédé de localisatin et de perception d'un objet ou d'un évènement |
Country Status (2)
| Country | Link |
|---|---|
| EP (1) | EP1705451A1 (fr) |
| FR (1) | FR2883382A1 (fr) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0292147A2 (fr) | 1987-05-04 | 1988-11-23 | Britax Rainsfords Pty. Ltd. | Dispositif de montage d'un miroir |
| EP0602979A1 (fr) * | 1992-12-17 | 1994-06-22 | Trw Inc. | Procédé et dispositif de surveillance de missile |
| US5473364A (en) * | 1994-06-03 | 1995-12-05 | David Sarnoff Research Center, Inc. | Video technique for indicating moving objects from a movable platform |
| EP0714081A1 (fr) | 1994-11-22 | 1996-05-29 | Sensormatic Electronics Corporation | Système de surveillance à vidéo |
| WO2001084844A1 (fr) | 2000-04-28 | 2001-11-08 | Network Korea Co., Ltd. | Systeme permettant la poursuite et la surveillance d'une pluralite d'objets en deplacement |
| US6359647B1 (en) | 1998-08-07 | 2002-03-19 | Philips Electronics North America Corporation | Automated camera handoff system for figure tracking in a multiple camera system |
-
2005
- 2005-03-21 FR FR0502764A patent/FR2883382A1/fr active Pending
-
2006
- 2006-03-13 EP EP06290403A patent/EP1705451A1/fr not_active Withdrawn
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0292147A2 (fr) | 1987-05-04 | 1988-11-23 | Britax Rainsfords Pty. Ltd. | Dispositif de montage d'un miroir |
| EP0602979A1 (fr) * | 1992-12-17 | 1994-06-22 | Trw Inc. | Procédé et dispositif de surveillance de missile |
| US5473364A (en) * | 1994-06-03 | 1995-12-05 | David Sarnoff Research Center, Inc. | Video technique for indicating moving objects from a movable platform |
| EP0714081A1 (fr) | 1994-11-22 | 1996-05-29 | Sensormatic Electronics Corporation | Système de surveillance à vidéo |
| US6359647B1 (en) | 1998-08-07 | 2002-03-19 | Philips Electronics North America Corporation | Automated camera handoff system for figure tracking in a multiple camera system |
| WO2001084844A1 (fr) | 2000-04-28 | 2001-11-08 | Network Korea Co., Ltd. | Systeme permettant la poursuite et la surveillance d'une pluralite d'objets en deplacement |
Also Published As
| Publication number | Publication date |
|---|---|
| FR2883382A1 (fr) | 2006-09-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7973658B2 (en) | Illumination and detection architecture | |
| JP6449894B2 (ja) | シーンのイベントを検出および分類する方法 | |
| FR2557971A1 (fr) | Systeme de surveillance par avion sans pilote permettant la localisation d'objectif | |
| FR2921149A1 (fr) | Procede de telemetrie sur image stabilisee | |
| EP2495531B1 (fr) | Procédé de mesure de la stabilité d'une ligne de visée et senseur stellaire correspondant | |
| US7233546B2 (en) | Flash event detection with acoustic verification | |
| EP2947628A1 (fr) | Procédé de traitement d'informations locales | |
| EP2732238B1 (fr) | Procede de representation des mouvements eventuels d'une structure pour un appareil de type ordiphone | |
| WO2012007692A1 (fr) | Procédé et dispositif d'imagerie bi-spectral multifonctions | |
| EP3928126A1 (fr) | Dispositif et procédé d'analyse de tir | |
| EP1705451A1 (fr) | Dispositif et procédé de localisatin et de perception d'un objet ou d'un évènement | |
| US10175030B2 (en) | Threat detection | |
| KR102253237B1 (ko) | 수중 자유낙하 속도 대응 해저 퇴적물 고속촬영 시스템 및 이를 이용한 수중 자유낙하 속도 대응 해저 퇴적물 고속촬영 방법 | |
| FR2979022A1 (fr) | Dispositif de visee a chercheur de nord stellaire et procede de recalage d'un compas magnetique d'un tel dispositif | |
| EP3048791B1 (fr) | Procédé d'affichage d'au moins une fenêtre d'une scène tridimensionnelle, produit programme d'ordinateur et système d'affichage associés | |
| GB2280563A (en) | Apparatus for detecting and indicating the position of a source of transient optical radiation | |
| EP3884656B1 (fr) | Appareil et procédé pour observer une scène comportant une cible | |
| DE102022105056A1 (de) | Mobiler Gassensor und Verfahren zur Detektion und Abbildung von Gasemissionen | |
| FR3062201B3 (fr) | Ciblerie electronique en temps reel pour le tir a distance reglementaire ou distance raccourcie puis emulee | |
| WO1999044178A1 (fr) | Dispositif de surveillance d'une enceinte, notamment de la soute d'un avion | |
| JP2012142673A (ja) | 撮像装置 | |
| Abdulla et al. | IAU374: Lunar Impact Events by Sharjah Lunar Impact Observatory (SLIO) in 2020 | |
| FR3120959B1 (fr) | Procede et systeme de visualisation et de gestion d'une situation de l'environnement d'un aeronef | |
| EP2194353B1 (fr) | Procédé et système de détection d'engins explosifs improvisés ou analogues. | |
| FR3124608A1 (fr) | Dispositif d'observation a voies optronique et optique independantes et vehicule equipe d'un tel dispositif |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
| AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR |
|
| AX | Request for extension of the european patent |
Extension state: AL BA HR MK YU |
|
| RAP1 | Party data changed (applicant data changed or rights of an application transferred) |
Owner name: NEXTER SYSTEMS |
|
| 17P | Request for examination filed |
Effective date: 20070323 |
|
| AKX | Designation fees paid |
Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR |
|
| 17Q | First examination report despatched |
Effective date: 20070823 |
|
| GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
| STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION HAS BEEN WITHDRAWN |
|
| 18W | Application withdrawn |
Effective date: 20090514 |