FR2883382A1 - Dispositif et procede de localisation et de perception d'un objet ou d'un evenement - Google Patents

Dispositif et procede de localisation et de perception d'un objet ou d'un evenement Download PDF

Info

Publication number
FR2883382A1
FR2883382A1 FR0502764A FR0502764A FR2883382A1 FR 2883382 A1 FR2883382 A1 FR 2883382A1 FR 0502764 A FR0502764 A FR 0502764A FR 0502764 A FR0502764 A FR 0502764A FR 2883382 A1 FR2883382 A1 FR 2883382A1
Authority
FR
France
Prior art keywords
event
zone
detected
locating
uncertainty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0502764A
Other languages
English (en)
Inventor
Luc Miotti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Giat Industries SA
Original Assignee
Giat Industries SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Giat Industries SA filed Critical Giat Industries SA
Priority to FR0502764A priority Critical patent/FR2883382A1/fr
Priority to EP06290403A priority patent/EP1705451A1/fr
Publication of FR2883382A1 publication Critical patent/FR2883382A1/fr
Pending legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/147Indirect aiming means based on detection of a firing weapon
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • F41H11/02Anti-aircraft or anti-guided missile or anti-torpedo defence installations or systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

L'invention concerne un procédé de localisation et de perception d'un événement ou d'un objet, caractérisé en ce qu'on détermine une zone d'incertitude dans laquelle se trouve l'événement ou objet détecté au moyen d'au moins un capteur (2), puis on associe à cette zone des moyens de capture d'images, telles des caméras vidéos (3), susceptibles d'avoir enregistré une information située dans ladite zone.L'invention concerne également un dispositif de localisation d'un événement ou d'un objet comportant au moins un capteur (2) susceptible de déterminer une zone d'incertitude dans lequel se trouve l'événement ou l'objet détecté, caractérisé en ce qu'il comporte au moins un moyen de capture d'images (3), au moins un moyen d'enregistrement (5) des images produites par le ou les moyen de capture d'images (3) et un moyen de synchronisation (4) du capteur (2) et du moyen de capture d'images (3) et/ou du moyen d'enregistrement (5).Application à la sécurité civile et à la surveillance militaire.

Description

Le secteur technique de la présente invention est celui des dispositifs et
procédés de détection, de localisation et de visualisation d'un événement ou d'un objet.
La détection d'une cible tel un événement ou un objet est nécessaire aussi bien dans le domaine militaire (agression, tir de missile, véhicules ennemis) que dans le domaine civil (surveillance des incendies, d'éruptions volcaniques,...). On connaît actuellement différents moyens de détection d'une cible: la détection par capteurs et la surveillance humaine.
La détection par capteur permet de surveiller un événement précis, par exemple une émission de chaleur, un faisceau laser, ou encore une secousse sismique. Malheureusement de tels capteurs ne déterminent pas la position exacte de l'événement mais la direction (ou azimut) dans laquelle il se situe par rapport au capteur. De plus, cette direction n'est pas toujours définie avec précision, selon la nature de l'événement ou son environnement et on définit un demi-cône représentant la zone d'incertitude où se trouve l'événement. La surveillance humaine consiste à faire surveiller par un opérateur, à l'aide de moyens d'observation (jumelles, caméras vidéo,...), l'éventuelle apparition d'un événement. Une telle méthode, bien qu'efficace pour déterminer la position exacte de l'événement, est également éprouvante pour les opérateurs et nécessite la présence de plusieurs opérateurs se relayant régulièrement. De plus, lors d'un événement ponctuel, une fois ce dernier détecté, il est parfois trop tard pour le situer car il n'est plus visible.
Le but de la présente invention est de fournir un procédé et un dispositif permettant de détecter et de visualiser rapidement et précisément la localisation d'un événement ou d'un objet.
L'invention a donc pour objet un procédé de localisation et de perception d'un événement ou d'un objet, caractérisé en ce qu'on détermine une zone d'incertitude dans laquelle se trouve l'événement ou objet détecté au moyen d'au moins un capteur, puis on associe à cette zone des moyens de capture d'images, telles des caméras vidéos, susceptibles d'avoir enregistré une information située dans ladite zone.
Selon une caractéristique de l'invention, on enregistre les images capturées par les moyens de capture d'images à l'aide d'un moyen d'enregistrement.
Selon une autre caractéristique de l'invention, les capteurs et moyens de capture d'images sont synchronisés et en ce que chaque événement de détection est daté afin de lui associer les images enregistrées simultanément ou précédemment à la détection par les caméras concernées par la zone d'incertitude.
Selon encore une autre caractéristique de l'invention, on affecte un correctif At entre la date de détection de l'événement et la date des images associées à l'événement en fonction de la nature de l'événement ou de l'objet détecté.
Selon une autre caractéristique de l'invention, on détermine le déplacement de l'événement ou objet détecté et/ou le déplacement des moyens de capture d'images à l'aide de capteurs de déplacement, afin d'associer en temps réel à la zone d'incertitude tous les moyens de capture d'images susceptibles de capturer une ou plusieurs images situées dans ladite zone.
L'invention concerne également un dispositif de localisation d'un événement ou d'un objet comportant au moins un capteur susceptible de déterminer une zone d'incertitude dans lequel se trouve l'événement ou l'objet détecté, caractérisé en ce qu'il comporte au moins un moyen de capture d'images, au moins un moyen d'enregistrement des images produites par le ou les moyen de capture d'images et un moyen de synchronisation du capteur et du moyen de capture d'images et/ou du moyen d'enregistrement.
Selon une autre caractéristique de l'invention, le dispositif comporte un moyen de fusion de données permettant d'associer à un événement détecté une zone d'incertitude dans laquelle se situe l'événement ainsi que des images produites par au moins un moyen de capture d'images.
Selon une autre caractéristique de l'invention, le dispositif comporte des capteurs de déplacement de la zone d'incertitude permettant de mesurer en temps réel le déplacement de la zone d'incertitude et d'associer en permanence à un événement détecté une zone d'incertitude ainsi que des images produites par au moins une caméra vidéo.
Selon une autre caractéristique de l'invention, le dispositif comporte des capteurs de déplacement ou de position des caméras, ou de la plate- forme supportant ces caméras, afin de connaître en temps réel l'orientation de chaque caméra et d'associer en permanence à un événement détecté une zone d'incertitude ainsi que des images produites par au moins une caméra vidéo.
Selon une autre caractéristique de l'invention, le dispositif comporte une interface homme/machine permettant à un opérateur de visualiser simultanément toutes les données relatives à un événement détecté et à agir sur ces données.
Un tout premier avantage du dispositif selon l'invention réside le fait qu'il permet d'obtenir rapidement et automatiquement un ensemble de données relatives à un événement détecté.
Un autre avantage réside dans le fait qu'il nécessite un nombre d'opérateurs réduit.
Un autre avantage réside dans le fait que les opérateurs affectés à la surveillance d'événement n'ont plus à exercer une surveillance continue du terrain mais uniquement à valider les informations relevées par le dispositif.
Un autre avantage réside dans le fait que l'opérateur peut visualiser des événements passés.
Un autre avantage réside dans le fait que l'opérateur peut choisir les éléments visualisés et régler les paramètres de visualisation.
D'autres caractéristiques, détails et avantages de l'invention ressortiront plus clairement de la description donnée ci-après à titre indicatif en relation avec des dessins dans lesquels: - la figure 1 représente schématiquement l'environnement de fonctionnement de l'invention, - la figure 2 est une représentation schématique du principe de l'invention, et - les figures 3 et 4 illustrent des exemples d'application de l'invention.
La figure 1 illustre l'environnement de fonctionnement de l'invention. Lorsqu'un événement E est détecté par un capteur 2, ce dernier ne peut situer précisément la localisation de l'événement, mais indique une direction A, ainsi qu'un angle solide a d'incertitude. Dans l'espace, l'angle d'incertitude est un fait une zone d'incertitude globalement conique. Par la suite, dans la description et lorsqu'on parlera de zone, on comprendra l'angle solide, c'est à dire un volume délimité dans l'espace par un cône. La direction A est définie dans un repère lié au capteur par ses angles de site et de gisement qui sont connus de l'électronique de traitement car ils sont ceux donnés lors de l'orientation du capteur. L'angle solide, ou zone d'incertitude, est une caractéristique de construction du capteur. La direction A et l'angle solide a d'incertitude définissent une zone d'incertitude Z (ou demi-cône d'incertitude) dans laquelle se situe l'événement. Pour connaître précisément la localisation de l'événement, il faut qu'un ou plusieurs opérateurs scrutent les images filmées par des caméras vidéos 3, des capteurs LCD, un appareil photographique prenant des photos à intervalles réguliers, ou tout autre moyen de capture d'images.
Cependant ces moyens de capture d'images peuvent être nombreux et il n'est pas évident pour l'opérateur de savoir quelle caméra est dirigée vers l'événement détecté. Un des problèmes techniques que se propose de résoudre l'invention est justement celui d'associer le champ C d'une caméra 3 avec la zone Z où se situe l'événement. Les caméras 3 peuvent être supportées par une même plate-forme (par exemple un bâtiment ou un véhicule) ou par différentes plates-formes (plusieurs véhicules, bâtiment + satellite, etc.). Dans cet exemple, les champs Ca et Cc des caméras 3a et 3c couvrent partiellement la zone Z où a été détecté l'événement E. La figure 2 illustre le principe de l'invention. L'invention est réalisée par un dispositif 1 comportant des capteurs 2 susceptibles de déterminer une zone d'incertitude dans lequel se trouve l'événement ou l'objet détecté, plusieurs moyens 3 d'acquisition d'images, par exemple une caméra vidéo, une caméra infra-rouge, et un moyen d'enregistrement 5 des images produites par le ou les moyens 3 d'acquisition d'images. Un moyen de synchronisation 4 permet de synchroniser les capteurs 2 et les moyens 3 d'acquisition d'images, c'est à dire d'associer à chaque détection d'un capteur 2 et à chaque image provenant d'un moyen3, une date permettant de situer chronologiquement les détections et les images. On pourra également réaliser l'invention en reliant directement chaque capteur 2 et chaque moyens 3 d'acquisition d'images à un moyen d'enregistrement 5 individuel. Le moyen de synchronisation 4 permet également de dater les images enregistrées ainsi que les événements relevés par le capteur 2. Les capteurs 2 et le moyen d'enregistrement 5 sont reliés à un calculateur 6.
Ainsi, lorsqu'un événement ou un objet est détecté, le capteur 2 transmet au calculateur 6 les informations relatives au type d'événement, à la direction A, ou la zone d'incertitude où se situe cet événement et l'heure à laquelle l'événement a été capté. Par ailleurs, le calculateur 6 connaît les directions A des capteurs 2 (angles de site et de gisement dans un repère par exemple lié à un véhicule portant le capteur) ainsi que les directions d'observation des différentes caméras 3 dans ce même repère. Il est donc capable de déterminer par calcul quelles sont la ou les caméras permettant d'observer la zone Z d'incertitude.
Le calculateur 6 associe à l'événement détecté le signal relevé par le capteur 2 (par exemple un son, un faisceau laser, un spectre IR, un signal radar), les images situées totalement ou partiellement dans la zone d'incertitude et réalisées à l'instant à laquelle l'événement a été détecté.
Le calculateur 6 permet ainsi de réaliser la fusion de l'ensemble des données relatives à un événement relevé. Une interface homme/machine 7 (par exemple un écran vidéo, une souris et un clavier, un écran tactile) permet à l'opérateur de visualiser simultanément toutes les données relatives à l'événement capté.
L'interface homme/machine 7 permet également à l'opérateur de modifier les données prises en compte par le calculateur, d'effectuer un zoom ou un recentrage des images, de diffuser en boucle la vidéo de l'événement, de sélectionner un filtre afin d'affiner les données relevées, ou tout autre opération sur les données stockées. Un mode préférentiel de présentation des données consiste à afficher une mosaïque de toutes les images (fixes ou séquences vidéo) relatives à l'événement, d'une représentation de l'origine et du type de signal capté, ainsi qu'une barre de commande permettant d'agir simplement et rapidement sur les données présentées.
Dans une variante de réalisation de l'invention, et en fonction de l'événement capté, on pourra affecter un correctif At entre la date (ou heure) de détection de l'événement et la date (ou heure) prise en compte pour la visualisation de l'image associée à l'événement. Ainsi, si par exemple dans le cas de la surveillance d'un tir de projectile, on détecte une fumée à un instant t, on peut considérer que le projectile a été tiré quelques secondes (x secondes) avant la détection de la fumée, les images associées à l'événement seront alors celles prises à l'instant t-x. Le correctif At sera fonction de l'événement détecté et du type de capteur. Pour un détecteur du type détecteur laser, At sera très faible (par exemple quelques ms), alors que pour un capteur sismique ou sonore, At sera plus important (par exemple plusieurs secondes). Le correctif At pourra évidemment être ajustable par l'opérateur au moyen de l'interface homme/machine 7.
La figure 3 illustre un exemple d'application de l'invention.
Dans cet exemple, un projectile a été détecté par un capteur (non représenté sur cette figure). Le projectile se situe dans une zone d'incertitude Z liée au capteur 9 et se déplace. Le déplacement du projectile est mesuré au moyen de capteurs de déplacement 9 du projectile (par exemple un moyen radar). Le calculateur connaît donc à tout instant la direction A et la zone d'incertitude Z dans laquelle se trouve le projectile. Connaissant par ailleurs les orientations des différentes caméras 3, 3', il est capable de déterminer à tout instant quelle est la caméra permettant d'observer la zone d'incertitude Z. Ainsi au moment t où le projectile est détecté, le champ C de la caméra 3 couvre la zone Z(t), alors que quelques instants plus tard, au moment t', la zone d'incertitude s'est déplacée et n'est plus dans le champ C de la caméra 3, mais dans le champ C' d'une caméra 3'. Le dispositif de localisation 1 selon l'invention affecte alors au projectile détecté la zone Z(t') et l'ensemble des caméras dont le champ couvre partiellement ou totalement la zone Z(t'). C'est donc la caméra 3' qui est alors associée au projectile situé dans la zone Z(t'). Ce mode de réalisation est plus particulièrement adapté à la surveillance de menaces à partir d'un véhicule.
Les calculs d'orientation des différentes directions pourront être faits aussi bien pour un véhicule fixe que pour un véhicule en mouvement et dans lequel les directions A des capteurs et les directions des caméras évoluent par rapport à la position du projectile mais sont à chaque instant connus et maîtrisés.
La figure 4 illustre un autre exemple d'application de l'invention.
Dans cet exemple, un événement fixe a été détecté par un capteur 2 et se situe dans une zone d'incertitude Z. Les caméras 3a et 3b sont fixées sur une plate-forme mobile 10 (ici un satellite) qui se déplace. Ainsi au moment t où l'événement est détecté, le champ Cb de la caméra 3b couvre la zone Z, alors que quelques instants plus tard, au moment t', la plateforme 10 s'est déplacée et la zone d'incertitude Z n'est plus dans le champ Cb de la caméra 3b, mais dans le champ Ca d'une caméra 3a. C'est donc la caméra 3a qui est alors associée à l'événement situé dans la zone Z. Le déplacement de la plate-forme 10 est mesuré au moyen de capteurs de déplacement ou de position, par exemple un système GPS.
On pourra aussi, dans le cas de caméras mobiles par rapport à la plateforme 10, disposer des capteurs individuels de déplacement pour chaque caméra. L'information recherchée étant la position relative de l'événement par rapport au champ couvert par chaque caméra, on prendra en compte de manière conjointe le déplacement de la cible (événement ou objet), le déplacement de la plate-forme ainsi que le déplacement de chaque caméra. L'utilisation d'un satellite comme plate-forme mobile a été donnée à titre illustratif, on pourra également disposer les caméras ou capteurs sur d'autres types de plates-formes mobiles, par exemple un véhicule blindé, un avion, un bateau,...

Claims (10)

REVENDICATIONS
1. Procédé de localisation et de perception d'un événement ou d'un objet, caractérisé en ce qu'on détermine une zone d'incertitude (Z) dans laquelle se trouve l'événement ou objet détecté au moyen d'au moins un capteur (2), puis on associe à cette zone des moyens de capture d'images, telles des caméras vidéos (3), susceptibles d'avoir enregistré une information située dans ladite zone (Z).
2. Procédé de localisation d'un événement ou d'un objet selon la revendication 1, caractérisé en ce qu'on enregistre les images capturées par les moyens de capture d'images (3) à l'aide d'un moyen d'enregistrement (5).
3. Procédé de localisation d'un événement ou d'un objet selon la revendication 2, caractérisé en ce que les capteurs (2) et moyens de capture d'images (3) sont synchronisés et en ce que chaque événement de détection est daté afin de lui associer les images enregistrées simultanément ou précédemment à la détection par les caméras (3) concernées par la zone d'incertitude (Z).
4. Procédé de localisation d'un événement ou d'un objet selon la revendication 3, caractérisé en ce qu'on affecte un correctif At entre la date de détection de l'événement et la date des images associées à l'événement en fonction de la nature de l'événement ou de l'objet détecté.
5. Procédé de localisation d'un événement ou d'un objet selon l'une des revendications précédentes caractérisé en ce qu'on détermine le déplacement de l'événement ou objet détecté et/ou le déplacement des moyens de capture d'images (3) à l'aide de capteurs de déplacement, afin d'associer en temps réel à la zone d'incertitude (Z) tous les moyens de capture d'images (3) susceptibles de capturer une ou plusieurs images situées dans ladite zone (Z).
6. Dispositif de localisation d'un événement ou d'un objet comportant au moins un capteur (2) susceptible de déterminer une zone d'incertitude dans lequel se trouve l'événement ou l'objet détecté, caractérisé en ce qu'il comporte au moins un moyen de capture d'images (3) , au moins un moyen d'enregistrement (5) des images produites par le ou les moyen de capture d'images (3) et un moyen de synchronisation (4) du capteur (2) et du moyen de capture d'images (3) et/ou du moyen d'enregistrement (5).
7. Dispositif de localisation d'un événement ou d'un objet selon la revendication 6, caractérisé en ce qu'il comporte un moyen (6) de fusion de données permettant d'associer à un événement (E) détecté une zone d'incertitude (Z) dans laquelle se situe l'événement (E) ainsi que des images produites par au moins un moyen de capture d'images (3).
8. Dispositif de localisation d'un événement ou d'un objet selon la revendication 7, caractérisé en ce qu'il comporte des capteurs de déplacement de la zone d'incertitude (Z) permettant de mesurer en temps réel le déplacement de la zone d'incertitude et d'associer en permanence à un événement détecté une zone d'incertitude (Z) ainsi que des images produites par au moins une caméra vidéo (3).
9. Dispositif de localisation d'un événement ou d'un objet selon la revendication 7 ou 8, caractérisé en ce qu'il comporte des capteurs de déplacement ou de position des caméras (3), ou de la plate-forme (10) supportant ces caméras, afin de connaître en temps réel l'orientation de chaque caméra (3) et d'associer en permanence à un événement détecté une zone d'incertitude (Z) ainsi que des images produites par au moins une caméra vidéo (3).
10. Dispositif de localisation d'un événement ou d'un objet selon la revendication 6 à 9 caractérisé en ce qu'il comporte une interface homme/machine (7) permettant à un opérateur de visualiser simultanément toutes les données relatives à un événement détecté et à agir sur ces données.
FR0502764A 2005-03-21 2005-03-21 Dispositif et procede de localisation et de perception d'un objet ou d'un evenement Pending FR2883382A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0502764A FR2883382A1 (fr) 2005-03-21 2005-03-21 Dispositif et procede de localisation et de perception d'un objet ou d'un evenement
EP06290403A EP1705451A1 (fr) 2005-03-21 2006-03-13 Dispositif et procédé de localisatin et de perception d'un objet ou d'un évènement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0502764A FR2883382A1 (fr) 2005-03-21 2005-03-21 Dispositif et procede de localisation et de perception d'un objet ou d'un evenement

Publications (1)

Publication Number Publication Date
FR2883382A1 true FR2883382A1 (fr) 2006-09-22

Family

ID=35809745

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0502764A Pending FR2883382A1 (fr) 2005-03-21 2005-03-21 Dispositif et procede de localisation et de perception d'un objet ou d'un evenement

Country Status (2)

Country Link
EP (1) EP1705451A1 (fr)
FR (1) FR2883382A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0602979A1 (fr) * 1992-12-17 1994-06-22 Trw Inc. Procédé et dispositif de surveillance de missile
US5473364A (en) * 1994-06-03 1995-12-05 David Sarnoff Research Center, Inc. Video technique for indicating moving objects from a movable platform
EP0714081A1 (fr) * 1994-11-22 1996-05-29 Sensormatic Electronics Corporation Système de surveillance à vidéo
WO2001084844A1 (fr) * 2000-04-28 2001-11-08 Network Korea Co., Ltd. Systeme permettant la poursuite et la surveillance d'une pluralite d'objets en deplacement
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0292147A3 (fr) 1987-05-04 1989-12-13 Britax Rainsfords Pty. Ltd. Dispositif de montage d'un miroir

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0602979A1 (fr) * 1992-12-17 1994-06-22 Trw Inc. Procédé et dispositif de surveillance de missile
US5473364A (en) * 1994-06-03 1995-12-05 David Sarnoff Research Center, Inc. Video technique for indicating moving objects from a movable platform
EP0714081A1 (fr) * 1994-11-22 1996-05-29 Sensormatic Electronics Corporation Système de surveillance à vidéo
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
WO2001084844A1 (fr) * 2000-04-28 2001-11-08 Network Korea Co., Ltd. Systeme permettant la poursuite et la surveillance d'une pluralite d'objets en deplacement

Also Published As

Publication number Publication date
EP1705451A1 (fr) 2006-09-27

Similar Documents

Publication Publication Date Title
US7750802B1 (en) Illumination and detection architecture
US7233546B2 (en) Flash event detection with acoustic verification
JP6251142B2 (ja) 測定対象物の非接触検知方法及びその装置
EP3103062B1 (fr) Procede de detection et de classification d'evenements d'une scene
JP6460700B2 (ja) トンネルの内壁の欠陥の有無の診断を行う方法およびトンネルの内壁の欠陥の有無の診断を行うプログラム
FR2557971A1 (fr) Systeme de surveillance par avion sans pilote permettant la localisation d'objectif
EP2188590A1 (fr) Procede et dispositif de telemetrie sur image stabilisee
RU2285272C1 (ru) Способ определения местоположения стрелка на местности
EP2732238B1 (fr) Procede de representation des mouvements eventuels d'une structure pour un appareil de type ordiphone
EP2593904A1 (fr) Procédé et dispositif d'imagerie bi-spectral multifonctions
US10175030B2 (en) Threat detection
US8125334B1 (en) Visual event detection system
FR2883382A1 (fr) Dispositif et procede de localisation et de perception d'un objet ou d'un evenement
FR2979022A1 (fr) Dispositif de visee a chercheur de nord stellaire et procede de recalage d'un compas magnetique d'un tel dispositif
GB2280563A (en) Apparatus for detecting and indicating the position of a source of transient optical radiation
FR3062201B3 (fr) Ciblerie electronique en temps reel pour le tir a distance reglementaire ou distance raccourcie puis emulee
KR102253237B1 (ko) 수중 자유낙하 속도 대응 해저 퇴적물 고속촬영 시스템 및 이를 이용한 수중 자유낙하 속도 대응 해저 퇴적물 고속촬영 방법
FR3032053A1 (fr) Procede d'affichage d'au moins une fenetre d'une scene tridimensionnelle, produit programme d'ordinateur et systeme d'affichage associes
EP1064634A1 (fr) Dispositif de surveillance d'une enceinte, notamment de la soute d'un avion
RU2685588C1 (ru) Способ определения энергетических характеристик объекта испытаний
RU2815392C1 (ru) Устройство для дистанционного зондирования земли в инфракрасной области спектра
WO2023166124A1 (fr) Capteur de gaz mobile et procédé de détection et de cartographie d'émissions de gaz
Escartin et al. Optical methods to monitor temporal changes at the seafloor: The Lucky Strike deep-sea hydrothermal vent field (Mid-Atlantic Ridge)
FR3120959B1 (fr) Procede et systeme de visualisation et de gestion d'une situation de l'environnement d'un aeronef
EP2194353B1 (fr) Procédé et système de détection d'engins explosifs improvisés ou analogues.