ES2382816T3 - Fusión de datos de multisensores y de un lidar de absorción diferencial - Google Patents
Fusión de datos de multisensores y de un lidar de absorción diferencial Download PDFInfo
- Publication number
- ES2382816T3 ES2382816T3 ES06800110T ES06800110T ES2382816T3 ES 2382816 T3 ES2382816 T3 ES 2382816T3 ES 06800110 T ES06800110 T ES 06800110T ES 06800110 T ES06800110 T ES 06800110T ES 2382816 T3 ES2382816 T3 ES 2382816T3
- Authority
- ES
- Spain
- Prior art keywords
- sensor
- interest
- dial
- roi
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
- G01C11/025—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Examining Or Testing Airtightness (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Input (AREA)
- Image Processing (AREA)
Abstract
Un método de adquisición de datos utilizando múltiples sensores integrados en uno o varios vehículos, comprendiendo el método las etapas de: (a) conectar un sensor DIAL multilínea (106) para detectar uno o varios objetivos (114) de interés, durante una primera pasada sobre una trayectoria preprogramada (112), en donde los objetivos incluyen fugas de gasoducto u oleoducto localizadas en zonas de interés (ROI); (b) memorizar las posiciones de los objetivos detectados de la ROI en una tabla de consulta LUT informática; (c) durante una segunda pasada sobre la ROI, activar la conexión de otro sensor en, o cerca de la posición memorizada en la (LUT); y (d) confirmar la presencia de los objetivos detectados utilizando el otro sensor y el sensor DIAL; (e) cuantificar los objetivos detectados utilizando datos adquiridos durante la primera y la segunda pasadas; (f) mapear cantidades y posiciones asociadas de los objetivos detectados de la ROI; (g) almacenar las cantidades y las posiciones asociadas de los objetivos detectados de la ROI en un ordenador como una imagen de mapa; y (h) visualizar la imagen del mapa; en el que el otro sensor es una cámara multiespectral (108) que es conectada mediante un activador procedente del sensor DIAL multilínea.
Description
Fusión de datos de multisensores y de un LIDAR de absorción diferencial.
CAMPO TÉCNICO
La presente invención se refiere, en general, al campo de la detección y el reconocimiento de objetivos remotos. Más específicamente, la invención se refiere a la detección y el reconocimiento de un objetivo remoto, mediante fusionar de manera eficiente y robusta datos en tiempo real procedentes de multisensores y datos en tiempo real procedentes de un sistema LIDAR de absorción diferencial (DIAL, differential absorption LIDAR).
ANTECEDENTES DE LA INVENCIÓN
En el actual estado de la técnica de los sensores remotos, los datos son adquiridos por separado desde cada uno de los sensores remotos y memorizados por separado en un dispositivo de almacenamiento. A continuación los datos pueden ser procesados y analizados para mejorar el reconocimiento del objetivo remoto.
Se da a conocer un sistema de sensores remotos de este tipo, que combina un LIDAR de absorción diferencial y cámaras infrarrojas y de baja luminosidad, en el documento "ELM: a phase III SBIR" (“ELM: una SBIR fase III”), de
A. R. Geiger y R. D. Richmond, (Dayton Section Symposium, 1998. The 15th Annual AESS/IEEE Fairborn, mayo de 1998).
Sin embargo, el reconocimiento de un objetivo sin conocimiento previo es similar a buscar y reconocer una aguja en un pajar. El reconocimiento de un objetivo en base a datos reunidos desde múltiples sensores es muy costoso e ineficiente. Además, la solidez del reconocimiento de objetivos basado en la fusión actual de datos de multisensores es cuestionable.
Un típico objetivo de interés cubre un área que es probablemente menor del 5% del área total examinada por un sensor. De este modo, gran parte de los datos reunidos y memorizados en un dispositivo de almacenamiento son inútiles y habitualmente son descartados después de que los datos son recuperados del dispositivo de almacenamiento, procesados y analizados.
Tal como se describirá, la presente invención da a conocer un reconocimiento eficiente, en tiempo real y robusto, de un objetivo en base a la adquisición de imágenes de multisensores en tiempo real y a la fusión solamente de los datos adquiridos que pertenecen de la zona de interés objetivo.
COMPENDIO DE LA INVENCIÓN
Para satisfacer estas y otras necesidades, y a la vista de sus objetivos, la presente invención da a conocer un método de adquisición de datos que utiliza múltiples sensores integrados en uno o varios vehículos. El método incluye las etapas de: (a) conectar un sensor DIAL para detectar uno o varios objetivos de interés, durante una primera pasada sobre una trayectoria preprogramada, en donde los objetivos incluyen gasoductos u oleoductos situados en zonas de interés (ROI, regions of interest); (b) memorizar posiciones de los objetivos detectados de la ROI en una tabla de consulta (LUT, Look Up Table) informática; (c) durante una segunda pasada sobre la ROI, activar la conexión de otro sensor en, o cerca de, la posición memorizada en la LUT; y (d) confirmar la presencia de los objetivos detectados utilizando el otro sensor y el sensor DIAL. El método incluye asimismo las etapas de: (e) cuantificar los objetivos detectados utilizando datos adquiridos durante la primera y la segunda pasadas; (f) mapear cantidades y posiciones asociadas de los objetivos detectados de la ROI; (g) memorizar como una imagen de un mapa las cantidades y posiciones asociadas de los objetivos detectados de la ROI en un ordenador; y (h) visualizar la imagen del mapa; en donde el otro sensor es una cámara multiespectral, que es conectada mediante un activador desde el sensor DIAL multilínea.
El sensor DIAL puede ser un sensor DIAL multilínea que tiene por lo menos dos fuentes de luz láser de línea activa y una fuente de luz láser de línea no activa para la iluminación simultánea del objetivo.
Después de conectar el sensor DIAL, el método adquiere datos utilizando el sensor DIAL durante la primera y la segunda pasadas sobre la ROI, y después de activar la conexión del otro sensor, el método adquiere datos utilizando el otro sensor solamente durante la segunda pasada y solamente en, o cerca de, la posición memorizada en la LUT.
Se entiende que la anterior descripción general y la siguiente descripción detallada son ejemplares, pero no limitativas, de la invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La invención se comprende mejor a partir de la siguiente descripción detallada, cuando se lea en relación con los dibujos adjuntos. En los dibujos se incluyen las figuras siguientes:
la figura 1 es un sistema multisensor de detección y adquisición de objetivo, acorde con una realización de la presente invención; la figura 2 es un sistema láser DIAL multilínea, utilizado de acuerdo con una realización de la presente invención; la figura 3 es un sensor de cámara multiespectral, utilizado en una realización de la presente invención; la figura 4 muestra un sensor DIAL y una cámara multiespectral utilizados para localizar, identificar y confirmar un objetivo de interés, de acuerdo con una realización de la presente invención; la figura 5 muestra un sistema multisensor de detección de objetivos que está controlado por un controlador y coordinador de adquisición de datos y un ordenador de propósito general, de acuerdo con una realización de la presente invención; y la figura 6 es un diagrama de flujo de un método ejemplar de la presente invención cuando se utiliza el sistema multisensor de la figura 1.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
La presente invención da a conocer un método para reducir la cantidad de datos que es necesario almacenar, procesar y analizar cuando se intenta detectar y reconocer remotamente un objetivo. La presente invención da a conocer un reconocimiento eficiente, en tiempo real y robusto de un objetivo en base a la adquisición multisensor y la fusión de datos de objetivos en tiempo real.
En un ejemplo de realización, la presente invención inicia el funcionamiento de un sistema multisensor, en base a una tabla de consulta (LUT) automática. La LUT puede estar programada en base a información previa de un objetivo e información previa de condiciones ambientales. En función de la información almacenada en la LUT, pueden conectarse automáticamente uno o varios sensores. A continuación, en base al proceso en tiempo real de los sensores que están conectados, puede ser identificada una zona de interés.
Después de que la zona de interés es identificada, otro conjunto de uno o varios sensores puede conectarse automáticamente y comenzar a procesar datos relativos a la zona de interés. Después de pasar sobre la zona de interés, estos sensores pueden desconectarse de nuevo. En este ejemplo de realización, uno o varios sensores que normalmente están desconectados pueden ser conectados selectivamente en momentos apropiados, para la adquisición simultánea inteligente de imágenes y el reconocimiento robusto de objetivos.
Haciendo referencia a la figura 1, se muestra un sistema multisensor de detección y adquisición de objetivos, indicado en general como 100. Tal como se muestra, en el sistema están incluidos múltiples sensores, por ejemplo, el sensor 1, el sensor 2, el sensor I, etc., y el sensor N. También a modo de ejemplo, el sensor 104 puede ser un radar de apertura sintética (SAR, synthetic aperture radar), el sensor 106 puede ser un sensor DIAL multilínea (LIDAR de absorción diferencial), el sensor 108 puede ser una cámara multiespectral y el sensor 110 puede ser un sensor LIDAR (light detection and ranging, detección y medición a través de la luz). Cada sensor puede ser conectado o desconectado mediante un controlador y coordinador de adquisición de datos (DACC, data acquisition controller and coordinator) centralizado, indicado en general como 102. Tal como se muestra también, el sistema 100 está encargado de buscar en el área 112 e identificar una o varias zonas de interés (ROI). En la figura 1 se muestra una ROI, y está indicada como el objetivo 114. Una ROI puede incluir más de un objetivo.
Tal como se describirá, el sistema 100 puede disponerse en una aeronave y encargarse de identificar múltiples zonas de interés. Por ejemplo, durante la primera pasada sobre un área de búsqueda, puede conectarse un sólo sensor, tal como el sensor DIAL 106. Cuando el sensor DIAL 106 identifica una zona de interés, la posición geográfica de dicha zona de interés puede ser almacenada en una memoria o dispositivo de almacenamiento (no mostrada en la figura 1). Para identificar mejor la zona de interés encontrada durante la primera pasada, el DACC 102 puede ordenar que el sensor 108 sea conectado antes de una segunda pasada sobre el mismo área de búsqueda, o más específicamente antes de una segunda pasada sobre la misma zona de interés.
Por consiguiente, es conectada la cámara multiespectral 108 para observar e identificar más profundamente el objetivo 114 durante la segunda pasada. Puesto que la cámara multiespectral 108 es conectada solamente después de ser ordenado por el DACC 102 al aproximarse a la zona de interés, se minimiza la cantidad de datos adquiridos, procesados, analizados y fusionados entre sí. Los múltiples datos incluyen información solamente relativa a características de la zona interés.
Se apreciará que el sensor DIAL 106 puede ser un sensor láser remoto DIAL de dos líneas, un sensor láser remoto DIAL de tres líneas, o un sensor láser remoto DIAL multilínea. El sensor DIAL muestrea la atmósfera a lo largo de una trayectoria de vuelo y puede detectar la mayor parte de los gases residuales en la atmósfera. El sensor DIAL es eficaz monitorizando concentraciones diminutas de fugas de gas natural o de petrolero procedentes de un conducto subterráneo.
A modo de ejemplo, el sensor DIAL (denominado asimismo un sistema) puede incluir para detectar metano y etano un LIDAR de absorción diferencial sintonizable. El metano y el etano pueden ser detectados sintonizando el sistema DIAL para incluir dos longitudes de onda de línea activa. Las longitudes de onda de línea activa se seleccionan próximas al máximo de la línea de absorción óptica del gas objetivo que tiene mínima interferencia con otros gases en la atmósfera. La longitud de onda de línea no activa se selecciona próxima al ala de la línea de absorción óptica del gas objetivo con interferencia mínima respecto de otros gases y una elevada reflectividad superficial en el suelo. Un criterio para la selección de la longitud de onda de la línea activa es que se espera que la longitud de onda de absorción esté dominada solamente por metano y etano, y un criterio para la selección de la longitud de onda de la línea no activa es que se espera que la longitud de onda de absorción no esté dominada por metano, etano o cualesquiera otras partículas atmosféricas.
El sistema DIAL puede ser asimismo un sistema óptico de láser sintonizable de N líneas. En un sistema DIAL láser sintonizable de N líneas, pueden sintonizarse múltiples fuentes de láser a diferentes longitudes de onda de línea activa y pueden sintonizarse múltiples fuentes de láser a longitudes de onda de línea no activa. La selección de las longitudes de onda puede depender de la zona de interés que el sistema 100 tienen el cometido de detectar e identificar.
Otro ejemplo de un sensor que puede ser utilizado para fusionar datos con otros sensores en el avión, es una cámara multiespectral. La cámara multiespectral 108 puede incluir, por ejemplo, dos canales en el rango visible y un canal de IR de onda corta para adquisición de imágenes. Como otro ejemplo, el sensor 108 puede incluir una simple cámara monocromática o a color, o puede ser una cámara configurada especialmente para una aplicación específica.
Una cámara multiespectral o una cámara monocromática funcionando para adquisición de imágenes en tiempo real, requieren cantidades enormes de capacidad de almacenamiento de imágenes. Por lo tanto, la presente invención da a conocer una adquisición inteligente y selectiva de imágenes solamente de zonas de interés y la fusión de las imágenes adquiridas con, por ejemplo, un sistema láser multilínea. Por ejemplo, cuando la presente invención se utiliza para detectar fugas de oleoductos o gasoductos, puede conectar, o activar el sistema DIAL 106 durante toda la misión, pero activar la cámara multiespectral 108 solamente después de que ha sido identificada una zona de interés mediante el sistema DIAL 106. De este modo, se minimizan ventajosamente la adquisición de datos, el procesamiento de datos, el análisis de datos y la fusión de datos.
Como otro ejemplo, el sistema 100 puede utilizarse para detectar una fuga de oleoducto o gasoducto haciendo funcionar, en primer lugar, el sistema DIAL 106 durante una primera pasada aérea sobre el área de búsqueda 112. Cuando es detectada una zona de interés, por ejemplo, cerca del objetivo 114 o sobre el mismo, la cámara multiespectral 108 puede ser conectada, para confirmar la detección del sistema DIAL y, de ese modo, incrementar la probabilidad de haber detectado una fuga de oleoducto o gasoducto. Durante una segunda pasada aérea sobre el objetivo, el sensor 104, tal como un radar de apertura sintética (SAR), puede ser conectado para adquirir datos topográficos de la zona de interés. No obstante, si se sabe que la zona de interés está en un área que tiene una topografía plana, el sensor SAR puede no ser conectado. En tal circunstancia, la presente invención puede configurarse para activar solamente el sensor 110, que puede ser un sistema LIDAR, para identificar la topografía que rodea el objetivo 114. Mediante el recurso de conectar y desconectar los sensores cuando es necesario, en función de los datos almacenados en una LUT, que especifica el entorno operacional que se espera encontrar en la zona de interés, la presente invención mantiene eficazmente al mínimo la adquisición de datos, el procesamiento de datos, el almacenamiento de datos y el análisis de datos.
En la figura 2 se muestra un ejemplo de sistema (o sensor) láser DIAL multilínea, indicado en general como 200. Tal como se muestra, un sistema láser DIAL sintonizable multilínea, indicado en general como 200, incluye N láseres de los cuales M son láseres de línea activa y L son láseres de línea no activa (N = M + L).
Por ejemplo, el primer láser 220 de línea puede ser un láser de línea activa utilizado para un primer gas residual objetivo, el segundo láser 295 de línea puede ser un segundo láser de línea activa utilizado para un segundo gas residual objetivo, etc. En una realización, el N-ésimo láser 212 de línea puede ser un láser de línea no activa utilizado para identificar un fondo objetivo. En los N láseres de línea mostrados en la figura 2 pueden utilizarse otras combinaciones de láseres de línea activa y láseres de línea no activa. Los N láseres de línea pueden estar, respectivamente, bloqueados en N diferentes longitudes de onda mediante amplificadores 210, 265, etc., y 211 de bloqueo de línea.
Más de uno de los láseres de línea no activa pueden ser utilizados para eliminar diferentes variabilidades de los parámetros del sistema. Por ejemplo, la variabilidad de reflectancia de tipo cubierta (fondo) superficial puede ser eliminada para obtener una ecuación DIAL multilínea más simple y fiable.
Está dentro del alcance de la presente invención que, además de láseres, pueden utilizarse otros tipos de fuentes ópticas. Además, las longitudes de onda de línea activa pueden seleccionarse próximas al máximo de una característica de absorción óptica del gas objetivo y las longitudes de onda de línea no activa pueden seleccionarse próximas a un ala de una longitud de onda de absorción óptica del gas objetivo.
Los múltiples haces de línea activa y de línea no activa son combinados, respectivamente, por el combinador 240 para formar el haz 230 de láser combinado. El haz de láser combinado es reflejado por el espejo 250 hacia la óptica 202 para formar un haz 204 de láser de salida.
Para la zona de interés, pueden ser escaneados secuencialmente mediante la óptica 202 gases residuales en la atmósfera, cerca del suelo. El haz 204 de láser de salida es dispersado, transmitido y/o reflejado de vuelta para formar la luz de retorno 270. La luz de retorno 270 pasa a través de divisores 280 del haz antes de encontrarse con un conjunto de filtros 290. Los filtros de este conjunto están sincronizados, respectivamente, para pasar cada una de las múltiples longitudes de onda de línea activa y de línea no activa. Una serie de detectores 205 convierte cada una de las luces filtradas en una señal electrónica respectiva. Las señales electrónicas son amplificadas mediante amplificadores 215 y a continuación transformadas en señales digitales mediante un conjunto de convertidores 225 de analógico a digital (A/D). Las señales digitalizadas son procesadas y analizadas mediante el ordenador 235 para identificar y medir cuantitativamente uno o varios objetivos de interés. Estos objetivos son detectados en base a características de absorción espectral seleccionadas por el operador y en base a características de no absorción espectral de los fondos objetivo seleccionadas por el operador.
El sistema láser sintonizable DIAL multilínea 200 puede incluir M salidas de láser de línea activa y L salidas de la base de línea no activa. Los M láseres de línea activa incluyen un primer láser de línea activa, un segundo láser de línea activa, un tercer láser de línea activa, etc., y un M-ésimo láser de línea activa. Los M láseres de línea activa están bloqueados en M diferentes longitudes de onda mediante un primer bloqueo de línea de láser de línea activa, un segundo bloqueo de línea de láser de línea activa, un tercer bloqueo de línea de láser de línea activa, etc., y un M-ésimo bloqueo de línea de láser de línea activa, respectivamente.
El sistema 200 puede incluir asimismo L láseres de línea no activa. Por ejemplo, el sistema 200 puede incluir un primer láser de línea no activa, un segundo láser de línea no activa, etc., y un L-ésimo láser de línea no activa. Cada uno de los L láseres de línea no activa están bloqueados en L diferentes longitudes de onda mediante un primer bloqueo de línea de láser de línea no activa, un segundo bloqueo de línea de láser de línea no activa etc., y un Lésimo bloqueo de línea de láser de línea no activa, respectivamente. La combinación de M láseres de línea activa y L láseres de línea no activa suma un total de N láseres de línea, que están incorporados al sistema 200.
Puede encontrarse una descripción más detallada de un sistema láser sintonizable multilínea en la solicitud número 11/135 768, presentada el 24 de mayo de 2005 por el presente inventor, Hooshmand M. Kalayeh, y la cual se incorpora en su integridad al presente documento como referencia.
A continuación haciendo referencia a la figura 3, se ejemplifica un sensor 108 de cámara multiespectral (figura 1), en mayor detalle, como sistema sensor 300. El sistema sensor 300 puede ser utilizado para capturar imágenes, después de que el DACC 102 ha ordenado que sea conectado (figura 1). El sistema sensor 300 puede obtener imágenes del área de búsqueda, o solamente de la zona de interés, al nivel del suelo, que contienen estructuras tales como carreteras, conductos, líneas de cableado eléctrico y similares. Pueden capturarse imágenes secuenciales en forma digital y ser almacenadas en una plataforma aérea, tal como un avión, o en una plataforma terrestre transmitiéndolas a través de una conexión radial a una estación terrestre de control.
Tal como se muestra, el dispositivo 304 de captura puede incluir un sensor electrónico, típicamente una matriz de formación de imágenes CCD o CMOS que, junto con la óptica 302 de formación de imágenes, puede capturar una imagen del objetivo 114 (figura 1) en forma electrónica. La óptica 302 de formación de imágenes puede incluir un filtro óptico especial acoplado a la entrada del detector CCD o CMOS para filtrar diversas longitudes de onda de la luz antes del almacenamiento de la imagen.
El sistema 300 incluye el circuito 306 de control de captura de imágenes, que secuencia las etapas de funcionamiento del dispositivo 304 de captura. El circuito 306 de control de captura de imágenes controla el dispositivo 304 de captura, obteniendo al mismo tiempo información de la posición y la orientación procedente del circuito 308 de almacenamiento de la posición y la orientación. La información de la posición en forma de coordenadas espaciales puede proporcionarse para identificar la posición del objetivo de interés. Asimismo, dicha información de la posición en coordenadas espaciales puede almacenarse en el circuito 308 de almacenamiento de la orientación y la posición.
El funcionamiento de los diversos dispositivos mostrados en la figura 3 está bajo el control del ordenador 310. El ordenador 310 de control puede hacer que se almacenen datos de imagen en el dispositivo 312 de almacenamiento de imágenes. Asimismo, el ordenador 312 de control puede identificar características del objetivo utilizando el circuito 314 de procesamiento de imágenes. La secuencia de procesamiento puede ser detectada asimismo por el ordenador 310 de control.
Se apreciará que muchos de los elementos mostrados en la figura 3, por ejemplo, el ordenador 310 de control, el almacenamiento 312 de imágenes, o el circuito 308 de almacenamiento de la posición y la orientación pueden realizarse en soporte lógico o en soporte lógico inalterable en el interior del sensor 300, o pueden realizarse parcial o completamente en el interior del DACC 102 (mostrado en la figura 1) y la parte restante en el interior del sistema sensor 300.
Las diversas imágenes almacenadas en la memoria 312 pueden ser corregidas geométricamente, es decir, en las imágenes pueden compensarse variaciones en la posición y el ángulo producidas en el momento de la grabación de las imágenes. Este proceso puede llevarse a cabo con el objeto de permitir una comparación exacta píxel por píxel de los diversos elementos de una imagen o un escenario objetivo.
En una realización de la presente invención, el sensor 300 es activado para conectarse mediante una señal activadora de control, indicada como un activador de láser DIAL multilínea (MDLT, multi-line DIAL laser trigger). La señal activadora se describirá mas adelante haciendo referencia a la figura 4.
A continuación haciendo referencia a la figura 4, se muestra un ejemplo de realización del sistema 100, en el que son utilizados el sensor DIAL 106 y la cámara multiespectral 108 para localizar, identificar y confirmar un objetivo de interés. Tal como se muestra en la figura 4, un sistema láser pulsado DIAL de tres líneas, indicado como 435, está integrado con la cámara multiespectral 432. Este sistema ejemplar incluye tres fuentes 400, 402 y 404 de láser pulsado. Este sistema ejemplar puede incluir una o varias fuentes de láser pulsado de línea activa y una o varias fuentes de láser pulsado de línea no activa.
La energía de impulsos transmitida desde la fuente 400 de láser puede determinarse convenientemente a partir de una pequeña parte de cada impulso dirigido al sensor óptico 412. El sensor óptico forma parte de una matriz de sensores ópticos que incluye asimismo los sensores ópticos 414 y 416, que pueden utilizarse para detectar la energía pulsada transmitida desde las fuentes 402 y 404 de láser. Dicha pequeña parte de la energía pulsada de láser detectada por el sensor óptico 412 puede ser separada utilizando el divisor 406 del haz, tal como se muestra en la figura 4.
Tal como con la fuente 400 de láser, las energías pulsadas transmitidas desde las fuentes 402 y 404 de láser pueden determinarse convenientemente a partir de una pequeña parte de cada pulso dirigido a los sensores ópticos 414 y 416, respectivamente. La pequeña parte de la energía de láser procedente de la fuente 402 de láser puede ser separada utilizando un primer divisor dicroico 408 del haz, que convenientemente transmite sustancialmente toda la luz con una longitud de onda procedente de la fuente 400 de láser. Análogamente, la pequeña parte de la energía del láser procedente de la fuente 404 de láser puede ser separada utilizando un segundo divisor dicroico 410 del haz, que convenientemente refleja sustancialmente la mayor parte de la luz con una longitud de onda procedente de la fuente 404 de láser, y transmite sustancialmente toda la luz con longitudes de onda procedentes de las fuentes 400 y 402 de láser.
De este modo, los divisores 406, 408 y 410 del haz actúan para separar partes de cada haz procedentes de las fuentes 400, 402 y 404 de láser, para su monitorización mediante la matriz de sensores ópticos 412., 414 y 416, respectivamente. La matriz de sensores ópticos 412, 414 y 416 está acoplada al módulo 428 para proporcionar señales proporcionales a las energías de impulso transmitidas desde las 3 fuentes de láser. El módulo 428 incluye amplificadores logarítmicos y calculadores de proporción para calcular las concentraciones en camino óptico (CPLs, concentration path lengths) de los objetivos de interés.
Los 3 haces de láser, que tienen longitudes de onda diferentes, son transmitidos al objetivo u objetivos de interés. En el ejemplo de realización, el objetivo de interés es el penacho 418 situado sobre el suelo 420. Tal como se muestra en la figura 4, un segundo conjunto de óptica, a saber los espejos 407, 409 y 411 recogen, separan por picos de longitud de onda y dirigen las partes reflejadas de los 3 haces de láser, reflejados y/o difractados desde el suelo 420 y el penacho 418, hacia una segunda matriz de sensores ópticos 422, 424 y 426. La segunda matriz de sensores ópticos dirige al módulo 428 las partes devueltas de los 3 haces de láser.
Se apreciará que el módulo 428 puede calcular el logaritmo de cada energía transmitida y el logaritmo de cada energía reflejaba de vuelta. La energía reflejada de vuelta en el pico de cada longitud de onda puede normalizarse con el correspondiente pico de cada longitud de onda transmitida. De este modo, puede calcularse la relación entre el logaritmo de la energía normalizada de línea no activa y el logaritmo de la energía normalizada de línea activa.
De acuerdo con una realización de la presente invención, después de que el módulo 428, en combinación con el ordenador 430, determina que está presente el penacho 418 como objetivo de interés, el módulo 428 proporciona a continuación una señal activadora, MDLT, a la cámara multiespectral 432. Después de que la cámara multiespectral 432 recibe el activador MDLT, la cámara es conectada para obtener imágenes del penacho 418. La señal activadora puede proporcionarse durante una segunda pasada aérea sobre el penacho 418, al llegar a una posición geográfica almacenada en una LUT residente en la memoria 437. A continuación, el ordenador 430 puede confirmar la presencia del penacho 418, en base a imágenes proporcionadas por la cámara multiespectral 432.
En otra realización de la presente invención, la señal activadora, MDLT, que puede ser iniciada por el sensor DIAL multilínea, es enviada directamente al ordenador 430. A continuación, el ordenador puede obtener la posición o posiciones geográficas del objetivo u objetivos, a partir de un sistema de navegación (no mostrado). A continuación, la posición o posiciones geográficas del objetivo u objetivos pueden almacenarse individualmente en la memoria
437. Durante una siguiente pasada aérea, en la ROI o en torno a la misma, o en el objetivo u objetivos o en torno a los mismos, puede proporcionarse un activador desde el ordenador 430 para activar el siguiente sensor, tal como el MC 432. En este sentido, el ordenador 430 proporciona el activador para conectar un respectivo sensor, en el momento apropiado, en base a la posición o posiciones geográficas del objetivo u objetivos memorizados en la LUT.
A continuación se describirá otra realización de la presente invención haciendo referencia a la figura 5. Tal como se muestra, el sistema multisensor 500 de detección de objetivos incluye un controlador y coordinador de adquisición de datos, indicado en general como 502, un ordenador 510 y múltiples sensores 516, 520, 524, etc. y 528. El controlador y coordinador 502 de adquisición de datos y el ordenador 510 comunican con los múltiples sensores, mediante el bus 514 de datos.
Se muestra también en la figura 5 una serie de detectores de objetivo, indicados en general como 518, 522, 526, etc. y 530, que comunican cada uno con su sensor correspondiente. Se apreciará que aunque los detectores 518 a 530 de objetivo se muestran como módulos separados respecto de los múltiples sensores 516 a 528, cada detector de objetivo y su correspondiente sensor pueden integrarse en una sola unidad o un solo módulo.
El ordenador 510 incluye una tabla de consulta (LUT) residente en la memoria 508. El ordenador 510 incluye asimismo datos de entrada procedentes del módulo 504 de geolocalización y del módulo 506 del estado. El módulo de geolocalización proporciona al ordenador 510 datos de posición, tales como latitud y longitud, y/o datos de orientación y datos de posición relativos. Cuando desde uno o varios sensores 516 a 528 es enviada una señal de zona de interés (ROI), el ordenador 510 puede estar configurado para almacenar en la LUT la posición geográfica o relativa de la ROI detectada.
El ordenador 510 puede configurarse además para almacenar múltiples coordenadas geográficas de una pasada aérea sobre una zona de búsqueda, tal como una zona de búsqueda 112, mostrada en la figura 1. Además, el módulo 506 de condiciones puede proporcionar condiciones ambientales asociadas con la zona de búsqueda 112. Dichas condiciones pueden incluir el tiempo previsto en la zona de búsqueda, el terreno esperado en la zona de búsqueda y una identificación de los objetivos de interés previstos. Estas condiciones ambientales pueden almacenarse asimismo en la LUT 508 y asociarse con las localizaciones de posición almacenadas en la LUT.
Pueden proporcionarse datos de entrada al ordenador 510, mediante el teclado o un ratón, manejado por el usuario
512.
En funcionamiento, cuando el avión pasa sobre una zona de búsqueda, el controlador y coordinador 502 de adquisición de datos ordena, por ejemplo, la conexión del sensor 1 manteniendo al mismo tiempo desconectados los sensores restantes. Durante una primera pasada aérea sobre la zona de búsqueda, el sensor 516 adquiere datos, y envía los datos adquiridos al detector 518. Al detectar un objetivo de interés, el sensor 516 proporciona al ordenador 510 la señal ROI, por medio del bus 514 de datos. La posición del objetivo de interés detectado puede almacenarse asimismo en la LUT 508, según determine el módulo 504 de geolocalización.
Durante una segunda pasada aérea sobre el objetivo de interés, determinado geográficamente mediante el módulo 504 de geolocalización, el ordenador 510, en combinación con el coordinador y controlador 502 de adquisición de datos, puede ordenar que sea conectado uno o varios sensores adicionales. El sensor o sensores recién conectados, comienzan a adquirir datos sobre el objetivo de interés o en su proximidad. El detector de objetivos correspondiente al sensor recién conectado puede confirmar asimismo la presencia del objetivo de interés enviando su señal ROI al ordenador 510. La llegada de la señal ROI puede activar el ordenador 510 para almacenar, en la LUT, las coordenadas de posición del avión en el momento de llegada de la señal ROI.
Si es necesaria una confirmación adicional, puede llevarse a cabo una tercera pasada aérea sobre el objetivo de interés. En dichas circunstancias, el sistema 500 puede hacer que se conecte otro sensor. A continuación, la detección del objetivo mediante el sensor recién conectado confirmaría mejor la presencia del objetivo de interés.
Se comprenderá que la presente invención controla óptimamente los estados ON (conectado) y OFF (desconectado) de cada sensor en el sistema 500. Un sensor (o más de un sensor) es conectado en función del objetivo de interés que se prevé encontrar en una zona de búsqueda y en función de las condiciones ambientales que se prevé encontrar en la zona de búsqueda. Una vez que un objetivo de interés es detectado mediante un primer sensor (o más de un sensor), la posición de dicho objetivo de interés detectado es memorizada en la LUT. Durante una segunda pasada aérea sobre el objetivo de interés, pueden conectarse un segundo sensor y/o un tercer sensor para una confirmación adicional de la presencia del objetivo de interés.
De este modo, la presente invención minimiza ventajosamente los requisitos de adquisición de datos y minimiza los requisitos de almacenamiento de datos. La presente invención reduce asimismo la complejidad y los costes asociados con la adquisición y el almacenamiento de enormes cantidades de información. En funcionamiento, cuando se utilizan sistemas convencionales, son adquiridas y almacenadas cantidades enormes de datos. Gran parte de estos datos, habitualmente el 95% o más, son simplemente descartados.
Se apreciará que el ordenador 510 puede conectarse a un sistema de control de vuelo además de a un sistema de navegación. El sistema de navegación puede ser utilizado para obtener datos de posiciones con respecto a rutas de vuelo, o pasadas, realizadas por el avión. Además, el ordenador 510 puede obtener datos de la dirección del avión, tales como la altitud, la actitud, el rumbo, etc., para asociar la detección del objetivo del sensor con parámetros de vuelo del avión. Además, el ordenador 510 puede configurarse para modificar los parámetros de captura de objetivos de los múltiples sensores, mostrados en la figura 5, o puede configurarse para ordenar, directa o indirectamente, mediante el controlador y coordinador 502 de adquisición de datos, modificaciones en los parámetros de vuelo, para satisfacer precisiones del reconocimiento de objetivos. Dichas modificaciones incluyen reducir la altitud de los vuelos, cambios en los parámetros de los sensores, cambios en las rutas de vuelo, cambios en el ángulo del sol con respecto a los sensores, para incrementar la calidad del objetivo que está siendo recopilado.
En cada caso, el método y el aparato de la presente invención pueden ser independientes o pueden ser un componente de una solución en un sistema mayor. Además, la interfaz humana puede estar en el propio avión, o en emplazamientos físicos diferentes. Cuando está en emplazamientos diferentes, pueden disponerse diversas técnicas de comunicación entre los diferentes emplazamientos y el avión. Cuando sea consistente con la descripción anterior de la presente invención, el método de la invención puede ser totalmente automático, puede comprender entradas del usuario (puede ser total o parcialmente manual), y puede incluir la revisión del usuario para aceptar o rechazar el resultado.
El término "sensor" se utiliza en la presente memoria en sentido amplio e incluye cualquier tipo de sensor, tal como cualquier tipo de cámara y otras clases de dispositivos de captura de imágenes. En la presente memoria se discuten en general los sensores en relación con la captura de una o varias bandas de radiación electromagnética, pero estos puede utilizar otras modalidades de formación de imágenes, por ejemplo, modulación de haces de partículas o espectroscopia localizada espacialmente. El término sensor es inclusivo asimismo de generadores de imágenes multiespectrales y de grupos o matrices de los mismos o de diferentes dispositivos de captura de imágenes. Un sensor puede capturar información en una serie de matrices bidimensionales o tridimensionales. El sensor puede incluir cámaras activas y pasivas. Un sistema LIDAR de formación de imágenes es un ejemplo de una cámara activa, y una cámara panorámica, que toma imágenes en la parte visible del espectro, es un ejemplo de una cámara pasiva.
El término "avión" se utiliza asimismo en sentido amplio y puede incluir cualquier medio para desplazar los sensores a través de un conjunto de posiciones con respecto a una zona objetivo de interés. El término avión incluye naves espaciales, y vehículos de todo tipo que incluyen vehículos terrestres, con operadores humanos, robots u otros sistemas mecánicos de control. Estos vehículos pueden ser o no tripulados, y ser autónomos o estar controlados remotamente.
El término "pasada aérea" se utiliza para indicar una ruta que se refiere a un conjunto de campos de visión definidos mediante eventos de captura de objetivos propuestos o reales. Cada campo de visión corresponde a un ángulo de visión de un sensor respectivo, durante un respectivo evento de captura. Los campos de visión que son secuenciales en el tiempo pueden estar separados espacialmente o pueden solapar, o ser continuos entre ellos. Una ruta (o pasada aérea) puede definir tiempos para eventos de captura separados, por ejemplo, tiempos de exposición para una secuencia de imágenes de luz visible. Una ruta puede, o no, definir el movimiento de un sensor entre eventos de captura. Por ejemplo, un vehículo aéreo no tripulado (UAV, unmanned aerial vehicle) militar puede practicar maniobras evasivas entre eventos de captura. Análogamente, una ruta puede definir un conjunto de campos de visión, sin definir una secuencia. En tal caso, pueden tener lugar eventos de captura cuando el sensor está situado apropiadamente y conectado. Por ejemplo, un avión puede maniobrar sobre una zona de interés y puede reunir datos espectrales y datos de imágenes, siempre que se alcancen posiciones geográficas apropiadas, cuando así lo determine el ordenador 510 y/o esté almacenado en la LUT 508 en memoria.
El término "zona de interés" se refiere a una parte de un conjunto mayor en torno al cual se desean imágenes o información de objetivos. La zona de interés puede ser un área, tal como una parte de la superficie terrestre, o un volumen de penacho situado sobre la tierra. La zona de interés tiene o puede tener características espaciales variables que pueden ser detectadas por un sensor apropiado que está conectado en el sistema 500 multisensor.
La región seleccionada puede estar definida mediante los límites del desplazamiento del avión. La región seleccionada puede tener en cuenta la práctica para mantener una reserva o margen sobre el desplazamiento de vehículos, mecanismos y similares, para tener en cuenta imprecisiones de las mediciones y necesidades imprevistas. La presente invención es particularmente ventajosa cuando un conjunto mayor, o área de búsqueda, incluye posibles zonas de interés en el interior de los límites de desplazamiento de un sistema de detección. Estas zonas pueden ser exclusivas o no exclusivas. El modo de selección de la zona de interés puede ser mediante el criterio humano, o mediante una programación adecuada de un sistema autónomo o semiautónomo. Por ejemplo, un vehículo pilotado remotamente puede estar encargado de volar a una zona de interés concreta, en función de imágenes por satélite reunidas previamente. Por otra parte, puede encargarse que un avión sobrevuele un área de búsqueda más vasta, con la previsión de localizar uno o varios objetivos de interés.
La ruta planificada, o pasada aérea, puede determinarse asimismo mediante el criterio humano o mediante programación adecuada, teniendo en cuenta las limitaciones impuestas por el sensor y las demandas de la recogida de datos. Por ejemplo, condiciones de la recogida que limitan una ruta trazada, o pasada aérea, para un avión pueden incluir: altitud permisible para la recopilación; tiempo meteorológico; características topográficas, tales como colinas, valles o edificios altos que pueden obstruir la línea visual; y la presencia de instalaciones enemigas, tales como instalaciones antiaéreas en el interior del área de búsqueda. Las limitaciones de los sensores pueden incluir nitidez, sensibilidad, margen dinámico, resolución espacial y espectral, y ruido del sistema. Es improbable que estos factores sean uniformes en el interior de una zona dada de recogida de datos, o en diferentes localizaciones en el interior de una sola imagen.
Asimismo, los requisitos de detección y reconocimiento de objetivos aplicables a una zona de interés pueden consistir en el criterio humano, basado en requisitos de un usuario concreto, y pueden determinarse por el usuario o mediante técnicas de programación adecuadas. La detección y reconocimiento de objetivos puede incluir una sola métrica de calidad de imágenes que define un valor o intervalo de valores que son aplicables a la zona de interés. Alternativamente, pueden definirse asimismo una serie de subzonas de la zona de interés, del mismo modo que la propia zona de interés. En tal caso, los requisitos de detección de reconocimiento de objetivos pueden ser una serie de métricas de calidad adaptadas a la subzonas respectivas. Dependiendo del grado de identificación y reconocimiento de objetivos requerido por el usuario, pueden ser realizadas una o varias pasadas aéreas sobre el objetivo de interés detectado, para proporcionar el nivel de detección y reconocimiento requerido por el usuario.
Como un ejemplo de utilización del sistema 500 multisensor, se supone que el soporte de planificación de vuelos requiere que un avión identifique una marea negra (un objetivo de interés) a lo largo de una zona de búsqueda. La ruta para la zona de búsqueda puede almacenarse en la LUT 508. La presente invención conecta un sensor apropiado, por ejemplo, un sistema DIAL multilínea para la adquisición de datos y detección de objetivos de una fuga de petróleo, a lo largo de la pasada aérea o ruta en la zona de búsqueda. Ningún otro sensor es conectado. Esta condición impide eficazmente la recogida voluminosa de datos, debido a que los otros sensores están en estado desconectado y solamente un sensor está en estado conectado.
Cuando el sistema 500 está adquiriendo datos utilizando el sensor DIAL multilínea, puede ser detectado el objetivo de interés 114, por ejemplo. Al detectarse el objetivo 114, una señal activadora, tal como una señal de ROI, es enviada al ordenador 510. A continuación, el ordenador 510 almacena la posición geográfica del objetivo de interés en la LUT 508. En este caso ha sido detectada una posible fuga de petróleo o de gas.
Dependiendo de los requisitos de precisión de reconocimiento del usuario, puede o no realizarse otra pasada aérea sobre el objetivo de interés. Asumiendo que se requiere de una pasada aérea adicional, el ordenador 510 ordena la conexión de un segundo sensor. Dicho sensor adicional puede ser la cámara multiespectral que se muestra activada en la figura 4. A continuación la cámara multiespectral es conectada apropiadamente, en base a la llegada del avión a las proximidades del objetivo de interés. Después de ser conectada, la cámara multiespectral comienza la obtención de imágenes del objetivo de interés y comienza a acumular datos del objetivo, para confirmar con mayor precisión la presencia de la fuga de petróleo o de gas. En este momento, durante la segunda pasada aérea, dos sensores están en estado conectado y los otros sensores están en estado desconectado. A continuación, ambos sensores pueden determinar con mayor precisión si en el objetivo de interés está presente una fuga de petróleo o de gas.
Por consiguiente, la presente invención minimiza ventajosamente el número de sensores que son conectados simultáneamente para adquirir y reunir datos. Un sensor puede o no ser conectado, dependiendo de la ocurrencia previa de un evento, tal como la detección de un objetivo mediante otro sensor que ha sido conectado previamente para adquirir y reunir datos. Por lo tanto, el sensor es conectado como resultado de la activación de su conexión mediante la detección de objetivo de un sensor conectado previamente. El momento para la orden de conexión puede ser retardado, hasta el momento apropiado en que el avión está cerca, o sobre el objetivo detectado por el sensor anterior. De este modo, la presente invención minimiza la cantidad de datos que es necesario reunir y memorizar.
Por lo tanto, la presente invención proporciona una eficiencia incrementada para la planificación de misiones, la recogida de datos y la utilización de datos detectados remotamente. La presente invención permite una mejor preparación de misiones, de manera que es probable que los datos sean reunidos en el tiempo requerido y al nivel requerido de precisión del reconocimiento, sin sobrecargas costosas del sistema o sin el riesgo indebido de recoger datos que pueden o no satisfacer los requisitos del usuario. Además, la presente invención elimina la necesidad de que algunos de los sensores del sistema 500 tengan que ser conectados para recoger datos.
A continuación haciendo referencia a la figura 6, se describirá el método 600 haciendo referencia al sistema mostrado en la figura 5. Entrando en la etapa 601, el método de la invención conecta uno o varios sensores. A modo de ejemplo, puede ser conectado el sensor-I de la figura 5. En la etapa 602, si el sensor-I (por ejemplo) detecta una posible ROI, el método entra en las etapas 610 y 611. En la etapa 610, el ordenador 510 está configurado para actualizar la LUT 508 memorizando la posición geográfica de la posible ROI detectada por el sensor-I. En la etapa 611, el ordenador 510 selecciona qué sensor o sensores conectar para la siguiente pasada aérea y determina el momento de conexión de estos sensores seleccionados. Dichas decisiones pueden basarse en el tipo de ROI memorizada en la LUT 508, en su posición y en el entorno. En un ejemplo de realización, dicho sensor o sensores, por ejemplo, pueden ser el sensor-1 y el sensor-I. Ambos han de ser conectados en la posible ROI o cerca de la misma.
El método entra en la etapa 603 y conecta el sensor-1 y el sensor-I (por ejemplo), cuando el avión se aproxima a la posición geográfica del ROI. En esta fase del vuelo, están conectados en el sensor-I y el sensor-1. Los restantes sensores del sistema 500 están desconectados.
En la etapa 604, el sensor-I puede detectar de nuevo la misma ROI. Además, en este caso el sensor-1 puede asimismo detectar la misma ROI, confirmando de ese modo la detección mediante el sensor-I.
A continuación se entra en la caja 607 de decisión. El método determina si se satisface el requisito del usuario de un nivel de confianza predeterminado, mediante la confirmación de la ROI con solamente dos sensores (I y 1). Si se satisface el requisito, el método se bifurca a la etapa 609 y el proceso finaliza. Si el requisito no se satisface, el método se bifurca la etapa 608 y vuelve a la etapa 601 para confirmación adicional.
De nuevo en la etapa 601, el método conecta uno o varios sensores (por ejemplo el sensor-I). Si no se detecta ninguna posible ROI en la etapa 605, entonces el método entra en la etapa 606. En ausencia de una señal de ROI procedente del sensor-I, el método ordena a todos los sensores actualmente en estado conectado que conmuten al estado desconectado. Después de dicha orden, todos los sensores de sistema 500 son desconectados.
Si se satisface el requisito del usuario, se finaliza cualquier otro vuelo sobre el área de búsqueda. Si el requisito del usuario, no obstante, no se satisface, entonces puede llevarse a cabo otra pasada aérea sobre el área 112 de búsqueda para volver a intentar encontrar un objetivo de interés. El método 600 puede proseguir el proceso conectando y/o desconectando sistemáticamente otros sensores, en secuencia, en base a los datos almacenados en la LUT y en base a los requisitos del usuario final.
Se comprenderá que el método de la invención puede detectar y confirmar más de una ROI durante una pasada aérea. Por ejemplo, pueden ser detectadas múltiples ROI mediante un sistema DIAL multisensor (por ejemplo) durante una pasada aérea. A continuación, estas múltiples ROI pueden ser memorizadas en la LUT, junto con las posiciones de estas ROI. Durante una segunda pasada aérea, puede ordenarse al sistema que conecte el sistema DIAL multisensor y una cámara multiespectral (por ejemplo), en el momento apropiado, en la posición de cada posible ROI o cerca de la misma. En este caso el sistema DIAL multisensor y la cámara multiespectral pueden confirmar la presencia de cada una de las ROI memorizadas. De este modo, mediante la presente invención se minimiza ventajosamente la cantidad de datos que es necesario reunir.
Si bien la invención ha sido ilustrada y descrita en la presente memoria haciendo referencia a realizaciones específicas, no se pretende limitar la invención a los detalles mostrados. Por el contrario, pueden realizarse diversas modificaciones en los detalles dentro del alcance y el ámbito de los equivalentes de las reivindicaciones y sin apartarse de la invención.
Claims (8)
- REIVINDICACIONES1. Un método de adquisición de datos utilizando múltiples sensores integrados en uno o varios vehículos, comprendiendo el método las etapas de:
- (a)
- conectar un sensor DIAL multilínea (106) para detectar uno o varios objetivos (114) de interés, durante una primera pasada sobre una trayectoria preprogramada (112), en donde los objetivos incluyen fugas de gasoducto u oleoducto localizadas en zonas de interés (ROI);
- (b)
- memorizar las posiciones de los objetivos detectados de la ROI en una tabla de consulta LUT informática;
- (c)
- durante una segunda pasada sobre la ROI, activar la conexión de otro sensor en, o cerca de la posición memorizada en la (LUT); y
- (d)
- confirmar la presencia de los objetivos detectados utilizando el otro sensor y el sensor DIAL;
- (e)
- cuantificar los objetivos detectados utilizando datos adquiridos durante la primera y la segunda pasadas;
- (f)
- mapear cantidades y posiciones asociadas de los objetivos detectados de la ROI;
- (g)
- almacenar las cantidades y las posiciones asociadas de los objetivos detectados de la ROI en un ordenador como una imagen de mapa; y
- (h)
- visualizar la imagen del mapa; en el que el otro sensor es una cámara multiespectral (108) que es conectada mediante un activador procedente del sensor DIAL multilínea.
-
- 2.
- El método acorde con la reivindicación 1, en el que el sensor DIAL es un sensor DIAL multilínea que tiene por lo menos dos fuentes de luz láser de línea activa y una fuente de luz láser de línea no activa para la iluminación simultánea del objetivo.
-
- 3.
- El método acorde con la reivindicación 1, en el que después de conectar el sensor DIAL, se adquieren datos utilizando el sensor DIAL durante la primera y la segunda pasadas sobre la ROI, y después de activar la conexión del otro sensor, adquirir datos utilizando el otro sensor solamente durante la segunda pasada y solamente en, o en torno a la posición memorizada en la LUT.
-
- 4.
- El método acorde con la reivindicación 1, que incluye las etapas de:
determinar si la confirmación de un objetivo, utilizando el otro sensor, satisface un requisito de precisión del usuario final; si no se satisface, memorizar en la LUT otra posición del objetivo detectado por el otro sensor; durante una tercera pasada sobre la ROI, activar la conexión de otro siguiente sensor en, o en torno a la otra localización memorizada en la LUT; y confirmar la presencia del objetivo de interés utilizando tres sensores, el sensor DIAL y los otros dos sensores. -
- 5.
- El método acorde con la reivindicación 4, en el que el sensor DIAL es un sensor DIAL multilínea que tiene por lo menos dos fuentes de luz láser de línea activa y una fuente de luz láser de línea no activa para la iluminación simultánea del objetivo, el otro sensor es una cámara multiespectral que es conectada mediante un activador procedente del sensor DIAL multilínea, y el siguiente otro sensor es activado para conectarse mediante el sensor DIAL multilínea o la cámara multiespectral.
-
- 6.
- El método acorde con la reivindicación 5, en el que después de conectar el sensor DIAL (106), se adquieren datos utilizando el sensor DIAL durante la primera, la segunda y la tercera pasadas sobre la ROI, después de activar la conexión del otro sensor (108), se adquieren datos utilizando el otro sensor solamente durante la segunda y la tercera pasadas y solamente en, o en torno a la posición memorizada en la LUT, y después de activar la conexión del siguiente otro sensor (110), se adquieren datos utilizando el siguiente otro sensor solamente durante la tercera pasada y solamente en, o en torno a la nueva posición memorizada en la LUT.
-
- 7.
- El método acorde con la reivindicación 1, que incluye las etapas de:
determinar si la confirmación del objetivo de interés, utilizando el otro sensor, satisface un requisito de precisión del usuario final; si no se satisface, memorizar otra posición del objetivo de interés detectada por el otro sensor en la LUT; durante una tercera pasada aérea sobre la ROI, activar la conexión de otro siguiente sensor en, o en torno a la otra localización memorizada en la LUT; y confirmar la presencia del objetivo de interés utilizando el siguiente otro sensor. -
- 8.
- El método acorde con la reivindicación 6, en el que el sensor DIAL (106) es sintonizado a un primer conjunto de longitudes de onda,
el otro sensor (108) es una cámara multiespectral, y el siguiente otro sensor (110) es uno entre un sensor de radar de apertura sintética (SAR), un sensor LIDAR o un sensor DIAL sintonizado a otro conjunto de longitudes de onda.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/206,540 US7411196B2 (en) | 2005-08-18 | 2005-08-18 | Multi-sensors and differential absorption LIDAR data fusion |
US206540 | 2005-08-18 | ||
PCT/US2006/027882 WO2007021426A1 (en) | 2005-08-18 | 2006-07-18 | Multi-sensors and differential absorption lidar data fusion |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2382816T3 true ES2382816T3 (es) | 2012-06-13 |
Family
ID=37499580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES06800110T Active ES2382816T3 (es) | 2005-08-18 | 2006-07-18 | Fusión de datos de multisensores y de un lidar de absorción diferencial |
Country Status (7)
Country | Link |
---|---|
US (1) | US7411196B2 (es) |
EP (1) | EP1920271B1 (es) |
JP (1) | JP5350791B2 (es) |
AT (1) | ATE546749T1 (es) |
CA (1) | CA2619138C (es) |
ES (1) | ES2382816T3 (es) |
WO (1) | WO2007021426A1 (es) |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10110795B2 (en) * | 2002-06-04 | 2018-10-23 | General Electric Company | Video system and method for data communication |
US7800645B2 (en) * | 2003-06-20 | 2010-09-21 | Mitsubishi Denki Kabushiki Kaisha | Image display method and image display apparatus |
US7245250B1 (en) * | 2005-08-16 | 2007-07-17 | Itt Manufacturing Enterprises, Inc. | Synthetic aperture radar image compression |
US10254220B2 (en) | 2016-10-04 | 2019-04-09 | General Electric Company | Method and system for remote inspection of industrial assets |
US20090245581A1 (en) * | 2008-03-31 | 2009-10-01 | Sean Dey | Airborne terrain acquisition and processing system with fluid detection |
DE102008047151B3 (de) * | 2008-09-12 | 2010-06-17 | Universität Kassel | Als Roboter ausgebildete Vorrichtung zur autonomen, mannlosen Ermittlung von Leckagen unter Stofffreisetzung ins Umfeld aus druckführenden Systemen, insbesondere Rohrleitungssystemen, sowie Verfahren zum Betrieb eines solchen Roboters |
US20100238165A1 (en) * | 2009-03-17 | 2010-09-23 | Harris Corporation | Geospatial modeling system for colorizing images and related methods |
JP5440927B2 (ja) * | 2009-10-19 | 2014-03-12 | 株式会社リコー | 測距カメラ装置 |
US8558993B2 (en) | 2010-05-21 | 2013-10-15 | The National Institute of Standards and Technology, as Presented by the Secretary of Commerce | Optical frequency comb-based coherent LIDAR |
US8829417B2 (en) | 2010-11-08 | 2014-09-09 | The Johns Hopkins University | Lidar system and method for detecting an object via an optical phased array |
TWI449420B (zh) * | 2011-05-31 | 2014-08-11 | Nat Applied Res Laboratoires | 搜索取像系統及其控制方法 |
CN102288221A (zh) * | 2011-06-22 | 2011-12-21 | 中国科学院深圳先进技术研究院 | 管道普查设备 |
US9128185B2 (en) * | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Methods and apparatus of fusing radar/camera object data and LiDAR scan points |
CN103608696B (zh) * | 2012-05-22 | 2016-05-11 | 韩国生产技术研究院 | 3d扫描系统和获得3d图像的方法 |
US9234618B1 (en) | 2012-09-27 | 2016-01-12 | Google Inc. | Characterizing optically reflective features via hyper-spectral sensor |
US9097800B1 (en) | 2012-10-11 | 2015-08-04 | Google Inc. | Solid object detection system using laser and radar sensor fusion |
DE102013103333A1 (de) * | 2013-04-03 | 2014-10-09 | Karl Storz Gmbh & Co. Kg | Kamera zur Erfassung von optischen Eigenschaften und von Raumstruktureigenschaften |
US10373470B2 (en) * | 2013-04-29 | 2019-08-06 | Intelliview Technologies, Inc. | Object detection |
WO2014208111A1 (ja) * | 2013-06-27 | 2014-12-31 | ギガフォトン株式会社 | 光ビーム計測装置、レーザ装置及び光ビーム分離装置 |
FR3012618B1 (fr) * | 2013-10-30 | 2018-08-31 | Thales | Terminal d'operateur a affichage de zones de qualite de prises de vues |
US20150130936A1 (en) | 2013-11-08 | 2015-05-14 | Dow Agrosciences Llc | Crop monitoring system |
EP2879012A1 (en) * | 2013-11-29 | 2015-06-03 | The Boeing Company | System and method for commanding a payload of an aircraft |
CA2847707C (en) | 2014-03-28 | 2021-03-30 | Intelliview Technologies Inc. | Leak detection |
US9874878B2 (en) | 2014-07-22 | 2018-01-23 | Sikorsky Aircraft Corporation | System and method for adaptive multi-scale perception |
US10943357B2 (en) | 2014-08-19 | 2021-03-09 | Intelliview Technologies Inc. | Video based indoor leak detection |
CA2959083C (en) * | 2014-08-25 | 2018-02-20 | Isis Geomatics Inc. | Apparatus and method for detecting a gas using an unmanned aerial vehicle |
WO2017022556A1 (ja) * | 2015-08-04 | 2017-02-09 | コニカミノルタ株式会社 | ガス検知装置及びガス検知方法 |
US10458904B2 (en) | 2015-09-28 | 2019-10-29 | Ball Aerospace & Technologies Corp. | Differential absorption lidar |
US10557939B2 (en) | 2015-10-19 | 2020-02-11 | Luminar Technologies, Inc. | Lidar system with improved signal-to-noise ratio in the presence of solar background noise |
US9810627B2 (en) * | 2015-10-27 | 2017-11-07 | Nec Corporation | Flexible three-dimensional long-path gas sensing by unmanned vehicles |
WO2017079483A1 (en) | 2015-11-05 | 2017-05-11 | Luminar Technologies, Inc. | Lidar system with improved scanning speed for high-resolution depth mapping |
JP6852085B2 (ja) | 2015-11-30 | 2021-03-31 | ルミナー テクノロジーズ インコーポレイテッド | 分布型レーザー及び複数のセンサー・ヘッドを備える光検出及び測距システム、並びに、光検出及び測距システムのパルス・レーザー |
US9588058B1 (en) * | 2015-12-29 | 2017-03-07 | Lawrence Livermore National Security, Llc | Non-destructive evaluation of water ingress in photovoltaic modules |
US10177464B2 (en) | 2016-05-18 | 2019-01-08 | Ball Aerospace & Technologies Corp. | Communications antenna with dual polarization |
EP3293115B1 (de) * | 2016-09-07 | 2019-10-30 | Siemens Aktiengesellschaft | Verfahren zur steuerung unbemannter flugobjekte |
CN106227220A (zh) * | 2016-09-28 | 2016-12-14 | 关健生 | 基于分布式框架的自主导航巡检机器人 |
US10775504B2 (en) * | 2016-09-29 | 2020-09-15 | Honeywell International Inc. | Laser air data sensor mounting and operation for eye safety |
US10345804B2 (en) * | 2016-10-04 | 2019-07-09 | General Electric Company | Method and system for remote processing and analysis of industrial asset inspection data |
US9810786B1 (en) | 2017-03-16 | 2017-11-07 | Luminar Technologies, Inc. | Optical parametric oscillator for lidar system |
US9905992B1 (en) | 2017-03-16 | 2018-02-27 | Luminar Technologies, Inc. | Self-Raman laser for lidar system |
US9810775B1 (en) | 2017-03-16 | 2017-11-07 | Luminar Technologies, Inc. | Q-switched laser for LIDAR system |
US9869754B1 (en) | 2017-03-22 | 2018-01-16 | Luminar Technologies, Inc. | Scan patterns for lidar systems |
US10007001B1 (en) | 2017-03-28 | 2018-06-26 | Luminar Technologies, Inc. | Active short-wave infrared four-dimensional camera |
US10545240B2 (en) | 2017-03-28 | 2020-01-28 | Luminar Technologies, Inc. | LIDAR transmitter and detector system using pulse encoding to reduce range ambiguity |
CN107065027A (zh) * | 2017-05-11 | 2017-08-18 | 清华大学 | 泄漏源的探测系统、方法、装置及设备 |
US10473550B2 (en) * | 2017-06-30 | 2019-11-12 | Aurora Innovative Technology LLC | Multi-laser gas leakage detector |
US10497475B2 (en) | 2017-12-01 | 2019-12-03 | Verily Life Sciences Llc | Contextually grouping sensor channels for healthcare monitoring |
IL257010B (en) | 2018-01-18 | 2021-10-31 | Israel Aerospace Ind Ltd | Camera-based automatic aircraft control for radar operation |
CN108170865A (zh) * | 2018-01-30 | 2018-06-15 | 广州晟能电子科技有限公司 | 地下综合管廊系统廊体内部环境参数数据场采集及分析方法 |
WO2019213534A1 (en) * | 2018-05-04 | 2019-11-07 | Hydromax USA, LLC | Pipe inspection systems and methods |
US10921245B2 (en) | 2018-06-08 | 2021-02-16 | Ball Aerospace & Technologies Corp. | Method and systems for remote emission detection and rate determination |
US11385352B2 (en) * | 2018-07-27 | 2022-07-12 | Lyft, Inc. | Tunable LiDAR for simultaneous ranging and environmental monitoring |
KR102047455B1 (ko) * | 2019-03-15 | 2019-11-21 | 선두전자(주) | 도시가스 누설 검지장치 |
CN110345390B (zh) * | 2019-07-18 | 2021-03-23 | 深圳市禾启智能科技有限公司 | 携带摄像功能的遥测装置、无人机及燃气泄露的巡检方法 |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
DE102019124092A1 (de) * | 2019-09-09 | 2021-03-11 | Grandperspective GmbH | System und Verfahren zur Überwachung eines Luftraumes für ein ausgedehntes Gelände |
US11150348B2 (en) | 2019-10-02 | 2021-10-19 | Cepton Technologies, Inc. | Techniques for detecting cross-talk interferences in lidar imaging sensors |
US12105196B2 (en) | 2019-12-12 | 2024-10-01 | Samsung Electronics Co., Ltd. | LiDAR device and LiDAR system including the same |
KR102191109B1 (ko) * | 2020-02-27 | 2020-12-15 | (주)카네비컴 | 자율 무인항공 이동체 및 이의 제어 방법 |
RU201025U1 (ru) * | 2020-08-03 | 2020-11-24 | Федеральное государственное бюджетное учреждение науки Институт оптики атмосферы им. В.Е. Зуева Сибирского отделения Российской академии наук (ИОА СО РАН) | Двухканальный лидар ближнего ик-диапазона |
US20220272207A1 (en) * | 2021-02-24 | 2022-08-25 | General Electric Company | Automated beam scan calibration, alignment, and adjustment |
WO2022180760A1 (ja) * | 2021-02-26 | 2022-09-01 | 三菱電機株式会社 | ライダ装置 |
RU205178U1 (ru) * | 2021-03-10 | 2021-06-29 | Федеральное государственное бюджетное учреждение науки Институт оптики атмосферы им. В.Е. Зуева Сибирского отделения Российской академии наук (ИОА СО РАН) | Лидар для зондирования атмосферы |
CN113324527B (zh) * | 2021-05-28 | 2021-11-26 | 自然资源部国土卫星遥感应用中心 | 一种同轨激光测高点与三线阵立体影像联合测绘处理方法 |
US20220404505A1 (en) * | 2021-06-22 | 2022-12-22 | 3Deo, Inc. | System and method for an airborne mapping lidar |
GB2617370A (en) | 2022-04-06 | 2023-10-11 | Qlm Tech Limited | Measurement of gas flow rate |
KR102631376B1 (ko) * | 2022-12-15 | 2024-02-01 | 한국전자기술연구원 | 이종 디바이스 융복합 센서 장치 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3032655A (en) * | 1958-03-05 | 1962-05-01 | Romans Gleason | Method of detecting pipe line leaks |
US4001764A (en) * | 1974-06-14 | 1977-01-04 | Exxon Production Research Company | Acoustic method for detecting leaks from submerged pipelines |
US4450356A (en) * | 1982-06-07 | 1984-05-22 | Sri International | Frequency-mixed CO2 laser radar for remote detection of gases in the atmosphere |
US4489239A (en) * | 1982-09-24 | 1984-12-18 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Portable remote laser sensor for methane leak detection |
US4555627A (en) * | 1983-04-05 | 1985-11-26 | The United States Of America As Represented By The United States Department Of Energy | Backscatter absorption gas imaging system |
US4853543A (en) * | 1983-09-13 | 1989-08-01 | Phillip Ozdemir | Method and apparatus for detecting a tracer gas using a single laser beam |
JPS60233584A (ja) * | 1984-02-29 | 1985-11-20 | Hitachi Ltd | 埋設物探知装置 |
JPS60249083A (ja) * | 1984-05-25 | 1985-12-09 | Asahi Koyo Kk | 地質空中探査法及びその装置 |
SE450913B (sv) * | 1984-08-10 | 1987-08-10 | Hans Georg Edner | Gaskorrelerad lidar |
CA1307839C (en) * | 1987-03-20 | 1992-09-22 | Donald A. Abernathy | Leak detection and multispectral survey system |
AU598367B2 (en) * | 1987-05-08 | 1990-06-21 | Broken Hill Proprietary Company Limited, The | Sensing of methane |
US4870275A (en) * | 1988-05-06 | 1989-09-26 | Skyborne Exploration Canada, Limited | Circulating raman-media laser radar method and apparatus for remote measurement of gases in the atmosphere |
US5166789A (en) * | 1989-08-25 | 1992-11-24 | Space Island Products & Services, Inc. | Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates |
EP0485573B1 (en) * | 1990-06-04 | 1995-09-13 | Eastman Kodak Company | Method for interactive self-modeling mixture analysis |
US5157257A (en) * | 1990-06-18 | 1992-10-20 | Lasen, Inc. | Mid-infrared light hydrocarbon DIAL LIDAR |
US5250810A (en) * | 1990-06-18 | 1993-10-05 | Lasen, Inc. | Mid-infrared light hydrocarbon dial lidar |
JPH04138306A (ja) * | 1990-09-28 | 1992-05-12 | Kao Corp | 異常ラベルの検査装置 |
EP0489546A3 (en) * | 1990-12-06 | 1993-08-04 | The British Petroleum Company P.L.C. | Remote sensing system |
JPH0561963A (ja) * | 1991-09-04 | 1993-03-12 | Mitsubishi Electric Corp | 地球観測方法 |
US5430293A (en) * | 1991-10-08 | 1995-07-04 | Osaka Gas Co., Ltd. | Gas visualizing apparatus and method for detecting gas leakage from tanks or piping |
DE4137008A1 (de) * | 1991-11-11 | 1993-05-13 | Heribert F Dr Ing Broicher | Vorrichtung zur feststellung von qualitaetsaenderungen von massenguetern auf laufenden foerderbaendern |
US5294796A (en) * | 1992-03-02 | 1994-03-15 | Aerojet-General Corporation | Remote vapor detection system and method thereof |
US5298751A (en) * | 1992-03-20 | 1994-03-29 | Aerojet-General Corporation | Remote active vapor concentration measurement system and method thereof |
DE4216828C2 (de) * | 1992-05-21 | 1994-08-18 | Dornier Gmbh | Verfahren zur Erdbeobachtung |
EP0622625A3 (en) * | 1993-04-27 | 1997-04-16 | Hughes Aircraft Co | Air quality monitoring system. |
JPH07332951A (ja) * | 1994-06-13 | 1995-12-22 | Hiyuu Burein:Kk | 画像検査装置および画像検査方法 |
US5878356A (en) * | 1995-06-14 | 1999-03-02 | Agrometrics, Inc. | Aircraft based infrared mapping system for earth based resources |
US5818951A (en) * | 1995-10-13 | 1998-10-06 | Infrared Service Corporation | Methods and related apparatus for generating thermographic survey images |
US5742053A (en) * | 1996-11-29 | 1998-04-21 | Rekunyk; Horace | Infrared gas detection method and apparatus |
JP2000121732A (ja) * | 1998-10-19 | 2000-04-28 | Toshiba Corp | 水中物体探知識別装置 |
JP2000194833A (ja) * | 1998-12-28 | 2000-07-14 | Hitachi Ltd | 観測衛星を利用した地域管理システム,地域管理方法と農業育成管理システム及び観測衛星運用システム |
AU5265800A (en) * | 1999-03-17 | 2000-10-04 | University Of Virginia Patent Foundation | Passive remote sensor of chemicals |
US6366681B1 (en) * | 1999-04-07 | 2002-04-02 | Space Imaging, Lp | Analysis of multi-spectral data for extraction of chlorophyll content |
US6518562B1 (en) * | 2000-01-20 | 2003-02-11 | Gas Research Institute | Apparatus and method of remote gas trace detection |
US6484564B1 (en) * | 2000-03-27 | 2002-11-26 | Tsuden Kabushiki Kaisha | Liquid leakage sensor, paper for detecting liquid leakage, and holder for detecting liquid leakage |
US6509566B1 (en) * | 2000-06-22 | 2003-01-21 | Ophir Corporation | Oil and gas exploration system and method for detecting trace amounts of hydrocarbon gases in the atmosphere |
US6664529B2 (en) * | 2000-07-19 | 2003-12-16 | Utah State University | 3D multispectral lidar |
JP4004332B2 (ja) * | 2002-05-22 | 2007-11-07 | 株式会社パスコ | 森林情報処理システム |
EA008402B1 (ru) * | 2002-09-20 | 2007-04-27 | М7 Визьюал Интелидженс, Лп | Размещаемая на транспортном средстве система сбора и обработки данных |
US7027924B2 (en) * | 2002-10-31 | 2006-04-11 | Itt Manufacturing Enterprises, Inc | Detecting natural gas pipeline failures |
JP4066814B2 (ja) * | 2003-01-10 | 2008-03-26 | 三菱電機株式会社 | 人工衛星搭載環境観測装置 |
CA2771670C (en) * | 2003-03-13 | 2013-04-02 | Synodon Inc. | Remote sensing of gas leaks |
US6725705B1 (en) * | 2003-05-15 | 2004-04-27 | Gas Technology Institute | Enhanced acoustic detection of gas leaks in underground gas pipelines |
US6822742B1 (en) * | 2003-12-19 | 2004-11-23 | Eastman Kodak Company | System and method for remote quantitative detection of fluid leaks from a natural gas or oil pipeline |
-
2005
- 2005-08-18 US US11/206,540 patent/US7411196B2/en active Active
-
2006
- 2006-07-18 JP JP2008526939A patent/JP5350791B2/ja not_active Expired - Fee Related
- 2006-07-18 AT AT06800110T patent/ATE546749T1/de active
- 2006-07-18 EP EP06800110A patent/EP1920271B1/en not_active Not-in-force
- 2006-07-18 ES ES06800110T patent/ES2382816T3/es active Active
- 2006-07-18 WO PCT/US2006/027882 patent/WO2007021426A1/en active Application Filing
- 2006-07-18 CA CA2619138A patent/CA2619138C/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CA2619138A1 (en) | 2007-02-22 |
JP2009505099A (ja) | 2009-02-05 |
EP1920271B1 (en) | 2012-02-22 |
US20070040121A1 (en) | 2007-02-22 |
ATE546749T1 (de) | 2012-03-15 |
CA2619138C (en) | 2015-03-24 |
EP1920271A1 (en) | 2008-05-14 |
US7411196B2 (en) | 2008-08-12 |
JP5350791B2 (ja) | 2013-11-27 |
WO2007021426A1 (en) | 2007-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2382816T3 (es) | Fusión de datos de multisensores y de un lidar de absorción diferencial | |
US8072581B1 (en) | Laser range finding system using variable field of illumination flash lidar | |
US9253453B2 (en) | Automatic video surveillance system and method | |
US6422508B1 (en) | System for robotic control of imaging data having a steerable gimbal mounted spectral sensor and methods | |
US6281970B1 (en) | Airborne IR fire surveillance system providing firespot geopositioning | |
Kerle et al. | Real-time data collection and information generation using airborne sensors | |
US20140022388A1 (en) | Air Surveillance System for Detecting Missiles Launched from Inside an Area to be Monitored and Air Surveillance Method | |
Zaman et al. | Retrieval of spectral reflectance of high resolution multispectral imagery acquired with an autonomous unmanned aerial vehicle | |
US20220301303A1 (en) | Multispectral imaging for navigation systems and methods | |
Gowravaram et al. | UAS-based multispectral remote sensing and NDVI calculation for post disaster assessment | |
Hashimoto et al. | Light weight sensors for the autonomous asteroid landing of MUSES-C mission | |
JP3797219B2 (ja) | 監視装置 | |
US20170237947A1 (en) | Detecting and locating bright light sources from moving aircraft | |
US7130449B2 (en) | Method and system for ground imaging | |
US12126942B2 (en) | Active camouflage detection systems and methods | |
US20240314272A1 (en) | Active camouflage detection systems and methods | |
US11994462B1 (en) | Multi-spectral methods and systems for day and night sensing of greenhouse gas sources from space | |
US20240272069A1 (en) | Multi-spectral methods and systems for day and night sensing of greenhouse gas sources from space | |
Bartholomäus et al. | Evaluation of orbit results on wildfire detection using a broad single-channel microbolometer sensor sensitive in the thermal infrared | |
WO2020021904A1 (ja) | 生育情報表示システム | |
Lorenz et al. | Airborne testing of a bispectral infrared pushbroom scanner for hotspot detection | |
Chekan et al. | Use of commercial satellite imagery for surveillance of the Canadian north by the Canadian Armed Forces | |
Stow et al. | Airborne digital multispectral imaging | |
SMITH | Manned operation of earth resources surveys from space | |
Stetson et al. | Airborne laser-diode-array illuminator assessment for the night vision's airborne mine-detection arid test |