ES2731451T3 - Método y sistema para la referencia geométrica de datos multi-espectrales - Google Patents
Método y sistema para la referencia geométrica de datos multi-espectrales Download PDFInfo
- Publication number
- ES2731451T3 ES2731451T3 ES17151487T ES17151487T ES2731451T3 ES 2731451 T3 ES2731451 T3 ES 2731451T3 ES 17151487 T ES17151487 T ES 17151487T ES 17151487 T ES17151487 T ES 17151487T ES 2731451 T3 ES2731451 T3 ES 2731451T3
- Authority
- ES
- Spain
- Prior art keywords
- images
- sequence
- sensor
- subset
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000006073 displacement reaction Methods 0.000 claims abstract description 21
- 230000005855 radiation Effects 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 5
- 238000000701 chemical imaging Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 235000009754 Vitis X bourquina Nutrition 0.000 description 1
- 235000012333 Vitis X labruscana Nutrition 0.000 description 1
- 240000006365 Vitis vinifera Species 0.000 description 1
- 235000014787 Vitis vinifera Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229910052500 inorganic mineral Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000011707 mineral Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/02—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
- G01C11/025—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
- G01J2003/2826—Multispectral imaging, e.g. filter imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Astronomy & Astrophysics (AREA)
- Automation & Control Theory (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Un método para la obtención de referencias geométricas de datos multi-espectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen regiones distintas que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el método: - seleccionar un subconjunto a partir de la secuencia de imágenes (720), conteniendo dicho subconjunto una pluralidad de imágenes, de las que cada imagen representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto; - generar un modelo en 3D realizando reconstrucción fotogramétrica en 3D sobre las imágenes del subconjunto (730, 740); - estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes (750), y - usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no estén en dicho subconjunto seleccionado (760), donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
Description
DESCRIPCIÓN
Método y sistema para la referencia geométrica de datos multi-espectrales.
Campo de la invención
La invención se refiere al campo de la captura de imágenes, por ejemplo de imágenes aéreas. Más en particular, la presente invención se refiere a sistemas de detección para obtener imágenes multi-espectrales, a sistemas correspondientes de obtención de imágenes y a métodos para el uso de los mismos.
Antecedentes
La obtención de imágenes hiperespectrales es una forma de obtención espectral de imágenes en donde se recopila información a través del espectro electromagnético en muchas bandas espectrales estrechas, y se procesa. A partir de las diferentes imágenes espectrales que se recopilan, se puede deducir información de los objetos de los que se forma la imagen. Por ejemplo, dado que algunos objetos dejan signaturas espectrales únicas en imágenes que pueden incluso depender del estado del objeto, la información obtenida mediante la obtención de imágenes multiespectrales puede proporcionar información con relación a la presencia y/o al estado de objetos en una región que está siendo visualizada. Tras la selección de un rango espectral que va a ser visualizado, dado que se pueden adquirir imágenes espectrales en este rango espectral completo, no se necesita tener un conocimiento previo detallado de los objetos, y el post-procesamiento puede permitir obtener toda la información disponible. Mientras que originalmente se ha utilizado la detección hiperespectral remota principalmente para minería y geología, otras aplicaciones tales como ecología, agricultura y vigilancia hacen también uso de la técnica de obtención de imágenes.
Se conoce el uso de técnicas fotogramétricas para inferir información tridimensional, en particular información de elevación, a partir de las imágenes bidimensionales adquiridas. Un ejemplo de esa técnica ha sido divulgado en Alsadik, B.S. Gerke, M. & Vosselman, G. (2012), “Optimal Camera Network Design for 3D Modeling of Cultural Heritage”, ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 1-3, 7-12. Se conocen algunas aplicaciones agrícolas y ecológicas en las que se usa detección remota hiperespectral, por ejemplo para monitorizar el desarrollo y la salud de los cultivos, detección de las variedades de uva, monitorización de cubiertas forestales individuales, detección de la composición química de plantas, así como la detección temprana de brotes enfermos, monitorización del impacto de la polución y de otros factores medioambientales, etc., son algunas de las aplicaciones agrícolas de interés. La obtención de imágenes hiperespectrales se usa también para estudios de aguas en islas y costas, para la detección de propiedades biofísicas. En mineralogía, la detección de minerales valiosos tales como oro o diamantes, puede ser llevada a cabo usando detección de imágenes hiperespectrales, pero también se destina a la detección de fugas de petróleo o de gases en las conducciones y en los pozos naturales. La detección de la composición del suelo en la Tierra o incluso en otros planetas, asteroides o cometas, son también aplicaciones posibles de la obtención de imágenes hiperespectrales. En vigilancia, la formación de imágenes hiperespectrales puede ser llevada a cabo, por ejemplo, para la detección de seres vivos. La publicación de solicitud de Patente Internacional WO 2011/073430 A1, a nombre de la presente solicitante, divulga un dispositivo de detección para obtener datos de imágenes multi-espectrales de referencia geométrica de una zona de interés en movimiento relativo con respecto al dispositivo de detección. El dispositivo de detección comprende un primer elemento sensor bidimensional y un filtro espectral. El filtro espectral y el primer elemento sensor están dispuestos de modo que obtienen información espectral a una primera longitud de onda o rango de longitud de onda, usando una parte del primer elemento sensor, y para obtener información espectral a una segunda longitud de onda o rango de longitud de onda, usando otra parte del primer elemento sensor. Como resultado de esta disposición, las diferentes partes de una imagen única adquirida con el primer sensor presentarán que el escenario visualizado según se ve, es una radiación de una longitud de onda respectiva diferente.
Hasta la fecha, no existe una forma satisfactoria de aplicar las técnicas fotogramétricas mencionadas con anterioridad, directamente a imágenes multi-espectrales o hiperespectrales tales como las adquiridas por medio del primer sensor del documento WO 2011/073430 A1. Sin embargo, la información fotogramétrica completa acerca de las imágenes multi-espectrales o hiperespectrales adquiridas es esencial para coser correctamente entre sí una imagen del escenario explorado en cualquier banda de longitud de onda particular.
En el documento WO 2011/073430 A1, este problema ha sido resuelto mediante la provisión de un segundo sensor sobre el mismo substrato, el cual adquiere simultáneamente imágenes pancromáticas de la zona visualizada por medio del primer sensor. Las imágenes pancromáticas se usan para realizar modelado en 3D, y la información del modelo en 3D se traslada posteriormente a las imágenes compuestas del escenario en las diferentes bandas de longitud de onda que están cubiertas por el primer sensor multi-espectral o hiperespectral.
La solicitud de Patente Internacional no publicada PCT/EP2015/065523, a nombre de la presente solicitante, describe un dispositivo de detección para obtener datos de imágenes multi-espectrales de referencia geométrica de una región de interés en movimiento relativo con respecto al dispositivo de detección, comprendiendo el dispositivo
de detección al menos un primer elemento sensor bidimensional, estando el dispositivo de detección adaptado para obtener imágenes multi-espectrales subsiguientes durante dicho movimiento relativo de la región de interés con respecto al dispositivo de detección, proporcionando de ese modo distinta información espectral para diferentes partes de una región de interés usando el primer elemento sensor, un segundo elemento sensor bidimensional, estando el dispositivo de detección adaptado para proporcionar, usando el segundo elemento sensor, una imagen de la región de interés para generar información de referencia geométrica a ser acoplada a la distinta información espectral; siendo el primer elemento sensor bidimensional operable para capturar una primera secuencia de tramas a una primera velocidad de trama y siendo el segundo elemento sensor bidimensional operable para capturar una segunda secuencia de tramas a una segunda velocidad de trama; en donde la primera velocidad de trama es mayor que la segunda velocidad de trama; y, en donde el dispositivo de detección comprende además un procesador configurado para generar información de referencia geométrica intermedia a ser acoplada a tramas de dicha primera secuencia de tramas para las que no se encuentre disponible ninguna trama síncrona a partir de dicha segunda secuencia de tramas, siendo dicha información de referencia geométrica intermedia deducida a partir de una o más tramas temporalmente similares desde dicha segunda secuencia de tramas. De esta forma, el sistema del documento PCT/EP2015/065523 está capacitado para reducir el número de imágenes pancromáticas requeridas para realizar la obtención de referencias geométricas, en relación con el sistema del documento WO 2011/073430 A1, por medio de interpolación o de extrapolación. Sin embargo, el sistema del documento PCT/EP2015/065523 no cambia la suposición de que las imágenes pancromáticas siguen siendo necesarias.
El artículo del inventor de la presente invención A. Sima et al., “Registro Semi-Automático de Exploraciones Hiperespectrales de Corto Alcance Usando Imágenes de Cámara Digital Orientada y un Modelo en 3D”, The Photogrammetric Record, vo. 29 (2014), núm. 145, divulga un método semi-automatizado para registrar imágenes hiperespectrales panorámicas terrestres con modelos LIDAR y fotografía digital convencional. El método se basa en el hallazgo de puntos correspondientes entre imágenes adquiridas en partes significativamente diferentes del espectro electromagnético, desde puntos de vista diferentes, y con resolución espacial y proyecciones geométricas diferentes. El artículo reconoce que el número de puntos homólogos que pueden ser emparejados entre una banda hiperespectral y una imagen de cámara digital de cobertura (pancromática) varía con la longitud de onda, y propone una técnica que se basa en una selección juiciosa de bandas espectrales en las que se pueda emparejar un número máximo de puntos.
La solicitud de Patente Internacional no publicada núm. PCT/EP2015/065524, a nombre de la presente solicitante, describe un método para realizar una reconstrucción fotogramétrica en 3D de objetos visualizados en una secuencia de imágenes, conteniendo las imágenes distintas regiones que representan radiación visualizada a distintas longitudes de onda respectivas, comprendiendo el método: seleccionar una pluralidad de subconjuntos a partir de la secuencia de imágenes, conteniendo cada uno de la pluralidad de subconjuntos una pluralidad de imágenes, cada una de cuyas imágenes representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto; generar un conjunto de modelos en 3D intermedios realizando reconstrucción fotogramétrica en 3D sobre imágenes en los subconjuntos respectivos; y, recombinar los modelos en 3D intermedios a partir del conjunto de modelos en 3D, en un modelo en 3D combinado. Sin embargo, el método requiere aún una cantidad significativa de procesamiento.
La publicación de la solicitud de Patente Internacional núm. WO 2014/151746 A2 a nombre de URC Ventures Inc., divulga técnicas para analizar imágenes adquiridas a través de dispositivos móviles de varias formas, incluyendo estimar mediciones para uno o más atributos de uno o más objetos en las imágenes. Por ejemplo, se ha constatado que las técnicas descritas son utilizables para medir el volumen de un almacenamiento de material o de otro objeto grande, en base a imágenes adquiridas a través de un dispositivo móvil que es portado por un usuario humano según pasa en torno a alguno de, o a todos, los objetos. Durante la adquisición de una serie de imágenes digitales de un objeto de interés, se pueden proporcionar varios tipos de retroalimentación de usuario a un operador usuario humano del dispositivo móvil, y se pueden seleccionar imágenes particulares para análisis adicional de varias maneras. Además, el cálculo del volumen del objeto y/u otra información determinada del objeto pueden incluir la generación y el manejo de un modelo de ordenador u otra representación del objeto procedente de las imágenes seleccionadas. Las técnicas divulgadas en este artículo no se relacionan con imágenes que representen radiación en distintas longitudes de onda.
El artículo de Lichun Li et al., “Un nuevo enfoque de navegación de emparejamiento del contorno del terreno en base a reconstrucción del terreno en 3D a partir de una secuencia de imágenes a bordo”, Science China Technological Sciences, vol. 35 (2010) núm. 5, 1176-1183, divulga un método de navegación pasiva de emparejamiento del contorno de un terreno mediante la reconstrucción del terreno en 3D a partir de la secuencia de imágenes adquiridas por medio de una cámara a bordo. Para lograr la automatización y la simultaneidad del procesamiento de la secuencia de imágenes para la navegación, se propone un método de registro de correspondencia basado en rastreo de puntos de control, que rastrea los puntos de control dispersos a través de la secuencia completa de imágenes, y las utiliza como correspondencia en la solución de la geometría de la relación. Se explora un método clave de selección de trama basado en la relación de solapamiento de las imágenes y en los ángulos de intersección, y se proporciona a continuación el requisito de la configuración del sistema de cámara. El método propuesto incluye también un algoritmo de estimación de homografía local óptima acorde con los puntos de control, que ayuda a pronosticar correctamente puntos que van a ser emparejados y su velocidad correspondiente. Por
consiguiente, el terreno en 3D en tiempo real de la trayectoria así reconstruida se empareja con el mapa del terreno de referencia, y el resultado proporciona información de navegación. Las técnicas divulgadas en este artículo no están relacionadas con imágenes que representen radiación a distintas longitudes de onda.
El artículo de Turner Darren et al., “Georeferenciación Directa de Imágenes de UAV de Ultra-Alta Resolución”, IEEE Transactions on Geoscience and Remote Sensing, vol. 52 (2014), núm. 5, 2738-2745, divulga un concepto de módulo de sistema de posición global (GPS) de cámara que permite la sincronización de la exposición de la cámara con una posición del fuselaje según se registra mediante un GPS con una precisión de 10-20 cm. Se aplicaron correcciones del brazo de palanca a las posiciones de la cámara para tomar en consideración las diferencias posicionales entre la antena de GPS y el centro de la cámara. Se implementaron algoritmos de selección de imagen para eliminar imágenes borrosas e imágenes con un solapamiento excesivo. Este estudio comparó tres métodos de software diferentes (Photoscan, servicio de web Pix4D, y un método interno de Bundler), evaluando cada uno de ellos en base al tiempo de procesamiento, a la facilidad de uso, y a la precisión espacial del mosaico final producido. El artículo menciona la necesidad de eliminar algunas de esas imágenes de solapamiento para mejorar la eficacia del procesamiento, lo cual se consigue mediante lectura de la información de ubicación de la imagen a partir de las cabeceras EXIF de la imagen. Se ha constatado que un solapamiento de imágenes de alrededor de un 80% produce los mejores resultados para algoritmos de procesamiento de imágenes basados en SIM. La formación de subconjuntos de imágenes se consigue calculando la distancia entre imágenes consecutivas. Las técnicas divulgadas en este artículo no están relacionadas con imágenes que presenten radiación a distintas longitudes de onda.
La publicación de solicitud de Patente Internacional núm. WO 2014/031284 A1, a nombre de Visual Intelligence LP, divulga un sistema sensor de obtención de imágenes que comprende: una unidad de montaje fijada a un vehículo o a una plataforma y que tiene al menos tres sensores de obtención de imágenes dispuestos en el interior de la unidad de montaje, en donde un primer, un segundo y un tercer sensores de obtención de imagen tienen, cada uno de ellos, un eje focal que pasa a través de una abertura en la unidad de montaje, en donde el primer sensor de imagen genera una primera área de imagen del área objetivo que comprende una primera matriz de píxeles, en donde el segundo sensor de imagen genera una segunda área de imagen del área objetivo que comprende una primera matriz de píxeles, en donde el primer y el segundo sensores de obtención de imágenes están desviados para lograr una primera área de solapamiento de imagen en el área objetivo, en donde los datos de imagen de los primeros sensores bisecan con los datos de imagen de los segundos sensores en la primera área de solapamiento de imagen. Se describen varias realizaciones. El conjunto de matriz de cámara está configurado de tal modo que los bordes contiguos de las áreas de imagen relevantes se solapan ligeramente. Mientras que el documento sugiere orto-rectificación de la secuencia de imágenes solapantes usando técnicas de fotogrametría estándar para producir un orto-mapa en el que cada píxel tenga una coordenada de latitud y longitud únicas y una coordenada de elevación única, no se ocupa del tratamiento de las imágenes adquiridas en diferentes rangos espectrales.
La publicación de la solicitud de Patente Internacional núm. WO 2004/027348 A2, a nombre de M7 Visual Intelligence LP, divulga un método para calibrar un sistema de detección remota a bordo, usando un patrón de desplazamiento auto-bloqueante y datos de detección remota objetivo. El patrón de desplazamiento auto-bloqueante incluye un número de líneas de desplazamiento paralelas que tienen anchos de muestra de solapamiento entre líneas de desplazamiento adyacentes. Los anchos de muestra de solapamiento se usan para determinar los ángulos de visión y la desviación de rango del dispositivo sensor remoto. Adicionalmente, el método puede ser usado para generar errores estimados de desplazamiento horizontal y vertical. Estos errores estimados pueden ser usados como factores de corrección para la desviación de rango y los ángulos de visión.
Existe una necesidad de una forma alternativa de referenciar geométricamente imágenes multi-espectrales o hiperespectrales que no se base en imágenes pancromáticas adquiridas simultáneamente y que tenga una complejidad computacional limitada.
Sumario de la invención
Según un aspecto de la presente invención, se proporciona un método para la referencia geométrica de datos multiespectrales en una secuencia de imágenes, siendo las imágenes adquiridas usando un sensor multi-espectral, conteniendo cada imagen regiones distintas que presentan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el método: seleccionar un subconjunto a partir de la secuencia de imágenes, conteniendo dicho subconjunto una pluralidad de imágenes, cada una de cuyas imágenes representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto; generar un modelo en 3D realizando reconstrucción fotogramétrica en 3D sobre las imágenes en el subconjunto; estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes; y, usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no estén en dicho subconjunto seleccionado, donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z) así como los ángulos de cabeceo, balanceo y guiñada del sensor.
A través de la presente solicitud, se debe entender que el término multi-espectral” incluye “hiperespectral”, a menos que se indique lo contrario.
Una ventaja de la presente invención consiste en que se puede hacer una obtención de referencias geométricas precisas de un conjunto de imágenes multi-espectrales por tramos, de una manera más eficiente mediante la combinación juiciosa de técnicas fotogramétricas, para imágenes que estén suficientemente separadas, con técnicas de interpolación, paras todas las imágenes que estén entre las imágenes que han sido seleccionadas para fotogrametría.
Al igual que en la invención descrita en la solicitud de Patente sin publicar PCT/EP2015/065524, la presente invención se basa inter alia en la percepción sorprendente de los inventores de que la modelación en 3D puede ser aplicada con éxito a imágenes multi-espectrales a pesar de la diferencia en cuanto a apariencia de las mismas característica en imágenes diferentes, siempre que las imágenes usadas para las reconstrucciones en 3D estén suficientemente separadas. Así, cuando se eligen pares de imágenes para modelación fotogramétrica en 3D, las peticiones en conflicto de proximidad espectral (cuanto más próximas sean las longitudes de onda de las imágenes, más similares visualmente serán las imágenes) y la separación espectral (cuanto más alejadas se hayan tomado las imágenes, más pronunciada será la información de profundidad), produce un sorprendente “punto dulce” donde se vuelve a hacer posible el procesamiento fotogramétrico eficiente y preciso de pares de imágenes multi-espectrales o hiperespectrales. Sin embargo, la presente invención mitiga los requisitos de procesamiento excesivo de la técnica fotogramétrica del documento PCT/EP2015/065524 restringiendo su aplicación a un subconjunto de imágenes, y resolviendo los parámetros para las imágenes intervinientes por medio de interpolación.
En una realización, el método conforme a la presente invención comprende que dicho sensor multi-espectral sea un sensor hiperespectral que tiene un elemento de detección con diferentes partes que son sensibles a diferentes longitudes de onda.
Los inventores han encontrado que la presente invención resulta muy indicada en particular para resolver los problemas de obtención de referencias que ocurren en las imágenes hiperespectrales.
En una realización del método conforme a la presente invención, la secuencia de imágenes comprende imágenes muy poco distanciadas en una dirección de movimiento de un sensor con el fin de tener un solapamiento en dicha dirección de aproximadamente el 99%.
La mejora en la complejidad computacional obtenida mediante el uso de la presente invención es particularmente significativa cuando las imágenes a ser procesadas están espaciadas de forma extremadamente cercana, como es el caso de las imágenes hiperespectrales obtenidas en campañas de fotografía espectral aérea.
Conforme a un aspecto de la presente invención, se proporciona un producto de programa informático que comprende medios de código configurados para hacer que un procesador realice, cuando se ejecuta, las etapas del método según se ha descrito con anterioridad.
Conforme a un aspecto de la presente invención, se proporciona un sistema para obtener referencias geométricas de datos multi-espectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen regiones distintas que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el sistema un procesador configurado para: seleccionar un subconjunto a partir de la secuencia de imágenes, conteniendo dicho subconjunto una pluralidad de imágenes, cada una de cuyas imágenes representa un campo de visión que se solapa con el campo de visión de al menos otra imagen en el mismo subconjunto; generar un modelo en 3D realizando reconstrucción fotogramétrica en 3D sobre las imágenes del subconjunto; estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes; y, usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no estén en dicho subconjunto seleccionado, donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z), así como también los ángulos de cabeceo, balanceo y guiñada del sensor.
En una realización del sistema según la presente invención, las imágenes son imágenes hiperespectrales, y el citado sensor multi-espectral es un elemento de detección con diferentes partes que son sensibles a diferentes longitudes de onda.
En una realización del sistema según la presente invención, la secuencia de imágenes comprende imágenes separadas de forma muy cercana en una dirección de movimiento del sensor de modo que tienen un solapamiento en dicha dirección de aproximadamente un 99%.
Los efectos técnicos y las ventajas de las realizaciones del producto de programa informático y del sistema conforme a la presente invención, se corresponden mutis mutandis con estas realizaciones del método según la presente invención.
Breve descripción de las Figuras
Estos y otros aspectos técnicos y ventajas de las realizaciones de la presente invención van a ser descritos ahora
con mayor detalle con referencia a los dibujos que se acompañan, en los que:
La Figura 1 ilustra esquemáticamente la ruta de vuelo tomada por un ejemplo de vehículo aéreo utilizado para adquirir imágenes de la tierra, y los contornos de imágenes consecutivas adquiridas por un sensor a bordo de dicho vehículo;
La Figura 2 proporciona una vista en perspectiva de la región visualizada por dos adquisiciones consecutivas en el mapa de la Figura 1;
La Figura 3 representa esquemáticamente el ángulo de visión del sensor de las Figuras 1 y 2 para posiciones de toma de imágenes consecutivas;
La Figura 4 proporciona una vista en perspectiva de la región visualizada mediante adquisiciones consecutivas de un sensor multi-espectral, en particular un sensor hiperespectral;
La Figura 5 representa esquemáticamente el ángulo de visión del sensor de la Figura 4 para posiciones de toma de imágenes consecutivas;
La Figura 6 ilustra esquemáticamente los principios de la presente invención, y
La Figura 7 proporciona un diagrama de flujo que representa una realización del método conforme a la presente invención.
Descripción de realizaciones
“Reconstrucción en 3D”, según se utiliza en la presente descripción, es el proceso de captura de la forma (y la apariencia) de objetos reales.
“Reconstrucción fotogramétrica en 3D”, según se utiliza en la presente descripción, también conocida como “estructura del movimiento” o “modelación basada en imagen”, es el proceso de captura de la forma (y la apariencia) de objetos reales usando imaginería. La reconstrucción fotogramétrica en 3D de un objeto requiere un mínimo de 2 imágenes de ese objeto, adquiridas desde puntos de visualización diferentes; en muchas circunstancias prácticas, cuando la calibración de la cámara no es suficientemente precisa, se necesitarán 3 imágenes. Las coordenadas de píxeles en la secuencia de imágenes correspondiente a una posición del suelo (punto objeto), se usan para deducir simultáneamente (ajuste de paquetes): parámetros de orientación de imagen interior, parámetros de orientación de imagen exterior, y coordenadas en 3D del punto del suelo (punto objeto). La precisión de los resultados de la reconstrucción en 3D depende (entre otras cosas) de la red de imágenes (por ejemplo, solapamiento hacia delante y lateral).
Para realizar fotogrametría en circunstancias óptimas, el conjunto de imágenes podría tener que poseer un grado suficiente de detalle (por ejemplo, al menos 500 - 1000 píxeles en cada dirección), y un factor de forma apropiado (con preferencia un tamaño similar en las direcciones X e Y, dado que los factores de forma muy alargados tienden a reducir la precisión).
Con preferencia, las imágenes sucesivas usadas para la fotogrametría tienen un solapamiento de alrededor de un 80%. Si la cantidad de solapamiento es sustancialmente menor, el área común a las dos imágenes es más pequeña, produciendo menos características comunes. Si la cantidad de solapamiento es sustancialmente mayor, el desplazamiento angular entre las imágenes resulta ser muy pequeño, dando como resultado estimaciones de menor precisión.
La Figura 1 (que no está a escala), ilustra esquemáticamente la ruta de vuelo adoptada por un ejemplo de vehículo aéreo utilizado para adquirir imágenes de la tierra, y los contornos de imágenes consecutivas adquiridas por un sensor a bordo de dicho vehículo, mostrados a modo de mapa bidimensional (vista en planta). La secuencia de imágenes así adquiridas será también mencionada en lo que sigue como “red de imágenes”. El sensor puede estar activo en el rango visual (por ejemplo, un sensor RGB), o en otra región espectral específica (por ejemplo, cercana al infrarrojo, infrarrojo de onda corta, etc.).
Puesto que las imágenes adquiridas son bidimensionales, se necesitan múltiples imágenes para permitir una reconstrucción tridimensional del terreno visualizado. En particular, la reconstrucción tridimensional de características individuales requiere que esas características estén presentes en varias imágenes tomadas desde diferentes ángulos, lo que implica que las imágenes subsiguientes adquiridas por el sensor deben presentar un solapamiento suficiente, según se ha explicado con anterioridad. Según se ha ilustrado en la Figura 1, un valor típico de la cantidad de solapamiento entre imágenes consecutivas tomadas en una dirección de vuelo dada, es del orden de un 80%. El solapamiento de los laterales entre imágenes adquiridas durante una primera pasada y una segunda pasada de bandas respectivas adyacentes del terreno, en el que la primera pasada y la segunda pasada corresponden típicamente a direcciones de vuelo diferentes, es del orden de un 20-30%.
La Figura 2 proporciona una vista en perspectiva de la región visualizada por dos tomas consecutivas en el mapa de
la Figura 1, indicando en particular el área de solapamiento entre las áreas visualizadas.
La Figura 3 representa esquemáticamente el ángulo de visión del sensor de las Figuras 1 y 2 para posiciones consecutivas de toma de imágenes, e ilustra cómo cambia el rayo de visualización desde el sensor hasta cualquier objeto dado del suelo, significativamente desde una imagen (imageni) hasta la siguiente (imageni+1). La diferencia del ángulo de visualización es lo que permite la reconstrucción fotogramétrica de las particularidades en 3D de la característica, en particular su elevación.
La Figura 4 proporciona una vista en perspectiva de la región visualizada mediante tomas consecutivas de un sensor multi-espectral, en particular un sensor hiperespectral. Un ejemplo de sensor hiperespectral ha sido divulgado en la publicación de solicitud de Patente Internacional WO 2011/073430 A1, a nombre de la presente solicitante, donde se describe como el “primer sensor”, que opera junto con un segundo sensor (rango visual). Mientras que el “primer sensor” del documento WO 2011/073430 A1 será mencionado a efectos de claridad de la presente invención, debe entenderse que la presente invención no está limitada al mismo.
Es típico en tales sensores hiperespectrales que diferentes partes del elemento de detección sean sensibles a diferentes longitudes de onda. Este efecto puede ser obtenido con la provisión de un elemento de detección con una capa de filtro que tenga una respuesta de longitud de onda que varíe a través de la superficie del elemento de detección. Por consiguiente, cada imagen tomada por dicho sensor espectral es de hecho un mosaico en el que las diferentes partes de la imagen representan la parte correspondiente del terreno según se ve en la radiación de diferentes bandas de longitud de onda respectivas. Con el fin de obtener una imagen de cualquier zona dada según se ve en la radiación de una banda de longitud de onda específica, las partes relevantes de un gran número de tales mosaicos deben ser juntadas. Está claro que esos sensores hiperespectrales requieren imágenes muy próximas entre sí, por ejemplo, un 99% en la dirección hacia delante (lo que, dependiendo de la velocidad de movimiento del sensor, puede requerir una velocidad de trama muy alta) para asegurar la cobertura espacial completa en todas las bandas relevantes del espectro.
De ese modo, considerando imágenes individuales, las líneas de imagen están divididas a través de las diversas bandas espectrales en la dirección hacia delante. Como resultado, en cada imagen individual, una banda espectral individual está cubierta únicamente con un pequeño número de líneas (por ejemplo, este número puede ser menor de 10 para la obtención de imágenes hiperespectrales con más de 100 bandas espectrales). Esta situación imposibilita el uso de fotogrametría sobre esas bandas individuales.
La Figura 5 representa esquemáticamente el ángulo de visión del sensor de la Figura 4 para posiciones consecutivas de obtención de imágenes, e ilustra cómo cambia el rayo de visualización desde el sensor hasta cualquier objeto de suelo dado, desde una imagen (imageni) a la siguiente (imageni+1). Como resultado de la alta velocidad de trama de esos sensores hiperespectrales, la diferencia en el ángulo de visión, que se necesita para la reconstrucción fotogramétrica de características en 3D de las particularidades del suelo, resulta ser muy pequeña. Esto impacta negativamente sobre la precisión (en términos de estimación de posición vertical, orientación de imagen exterior, orientación de imagen interior, etc.) que se puede conseguir con tales imágenes aplicando fotogrametría. Además, los métodos para el tratamiento de conjuntos de imagen de pequeño paralaje tienden a ser tan exigentes desde un punto de vista computacional, que en la práctica no son factibles para grandes conjuntos de datos.
La presente invención se basa, inter alia, en la percepción inventiva de los inventores de que, a pesar de las demandas en conflicto de proximidad espectral y separación espacial, resulta que es posible el procesamiento fotogramétrico eficiente y preciso de conjuntos seleccionados de imágenes multi-espectrales o hiperespectrales. La presente invención se basa también en la percepción adicional de los inventores de que las imágenes restantes, que están entre las imágenes seleccionadas para el procesamiento fotogramétrico, pueden ser procesadas de forma más eficiente sobre la base de una estimación relativamente simple de desplazamiento y guiñada (eje z de rotación), mientras que los parámetros fotogramétricos obtenidos para las imágenes seleccionadas pueden ser interpolados a las restantes imágenes.
La Figura 6 ilustra esquemáticamente el concepto de selección de un subconjunto fuera de la secuencia de imágenes. A los efectos de la presente invención, se selecciona un subconjunto fuera de la secuencia de imágenes, en el que pares de imágenes tienen al menos el solapamiento mínimamente requerido para permitir el procesamiento fotogramétrico, mientras que presentan un paralaje suficientemente grande (por ejemplo, un solapamiento en la dirección hacia delante del 80%).
La Figura 7 es un diagrama de flujo de una realización del método conforme a la presente invención. El método opera sobre una serie de imágenes, adquiridas 710 por medio de un sensor multi-espectral.
Se selecciona 720 un subconjunto de las imágenes adquiridas, conforme a los criterios mencionados con anterioridad de solapamiento y paralaje suficientes. La reconstrucción en 3D se realiza 730 sobre las imágenes de este subconjunto, permitiendo el cálculo de parámetros fotogramétricos completos para las imágenes seleccionadas 740; es decir, para cada una de las imágenes seleccionadas, los parámetros disponibles podrán incluir coordenadas (x, y, a), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
Las restantes imágenes se someten a un procesamiento, consistente en la estimación del desplazamiento relativo y en la rotación del eje z desde una imagen a la siguiente 750. Dado un sensor multi-espectral, con sensibilidades de longitud de onda gradualmente variables, la mayor parte de las características parecerán ser muy similares de una imagen a la siguiente, dado que están representadas en bandas de longitud de onda que no están muy alejadas. Con ello, este procesamiento es mucho menos complejo que un procesamiento fotogramétrico completo con un paralaje muy pequeño. En base a las estimaciones de desplazamiento relativo y de rotación del eje z, se puede deducir el conjunto completo de parámetros fotogramétricos para cada una de las imágenes restantes mediante interpolación, usando los parámetros del subconjunto fotogramétricamente procesado como valores límite conocidos. La interpolación puede ser llevada a cabo usando técnicas matemáticas según se conoce en el estado de la técnica.
La presente invención también pertenece a un sistema para la obtención de referencias geométricas de datos multiespectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen distintas regiones que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el sistema un procesador configurado para: seleccionar un subconjunto a partir de la secuencia de imágenes, conteniendo dicho subconjunto una pluralidad de imágenes, de las que cada imagen representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto; generar un modelo en 3D mediante la realización de reconstrucción fotogramétrica en 3D sobre las imágenes del subconjunto; estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes; y, usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no están en dicho subconjunto seleccionado, donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
El “procesador” según se menciona en lo que antecede, puede estar implementado a modo de uno o más componentes de hardware dedicados (por ejemplo, ASICs), componentes de hardware configurables (por ejemplo, FGPAs), componentes programables con software apropiado (por ejemplo, procesadores de propósito general o DSPs), o cualquier combinación de los mismos. El (los) mismo(s) componente(s) puede(n) también realizar otras funciones.
El sistema puede comprender además interfaces adecuadas para acceder a la secuencia de imágenes que contienen los datos multi-espectrales, y para presentar a la salida la información de obtención de referencias geométricas generadas. El término “interfaces” designa el hardware y el software necesarios para permitir que el procesador intercambie datos con una fuente o un receptor de datos. Con preferencia, las interfaces operan conforme a una pila de protocolo estandarizada, tal como un estándar para redes de área de almacenamiento (SAN), redes de área local (LAN, por ejemplo el estándar IEEE 802.3 de “Ethernet”), o redes de área personal (PAN; por ejemplo USB). En la red y en la capa de transporte, las interfaces pueden operar conforme a la familia de protocolos TCP/IP, permitiendo inter alia un despliegue en el que las imágenes sean adquiridas a través de internet y/o los resultados del método sean suministrados hasta su destino a través de internet.
La presente invención pertenece también a un producto de programa informático que comprende medios de código configurados para hacer que el procesador lleve a cabo las etapas del método según la presente invención.
Mientras que la invención ha sido descrita en la presente memoria con referencia a realizaciones específicas, esto se ha hecho con la finalidad de aclarar y no limitar la invención, cuyo alcance está definido por las reivindicaciones.
Claims (7)
1. - Un método para la obtención de referencias geométricas de datos multi-espectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen regiones distintas que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el método:
- seleccionar un subconjunto a partir de la secuencia de imágenes (720), conteniendo dicho subconjunto una pluralidad de imágenes, de las que cada imagen representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto;
- generar un modelo en 3D realizando reconstrucción fotogramétrica en 3D sobre las imágenes del subconjunto (730, 740);
- estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes (750), y
- usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no estén en dicho subconjunto seleccionado (760),
donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
2. - El método según la reivindicación 1, en donde dicho sensor multi-espectral es un sensor hiperespectral que tiene un elemento de detección con diferentes partes que son sensibles a diferentes longitudes de onda.
3. - El método según una cualquiera de las reivindicaciones precedentes, en donde dicha secuencia de imágenes comprende imágenes muy cercanas en una dirección de movimiento de un sensor, con el fin de que tengan un solapamiento en dicha dirección de aproximadamente un 99%.
4. - Un producto de programa informático que comprende medios de código configurados para hacer que un procesador lleve a cabo, cuando se ejecute, las etapas del método conforme a cualquiera de las reivindicaciones 1 3.
5. - Un sistema para la obtención de referencias geométricas de datos multi-espectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen distintas regiones que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el sistema un procesador configurado para:
- seleccionar un subconjunto a partir de la secuencia de imágenes, conteniendo dicho subconjunto una pluralidad de imágenes, donde cada una de las imágenes representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto;
- generar un modelo en 3D realizando una reconstrucción fotogramétrica en 3D sobre las imágenes en el subconjunto;
- estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes, y
- usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no están en dicho subconjunto seleccionado, donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y ,z), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
6. - El sistema según la reivindicación 5, en donde dichas imágenes son imágenes hiperespectrales, y dicho sensor multi-espectral es un sensor hiperespectral que tiene un elemento de detección con diferentes partes que son sensibles a diferentes longitudes de onda.
7. - El sistema según una cualquiera de las reivindicaciones 5 a 6, en donde dicha secuencia de imágenes comprende imágenes muy próximas en una dirección de movimiento de un sensor con el fin de que tengan un solapamiento en dicha dirección de aproximadamente un 99%.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16151160 | 2016-01-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2731451T3 true ES2731451T3 (es) | 2019-11-15 |
ES2731451T8 ES2731451T8 (es) | 2022-04-01 |
Family
ID=55221274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES17151487T Active ES2731451T3 (es) | 2016-01-13 | 2017-01-13 | Método y sistema para la referencia geométrica de datos multi-espectrales |
Country Status (9)
Country | Link |
---|---|
US (1) | US10565789B2 (es) |
EP (1) | EP3193136B8 (es) |
JP (1) | JP2019503484A (es) |
CN (1) | CN108474661A (es) |
AU (1) | AU2017206966A1 (es) |
CA (1) | CA3007619A1 (es) |
ES (1) | ES2731451T3 (es) |
PL (1) | PL3193136T3 (es) |
WO (1) | WO2017121876A1 (es) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115361482A (zh) * | 2017-04-28 | 2022-11-18 | 索尼公司 | 信息处理装置、信息处理方法、信息处理程序、图像处理装置以及图像处理系统 |
JP7049220B2 (ja) * | 2018-08-30 | 2022-04-06 | オリンパス株式会社 | 画像取得装置および画像取得装置の作動方法 |
EP3853639A4 (en) * | 2018-09-21 | 2022-04-27 | Shenzhen Xpectvision Technology Co., Ltd. | IMAGING SYSTEM |
CN111596594B (zh) | 2020-06-08 | 2021-07-23 | 厦门理工学院 | 一种全景大数据应用监测管控系统 |
CN112009708B (zh) * | 2020-09-04 | 2022-06-17 | 广州飞图信息科技有限公司 | 一种固定翼无人机、单镜头倾斜摄影系统及方法 |
CN112857328B (zh) * | 2021-03-30 | 2022-06-14 | 宁波市特种设备检验研究院 | 一种无标定摄影测量方法 |
CN113362265B (zh) * | 2021-08-10 | 2021-11-16 | 成都新橙北斗智联有限公司 | 一种低成本的无人机正射影像快速地理拼接方法 |
WO2023149963A1 (en) | 2022-02-01 | 2023-08-10 | Landscan Llc | Systems and methods for multispectral landscape mapping |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7212938B2 (en) | 2002-09-17 | 2007-05-01 | M7 Visual Intelligence, Lp | Method of using a self-locking travel pattern to achieve calibration of remote sensors using conventionally collected data |
US20050089213A1 (en) * | 2003-10-23 | 2005-04-28 | Geng Z. J. | Method and apparatus for three-dimensional modeling via an image mosaic system |
PT2513599E (pt) | 2009-12-18 | 2015-08-21 | Vito Nv Vlaamse Instelling Voor Technologisch Onderzoek Nv | Georreferenciação de dados multiespectrais |
JP6025830B2 (ja) * | 2011-06-07 | 2016-11-16 | クレアフォーム・インコーポレイテッドCreaform Inc. | 3d走査用のセンサ位置決め |
US20130027554A1 (en) * | 2011-07-31 | 2013-01-31 | Meadow William D | Method and Apparatus for Automated Camera Location and Orientation with Image Processing and Alignment to Ground Based Reference Point(s) |
EP2888628A4 (en) | 2012-08-21 | 2016-09-14 | Visual Intelligence Lp | SYSTEM AND METHOD FOR INFRASTRUCTURE MAPPING |
US9196084B2 (en) | 2013-03-15 | 2015-11-24 | Urc Ventures Inc. | Determining object volume from mobile device images |
US20140300686A1 (en) * | 2013-03-15 | 2014-10-09 | Tourwrist, Inc. | Systems and methods for tracking camera orientation and mapping frames onto a panoramic canvas |
GB201412061D0 (en) | 2014-07-07 | 2014-08-20 | Vito Nv | Method and system for geometric referencing of multi-spectral data |
GB201412060D0 (en) | 2014-07-07 | 2014-08-20 | Vito Nv | Method and system for photogrammetric processing of images |
US10482628B2 (en) * | 2017-09-30 | 2019-11-19 | United States Of America As Represented By The Secretary Of The Army | Photogrammetric point cloud compression for tactical networks |
-
2017
- 2017-01-13 CA CA3007619A patent/CA3007619A1/en not_active Abandoned
- 2017-01-13 US US16/067,841 patent/US10565789B2/en active Active
- 2017-01-13 AU AU2017206966A patent/AU2017206966A1/en not_active Abandoned
- 2017-01-13 WO PCT/EP2017/050717 patent/WO2017121876A1/en active Application Filing
- 2017-01-13 EP EP17151487.0A patent/EP3193136B8/en active Active
- 2017-01-13 PL PL17151487T patent/PL3193136T3/pl unknown
- 2017-01-13 CN CN201780005962.8A patent/CN108474661A/zh not_active Withdrawn
- 2017-01-13 JP JP2018536273A patent/JP2019503484A/ja not_active Withdrawn
- 2017-01-13 ES ES17151487T patent/ES2731451T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
EP3193136A1 (en) | 2017-07-19 |
EP3193136B1 (en) | 2019-04-17 |
CN108474661A (zh) | 2018-08-31 |
EP3193136B8 (en) | 2020-05-27 |
US20190340811A1 (en) | 2019-11-07 |
PL3193136T3 (pl) | 2019-12-31 |
AU2017206966A1 (en) | 2018-06-21 |
CA3007619A1 (en) | 2017-07-20 |
ES2731451T8 (es) | 2022-04-01 |
JP2019503484A (ja) | 2019-02-07 |
WO2017121876A1 (en) | 2017-07-20 |
US10565789B2 (en) | 2020-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2731451T3 (es) | Método y sistema para la referencia geométrica de datos multi-espectrales | |
Lucieer et al. | Using a micro-UAV for ultra-high resolution multi-sensor observations of Antarctic moss beds | |
US10182212B2 (en) | Wide area intermittent video using non-orthorectified feature matching in long period aerial image capture with pixel-based georeferencing | |
Haala et al. | Quality of 3D point clouds from highly overlapping UAV imagery | |
Bendig et al. | Very high resolution crop surface models (CSMs) from UAV-based stereo images for rice growth monitoring in Northeast China | |
US20150022656A1 (en) | System for collecting & processing aerial imagery with enhanced 3d & nir imaging capability | |
ES2702932T3 (es) | Método y sistema para referenciación geométrica de datos multiespectrales | |
US10740608B2 (en) | Wide area intermittent video using non-orthorectified feature matching in long period aerial image capture with pixel-based georeferencing | |
EP3167432B1 (en) | Method and system for photogrammetric processing of images | |
Oliveira et al. | Generating a hyperspectral digital surface model using a hyperspectral 2D frame camera | |
Cubero-Castan et al. | Assessment of the radiometric accuracy in a target less work flow using Pix4D software | |
CN107798668B (zh) | 基于rgb影像的无人机成像高光谱几何校正的方法及系统 | |
Mumtaz et al. | Attitude determination by exploiting geometric distortions in stereo images of DMC camera | |
US20240056693A1 (en) | Systems and Methods For Multispectral Landscape Mapping | |
Grodecki et al. | IKONOS geometric calibrations | |
Essel et al. | Initial Study Assessing the Suitability of Drones with Low-Cost GNSS and IMU for Mapping over Featureless Terrain Using Direct Georeferencing | |
Berveglieri et al. | Bundle adjustment of a time-sequential spectral camera using polynomial models | |
Cariou et al. | Automatic georeferencing of airborne pushbroom scanner images with missing ancillary data using mutual information | |
Gastellu-Etchegorry et al. | Correction of Directional Effects in Sentinel-2 and-3 Images with Sentinel-3 Time Series and Dart 3D Radiative Transfer Model | |
Kocaman et al. | 3D Processing of Gokturk-2 imagery | |
Shahbazi et al. | Seamless co-registration of images from multi-sensor multispectral cameras | |
Moroni | Vegetation monitoring via a novel push-broom-sensor-based hyperspectral device | |
Passini et al. | Handling of large block of high resolution space images | |
Kukko et al. | Use of HRSC-A for sampling bidirectional reflectance | |
He et al. | A Structure-from-Motion Approach Using UAV-based Imagery for Precision Agriculture Applications |