ES2731451T3 - Método y sistema para la referencia geométrica de datos multi-espectrales - Google Patents

Método y sistema para la referencia geométrica de datos multi-espectrales Download PDF

Info

Publication number
ES2731451T3
ES2731451T3 ES17151487T ES17151487T ES2731451T3 ES 2731451 T3 ES2731451 T3 ES 2731451T3 ES 17151487 T ES17151487 T ES 17151487T ES 17151487 T ES17151487 T ES 17151487T ES 2731451 T3 ES2731451 T3 ES 2731451T3
Authority
ES
Spain
Prior art keywords
images
sequence
sensor
subset
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17151487T
Other languages
English (en)
Other versions
ES2731451T8 (es
Inventor
Stefan Livens
Bavo Delaure
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vito NV
Original Assignee
Vito NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vito NV filed Critical Vito NV
Application granted granted Critical
Publication of ES2731451T3 publication Critical patent/ES2731451T3/es
Publication of ES2731451T8 publication Critical patent/ES2731451T8/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/02Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Un método para la obtención de referencias geométricas de datos multi-espectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen regiones distintas que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el método: - seleccionar un subconjunto a partir de la secuencia de imágenes (720), conteniendo dicho subconjunto una pluralidad de imágenes, de las que cada imagen representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto; - generar un modelo en 3D realizando reconstrucción fotogramétrica en 3D sobre las imágenes del subconjunto (730, 740); - estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes (750), y - usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no estén en dicho subconjunto seleccionado (760), donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z), así como los ángulos de cabeceo, balanceo y guiñada del sensor.

Description

DESCRIPCIÓN
Método y sistema para la referencia geométrica de datos multi-espectrales.
Campo de la invención
La invención se refiere al campo de la captura de imágenes, por ejemplo de imágenes aéreas. Más en particular, la presente invención se refiere a sistemas de detección para obtener imágenes multi-espectrales, a sistemas correspondientes de obtención de imágenes y a métodos para el uso de los mismos.
Antecedentes
La obtención de imágenes hiperespectrales es una forma de obtención espectral de imágenes en donde se recopila información a través del espectro electromagnético en muchas bandas espectrales estrechas, y se procesa. A partir de las diferentes imágenes espectrales que se recopilan, se puede deducir información de los objetos de los que se forma la imagen. Por ejemplo, dado que algunos objetos dejan signaturas espectrales únicas en imágenes que pueden incluso depender del estado del objeto, la información obtenida mediante la obtención de imágenes multiespectrales puede proporcionar información con relación a la presencia y/o al estado de objetos en una región que está siendo visualizada. Tras la selección de un rango espectral que va a ser visualizado, dado que se pueden adquirir imágenes espectrales en este rango espectral completo, no se necesita tener un conocimiento previo detallado de los objetos, y el post-procesamiento puede permitir obtener toda la información disponible. Mientras que originalmente se ha utilizado la detección hiperespectral remota principalmente para minería y geología, otras aplicaciones tales como ecología, agricultura y vigilancia hacen también uso de la técnica de obtención de imágenes.
Se conoce el uso de técnicas fotogramétricas para inferir información tridimensional, en particular información de elevación, a partir de las imágenes bidimensionales adquiridas. Un ejemplo de esa técnica ha sido divulgado en Alsadik, B.S. Gerke, M. & Vosselman, G. (2012), “Optimal Camera Network Design for 3D Modeling of Cultural Heritage”, ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 1-3, 7-12. Se conocen algunas aplicaciones agrícolas y ecológicas en las que se usa detección remota hiperespectral, por ejemplo para monitorizar el desarrollo y la salud de los cultivos, detección de las variedades de uva, monitorización de cubiertas forestales individuales, detección de la composición química de plantas, así como la detección temprana de brotes enfermos, monitorización del impacto de la polución y de otros factores medioambientales, etc., son algunas de las aplicaciones agrícolas de interés. La obtención de imágenes hiperespectrales se usa también para estudios de aguas en islas y costas, para la detección de propiedades biofísicas. En mineralogía, la detección de minerales valiosos tales como oro o diamantes, puede ser llevada a cabo usando detección de imágenes hiperespectrales, pero también se destina a la detección de fugas de petróleo o de gases en las conducciones y en los pozos naturales. La detección de la composición del suelo en la Tierra o incluso en otros planetas, asteroides o cometas, son también aplicaciones posibles de la obtención de imágenes hiperespectrales. En vigilancia, la formación de imágenes hiperespectrales puede ser llevada a cabo, por ejemplo, para la detección de seres vivos. La publicación de solicitud de Patente Internacional WO 2011/073430 A1, a nombre de la presente solicitante, divulga un dispositivo de detección para obtener datos de imágenes multi-espectrales de referencia geométrica de una zona de interés en movimiento relativo con respecto al dispositivo de detección. El dispositivo de detección comprende un primer elemento sensor bidimensional y un filtro espectral. El filtro espectral y el primer elemento sensor están dispuestos de modo que obtienen información espectral a una primera longitud de onda o rango de longitud de onda, usando una parte del primer elemento sensor, y para obtener información espectral a una segunda longitud de onda o rango de longitud de onda, usando otra parte del primer elemento sensor. Como resultado de esta disposición, las diferentes partes de una imagen única adquirida con el primer sensor presentarán que el escenario visualizado según se ve, es una radiación de una longitud de onda respectiva diferente.
Hasta la fecha, no existe una forma satisfactoria de aplicar las técnicas fotogramétricas mencionadas con anterioridad, directamente a imágenes multi-espectrales o hiperespectrales tales como las adquiridas por medio del primer sensor del documento WO 2011/073430 A1. Sin embargo, la información fotogramétrica completa acerca de las imágenes multi-espectrales o hiperespectrales adquiridas es esencial para coser correctamente entre sí una imagen del escenario explorado en cualquier banda de longitud de onda particular.
En el documento WO 2011/073430 A1, este problema ha sido resuelto mediante la provisión de un segundo sensor sobre el mismo substrato, el cual adquiere simultáneamente imágenes pancromáticas de la zona visualizada por medio del primer sensor. Las imágenes pancromáticas se usan para realizar modelado en 3D, y la información del modelo en 3D se traslada posteriormente a las imágenes compuestas del escenario en las diferentes bandas de longitud de onda que están cubiertas por el primer sensor multi-espectral o hiperespectral.
La solicitud de Patente Internacional no publicada PCT/EP2015/065523, a nombre de la presente solicitante, describe un dispositivo de detección para obtener datos de imágenes multi-espectrales de referencia geométrica de una región de interés en movimiento relativo con respecto al dispositivo de detección, comprendiendo el dispositivo de detección al menos un primer elemento sensor bidimensional, estando el dispositivo de detección adaptado para obtener imágenes multi-espectrales subsiguientes durante dicho movimiento relativo de la región de interés con respecto al dispositivo de detección, proporcionando de ese modo distinta información espectral para diferentes partes de una región de interés usando el primer elemento sensor, un segundo elemento sensor bidimensional, estando el dispositivo de detección adaptado para proporcionar, usando el segundo elemento sensor, una imagen de la región de interés para generar información de referencia geométrica a ser acoplada a la distinta información espectral; siendo el primer elemento sensor bidimensional operable para capturar una primera secuencia de tramas a una primera velocidad de trama y siendo el segundo elemento sensor bidimensional operable para capturar una segunda secuencia de tramas a una segunda velocidad de trama; en donde la primera velocidad de trama es mayor que la segunda velocidad de trama; y, en donde el dispositivo de detección comprende además un procesador configurado para generar información de referencia geométrica intermedia a ser acoplada a tramas de dicha primera secuencia de tramas para las que no se encuentre disponible ninguna trama síncrona a partir de dicha segunda secuencia de tramas, siendo dicha información de referencia geométrica intermedia deducida a partir de una o más tramas temporalmente similares desde dicha segunda secuencia de tramas. De esta forma, el sistema del documento PCT/EP2015/065523 está capacitado para reducir el número de imágenes pancromáticas requeridas para realizar la obtención de referencias geométricas, en relación con el sistema del documento WO 2011/073430 A1, por medio de interpolación o de extrapolación. Sin embargo, el sistema del documento PCT/EP2015/065523 no cambia la suposición de que las imágenes pancromáticas siguen siendo necesarias.
El artículo del inventor de la presente invención A. Sima et al., “Registro Semi-Automático de Exploraciones Hiperespectrales de Corto Alcance Usando Imágenes de Cámara Digital Orientada y un Modelo en 3D”, The Photogrammetric Record, vo. 29 (2014), núm. 145, divulga un método semi-automatizado para registrar imágenes hiperespectrales panorámicas terrestres con modelos LIDAR y fotografía digital convencional. El método se basa en el hallazgo de puntos correspondientes entre imágenes adquiridas en partes significativamente diferentes del espectro electromagnético, desde puntos de vista diferentes, y con resolución espacial y proyecciones geométricas diferentes. El artículo reconoce que el número de puntos homólogos que pueden ser emparejados entre una banda hiperespectral y una imagen de cámara digital de cobertura (pancromática) varía con la longitud de onda, y propone una técnica que se basa en una selección juiciosa de bandas espectrales en las que se pueda emparejar un número máximo de puntos.
La solicitud de Patente Internacional no publicada núm. PCT/EP2015/065524, a nombre de la presente solicitante, describe un método para realizar una reconstrucción fotogramétrica en 3D de objetos visualizados en una secuencia de imágenes, conteniendo las imágenes distintas regiones que representan radiación visualizada a distintas longitudes de onda respectivas, comprendiendo el método: seleccionar una pluralidad de subconjuntos a partir de la secuencia de imágenes, conteniendo cada uno de la pluralidad de subconjuntos una pluralidad de imágenes, cada una de cuyas imágenes representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto; generar un conjunto de modelos en 3D intermedios realizando reconstrucción fotogramétrica en 3D sobre imágenes en los subconjuntos respectivos; y, recombinar los modelos en 3D intermedios a partir del conjunto de modelos en 3D, en un modelo en 3D combinado. Sin embargo, el método requiere aún una cantidad significativa de procesamiento.
La publicación de la solicitud de Patente Internacional núm. WO 2014/151746 A2 a nombre de URC Ventures Inc., divulga técnicas para analizar imágenes adquiridas a través de dispositivos móviles de varias formas, incluyendo estimar mediciones para uno o más atributos de uno o más objetos en las imágenes. Por ejemplo, se ha constatado que las técnicas descritas son utilizables para medir el volumen de un almacenamiento de material o de otro objeto grande, en base a imágenes adquiridas a través de un dispositivo móvil que es portado por un usuario humano según pasa en torno a alguno de, o a todos, los objetos. Durante la adquisición de una serie de imágenes digitales de un objeto de interés, se pueden proporcionar varios tipos de retroalimentación de usuario a un operador usuario humano del dispositivo móvil, y se pueden seleccionar imágenes particulares para análisis adicional de varias maneras. Además, el cálculo del volumen del objeto y/u otra información determinada del objeto pueden incluir la generación y el manejo de un modelo de ordenador u otra representación del objeto procedente de las imágenes seleccionadas. Las técnicas divulgadas en este artículo no se relacionan con imágenes que representen radiación en distintas longitudes de onda.
El artículo de Lichun Li et al., “Un nuevo enfoque de navegación de emparejamiento del contorno del terreno en base a reconstrucción del terreno en 3D a partir de una secuencia de imágenes a bordo”, Science China Technological Sciences, vol. 35 (2010) núm. 5, 1176-1183, divulga un método de navegación pasiva de emparejamiento del contorno de un terreno mediante la reconstrucción del terreno en 3D a partir de la secuencia de imágenes adquiridas por medio de una cámara a bordo. Para lograr la automatización y la simultaneidad del procesamiento de la secuencia de imágenes para la navegación, se propone un método de registro de correspondencia basado en rastreo de puntos de control, que rastrea los puntos de control dispersos a través de la secuencia completa de imágenes, y las utiliza como correspondencia en la solución de la geometría de la relación. Se explora un método clave de selección de trama basado en la relación de solapamiento de las imágenes y en los ángulos de intersección, y se proporciona a continuación el requisito de la configuración del sistema de cámara. El método propuesto incluye también un algoritmo de estimación de homografía local óptima acorde con los puntos de control, que ayuda a pronosticar correctamente puntos que van a ser emparejados y su velocidad correspondiente. Por consiguiente, el terreno en 3D en tiempo real de la trayectoria así reconstruida se empareja con el mapa del terreno de referencia, y el resultado proporciona información de navegación. Las técnicas divulgadas en este artículo no están relacionadas con imágenes que representen radiación a distintas longitudes de onda.
El artículo de Turner Darren et al., “Georeferenciación Directa de Imágenes de UAV de Ultra-Alta Resolución”, IEEE Transactions on Geoscience and Remote Sensing, vol. 52 (2014), núm. 5, 2738-2745, divulga un concepto de módulo de sistema de posición global (GPS) de cámara que permite la sincronización de la exposición de la cámara con una posición del fuselaje según se registra mediante un GPS con una precisión de 10-20 cm. Se aplicaron correcciones del brazo de palanca a las posiciones de la cámara para tomar en consideración las diferencias posicionales entre la antena de GPS y el centro de la cámara. Se implementaron algoritmos de selección de imagen para eliminar imágenes borrosas e imágenes con un solapamiento excesivo. Este estudio comparó tres métodos de software diferentes (Photoscan, servicio de web Pix4D, y un método interno de Bundler), evaluando cada uno de ellos en base al tiempo de procesamiento, a la facilidad de uso, y a la precisión espacial del mosaico final producido. El artículo menciona la necesidad de eliminar algunas de esas imágenes de solapamiento para mejorar la eficacia del procesamiento, lo cual se consigue mediante lectura de la información de ubicación de la imagen a partir de las cabeceras EXIF de la imagen. Se ha constatado que un solapamiento de imágenes de alrededor de un 80% produce los mejores resultados para algoritmos de procesamiento de imágenes basados en SIM. La formación de subconjuntos de imágenes se consigue calculando la distancia entre imágenes consecutivas. Las técnicas divulgadas en este artículo no están relacionadas con imágenes que presenten radiación a distintas longitudes de onda.
La publicación de solicitud de Patente Internacional núm. WO 2014/031284 A1, a nombre de Visual Intelligence LP, divulga un sistema sensor de obtención de imágenes que comprende: una unidad de montaje fijada a un vehículo o a una plataforma y que tiene al menos tres sensores de obtención de imágenes dispuestos en el interior de la unidad de montaje, en donde un primer, un segundo y un tercer sensores de obtención de imagen tienen, cada uno de ellos, un eje focal que pasa a través de una abertura en la unidad de montaje, en donde el primer sensor de imagen genera una primera área de imagen del área objetivo que comprende una primera matriz de píxeles, en donde el segundo sensor de imagen genera una segunda área de imagen del área objetivo que comprende una primera matriz de píxeles, en donde el primer y el segundo sensores de obtención de imágenes están desviados para lograr una primera área de solapamiento de imagen en el área objetivo, en donde los datos de imagen de los primeros sensores bisecan con los datos de imagen de los segundos sensores en la primera área de solapamiento de imagen. Se describen varias realizaciones. El conjunto de matriz de cámara está configurado de tal modo que los bordes contiguos de las áreas de imagen relevantes se solapan ligeramente. Mientras que el documento sugiere orto-rectificación de la secuencia de imágenes solapantes usando técnicas de fotogrametría estándar para producir un orto-mapa en el que cada píxel tenga una coordenada de latitud y longitud únicas y una coordenada de elevación única, no se ocupa del tratamiento de las imágenes adquiridas en diferentes rangos espectrales.
La publicación de la solicitud de Patente Internacional núm. WO 2004/027348 A2, a nombre de M7 Visual Intelligence LP, divulga un método para calibrar un sistema de detección remota a bordo, usando un patrón de desplazamiento auto-bloqueante y datos de detección remota objetivo. El patrón de desplazamiento auto-bloqueante incluye un número de líneas de desplazamiento paralelas que tienen anchos de muestra de solapamiento entre líneas de desplazamiento adyacentes. Los anchos de muestra de solapamiento se usan para determinar los ángulos de visión y la desviación de rango del dispositivo sensor remoto. Adicionalmente, el método puede ser usado para generar errores estimados de desplazamiento horizontal y vertical. Estos errores estimados pueden ser usados como factores de corrección para la desviación de rango y los ángulos de visión.
Existe una necesidad de una forma alternativa de referenciar geométricamente imágenes multi-espectrales o hiperespectrales que no se base en imágenes pancromáticas adquiridas simultáneamente y que tenga una complejidad computacional limitada.
Sumario de la invención
Según un aspecto de la presente invención, se proporciona un método para la referencia geométrica de datos multiespectrales en una secuencia de imágenes, siendo las imágenes adquiridas usando un sensor multi-espectral, conteniendo cada imagen regiones distintas que presentan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el método: seleccionar un subconjunto a partir de la secuencia de imágenes, conteniendo dicho subconjunto una pluralidad de imágenes, cada una de cuyas imágenes representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto; generar un modelo en 3D realizando reconstrucción fotogramétrica en 3D sobre las imágenes en el subconjunto; estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes; y, usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no estén en dicho subconjunto seleccionado, donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z) así como los ángulos de cabeceo, balanceo y guiñada del sensor.
A través de la presente solicitud, se debe entender que el término multi-espectral” incluye “hiperespectral”, a menos que se indique lo contrario.
Una ventaja de la presente invención consiste en que se puede hacer una obtención de referencias geométricas precisas de un conjunto de imágenes multi-espectrales por tramos, de una manera más eficiente mediante la combinación juiciosa de técnicas fotogramétricas, para imágenes que estén suficientemente separadas, con técnicas de interpolación, paras todas las imágenes que estén entre las imágenes que han sido seleccionadas para fotogrametría.
Al igual que en la invención descrita en la solicitud de Patente sin publicar PCT/EP2015/065524, la presente invención se basa inter alia en la percepción sorprendente de los inventores de que la modelación en 3D puede ser aplicada con éxito a imágenes multi-espectrales a pesar de la diferencia en cuanto a apariencia de las mismas característica en imágenes diferentes, siempre que las imágenes usadas para las reconstrucciones en 3D estén suficientemente separadas. Así, cuando se eligen pares de imágenes para modelación fotogramétrica en 3D, las peticiones en conflicto de proximidad espectral (cuanto más próximas sean las longitudes de onda de las imágenes, más similares visualmente serán las imágenes) y la separación espectral (cuanto más alejadas se hayan tomado las imágenes, más pronunciada será la información de profundidad), produce un sorprendente “punto dulce” donde se vuelve a hacer posible el procesamiento fotogramétrico eficiente y preciso de pares de imágenes multi-espectrales o hiperespectrales. Sin embargo, la presente invención mitiga los requisitos de procesamiento excesivo de la técnica fotogramétrica del documento PCT/EP2015/065524 restringiendo su aplicación a un subconjunto de imágenes, y resolviendo los parámetros para las imágenes intervinientes por medio de interpolación.
En una realización, el método conforme a la presente invención comprende que dicho sensor multi-espectral sea un sensor hiperespectral que tiene un elemento de detección con diferentes partes que son sensibles a diferentes longitudes de onda.
Los inventores han encontrado que la presente invención resulta muy indicada en particular para resolver los problemas de obtención de referencias que ocurren en las imágenes hiperespectrales.
En una realización del método conforme a la presente invención, la secuencia de imágenes comprende imágenes muy poco distanciadas en una dirección de movimiento de un sensor con el fin de tener un solapamiento en dicha dirección de aproximadamente el 99%.
La mejora en la complejidad computacional obtenida mediante el uso de la presente invención es particularmente significativa cuando las imágenes a ser procesadas están espaciadas de forma extremadamente cercana, como es el caso de las imágenes hiperespectrales obtenidas en campañas de fotografía espectral aérea.
Conforme a un aspecto de la presente invención, se proporciona un producto de programa informático que comprende medios de código configurados para hacer que un procesador realice, cuando se ejecuta, las etapas del método según se ha descrito con anterioridad.
Conforme a un aspecto de la presente invención, se proporciona un sistema para obtener referencias geométricas de datos multi-espectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen regiones distintas que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el sistema un procesador configurado para: seleccionar un subconjunto a partir de la secuencia de imágenes, conteniendo dicho subconjunto una pluralidad de imágenes, cada una de cuyas imágenes representa un campo de visión que se solapa con el campo de visión de al menos otra imagen en el mismo subconjunto; generar un modelo en 3D realizando reconstrucción fotogramétrica en 3D sobre las imágenes del subconjunto; estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes; y, usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no estén en dicho subconjunto seleccionado, donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z), así como también los ángulos de cabeceo, balanceo y guiñada del sensor.
En una realización del sistema según la presente invención, las imágenes son imágenes hiperespectrales, y el citado sensor multi-espectral es un elemento de detección con diferentes partes que son sensibles a diferentes longitudes de onda.
En una realización del sistema según la presente invención, la secuencia de imágenes comprende imágenes separadas de forma muy cercana en una dirección de movimiento del sensor de modo que tienen un solapamiento en dicha dirección de aproximadamente un 99%.
Los efectos técnicos y las ventajas de las realizaciones del producto de programa informático y del sistema conforme a la presente invención, se corresponden mutis mutandis con estas realizaciones del método según la presente invención.
Breve descripción de las Figuras
Estos y otros aspectos técnicos y ventajas de las realizaciones de la presente invención van a ser descritos ahora con mayor detalle con referencia a los dibujos que se acompañan, en los que:
La Figura 1 ilustra esquemáticamente la ruta de vuelo tomada por un ejemplo de vehículo aéreo utilizado para adquirir imágenes de la tierra, y los contornos de imágenes consecutivas adquiridas por un sensor a bordo de dicho vehículo;
La Figura 2 proporciona una vista en perspectiva de la región visualizada por dos adquisiciones consecutivas en el mapa de la Figura 1;
La Figura 3 representa esquemáticamente el ángulo de visión del sensor de las Figuras 1 y 2 para posiciones de toma de imágenes consecutivas;
La Figura 4 proporciona una vista en perspectiva de la región visualizada mediante adquisiciones consecutivas de un sensor multi-espectral, en particular un sensor hiperespectral;
La Figura 5 representa esquemáticamente el ángulo de visión del sensor de la Figura 4 para posiciones de toma de imágenes consecutivas;
La Figura 6 ilustra esquemáticamente los principios de la presente invención, y
La Figura 7 proporciona un diagrama de flujo que representa una realización del método conforme a la presente invención.
Descripción de realizaciones
“Reconstrucción en 3D”, según se utiliza en la presente descripción, es el proceso de captura de la forma (y la apariencia) de objetos reales.
“Reconstrucción fotogramétrica en 3D”, según se utiliza en la presente descripción, también conocida como “estructura del movimiento” o “modelación basada en imagen”, es el proceso de captura de la forma (y la apariencia) de objetos reales usando imaginería. La reconstrucción fotogramétrica en 3D de un objeto requiere un mínimo de 2 imágenes de ese objeto, adquiridas desde puntos de visualización diferentes; en muchas circunstancias prácticas, cuando la calibración de la cámara no es suficientemente precisa, se necesitarán 3 imágenes. Las coordenadas de píxeles en la secuencia de imágenes correspondiente a una posición del suelo (punto objeto), se usan para deducir simultáneamente (ajuste de paquetes): parámetros de orientación de imagen interior, parámetros de orientación de imagen exterior, y coordenadas en 3D del punto del suelo (punto objeto). La precisión de los resultados de la reconstrucción en 3D depende (entre otras cosas) de la red de imágenes (por ejemplo, solapamiento hacia delante y lateral).
Para realizar fotogrametría en circunstancias óptimas, el conjunto de imágenes podría tener que poseer un grado suficiente de detalle (por ejemplo, al menos 500 - 1000 píxeles en cada dirección), y un factor de forma apropiado (con preferencia un tamaño similar en las direcciones X e Y, dado que los factores de forma muy alargados tienden a reducir la precisión).
Con preferencia, las imágenes sucesivas usadas para la fotogrametría tienen un solapamiento de alrededor de un 80%. Si la cantidad de solapamiento es sustancialmente menor, el área común a las dos imágenes es más pequeña, produciendo menos características comunes. Si la cantidad de solapamiento es sustancialmente mayor, el desplazamiento angular entre las imágenes resulta ser muy pequeño, dando como resultado estimaciones de menor precisión.
La Figura 1 (que no está a escala), ilustra esquemáticamente la ruta de vuelo adoptada por un ejemplo de vehículo aéreo utilizado para adquirir imágenes de la tierra, y los contornos de imágenes consecutivas adquiridas por un sensor a bordo de dicho vehículo, mostrados a modo de mapa bidimensional (vista en planta). La secuencia de imágenes así adquiridas será también mencionada en lo que sigue como “red de imágenes”. El sensor puede estar activo en el rango visual (por ejemplo, un sensor RGB), o en otra región espectral específica (por ejemplo, cercana al infrarrojo, infrarrojo de onda corta, etc.).
Puesto que las imágenes adquiridas son bidimensionales, se necesitan múltiples imágenes para permitir una reconstrucción tridimensional del terreno visualizado. En particular, la reconstrucción tridimensional de características individuales requiere que esas características estén presentes en varias imágenes tomadas desde diferentes ángulos, lo que implica que las imágenes subsiguientes adquiridas por el sensor deben presentar un solapamiento suficiente, según se ha explicado con anterioridad. Según se ha ilustrado en la Figura 1, un valor típico de la cantidad de solapamiento entre imágenes consecutivas tomadas en una dirección de vuelo dada, es del orden de un 80%. El solapamiento de los laterales entre imágenes adquiridas durante una primera pasada y una segunda pasada de bandas respectivas adyacentes del terreno, en el que la primera pasada y la segunda pasada corresponden típicamente a direcciones de vuelo diferentes, es del orden de un 20-30%.
La Figura 2 proporciona una vista en perspectiva de la región visualizada por dos tomas consecutivas en el mapa de la Figura 1, indicando en particular el área de solapamiento entre las áreas visualizadas.
La Figura 3 representa esquemáticamente el ángulo de visión del sensor de las Figuras 1 y 2 para posiciones consecutivas de toma de imágenes, e ilustra cómo cambia el rayo de visualización desde el sensor hasta cualquier objeto dado del suelo, significativamente desde una imagen (imageni) hasta la siguiente (imageni+1). La diferencia del ángulo de visualización es lo que permite la reconstrucción fotogramétrica de las particularidades en 3D de la característica, en particular su elevación.
La Figura 4 proporciona una vista en perspectiva de la región visualizada mediante tomas consecutivas de un sensor multi-espectral, en particular un sensor hiperespectral. Un ejemplo de sensor hiperespectral ha sido divulgado en la publicación de solicitud de Patente Internacional WO 2011/073430 A1, a nombre de la presente solicitante, donde se describe como el “primer sensor”, que opera junto con un segundo sensor (rango visual). Mientras que el “primer sensor” del documento WO 2011/073430 A1 será mencionado a efectos de claridad de la presente invención, debe entenderse que la presente invención no está limitada al mismo.
Es típico en tales sensores hiperespectrales que diferentes partes del elemento de detección sean sensibles a diferentes longitudes de onda. Este efecto puede ser obtenido con la provisión de un elemento de detección con una capa de filtro que tenga una respuesta de longitud de onda que varíe a través de la superficie del elemento de detección. Por consiguiente, cada imagen tomada por dicho sensor espectral es de hecho un mosaico en el que las diferentes partes de la imagen representan la parte correspondiente del terreno según se ve en la radiación de diferentes bandas de longitud de onda respectivas. Con el fin de obtener una imagen de cualquier zona dada según se ve en la radiación de una banda de longitud de onda específica, las partes relevantes de un gran número de tales mosaicos deben ser juntadas. Está claro que esos sensores hiperespectrales requieren imágenes muy próximas entre sí, por ejemplo, un 99% en la dirección hacia delante (lo que, dependiendo de la velocidad de movimiento del sensor, puede requerir una velocidad de trama muy alta) para asegurar la cobertura espacial completa en todas las bandas relevantes del espectro.
De ese modo, considerando imágenes individuales, las líneas de imagen están divididas a través de las diversas bandas espectrales en la dirección hacia delante. Como resultado, en cada imagen individual, una banda espectral individual está cubierta únicamente con un pequeño número de líneas (por ejemplo, este número puede ser menor de 10 para la obtención de imágenes hiperespectrales con más de 100 bandas espectrales). Esta situación imposibilita el uso de fotogrametría sobre esas bandas individuales.
La Figura 5 representa esquemáticamente el ángulo de visión del sensor de la Figura 4 para posiciones consecutivas de obtención de imágenes, e ilustra cómo cambia el rayo de visualización desde el sensor hasta cualquier objeto de suelo dado, desde una imagen (imageni) a la siguiente (imageni+1). Como resultado de la alta velocidad de trama de esos sensores hiperespectrales, la diferencia en el ángulo de visión, que se necesita para la reconstrucción fotogramétrica de características en 3D de las particularidades del suelo, resulta ser muy pequeña. Esto impacta negativamente sobre la precisión (en términos de estimación de posición vertical, orientación de imagen exterior, orientación de imagen interior, etc.) que se puede conseguir con tales imágenes aplicando fotogrametría. Además, los métodos para el tratamiento de conjuntos de imagen de pequeño paralaje tienden a ser tan exigentes desde un punto de vista computacional, que en la práctica no son factibles para grandes conjuntos de datos.
La presente invención se basa, inter alia, en la percepción inventiva de los inventores de que, a pesar de las demandas en conflicto de proximidad espectral y separación espacial, resulta que es posible el procesamiento fotogramétrico eficiente y preciso de conjuntos seleccionados de imágenes multi-espectrales o hiperespectrales. La presente invención se basa también en la percepción adicional de los inventores de que las imágenes restantes, que están entre las imágenes seleccionadas para el procesamiento fotogramétrico, pueden ser procesadas de forma más eficiente sobre la base de una estimación relativamente simple de desplazamiento y guiñada (eje z de rotación), mientras que los parámetros fotogramétricos obtenidos para las imágenes seleccionadas pueden ser interpolados a las restantes imágenes.
La Figura 6 ilustra esquemáticamente el concepto de selección de un subconjunto fuera de la secuencia de imágenes. A los efectos de la presente invención, se selecciona un subconjunto fuera de la secuencia de imágenes, en el que pares de imágenes tienen al menos el solapamiento mínimamente requerido para permitir el procesamiento fotogramétrico, mientras que presentan un paralaje suficientemente grande (por ejemplo, un solapamiento en la dirección hacia delante del 80%).
La Figura 7 es un diagrama de flujo de una realización del método conforme a la presente invención. El método opera sobre una serie de imágenes, adquiridas 710 por medio de un sensor multi-espectral.
Se selecciona 720 un subconjunto de las imágenes adquiridas, conforme a los criterios mencionados con anterioridad de solapamiento y paralaje suficientes. La reconstrucción en 3D se realiza 730 sobre las imágenes de este subconjunto, permitiendo el cálculo de parámetros fotogramétricos completos para las imágenes seleccionadas 740; es decir, para cada una de las imágenes seleccionadas, los parámetros disponibles podrán incluir coordenadas (x, y, a), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
Las restantes imágenes se someten a un procesamiento, consistente en la estimación del desplazamiento relativo y en la rotación del eje z desde una imagen a la siguiente 750. Dado un sensor multi-espectral, con sensibilidades de longitud de onda gradualmente variables, la mayor parte de las características parecerán ser muy similares de una imagen a la siguiente, dado que están representadas en bandas de longitud de onda que no están muy alejadas. Con ello, este procesamiento es mucho menos complejo que un procesamiento fotogramétrico completo con un paralaje muy pequeño. En base a las estimaciones de desplazamiento relativo y de rotación del eje z, se puede deducir el conjunto completo de parámetros fotogramétricos para cada una de las imágenes restantes mediante interpolación, usando los parámetros del subconjunto fotogramétricamente procesado como valores límite conocidos. La interpolación puede ser llevada a cabo usando técnicas matemáticas según se conoce en el estado de la técnica.
La presente invención también pertenece a un sistema para la obtención de referencias geométricas de datos multiespectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen distintas regiones que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el sistema un procesador configurado para: seleccionar un subconjunto a partir de la secuencia de imágenes, conteniendo dicho subconjunto una pluralidad de imágenes, de las que cada imagen representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto; generar un modelo en 3D mediante la realización de reconstrucción fotogramétrica en 3D sobre las imágenes del subconjunto; estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes; y, usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no están en dicho subconjunto seleccionado, donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
El “procesador” según se menciona en lo que antecede, puede estar implementado a modo de uno o más componentes de hardware dedicados (por ejemplo, ASICs), componentes de hardware configurables (por ejemplo, FGPAs), componentes programables con software apropiado (por ejemplo, procesadores de propósito general o DSPs), o cualquier combinación de los mismos. El (los) mismo(s) componente(s) puede(n) también realizar otras funciones.
El sistema puede comprender además interfaces adecuadas para acceder a la secuencia de imágenes que contienen los datos multi-espectrales, y para presentar a la salida la información de obtención de referencias geométricas generadas. El término “interfaces” designa el hardware y el software necesarios para permitir que el procesador intercambie datos con una fuente o un receptor de datos. Con preferencia, las interfaces operan conforme a una pila de protocolo estandarizada, tal como un estándar para redes de área de almacenamiento (SAN), redes de área local (LAN, por ejemplo el estándar IEEE 802.3 de “Ethernet”), o redes de área personal (PAN; por ejemplo USB). En la red y en la capa de transporte, las interfaces pueden operar conforme a la familia de protocolos TCP/IP, permitiendo inter alia un despliegue en el que las imágenes sean adquiridas a través de internet y/o los resultados del método sean suministrados hasta su destino a través de internet.
La presente invención pertenece también a un producto de programa informático que comprende medios de código configurados para hacer que el procesador lleve a cabo las etapas del método según la presente invención.
Mientras que la invención ha sido descrita en la presente memoria con referencia a realizaciones específicas, esto se ha hecho con la finalidad de aclarar y no limitar la invención, cuyo alcance está definido por las reivindicaciones.

Claims (7)

REIVINDICACIONES
1. - Un método para la obtención de referencias geométricas de datos multi-espectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen regiones distintas que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el método:
- seleccionar un subconjunto a partir de la secuencia de imágenes (720), conteniendo dicho subconjunto una pluralidad de imágenes, de las que cada imagen representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto;
- generar un modelo en 3D realizando reconstrucción fotogramétrica en 3D sobre las imágenes del subconjunto (730, 740);
- estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes (750), y
- usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no estén en dicho subconjunto seleccionado (760),
donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y, z), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
2. - El método según la reivindicación 1, en donde dicho sensor multi-espectral es un sensor hiperespectral que tiene un elemento de detección con diferentes partes que son sensibles a diferentes longitudes de onda.
3. - El método según una cualquiera de las reivindicaciones precedentes, en donde dicha secuencia de imágenes comprende imágenes muy cercanas en una dirección de movimiento de un sensor, con el fin de que tengan un solapamiento en dicha dirección de aproximadamente un 99%.
4. - Un producto de programa informático que comprende medios de código configurados para hacer que un procesador lleve a cabo, cuando se ejecute, las etapas del método conforme a cualquiera de las reivindicaciones 1­ 3.
5. - Un sistema para la obtención de referencias geométricas de datos multi-espectrales en una secuencia de imágenes, siendo las imágenes adquiridas con el uso de un sensor multi-espectral, conteniendo cada imagen distintas regiones que representan radiación visualizada en distintas longitudes de onda respectivas, comprendiendo el sistema un procesador configurado para:
- seleccionar un subconjunto a partir de la secuencia de imágenes, conteniendo dicho subconjunto una pluralidad de imágenes, donde cada una de las imágenes representa un campo de visión que se solapa con un campo de visión de al menos otra imagen en el mismo subconjunto;
- generar un modelo en 3D realizando una reconstrucción fotogramétrica en 3D sobre las imágenes en el subconjunto;
- estimar un desplazamiento y una guiñada entre pares de imágenes sucesivas de dicha secuencia de imágenes, y
- usar dicho modelo en 3D y dichos desplazamiento y guiñada estimados para calcular parámetros fotogramétricos para imágenes de dicha secuencia de imágenes que no están en dicho subconjunto seleccionado, donde los parámetros fotogramétricos para las imágenes seleccionadas incluyen coordenadas (x, y ,z), así como los ángulos de cabeceo, balanceo y guiñada del sensor.
6. - El sistema según la reivindicación 5, en donde dichas imágenes son imágenes hiperespectrales, y dicho sensor multi-espectral es un sensor hiperespectral que tiene un elemento de detección con diferentes partes que son sensibles a diferentes longitudes de onda.
7. - El sistema según una cualquiera de las reivindicaciones 5 a 6, en donde dicha secuencia de imágenes comprende imágenes muy próximas en una dirección de movimiento de un sensor con el fin de que tengan un solapamiento en dicha dirección de aproximadamente un 99%.
ES17151487T 2016-01-13 2017-01-13 Método y sistema para la referencia geométrica de datos multi-espectrales Active ES2731451T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP16151160 2016-01-13

Publications (2)

Publication Number Publication Date
ES2731451T3 true ES2731451T3 (es) 2019-11-15
ES2731451T8 ES2731451T8 (es) 2022-04-01

Family

ID=55221274

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17151487T Active ES2731451T3 (es) 2016-01-13 2017-01-13 Método y sistema para la referencia geométrica de datos multi-espectrales

Country Status (9)

Country Link
US (1) US10565789B2 (es)
EP (1) EP3193136B8 (es)
JP (1) JP2019503484A (es)
CN (1) CN108474661A (es)
AU (1) AU2017206966A1 (es)
CA (1) CA3007619A1 (es)
ES (1) ES2731451T3 (es)
PL (1) PL3193136T3 (es)
WO (1) WO2017121876A1 (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115361482A (zh) * 2017-04-28 2022-11-18 索尼公司 信息处理装置、信息处理方法、信息处理程序、图像处理装置以及图像处理系统
JP7049220B2 (ja) * 2018-08-30 2022-04-06 オリンパス株式会社 画像取得装置および画像取得装置の作動方法
EP3853639A4 (en) * 2018-09-21 2022-04-27 Shenzhen Xpectvision Technology Co., Ltd. IMAGING SYSTEM
CN111596594B (zh) 2020-06-08 2021-07-23 厦门理工学院 一种全景大数据应用监测管控系统
CN112009708B (zh) * 2020-09-04 2022-06-17 广州飞图信息科技有限公司 一种固定翼无人机、单镜头倾斜摄影系统及方法
CN112857328B (zh) * 2021-03-30 2022-06-14 宁波市特种设备检验研究院 一种无标定摄影测量方法
CN113362265B (zh) * 2021-08-10 2021-11-16 成都新橙北斗智联有限公司 一种低成本的无人机正射影像快速地理拼接方法
WO2023149963A1 (en) 2022-02-01 2023-08-10 Landscan Llc Systems and methods for multispectral landscape mapping

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212938B2 (en) 2002-09-17 2007-05-01 M7 Visual Intelligence, Lp Method of using a self-locking travel pattern to achieve calibration of remote sensors using conventionally collected data
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
PT2513599E (pt) 2009-12-18 2015-08-21 Vito Nv Vlaamse Instelling Voor Technologisch Onderzoek Nv Georreferenciação de dados multiespectrais
JP6025830B2 (ja) * 2011-06-07 2016-11-16 クレアフォーム・インコーポレイテッドCreaform Inc. 3d走査用のセンサ位置決め
US20130027554A1 (en) * 2011-07-31 2013-01-31 Meadow William D Method and Apparatus for Automated Camera Location and Orientation with Image Processing and Alignment to Ground Based Reference Point(s)
EP2888628A4 (en) 2012-08-21 2016-09-14 Visual Intelligence Lp SYSTEM AND METHOD FOR INFRASTRUCTURE MAPPING
US9196084B2 (en) 2013-03-15 2015-11-24 Urc Ventures Inc. Determining object volume from mobile device images
US20140300686A1 (en) * 2013-03-15 2014-10-09 Tourwrist, Inc. Systems and methods for tracking camera orientation and mapping frames onto a panoramic canvas
GB201412061D0 (en) 2014-07-07 2014-08-20 Vito Nv Method and system for geometric referencing of multi-spectral data
GB201412060D0 (en) 2014-07-07 2014-08-20 Vito Nv Method and system for photogrammetric processing of images
US10482628B2 (en) * 2017-09-30 2019-11-19 United States Of America As Represented By The Secretary Of The Army Photogrammetric point cloud compression for tactical networks

Also Published As

Publication number Publication date
EP3193136A1 (en) 2017-07-19
EP3193136B1 (en) 2019-04-17
CN108474661A (zh) 2018-08-31
EP3193136B8 (en) 2020-05-27
US20190340811A1 (en) 2019-11-07
PL3193136T3 (pl) 2019-12-31
AU2017206966A1 (en) 2018-06-21
CA3007619A1 (en) 2017-07-20
ES2731451T8 (es) 2022-04-01
JP2019503484A (ja) 2019-02-07
WO2017121876A1 (en) 2017-07-20
US10565789B2 (en) 2020-02-18

Similar Documents

Publication Publication Date Title
ES2731451T3 (es) Método y sistema para la referencia geométrica de datos multi-espectrales
Lucieer et al. Using a micro-UAV for ultra-high resolution multi-sensor observations of Antarctic moss beds
US10182212B2 (en) Wide area intermittent video using non-orthorectified feature matching in long period aerial image capture with pixel-based georeferencing
Haala et al. Quality of 3D point clouds from highly overlapping UAV imagery
Bendig et al. Very high resolution crop surface models (CSMs) from UAV-based stereo images for rice growth monitoring in Northeast China
US20150022656A1 (en) System for collecting & processing aerial imagery with enhanced 3d & nir imaging capability
ES2702932T3 (es) Método y sistema para referenciación geométrica de datos multiespectrales
US10740608B2 (en) Wide area intermittent video using non-orthorectified feature matching in long period aerial image capture with pixel-based georeferencing
EP3167432B1 (en) Method and system for photogrammetric processing of images
Oliveira et al. Generating a hyperspectral digital surface model using a hyperspectral 2D frame camera
Cubero-Castan et al. Assessment of the radiometric accuracy in a target less work flow using Pix4D software
CN107798668B (zh) 基于rgb影像的无人机成像高光谱几何校正的方法及系统
Mumtaz et al. Attitude determination by exploiting geometric distortions in stereo images of DMC camera
US20240056693A1 (en) Systems and Methods For Multispectral Landscape Mapping
Grodecki et al. IKONOS geometric calibrations
Essel et al. Initial Study Assessing the Suitability of Drones with Low-Cost GNSS and IMU for Mapping over Featureless Terrain Using Direct Georeferencing
Berveglieri et al. Bundle adjustment of a time-sequential spectral camera using polynomial models
Cariou et al. Automatic georeferencing of airborne pushbroom scanner images with missing ancillary data using mutual information
Gastellu-Etchegorry et al. Correction of Directional Effects in Sentinel-2 and-3 Images with Sentinel-3 Time Series and Dart 3D Radiative Transfer Model
Kocaman et al. 3D Processing of Gokturk-2 imagery
Shahbazi et al. Seamless co-registration of images from multi-sensor multispectral cameras
Moroni Vegetation monitoring via a novel push-broom-sensor-based hyperspectral device
Passini et al. Handling of large block of high resolution space images
Kukko et al. Use of HRSC-A for sampling bidirectional reflectance
He et al. A Structure-from-Motion Approach Using UAV-based Imagery for Precision Agriculture Applications