ES2804898T3 - Captación de corredor - Google Patents
Captación de corredor Download PDFInfo
- Publication number
- ES2804898T3 ES2804898T3 ES16748475T ES16748475T ES2804898T3 ES 2804898 T3 ES2804898 T3 ES 2804898T3 ES 16748475 T ES16748475 T ES 16748475T ES 16748475 T ES16748475 T ES 16748475T ES 2804898 T3 ES2804898 T3 ES 2804898T3
- Authority
- ES
- Spain
- Prior art keywords
- images
- primary
- flight line
- flight
- corridor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007115 recruitment Effects 0.000 title description 2
- 238000000034 method Methods 0.000 claims abstract description 48
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract 2
- 230000009977 dual effect Effects 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- WYTGDNHDOZPMIW-RCBQFDQVSA-N alstonine Natural products C1=CC2=C3C=CC=CC3=NC2=C2N1C[C@H]1[C@H](C)OC=C(C(=O)OC)[C@H]1C2 WYTGDNHDOZPMIW-RCBQFDQVSA-N 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3826—Terrain data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3852—Data derived from aerial or satellite images
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Astronomy & Astrophysics (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Input (AREA)
- Image Analysis (AREA)
- Aviation & Aerospace Engineering (AREA)
- Signal Processing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Un método para crear un ortomosaico de un área de corredor (106) que consiste en una faja de tierra o de agua a lo largo de una trayectoria arbitraria (100), área de corredor que tiene una longitud mayor que su ancho, no siendo el ancho necesariamente constante a lo largo de la trayectoria arbitraria (100), pudiéndose describir la trayectoria arbitraria parcialmente por una polilínea (102) de trayectoria de corredor, no siendo la polilínea (102) de trayectoria de corredor recta, comprendiendo el método: (a) hacer volar una aeronave a lo largo de una línea de vuelo primaria, comprendiendo la línea de vuelo primaria una secuencia de segmentos rectos (130) de línea de vuelo primaria, en donde la aeronave se hace volar nivelada a lo largo de cada segmento de línea de vuelo primaria (130), no estando alineado cada segmento de línea de vuelo primaria (130) con su predecesor inmediato (130) (si lo hay) y no siendo paralelo a su predecesor inmediato (130), aproximándose cada segmento de línea de vuelo primario (130) a parte de la polilínea (102) de la trayectoria del corredor; (b) captar, durante el vuelo a lo largo de cada segmento de línea de vuelo primaria (130) y mediante un sistema de cámara aérea (350) transportado por la aeronave, una secuencia de imágenes primarias, solapándose cada imagen primaria al menos parcialmente con su predecesora en la secuencia; (c) hacer volar la aeronave a lo largo de una línea de vuelo secundaria, comprendiendo la línea de vuelo secundaria una secuencia de segmentos de línea de vuelo secundaria (132), extendiéndose cada segmento de línea de vuelo secundaria (132) paralelo a, y lateralmente descentrado con respecto a, un segmento respectivo de línea de vuelo primaria (130); (d) captar, durante el vuelo a lo largo de cada segmento de línea de vuelo secundaria (132) y a través del sistema de cámara aérea (350) transportado por el avión, una secuencia de imágenes secundarias, solapándose al menos algunas de las imágenes secundarias con al menos algunas de las imágenes primarias; (e) identificar (410), en una pluralidad de las imágenes primarias e imágenes secundarias, características comunes correspondientes a puntos sobre el terreno comunes; (f) estimar (412), a través de ajuste de lote y a partir de los puntos de terreno comunes, una orientación exterior asociada con cada imagen primaria y una posición tridimensional asociada con cada punto sobre el terreno; (g) rectificar ortogonalmente (414), utilizando al menos algunas de las orientaciones exteriores y al menos algunas de las posiciones tridimensionales de puntos sobre el terreno, al menos algunas de las imágenes primarias; y (h) fusionar (416) las imágenes primarias rectificadas ortogonalmente para crear el ortomosaico (404).
Description
DESCRIPCIÓN
Captación de corredor
Campo de la invención
La presente invención se refiere a la creación eficiente y precisa de ortomosaicos de corredor.
Antecedentes
Los mosaicos de ortofotos georreferenciados con precisión, a los que se hace referencia como ortomosaicos, se están convirtiendo en alternativas populares a los mapas pictóricos tradicionales porque pueden crearse automáticamente a partir de fotos aéreas y porque muestran detalles útiles reales en el suelo.
La creación de ortomosaicos precisos a partir de fotos aéreas está bien descrita en la bibliografía. Véase, por ejemplo, la divulgación “Elementos de fotogrametría con aplicación en SIG”, cuarta edición (Wolf et al.), Y el “Manual de fotogrametría”, sexta edición (Sociedad Americana de Fotogrametría y Teledetección (ASPRS)).
La creación de un ortomosaico requiere la captación sistemática de fotografías aéreas solapadas del área de interés, tanto para garantizar una cobertura completa del área de interés, como para garantizar que haya suficiente redundancia en las imágenes para permitir un ajuste preciso de los lotes, así como una rectificación ortogonal y una alineación de las fotos.
El ajuste de los lotes es el proceso mediante el cual se refinan las estimaciones redundantes de puntos de terreno y poses de cámara. El ajuste de lotes moderno se describe en detalle en la divulgación "Ajuste de lotes: una síntesis moderna" (Triggs et al.).
El ajuste de los lotes puede actuar en las posiciones de los puntos del terreno identificados manualmente o, cada vez más, en las posiciones de las características del terreno identificadas automáticamente que se hacen coincidir automáticamente entre las fotos solapadas.
Las fotos aéreas solapadas generalmente se captan haciendo navegar un avión de reconocimiento según un patrón de serpentina sobre el área de interés. El avión de reconocimiento lleva un sistema de cámara aérea, y el patrón de vuelo en serpentina asegura que las fotos captadas por el sistema de cámara se solapan tanto a lo largo de las líneas de vuelo dentro del patrón de vuelo como entre las líneas de vuelo adyacentes.
Los corredores que contienen líneas ferroviarias, autopistas, líneas eléctricas, ríos, canales, costas y otras características con sinuosidades estrechas a menudo son de particular interés. Sin embargo, las técnicas convencionales de reconocimiento aéreo basadas en áreas se encuentran por debajo de lo óptimo para captar corredores.
El documento US 2009/0256909 A1 divulga sistemas y métodos para captar imágenes de áreas extensas en detalle, que incluyen cámaras dispuestas en cascada y/o características de calibración.
Compendio de la invención
La invención se define en la reivindicación 1. También se describe en la presente memoria un método para crear un ortomosaico de un área de corredor, de tal modo que el área del corredor está al menos parcialmente descrita por una trayectoria de corredor, y el método comprende: hacer volar un avión a lo largo de una línea de vuelo primaria, de tal modo que la línea de vuelo primaria comprende una secuencia de segmentos de línea de vuelo primaria, de forma que cada segmento de línea de vuelo primaria se aproxima al menos a parte de la trayectoria del corredor; captar, durante el vuelo a lo largo de cada segmento de línea de vuelo primaria, y mediante un sistema de cámara aérea transportado por la aeronave, una secuencia de imágenes primarias, de tal modo que cada imagen primaria se solapa al menos parcialmente a su sucesivo en la secuencia; hacer volar la aeronave a lo largo de una línea de vuelo secundaria, de tal manera que la línea de vuelo secundaria comprende una secuencia de segmentos de línea de vuelo secundaria, y cada segmento de línea de vuelo secundaria es sustancialmente paralelo a al menos parte de la trayectoria del corredor; captar, durante el vuelo a lo largo de cada segmento de línea de vuelo secundaria y a través del sistema de cámara aérea transportado por la aeronave, una secuencia de imágenes secundarias, de manera que al menos algunas de las imágenes secundarias se solapan con al menos con algunas de las imágenes primarias; identificar, en una pluralidad de las imágenes primarias y las imágenes secundarias, características comunes que corresponden a puntos del terreno comunes; estimar, a través de un ajuste de lotes y a partir de los puntos de terreno comunes, una orientación exterior asociada con cada imagen primaria y una posición tridimensional asociada con cada punto del terreno; rectificar ortogonalmente, utilizando al menos algunas de las orientaciones exteriores y al menos algunas de las posiciones tridimensionales de puntos del terreno, al menos algunas de las imágenes primarias; y fusionar las imágenes primarias rectificadas ortogonalmente para crear el ortomosaico.
El avión se hace volar nivelado a lo largo de cada segmento de línea de vuelo primaria, y se puede hacer volar a lo largo de un viraje en redondo entre cada segmento de línea de vuelo primaria y su sucesivo, de tal manera que el giro tiene un ángulo mayor de 180 grados.
El avión puede hacerse volar a lo largo de un giro entre cada segmento de línea de vuelo secundaria y su sucesivo, de tal modo que el giro tiene un ángulo inferior a 90 grados.
El sistema de cámara aérea puede comprender al menos una cámara vertical para captar imágenes sustancialmente verticales.
El sistema de cámara aérea puede comprender al menos una cámara oblicua para captar imágenes sustancialmente oblicuas.
Las imágenes primarias y las imágenes secundarias pueden comprender tanto imágenes verticales como imágenes oblicuas.
Las imágenes primarias pueden comprender imágenes verticales y las imágenes secundarias pueden comprender imágenes oblicuas.
El sistema de cámara aérea puede comprender al menos una cámara de visión general para captar imágenes de visión general, y una pluralidad de cámaras de detalle para captar imágenes de detalle, de tal modo que cada imagen de detalle tiene una resolución más alta que la al menos una imagen de visión general, al menos algunas de las imágenes de detalle pueden solaparse con algunas de las imágenes de resumen, y las imágenes primarias pueden comprender tanto imágenes de visión general como imágenes de detalle.
Las imágenes secundarias pueden comprender imágenes de visión general e imágenes de detalle.
La línea de vuelo secundaria puede ser curva e incluir giros inclinados.
Breve descripción de las figuras
La Figura 1 muestra una trayectoria de corredor de interés.
La Figura 2 muestra la trayectoria del corredor aproximada por una polilínea, y el área del corredor aproximada por un polígono.
La Figura 3 muestra el corredor, combinado con un área de intersección de interés.
La Figura 4 muestra el patrón de vuelo en serpentina de un reconocimiento aéreo basado en áreas.
La Figura 5 muestra un diagrama y una ecuación que relacionan el ancho de franja de un sistema de cámara aérea con su campo de visión angular y la altitud sobre el nivel del suelo.
La Figura 6 muestra un método para cubrir el área de corredor de interés con una secuencia de segmentos de trayectoria de reconocimiento.
La Figura 7 muestra otro método para cubrir el área de corredor de interés con una secuencia de segmentos de trayectoria de reconocimiento.
La Figura 8 muestra el uso de un segmento de trayectoria de reconocimiento más ancho para cubrir el área de intersección de interés.
La Figura 9 muestra el área de corredor de interés, cubierta utilizando dos conjuntos de líneas de vuelo.
La Figura 10 muestra el área de corredor de interés, cubierta utilizando un número menor de líneas de vuelo con un ancho de franja más grande.
La Figura 11 muestra el uso de una línea de vuelo primaria para captar imágenes primarias del corredor, y de una línea de vuelo secundaria para captar imágenes secundarias del corredor con fines de precisión.
La Figura 12 muestra el avión de reconocimiento captando imágenes verticales del corredor mientras vuela a nivel. La Figura 13 muestra el avión de reconocimiento captando imágenes verticales del corredor mientras vuela inclinado. La Figura 14 muestra el avión de reconocimiento captando imágenes tanto verticales como oblicuas del corredor. La Figura 15 muestra una trayectoria de vuelo con giros con inclinación que cubren la trayectoria del corredor. La Figura 16 muestra un diagrama y ecuaciones que relacionan el descentramiento vertical de las imágenes de una aeronave inclinada, con su altitud, ángulo de inclinación, velocidad y radio de giro.
La Figura 17 muestra un sistema de cámara aérea HyperCamera V5-300 de doble resolución.
La Figura 18 muestra el campo de visión de conjunto y los campos de visión de detalle solapados de un sistema de cámara aérea de doble resolución.
La Figura 19 muestra un alzado frontal de un avión Cessna 208 que porta un sistema de cámara aérea de doble resolución, y los campos de visión general y de visión de detalle agregados resultantes.
La Figura 20 muestra un alzado lateral de una aeronave Cessna 208 que porta un sistema de cámara aérea de doble resolución, y los campos de visión general y de visión de detalle agregados resultantes.
La Figura 21 muestra los campos de visión solapados de tres tomas sucesivas de un sistema de cámara aérea de doble resolución.
La Figura 22 muestra los campos de visión solapados de tomas de un sistema de cámara aérea de doble resolución en líneas de vuelo adyacentes.
La Figura 23 muestra un diagrama de bloques de un sistema de potencia y control para un sistema de cámara aérea tal como una HyperCamera.
La Figura 24 muestra un flujo de proceso para crear eficientemente un ortomosaico a partir de fotos aéreas.
La Figura 25 muestra un flujo de proceso para crear eficientemente un ortomosaico a partir de fotos aéreas de doble resolución.
Lista de números de referencia
100 T rayectoria de corredor.
102 Polilínea que aproxima la trayectoria del corredor.
104 Vértice de polilínea.
106 Polígono que aproxima la forma del corredor.
108 Área de intersección de interés.
110 Área de interés basada en áreas.
112 Línea de vuelo.
114 Viraje en redondo entre líneas de vuelo sucesivas.
120 Segmento de trayectoria de reconocimiento.
122 Franja de segmento de trayectoria de reconocimiento.
124 Franja de segmento de trayectoria de reconocimiento más ancha para área de intersección de interés. 126 Giro entre segmentos de línea de vuelo sucesivos.
128 Segmento de línea de vuelo.
130 Segmento de línea de vuelo primaria.
132 Segmento de línea de vuelo secundaria.
134 Giro suave entre segmentos de línea de vuelo sucesivos.
136 Franja agregada.
140 Campo de visión de toma vertical de imágenes.
142 Campo de visión de toma oblicua de imágenes.
150 Terreno.
152 Línea central del corredor sobre el terreno.
154 T rayectoria de vuelo curva.
156 Ángulo de inclinación.
158 Descentramiento de inclinación.
160 Campo de visión de detalle.
164 Campo de visión de detalle longitudinal.
170 Campo de visión general o de conjunto.
172 Campo de visión general lateral.
174 Campo de visión general longitudinal.
180 Campo de visión de detalle agregado.
182 Campo de visión de detalle agregado lateral.
212 Orificio para cámara en el piso de la aeronave.
220 Dirección de vuelo.
230 Avión de reconocimiento aéreo.
300 Ordenador.
302 Dispositivo de presentación visual para el piloto.
304 Unidad de medición inercial (IMU).
306 Receptor del Sistema Global de Navegación por Satélite (GNSS).
308 Convertidores de analógico a digital (ADC).
310 Unidad de control de cámara (CCU).
320 Unidad de batería.
322 Potencia auxiliar de la aeronave.
324 Unidad de potencia de tierra (GPU).
326 Convertidor(es) de CC-CC.
330 Unidad(es) de compensación de movimiento angular (AMC).
340 Cámara(s).
350 Sistema de cámara aérea.
352 Sistema de cámara aérea de doble resolución.
400 Fotos detalladas.
402 Fotos de conjunto.
404 Ortomosaico.
410 Etapa de coincidencia de características.
412 Etapa de resolución de pose & posiciones.
414 Etapa de rectificación ortogonal de fotos.
416 Etapa de mezcla de ortofotos.
Descripción detallada de realizaciones preferidas
Un área de corredor de interés (simplemente “corredor” de aquí en adelante) consiste, por lo común, en una faja de tierra a lo largo de una trayectoria arbitraria 100, tal como se muestra en la Figura 1. El corredor puede seguir una estructura física, como una línea de ferrocarril o un río. La longitud del corredor es, por lo común, mucho más grande que el ancho del corredor.
El ancho del corredor puede, en general, variar a lo largo del recorrido, pero para muchos corredores se aplica un ancho fijo. Con fines ilustrativos, en esta memoria, generalmente se muestran tan solo corredores de ancho fijo.
El corredor puede ser continuo o discontinuo, y el corredor puede comprender múltiples trayectorias más pequeñas, como bucles u horquillas o bifurcaciones. Con fines ilustrativos, en esta memoria, únicamente se muestran corredores continuos sin bifurcaciones.
Como se muestra en la Figura 2, la trayectoria del corredor puede aproximarse mediante una polilínea 102, la cual consiste en una secuencia de segmentos de línea recta entre los vértices sucesivos 104. La polilínea se construye de tal modo que la distancia máxima en perpendicular de la trayectoria a la polilínea se encuentre dentro una tolerancia definida. Para un ancho de corredor deseado, los vértices 104 de polilínea se pueden descentrar perpendicularmente a la trayectoria para obtener los vértices de un polígono 106 que encierra el corredor. Ajustando la tolerancia y, por lo tanto, el número de vértices, la polilínea y el polígono pueden aproximarse a la trayectoria del corredor y al área del corredor con una precisión arbitraria. El ancho del corredor deseado se expande, por lo común, para acomodar la tolerancia de la polilínea, es decir, para garantizar que el polígono 106 encierra el área del corredor deseado.
En lugar de quedar definido explícitamente por medio de una trayectoria, un corredor también puede definirse directamente por medio de una o más formas (por ejemplo, polígonos).
El corredor puede cortarse con un área de interés 108 que no está completamente encerrada por el contorno del corredor, tal como una ciudad adyacente a una carretera. El área de reconocimiento del corredor puede entonces definirse por la unión del contorno del corredor y el contorno del área de interés, tal y como se muestra en la Figura 3.
A la hora de captar un área de reconocimiento extendida convencional 110, tal como se muestra en la Figura 4, el avión de reconocimiento sigue, por lo común, un patrón de vuelo en serpentina. El plan de vuelo consta de un cierto número de líneas de vuelo paralelas 112, separadas por un desplazamiento lateral. Cada línea de vuelo especifica una ubicación y altitud de inicio y fin. La aeronave viaja en línea recta desde el punto de inicio hasta el punto final. Al final de una línea de vuelo, el avión realiza un giro 114 de 180 grados para regresar a lo largo de una trayectoria paralela espaciada lateralmente, especificada por las ubicaciones de inicio y final de la siguiente línea de vuelo.
La ubicación y el número de líneas de vuelo se calculan a partir de una serie de parámetros, incluidos el contorno del reconocimiento, la altitud de vuelo, la elevación del terreno, el campo de visión del sistema de cámara y el solapamiento hacia delante y lateral deseados.
La planificación convencional del vuelo de reconocimiento aéreo está bien descrita en la bibliografía. Véase, por ejemplo, la Patente de los EE.UU. N.° 6.711.475 (Murphy).
Otro factor en el cálculo de la ubicación y el número de líneas de vuelo es una distancia de contingencia en el contorno del reconocimiento. La distancia de contingencia se añade al contorno del reconocimiento con el fin de ampliar el área de captación. Esto permite una captación de imágenes no uniforme debido a turbulencias o cambios en el cabeceo, guiñada o balanceo de la aeronave cerca del borde del reconocimiento, y asegura una cobertura completa dentro del área de reconocimiento.
La Figura 5 muestra un avión de reconocimiento 230 que porta un sistema de cámara aérea 350. El diagrama y la ecuación relacionan el ancho de franja (w) 258 del sistema de cámara aérea 350, es decir, donde su campo de visión se corta con el terreno 150, con su campo de visión angular (beta) 250 y su altitud sobre el nivel del terreno (a) 254.
Para la captación del corredor, la generación del plan de vuelo combina el método de cálculo de la línea de vuelo para la captación del reconocimiento convencional, con un procedimiento adicional que ajusta múltiples segmentos de trayectoria de reconocimiento al área de reconocimiento del corredor utilizando un procedimiento de minimización de costos.
En primer lugar, se utilizan cálculos convencionales de planificación de vuelo de reconocimiento para determinar el número mínimo de líneas de vuelo paralelas necesarias para captar el ancho del reconocimiento del corredor. Los cálculos de planificación de vuelo incluyen una distancia de contingencia que se añade al ancho del corredor para garantizar una cobertura completa de las imágenes. Para reconocimientos de gran altitud o trayectorias de corredor estrechas, puede ser posible captar el ancho completo del corredor con una sola línea de vuelo, es decir, si el ancho del corredor está contenido dentro del ancho 258 de franja del sistema de cámara. Para reconocimientos de baja altitud o corredores más anchos, pueden ser necesarias múltiples líneas de vuelo para captar todo el ancho del corredor.
El procedimiento de planificación de vuelo calcula un ancho de franja agregado para un conjunto de líneas de vuelo adyacentes, basándose en el ancho 258 de franja del sistema de cámara y en el solapamiento lateral requerido. La contingencia agregada al ancho de reconocimiento del corredor se resta del ancho de franja agregado, a fin de determinar el ancho de franja utilizable para la planificación de vuelo del corredor.
En segundo lugar, el área de reconocimiento del corredor se subdivide en múltiples segmentos lineales de trayectoria de reconocimiento. El ancho de cada segmento de trayectoria está determinado por el ancho de franja agregado. La longitud y la orientación de cada segmento de trayectoria están determinada por la dirección y la variación en la trayectoria del corredor. Para trayectorias de corredor con secciones rectas extendidas, por ejemplo, líneas ferroviarias, el reconocimiento puede ser susceptible de subdividirse en un pequeño número de segmentos de
trayectoria largos. Para trayectorias de reconocimiento de corredor serpenteantes, por ejemplo, para los ríos, el reconocimiento puede requerir de una subdivisión en un número mayor de segmentos cortos. Los segmentos de trayectoria pueden estar orientados en cualquier dirección y pueden cortarse en ángulos arbitrarios.
Es deseable minimizar el número de segmentos de trayectoria recorridos en vuelo por la aeronave, ya que la aeronave de reconocimiento puede necesitar realizar un viraje en redondo para desplazarse desde el final de un segmento de trayectoria hasta el comienzo del siguiente segmento de trayectoria.
Existen muchos métodos para subdividir el reconocimiento en segmentos de trayectoria. Un método simple, ilustrado en la Figura 6, comienza en uno de los extremos del corredor y crea un segmento de trayectoria 120 en la dirección de la trayectoria del corredor. Se pone fin al segmento de trayectoria cuando el contorno de reconocimiento deja de estar contenido dentro de la franja utilizable 122. En este momento, se inicia un nuevo segmento de trayectoria 120 en este punto, en la dirección de la trayectoria del corredor, y el procedimiento se repite hasta que se llega al final de la trayectoria.
Otro método, ilustrado en la Figura 7, utiliza minimización de costos para reducir el número de segmentos de trayectoria 120. Iniciando los segmentos de trayectoria 120 en un punto descentrado perpendicularmente con respecto a la trayectoria de corredor 100, y variando la orientación del segmento de trayectoria, es posible, por lo común, lograr un segmento de trayectoria más largo, en comparación con el método simple descrito anteriormente. Este procedimiento de minimización encuentra la posición y la orientación de inicio de trayectoria óptimas para cada segmento de trayectoria.
Otro método utiliza minimización de costos para maximizar la longitud de los segmentos de trayectoria 120. Este método halla el segmento de trayectoria más largo posible para la trayectoria del corredor. El método halla, a continuación, el siguiente segmento de trayectoria más largo. El procedimiento continúa hasta que todo el corredor queda contenido dentro de los segmentos de la trayectoria.
Otro método deduce los segmentos de trayectoria 120 directamente de los segmentos de línea recta de la polilínea 102 del corredor.
Para garantizar una cobertura completa del área de reconocimiento 106 del corredor, es necesario ajustar el punto inicial y el punto final de cada segmento de trayectoria debido a la intersección de los segmentos de trayectoria en ángulos arbitrarios y a la contingencia aplicada a los contornos de reconocimiento. La longitud de cada segmento de trayectoria se incrementa en un valor de contingencia para aumentar el solapamiento entre segmentos de trayectoria adyacentes y para garantizar que las áreas cercanas a los bordes de reconocimiento del corredor sean captadas completamente por las imágenes en las intersecciones de los segmentos de trayectoria.
El número de líneas de vuelo por segmento de trayectoria no está limitado al número mínimo de líneas de vuelo calculado por los cálculos de planificación de vuelo. El hecho de aumentar el número de líneas de vuelo aumenta el ancho de franja utilizable, lo que generalmente disminuye el número de segmentos de trayectoria necesarios para captar las imágenes de reconocimiento.
El aumento del número de líneas de vuelo también es beneficioso cuando la segmentación de la trayectoria crea un elevado número de segmentos de trayectoria cortos, por ejemplo, al captar un río serpenteante.
El aumento del número de líneas de vuelo es también beneficioso cuando el ancho de la trayectoria de reconocimiento del corredor no es constante, lo que permite captar segmentos del corredor delgados con menos líneas de vuelo y captar segmentos del corredor más anchos con un mayor número de líneas de vuelo.
El aumento del número de líneas de vuelo también es beneficioso a la hora de captar una trayectoria de inspección del corredor que se combina con un área de intersección de interés 108, por ejemplo, una ciudad adyacente a una carretera, tal como se ilustra en la Figura 8, en la que se usa un segmento de trayectoria 124 más ancho para captar el área de intersección de interés 108.
Se genera un plan de vuelo para trazar una trayectoria para que la aeronave navegue de manera tal, que se capten todas las líneas de vuelo de todos los segmentos de trayectoria.
La Figura 9 muestra dos conjuntos paralelos de segmentos de línea de vuelo 128 que se utilizan para cubrir el área 106 del corredor. Aquí, los segmentos de trayectoria 120 (no mostrados) se deducen directamente de los segmentos de línea recta de la polilínea 102 de trayectoria del corredor.
En primer lugar, el procedimiento de creación del plan de vuelo crea una lista ordenada de segmentos de línea de vuelo 128. Cuando los segmentos de trayectoria 120 contienen múltiples líneas de vuelo, los segmentos de línea de vuelo 128 situados dentro de cada segmento de trayectoria 120 pueden ser recorridos secuencialmente para completar cada segmento 120. Alternativamente, la longitud del corredor puede ser sobrevolada varias veces en el caso de que el plan de vuelo especifique un segmento de línea de vuelo 128 por cada segmento de trayectoria 120 en una dirección a lo largo del corredor, seguido de una trayectoria de retorno que recorre en vuelo un segundo segmento de línea de vuelo 128 de cada segmento de trayectoria 120, y así sucesivamente hasta que se capte todo el ancho del corredor.
En segundo lugar, se crea la trayectoria entre segmentos de línea de vuelo 128 consecutivos. Esta especifica la trayectoria que debe seguir el piloto para viajar desde el final de un segmento de línea de vuelo 128 hasta el comienzo del siguiente segmento de línea de vuelo 128. También se le puede permitir al piloto navegar libremente entre segmentos de línea de vuelo sucesivos 128. Como los segmentos de línea de vuelo 128 consecutivos pueden cortarse en un ángulo arbitrario, el giro requerido puede lograrse con un pequeño cambio de rumbo, o puede lograrse con un viraje en redondo 126 en el que el avión realiza un giro cualquiera de hasta 360 grados para alinearse con el siguiente segmento de línea de vuelo 128. Los segmentos de línea de vuelo 128 consecutivos pueden cortarse entre sí o estar separados por una cierta distancia.
El ancho 258 de franja de un sistema de cámara aérea 350 aumenta al aumentar el ángulo 250 del campo de visión y al aumentar la altitud 254. La Figura 10 muestra dos conjuntos paralelos más pequeños de segmentos de línea de vuelo 128 que se utilizan para cubrir el área 106 del corredor, suponiendo un funcionamiento a mayor altitud y/o una toma de imágenes de ángulo más amplio que en la Figura 9, es decir, con un ancho de franja agregada más grande 136.
Para crear un ortomosaico aéreo completo para un área de reconocimiento, cada punto situado dentro del contorno del reconocimiento ha de ser captado por el sistema de cámara. Esto generalmente se logra mediante el uso de solapamiento, que permite la variación en la guiñada, el cabeceo y el balanceo de la aeronave entre imágenes captadas adyacentes.
El solapamiento también se utiliza para mejorar la alineación del ortomosaico con los ortomosaicos existentes o con las características del terreno de reconocimiento. La alineación se mejora obteniendo imágenes de un mismo punto del terreno desde múltiples ángulos, lo que permite calcular la posición y la orientación del sistema de la cámara con mayor precisión.
En general, el hecho de aumentar el solapamiento en una dirección particular mejora la alineación del ortomosaico en esa misma dirección. El aumento del solapamiento hacia delante mejora la alineación según la dirección de la trayectoria de vuelo. El aumento del solapamiento lateral mejora la alineación según la dirección perpendicular a la trayectoria de vuelo.
En el caso de un corredor captado con una única línea de vuelo por cada segmento de trayectoria, tan solo existe solapamiento en la dirección de avance. La ausencia de solapamiento lateral puede causar una desalineación del ortomosaico con las características del terreno. Los vectores de error de desalineación generalmente se encuentran en una dirección perpendicular a la trayectoria del corredor, en este caso.
En general, se debe captar un mínimo de dos o más segmentos de línea de vuelo paralelos 128 por cada segmento de trayectoria de reconocimiento 120 para permitir la generación de ortomosaicos con una alineación precisa con las características del terreno.
Para las trayectorias de reconocimiento de corredor con un ancho pequeño, la captación de dos segmentos de línea de vuelo paralelos 128 por cada segmento de trayectoria 120 puede resultar en la captación de un área significativa fuera del contorno de reconocimiento del corredor.
El siguiente método optimiza el procedimiento de captación de imágenes de una trayectoria de reconocimiento de corredor estrecho con una alineación precisa. El método utiliza dos líneas de vuelo con diferentes características de planificación, denominadas líneas de vuelo primarias y secundarias.
Las líneas de vuelo primarias se captan con el propósito de generar ortomosaicos y requieren una cobertura completa de la trayectoria de reconocimiento del corredor.
Las líneas de vuelo secundarias son captadas con el fin de solaparse lateralmente con las líneas de vuelo primarias, y son recorridas paralelas y descentradas lateralmente con respecto a las líneas de vuelo primarias. No se requiere solapamiento lateral continuo para lograr la alineación de ortomosaico. La alineación se logra si cada línea de vuelo secundaria se solapa con una mayor parte de la longitud de su línea de vuelo primaria paralela.
Se genera un plan de vuelo para las líneas de vuelo primarias y secundarias planificando, en primer lugar, la trayectoria de reconocimiento del corredor con una única configuración de línea de vuelo. La línea de vuelo primaria única generalmente seguirá la trayectoria de corredor 100 (o la polilínea 102 de la trayectoria del corredor). En segundo lugar, se agregan al plan de vuelo los segmentos de línea de vuelo secundarios paralelos a los segmentos de línea de vuelo primarios y descentrados lateralmente con respecto a estos.
Como las líneas de vuelo secundarias no requieren una cobertura completa, el plan de vuelo puede permitir el “vuelo libre” a lo largo de la longitud del corredor, sobre los segmentos de línea de vuelo secundarios, en los que el avión gira directamente de un segmento de línea de vuelo al siguiente. Esto permite captar las líneas de vuelo secundarias sin los virajes en redondo 126 que serían necesarios para captar la longitud completa de cada segmento de línea de vuelo secundaria. La línea de vuelo secundaria también se puede recorrer a lo largo de una trayectoria de vuelo curva con giros inclinados, tal y como se expone adicionalmente más adelante.
La Figura 11 muestra una línea de vuelo primaria, que comprende una secuencia de segmentos 130 de línea de vuelo primaria, utilizados para cubrir el área 106 del corredor, y una línea de vuelo secundaria, que comprende una secuencia de segmentos 132 de línea de vuelo secundaria, que se utilizan para proporcionar solapamiento con fines de precisión. Los segmentos 130 de la línea de vuelo primaria se unen, por lo común, por medio de giros en redondo 126. Los segmentos 132 de la línea de vuelo secundaria se unen, por lo común, mediante giros 134 que pueden ser recorridos libremente.
Cuando se utiliza un sistema de cámara aérea de doble resolución 352, como se analiza con más detalle a continuación, el sistema de cámara puede estar configurado para captar solo imágenes de visión general o de conjunto a lo largo de la línea de vuelo secundaria, ya que las imágenes de visión general proporcionan un solapamiento máximo entre las líneas de vuelo.
La línea de vuelo secundaria puede captarse un tiempo significativo después de haber captado la línea de vuelo primaria, por ejemplo, días o semanas después, si ello es conveniente. Esto permite la captación de corredores largos mientras se traslada el avión entre ubicaciones.
Cuando se utiliza un sistema de cámara aérea de doble resolución 352, la línea de vuelo secundaria se puede captar tanto con cámaras de visión general como con cámaras de detalle, lo que permite generar ortomosaicos dentro del campo de visión de la línea de vuelo secundaria. Esto crea un ortomosaico más ancho en las áreas de solapamiento de la línea de vuelo secundaria, pero un ortomosaico más estrecho en las intersecciones de los segmentos de la trayectoria del corredor.
Un método adicional para captar corredores está disponible para aeronaves que contienen un sistema de cámara con un amplio campo de visión lateral, por ejemplo, logrado a través de múltiples cámaras que captan imágenes verticales, imágenes oblicuas hacia la izquierda y/o imágenes oblicuas hacia la derecha. Se describen sistemas de cámara aérea que captan imágenes tanto verticales como oblicuas en las Patentes de los EE.UU. N.os 8.497.905 y 8.675.068 (Nixon).
El plan de vuelo traza una trayectoria de vuelo a lo largo de las líneas de vuelo usando giros entre segmentos de línea de vuelo consecutivos 128, sin tener que utilizar virajes en redondo 126 para girar de una línea de vuelo a la siguiente. La aeronave sigue la trayectoria de vuelo directamente de un segmento al siguiente, inclinando la aeronave para realizar los giros. Los segmentos de la línea de vuelo se planifican de tal modo que el ángulo de inclinación sea menor que el límite del campo de visión de las cámaras oblicuas.
El procedimiento de generación de ortomosaico utiliza las imágenes más cercanas al punto más bajo, o nadir. Cuando se vuela horizontalmente, la cámara de apuntamiento vertical está en el nadir, tal como se muestra en la Figura 12. Cuando el avión está en posición inclinada, la imagen oblicua hacia la izquierda o hacia la derecha es la más cercana al nadir y es la que se utiliza para la generación de ortomosaico, tal como se muestra en la Figura 13.
Un Modelo de Alzado Digital (DEM - “Digital Elevation Model”- ) es un subproducto común del procedimiento de generación de ortomosaicos. Se puede crear un DEM calculando la elevación de cada punto dentro del área de reconocimiento. La elevación en un punto se puede calcular localizando el punto en múltiples imágenes que contienen el punto. Si el punto está presente en tres o más imágenes, su elevación puede triangularse utilizando la orientación interior y exterior de las cámaras.
Las elevaciones de puntos se pueden calcular con mayor precisión cuando cada punto es captado en un gran número de imágenes tomadas desde diferentes ángulos. Esto se logra mediante el uso de solapamiento frontal y lateral.
En el caso de la captación de corredores con líneas de vuelo primarias y secundarias, es posible que solo una parte del área de reconocimiento contenga imágenes captadas con solapamiento lateral.
Un método para aumentar el área de las imágenes que contiene superposición lateral consiste en captar imágenes oblicuas desde las líneas de vuelo secundarias. Las imágenes oblicuas son captadas por un sistema de imágenes dirigido al centro de las imágenes de la línea de vuelo primaria, tal como se muestra en la Figura 14.
Además, las imágenes captadas desde la línea de vuelo secundaria pueden usarse para generar un ortomosaico oblicuo del área de reconocimiento de corredor.
Un método adicional para captar un corredor utiliza una trayectoria de vuelo curva 154 basada en la trayectoria de corredor 100, tal como se muestra en la Figura 15.
La trayectoria de vuelo curva puede estar descentrada hacia el centro de curvatura de la trayectoria de corredor 100 en cualquier punto dado, a fin de tener en cuenta el descentramiento (d) 158 inducido por la inclinación del avión. Como se muestra en el diagrama y en las ecuaciones de la Figura 16, el desplazamiento (d) 158 está relacionado con la altitud (a) sobre el nivel del suelo 254, con el ángulo de inclinación (theta) 156, con la velocidad (v) de la aeronave, con el radio de inclinación (r) y con la gravedad (g). Inicialmente, suponiendo que el radio de inclinación (r) es el radio de la trayectoria de corredor 100 (en cualquier punto dado), el radio de inclinación final (r) y el ángulo de inclinación (theta) 156 pueden alcanzarse iterativamente.
incluso cuando se recorre una trayectoria de vuelo curva 154, si el corredor contiene un giro brusco, el piloto puede llevar a cabo un viraje en redondo 126, como de costumbre.
Se puede utilizar cualquier sistema de cámara aérea 350 adecuado para la captación del corredor.
La redundancia suficiente para un ajuste de lote preciso dicta, por lo común, la elección de un solapamiento longitudinal (hacia delante) de al menos el 60%, es decir, entre fotos sucesivas a lo largo de una línea de vuelo, y un solapamiento lateral (hacia los lados) de al menos el 40%, es decir, entre fotos tomadas en líneas de vuelo adyacentes. Esto a menudo se conoce como solapamiento 60/40.
El solapamiento elegido determina tanto el tiempo de vuelo requerido como el número de fotos captadas (y subsiguientemente tratadas). Por lo tanto, un solapamiento elevado es costoso, tanto en términos de tiempo de vuelo como de tiempo de tratamiento, y las opciones prácticas de solapamiento representan un compromiso entre el costo y la precisión del ortomosaico.
El uso de sistemas de cámara de doble resolución o de múltiple resolución 352 proporciona una forma poderosa de reducir el solapamiento sin comprometer la precisión. La captación y el tratamiento de fotos aéreas de resolución múltiple se describen en las Patentes de los EE.UU. Nos. 8.497.905 y 8.675.068, de Nixon. Los conjuntos de fotos de resolución múltiple permiten que la precisión de ortomosaico se derive del solapamiento entre las fotos de visión general, de baja resolución, mientras que el detalle de ortomosaico se deriva de las fotos de detalle, de mayor resolución.
Las Patentes de los EE.UU. Nos.8.497.905 y 8.675.068 (Nixon), describen una familia de módulos de cámara externos que se pueden asegurar a una pequeña aeronave, los cuales comprenden sistemas de imágenes aéreas verticales y oblicuas de resolución múltiple. Las Solicitudes de Patente de los EE.UU. Nos. 14/310.523 (Tarlinton) y 14/478.380 (Lapstun) describen la familia HyperCamera™ de sistemas de cámara aérea de resolución múltiple adecuados para el despliegue en aeronaves que tienen un orificio para cámara estándar.
La Figura 17 muestra un sistema de cámara aérea HyperCamera V5-300 de doble resolución 352 que comprende una cámara de visión general de gran angular y cinco cámaras de detalle de ángulo estrecho, desplegables en el habitáculo del piloto o en la cabina de carga de la mayoría de los aviones de reconocimiento que tienen un orificio para cámara estándar 212 (por ejemplo, de un diámetro de 50,80 cm -20 pulgadas-).
La Figura 18 muestra la proyección de los campos de visión tridimensionales 160 y 170 de las cámaras de detalle y de la cámara de visión general de la unidad HyperCamera, sobre un plano del terreno. Muestra cómo los campos de visión de detalle 160 se solapan en una dirección perpendicular a la dirección del vuelo 220.
La Figura 19 muestra un alzado frontal del avión de reconocimiento Cessna 208230, que porta un sistema de cámara aérea de doble resolución, y muestra el campo de visión general lateral 172 del sistema de cámara 352, y el campo de visión de detalle, lateral y agregado 182 del sistema de cámara 352. El campo de visión de detalle, lateral y agregado 182 es el agregado de los cinco campos de visión de detalle laterales individuales 162, solapados.
La Figura 20 muestra un alzado lateral de la aeronave de reconocimiento Cessna 208 230, que transporta una HyperCamera, y muestra el campo de visión general longitudinal 174 del sistema de cámara 352, y el campo de visión longitudinal detallado 164 del sistema de cámara 352.
La Figura 17 muestra los campos de visión general 170 solapados, y los campos de visión de detalle 180 agregados de tres tomas sucesivas según la dirección del vuelo 220. El campo de visión de detalle agregado 180 es el agregado de los cinco campos de visión individuales 160, solapados. A la velocidad de disparo de la cámara que se ilustra en la figura (es decir, según lo implica el solapamiento longitudinal), los campos de visión de detalle 180 agregados se solapan en aproximadamente un 20% longitudinalmente, mientras que los campos de visión general 170 se solapan en aproximadamente un 85% longitudinalmente.
La Figura 18 muestra los campos de visión general 170 solapados y los campos de visión de detalle 180 agregados de dos tomas desde líneas de vuelo adyacentes, es decir, recorridas en direcciones opuestas 220. Para la separación de líneas de vuelo que se ilustra en la figura, los campos de visión de detalle 180 agregados se solapan entre un 20% y un 25% lateralmente, mientras que los campos de visión general 170 se solapan en aproximadamente un 40% lateralmente.
Como ya se señaló, los reconocimientos aéreos convencionales de resolución única generalmente se hacen funcionar con un solapamiento de 60/40, es decir, con un 60% de solapamiento hacia delante (o longitudinal) y un 40% de solapamiento hacia los lados (o lateral). Con la HyperCamera de resolución múltiple que se hace funcionar como se muestra en las Figuras 21 y 22, las fotos de visión general, o de conjunto, se captan con un solapamiento mejor que 85/40, y las fotos de detalle se captan, por lo común, con un solapamiento de tan solo 20/20 o menor.
La Figura 23 muestra un diagrama de bloques de un sistema de potencia y control para un sistema de cámara aérea 350, tal como un sistema HyperCamera de doble resolución 352. La(s) cámara(s) 340 es (son) controlada(s) por un
ordenador 300, a través de un conjunto de convertidores de analógico a digital (ADC - “analog-to-digital converters”-) 308.
El ordenador 300 usa uno o más receptores 304 del Sistema Global de Navegación por Satélite (GNSS) para supervisar la posición y la velocidad del avión de reconocimiento 230 en tiempo real. Los receptores de GNSS pueden ser compatibles con una variedad de sistemas de navegación por satélite con base en el espacio, incluido el Sistema de Localización Global (GPS), GLONASS, Galileo y BeiDou.
El ordenador 300 proporciona señales de disparo reguladas temporalmente de forma precisa a la(s) cámara(s) 340 a través del/de los ADC 308, a fin de activar la exposición de la cámara, según un plan de vuelo almacenado y la posición y velocidad en tiempo real de la aeronave. En caso de que una(s) cámara(s) 340 incorpore(n) un mecanismo de enfoque automático, entonces el ordenador 300 también proporciona una señal de enfoque a cada una de dichas cámaras para activar el enfoque automático antes de la exposición.
El ordenador 300 puede disparar la(s) cámara(s) 340 a una misma velocidad. Alternativamente, el ordenador 300 puede disparar la(s) cámara(s) de visión general de un sistema de doble resolución a una velocidad diferente de la de las cámaras de detalle, es decir, una velocidad más alta o más baja, para lograr un solapamiento diferente entre las fotos de visión general sucesivas, es decir, un solapamiento más alto o un solapamiento más bajo, independientemente del solapamiento entre fotos detalladas sucesivas. El ordenador 300 puede disparar las cámaras simultáneamente, o bien puede escalonar los momentos de los disparos, por ejemplo, para lograr una alineación diferente de las fotos longitudinalmente, o para reducir el consumo de pico de energía.
El plan de vuelo describe cada línea de vuelo que conforma el reconocimiento, así como la velocidad de disparo nominal de la cámara a lo largo de cada línea de vuelo, requerida para garantizar que se mantenga el solapamiento necesario entre disparos sucesivos. La velocidad de disparo es sensible a la elevación del terreno por debajo de la aeronave; es decir, cuanto más alto sea el terreno, mayor tiene que ser la velocidad de disparo. Esta es ajustada por el ordenador 300 de acuerdo con la velocidad de avance real de la aeronave con respecto al suelo, la cual puede variar con respecto a su velocidad nominal debido al viento y al gobierno de la aeronave por parte del piloto.
El ordenador 300 también se sirve del plan de vuelo y de la posición de GNSS en tiempo real para guiar al piloto a lo largo de cada línea de vuelo a través de un dispositivo de presentación visual 302 para el piloto.
Como se muestra en la Figura 23, los datos de posición del receptor GNSS se aumentan opcionalmente con información de orientación de una unidad de medición inercial (IMU - “inertial measurement unit”- ) 306. Esto permite que el ordenador 300 proporcione al piloto información de vuelta mejorada sobre cuán estrechamente está siguiendo este el plan de vuelo. En ausencia de la IMU 306, el receptor de GNSS se conecta directamente al ordenador 300.
El ordenador almacena la posición de GNSS (y, opcionalmente, la orientación de la IMU, en caso de estar presente la IMU 306) de cada disparo. Esta se utiliza durante el tratamiento subsiguiente de las fotos para producir un ortomosaico preciso.
Una o más unidades opcionales de compensación de movimiento angular (AMC - “angular motion compensation”-) 330, que son sensibles a la orientación notificada por la IMU 306, corrigen la orientación de las cámaras para que mantengan una dirección de apuntamiento constante a lo largo del tiempo, a pesar de que la aeronave se balancee, cabecee o realice movimientos de guiñada durante el vuelo. Esto garantiza que las fotos captadas se puedan usar para crear un fotomosaico sin espacios huecos, al tiempo que hace posible minimizar el solapamiento entre tomas sucesivas y entre líneas de vuelo adyacentes.
La AMC 330 puede consistir en una plataforma con dos o tres ejes de rotación (es decir, balanceo y cabeceo; o balanceo, cabeceo y guiñada), sobre la cual está(n) montada(s) la(s) cámara(s) 340. Las plataformas de AMC disponibles comercialmente incluyen la serie PAV de Leica Geosystems.
Alternativamente, la AMC 330 puede comprender uno o más mecanismos de direccionamiento de haz en el camino óptico de cada cámara (o grupo de cámaras), por lo que la dirección de apuntamiento de las cámaras se corrige mediante el direccionamiento de haz.
La compensación de movimiento angular se vuelve cada vez más importante a medida que se aumenta la altitud de vuelo y/o se reduce la distancia de toma de muestras sobre el terreno (GSD - “ground sampling distance”-).
La borrosidad de movimiento debido al movimiento hacia delante de la aeronave es igual a la velocidad de la aeronave multiplicada por el tiempo de exposición de la cámara. Una vez que la borrosidad de movimiento se ha convertido en una fracción significativa de la GSD (o la supera), resulta útil proporcionar un mecanismo de compensación de movimiento hacia delante (FMC - “forward motion compensation”- ) para reducir o eliminar la borrosidad de movimiento. La FMC se puede proporcionar de diversas maneras, incluida la traslación o la rotación del eje óptico de la cámara (moviendo el sensor de imagen, o un espejo intermedio, o bien la propia cámara), o mediante la integración retardada en el tiempo (TDI - “time delayed integration”- ) de líneas adyacentes de píxeles en el sensor de imagen. La FMC se puede proporcionar a través de una unidad de AMC.
Cada cámara 340 puede almacenar sus disparos localmente, por ejemplo, en memoria flash, o de refrescamiento por impulsos, extraíble. Esto elimina la necesidad de almacenamiento centralizado en el sistema de cámara, así como la necesidad de un canal de comunicación de datos de gran ancho de banda entre las cámaras y el dispositivo de almacenamiento centralizado. Alternativamente, el sistema de cámara puede incorporar un dispositivo de almacenamiento centralizado (no mostrado).
La posición de GNSS de cada toma puede suministrarse a cada cámara 340, a fin de permitir que la cámara etiquete cada foto con su posición de GNSS.
Las cámaras 340 son alimentadas energéticamente con una unidad de batería 320. La unidad de batería 320 proporciona un voltaje más alto que el voltaje requerido por todos los componentes conectados, por ejemplo, entre 24 V y 28 V, y las necesidades de voltaje de cada componente conectado se proporcionan a través de un convertidor de CC-CC 326. Por ejemplo, una cámara Nikon D800 requiere menos de 10 V. Convertidores de CC-CC adicionales 326 también proporcionan voltajes apropiados para alimentar el ordenador 300, el dispositivo de presentación visual 302 del piloto, el receptor de Gn s S 304, la IMU 306 y la(s) AMC 330. En aras de la claridad, estas conexiones de alimentación energética se han omitido en la Figura 23.
La unidad de batería 320 contiene dos baterías de 12 V o 14 V, o una sola batería de 24 V o 28 V. Contiene un circuito de carga que le permite cargarse lentamente desde un avión con una fuente de alimentación energética auxiliar adecuada 322, lo que le permite permanecer cargada en todo momento. También se puede cargar en el suelo desde una unidad de alimentación de tierra 324 (GPU - “ground power unit”-).
Los ADC 308 y los convertidores de CC-CC 326 pueden alojarse en una unidad de control de cámara (CCU - “camera control unit”- ) 310. Esta también puede incluir una interfaz de USB para permitir que el ordenador 300 controle los ADC.
Los convertidores CC-CC 326 que proporcionan energía a las cámaras 340 pueden estar ubicados en la CCU 310 o más cerca de las cámaras en las cajas de distribución 150.
Las fotos captadas por el sistema de cámara 350 están destinadas a coserse sin discontinuidades hasta formar un ortomosaico, y la Figura 24 muestra un flujo de procedimiento para crear eficientemente un ortomosaico a partir de fotos de detalle 400 captadas por una o más cámaras de detalle 340.
Si el sistema de cámara 350 es un sistema de cámara de doble resolución (o resolución múltiple) 352, entonces el flujo del procedimiento, tal como se muestra en la Figura 25, también se sirve de fotos de visión general 402 de una o más cámaras de visión general 340.
El procedimiento consta de cuatro etapas principales: (1) se detectan automáticamente características en cada una de las fotos 400 (y opcionalmente 402) y estas se hacen coincidir entre fotos (etapa 410); se utiliza el ajuste de lote para refinar iterativamente las estimaciones iniciales de la posición tridimensional en el mundo real de cada característica, así como la pose de la cámara (posición y orientación tridimensionales) y la calibración de la cámara (longitud focal y distorsión radial, etc.) asociadas con cada foto (en la etapa 412); cada foto de detalle 400 se rectifica ortogonalmente de acuerdo con su pose de cámara y los datos de elevación del terreno (en la etapa 414); y las fotos rectificadas ortogonalmente (ortofotos) se mezclan para formar el ortomosaico final 404 (en la etapa 416).
En un sistema de resolución única, la precisión del ortomosaico 404 se deriva del alto solapamiento convencional entre las fotos detalladas 400, y el detalle en el ortomosaico 404 también se deriva de las fotos de detalle 400.
En un sistema de doble resolución, la precisión del ortomosaico 404 se deriva del elevado solapamiento entre las fotos de visión general 402, de resolución más baja, mientras que el detalle en el ortomosaico 404 se deriva de las fotos de detalle 400, de resolución más alta.
El ortomosaico se almacena, por lo común, como una pirámide de imagen, es decir, dentro de la cual se computan previamente diferentes niveles de zum (binarios) para un acceso rápido a cualquier nivel de zoom. Los niveles de zum más bajos en la pirámide se generan a partir de niveles de zum más altos mediante un filtrado de paso bajo y un submuestreo; por lo tanto, toda la pirámide se puede generar a partir del ortomosaico de resolución en grado de detalle. Como alternativa, se pueden generar niveles de zoom más bajos a partir de un ortomosaico creado a partir de las fotos de vista general 402, en cuyo caso las fotos de vista general 402 también son rectificadas ortogonalmente y mezcladas, tal como se ha descrito anteriormente para las fotos de detalle 400.
Una estimación inicial de la pose de cámara de cada foto, subsiguientemente refinada por el proceso de ajuste de lote (en la etapa 412), se deduce de la posición de GNSS de cada foto, así como de su orientación obtenida de la IMU, si está disponible.
Los datos del terreno utilizados para rectificar ortogonalmente (en la etapa 414) las fotos de detalle 400 pueden basarse en posiciones de características 3D obtenidas del ajuste de lote (en la etapa 412), o bien pueden ser datos del terreno obtenidos de algún otro lugar (tal como un reconocimiento aéreo por LiDAR).
Las características del terreno detectadas automáticamente pueden aumentarse con puntos del terreno identificados manualmente, cada uno de los cuales puede tener una posición en el mundo real obtenida mediante reconocimiento preciso (de manera que se hace referencia a este, entonces, como punto de control sobre el terreno).
La presente invención se ha descrito con referencia a una serie de realizaciones preferidas. Un experto en la materia apreciará que existen diversas formas de realización alternativas de la presente invención, y que el alcance de la invención solo está limitado por las reivindicaciones adjuntas.
A todo lo largo de esta memoria y de las reivindicaciones que la siguen, a menos que el contexto lo requiera de otro modo, se entenderá que la palabra "comprender" y sus variantes tales como "comprende" o "que comprende" implican la inclusión de una entidad o etapa, o un grupo de entidades o etapas establecidas, pero no la exclusión de ninguna otra entidad o etapa, o grupo de entidades o de etapas.
La referencia en esta memoria a cualquier publicación previa (o la información deducida de ella), o a cualquier materia que se conozca, no es y no debe tomarse como un reconocimiento o admisión, o cualquier forma de sugerencia de que esa publicación previa (o la información que se deduzca de ella) o materia conocida forme parte del conocimiento general común en el campo de esfuerzo al que se refiere esta memoria.
Claims (10)
1. Un método para crear un ortomosaico de un área de corredor (106) que consiste en una faja de tierra o de agua a lo largo de una trayectoria arbitraria (100), área de corredor que tiene una longitud mayor que su ancho, no siendo el ancho necesariamente constante a lo largo de la trayectoria arbitraria (100), pudiéndose describir la trayectoria arbitraria parcialmente por una polilínea (102) de trayectoria de corredor, no siendo la polilínea (102) de trayectoria de corredor recta, comprendiendo el método:
(a) hacer volar una aeronave a lo largo de una línea de vuelo primaria, comprendiendo la línea de vuelo primaria una secuencia de segmentos rectos (130) de línea de vuelo primaria, en donde la aeronave se hace volar nivelada a lo largo de cada segmento de línea de vuelo primaria (130), no estando alineado cada segmento de línea de vuelo primaria (130) con su predecesor inmediato (130) (si lo hay) y no siendo paralelo a su predecesor inmediato (130), aproximándose cada segmento de línea de vuelo primario (130) a parte de la polilínea (102) de la trayectoria del corredor;
(b) captar, durante el vuelo a lo largo de cada segmento de línea de vuelo primaria (130) y mediante un sistema de cámara aérea (350) transportado por la aeronave, una secuencia de imágenes primarias, solapándose cada imagen primaria al menos parcialmente con su predecesora en la secuencia;
(c) hacer volar la aeronave a lo largo de una línea de vuelo secundaria, comprendiendo la línea de vuelo secundaria una secuencia de segmentos de línea de vuelo secundaria (132), extendiéndose cada segmento de línea de vuelo secundaria (132) paralelo a, y lateralmente descentrado con respecto a, un segmento respectivo de línea de vuelo primaria (130);
(d) captar, durante el vuelo a lo largo de cada segmento de línea de vuelo secundaria (132) y a través del sistema de cámara aérea (350) transportado por el avión, una secuencia de imágenes secundarias, solapándose al menos algunas de las imágenes secundarias con al menos algunas de las imágenes primarias;
(e) identificar (410), en una pluralidad de las imágenes primarias e imágenes secundarias, características comunes correspondientes a puntos sobre el terreno comunes;
(f) estimar (412), a través de ajuste de lote y a partir de los puntos de terreno comunes, una orientación exterior asociada con cada imagen primaria y una posición tridimensional asociada con cada punto sobre el terreno;
(g) rectificar ortogonalmente (414), utilizando al menos algunas de las orientaciones exteriores y al menos algunas de las posiciones tridimensionales de puntos sobre el terreno, al menos algunas de las imágenes primarias; y
(h) fusionar (416) las imágenes primarias rectificadas ortogonalmente para crear el ortomosaico (404).
2. El método de acuerdo con la reivindicación 1, en donde la aeronave se hace volar a lo largo de un giro en redondo (126) entre cada segmento de línea de vuelo primaria (130) y su sucesivo, teniendo el giro un ángulo mayor de 180 grados.
3. El método de acuerdo con la reivindicación 1, en donde la aeronave se hace volar a lo largo de un giro entre cada segmento de línea de vuelo secundaria (132) y su sucesivo, teniendo el giro un ángulo inferior a 90 grados.
4. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 3, en donde el sistema de cámara aérea (350) comprende al menos una cámara vertical para captar imágenes sustancialmente verticales.
5. El método de acuerdo con la reivindicación 4, en donde el sistema de cámara aérea (350) comprende al menos una cámara oblicua para captar imágenes sustancialmente oblicuas.
6. El método de acuerdo con la reivindicación 5, en donde las imágenes primarias y las imágenes secundarias comprenden tanto imágenes verticales como imágenes oblicuas.
7. El método de acuerdo con la reivindicación 5, en donde las imágenes primarias comprenden imágenes verticales y las imágenes secundarias comprenden imágenes oblicuas.
8. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 7, en donde el sistema de cámara aérea (350) comprende al menos una cámara de visión general para captar imágenes de visión general, y una pluralidad de cámaras de detalle para captar imágenes de detalle, teniendo cada imagen de detalle una resolución más alta que la de la al menos una imagen de visión general, solapándose al menos algunas de las imágenes de detalle con algunas de las imágenes de visión general, y comprendiendo las imágenes primarias tanto imágenes de visión general como imágenes de detalle.
9. El método de acuerdo con la reivindicación 8, en donde las imágenes secundarias comprenden tanto imágenes de visión general como imágenes de detalle.
10. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 9, en donde la línea de vuelo secundaria es curva, al menos en partes, e incluye giros inclinados.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/618,551 US9824290B2 (en) | 2015-02-10 | 2015-02-10 | Corridor capture |
PCT/AU2016/050018 WO2016127205A1 (en) | 2015-02-10 | 2016-01-18 | Corridor capture |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2804898T3 true ES2804898T3 (es) | 2021-02-09 |
Family
ID=56565687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16748475T Active ES2804898T3 (es) | 2015-02-10 | 2016-01-18 | Captación de corredor |
Country Status (8)
Country | Link |
---|---|
US (1) | US9824290B2 (es) |
EP (1) | EP3256990B1 (es) |
JP (1) | JP6698670B2 (es) |
CN (1) | CN107251055B (es) |
AU (1) | AU2016218934B2 (es) |
CA (1) | CA2975758C (es) |
ES (1) | ES2804898T3 (es) |
WO (1) | WO2016127205A1 (es) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9641736B2 (en) * | 2014-06-20 | 2017-05-02 | nearmap australia pty ltd. | Wide-area aerial camera systems |
US10378895B2 (en) | 2014-08-29 | 2019-08-13 | Spookfish Innovagtions PTY LTD | Aerial survey image capture system |
US9959625B2 (en) * | 2015-12-29 | 2018-05-01 | The United States Of America As Represented By The Secretary Of The Air Force | Method for fast camera pose refinement for wide area motion imagery |
WO2017117246A1 (en) * | 2016-01-01 | 2017-07-06 | Russell David Wayne | System and method for safe utilization of unmanned automated vehicles in entertainment venues |
GB2561329A (en) * | 2016-12-05 | 2018-10-17 | Gaist Solutions Ltd | Method and system for creating images |
CN107564111A (zh) * | 2017-05-31 | 2018-01-09 | 武汉圆桌智慧科技有限公司 | 基于计算机视觉的电力线空间安全分析方法 |
CN109472806B (zh) * | 2017-09-07 | 2020-11-17 | 广州极飞科技有限公司 | 无人飞行器的航区规划方法、装置和遥控器 |
KR102280096B1 (ko) | 2017-10-17 | 2021-07-21 | 주식회사 엘지에너지솔루션 | 누설 냉매 유입 방지 기능을 갖는 배터리 팩 |
US11048275B1 (en) * | 2017-10-27 | 2021-06-29 | Rockwell Collins, Inc. | Enhanced guidance laws for precision operations |
WO2019100219A1 (zh) * | 2017-11-21 | 2019-05-31 | 深圳市大疆创新科技有限公司 | 输出影像生成方法、设备及无人机 |
US11132830B2 (en) * | 2018-03-29 | 2021-09-28 | Biosense Webster (Israel) Ltd. | Static virtual camera positioning |
EP3620852B1 (fr) | 2018-09-04 | 2023-12-13 | Sensefly S.A. | Procédé de capture d'images aériennes d'une zone géographique, procédé de cartographie tridimensionnelle d'une zone géographique et aéronef pour la réalisation de tels procédés |
JP7154137B2 (ja) * | 2019-01-15 | 2022-10-17 | 国際航業株式会社 | 蛇行式航空レーザ計測方法 |
CN112036399B (zh) * | 2019-06-04 | 2024-01-26 | 深圳中集天达空港设备有限公司 | 飞机舱门识别方法及装置、电子设备以及存储介质 |
WO2021046304A1 (en) * | 2019-09-04 | 2021-03-11 | Shake N Bake Llc | Uav surveying system and methods |
CN111899332A (zh) * | 2020-06-29 | 2020-11-06 | 国网辽宁省电力有限公司建设分公司 | 一种基于倾斜摄影测量技术的架空输电线路三维设计方法 |
US12031836B2 (en) | 2021-06-07 | 2024-07-09 | Apple Inc. | Map data adjustments for anomaly correction |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7463280B2 (en) * | 2003-06-03 | 2008-12-09 | Steuart Iii Leonard P | Digital 3D/360 degree camera system |
JP2006027331A (ja) * | 2004-07-13 | 2006-02-02 | Hiroboo Kk | 無人飛行体を利用した航空映像情報の収集方法 |
JP2008186145A (ja) * | 2007-01-29 | 2008-08-14 | Mitsubishi Electric Corp | 空撮画像処理装置および空撮画像処理方法 |
US8497905B2 (en) | 2008-04-11 | 2013-07-30 | nearmap australia pty ltd. | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
US8675068B2 (en) * | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
EP2423873B1 (en) | 2010-08-25 | 2013-12-11 | Lakeside Labs GmbH | Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane |
US9576349B2 (en) | 2010-12-20 | 2017-02-21 | Microsoft Technology Licensing, Llc | Techniques for atmospheric and solar correction of aerial images |
WO2012119132A2 (en) * | 2011-03-02 | 2012-09-07 | Aerovironment, Inc. | Unmanned aerial vehicle angular reorientation |
CA2827621C (en) * | 2011-03-18 | 2019-02-26 | Sony Corporation | Image processing apparatus and image processing method |
JP5947634B2 (ja) * | 2012-06-25 | 2016-07-06 | 株式会社トプコン | 航空写真撮像方法及び航空写真撮像システム |
US9235763B2 (en) | 2012-11-26 | 2016-01-12 | Trimble Navigation Limited | Integrated aerial photogrammetry surveys |
US9798928B2 (en) | 2013-07-17 | 2017-10-24 | James L Carr | System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability |
US9635259B2 (en) * | 2015-01-21 | 2017-04-25 | Izak Jan van Cruyningen | Forward motion compensated flight path |
-
2015
- 2015-02-10 US US14/618,551 patent/US9824290B2/en active Active
-
2016
- 2016-01-18 WO PCT/AU2016/050018 patent/WO2016127205A1/en active Application Filing
- 2016-01-18 JP JP2017541636A patent/JP6698670B2/ja active Active
- 2016-01-18 AU AU2016218934A patent/AU2016218934B2/en active Active
- 2016-01-18 CN CN201680009454.2A patent/CN107251055B/zh active Active
- 2016-01-18 ES ES16748475T patent/ES2804898T3/es active Active
- 2016-01-18 EP EP16748475.7A patent/EP3256990B1/en active Active
- 2016-01-18 CA CA2975758A patent/CA2975758C/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3256990A1 (en) | 2017-12-20 |
AU2016218934A1 (en) | 2017-08-24 |
US9824290B2 (en) | 2017-11-21 |
EP3256990B1 (en) | 2020-04-29 |
JP6698670B2 (ja) | 2020-05-27 |
JP2018511509A (ja) | 2018-04-26 |
CA2975758C (en) | 2018-02-20 |
CN107251055B (zh) | 2020-07-28 |
US20160229555A1 (en) | 2016-08-11 |
CN107251055A (zh) | 2017-10-13 |
CA2975758A1 (en) | 2016-08-18 |
EP3256990A4 (en) | 2018-09-26 |
WO2016127205A1 (en) | 2016-08-18 |
AU2016218934B2 (en) | 2017-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2804898T3 (es) | Captación de corredor | |
CA2952868C (en) | Wide-area aerial camera systems | |
ES2885863T3 (es) | Procedimiento de determinación de la dirección de un objeto a partir de una imagen del mismo | |
ES2720751T3 (es) | Sistemas de cámara aérea de gran altitud | |
ES2286431T3 (es) | Sistema de reconocimiento aereo. | |
ES2724464T3 (es) | Sistemas de cámaras aéreas de área amplia | |
Vallet et al. | Photogrammetric performance of an ultra light weight swinglet UAV | |
RU2562707C2 (ru) | Системы и способы захвата изображений большой площади по частям, включающие в себя каскадные камеры и/или калибровочные признаки | |
ES2715301T3 (es) | Sistema de formación de imágenes espaciales en tres dimensiones | |
ES2757592T3 (es) | Navegación basada en al menos un sensor y un mapa 3D | |
ES2774080T3 (es) | Procedimiento de adquisición de imágenes de una escena, desde un sensor a bordo de un portador en desplazamiento, con servocontrol de su línea de visión | |
Mouget et al. | Photogrammetric archaeological survey with UAV | |
JP7042911B2 (ja) | Uav制御装置およびuav制御方法 | |
ES2715012T3 (es) | Sistema y método de supervisión automática de objetivos terrestres lineales para un avión pilotado a distancia | |
Zhao et al. | The error analysis and correction method research of the attitude data for the UAV remote sensing images | |
Zhang et al. | Modeling of satellite borne TDI CCD pitching imaging image motion velocity vector | |
Upegui et al. | Impact of the pre-signaling of land control points on flights with unmanned aerial vehicles for cartographic purposes Case study: Moorlands of Chingaza | |
BARNEA et al. | Mapping remote areas with a portable high-accuracy photogrammetric system |