ES2724464T3 - Sistemas de cámaras aéreas de área amplia - Google Patents

Sistemas de cámaras aéreas de área amplia Download PDF

Info

Publication number
ES2724464T3
ES2724464T3 ES15810589T ES15810589T ES2724464T3 ES 2724464 T3 ES2724464 T3 ES 2724464T3 ES 15810589 T ES15810589 T ES 15810589T ES 15810589 T ES15810589 T ES 15810589T ES 2724464 T3 ES2724464 T3 ES 2724464T3
Authority
ES
Spain
Prior art keywords
camera
detail
view
field
mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15810589T
Other languages
English (en)
Inventor
Paul Lapstun
Todd William Lupton
Mark Harold Tarlinton
David Arnold Bleads
Zoltan Toth
Andrew Millin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nearmap Pty Ltd
Original Assignee
Nearmap Australia Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/310,523 external-priority patent/US9046759B1/en
Priority claimed from US14/478,380 external-priority patent/US9052571B1/en
Priority claimed from US14/687,544 external-priority patent/US9440750B2/en
Application filed by Nearmap Australia Pty Ltd filed Critical Nearmap Australia Pty Ltd
Application granted granted Critical
Publication of ES2724464T3 publication Critical patent/ES2724464T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

Un sistema para capturar imágenes aéreas del suelo, con módulos de cámara que tienen campos de visión ópticos del suelo en forma de dos tiras (650a, 650b) de longitud finita, sustancialmente en ángulo recto entre sí, estando el sistema caracterizado por: a) dos módulos (610, 614a, 614b) de cámara de detalle dirigible, comprendiendo cada módulo (610, 614a, 614b) de cámara de detalle dirigible una cámara (110, 600) de detalle y un mecanismo de direccionamiento del haz, b) se multiplexa en el tiempo una dirección de apuntamiento de la cámara (110, 600) de detalle mediante la variación a lo largo del tiempo, con el mecanismo de direccionamiento del haz, para cubrir un campo (160, 612) de visión del suelo más amplio, en la forma de una tira (650) de longitud finita orientada a lo largo de un eje (620) de direccionamiento, c) el mecanismo de direccionamiento del haz comprende un primer espejo orientable (604) montado en una trayectoria óptica de la cámara (110, 600) de detalle, creando el primer espejo orientable (604) el direccionamiento del campo de visión efectivo (160, 612) al girarse el mismo sobre el eje óptico de la trayectoria óptica de la cámara (110, 600) de detalle, d) estando distribuidos los ejes (620) de direccionamiento de cada módulo (610, 614a, 614b) de cámara de detalle angularmente con una diferencia de 90 grados entre sí, y con un ángulo de 45 grados con respecto a una línea (226) de vuelo.

Description

DESCRIPCIÓN
Sistemas de cámaras aéreas de área amplia
Campo de la invención
La presente invención se refiere a sistemas de cámaras aéreas eficientes, y a métodos eficientes para crear ortomosaicos a partir de fotografías aéreas.
Antecedentes
Los mosaicos georeferenciados con precisión a partir de ortofotos, denominados ortomosaicos, se están convirtiendo en alternativas populares a los mapas pictóricos tradicionales porque pueden crearse automáticamente a partir de fotografías aéreas, y porque muestran detalles útiles reales del terreno.
La creación de ortomosaicos precisos a partir de fotos aéreas está bien descrita en la literatura. Véase, por ejemplo, los libros Elements of Photogrammetry with Application in GIS, Cuarta edición (Wolf et al.) (McGraw-Hill 2014), y Manual of Photogrammetry, Sexta edición (American Society for Photogrammetry and Remote Sensing (ASPRS) 2013).
La creación de un ortomosaico requiere la captura sistemática de fotos aéreas superpuestas del área de interés, tanto para asegurar una cobertura completa del área de interés como para asegurar que haya suficiente redundancia en las imágenes para permitir un ajuste en bloque preciso, la ortorectificación y la alineación de las fotos.
El ajuste en bloque es el proceso mediante el cual se refinan las estimaciones redundantes de los puntos del terreno y las posturas de las cámaras. El ajuste en bloque moderno se describe en detalle en “Bundle Adjustment- A Modern Synthesis” (Triggs et al.) en Vision Algorithms: Theory and Practice (Lecture Notes in Computer Science, Volumen 1883, Springer 2000).
El ajuste en bloque puede operar sobre las posiciones de puntos de tierra identificados manualmente o, cada vez más, sobre las posiciones de características de tierra identificadas automáticamente que se hacen coincidir automáticamente entre fotos superpuestas.
Las fotos aéreas superpuestas generalmente se capturan haciendo pasar una aeronave de reconocimiento con un patrón serpenteante sobre el área de interés. La aeronave de reconocimiento lleva un sistema de cámaras aéreas, y el patrón de vuelo serpenteante asegura que las fotos capturadas por el sistema de cámaras se superpongan a lo largo de las líneas de vuelo dentro del patrón de vuelo, así como entre líneas de vuelo adyacentes.
Una redundancia suficiente para un ajuste en bloque preciso generalmente determina la elección de una superposición longitudinal (hacia delante) de al menos el 60 %, es decir, entre fotos sucesivas a lo largo de una línea de vuelo, y una superposición lateral de al menos el 40 %, es decir, entre fotos con líneas de vuelo adyacentes. Esto a menudo se denomina superposición 60/40.
La superposición elegida determina tanto el tiempo de vuelo requerido como el número de fotos capturadas (y posteriormente procesadas) requeridas. Por lo tanto, un nivel alto de superposición resulta costoso, tanto en términos de tiempo de vuelo como de procesamiento, y las opciones prácticas de superposición suponen un compromiso entre el costo y la precisión ortomosaica.
El uso de un sistema de cámaras de resolución múltiple proporciona una muy buena forma de reducir la superposición sin comprometer excesivamente la precisión. La captura y el procesamiento de fotos aéreas de resolución múltiple se describen en las Patentes de Estados Unidos n.° 8.497.905 y 8.675.068 (Nixon). Los conjuntos de fotos de resolución múltiple permiten derivar la precisión ortomosaica a partir de la superposición entre fotos de superposición de baja resolución, mientras que el detalle ortomosaico se deriva de las fotos de detalle que presentan una resolución más alta. La publicación de solicitud de patente de Estados Unidos n.° 2012/0200703 describe un sistema para proporcionar una imagen de video estabilizada, con línea de Sitio continuamente desplazable y controlable y campo de visión ajustable, para su uso en un vehículo aéreo no tripulado. La patente de Estados Unidos n.° 5.625.409 describe el uso de un sistema de cámaras de resolución múltiple. La publicación de solicitud de patente de Estados Unidos n.° 2009/0015674 describe un sistema de formación óptica de imágenes para un vehículo aéreo no tripulado.
Las patentes de Estados Unidos n.° 8.497.905 y 8.675.068 (Nixon) describen una cápsula de cámara externa acoplable a una aeronave pequeña. Una cápsula externa presenta dos desventajas clave: la cápsula es altamente específica para la aeronave, y el espacio dentro de la cápsula es limitado. Una cápsula para aeronave específica limita la elección de la aeronave y, por lo tanto, limita los parámetros operativos tales como el intervalo de altitud y, por el contrario, para su adaptación a diferentes aeronaves se requiere un esfuerzo significativo de diseño, prueba y certificación. El espacio restringido dentro de la cápsula limita el tamaño y, por lo tanto, la distancia focal de las lentes de la cámara, lo que a su vez limita el intervalo de altitudes operativas para una resolución objetivo de imagen particular.
Sumario de la invención
La invención se define mediante la reivindicación 1 independiente del sistema y la reivindicación 16 independiente del método. Las realizaciones preferidas se definen en las reivindicaciones dependientes.
Breve descripción de las figuras.
La Fig. 1 muestra una vista frontal de una unidad HyperCamera V5-300, es decir, mirando hacia delante hacia la parte delantera de la aeronave.
La Fig. 2 muestra una vista posterior de la unidad de cámaras.
La Fig. 3 muestra una vista superior de la unidad de cámaras.
La Fig. 4 Muestra una vista inferior de la unidad de cámaras.
La Fig. 5 muestra una vista despiezada de la unidad de cámaras.
La Fig. 6 muestra una vista detallada de las cámaras y el soporte central de la unidad de cámaras, con el campo de visión de cada cámara.
La Fig. 7 muestra la unidad de cámaras desde abajo, con sus campos de visión combinados pasando a través de la abertura de un orificio para cámara de la aeronave.
La Fig. 8 muestra la vista general del campo de visión y los cinco campos de visión de detalle superpuestos de las cámaras.
La Fig. 9 muestra la placa adaptadora de la HyperCamera, montada sobre unas pistas de asiento en el suelo de una aeronave.
La Fig. 10 muestra una vista detallada de la unidad de cámaras, la placa adaptadora y las pistas de asiento en el suelo de una aeronave.
La Fig. 11 muestra una vista despiezada de las cámaras y del soporte central de una versión de ángulo más amplio de la unidad de cámara.
La Fig. 12 muestra el campo de visión general y los cinco campos de visión de detalle superpuestos de la unidad HyperCamera V5-180.
La Fig. 13 muestra una vista en planta de la HyperCamera, instalada en una aeronave Cessna 208.
La Fig. 14 muestra una vista en planta detallada de la HyperCamera V5-300, instalada en una aeronave Cessna 208.
La Fig. 15 muestra una elevación frontal de una aeronave Cessna 208 que transporta una HyperCamera V5-300, y la vista general resultante y los campos de visión de detalle agregados.
La Fig. 16 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V5-300, y la vista general resultante y los campos de visión de detalle agregados.
La Fig. 17 muestra los campos de visión superpuestos de tres tomas sucesivas.
La Fig. 18 muestra los campos de visión superpuestos de tomas en líneas de vuelo adyacentes.
La Fig. 19 muestra los campos de visión de detalle agregados superpuestos de una sucesión de tomas, a lo largo de tres líneas de vuelo adyacentes.
La Fig. 20 muestra un diagrama de bloques de un sistema de alimentación y control para la HyperCamera. La Fig. 21 muestra un flujo de proceso fotogramétrico para crear de manera eficiente un ortomosaico a partir de fotos de la HyperCamera de resolución múltiple.
La Fig. 22 muestra una tabulación de la distancia de muestreo respecto a tierra (GSD), en función de la altitud y una distancia focal de cámara de entre 100 mm y 600 mm.
La Fig. 23 muestra una tabulación de la distancia de muestreo respecto a tierra (GSD), en función de la altitud y una distancia focal de cámara de entre 700 mm y 1200 mm.
Las Figs. 24A, 24B y 24C muestran la vista general del campo de visión y los campos de visión superpuestos de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de 3.657,6 metros.
Las Figs. 25A, 25B y 25C muestran los campos de visión superpuestos de tres tomas sucesivas de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de 3.657,6 metros.
Las Figs. 26A, 26B y 26C muestran los campos de visión superpuestos de tomas en líneas de vuelo adyacentes de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de 3.657,6 metros.
La Fig. 27 muestra una elevación frontal de una aeronave Cessna 208 que transporta una HyperCamera V10-600, que consta de dos unidades HyperCamera V5-600, y la vista general resultante y los campos de visión de detalle agregados.
La Fig. 28 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V10-600, que comprende dos unidades de cámara V5-600 instaladas en la cabina de la aeronave, y la vista general resultante y los campos de visión de detalle agregados de cada unidad de cámara.
La Fig. 29 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V10-600, que comprende dos unidades de cámara V5-600 instaladas en una cápsula de carga estándar montada sobre el vientre de la Cessna 208, y la vista general resultante y los campos de visión de detalle agregados de cada unidad de cámara.
La Fig. 30 muestra un alzado frontal de una aeronave Cessna 208 que transporta una HyperCamera V15-900, que comprende tres unidades de cámara V5-900, y la vista general resultante y los campos de visión de detalle agregados. La línea discontinua muestra la división entre los campos de visión de las unidades de cámara. La Fig. 31 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V15-900, que comprende tres unidades de cámara V5-900 instaladas en la cabina de la aeronave, y la vista general resultante y los campos de visión de detalle agregados de cada unidad de cámara.
La Fig. 32 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V15-900, que comprende tres unidades de cámara V5-900 instaladas en una cápsula de carga estándar montada sobre el vientre de la Cessna 208, y la vista general resultante y los campos de visión de detalle agregados de cada unidad de cámara.
Las Figs. 33A, 33B y 33C muestran dos huellas superpuestas de dos líneas de vuelo adyacentes de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de vuelo constante de 7.315,2 metros. La cuadrícula discontinua en las figuras tiene un espacio de 1 km.
Las Figs. 34A, 34B y 34C muestran dos huellas superpuestas de dos líneas de vuelo adyacentes de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de vuelo constante de 10972,8 metros. La cuadrícula discontinua en las figuras supone una separación de 1 km.
La Fig. 35A y la Fig. 35B muestran unas elevaciones frontal y lateral, respectivamente, de una aeronave Cessna 208 que transporta cinco HyperCameras instaladas en la cabina de la aeronave: una V10-600 vertical, una R10-600 oblicua derecha, una L10-600 oblicua izquierda, una F10-600 oblicua derecha y una B10-600 oblicua posterior, y la vista general resultante y los campos de visión de detalle agregados de cada una.
La Fig. 36 muestra elevaciones laterales de una aeronave Cessna 208 que transporta cinco HyperCameras, instaladas en una cápsula de carga estándar montada en el vientre de la Cessna 208: una V10-600 vertical, una R10-600 oblicua derecha, una L10-600 oblicua derecha, una F10-600 oblicua frontal y una B10-600 oblicua posterior, y la vista general resultante y los campos de visión de detalle agregados de cada una.
La Fig. 37 muestra una vista inferior de la unidad de cámaras, con una disposición alternativa de las cámaras. La Fig. 38 muestra una unidad de cámara implementada como un conjunto de cámaras, y sus respectivos ejes ópticos.
La Fig. 39 muestra una unidad de cámaras implementada como una sola cámara multiplexada en el tiempo, a través de un espejo orientable para producir múltiples trayectorias ópticas.
La Fig. 40 muestra una configuración alternativa de una unidad de cámara implementada como una sola cámara multiplexada en el tiempo, a través de un espejo orientable para producir múltiples trayectorias ópticas.
La Fig. 41 muestra una unidad de cámara implementada como una sola cámara multiplexada en el tiempo, a través de un espejo orientable para producir múltiples trayectorias ópticas, con un espejo orientable para la compensación de movimiento angular (AMC).
La Fig. 42 muestra un diagrama y una ecuación relacionados con el cálculo del campo de visión y la resolución de una cámara.
La Fig. 43 muestra un diagrama y ecuaciones relacionadas con el cálculo del campo de visión de un conjunto de cámaras.
La Fig. 44 muestra un diagrama y ecuaciones relacionadas con el cálculo de la resolución de cámaras inclinadas. La Fig. 45 muestra un módulo de cámara orientable.
La Fig. 46A muestra el módulo de cámara orientable, con su espejo colocado para la formación de imágenes en un ángulo de visión vertical.
La Fig. 46B muestra el módulo de cámara orientable, con su espejo colocado para la formación de imágenes en un ángulo de visión oblicuo.
La Fig. 47 muestra una unidad de HyperCamera WS-300, que consta de dos módulos de cámara de detalle orientables de medio campo y dos cámaras de visión general fijas.
La Fig. 48A muestra la elevación y la planta del campo de visión de gran angular de una unidad de cámara WS-300 que opera a 4.876,8 metros.
La Fig. 48B muestra la elevación y la planta del campo de visión de gran angular de una unidad de cámara WS-600 que opera a 8.534,4 metros.
La Fig. 49A muestra una vista en planta esquemática de un módulo de cámara de detalle orientable de campo completo.
La Fig. 49B muestra una vista en planta esquemática de un módulo de cámara de detalle orientable de campo completo, que comprende un par de módulos de cámara de detalle orientable de medio campo.
La Fig. 49C muestra una vista esquemática en planta de un módulo de cámara de visión general orientable de campo completo.
La Fig. 49D muestra una vista en planta esquemática de una unidad de cámaras, que comprende un par de módulos de cámara de detalle orientables de medio campo y dos cámaras de visión general.
La Fig. 49E muestra una vista esquemática en planta de una unidad de cámaras, que comprende un módulo de cámara de detalle orientable de campo completo y dos cámaras de visión general.
La Fig. 50A muestra una vista en planta esquemática de una unidad de cámaras, que comprende un módulo de cámara de detalle orientable de campo completo y un módulo de cámara de visión general orientable de campo completo.
La Fig. 50B muestra una vista en planta de un conjunto de campos de visión general y de detalle, verticales y oblicuos de cuatro vías.
La Fig. 51A muestra una elevación del campo de visión de una unidad de cámara gran angular, que comprende campos de visión verticales, oblicuos e intersticiales.
La Fig. 51B muestra la elevación y el plano del campo de visión de gran angular continuo de una unidad de cámara WS-600 que opera a 8.534,4 metros.
La Fig. 52A muestra los campos de visión laterales superpuestos de una unidad de cámara gran angular, a partir de tres líneas de vuelo adyacentes.
La Fig. 52B muestra los campos de visión laterales superpuestos de una unidad de cámara gran angular, a partir de tres líneas de vuelo adyacentes, mostrando campos de cámara individuales.
La Fig. 53A muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600, con cámaras de visión general y de detalle que operan a 8.534,4 metros.
La Fig. 53B muestra una vista en planta del campo de visión de una unidad de cámaras WS-600, con solo cámaras de detalle que operan a 8.534,4 metros.
La Fig. 53C muestra una unidad de cámaras, que consta de dos módulos de cámara de detalle orientables de campo completo.
La Fig. 53D muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600 de doble campo que opera a 8.534,4 metros.
La Fig. 54 muestra una unidad de HyperCamera WS-300, que consta de cuatro módulos de cámara de detalle orientables de medio campo dispuestos en una configuración en X, y dos cámaras de visión general fija.
La Fig. 55A muestra una vista en planta de los campos de visión de una unidad de cámaras WS-300, en una configuración en X, que opera a 4.876,8 metros.
La Fig. 55B muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600, en una configuración en X, que opera a 8.534,4 metros.
La Fig. 56A muestra una unidad de cámaras que consta de dos pares de módulos de cámara de detalle, orientables de medio campo, dispuestos en una configuración en X.
La Fig. 56B muestra una unidad de cámaras que consta de dos módulos de cámara de detalle, orientables de campo completo, dispuestos ortogonalmente.
La Fig. 57A muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600 con una configuración en X 1, que opera a 8.534,4 metros.
La Fig. 57B muestra una unidad de cámaras que consta de dos pares de módulos de cámara de detalle, orientables de medio campo, dispuestos en una configuración en X, así como un módulo de cámara de detalle orientable de campo completo.
La Fig. 58A muestra una vista en planta de tres tomas sucesivas de una unidad de cámaras WS-600, con una configuración en X, que opera a 8.534,4 metros.
La Fig. 58B muestra una vista en planta de tomas desde dos líneas de vuelo adyacentes de una unidad de cámaras WS-600, con una configuración en X, que opera a 8.534,4 metros.
La Fig. 59 muestra un diagrama y ecuaciones relacionadas con el cálculo del campo de visión longitudinal y la velocidad de disparo de una cámara aérea.
La Fig. 60 muestra un diagrama y ecuaciones relacionadas con el cálculo del campo de visión lateral de un sistema de cámaras aéreas, y la velocidad de captura de área.
La Fig. 61 muestra un diagrama y ecuaciones relacionadas con el efecto de rotación del campo de visión sobre las tomas del sistema de cámaras aéreas y las velocidades de captura de fotograma y de área.
La Fig. 62 muestra un diagrama de bloques electrónico y mecánico de una unidad de cámaras, con módulos de cámara orientables.
La Fig. 63 muestra un diagrama de bloques electrónico y mecánico de un módulo de cámara orientable.
La Fig. 64 muestra una tabulación, para una unidad de cámaras orientables de 36 megapíxeles con una configuración en X, y una GSD de 7 cm, de velocidad de disparo, velocidad secuencial y velocidad de captura de área en función de la altitud, la velocidad de la aeronave y ángulo de campo de visión utilizable.
La Fig. 65 muestra una tabulación, para una unidad de cámaras orientables de 25 megapíxeles con una configuración en X, y una GSD de 5 cm, de velocidad de disparo, velocidad secuencial y velocidad de captura de área en función de la altitud, la velocidad de la aeronave y ángulo de campo de visión utilizable.
La Fig. 66 muestra una tabulación, para una unidad de cámaras orientables de 12 megapíxeles con una configuración en X, y una GSD de 5 cm, de velocidad de disparo, velocidad secuencial y velocidad de captura de área en función de la altitud, la velocidad de la aeronave y ángulo de campo de visión utilizable.
La Fig. 67A muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600 de tres campos, que opera a 8.534,4 metros.
La Fig. 67B muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600 de cuatro campos, que opera a 8.534,4 metros.
La Fig. 68A muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600 de cinco campos, que opera a 8.534,4 metros.
La Fig. 68B muestra una vista en planta del campo de visión escalonado de una unidad de cámaras WS-600 de campo único, que opera a 8.534,4 metros.
La Fig. 69 muestra una vista en planta de vectores de movimiento sistemáticos a corregir.
La Fig. 70 muestra un gráfico de la posición angular en función del tiempo para un espejo multiplexor y un espejo de compensación de movimiento, cuando se utiliza este último para corregir el movimiento del primero.
La Fig. 71 muestra un gráfico del movimiento lineal de un espejo multiplexor modulado por una sinusoide, ralentizando periódicamente el espejo.
La Fig. 72A muestra un módulo de cámara orientable alternativo, con su espejo posicionado para la formación de imágenes en un ángulo de visión vertical.
La Fig. 72B muestra el módulo de cámara orientable, con su espejo colocado para la formación de imágenes con un ángulo de visión oblicuo.
La Fig. 73A muestra una vista en planta del módulo de cámara orientable, con su espejo colocado para la formación de imágenes con un ángulo de visión oblicuo.
La Fig. 73B muestra un alzado posterior del módulo de cámara orientable, con su espejo colocado para la formación de imágenes con un ángulo de visión oblicuo.
La Fig. 74 muestra una vista en planta de una unidad de HyperCamera WS-300, que comprende dos módulos de cámara de detalle orientables de campo completo, y una cámara de visión general fija.
La Fig. 75A muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600, con una configuración en X, utilizando el módulo de cámara orientable alternativo y operando a 8.534,4 metros.
La Fig. 75B muestra una vista en planta de tres tomas sucesivas de la unidad de cámaras WS-600 con configuración en X, utilizando el módulo de cámara orientable alternativo y operando a 8.534,4 metros.
La Fig. 76A muestra un módulo de cámara orientable de doble campo.
La Fig. 76B muestra detalles de la disposición de espejo de la Fig. 76A.
La Fig. 77 muestra una vista en planta de la unidad de HyperCamera WS-300 de la Fig. 76A, compuesta por un módulo de cámara de detalle orientable de doble campo y una cámara de visión general fija.
La Fig. 78A muestra una vista en planta de los campos de visión de una unidad de cámara WS-600 de cuatro campos, utilizando el módulo de cámara orientable alternativo y operando a 8.534,4 metros.
La Fig. 78B muestra una vista en planta de los campos de visión de una unidad de cámara WS-600 de cinco campos, utilizando el módulo de cámara orientable alternativo y operando a 8.534,4 metros.
Listado de números de referencia
100 Unidad de cámaras.
110 Cuerpo de cámara de detalle.
112 Cuerpo de cámara de visión general.
114 Lente de cámara de detalle.
116 Lente de cámara de visión general.
118 Lente de cámara de propósito especial (p. ej., NIR).
120 Bastidor.
122 Soporte central del bastidor.
124 Soporte lateral del bastidor.
Soporte trasero del bastidor.
Soporte frontal del bastidor.
Bloque de punto de montaje.
Punto de montaje.
Perno de montaje.
Montura para cámara de detalle.
Montura para cámara de visión general.
Abrazadera para lente de cámara de detalle.
Abrazadera para lente de cámara de visión general.
Caja de distribución de alimentación y control.
Campo de visión de detalle.
Campo de visión de detalle lateral.
Campo de visión de detalle longitudinal.
Campo de visión general.
Campo de visión general lateral.
Campo de visión general longitudinal.
Campo de visión de detalle agregado.
Campo de visión de detalle agregado lateral.
Campo de visión general agregado.
Campo de visión general agregado lateral.
Campo de visión nominal de 30 grados.
Parrilla de un km.
Placa adaptadora.
Fijación de pista de asiento.
Suelo de la aeronave.
Orificio para cámaras.
Pista de asiento.
Abertura de placa adaptadora.
Dirección de vuelo.
T rayectoria de vuelo.
Posición de captura.
Línea de vuelo.
Aeronave de reconocimiento aéreo.
Cápsula montada en vientre de aeronave de reconocimiento aéreo. Ángulo de campo de visión (beta).
Distancia focal (f).
Altitud sobre el nivel del suelo (a).
Anchura/s de sensor de imagen.
Amplitud de barrido (w).
Tamaño de píxel de sensor de imagen (p).
Distancia de muestreo respecto a tierra (GSD) (g).
Ángulo de campo de visión agregado (gamma).
Superposición angular de cámara (omega).
Amplitud de barrido agregada (w (N)).
Ángulo de inclinación de cámara (theta).
GSD de cámara inclinada (g(theta)).
Campo de visión de cámara inclinada.
Cámara inclinada con GSD de plano focal inclinado (h(theta)).
Cámara inclinada con campo de visión de plano focal inclinado.
Ordenador.
Pantalla para piloto.
Receptor del Sistema Mundial de Navegación por Satélite (GNSS). Unidad de Medición Inercial (IMU).
Interfaz de cámaras.
Unidad de control de cámaras (CCU).
Unidad de batería.
Potencia auxiliar de aeronave.
Unidad de potencia de tierra (GPU).
Convertidores DC-DC.
Unidad(es) de compensación de movimiento angular (AMC).
Fotos de detalle.
Fotos de visión general.
Ortomosaico.
Paso de coincidencia de características.
Paso de resolución de posturas y posiciones.
Paso de ortorectificación.
Paso de mezclado.
Campo de visión de detalle oblicuo derecho.
Campo de visión de detalle oblicuo derecho lateral.
Campo de visión de detalle oblicuo derecho longitudinal.
Campo de visión de visión oblicuo derecha.
Campo de visión general oblicuo derecho lateral.
Campo de visión de visión general oblicuo longitudinal derecho.
Campo de visión de detalle oblicuo izquierdo.
Campo de visión de detalle lateral oblicuo izquierdo.
Campo de visión de detalle oblicuo longitudinal izquierdo.
Campo de visión general izquierdo oblicuo.
Campo de visión general oblicuo izquierdo lateral.
Campo de visión general oblicuo izquierdo longitudinal.
Campo de visión de detalle frontal oblicuo.
Campo de visión de detalle frontal oblicuo lateral.
Campo de visión de detalle oblicuo frontal longitudinal.
Campo de visión general oblicuo frontal.
Campo de visión general oblicuo frontal lateral.
Campo de visión general oblicuo frontal longitudinal.
Campo de visión de detalle oblicuo posterior.
Campo de visión de detalle oblicuo posterior lateral.
Campo de visión de detalle oblicuo posterior longitudinal.
Campo de visión general oblicuo posterior.
Campo de visión general oblicuo posterior lateral.
Campo de visión general oblicuo posterior longitudinal.
Cámara.
Eje óptico de cámara.
Espejo multiplexor orientable.
Espejo fijo.
Espejo de compensación de movimiento orientable.
Módulo de cámara orientable.
Campo de visión de cámara.
Módulo de cámara de detalle orientable de medio campo.
Módulo de cámara de detalle orientable de campo completo.
Módulo de cámara de visión general orientable de campo completo. Eje de dirección de cámara de detalle.
Eje de dirección de cámara de visión general.
Módulo de cámara orientable de doble campo.
Módulo de cámara orientable de detalle de doble campo.
Motor lineal de espejo multiplexor.
Varilla accionadora de espejo multiplexor.
Montura de espejo multiplexor.
Etapa de espejo de compensación de movimiento.
Etapa de espejo multiplexor.
Controlador de espejo multiplexor.
Controlador de espejo de compensación de movimiento.
Sensor de espejo multiplexor.
Sensor de espejo de compensación de movimiento.
Motor de rotación de espejo multiplexor.
Campo de visión de detalle de gran angular agregado.
Campo de visión general de gran angular agregado.
Campo de visión intersticial.
Espejo de conmutación.
Motor de rotación de espejo de conmutación.
Campo de visión de detalle combinado con configuración en X.
Ángulo de campo de visión longitudinal (delta).
Huella longitudinal 672 (b).
Superposición longitudinal (c).
Separación longitudinal de captura (d).
Velocidad respecto a tierra de la aeronave (v).
Ángulo de campo de visión vertical utilizable (phi).
Separación de línea de vuelo lateral (e).
Eje del campo de visión lateral.
Ángulo de rotación del eje del campo de visión (lambda).
Eje de campo de visión lateral girado.
Separación longitudinal de capturas con eje girado (d(lambda)).
692 Separación de líneas de vuelo con eje girado (e(lambda)).
700 Módulo de entrada/salida de imágenes.
702 Dispositivo de almacenamiento de imágenes.
704 Dispositivo de entrada para piloto.
706 Piloto automático.
170 Microcontrolador de cámaras.
712 Interfaz de control de módulo de cámara.
714 Interfaz de control de cámaras.
716 Interfaz de flujo de imágenes.
720 Vector de movimiento de dirección.
722 Vector de movimiento hacia delante.
724 Vector de movimiento resultante.
730 Posición angular (y).
732 Tiempo (t).
734 Gráfico de posición angular del espejo multiplexor.
736 Gráfico de posición angular del espejo de compensación de movimiento.
738 Intervalo de exposición.
Descripción detallada de realizaciones preferidas
HyperCamera® es una gama de sistemas de cámaras aéreas aptos para el despliegue en una amplia gama de aeronaves, grandes y pequeñas. Los sistemas de cámaras son modulares y están diseñados para su instalación sobre uno o más orificios de cámara estándar, según corresponda, de los que suele estar provisto el suelo de una aeronave de reconocimiento o una cápsula aérea.
Cada modelo de HyperCamera se define por su dirección de apuntamiento (P), el número de cámaras (N) en su conjunto y la distancia focal (f) de las cámaras, y se identifica con el designador PN-f. Por ejemplo, un HyperCamera vertical de cinco cámaras de 300 mm se conoce como modelo V5-300.
Los modelos de HyperCamera orientables de gran angular están identificados por el designador WS-f. Por ejemplo, una HyperCamera orientable de gran angular de 300 mm se conoce como modelo WS-300.
El nivel de detalle capturado por una cámara aérea habitualmente se caracteriza por la distancia de muestreo respecto a tierra (GSD), es decir, la distancia entre centros de píxeles adyacentes cuando se proyecta la misma sobre tierra, dentro del campo de visión de la cámara.
La GSD está determinada por la distancia focal (f, 252) de la lente de la cámara, la altitud sobre el nivel del suelo (a, 254) y el tamaño de píxel (p, 260) del sensor de imagen, por EQ 1 en la Fig. 42.
La eficiencia de la formación de imágenes aéreas se caracteriza habitualmente por el área capturada por unidad de tiempo (p. ej. kilómetros cuadrados por hora). Esto es proporcional a la velocidad de la aeronave y al ancho del campo de visión (FOV) del sistema de cámaras aéreas, conocido como amplitud de barrido.
La amplitud de barrido (w, 258) de una sola cámara está determinada por la distancia focal (f, 252) de la lente de la cámara, la altitud sobre el nivel del suelo (a, 254) y el tamaño lateral (s, 256) del sensor de imagen, por EQ 2 en la Fig. 42. Duplicar la altitud duplica la amplitud de barrido.
El campo de visión lateral (beta, 250) de una sola cámara está determinado por la distancia focal (f, 252) de la lente de la cámara y el tamaño lateral (s, 256) del sensor de imagen, por EQ 4 en la Fig. 42. Duplicar la distancia focal divide aproximadamente a la mitad el campo de visión.
El campo de visión lateral (gamma, 270) de un conjunto de cámaras está determinado por el campo de visión de cada cámara (beta, 250), el número de cámaras (N) y su superposición angular (omega, 272), por EQ 7 en la Fig. 43. Duplicar el número de cámaras duplica aproximadamente el campo de visión. La amplitud de barrido (w(N), 278) de la serie de cámaras viene dado por EQ 8 en la Fig. 43.
El campo de visión práctico de un sistema de cámaras aéreas está limitado por el nivel aceptable de oblicuidad en las imágenes aéreas, p. ej. cuánto se permite que los edificios se deformen cuando quedan capturados en el borde del campo de visión. El campo de visión práctico generalmente se limita a 50 grados o menos.
Dado un límite en el campo de visión práctico, puede lograrse una mayor eficiencia de captura (y, por lo tanto, un menor costo del proceso de captura) volando a mayor velocidad y/o a mayor altitud. Volar a una altitud más alta requiere distancias focales más largas para mantener la misma GSD. Como cada cámara tiene un campo de visión individual más estrecho, esto a su vez requiere un mayor número de cámaras para mantener el campo de visión general.
La gama HyperCamera incluye modelos adecuados para diversas altitudes operativas, y admite un intervalo de GSD y eficiencias de captura. Dependiendo de la velocidad y la altitud del objetivo, puede instalarse un sistema HyperCamera en cualquier aeronave adecuada para la formación de imágenes aéreas. A modo de ejemplo, esto incluye (pero no se limita a) aeronaves de tipo pistón tales como la Cessna 210, aeronaves turbopropulsadas tales como la Cessna 208, y aeronaves de tipo turboventilador (chorro) tales como la Cessna Citation, que permiten obtener imágenes aéreas desde bajas altitudes a altitudes que superan los 12.192 metros, a velocidades que van desde menos de 100 nudos a 400 nudos.
La aeronave puede estar presurizada o no presurizada, y cada orificio para cámara puede estar abierto o contener una ventana de vidrio óptico, según corresponda. Cada orificio para cámara puede estar opcionalmente protegido por una compuerta, que puede cerrarse cuando la HyperCamera no está en funcionamiento.
En una realización preferida, como se ilustra en las Figs. 1 a 5, una HyperCamera V5-300 comprende una unidad 100 de cámara que incorpora cinco cámaras 110 de detalle y una cámara 112 de visión general de ángulo relativamente más amplio. Cada cámara 110 de detalle tiene una lente 114 de detalle, y la cámara 112 de visión general tiene una lente 116 de visión general.
La lente 116 de visión general se caracteriza por tener un ángulo significativamente más amplio que la lente 114 de detalle. Si bien puede ser una lente de gran angular real, también puede ser una lente normal o incluso una lente de teleobjetivo, siempre que sea significativamente más ancha que la lente 114 de detalle. Del mismo modo, mientras que la lente 114 de detalle puede ser una verdadera lente de teleobjetivo, también puede ser una lente normal o incluso una lente de gran angular, siempre que sea significativamente más estrecha que la lente 116 de visión general.
Las cámaras 110 y 112 son preferentemente cámaras comerciales disponibles (COTS) de tipo SLR (DSLR). El uso de cámaras COTS permite adaptar el sistema fácilmente a las cámaras disponibles más recientes y mejores. De forma alternativa o adicional, para proporcionar funciones de formación de imágenes no disponibles en las cámaras COTS, tales como formación de imágenes RGB sin mosaicos, formación multiespectral de imágenes y compensación de movimiento hacia delante, también pueden utilizarse diseños de cámara dedicados.
A través de proveedores tales como Nikon y Canon pueden obtenerse cámaras COTS de alta resolución, con recuentos de píxel que habitualmente van desde 24 megapíxeles a 36 megapíxeles. La cámara réflex digital Nikon D800 (y D810) de 36 megapíxeles es una opción particularmente buena para el sistema actual.
Las cámaras DSLR ofrecen una amplia gama de lentes de alta calidad, lo que permite configurar el sistema fácilmente para operar a diferentes altitudes y resoluciones.
El sistema se adapta fácilmente a una combinación de cámaras. Por ejemplo, puede emplearse una cámara relativamente más costosa con un mayor número de píxeles como cámara de visión general. Se prevé que en un futuro próximo estén disponibles cámaras DSLR de 70 megapíxeles, y una cámara de 70 megapíxeles sería una buena opción para la cámara de visión general.
En la realización preferida, todas las lentes 114 de detalle de las cámaras 110 de detalle tienen la misma distancia focal, y las cámaras 110 de detalle tienen el mismo tamaño de píxel. Así, la unidad 100 de cámaras incorpora dos resoluciones de cámara distintas: de visión general y de detalle. Esto puede extenderse fácilmente a múltiples resoluciones, más allá de dos, haciendo uso de lentes 114 de detalle con diferentes distancias focales y/o haciendo uso de cámaras 110 de detalle con diferentes tamaños de píxel. La unidad 100 de cámaras también puede incorporar múltiples cámaras de visión general, con diferentes resoluciones.
Cada una de las lentes 114 de detalle y la lente 116 de visión general pueden ser una lente de enfoque fijo, enfocada al infinito, o una lente de enfoque variable. En este último caso, la correspondiente cámara 110 y/o 112 incorporará un mecanismo de autoenfoque.
Cada cámara 110 de detalle se fija por perno a una montura 140 de cámara que, a su vez, se fija con perno a un soporte central 122. Cada lente 114 de cámara de detalle se asegura adicionalmente con una abrazadera 144, que se atornilla a la montura 140 de cámara de detalle.
La cámara de visión general se fija por perno a una montura 142 de cámara que, a su vez, se fija por perno al soporte central 122. La lente 116 de cámara de visión general se asegura adicionalmente con una abrazadera 146, que se fija por perno a la montura 142 de cámara de visión general.
Las monturas 140 y 142 de cámara aíslan gran parte de la estructura de la unidad 100 de cámaras con respecto a las características específicas de los modelos de cámara y tamaños de lente individuales.
El soporte central 122 se fija a un par de soportes laterales 124a y 124b, y cada soporte lateral 124 se fija a su vez a un soporte trasero 126 y un soporte frontal 128, para formar un bastidor rígido 120.
Cada soporte lateral 124 se fija al bloque 130 de punto de montaje a través de un conjunto de cuatro pernos, y el bloque 130 de punto de montaje se fija a su vez al soporte trasero 126 o al soporte frontal 128, según corresponda, a través de un conjunto adicional de cuatro pernos. Los bloques 130 de punto de montaje proporcionan de este modo el mecanismo de fijación entre los soportes laterales 124 y los soportes trasero y frontal 126 y 128.
Cada uno de los soportes laterales 124 y los soportes trasero y frontal 126 y 128 tiene un perfil de sección transversal en forma de C, para minimizar el peso y maximizar la rigidez, mientras que el soporte central 122 está ahuecado para minimizar el peso y maximizar la rigidez.
Cada bloque 130 de punto de montaje es sólido y tiene el propósito adicional de proporcionar un punto de conexión entre la unidad 100 de cámaras y una aeronave de reconocimiento, como se describe a continuación.
Todas las piezas están fabricadas con aluminio liviano, excepto los sujetadores que están fabricados con acero. El soporte trasero 126 y el soporte frontal 128 sujetan tres cajas 150 de distribución de alimentación y control. Cada caja 150 distribuye señales de alimentación y control a un par de cámaras. Para una mayor claridad, en las figuras se ha omitido el cableado de alimentación y control entre las cajas 150 y las cámaras 110 y 112.
En la realización preferida, cada cámara 110 de detalle tiene una lente 114 con una distancia focal de 300 mm adecuada para imágenes de alta resolución a altitudes relativamente altas. Por ejemplo, cuando se utiliza una cámara Nikon D800 de 36 megapíxeles (que tiene un píxel de 4,88 micrones), una lente de 300 mm permitirá una distancia de muestreo respecto a tierra (GSD) de 30 cm a 18.288 metros, 20 cm a 12.192 metros, 10 cm a 6.096 metros, 8 cm a 4.876,8 metros, 6 cm a 3.657,6 metros, 4 cm a 2.438,4 metros, 2 cm a 1.219,2 metros, 1 cm a 609,6 metros, etc.
Suponiendo que las cámaras 110 de detalle y la cámara 112 de visión general tengan conteos y tamaños de píxel similares, la cámara 112 de visión general idealmente tendrá una lente 116 con una distancia focal de entre 4 y 8 veces más corta que la distancia focal de la lente 114 de detalle, como se explica adicionalmente más abajo. Es decir, para una lente 114 de detalle de 300 mm, las distancias focales adecuadas para la lente 116 de visión general varían entre aproximadamente 40 mm y 75 mm. Con fines ilustrativos, el sistema actual utiliza una lente 116 de visión general de 50 mm.
La Fig. 6 muestra el campo 162 de visión lateral de 6,90 grados de cada una de las cinco cámaras 110 de detalle, con lentes 114 de 300 mm, y el campo lateral de 39,60 grados de la cámara 112 de visión general con una lente 116 de 50 mm.
En la presente memoria, la dirección lateral es la dirección perpendicular a la dirección 220 de vuelo, y la dirección longitudinal es la dirección paralela a la dirección 220 de vuelo.
Como se muestra, las cámaras de detalle están inclinadas lateralmente a 6 grados, es decir, ligeramente menos que sus campos 162 de visión de 6,90 grados, de modo que los campos 162 de visión se superpongan ligeramente. Con las cámaras Nikon D800 de 36 megapíxeles, las cinco cámaras 110 de detalle tienen un campo de visión agregado con un número de píxeles de aproximadamente 160 megapíxeles, es decir, excluyendo la superposición. Pueden encontrarse teleobjetivos de reserva, adecuados para su uso como lentes 114 de detalle, en diversas distancias focales, que habitualmente incluyen 85 mm, 105 mm, 135 mm, 180 mm, 200 mm, 300 mm, 400 mm, 500 mm, 600 mm, 700 mm y 800 mm.
A 6.096 metros, una lente de 400 mm en una cámara Nikon D800 permite una GSD de 7,4 cm, una lente de 600 mm una GSD de 5,0 cm y una lente de 800 mm una GSD de 3,7 cm.
Pueden encontrarse lentes estándar y de gran angular de reserva, adecuadas para su uso como lentes 116 de visión general, en diversas distancias focales que habitualmente incluyen 10,5 mm, 14 mm, 16 mm, 18 mm, 20 mm, 21 mm, 24 mm, 28 mm, 35 mm, 40 mm, 45 mm, 50 mm, 55mm, 60mm y 70mm.
La unidad 100 de cámaras se adapta fácilmente a diferentes modelos y tamaños de cámaras 110 (y 112) y lentes 114 (y 116), a través de diferentes monturas 140 (y 142) de cámara y abrazaderas 144 (y 146). Para lentes extremadamente largas puede usarse un soporte central 122 más alto.
Como se muestra en la Fig. 6 y la Fig. 7, las cámaras de detalle están inclinadas hacia dentro para que sus campos 162 de visión se crucen directamente debajo de la unidad 100 de cámaras, creando una parte central con un diámetro mínimo donde los campos de visión pasan a través del orificio 212 para cámaras. Esto hace que la unidad 100 de cámaras sea compatible con los orificios para cámara estándar de 50,8 cm, así como con orificios de cámara tan pequeños como aproximadamente 43,18 cm.
La Fig. 8 muestra la proyección de los campos 160 y 170 de visión tridimensionales de las cámaras 110 de detalle y la cámara 112 de visión general, sobre un plano de tierra. Muestra cómo el campo de detalle de las vistas 160 se superpone en una dirección perpendicular a la dirección 220 de vuelo.
La Fig. 9 muestra una placa adaptadora 200 que se fija a las pistas 214 de asiento de una aeronave, en este caso una Cessna 208, a través de sujetadores 202 de pista de asiento estándar. La placa adaptadora tiene una abertura 216 que expone un orificio 212 para cámara a través del suelo 210 de la aeronave.
La Fig. 10 muestra una vista despiezada de la unidad 100 de cámaras, la placa adaptadora 200 y el suelo 210 de la aeronave. La placa adaptadora 200 está diseñada para fijar la unidad 100 de cámaras a una aeronave en particular, y aísla el diseño de la unidad 100 de cámaras con respecto a las características específicas de la aeronave. Se ha diseñado una placa adaptadora diferente para cada variación de acoplamiento de la aeronave, p. ej. debido a diferentes separaciones de las pistas de asiento, o porque la instalación del orificio para cámaras de la aeronave incluye sus propios puntos de montaje.
Cuatro puntos 132 de montaje están atornillados a la placa adaptadora, coincidiendo cada punto 132 de montaje con un rebaje en la base de su correspondiente bloque 134 de punto de montaje. Un perno 143 de montaje fija firmemente cada bloque 134 de punto de montaje a su correspondiente punto 132 de montaje, fijando así la unidad 100 de cámaras a la placa adaptadora 200.
La placa adaptadora 200 permite instalar y desinstalar fácilmente la unidad 100 de cámaras en una aeronave, mediante la instalación y desinstalación de los cuatro pernos 143 de montaje. La placa adaptadora 200 generalmente se instala y desinstala fácilmente en una aeronave, sin necesidad de modificaciones en la aeronave (suponiendo que ya se haya instalado un orificio para cámaras adecuado). La instalación de la cápsula externa de cámaras generalmente es una operación mucho más complicada.
La Fig. 11 muestra una unidad 100 de HyperCamera V5-180, que utiliza lentes 114 más cortas de 180 mm para las cámaras 110 de detalle y una correspondiente lente de 28 mm para la cámara 112 de visión general.
Cuando se utiliza una cámara Nikon D800 de 36 megapíxeles (que tiene un tamaño de píxel de 4,88 micrones), una lente de 180 mm permite una distancia de muestreo respecto a tierra (GSD) de 9,9 cm a 3.657,6 metros, 8,3 cm a 3.048 metros, 6,6 cm a 2.438,4 metros, 5 cm a 1.828,8 metros, 3,3 cm a 1.219,2 metros, y así sucesivamente. La Fig. 11 muestra el campo 162 de visión lateral de 11,40 grados de cada una de las cinco cámaras 110 de detalle, con lentes 114 de 180 mm, y el campo lateral de 65,50 grados de la cámara 112 de visión general con una lente 116 de 28 mm.
Como se muestra, las cámaras de detalle tienen un ángulo de 10,50 grados de separación lateral, es decir, ligeramente menor que sus campos 162 de visión de 11,40 grados, de modo que los campos 162 de visión se superponen ligeramente.
La Fig. 12 muestra la proyección de los campos 160 y 170 de visión tridimensionales de las cámaras 110 de detalle y la cámara 112 de visión general de la Fig. 10, sobre un plano de tierra. Muestra cómo el campo de detalle de las vistas 160 se superpone en una dirección perpendicular a la dirección 220 de vuelo, y cómo los campos de visión más amplios asociados con lentes más cortas llevan a una altitud de vuelo más baja para la misma huella sobre tierra, es decir, en comparación con la Fig. 8.
La Fig. 13 y la Fig. 14 muestran vistas en planta de una aeronave 230 de reconocimiento Cessna 208, que transporta una unidad 100 de cámaras instalada centralmente sobre un orificio para cámaras. Las figuras también muestran una unidad 310 de control de cámara (CCU) y una unidad 320 de batería, que se utilizan para controlar y alimentar la unidad 100 de cámaras. Éstas se describen con más detalle a continuación. Para mayor claridad, se han omitido los cables que conectan la CCU 310, la unidad 320 de batería y la unidad 100 de cámaras.
La Fig. 15 muestra un alzado frontal de la aeronave 230 de reconocimiento Cessna 208, que transporta una HyperCamera, y muestra el campo 172 de visión lateral de la unidad 100 de cámaras, y el campo 182 de visión de detalle lateral de la unidad 100 de cámaras. El campo 182 de visión de detalle lateral agregado es el agregado de los cinco campos 162 de visión de detalle laterales superpuestos individuales.
La Fig. 16 muestra un alzado lateral de la aeronave 230 de reconocimiento Cessna 208, que transporta una HyperCamera, y muestra el campo 174 de visión general longitudinal de la unidad 100 de cámaras, y el campo 164 de visión de detalle longitudinal de la unidad 100 de cámaras.
La Fig. 17 muestra los campos 170 de visión general superpuestos y los campos 180 de visión de detalle agregados de tres tomas sucesivas en la dirección 220 de vuelo. El campo 180 de visión de detalle agregado es el agregado de los cinco campos 160 de visión de detalle superpuestos individuales. En la velocidad de disparo de cámara ilustrada en la figura (es decir, tal como implica la superposición longitudinal), los campos 180 de visión de detalle agregados se superponen longitudinalmente aproximadamente en un 20 %, mientras que los campos 170 de visión general se superponen longitudinalmente aproximadamente en un 85 %.
La Fig. 18 muestra los campos 170 de visión general superpuestos y los campos 180 de visión de detalle agregados de dos capturas, desde líneas de vuelo adyacentes, es decir con un vuelo en direcciones opuestas 220. En la separación entre líneas de vuelo ilustrada en la figura, los campos 180 de visión de detalle agregados se superponen lateralmente entre un 20 % y un 25 %, mientras que los campos 170 de visión general se superponen lateralmente aproximadamente un 40 %.
Suponiendo que las cámaras 110 de detalle y la cámara 112 de visión general tengan recuentos y tamaños de píxel similares, el tamaño del campo 172 de visión general lateral y el tamaño del campo 182 de visión de detalle lateral agregado serán similares, cuando la relación entre distancia focal de la lente 114 de cámara de detalle y la distancia focal de la lente 116 de cámara de visión general sea aproximadamente 6, y pueden elegirse combinaciones de lentes útiles con relaciones de distancia focal entre aproximadamente 4 y 8.
La Fig. 19 muestra los campos 180 de visión de detalle agregados superpuestos de una sucesión de capturas a lo largo de tres líneas de vuelo adyacentes, que forman parte de una trayectoria 222 de vuelo serpentina habitual, es decir, un subconjunto de las líneas de vuelo que conformarían un levantamiento de área grande habitual. Para una mayor claridad, se han omitido los correspondientes campos 170 de visión general. La figura también muestra la posición 224 de disparo correspondiente a cada campo 180 de visión de detalle agregado, es decir, la posición de la aeronave 230 de reconocimiento.
Como ya se ha mencionado, los levantamientos aéreos tradicionales de resolución única normalmente se realizan con un solapamiento de 60/40, es decir, un 60 % de solapamiento hacia delante (o longitudinal), y un 40 % de solapamiento lateral. Con la HyperCamera de resolución múltiple, operada como se muestra en las Figs. 17 a 19, las fotos generales se capturan con una superposición de 85/40, y las fotos de detalle se capturan con una superposición de 20/20, como máximo.
En comparación con un sistema de cámaras aéreas de resolución única tradicional y un conteo de píxeles de detalle agregado comparable (p. ej. 160 megapíxeles), la HyperCamera es entre 2 y 3 veces más eficiente, como se detalla a continuación, con respecto al tiempo reducido de vuelo de levantamiento y en lo referente a un menor número de fotos a procesar. La HyperCamera también presenta una mayor eficiencia que muchos sistemas de cámaras aéreas, ya solo por su alto conteo de píxeles (detalle).
Como alternativa a la captura de fotografías tanto de visión general como de detalle, puede usarse la HyperCamera para capturar solo fotos de detalle, con una mayor superposición (p. ej. 60/40 en lugar de 20/20), para permitir la creación de un ortomosaico con mayor precisión espacial, pero a costa de un mayor número de capturas y costos de procesamiento. En este caso, la cámara de visión general 112 puede omitirse o usarse para otro propósito.
Para analizar la eficiencia relativa de una HyperCamera de resolución múltiple, asumamos una configuración de la HyperCamera de resolución múltiple con una superposición lateral de X %, una superposición longitudinal de Y %, N cámaras 110 de detalle y M cámaras 112 de visión general, y en comparación, una configuración de la HyperCamera de resolución única con una superposición lateral de A %, una superposición longitudinal de B %, N cámaras de detalle y ninguna cámara de visión general. Suponiendo que X es menor que A, la mejora en la eficiencia lateral, como se refleja por una mayor separación de las líneas de vuelo, un menor tiempo de vuelo y un número menor de fotos de detalles capturadas, viene dada por (1-X)/(1-A). Del mismo modo, suponiendo que Y sea menor que B, la mejora en la eficiencia longitudinal, como se refleja por una mayor separación de las capturas, un tiempo de vuelo más corto y un menor número de fotos de detalle capturadas, viene dada por (1-Y)/(1-B). La mejora general en la eficiencia viene dada por (1-X)(1-Y)/(1-A)(1-B). Esto debe descontarse por la sobrecarga de la captura de fotos de visión general, es decir, multiplicarse por un factor de (N/(N+M)). Para X/Y=20/20, A/B=60/40, N=5 y M=1, la mejora de la eficiencia neta es 2,2.
La mayor eficiencia conlleva el costo de llevar a cabo ciertos cálculos fotogramétricos a la resolución más baja de la cámara 112 de visión general, en lugar de a la resolución más alta de las cámaras 110 de detalle. Sin embargo, esto se compensa, al menos parcialmente, por la mayor superposición entre las fotos de visión general que en la práctica tradicional.
La Fig. 20 muestra un diagrama de bloques de un sistema de alimentación y control para la unidad 100 de cámaras. Las cámaras 110 de detalle y la cámara 112 de visión general se controlan mediante un ordenador 300 a través de una interfaz 308 de cámaras, que puede consistir en un conjunto de interruptores digitales que activen las interfaces de control remoto de las cámaras.
El ordenador 300 usa uno o más receptores 304 del Sistema de navegación por satélite global (GNSS), para monitorear la posición y la velocidad de la aeronave 230 de reconocimiento a tiempo real. El uno o más receptores GNSs pueden ser compatibles con diversos sistemas de navegación por satélite basados en el espacio, incluyendo el Sistema de posicionamiento global (GPS), GLONASS, Galileo y BeiDou.
El ordenador 300 proporciona señales de disparo de tiempo preciso a las cámaras 110 y 112 a través de la interfaz 308 de cámaras, para activar la exposición de la cámara, de acuerdo con un plan de vuelo almacenado y la posición y velocidad a tiempo real de la aeronave. Si una cámara 110 y/o 112 incorpora un mecanismo de enfoque automático, entonces el ordenador 300 también proporciona una señal de enfoque a cada una de estas cámaras para activar el enfoque automático antes de la exposición.
El ordenador 300 activa la cámara 112 de visión general y las cámaras 110 de detalle a la misma velocidad. Alternativamente, el ordenador 300 puede activar la cámara 112 de visión general a una velocidad diferente a la de las cámaras 110 de detalle, es decir, a una velocidad más alta o bien a una más baja, para lograr una superposición diferente entre las fotos de visión general sucesivas, es decir, una superposición más alta o una superposición más baja, independientemente de la superposición entre sucesivas fotos de detalle. El ordenador 300 puede activar las cámaras simultáneamente, o puede escalonar el tiempo de disparo, p. ej. para lograr una alineación diferente de las fotos en forma longitudinal, o para reducir el consumo máximo de energía.
El plan de vuelo describe cada línea de vuelo que compone el levantamiento, y la velocidad de disparo nominal de las cámaras a lo largo de cada línea de vuelo requerida para asegurarse de que se mantenga la superposición necesaria entre disparos sucesivos. La velocidad de disparo es sensible a la elevación del terreno debajo de la aeronave, es decir, cuanto más alto sea el terreno, más alta deberá ser la velocidad de disparo. Esto lo ajusta el ordenador 300 en función de la velocidad real sobre tierra de la aeronave, que puede variar con respecto a su velocidad nominal debido al viento y al manejo del/la piloto de la aeronave.
El ordenador 300 también utiliza el plan de vuelo y la posición GNSS a tiempo real para guiar al/la piloto a lo largo de cada línea de vuelo, a través de una pantalla 302 para piloto.
Como se muestra en la Fig. 20, los datos de posición del receptor GNSS pueden aumentarse opcionalmente con información de orientación (cabeceo, alabeo y guiñada) desde una unidad 306 de medición inercial (IMU). Permite que el ordenador 300 brinde información mejorada al/la piloto sobre cómo de cerca está de seguir el plan de vuelo, y permite un procesamiento más preciso de las fotos. En caso de que la IMU 306 no esté presente, el receptor GNSS se conecta directamente al ordenador 300.
Cada cámara 110 y 112 almacena sus capturas localmente, p. ej. en una memoria flash extraíble. Esto elimina la necesidad de almacenamiento centralizado en el sistema de la HyperCamera, y la necesidad de un canal de comunicación de datos con un ancho de banda grande entre las cámaras y el almacenamiento centralizado.
Puede proporcionarse la posición GNSS de cada captura a cada cámara 110 y 112, para permitir que la cámara etiquete cada foto con su posición GNSS.
Una o más unidades 330 opcionales de compensación de movimiento angular (AMC), que responden a la orientación reportada por la IMU 306, corrigen la orientación de las cámaras de manera que mantengan una dirección de apuntamiento consistente a lo largo del tiempo, a pesar del cabeceo, alabeo y guiñada de la aeronave durante el vuelo. Esto asegura que las fotos capturadas puedan usarse para crear un ortomosaico sin espacios vacíos, al tiempo que permite minimizar la superposición entre capturas sucesivas y entre líneas de vuelo adyacentes.
La unidad 330 de AMC puede consistir en una plataforma con dos o tres ejes de rotación (es decir, balanceo e inclinación, o balanceo, inclinación y guiñada) sobre la cual se monta la unidad 100 de HyperCamera. Algunas plataformas 330 de AMC o de estabilización disponibles comercialmente incluyen la serie PAV de Leica Geosystems, incluyendo la PAV100, y la PV-15G de PV Labs, por ejemplo, como se describe en la Patente de Estados Unidos n.° 6.263.160 (Lewis), cuyos contenidos se incorporan en el presente documento como referencia. Alternativa o adicionalmente, las unidades 330 de AMC pueden comprender uno o más mecanismos de dirección de haz en la trayectoria óptica de cada cámara (o grupo de cámaras), de modo que se corrija la dirección de apuntamiento de las cámaras mediante la dirección de haz. Por ejemplo, la compensación de cabeceo y alabeo puede proporcionarse mediante uno o más mecanismos de dirección de haz, mientras que la compensación de guiñada se proporciona mediante una plataforma 330 de AMC separada.
La compensación del movimiento angular resulta cada vez más importante a medida que aumenta la altitud de vuelo y/o disminuye la GSD.
El desenfoque por movimiento, debido al movimiento hacia delante de la aeronave, es igual a la velocidad de la aeronave multiplicada por el tiempo de exposición de la cámara. Una vez que el desenfoque por movimiento se convierte en una fracción significativa de (o supera), la GSD pasa a ser útil para proporcionar un mecanismo de compensación de movimiento hacia delante (FMC), para reducir o eliminar el desenfoque por movimiento. La FMC puede proporcionarse de diversas formas, incluyendo la traslación o la rotación del eje óptico de la cámara (moviendo el sensor de imagen, un espejo intermedio o la propia cámara) o la integración de demora de tiempo (TDI) de líneas adyacentes de píxel en el sensor de imagen.
El ordenador 300 almacena la posición GNSS de cada captura. Esto se utiliza durante el posterior procesamiento de las fotos para producir un ortomosaico preciso. El ordenador 300 también almacena la orientación de cada captura si la IMU 306 está presente, y almacena la orientación corregida de cada captura si está presente una unidad 330 de AMC, en función de la información de corrección de AMC.
Las cámaras 110 y 112 están alimentadas por una unidad 320 de batería. La unidad 320 de batería proporciona un voltaje más alto que el requerido por todos los componentes conectados, por ejemplo, entre 24 V y 28 V, y el requisito de voltaje de cada componente conectado se proporciona a través de un de convertidor CC-CC 326. Por ejemplo, una cámara Nikon D800 requiere menos de 10V. Unos convertidores CC-CC 326 adicionales también proporcionan los voltajes adecuados para alimentar el ordenador 300, la pantalla 302 para piloto, el receptor GNSS 304 y la IMU 306. Para mayor claridad, estas conexiones de alimentación se han omitido en la Fig. 20.
La unidad 320 de batería contiene dos baterías de 12 V (nominales) o una sola batería de 24 V (nominales). Contiene un circuito de carga que le permite ser cargada por goteo desde una aeronave, con una fuente 322 de alimentación auxiliar adecuada, lo que le permite permanecer cargada en todo momento. También se puede cargar en tierra con una unidad 324 de suministro de energía en tierra (GPU).
La interfaz 308 de cámaras y los convertidores CC-CC 326 pueden alojarse en una unidad 310 de control de cámaras (CCU). Ésta también puede incluir una interfaz USB para permitir que el ordenador 300 controle la interfaz de cámaras.
Los convertidores CC-CC 326 que proporcionan energía a las cámaras 110 y 112 pueden ubicarse en la CCU 310, o más cerca de las cámaras en unas cajas 150 de distribución.
Las fotos capturadas por la HyperCamera están diseñadas para quedar cosidas a la perfección en un ortomosaico, y la Fig. 21 muestra un flujo de proceso fotogramétrico para crear de manera eficiente un ortomosaico a partir de fotos de HyperCamera de resolución múltiple. El proceso se ejerce sobre fotos detalladas 400 capturadas por las cámaras 110 de detalle, y sobre fotos 402 de visión general capturadas por las cámaras 112 de visión general. El proceso consta de cuatro pasos principales: (1) se detectan automáticamente características en cada una de las fotos 400 y 402, y se hacen coincidir entre las fotos (paso 410); se utiliza ajuste en bloque para refinar iterativamente las estimaciones iniciales de la posición tridimensional en mundo real de cada característica, así como la posición de la cámara (posición y orientación tridimensional) y la calibración de la cámara (distancia focal, distorsión radial y tangencial) asociada con cada foto (en el paso 412); se ortorectifica cada foto 400 de detalle de acuerdo con la posición de la cámara y los datos de elevación del terreno (en el paso 414); y se mezclan las fotos ortorectificadas (ortofotos) para formar el ortomosaico final 404 (en el paso 416).
Los datos de elevación (usados en el paso 414) pueden derivarse de las posiciones de características tridimensionales (refinadas durante el paso 412); y/o pueden derivarse de una coincidencia densa estéreo de múltiples vistas entre fotos (véanse, por ejemplo, la Patente de Estados Unidos n.° 8.331.615 (Furukawa), y la Patente de Estados Unidos n.° 8.634.637 (Hirschmueller et al); y/o pueden obtenerse de otra fuente, tal como un levantamiento LIDAR del área de interés. Los datos de elevación pueden estar en la forma de un modelo de elevación digital vectorial o ráster (DEM), o en la forma de una nube de puntos tridimensional, o en la forma de un modelo geométrico tridimensional. Pueden incluir características de la superficie, tales como vegetación y edificios, o pueden describir el terreno desnudo.
La precisión del ortomosaico 404 se deriva de la alta superposición entre las fotos 402 de visión general de baja resolución, mientras que el detalle en el ortomosaico 404 se deriva de las fotos 400 de detalle de mayor resolución. A modo de alternativa, como se indicó anteriormente, puede llevarse a cabo un levantamiento con una mayor superposición entre las fotos 400 de detalle, y el ortomosaico puede crearse a partir de las fotos 400 de detalle solamente.
El ortomosaico generalmente se almacena como una pirámide de imágenes, es decir, dentro de la cual se calculan previamente diferentes niveles de zoom (binarios) para un acceso rápido a cualquier nivel de zoom. Los niveles de zoom más bajos en la pirámide se generan a partir de niveles de zoom más altos, mediante filtrado de paso bajo y submuestreo, por lo que toda la pirámide puede generarse a partir del ortomosaico con resolución de detalle. Como alternativa, pueden generarse niveles de zoom más bajos a partir de un ortomosaico creado a partir de las fotos 402 de visión general, en cuyo caso también se ortorectifican y se combinan las fotos 402 de visión general, como se ha descrito anteriormente para las fotos 400 de detalle.
Se deriva una estimación inicial de la posición de la cámara para cada foto, refinada posteriormente mediante el proceso de ajuste en bloque (en el paso 412), a partir de la posición GNSS de cada foto, así como de su orientación derivada de IMU, en caso de estar disponible.
Las características del terreno detectadas automáticamente pueden aumentarse con puntos de tierra identificados manualmente, cada uno de los cuales puede tener una posición del mundo real inspeccionada de manera precisa (que luego se conocerá como un punto de control de tierra).
Las HyperCameras V5-300 y V5-180 son dos modelos de la gama HyperCamera. Puede lograrse incluso una mayor eficiencia si se opera a altitudes más altas con distancias focales más largas, y las configuraciones adicionales de la HyperCamera se describen a continuación.
La Fig. 22 tabula la GSD en función de la altitud de vuelo sobre el suelo (en metros), y la distancia focal del objetivo de 100 mm a 600 mm (en incrementos de 100 mm). También tabula la amplitud de barrido (en km) de los campos de visión de 30 grados y 45 grados, en función de la altitud. Además, tabula el número de cámaras de detalle requeridas para cubrir estos campos de visión en función de la distancia focal.
La Fig. 23 tabula adicionalmente la GSD en función de una distancia focal de 700 mm a 1200 mm.
A partir de las tablas de las Figs. 22 y 23, resulta instructivo comparar las características de las configuraciones de las HyperCameras V5-300, V10-600 y V15-900. Cada configuración tiene aproximadamente el mismo campo de visión lateral de 30 grados, pero suponiendo una GSD de 5 cm, las correspondientes amplitudes de barrido son 1,6 km, 3,3 km y 4,9 km respectivamente (correspondientes a altitudes de vuelo de 3.048, 6.096 y 9.144 metros respectivamente). De manera crucial, la eficiencia de captura relativa será entonces 1x, 2x y 3x, respectivamente (asumiendo la misma velocidad de la aeronave).
Se puede lograr una HyperCamera V10-600 de 30 grados utilizando dos unidades de HyperCamera V5-600 de 15 grados en tándem, cada una de ellas montada sobre una placa adaptadora 200 en forma de cuña que induzca la inclinación lateral requerida de 7,5 grados.
Se puede lograr una HyperCamera V15-600 de 45 grados utilizando tres unidades de HyperCamera V5-600 de 15 grados en tándem, montándose la unidad central de manera plana, y montándose cada una de las dos unidades exteriores sobre una placa adaptadora 200 en forma de cuña que induzca la Inclinación lateral de 15 grados.
Se puede lograr una HyperCamera V15-900 de 30 grados utilizando tres unidades de HyperCamera V5-900 de 10 grados en tándem, montándose la unidad central de manera plana, y montándose cada una de las dos unidades exteriores sobre una placa adaptadora 200 en forma de cuña que induzca la inclinación lateral de 10 grados.
Alternativa o adicionalmente, para utilizar una forma de cuña para inducir la inclinación lateral requerida, la placa adaptadora 200 puede comprender uno o más mecanismos de ajuste de inclinación en bruto y/o en detalle, para permitir ajustar la inclinación de la unidad 100 de cámaras tanto nominalmente como para compensar las variaciones en la inclinación del suelo de la aeronave. Los mecanismos de inclinación pueden comprender uno o más calzos, uno o más tornillos de desviación o similares.
El ajuste de inclinación también se puede proporcionar a través del mecanismo de compensación de rodillo de la unidad (AMC) de compensación de movimiento angular 330, si está presente, ajustando el rodillo nominal preestablecido de la unidad 100 de cámaras.
Las Figs. 24A, 24B y 24C muestran las huellas de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de vuelo constante de 3.657,6 metros. La cuadrícula discontinua en las figuras tiene una separación de 1 km. Las figuras muestran la misma amplitud de barrido, pero con una GSD creciente.
Las Figs. 25A, 25B y 25C muestran tres huellas superpuestas sucesivas de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de vuelo constante de 3.657,6 metros. Con el fin de garantizar una adecuada superposición longitudinal, la velocidad de disparo aumenta al aumentar la resolución.
Las Figs. 26A, 26B y 26C muestran dos huellas superpuestas de dos líneas de vuelo adyacentes de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de vuelo constante de 3.657,6 metros. La Fig. 27 muestra una elevación frontal de una aeronave Cessna 208 que transporta una HyperCamera V10-600 que comprende dos unidades de cámara V5-600, y los campos de visión de visión general y de detalle agregados resultantes. La línea discontinua muestra la división entre los campos de visión de las unidades de cámara.
La Fig. 28 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V10-600, que comprende dos unidades de cámara V5-600 instaladas en la cabina de la aeronave, y los campos de visión de visión general y de detalle agregados resultantes de cada unidad de cámara.
La Fig. 29 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V10-600, que comprende dos unidades de cámara V5-600 instaladas en una cápsula de carga montada sobre el vientre estándar de la Cessna 208, y los campos de visión de visión general y de detalle agregados resultantes de cada unidad de cámara.
La Fig. 30 muestra un alzado frontal de una aeronave Cessna 208 que transporta una HyperCamera V15-900, que comprende tres unidades de cámara V5-900, y los campos de visión de visión general y de detalle agregados resultantes. La línea discontinua muestra la división entre los campos de visión de las unidades de cámara.
La Fig. 31 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V15-900, que comprende tres unidades de cámara V5-900 instaladas en la cabina de la aeronave, y los campos de visión de visión general y de detalle agregados resultantes de cada unidad de cámara.
La Fig. 32 muestra un alzado lateral de una aeronave Cessna 208 que transporta una HyperCamera V15-900, que comprende tres unidades de cámara V5-900 instaladas en una cápsula de carga montada sobre el vientre estándar de la Cessna 208, y los campos de visión de visión general y de detalle agregados resultantes de cada unidad de cámara.
Las Figs. 33A, 33B y 33C muestran dos huellas superpuestas de dos líneas de vuelo adyacentes de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de vuelo constante de 7.315,2 metros. La cuadrícula discontinua en las figuras tiene una separación de 1 km.
Las Figs. 34A, 34B y 34C muestran dos huellas superpuestas de dos líneas de vuelo adyacentes de las HyperCameras V5-300, V10-600 y V15-900, respectivamente, a una altitud de vuelo constante de 10.972,8 metros. La cuadrícula discontinua en las figuras tiene una separación de 1 km.
En general, puede realizarse un modelo particular de HyperCamera utilizando una cantidad de unidades 100 de cámaras idénticas más pequeñas, cada una montada con el ángulo lateral requerido. Como se muestra en las Figs. 27 a 32, las unidades 100 de cámaras individuales pueden montarse a lo largo del eje longitudinal de la aeronave. El disparo de cada unidad 100 de cámaras puede escalonarse, para tener en cuenta su posición longitudinal y la velocidad de la aeronave, o los desplazamientos longitudinales entre fotos de diferentes unidades de cámara pueden tenerse en cuenta durante el procesamiento posterior.
El diseño de la HyperCamera es, por lo tanto, modular y adecuado para la implementación junto con uno o más orificios de cámara estándar.
Se puede realizar una HyperCamera oblicua, es decir, con una dirección de apuntamiento que no sea vertical (y habitualmente con una dirección de apuntamiento de 45 grados), usando una o más unidades 100 de cámara vertical montadas en el ángulo oblicuo requerido, p. ej. mediante una placa adaptadora inclinada 200, o utilizando una o más unidades 100 de cámaras oblicuas, comprendiendo cada una una serie de cámaras montadas en el ángulo oblicuo requerido, dentro de un bastidor orientado por lo demás verticalmente.
Las fotos aéreas oblicuas tienen varios usos. Se pueden usar para producir un ortomosaico georreferenciado oblicuo, para proporcionar un complemento útil a un ortomosaico vertical. Se pueden usar junto con fotos verticales durante el ajuste fotogramétrico en bloque (como se ha descrito anteriormente en relación con la Fig. 21) para lograr una mayor precisión, incluyendo una mayor precisión en los datos de elevación. Y se pueden usar para texturizar un modelo de elevación o un modelo tridimensional completo del área de interés, para soportar la visualización e interacción tridimensionales.
Las Figs. 35A y 35B muestran unos alzados frontal y lateral, respectivamente, de una aeronave Cessna 208 que transporta cinco HyperCameras instaladas en la cabina de la aeronave: una V10-600 vertical, una R10-600 oblicua derecha, una L10-600 oblicua izquierda, una F10-600 oblicua derecha y una B10-600 oblicua posterior, y los campos de visión de visión general y de detalle agregados resultantes de cada una.
La GSD oblicua (282) de una cámara inclinada en un ángulo (280) con respecto a la vertical viene dada por EQ 9 en la Fig. 44. La GSD vertical (262) se incrementa en un factor del cuadrado de la secante del ángulo de inclinación. El primer término secante se debe a la mayor distancia de visión inducida por la inclinación, mientras que el segundo término secante se debe al acortamiento del suelo inducido por la inclinación. Por lo tanto, una cámara inclinada deberá tener una distancia focal correspondiente más larga para coincidir con la GSD de una cámara vertical.
Para una inclinación de 45 grados, la GSD vertical aumenta en un factor de dos, lo que implica que una cámara oblicua a 45 grados deberá tener el doble de la distancia focal de una cámara vertical para que coincida con la GSD de la cámara vertical. Sin embargo, en la práctica, no existe un requisito estricto para hacer coincidir las GSD de las cámaras verticales y oblicuas, y se puede utilizar cualquier distancia focal adecuada para las cámaras oblicuas. Si el sensor de imagen de la cámara está inclinado para ser paralelo al suelo, el segundo término secante desaparece. La GSD oblicua (286) viene dada por EQ 10 en la Fig. 44. Para una inclinación de 45 grados, la GSD vertical (262) se incrementa solo por un factor de la raíz cuadrada de dos, lo que implica que una cámara oblicua con un sensor inclinado a 45 grados deberá tener 1,4 veces la distancia focal de una cámara vertical para que coincida con la GSD de la cámara vertical.
Sin embargo, la menor GSD sobre las superficies horizontales viene acompañada de una mayor GSD sobre las superficies verticales, tales como los lados de los edificios. Esto, a su vez, puede motivar una estrategia de captura de fotos oblicuas en múltiples pases, optimizándose cada pase para una orientación de superficie particular a través de la inclinación del sensor de imagen.
De manera más general, puede inclinarse el sensor de imagen de cualquier cámara no nadir para que quede (más) paralelo al suelo, para reducir el acortamiento de la perspectiva en las fotos capturadas por la cámara y mejorar así la GSD.
Cada HyperCamera oblicua de 900 mm tiene una GSD un 33 % mayor que la HyperCamera vertical de 600 mm. Una HyperCamera oblicua de 1200 mm tendría la misma GSD que la HyperCamera vertical de 600 mm. Una HyperCamera oblicua con un sensor inclinado de 850 mm también tendría la misma GSD que la HyperCamera vertical de 600 mm.
La Fig. 37 muestra una vista inferior de la unidad 100 de cámaras, donde las cámaras de detalle están dispuestas en un patrón en “X” alternativo para proporcionar más espacio para lentes 114 de detalle más largas, es decir, para acomodar los diámetros más grandes de las lentes más largas. Esta disposición también proporciona espacio para una segunda cámara de resolución más baja (es decir, con una lente más corta), que se puede utilizar para una segunda cámara de visión general o bien para una cámara espectral dedicada, tal como una cámara de infrarrojo cercano (NIR). La inclusión de una segunda cámara de visión general permite que ambas cámaras tengan una mayor distancia focal y, por lo tanto, brinden una mayor resolución y, por lo tanto, una mayor precisión fotogramétrica. Al incluir una cámara de infrarrojo cercano, se puede incluir una banda de infrarrojo cercano en el ortomosaico, lo que a su vez admite aplicaciones tales como la identificación de vegetación.
A medida que aumenta la distancia focal de las lentes 114 de detalle, el tamaño y el peso de un diseño de lente puramente refractivo (dióptrico) se vuelve significativo. Puede realizarse una lente más liviana y físicamente más corta, con la misma distancia focal larga, utilizando un diseño reflectante, es decir, utilizando espejos curvos para enfocar, ya sea utilizando solo espejos (diseño catóptrico) o junto con elementos refractivos correctivos (diseño catadióptrico). Los telescopios astronómicos, que se caracterizan por largas distancias focales y aberturas grandes, suelen utilizar diseños reflectantes. Los diseños modernos clásicos incluyen el Schmidt-Cassegrain, que combina espejos esféricos primarios y secundarios con una placa de corrección Schmidt, y el Ritchey-Chretien, que utiliza espejos hiperbólicos primarios y secundarios.
Así, pueden utilizarse lentes reflectantes 114 de detalle para reducir significativamente el tamaño y el peso de la unidad 100 de cámaras, y esto resulta particularmente beneficioso para distancias focales más largas, tales como 900 mm y más.
La Fig. 38 muestra una unidad 100 de cámaras implementada como una serie de cámaras 600, dispuestas en abanico, y el eje óptico 602 de cada cámara. Esto representa figurativamente cualquiera de los conjuntos de cámaras en la descripción, detalle o descripción general antecedentes, y proporciona contexto para la siguiente descripción. Cada cámara 600 consta de un cuerpo de cámara (por ejemplo, 110 o 112) y una lente de cámara (por ejemplo, 114 o 116).
La Fig. 39 muestra una unidad 100 de cámaras implementada utilizando un módulo 610 de cámara orientable que comprende una sola cámara 600 multiplexada en el tiempo a través de un espejo orientable 604, para producir múltiples trayectorias ópticas que barran el campo angular requerido. Esto permite utilizar una sola cámara para implementar un conjunto de cámaras que utilicen multiplexación en el tiempo, y por lo tanto reduce el número de cámaras físicas necesarias para implementar una HyperCamera, lo que a su vez reduce el tamaño, el peso y el costo de cada unidad 100 de cámaras. Como alternativa a un espejo orientable 604, puede utilizarse cualquier mecanismo de dirección de haz adecuado.
La Fig. 40 muestra una configuración alternativa de una unidad 100 de cámaras implementada utilizando un módulo 610 de cámara orientable, que comprende una sola cámara 600 multiplexada en el tiempo a través de un espejo orientable 604, para producir múltiples trayectorias ópticas. La adición de un espejo fijo 606 permite montar la cámara 600 verticalmente, lo que permite que la unidad 100 de cámaras tenga una base más pequeña.
La Fig. 41 muestra una unidad 100 de cámaras implementada utilizando un módulo 610 de cámara orientable que comprende una sola cámara 600 multiplexada en el tiempo a través de un espejo orientable 604, para producir múltiples trayectorias ópticas, con un espejo orientable 608 adicional que proporciona compensación de movimiento angular (AMC). Esto implementa la unidad 330 de AMC impulsada por IMU. Como alternativa a un espejo orientable 608, se puede usar cualquier mecanismo de dirección de haz adecuado.
El espejo orientable 608 puede usarse adicional o alternativamente para implementar un mecanismo de compensación de movimiento hacia delante (FMC). En el modo de FMC, el espejo se inclina levemente hacia atrás durante la exposición, para que coincida con el movimiento de avance de la aeronave, y se inclina hacia delante nuevamente entre las exposiciones. La inclinación del espejo 608 puede accionarse directamente, o puede oscilarse a una velocidad adecuada para proporcionar la FMC, con la exposición de la cámara sincronizada con la fase hacia atrás de la oscilación. La a Mc y la FMC también pueden proporcionarse mediante espejos separados en cascada. El espejo multiplexor orientable 604 puede detenerse en cada uno de un conjunto de posiciones discretas dentro del campo angular requerido, o puede girarse de manera continua para barrer el campo angular requerido. En este último caso, el movimiento del espejo proporciona una fuente adicional de movimiento sistemático durante la exposición de la cámara, tal como el movimiento hacia delante de la aeronave, y esto puede corregirse utilizando cualquiera de los mecanismos de FMC descritos anteriormente, incluso a través del espejo orientable 608 de compensación de movimiento, o a través de una plataforma 330 de estabilización separada.
La vibración de la aeronave también puede detectarse a través de la IMU, o mediante un dispositivo de detección de vibración adicional, y puede proporcionarse compensación de vibración (VC) utilizando cualquiera de los mecanismos de AMC o FMC descritos anteriormente, incluso a través del espejo orientable 608 de compensación de movimiento, o a través de una plataforma 330 de estabilización separada.
La AMC, FMC y VC también pueden proporcionarse a través del espejo multiplexor 604.
La Fig. 45 muestra una realización del módulo 610 de cámara orientable de la Fig. 41. El espejo multiplexor orientable 604 está fijado a través de una bisagra a una varilla 632 de un motor lineal 630, y el motor lineal 630 está fijado a través de una bisagra a una montura fija 634. El espejo 604 también está fijado mediante una bisagra a la montura 634, alrededor de la cual gira en respuesta al movimiento lineal de la varilla 632. El motor lineal 630 puede utilizar cualquier mecanismo de accionamiento adecuado, incluyendo un mecanismo de accionamiento piezoeléctrico, por ejemplo, como se describe en la Patente de Estados Unidos n.° 6.800.984 (Marth), o como se realiza en el piezomotor lineal Physik Instrumente (PI) M-272, que también incorpora un codificador lineal para un posicionamiento preciso.
El espejo orientable 608 de compensación de movimiento está fijado a una plataforma 636 de inclinación-basculación, que proporciona rotación en dos dimensiones. Alternativamente, la plataforma 636 puede limitarse a la rotación en una dimensión, p. ej. para proporcionar corrección solo para el movimiento del espejo multiplexor 604. La plataforma 636 de inclinación-basculación puede utilizar cualquier motor o accionador adecuado, incluyendo accionadores piezoeléctricos, por ejemplo, como se incorpora en el PI S-340, que también puede incorporar un sensor de galga de tensión para un control preciso de circuito cerrado.
El módulo 610 de cámara orientable de la Fig. 45 permite dirigir el campo 612 de visión de la cámara 600 en un intervalo angular de aproximadamente 50 grados, dependiendo de la apertura de la cámara y, por lo tanto, del diámetro de haz. Orientado adecuadamente, el módulo 610 de cámara orientable puede usarse para proporcionar direccionamiento a través de un intervalo simétrico o un intervalo asimétrico. Un intervalo asimétrico puede formar parte de un mayor intervalo simétrico.
La Fig. 46A y la Fig. 46B muestran el módulo 610 de cámara orientable orientado para cubrir un intervalo asimétrico, de vertical a oblicuo, es decir, la mitad de un intervalo simétrico equivalente. En la Fig. 46A el espejo multiplexor 604 se ha girado en una posición extrema en sentido horario y el campo 612 de visión de la cámara apunta verticalmente. En la Fig. 46B el espejo multiplexor 604 se ha gira en una posición extrema en sentido antihorario, y el campo 612 de visión de la cámara apunta oblicuamente hacia la derecha.
La Fig. 47 muestra una unidad 100 de cámaras implementada utilizando un par de módulos 614 de cámara de detalle dirigibles y un par de cámaras 112 de visión general fijas. Cada módulo 614 de cámara de detalle orientable consiste en un módulo 610 de cámara orientable que comprende un cuerpo 110 de cámara de detalle y una lente 114 de cámara de detalle. Juntos, los dos módulos 614 de cámara de detalle orientables cubren un campo de visión angular lateral continuo de aproximadamente 100 grados.
La Fig. 48A muestra la elevación y el plano del campo de visión gran angular de una unidad 100 de cámaras WS-300 orientables con gran angular de 300 mm, con un par de cámaras 122 de visión general fijas (p. ej. según la Fig. 47), operando a 4.876,8 metros. El campo de visión comprende el campo 180 de visión vertical y los dos campos 510 y 530 de visión oblicuos, dispuestos simétricamente con respecto a la línea 226 de vuelo. La Fig. 48B muestra el correspondiente campo de visión de una unidad de cámaras WS-600 de 600 mm que opera a 8.534,4 metros.
La Fig. 48A se basa en el uso de una unidad de cámaras WS-300 que comprende cámaras Nikon D800 (o similares), mientras que la Fig. 48B se basa en el uso de una unidad de cámaras WS-600 100 que incluye cámaras de detalle que utilizan el sensor de imagen CMOS ON Semiconductor VITA 25K de 25 megapíxeles (o similar), como se describe más adelante. Para fines ilustrativos, todas las siguientes figuras se basan en el uso de cámaras con VITA 25K (o similar).
La Fig. 49A muestra una vista esquemática en planta de un módulo 616 de cámaras de detalle orientables. El eje de dirección de la cámara 620 de detalle corresponde al eje lateral del campo 180 de visión de detalle agregado. Siempre que se haga referencia en los sucesivo a un módulo 616 de cámaras de detalle orientables, también podría utilizarse una serie de cámaras fijas.
El módulo 616 de cámaras de detalle orientables puede implementarse utilizando uno o más módulos 610 de cámaras orientables, cubriendo cada uno parte del campo de visión requerido. Por ejemplo, la Fig. 49B muestra el módulo 616 de cámaras implementado utilizando un par de módulos 614 de cámaras de detalle orientables de medio campo.
El módulo 616 de cámaras de detalle orientables también puede implementarse utilizando uno o más módulos de cámaras oscilantes, como se describe en la Solicitud de Patente de Estados Unidos con n.° de serie 10/313.727 (Partynski et al.), y en la Solicitud de Patente de Estados Unidos con n.° de serie 11/607.511 (Pechatnikov et al.). La Fig. 49C muestra una vista esquemática en planta de un módulo 618 de cámaras de visión general orientables. El eje de dirección de la cámara 622 de visión general corresponde al eje lateral del campo 190 de visión de visión general agregado. El módulo 618 de cámaras de visión general orientables puede implementarse de las mismas diversas formas que el módulo 616 de cámaras de detalle orientables.
La Fig. 49D muestra una vista en planta esquemática de una unidad 100 de cámaras que comprende un par de módulos 614 de cámara de detalle orientables de medio campo y dos cámaras 112 de visión general, es decir, correspondientes a la unidad 100 de cámaras de la Fig. 47.
La Fig. 49E muestra una vista en planta esquemática de una unidad 100 de cámaras que comprende un módulo 616 de cámaras de detalle orientables de campo completo y dos cámaras 112 de visión general, es decir, que proporcionan una funcionalidad equivalente a la unidad 100 de cámaras de la Fig. 47 y la Fig. 49D.
La Fig. 50A muestra una vista en planta esquemática de una unidad 100 de cámaras que comprende un módulo 616 de cámaras de detalle orientables de campo completo y un módulo 618 de cámaras de visión general orientables de campo completo.
La Fig. 50B muestra una vista en planta de un conjunto de campos de visión general y de detalle, verticales y oblicuos de cuatro vías, correspondientes a los campos de visión ilustrados en la Fig. 35A y la Fig. 35B. Las cinco vistas pueden capturarse utilizando cinco unidades 100 de cámaras fijas, como se describe en relación con la Fig. 35A y la Fig. 35B, o usando tres de las unidades 100 de cámaras orientables mostradas en la Fig. 50A.
La Fig. 51A muestra una elevación del campo de visión de una unidad 100 de cámara gran angular, que comprende el campo 180 de visión vertical, campos 510 y 530 de visión oblicuos, y campos 654a y 654b de visión intersticiales. La captura del campo ancho completo, es decir, la inclusión de los campos 654 de visión intersticiales, aumenta la superposición entre las líneas de vuelo adyacentes y la capacidad de observación de puntos dentro de los campos de visión tanto verticales como oblicuos.
La Fig. 51B muestra la elevación y el plano del campo de visión de gran angular continuo de una unidad 100 de cámara WS-600 operando a 8.534,8 metros.
La Fig. 52A muestra los campos de visión laterales superpuestos de una unidad 100 de cámaras gran angular desde tres líneas de vuelo adyacentes, e ilustra cómo los campos de visión intersticiales se superponen con los campos de visión verticales y oblicuos.
La Fig. 52B muestra los campos de visión laterales superpuestos de una unidad 100 de cámaras gran angular desde tres líneas de vuelo adyacentes, mostrando campos de cámara individuales.
La Fig. 53A muestra una vista en planta de los campos de visión de área amplia continua de una unidad 100 de cámaras WS-600, con cámaras 112 de visión general y cámaras 110 de detalle, operando a 8.534,8 metros, mientras que la Fig. 53B muestra el campo de visión de la misma unidad de cámara con solo las cámaras 110 de detalle.
Como se mencionó anteriormente, la unidad 100 de cámaras se puede usar para capturar solamente fotos de detalle, con una mayor superposición, para permitir la creación de un ortomosaico con mayor precisión espacial, y datos de elevación con mayor resolución y precisión.
La superposición longitudinal, es decir, en la dirección 220 de vuelo, se usa normalmente para capturar fotos redundantes de puntos de tierra con disparidad estéreo. Sin embargo, cuando se opera en altitudes más altas, con distancias focales más largas, el ángulo del campo de visión longitudinal de una cámara 110 de detalle es lo suficientemente pequeño como para que exista una pequeña disparidad estéreo en las fotos que se superponen longitudinalmente.
Un enfoque alternativo es capturar imágenes superpuestas utilizando un segundo módulo de cámara que se inclina sobre el eje lateral. La Fig. 53C muestra una unidad 100 de cámaras que comprende dos módulos 616 de cámaras de detalle orientables de campo completo para este propósito. El primer módulo 616a de cámaras captura imágenes verticalmente con respecto al eje lateral, mientras que el segundo módulo 616b de cámaras captura imágenes, por ejemplo, con una inclinación de 20 grados sobre el eje lateral. La inclinación se elige para maximizar la capacidad de observación de los puntos del terreno sin comprometer la precisión de la coincidencia de características.
La Fig. 53D muestra una vista en planta del campo 650a de visión sin inclinar resultante y el campo 650b de visión inclinado de una unidad de cámara WS-600 de doble campo de este tipo que funciona a 8.534,8 metros.
El enfoque tradicional para capturar oblicuos de cuatro vías, como se ejemplifica en la Fig. 50B, es capturar oblicuos en las dos direcciones laterales y las dos direcciones longitudinales, simultáneamente. Sin embargo, esto da como resultado un ángulo de visión más consistente en los oblicuos laterales que en los oblicuos longitudinales, ya que los oblicuos longitudinales tienen un campo de visión horizontal más amplio para acomodar una separación práctico de la línea de vuelo.
Un enfoque alternativo es llevar a cabo dos pases ortogonales sobre el área de interés y capturar dos oblicuos laterales de alta calidad durante cada pase.
Otro enfoque es capturar todos los oblicuos con el mismo campo de visión horizontal estrecho durante una sola pasada y reducir el espaciado de la línea de vuelo, según sea necesario. Al capturar cuatro oblicuos con el mismo campo horizontal estrecho simultáneamente, el enfoque óptimo (es decir, el enfoque que maximiza la separación de la línea de vuelo y, por lo tanto, la eficiencia del levantamiento) es organizar las cuatro direcciones oblicuas a 45 grados con respecto a la línea de vuelo.
La Fig. 54 muestra una unidad 100 compacta de WS-HyperCamera 300 que comprende cuatro módulos 614 de cámara de detalle orientables de medio campo, dispuestos en una configuración en “X” con el fin de capturar de manera óptima cuatro vistas oblicuas de alta calidad en una sola pasada. La unidad 100 de cámaras WS-300 también comprende opcionalmente un par de cámaras de visión general fija, que pueden usarse para imágenes de doble resolución o para capturar bandas espectrales adicionales, como NIR.
Si se desean oblicuos para las cuatro direcciones cardinales (norte, sur, este y oeste), entonces las líneas de vuelo del plan de vuelo pueden orientarse a 45 grados con respecto a las direcciones cardinales.
La Fig. 55A muestra una vista en planta del campo 660 de visión completo de una unidad de cámaras WS-300 de configuración en X que opera a 4.876,8 metros, que consta de dos campos 650a y 650b de visión ortogonales, mientras que la Fig. 55B muestra el campo 660 de visión completo de una unidad de cámaras WS-600 con una configuración en X que opera a 8.534,4 metros. Los dos campos 650 superpuestos proporcionan un grado de superposición y una capacidad de observación suficiente, de modo que no existe la necesidad de superposición longitudinal adicional entre capturas, es decir, más allá del mínimo requerido para evitar los huecos longitudinales. La Fig. 56A muestra una vista en planta esquemática de la unidad 100 de cámaras compacta con una configuración en X de la Fig. 54, mientras que la Fig. 56B muestra la unidad 100 de cámaras con configuración en X menos compacta que comprende dos módulos 616 de cámaras de detalle orientables de campo completo, dispuestos ortogonalmente. Pueden desplegarse sobre dos orificios de cámara, si es necesario.
Para evitar la reducción en la separación de las líneas de vuelo requerida por la configuración en X, se puede usar un módulo 616 de cámaras de detalle adicional para capturar un campo perpendicular a la dirección 220 de vuelo. Este campo adicional se puede usar para crear el ortomosaico vertical, mientras que los dos campos de configuración ortogonal en X se utilizan para crear ortomosaicos oblicuos (así como para aumentar la capacidad de observación de todos los puntos del terreno).
Si no se reduce la separación de las líneas de vuelo para acomodar los campos de configuración en X girados, entonces los campos de visión oblicuos dentro de cada campo de gran angular serán correspondientemente más grandes, lo que resulta en oblicuos de calidad ligeramente inferior.
La Fig. 57A muestra una vista en planta de los campos 650a, 650b y 650c de visión de una unidad de cámaras WS-600 con una configuración X 1 de este tipo, que opera a 8.534,4 metros.
La Fig. 57B muestra una vista esquemática en planta de una correspondiente unidad 100 de cámaras, que comprende dos pares de módulos 614 de cámara de detalle orientables de medio campo dispuestos con una configuración en X, así como un módulo 616 de cámaras de detalle orientables de campo completo para el campo vertical perpendicular.
La Fig. 58A muestra una vista en planta de tres capturas sucesivas 660a, 660b y 660c de una unidad 100 de cámaras WS-600 con una configuración en X que opera a 8.534,4 metros.
La Fig. 58B muestra una vista en planta de las capturas 660a y 660b de dos líneas 226a y 226b de vuelo adyacentes, de una unidad 100 de cámaras WS-600 con configuración en X que opera a 8.534,4 metros.
La huella longitudinal (b, 672) de una cámara aérea está determinada por su ángulo de campo de visión longitudinal (delta, 670) y su altitud (a, 254), por EQ 11 en la Fig. 59. La separación longitudinal entre capturas (d, 676) está determinada por la huella longitudinal (b, 672) y la superposición longitudinal deseada (c, 674), por EQ 12 en la Fig. 59. La velocidad de disparo (r) está determinada por la separación entre capturas (d, 676) y la velocidad (v, 678) de la aeronave, dadas por Eq 13 en la Fig. 59.
Como se ha descrito en relación con la anterior Fig. 43, el ángulo del campo de visión lateral (gamma, 270) de un conjunto serie de cámaras es una función del número de cámaras (N), el ángulo del campo de visión lateral (beta, 250) de cada cámara y la superposición angular lateral (omega, 272) entre cámaras adyacentes. Del mismo modo, el número de cámaras (N) necesarias para cubrir un ángulo de campo de visión particular está determinado por el ángulo de campo de visión lateral objetivo (gamma, 270), el campo de visión lateral (beta, 250) de cada cámara, y la superposición angular (omega, 272) entre cámaras adyacentes, dados por EQ 14 en la Fig. 60.
Si se realiza el número requerido de cámaras (N) virtualmente multiplexando en el tiempo un número menor de cámaras físicas (C), entonces la velocidad secuencial (q) de cada cámara se determina por el número requerido de cámaras (N), el número de las cámaras físicas (C), la velocidad de disparo (r) y el ciclo de trabajo (u) del mecanismo de dirección por haz de multiplexación en el tiempo, dados por EQ 15 en la Fig. 60.
El ángulo del campo de visión lateral utilizable (phi, 680) es el ángulo del campo de visión dentro del cual las imágenes son lo suficientemente consistentes para su uso en la creación de un ortomosaico vertical. Puede ser tan bajo como 20 grados, o tan alto como 45 grados, dependiendo de la calidad requerida del ortomosaico resultante. Esto determina a su vez la separación de las líneas de vuelo (e, 682), dada por eQ 16 en la Fig. 60.
En general, deberá minimizarse la separación de las líneas de vuelo (e, 682) para maximizar la capacidad de observación de los puntos de tierra y evitar puntos de tierra no observados (p. ej., en cañones urbanos). Esto resulta particularmente importante para generar modelos digitales de superficie de alta calidad, ortomosaicos reales y superficies texturizadas en 3D.
La velocidad a la cual se captura el área del suelo mediante un sistema de cámaras aéreas está determinada por la separación de las líneas de vuelo (e, 682) y la velocidad (v, 678) de la aeronave, dadas por EQ 17 en la Fig. 60. Cuando se gira el campo de visión con un ángulo de rotación del eje distinto de cero (lambda, 686), es decir, relativo a una línea nominal perpendicular a la línea 226 de vuelo, cambian diversos parámetros de captura. La separación entre capturas resultante (d (lambda), 690) es mayor, dada por EQ 18 en la Fig. 61. La velocidad de disparo resultante (r (lambda)) es menor, dada por EQ 19 en la Fig. 61. La separación de las líneas de vuelo (e(lambda), 692) es más pequeña, dada por EQ 20 en la Fig. 61. La velocidad secuencial resultante (q(lambda)) es menor, dada por EQ 21 en la Fig. 61. Y la velocidad de captura de área resultante (R(lambda)) es menor, dada por EQ 22 en la Fig. 61.
La Fig. 62 muestra un diagrama de bloques mecánico y electrónico de la unidad 100 de cámaras con uno o más módulos 610 de cámaras orientables, y representa una variación del diagrama de bloques de la Fig. 20. Los bloques tienen las mismas funciones que en la Fig. 20, excepto por lo descrito a continuación. Se ha omitido la alimentación por claridad.
El ordenador 300 controla uno o más módulos 610 de cámaras orientables, que se describen más adelante. Las imágenes a tiempo real de los módulos de cámaras se comprimen mediante uno o más módulos 700 de entrada/salida de imagen y se almacenan en uno o más dispositivos 702 de almacenamiento de imágenes. El uno o más módulos 700 de entrada/salida de imagen también pueden proporcionar al ordenador acceso a las imágenes, tanto para el monitoreo a tiempo real como para la posterior recuperación. Los dispositivos 702 de almacenamiento de imágenes comprenden medios extraíbles para permitir el envío desde el campo a una instalación de procesamiento. El uno o más módulos 700 de entrada/salida de imagen y el uno o más dispositivos 702 de almacenamiento de imágenes pueden incorporarse en cada cámara 600 individual (p. ej. cuando la cámara 600 sea una DSLR, tal como una Nikon D800), o pueden estar separados.
La compresión de imagen puede utilizar cualquier esquema adecuado, incluyendo JPEG o un esquema de compresión similar basado en DCT, o JPEG2000 o un esquema de compresión similar basado en wavelet, implementado en hardware o software.
El ordenador 300 puede monitorear la calidad de las fotos capturadas por las cámaras, y dirigir al piloto (o piloto automático) para que vuelva a volar sobre las partes del plan de vuelo que se hayan visto afectadas. El ordenador 300 puede monitorear las fotos para detectar un mal enfoque, una mala exposición, la presencia de nubes u otros objetos no deseados tales como otros aviones, etc.
El dispositivo 704 de entrada para piloto permite al piloto proporcionar información al ordenador, incluyendo la selección de planes de vuelo, el reconocimiento de alertas, la navegación por imágenes, el control de calidad, etc. Puede incluir cualquier dispositivo adecuado, tal como una pantalla táctil (junto con la pantalla 302 para piloto), tableta, teclado, etc.
El ordenador 300 puede controlar el piloto automático 706 de la aeronave para dirigir la misma a lo largo de cada línea de vuelo del plan de vuelo, y entre las mismas.
La Fig. 63 muestra un diagrama de bloques electrónico y mecánico del módulo 610 de cámaras orientables. Los acoplamientos mecánicos se muestran con líneas discontinuas.
El ordenador 300 mantiene la sincronización a nivel de captura y proporciona la misma a un microcontrolador 710, a través de señales a la interfaz 712 de control del microcontrolador. La interfaz 712 de control puede incluir una interfaz en serie, de USB o de Ethernet, o cualquier otra interfaz adecuada.
El microcontrolador 710 mantiene la sincronización a nivel de trama, y la proporciona a la cámara 600 a través de la interfaz 714 de control de cámaras. El microcontrolador 710 proporciona control a nivel de trama del espejo multiplexor 604, a través de señales a su controlador 640, y al espejo 608 de compensación de movimiento (MC), a través de señales, a su controlador 642.
El microcontrolador 710 informa al ordenador 300 del ángulo de giro lateral de cada foto, lo que permite que el ordenador 300 incluya el ángulo de giro lateral en la estimación inicial de la postura de cámara de cada foto. Esto se refina posteriormente mediante un proceso de ajuste en bloque (en el paso 412 en la Fig. 21), como se describió anteriormente. Los metadatos de la foto, incluyendo la exposición, el tiempo y la pose, pueden almacenarse mediante el ordenador 300 y/o almacenarse junto a cada foto en el uno o más dispositivos 702 de almacenamiento de imágenes.
La cámara 600 produce un flujo de imágenes en su interfaz 716 de flujo de imágenes. La interfaz 716 de flujo de imágenes puede comprender una interfaz en serie, de USB o de Ethernet, una interfaz de alta velocidad tal como CoaXPress (CXP) o CameraLink (CL), utilizando múltiples canales si fuera necesario, o cualquier otra interfaz adecuada. Si la interfaz 716 de flujo de imágenes comprende una interfaz CXP, también puede proporcionar la interfaz 714 de control de cámaras.
El espejo multiplexor 604 está fijado a una plataforma 638 de goniómetro, controlada por el microcontrolador 710 a través de un controlador 640. Un sensor 644 de posición opcional admite control de circuito cerrado. La plataforma 638 de goniómetro puede utilizar un motor lineal, como se describe en relación con la anterior Fig. 45, o cualquier otro accionador o motor adecuado, incluyendo un accionador o motor lineal (tal como un accionador fonomagnético) y un motor giratorio (tal como un motor paso a paso, un motor de corriente continua o un motor sin escobillas) acoplado a través de una caja de engranajes o un tornillo sin fin. El controlador 640 puede ser cualquier controlador adecuado, por ejemplo, un controlador de movimiento PI C-867 cuando se use junto con un piezomotor PI M-272. El sensor 644 de posición puede ser de cualquier tipo adecuado, incluyendo un sensor óptico, un sensor capacitivo, un sensor de presión y un sensor de corriente parásita. En caso de que el espejo multiplexor también se utilice para proporcionar compensación de movimiento, la plataforma 638 de goniómetro puede proporcionar dos ejes de rotación.
El espejo 608 de compensación de movimiento (MC) está fijado a una plataforma 636 de inclinación-basculación, que se controla mediante el microcontrolador 710 a través de un controlador 642. Un sensor 646 de posición opcional admite control de bucle cerrado. La plataforma 636 de inclinación-basculación puede utilizar accionadores piezoeléctricos, como se describe en relación con la anterior Fig. 45, o cualquier otro accionador o motor adecuado, incluyendo accionadores o motores lineales (tales como accionadores fonomagnéticos) y motores giratorios (tales como motores paso a paso, motores de corriente continua o motores sin escobillas) acoplado a través de una caja de engranajes o un tornillo sin fin. El controlador 642 puede ser cualquier controlador adecuado, por ejemplo, un controlador PI E-616 cuando se use junto con una plataforma de inclinación-basculación de tipo PI S-340. El sensor 646 de posición puede ser de cualquier tipo adecuado, incluyendo un sensor óptico, sensor capacitivo, sensor de tensión y sensor de corriente de Foucault.
La Fig. 64 muestra una tabulación, para una unidad 100 de cámaras orientables con configuración en X que comprende cámaras de 36 megapíxeles, con una velocidad de disparo (r), una velocidad secuencial (q) y una velocidad de captura de área (R) en función de la altitud (a, 254), velocidad de la aeronave (v, 678) y ángulo de campo de visión utilizable (phi, 680). La tabulación se basa en una GSD constante de 7 cm (y, por lo tanto, una distancia focal que aumenta con la altitud). La velocidad de captura diaria se basa en seis horas de levantamiento por día.
Hasta 5.486,4 metros, la velocidad secuencial requerida de la cámara 600 está por debajo de la velocidad secuencial de 4Hz de la cámara réflex digital Nikon D800 de 36 megapíxeles, y hasta 6.705,6 metros la velocidad secuencial está por debajo de la velocidad secuencial de 5Hz de la cámara réflex digital Nikon D810. Para altitudes más altas (o velocidades más altas a altitudes más bajas), se puede usar una cámara con una velocidad secuencial más alta.
Pueden encontrarse diversas cámaras de visión artificial de alta velocidad y cámaras de video de alta resolución. Muchas de estas cámaras utilizan sensores de imagen CMOS con un obturador electrónico rodante. Esto conlleva una distorsión geométrica en presencia de movimiento, y las hace incompatibles con la mayoría de los mecanismos de compensación de movimiento. Un número menor de cámaras utiliza sensores de imagen CMOS con un obturador electrónico global, lo que las hace adecuadas para su uso en el módulo 610 de cámaras orientables. Las cámaras que utilizan sensores de imagen CCD también resultan adecuadas, ya que los CCD tienen intrínsecamente un obturador electrónico global. Las cámaras con obturadores exteriores (p. ej. obturadores mecánicos) también pueden resultar adecuadas.
Es habitual el uso de diversos sensores de imagen CMOS con obturador global de resolución media y alta, incluyendo los de tipo KAC-12040 ON Semiconductor de 12 megapíxeles, VITA 12K de 12 megapíxeles, VITA 16K de 16 megapíxeles y VITA 25K de megapíxeles; y el CMV12000 CMOSIS de 12 megapíxeles y CMV20000 de 20 megapíxeles.
El VITA 25K tiene una amplitud de píxel de 4,5 micrones y admite velocidades secuenciales de hasta 53Hz. El CMV20000 tiene una amplitud de píxel de 6,4 micrones y admite velocidades secuenciales de hasta 30 Hz (a 12 bits/píxel). El CMV12000 tiene una amplitud de píxel de 5,5 micrones y admite velocidades secuenciales de hasta 180 Hz (a 12 bits/píxeles) y 300 Hz (a 10 bits/pixel).
Las cámaras de visión artificial que utilizan el VITA 25K de 25 megapíxeles incluyen la Adimec S-25A30 de 32 fps, la CMOSVision Condor de 53fps y la ISVI IC-X25CXP de 53fps.
Las cámaras de visión artificial que utilizan el CMV20000 de 20 megapíxeles incluyen la Jai SP-20000C-PMCL a 30 fps y la Ximea CB200CG-CM a 30 fps.
Las cámaras de visión artificial que utilizan el CMV12000 de 12 megapíxeles incluyen la Adimec Q-12A65 a 66 fps, la Basler Beat beA4000-62kc a 62 fps y la IO Industries Flare 12M180-CX a 149 fps.
La Fig. 65 muestra una tabulación, para una GSD constante de 5 cm y una unidad 100 de cámaras orientables con configuración en X de 25 megapíxeles (asumiendo p. ej. una cámara 600 que utilice el sensor de imagen VITA 25K ON Semiconductor), de la velocidad de disparo, la velocidad secuencial y la velocidad de captura de área. La CMOS Vision Condor y la ISVI IC-X25CXP admiten una captura de GSD de 5 cm, hasta 16.459,2 metros.
La Fig. 66 muestra una tabulación, para una GSD constante de 5 cm y una unidad 100 de cámaras orientables con configuración en X de 12 megapíxeles (p. ej. asumiendo una cámara 600 que utilice el sensor de imagen CMOS12 CMV12000), de la velocidad de disparo, la velocidad secuencial y la velocidad de captura de área. La Flare 12M180-CX admite una captura de GSD de 5 cm más allá de los 18.288 metros.
La capacidad de observación de los puntos de tierra y la calidad de las texturas 3D pueden aumentarse adicionalmente al aumentar el número de direcciones de visualización, más allá de las cuatro de la configuración en X.
La Fig. 67A muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600 de tres campos, que opera a 8.534,4 metros. La Fig. 67B muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600 de cuatro campos, que opera a 8.534,4 metros. La Fig. 68A muestra una vista en planta de los campos de visión de una unidad de cámaras WS-600 de cinco campos, que opera a 8.534,4 metros.
Estos campos de visión también pueden capturarse utilizando múltiples unidades 100 de cámara, desplegando cada unidad 100 de cámara sobre un orificio de cámara separado. Por ejemplo, puede llevarse a cabo la captura de cuatro campos utilizando dos unidades 100 de cámara con una configuración en X, giradas 45 grados entre sí. En general, para una unidad 100 de cámara de campo M, los campos deberán separarse uniformemente de manera angular, es decir, separados 180/M grados, y deberán disponerse simétricamente con respecto a la dirección de vuelo, es decir, un campo deberá rotarse 90/M grados con respecto a la dirección de vuelo.
Si la rotación absoluta de los campos en relación con la dirección de vuelo varía (como en las Figs. 67A, 67B y 68A), entonces la separación mínima ajustada entre las líneas de vuelo, dada por EQ 20 en la Fig. 61, estará determinada por el campo con la diferencia de rotación absoluta más pequeña, mientras que la velocidad secuencial ajustada máxima, dada por EQ 21 en la Fig. 61, estará determinada por el campo con la mayor diferencia de rotación absoluta.
Los fotogramas sucesivos capturados por una cámara 600 multiplexada en el tiempo, en una unidad 610 de cámaras orientables, necesariamente se verán desplazados en la dirección de vuelo debido al movimiento de avance de la aeronave, un efecto que se ha ignorado en las figuras anteriores para una mayor claridad. Por lo tanto, los fotogramas adyacentes quedan ligeramente escalonados, como se ilustra en la Fig. 68B para una unidad 100 de cámaras WS-600 de doble cámara de campo único, que opera a 8.534,4 metros. En la figura, las dos cámaras 600 de la unidad 100 de cámaras se dirigen simultáneamente desde el centro hacia afuera. El escalonamiento inducido no tiene efecto en el grado de superposición dentro las líneas de vuelo, y entre las mismas, ya que el efecto es sistemático.
La Fig. 69 muestra una vista en planta de los vectores de movimiento sistemáticos que deben corregirse para cada una de las cuatro cámaras 600 de una unidad 100 de cámaras con una configuración en X. Si se mueve de manera continua el espejo multiplexor orientable 604, entonces su vector 720 de movimiento será dominante. El movimiento de la aeronave agrega un vector 722 de menor movimiento constante hacia delante, que produce el vector 724 de movimiento resultante (que se muestra en línea discontinua).
Si se corrige el movimiento angular lineal del espejo multiplexor 604 oscilando el espejo 608 de compensación de movimiento, entonces la velocidad angular promedio del espejo 608 de compensación de movimiento durante el periodo de exposición se corresponderá con la velocidad angular constante del espejo multiplexor 604, y la fase de la oscilación se alineará con el intervalo de exposición, de modo que la velocidad angular de corrección máxima se alineará con el centro del intervalo de exposición.
La Fig. 70 muestra la posición angular (y, 730) como una función del tiempo (t, 732) para el espejo multiplexor 604 y el espejo 608 de compensación de movimiento, cuando se usa este último para corregir el movimiento del primero. El gráfico 734 muestra el movimiento lineal del espejo multiplexor 604, mientras que los gráficos 736a y 736b muestran dos posibles movimientos sinusoidales del espejo 608 de compensación de movimiento, cada uno con su velocidad máxima alineada con el centro del intervalo 738 de exposición.
La posición angular (y, 730) del espejo 608 de compensación de movimiento es una función de la amplitud (A) y la frecuencia (f) de la oscilación y el tiempo (t, 732), dada por EQ 23 en la Fig. 70. La velocidad angular (dy/dt) del espejo 608 de compensación de movimiento es la derivada de EQ 23, dada por EQ 24, y es máxima cuando el coseno es uno, dada por EQ 25. La velocidad angular promedio del espejo 608 sobre el intervalo 738 de exposición es la integral de EQ 24, dividida por el intervalo de exposición, dada por EQ 26.
Como la velocidad angular (dy/dt) es proporcional tanto a la amplitud (A) como a la frecuencia (f) de la oscilación, dada por EQ 24, la velocidad angular del espejo 608 de compensación de movimiento puede ajustarse a la velocidad angular del espejo multiplexor 604 variando tanto su amplitud como su frecuencia. Para mantener la alineación de fase, sin embargo, la frecuencia deberá ser un múltiplo entero de la velocidad secuencial de la cámara. La sinusoide 736a tiene el doble de amplitud y la mitad de la frecuencia de la sinusoide 736b, por lo tanto, tienen la misma velocidad angular cuando están en fase (por ejemplo, en t=0 en la Fig. 70).
Como se muestra en el gráfico 734 en la Fig. 71, el movimiento lineal del espejo multiplexor 604 puede modularse mediante una sinusoide, reduciéndolo e incluso invirtiéndolo periódicamente. Esto permite adaptar la velocidad angular del espejo 608 de compensación de movimiento a la velocidad angular del espejo multiplexor 604 mediante una sinusoide 736 de baja amplitud, con un ligero retardo de fase para tener en cuenta la asimetría del movimiento del espejo multiplexor 604. Una vez más, las velocidades promedio coinciden en el intervalo de exposición.
La Fig. 72A muestra una realización alternativa del módulo 610 de cámaras orientables, en donde el espejo multiplexor 604 está montado a 45 grados con respecto al eje óptico y está configurado para girar alrededor del eje óptico, lo que permite dirigir el campo 612 de visión de la cámara 600 de lado a lado. El espejo 604 está acoplado a un motor giratorio 648, que lo hace girar. El motor 648 puede ser cualquier motor giratorio adecuado (tal como un motor paso a paso, un motor de corriente continua o un motor sin escobillas). Alternativamente, el espejo se puede acoplar a un accionador lineal o motor lineal a través de un engranaje.
Como es habitual, el espejo 608 de compensación de movimiento (o el espejo fijo 606 en su lugar) proporciona la función de doblar el eje óptico para permitir un montaje vertical más conveniente de la cámara 600. Como se muestra, dobla el eje óptico aproximadamente 90 grados, desde la vertical a la horizontal. El espejo 608 de compensación de movimiento también puede proporcionar las funciones de compensación de movimiento descritas anteriormente (junto con el motor o accionador 636, no mostrado).
La Fig. 72A muestra el módulo 610 de cámaras orientables con el espejo multiplexor 604 posicionado para imágenes verticales, mientras que la Fig. 72B muestra el módulo 610 de cámaras orientables con el espejo multiplexor 604 posicionado para la formación de imágenes en un ángulo oblicuo.
La Fig. 73A y la Fig. 73B muestran una vista en planta y una elevación posterior, respectivamente, del módulo 610 de cámaras orientables de la Fig. 72A, ambas con el espejo multiplexor 604 colocado para la formación de imágenes en un ángulo oblicuo.
El módulo 610 de cámaras orientables de la Fig. 72A admite un intervalo de dirección más amplio que el módulo 610 de cámaras orientables de la Fig. 45, permitiendo así el diseño de unidades 100 de cámaras más compactas y/o menos costosas.
La Fig. 74 muestra una vista en planta de una unidad 100 de HyperCamera WS-300, que comprende dos módulos 616 de cámaras de detalle orientables de campo completo que utilizan el diseño de espejo multiplexor giratorio de la Fig. 72A, y una cámara 112 de visión general fija. Esta unidad 100 de cámaras admite el mismo campo 660 de visión de detalle completo que la unidad 100 de cámaras de la Fig. 54, pero utilizando dos cámaras de detalle en lugar de cuatro. Cada una de las dos cámaras de detalle opera a una velocidad secuencial dos veces mayor que la de cada una de las cuatro cámaras de detalle. El campo 160 de visión de cada módulo 616 de cámaras se muestra en sus dos extremos oblicuos (R=derecha, L=izquierda).
La Fig. 75A muestra una vista en planta del campo 660 de visión completo de una unidad 100 de cámaras WS-600 con configuración en X alternativa, que utiliza el diseño giratorio y opera a 8.534,4 metros. El campo 660 de visión completo es equivalente al campo 660 de visión de la Fig. 55B. Mientras que el espejo multiplexor giratorio 604 induce la rotación en campos de cámara individuales, como se muestra en la Fig. 75a , las capturas sucesivas proporcionan una cobertura completa, como se muestra en la Fig. 75B.
La Fig. 76A muestra un módulo 624 de cámaras orientables de doble campo que comprende dos módulos 610 de cámaras orientables de campo completo que utilizan el diseño giratorio, pero que comparten una sola cámara 600 a través de un espejo 656 de conmutación. El espejo 656 también proporciona las funciones del espejo 608 de compensación de movimiento o el espejo fijo 606. El campo 612 de visión asociado con cada eje de dirección se muestra en el nadir y sus dos extremos oblicuos (N=nadir, R=derecha, L=izquierda).
Como se muestra con más detalle en la Fig. 76B, cuando el espejo 656 de conmutación está orientado en una primera dirección, dirige el campo de visión de la cámara 600 a un primer espejo multiplexor 604a, y cuando está orientado en una segunda dirección, dirige el campo de visión de la cámara 600 a un segundo espejo multiplexor 604b montado en ángulo recto con respecto al primero. El espejo 656 de conmutación está acoplado a un motor giratorio 658, que lo hace girar. El motor 658 puede ser cualquier motor giratorio adecuado (tal como un motor paso a paso, un motor de corriente continua o un motor sin escobillas). Alternativamente, el espejo 656 se puede acoplar a un accionador o motor lineal a través de un engranaje.
La Fig. 77 muestra una vista en planta de una unidad 100 de HyperCamera WS-300, que comprende un módulo 626 de cámaras de detalle orientables de doble campo que utiliza el diseño giratorio, y una cámara 112 de visión general fija. Esta unidad 100 de cámaras soporta el mismo campo 660 de visión de detalle completo que la unidad 100 de cámaras de la Fig. 54, pero usando una cámara de detalle en lugar de cuatro. La cámara de detalle individual funciona a una velocidad secuencial cuatro veces mayor que la de cada una de las cuatro cámaras de detalle. El campo 160 de visión asociado con cada eje de dirección se muestra en sus dos extremos oblicuos (R=derecha, L=izquierda).
La Fig. 78A muestra una vista en planta de los campos de visión de una unidad 100 de cámaras WS-600 de cuatro campos que utiliza el diseño giratorio, mientras que la Fig. 78B muestra una vista en planta de los campos de visión de una unidad 100 de cámaras WS-600 de cinco campos que utiliza el diseño giratorio, ambas operando a 8.534,4 metros.
Estos campos pueden capturarse utilizando una unidad 100 de cámaras que comprende un número adecuado de módulos 616 de cámaras de detalle de campo completo que utilizan el diseño giratorio, o módulos 626 de cámaras de detalle de campo doble que utilizan el diseño giratorio. Como antes, estos campos de visión también pueden capturarse utilizando múltiples unidades 100 de cámara que utilicen el diseño giratorio, desplegándose cada unidad 100 de cámaras sobre un orificio de cámara separado. Por ejemplo, puede llevarse a cabo la captura de cuatro campos utilizando dos unidades 100 de cámaras con configuración en X giradas 45 grados entre sí.
Estos campos también pueden capturarse utilizando un único módulo 616 de cámaras de detalle orientable que utilice el diseño giratorio, girando los espejos 604 y 608 (o 606) (y sus motores) en el plano horizontal sobre el eje vertical de la cámara 110 de detalle. Idealmente, la cámara 110 se mantiene fija (pero esto no es crucial). Los espejos pueden rotarse sucesivamente a cada una de un conjunto de posiciones angulares discretas, a lo que puede seguir la captura de un campo completo en cada una de esas posiciones. Las fotos pueden capturarse con densidad arbitraria únicamente en función del número de posiciones angulares discretas, sujetas a la velocidad secuencial máxima de la cámara y a la velocidad de giro máxima del espejo multiplexor 604. Alternativamente, los espejos pueden girarse alrededor del eje de la cámara de manera continua para capturar fotos en un patrón en espiral, con una compensación de movimiento adecuada.
La presente invención se ha descrito con referencia a una serie de realizaciones preferidas. Los expertos en la técnica apreciarán que existen varias realizaciones alternativas de la presente invención, y que el alcance de la invención solo está limitado por las reivindicaciones adjuntas.
A lo largo de la presente memoria descriptiva y de las reivindicaciones que siguen, a menos que el contexto requiera lo contrario, se entenderá que la palabra “comprenden” y las variaciones tales como “comprende” o “que comprende/n” implican la inclusión de un elemento integrante o paso, o de un grupo de elementos integrantes o pasos, pero no la exclusión de cualquier otro elemento integrante o paso, o grupo de elementos integrantes o pasos.
La referencia en la presente memoria a cualquier publicación anterior (o información derivada de la misma), o a cualquier materia que sea conocida, no es y no debe tomarse como un reconocimiento o admisión, o cualquier forma de sugerencia, de que dicha publicación previa (o información derivada de la misma) o materia conocida forme parte del conocimiento general común en el campo del esfuerzo al que se refiere la presente memoria.

Claims (16)

REIVINDICACIONES
1. Un sistema para capturar imágenes aéreas del suelo, con módulos de cámara que tienen campos de visión ópticos del suelo en forma de dos tiras (650a, 650b) de longitud finita, sustancialmente en ángulo recto entre sí, estando el sistema caracterizado por:
a) dos módulos (610, 614a, 614b) de cámara de detalle dirigible, comprendiendo cada módulo (610, 614a, 614b) de cámara de detalle dirigible una cámara (110, 600) de detalle y un mecanismo de direccionamiento del haz, b) se multiplexa en el tiempo una dirección de apuntamiento de la cámara (110, 600) de detalle mediante la variación a lo largo del tiempo, con el mecanismo de direccionamiento del haz, para cubrir un campo (160, 612) de visión del suelo más amplio, en la forma de una tira (650) de longitud finita orientada a lo largo de un eje (620) de direccionamiento,
c) el mecanismo de direccionamiento del haz comprende un primer espejo orientable (604) montado en una trayectoria óptica de la cámara (110, 600) de detalle, creando el primer espejo orientable (604) el direccionamiento del campo de visión efectivo (160, 612) al girarse el mismo sobre el eje óptico de la trayectoria óptica de la cámara (110, 600) de detalle,
d) estando distribuidos los ejes (620) de direccionamiento de cada módulo (610, 614a, 614b) de cámara de detalle angularmente con una diferencia de 90 grados entre sí, y con un ángulo de 45 grados con respecto a una línea (226) de vuelo.
2. El sistema de acuerdo con la reivindicación 1, en donde el sistema puede fijarse, por encima de un orificio (212) para cámara, a al menos uno de: un suelo (210) de una aeronave (230) o un suelo (210) de una cápsula (232) soportada por una aeronave (230), para proporcionar a las cámaras (110, 600) de detalle una vista del suelo situado debajo de la aeronave (230), a través del orificio (212) para cámara.
3. El sistema de la reivindicación 1 o 2, comprendiendo el sistema al menos una cámara (112) de visión general, siendo la longitud focal de la cámara (112) de visión general más corta que la longitud focal de cada cámara (110, 600) de detalle.
4. El sistema de cualquiera de las reivindicaciones 1 a 3, en donde, dentro de cada módulo (610, 614) de cámara de detalle, la cámara (110, 600) de detalle tiene una lente que se selecciona del grupo que comprende: una lente dióptrica, una lente catóptrica o una lente catadióptrica.
5. El sistema de cualquiera de las reivindicaciones 1 a 4, en donde, dentro de cada módulo (610, 614) de cámara de detalle, el primer espejo orientable (604) está estacionario durante un periodo de exposición de la cámara (110, 600) de detalle.
6. El sistema de una cualquiera de las reivindicaciones 1 a 4, en donde, dentro de cada módulo (610, 614) de cámara de detalle orientable, el primer espejo orientable (604) tiene una velocidad angular no cero durante un periodo de exposición de la cámara (110, 600) de detalle, y cada módulo (610, 614) de cámara de detalle orientable comprende un segundo espejo orientable (608) configurado para corregir un efecto, en la cámara (110, 600) de detalle, de la velocidad angular del primer espejo orientable (604) durante el periodo de exposición, para garantizar que la cámara (110, 600) de detalle apunte en una dirección constante durante el periodo de exposición.
7. El sistema de acuerdo con la reivindicación 6, en donde una velocidad angular del segundo espejo orientable (608) es sinusoidal, y una velocidad angular promedio del segundo espejo orientable (608) es igual a una velocidad angular promedio del primer espejo orientable (604) durante el periodo de exposición.
8. El sistema de acuerdo con la reivindicación 7, en donde la velocidad angular del primer espejo orientable (604) es constante durante el periodo de exposición, y la velocidad angular del segundo espejo orientable (608) es máxima durante el periodo de exposición.
9. El sistema de acuerdo con la reivindicación 6, en donde la velocidad angular del segundo espejo orientable (608) es constante durante el periodo de exposición.
10. El sistema de acuerdo con la reivindicación 6, en donde la velocidad angular del primer espejo orientable (604) es una constante modulada por una sinusoide, para reducir la velocidad angular promedio del primer espejo orientable (604) durante el periodo de exposición.
11. El sistema de una cualquiera de las reivindicaciones 1 a 10, que comprende adicionalmente al menos un mecanismo (330) de compensación de movimiento angular (AMC), estando configurado el al menos un mecanismo (330) de AMC para corregir un efecto, en cada cámara (110, 600) de detalle, del movimiento angular de la aeronave (230) para asegurar que las cámaras (110, 600) de detalle apunten en una dirección consistente en el tiempo.
12. El sistema de la reivindicación 11, en donde la AMC (330) se proporciona a través de un espejo orientable.
13. El sistema de una cualquiera de las reivindicaciones 1 a 12, que comprende adicionalmente al menos un mecanismo de compensación de movimiento hacia delante (FMC), estando configurado el al menos un mecanismo de FMC para corregir un efecto, en cada cámara (110, 600) de detalle, del movimiento hacia delante de la aeronave (230), para reducir el desenfoque por movimiento en las fotos capturadas por las cámaras (110, 600) de detalle.
14. El sistema de la reivindicación 13, en donde la FMC se proporciona a través de un espejo orientable.
15. El sistema de una cualquiera de las reivindicaciones 1 a 14, en donde la línea (226) de vuelo está inclinada sustancialmente a 45 grados en una dirección cardinal.
16. Un método para capturar imágenes aéreas del suelo, utilizando módulos de cámara que tienen campos ópticos de visión del suelo en forma de dos tiras (650a, 650b), de longitud finita, sustancialmente en ángulo recto entre sí, estando el método caracterizado por:
a. la multiplexación en el tiempo, mediante la variación a lo largo del tiempo, de una dirección de apuntamiento de cada uno de los dos módulos (610, 614a, 614b) de cámara de detalle orientable para cubrir un campo (160, 612) de visión más amplio del suelo, en forma de una tira (650) de longitud finita orientada a lo largo de un eje (620) de direccionamiento,
b. cada módulo (610, 614a, 614b) de cámara de detalle orientable comprende una cámara (110, 600) de detalle y un mecanismo de direccionamiento del haz,
c. el mecanismo de direccionamiento del haz comprende un primer espejo orientable (604) montado en una trayectoria óptica de la cámara (110, 600) de detalle, la multiplexación en el tiempo incluye girar el primer espejo orientable (604) alrededor del eje óptico de la trayectoria óptica de la cámara (110, 600) de detalle, para crear el direccionamiento del campo (160, 612) de visión efectivo,
d. los ejes (620) de direccionamiento de los módulos (610, 614a, 614b) de cámara de detalle están distribuidos angularmente con una diferencia de 90 grados entre sí, y con un ángulo de 45 grados con respecto a una línea (226) de vuelo,
e. en donde la línea (226) de vuelo está inclinada sustancialmente a 45 grados en una dirección cardinal.
ES15810589T 2014-06-20 2015-06-19 Sistemas de cámaras aéreas de área amplia Active ES2724464T3 (es)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US14/310,523 US9046759B1 (en) 2014-06-20 2014-06-20 Compact multi-resolution aerial camera system
US14/478,380 US9052571B1 (en) 2014-06-20 2014-09-05 Wide-area aerial camera systems
US14/687,544 US9440750B2 (en) 2014-06-20 2015-04-15 Wide-area aerial camera systems
US14/718,528 US9706117B2 (en) 2014-06-20 2015-05-21 Wide-area aerial camera systems
US14/718,472 US9188838B1 (en) 2014-06-20 2015-05-21 Compact multi-resolution aerial camera system
US14/735,504 US9185290B1 (en) 2014-06-20 2015-06-10 Wide-area aerial camera systems
PCT/AU2015/050344 WO2015192188A1 (en) 2014-06-20 2015-06-19 Wide-area aerial camera systems

Publications (1)

Publication Number Publication Date
ES2724464T3 true ES2724464T3 (es) 2019-09-11

Family

ID=54363622

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15810589T Active ES2724464T3 (es) 2014-06-20 2015-06-19 Sistemas de cámaras aéreas de área amplia

Country Status (8)

Country Link
US (2) US9185290B1 (es)
EP (1) EP3158396B1 (es)
JP (1) JP6541779B2 (es)
CN (1) CN106662804B (es)
AU (1) AU2015243032B2 (es)
CA (1) CA2952933C (es)
ES (1) ES2724464T3 (es)
WO (1) WO2015192188A1 (es)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9350954B2 (en) * 2012-03-20 2016-05-24 Crane-Cohasset Holdings, Llc Image monitoring and display from unmanned vehicle
US20140327733A1 (en) 2012-03-20 2014-11-06 David Wagreich Image monitoring and display from unmanned vehicle
CN103400345A (zh) * 2013-07-18 2013-11-20 西南交通大学 一种降低tdi-ccd相机图像模糊度的方法
CN103646384B (zh) * 2013-12-20 2016-06-22 江苏大学 一种遥感扫描成像平台飞行速度的优化方法
US9641736B2 (en) 2014-06-20 2017-05-02 nearmap australia pty ltd. Wide-area aerial camera systems
US9185290B1 (en) * 2014-06-20 2015-11-10 Nearmap Australia Pty Ltd Wide-area aerial camera systems
CA2962464C (en) 2014-10-08 2024-05-28 Spookfish Innovations Pty Ltd An aerial camera system
CN105366067A (zh) * 2015-11-30 2016-03-02 湖北易瓦特科技股份有限公司 拍摄装置和无人机
CN106441239A (zh) * 2016-08-31 2017-02-22 中测新图(北京)遥感技术有限责任公司 一种无人机用多视角立体航摄装置
CN106441240B (zh) * 2016-10-13 2019-01-01 中国科学院上海技术物理研究所 一种基于凸轮机构的面阵成像仪高频像移补偿装置
WO2018144929A1 (en) * 2017-02-02 2018-08-09 Infatics, Inc. (DBA DroneDeploy) System and methods for improved aerial mapping with aerial vehicles
IL251544A0 (en) * 2017-04-03 2017-06-29 Elbit Systems Electro Optics Elop Ltd A system and method for increasing the coverage of the photographed area using a photographic device
CN107031857A (zh) * 2017-04-24 2017-08-11 桂林天经地纬遥感信息技术有限公司 一种用于固定翼无人机三维建模的采集装置
US20200193158A1 (en) * 2017-08-14 2020-06-18 Purdue Research Foundation System and method for plant sensing using aerial rgb imagery
CN108327922A (zh) * 2018-01-26 2018-07-27 广州市红鹏直升机遥感科技有限公司 一种九视角航空倾斜摄影云台
FR3087037B1 (fr) * 2018-10-03 2021-06-04 Soletanche Freyssinet Procede d'acquisition d'images
WO2020237288A1 (en) * 2019-05-24 2020-12-03 Aerometrex Pty Ltd An aerial imaging system and method
US11036983B1 (en) * 2019-06-20 2021-06-15 Sentera, Inc. Aerial imaging wide and narrow stitching
RU2717603C1 (ru) * 2019-07-23 2020-03-24 Публичное акционерное общество "Ракетно-космическая корпорация "Энергия" им. С.П. Королёва" Устройство управления размещенной на космическом корабле переносной аппаратурой наблюдения
RU2717614C1 (ru) * 2019-07-23 2020-03-24 Публичное акционерное общество "Ракетно-космическая корпорация "Энергия" имени С.П. Королёва" Способ управления размещенной на космическом корабле переносной аппаратурой наблюдения
RU2725009C1 (ru) * 2019-07-23 2020-06-29 Публичное акционерное общество "Ракетно-космическая корпорация "Энергия" имени С.П. Королёва" Система управления размещенной на космическом корабле переносной аппаратурой наблюдения
RU2725104C1 (ru) * 2019-09-09 2020-06-29 Публичное акционерное общество "Ракетно-космическая корпорация "Энергия" имени С.П. Королёва Способ управления размещенной на космическом корабле переносной аппаратурой наблюдения
RU2725012C1 (ru) * 2019-09-09 2020-06-29 Публичное акционерное общество "Ракетно-космическая корпорация "Энергия" имени С.П. Королёва" Система управления размещенной на космическом корабле переносной аппаратурой наблюдения
US11320667B2 (en) 2019-09-27 2022-05-03 Snap Inc. Automated video capture and composition system
CN112764306B (zh) * 2019-10-21 2024-04-12 广州口可口可软件科技有限公司 一种虚拟现实全景图像采集装置
CN111314641B (zh) * 2020-02-18 2022-05-10 东南大学 一种高帧频图像的采集存储显示系统及方法
CN111355899B (zh) * 2020-02-23 2021-03-19 中国科学院西安光学精密机械研究所 一种太空全景成像系统及成像方法
CN111427829B (zh) * 2020-03-13 2022-03-01 浙江华睿科技股份有限公司 CoaXPress协议的低速上行信号解调电路、CoaXPress协议的驱动电路
JP6844055B1 (ja) * 2020-05-29 2021-03-17 丸善インテック株式会社 監視カメラ
US11722776B2 (en) 2021-06-28 2023-08-08 nearmap australia pty ltd. Hyper camera with shared mirror
US20240310715A1 (en) 2021-06-28 2024-09-19 nearmap australia pty ltd. Hyper camera with shared mirror
WO2023281309A1 (en) * 2021-07-08 2023-01-12 Nearmap Australia Pty Ltd Shaped-aperture scanning aerial cameras
RU2771488C1 (ru) * 2021-07-13 2022-05-05 Публичное акционерное общество "Ракетно-космическая корпорация "Энергия" имени С.П. Королёва" Устройство управления размещенной на космическом корабле переносной аппаратурой наблюдения
CN113552136A (zh) * 2021-07-30 2021-10-26 广州中国科学院先进技术研究所 一种具有隔振能力的高温锻件视觉检测系统
AU2022439107A1 (en) 2022-02-01 2024-09-19 Landscan Llc Systems and methods for multispectral landscape mapping
FR3137895A1 (fr) * 2022-07-18 2024-01-19 Airbus Operations Ensemble pour aéronef comportant un châssis et un module de vision d’un système de vision en vol améliorée
CN115326020B (zh) * 2022-08-09 2024-06-21 温州中纬测绘有限公司 一种用于航空摄影的拍摄方法及装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1797849A (en) 1926-12-16 1931-03-24 Firm Photogrammetrie G M B H Multiple chamber for taking photographs from aeroplanes
US1735109A (en) 1927-02-08 1929-11-12 Leon T Eliel Process of and apparatus for making aerial photographs
US2665481A (en) 1951-03-02 1954-01-12 James E Henry Method of aerial mapping
US3212420A (en) 1962-11-23 1965-10-19 Dynasciences Corp Image motion compensator
US3610825A (en) 1969-06-04 1971-10-05 Hughes Aircraft Co Image control apparatus for a vision system
FR2696843B1 (fr) * 1992-10-14 1994-12-09 Matra Sep Imagerie Inf Appareil de prise de vues à distance, à haute résolution, pour porteur aérien.
US5550669A (en) * 1993-04-19 1996-08-27 Martin Marietta Corporation Flexure design for a fast steering scanning mirror
US5894323A (en) 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
JP3382530B2 (ja) * 1998-02-19 2003-03-04 財団法人 リモート・センシング技術センター 光学撮像装置
US6737591B1 (en) 1999-05-25 2004-05-18 Silverbrook Research Pty Ltd Orientation sensing device
DE10034601B4 (de) 2000-07-14 2013-05-23 Leica Geosystems Ag Kamerasystem mit mindestens zwei ersten und zweiten Kameras
US6366734B1 (en) * 2000-08-31 2002-04-02 Recon/Optical, Inc. Method of forward motion compensation in an aerial reconnaissance camera
US7683937B1 (en) * 2003-12-31 2010-03-23 Aol Inc. Presentation of a multimedia experience
US7597489B2 (en) 2005-09-12 2009-10-06 Honeywell International Inc. Apparatus and method for providing pointing capability for a fixed camera
US20070188610A1 (en) 2006-02-13 2007-08-16 The Boeing Company Synoptic broad-area remote-sensing via multiple telescopes
US8581981B2 (en) * 2006-04-28 2013-11-12 Southwest Research Institute Optical imaging system for unmanned aerial vehicle
US9262818B2 (en) 2007-05-01 2016-02-16 Pictometry International Corp. System for detecting image abnormalities
US8331615B2 (en) 2007-08-01 2012-12-11 The Board Of Trustees Of The University Of Illinois Match, expand, and filter technique for multi-view stereopsis
JP4970296B2 (ja) 2008-01-21 2012-07-04 株式会社パスコ オルソフォト画像の生成方法、および撮影装置
US8675068B2 (en) 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US7899311B1 (en) 2008-04-29 2011-03-01 Optech International, Inc. Removable shutter for a camera
US20100026822A1 (en) * 2008-07-31 2010-02-04 Itt Manufacturing Enterprises, Inc. Multiplexing Imaging System for Area Coverage and Point Targets
IL201682A0 (en) 2009-10-22 2010-11-30 Bluebird Aero Systems Ltd Imaging system for uav
IL207590A (en) 2010-08-12 2016-11-30 Rafael Advanced Defense Systems Ltd A method and system for increasing the size of the area scanned at a given time by an airborne electro-optical photo system
US9561869B2 (en) 2011-02-10 2017-02-07 Bae Systems Plc Image capturing
US20120300079A1 (en) * 2011-03-09 2012-11-29 Richard Thomas Hale Object-oriented cable camera system
US9336568B2 (en) 2011-06-17 2016-05-10 National Cheng Kung University Unmanned aerial vehicle image processing system and method
US9071732B2 (en) * 2013-03-15 2015-06-30 Tolo, Inc. Distortion correcting sensors for diagonal collection of oblique imagery
US9185290B1 (en) * 2014-06-20 2015-11-10 Nearmap Australia Pty Ltd Wide-area aerial camera systems
US9046759B1 (en) * 2014-06-20 2015-06-02 nearmap australia pty ltd. Compact multi-resolution aerial camera system
US9052571B1 (en) * 2014-06-20 2015-06-09 nearmap australia pty ltd. Wide-area aerial camera systems

Also Published As

Publication number Publication date
AU2015243032B2 (en) 2017-09-21
CA2952933A1 (en) 2015-12-23
AU2015243032A1 (en) 2016-01-21
WO2015192188A1 (en) 2015-12-23
EP3158396A4 (en) 2017-12-13
CN106662804B (zh) 2019-04-23
US20160057345A1 (en) 2016-02-25
EP3158396B1 (en) 2019-03-06
CN106662804A (zh) 2017-05-10
JP2017520002A (ja) 2017-07-20
US9185290B1 (en) 2015-11-10
CA2952933C (en) 2021-10-26
JP6541779B2 (ja) 2019-07-10
EP3158396A1 (en) 2017-04-26
US9462185B2 (en) 2016-10-04

Similar Documents

Publication Publication Date Title
ES2724464T3 (es) Sistemas de cámaras aéreas de área amplia
US9641736B2 (en) Wide-area aerial camera systems
US9440750B2 (en) Wide-area aerial camera systems
US9706117B2 (en) Wide-area aerial camera systems
ES2720751T3 (es) Sistemas de cámara aérea de gran altitud
ES2286431T3 (es) Sistema de reconocimiento aereo.
AU2010219335B2 (en) Systems and Methods of Capturing Large Area Images in Detail Including Cascaded Cameras and/or Calibration Features
ES2804898T3 (es) Captación de corredor
JP6282275B2 (ja) インフラストラクチャマッピングシステム及び方法