ES2366717B1 - Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado. - Google Patents

Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado. Download PDF

Info

Publication number
ES2366717B1
ES2366717B1 ES200802546A ES200802546A ES2366717B1 ES 2366717 B1 ES2366717 B1 ES 2366717B1 ES 200802546 A ES200802546 A ES 200802546A ES 200802546 A ES200802546 A ES 200802546A ES 2366717 B1 ES2366717 B1 ES 2366717B1
Authority
ES
Spain
Prior art keywords
images
data
works
unmanned aerial
aerial vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES200802546A
Other languages
English (en)
Other versions
ES2366717A1 (es
Inventor
Anibal Ollero Baturone
Joaquín Ferruz Melero
Fernando Cabalero Benítez
Luis Merino Cabañas
Nicolás Peña Ortiz
Iván Maza Alcañiz
Ramiro Martínez de Dios
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INVEST Y COOPERACION IND DE ANDALUCIA AICIA ASOC DE
Universidad de Sevilla
Original Assignee
INVEST Y COOPERACION IND DE ANDALUCIA AICIA ASOC DE
Universidad de Sevilla
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INVEST Y COOPERACION IND DE ANDALUCIA AICIA ASOC DE, Universidad de Sevilla filed Critical INVEST Y COOPERACION IND DE ANDALUCIA AICIA ASOC DE
Priority to ES200802546A priority Critical patent/ES2366717B1/es
Priority to PCT/ES2009/000380 priority patent/WO2010026268A1/es
Publication of ES2366717A1 publication Critical patent/ES2366717A1/es
Application granted granted Critical
Publication of ES2366717B1 publication Critical patent/ES2366717B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01S17/023
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Equipo de obtención de información en obras e infraestructuras basado en vehículo aéreo no tripulado, (UAV) que comprende, al menos:#(i) un vehículo aéreo no tripulado (UAV) que comprende medios para su control y operación desde tierra, medios de adquisición y medios de registro sincronizado de imágenes y datos; y#(ii) una estación en tierra (ET) comprendiendo, a su vez, un dispositivo de radio-control, y un computador para ayuda a la operación comprendiendo medios para la planificación, construcción y mantenimiento de obras e infraestructuras, incluyendo la geo-referenciación de las imágenes, la construcción de mapas en dos y tres dimensiones, y la obtención de medidas entre puntos y rasgos característicos.

Description

Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado.
Objeto de la invención
El objeto de la invención es un equipo para la obtención de información de interés para la planificación, construcción y mantenimiento de obras e infraestructuras, incluyendo la geo-referenciación de imágenes, realización de mapas en 2D y 3D así como la obtención de medidas de interés para monitorización y mantenimiento, comprendiendo un vehículo aéreo no tripulado.
Campo de la invención
El campo de aplicación de la invención corresponde a los sectores industriales de la construcción con objeto de planificar obras e infraestructuras, monitorizar su ejecución y realizar su mantenimiento.
Antecedentes de la invención
En la actualidad se cuenta con sistemas comerciales que permiten la aplicación de técnicas de fotogrametría empleando vehículos aéreos. Existen también procedimientos para construcción de mapas del terreno empleando sensores láser, tales como LIDAR, embarcados en aeronaves tripuladas.
El principal problema de estos sistemas es el coste ya que requieren vuelos de aeronaves tripuladas, dotadas de sistemas ópticos apropiados. Para ello suele recurrirse a empresas especializadas cuyos servicios tienen un coste relativamente elevado ya que involucran además de la propia aeronave una tripulación que, como mínimo, consta del piloto y un operador del sistema óptico.
Por otra parte, los vuelos deben realizarse en buenas condiciones atmosféricas y pueden Representar un peligro si se efectúan en condiciones de poca visibilidad o, en general, condiciones atmosféricas no idóneas.
Las aeronaves tripuladas deben volar a suficiente altura, por lo cual la resolución de las imágenes y datos adquiridos con los sensores a bordo también es limitada, dependiendo de las características de los sensores.
El auge experimentado por los vehículos aéreos no tripulados, conocidos por sus siglas en inglés UAVs (Unmanned Aerial Vehicles), ha motivado también que recientemente, en la literatura especializada, se hayan propuesto aplicaciones entre las que se incluye la realización de mapas. Sin embargo, en la mayor parte de los casos, son también vehículos costosos desarrollados para aplicaciones militares cuyo empleo para aplicaciones civiles no resulta ventajoso en la actualidad.
Con relación a la aplicación específica de realización de mapas, los procedimientos existentes se basan en el empleo de LIDAR [1][2], visión estéreo [5], o monocular.
La realización de mapas empleando exclusivamente un sensor comercial LIDAR está restringida por el volumen y el peso del sensor y requiere también una elevada precisión y estabilidad en el vuelo de la aeronave. Es posible emplear también dispositivos que estabilicen el sensor, pero dichos dispositivos son costosos e incrementan también la carga útil necesaria.
El empleo de estéreo requiere una separación suficiente de las cámaras; dado que las dimensiones del vehículo aéreo limitan tal separación, se reduce la altura posible del vuelo. Asimismo, las vibraciones, y, en general, los movimientos relativos entre el par de cámaras, dificultan o pueden impedir el establecimiento de las correspondencias estéreo.
Es también posible el empleo de la secuencia de imágenes monoculares adquirida por una cámara a bordo del UAV, estableciéndose correspondencias entre cada par de imágenes consecutivas [4] para obtener la estructura en 3D de la escena contando también con la medida de la posición y orientación desde la que se toma cada imagen [3], El procedimiento requiere de una elevada calidad de dichas medidas ya que, por ejemplo, los errores de posición darían lugar a una estimación incorrecta de la línea base que une las dos posiciones lo que generaría importantes errores en la construcción de mapas.
No se conoce ningún sistema suficientemente flexible que pueda aplicarse con sensores alternativos dependiendo de la carga útil del UAV y que en caso de disponer de la suficiente carga útil permita la mejora de la calidad del mapa y las medidas empleando técnicas de fusión sensorial.
Por otra parte no se conoce ningún sistema específico basado en vehículo aéreo no tripulado para la obtención de imágenes y datos de obras e infraestructuras que pueda ser empleado en su planificación, control de ejecución y mantenimiento, lo que es el objetivo fundamental de esta patente. En el ámbito específico de los vehículos aéreos pueden encontrarse patentes relativas a control, estructura mecánica o estimación de la posición, como por ejemplo la solicitud PCT con número WO9903407, “Sistema de a bordo para determinar la posición de un vehículo aéreo y sus aplicaciones”, que propone un método probabilístico para combinar la navegación puramente inercial con los datos obtenidos mediante la detección de balizas de posición conocida. Este objetivo es claramente distinto al que persigue la presente invención.
En lo referente a construcción de mapas mediante sensores embarcados existe una patente europea con número E94110598, y título “Procedimiento para la creación de un mapa de entorno y para la determinación de una posición propia en el entorno por medio de una unidad automotriz” que propone un método optimizado para construcción de mapas, pero no se contempla el uso de vehículos aéreos, ni se proponen los sensores adecuados para llevar a cabo la realización del método en un campo concreto de aplicación. Otras patentes relacionadas con la reconstrucción 3D corresponden a problemas más específicos, que hacen uso de técnicas basadas en marcas especiales o en iluminación estructurada, como la de referencia WO9700896, “Dispositivo para realizar la medición sin contacto de una superficie tridimensional de un objeto” o en la E88310672, “Método y aparato para la determinación de distancias entre tramos de superficie de un escenario espacial tridimensional y una cámara”.
Referencias
[1] Miller,Ry Amidi O. (1988). 3-D Site Mapping with the CMU Autonomous Helicopter, Proceedings of the 5th International Conference on Intelligent Autonomous Sistems (IAS-5), Junio 1998.
[2] Kanade,T, Amidi, O., Ke,K.(2004). Real-Time and 3D Vision for Autonomous Small and Micro Air Vehicles, 43rd Conference on Decision and Control (CDC 2004), Diciembre 2004.
[3] Hartley, R.I. y Zisserman (2000). A., Multiple View Geometry in Computer Vision, Cambridge University Press.
[4] Lowe,D(1999). Object recognition from local scale-invariant features. Proc. ICCV, pp. 1150-1157.
[5] Lacroix S., I.-K. Jung, A. Mallet (2002). Digital elevation map building from low altitude stereo imagery. Robotics and Autonomous Systems 41 (2-3).I 119-127.
Descripción de la invención
Para paliar los problemas arriba mencionados se presenta él sistema para obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado, el cual comprende, al menos:
(i) un equipo basado en un vehículo aéreo no tripulado para la obtención de información de obras e infraestructuras el cual a su vez comprende, al menos:
(a)
Un vehículo aéreo no tripulado que puede ser radio controlado desde tierra por un operador, o bien automático, y que incluye componentes para su control y operación desde tierra, adquisición y registro sincronizado de imágenes y datos.
(b)
Una estación en tierra que incluye un dispositivo de radio-control, y un computador para ayuda a la operación en el cual se instalan herramientas informáticas para la obtención de información relevante para la planificación, construcción y mantenimiento de obras e infraestructuras, incluyendo la geo-referenciación de las imágenes, la construcción de mapas en dos y tres dimensiones, y la obtención de medidas entre puntos y rasgos característicos.
El vehículo comprende un controlador configurable que le permite operar en cualquiera de los siguientes modos:
-
Un primer modo radio-controlado desde tierra por un piloto.
-
Un segundo modo radio-controlado en velocidad desde tierra por un piloto con estabilización automática a bordo del vehículo para facilitar la actuación del piloto.
-
Un tercer modo de control automático a bordo que le permite recorrer de forma automática una secuencia de puntos de paso definida por un operador en el computador de la estación de tierra.
En el primer y segundo modo el vehículo sólo requiere a bordo un sistema electrónico con un número mínimo de funcionalidades para la adquisición de imágenes y datos de forma sincronizada, y que se controla mediante un piloto de radio control en tierra, el cual podrá utilizar un monitor para facilitar el guiado y que podrá ser asistido por un operador en la estación de operación en tierra que visualizará el estado de ejecución de la misión.
El sistema para la geo-referenciación de imágenes obtenidas mediante el vehículo aéreo no tripulado recibe como entradas las imágenes y datos adquiridos con los sensores a bordo del vehículo no tripulado y produce las imágenes geo-referenciadas que pueden ser utilizadas para la realización de mediciones de interés en aplicaciones de planificación, monitorización de la ejecución y mantenimiento de obras e infraestructuras.
El sistema para la construcción de mapas en 2D y 3D de obras e infraestructuras tiene como entradas las imágenes y los datos de obras e infraestructuras, así como los datos de navegación del UAV, obtenidos con los sensores a bordo del vehículo no tripulado, y que funcionará en cualquiera de los siguientes modos sensoriales:
(i)
Un primer modo sensorial comprendiendo un sistema monocular con una única cámara empleando correspondencia entre imágenes consecutivas, construcción de mosaicos y reconstrucción epipolar, resolviendo la indeterminación de escala mediante telémetro láser o coordenada GPS.
(ii)
Un segundo modo sensorial comprendiendo un sistema estéreo con dos cámaras cuyas imágenes deben hacerse corresponder, empleando la línea base como referencia absoluta que resuelve la indeterminación de escala.
(iii) Un tercer modo sensorial comprendiendo un escáner láser (LIDAR) para obtener las coordenadas de los puntos que intersectan el plano de barrido con el terreno.
(iv) Un cuarto modo sensorial combinación de los anteriores.
Como ventaja adicional, el sistema permite que el usuario defina gráficamente los puntos de paso empleando para ello mapas del terreno y fotografías geo-referenciadas, y que podrá contar opcionalmente con modelos del vehículo y los sensores ópticos a bordo para facilitar la definición de dichas misiones.
Breve descripción de los dibujos
A continuación se pasa a describir de manera muy breve una serie de dibujos que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta.
La figura 1 muestra un esquema general del sistema objeto de la invención que comprende un vehículo aéreo no tripulado (UAV) y una estación en tierra (ET) enlazados mediante un sistema de comunicaciones (COM).
La figura 2 detalla el esquema general de la figura 1 y más particularmente las estrategias de control empleadas.
La figura 3 representa el montaje del sistema óptico que forma parte del sistema objeto de la presente invención.
La figura 4 muestra el registro de imágenes y datos en el sistema objeto de la presente patente de invención.
La figura 5 muestra la generación de resultados fuera de línea a partir de las bases de datos generadas en tiempo real.
Realización preferente de la invención
Tal y como se puede observar en la figura 1 el esquema general del equipo propuesto comprende un vehículo aéreo no tripulado (UAV) y una estación en tierra (ET) enlazados mediante un sistema de comunicaciones (COM). El vehículo incluye componentes (CT) para su control automático y operación desde tierra (vehículo no automático), adquisición y registro (AR) sincronizado de imágenes y datos. La estación en tierra incluye un equipo de radio-control (ERC) operado por un piloto en condiciones normales (vehículo no autónomo) o en condiciones de emergencia (vehículo autónomo), y un computador (CTP) para la operación de la misión. Este computador puede utilizarse también para el procesamiento de datos e imágenes que permita la geo-referenciación automática, construcción de mapas en dos y tres dimensiones y obtención de medidas.
En la figura 2 se detalla el esquema general y en particular las estrategias de control. El sistema a bordo (SB) dispone de cámaras (Cs) y escáner láser (L) para la adquisición de imágenes y datos del terreno. Esta información puede enviarse a la estación en tierra (ET) o,bien registrarse a bordo en un dispositivo de almacenamiento (DA). El controlador a bordo (CO) incluye un nivel superior de control de la navegación (CN) y un nivel inferior de estabilización (CE). De esta forma la generación de consignas a los servocontroladores del vehículo aéreo no tripulado (SC) puede hacerse directamente desde tierra por un piloto de radio control (modo M1), con estabilización automática y envío desde tierra de consignas de velocidad lineal (modo M2) o de forma automática (modo M3). La estación en tierra incluye el equipo de radio control (ERC) que es manipulado por el piloto, y un computador para operación desde tierra
(T) y procesamiento de imágenes y datos (PR).
En la figura 3 se muestra el montaje del sistema óptico, indicando la ubicación de las cámaras y el LIDAR en función del objetivo que se pretende: Orientación vertical para construir mapas del terreno (parte superior izquierda) u horizontal, para monitorizar estructuras (parte superior derecha). También se incluye como ejemplo el esquema de un sistema estéreo con LIDAR y orientación vertical (abajo). Se muestra en cada caso el campo de visión de la cámara y el plano de exploración del LIDAR, así como sus respectivas intersecciones con las superficies visibles. Para el sistema estéreo se marca en gris la zona de visión común de las dos cámaras.
En la figura 4 se muestra el registro de imágenes y datos, mostrando la recogida y generación de bases de datos para su posterior procesamiento fuera de línea. Las fuentes de datos son, en el modo de implementación más completo, las cámaras (Cs), el escáner láser (LIDAR) (L), el GPS (GP), la unidad de medida inercial (MI) y el telémetro láser (TL). Para la correcta interpretación de las lecturas del LIDAR y las imágenes es necesario estimar la posición y orientación del vehículo aéreo en el instante en que se adquieren dichos datos; esta función se realiza en el bloque EPO, de acuerdo con la referencia de tiempos RT. Intervienen en la estimación las lecturas del GPS, la unidad de medida inercial y el telémetro láser. Combinando las imágenes de las cámaras y la estimación de la posición y orientación actuales se obtiene el registro de imágenes y posición (RIP) en el cual se almacenan las imágenes junto con la posición y orientación que les corresponden. Del mismo modo los datos del LIDAR junto con la estimación de posición y orientación dan lugar al registro de LIDAR y posición (RLP). Finalmente se almacenan todos los datos originales junto con las estimaciones de posición y orientación y el valor de referencia temporal en una base de datos separada, el registro de datos en bruto (RDR). Como es lógico, si no se utiliza LIDAR no existirá RLP, y si no se utiliza un sistema estéreo la base de datos RIP sólo contendrá una secuencia monocular.
En la figura 5 se describe la generación de resultados fuera de línea a partir de las bases de datos generadas en tiempo real. El objetivo fundamental es obtener el mapa o reconstrucción 3D (R3D), y para ello existen dos caminos, no excluyentes: El procesamiento de imágenes a partir del registro de imágenes y posición (RIP) y el procesamiento del registro de LIDAR y posición (RLP). A partir de la base de datos RIP puede realizarse la correspondencia monocular entre pares de imágenes sucesivas (CM) y, (sólo si se dispone de un sistema estéreo) la correspondencia estéreo entre imágenes capturadas simultáneamente (CST). La correspondencia monocular necesita posteriores etapas de procesamiento para obtener una reconstrucción 3D. Por un lado puede obtenerse un mosaico (MS) que constituye una primera aproximación plana de dicha reconstrucción. Por otro la reconstrucción epipolar (RE), teniendo en cuenta los datos de estimación de posición y orientación contenidos en el registro RIP, permite obtener estimaciones tridimensionales. Finalmente en el bloque AR1 se procede a la actualización de la reconstrucción 3D, teniendo en cuenta, mediante técnicas de fusión de datos, tanto las estimaciones anteriores contenidas en R3D y obtenidas con datos anteriormente analizados como los nuevos datos procedentes de los bloques CST, RE y MS.
El otro camino para obtener una reconstrucción 3D es el LIDAR, junto con las estimaciones de posición y orientación del vehículo, contenidas en RLP. En el bloque AR2 se actualiza la reconstrucción 3D contenida en R3D, de manara análoga a lo realizado en AR1.
Finalmente, las estimaciones generadas con el LIDAR y con el procesamiento de imágenes se fusionan en el bloque FLI, fusión LIDAR/imágenes, si se dispone de ambas fuentes de datos. Como muestra la figura 5, la actualización de R3D se puede realizar mediante tres procedimientos, que se simbolizan mediante un conmutador: Estimación basada en imágenes, estimación basada en LIDAR y estimación basada en fusión de datos de imágenes y de LIDAR.
Separadamente existe el bloque de generación interactiva de medidas (GIM) que permite al usuario extraer de la base de datos R3D las medidas que estima oportunas sobre el terreno u objetos visibles.
Más concretamente, el sistema objeto de la invención se trata de un equipo para la adquisición de información de interés para la planificación, construcción y mantenimiento de obras e infraestructuras, incluyendo la geo-referenciación de imágenes, realización de mapas en 2D y 3D y obtención de medidas de interés para inspección y mantenimiento. La invención consiste en un sistema que comprende los siguientes elementos:
(1) Un vehículo aéreo ligero no tripulado que consiste en un vehículo aéreo dotado de un sistema de control que permite su estabilización automática y el seguimiento de trayectorias definidas mediante puntos de paso que pueden estar registrados en la memoria o ser transmitidos desde la estación en tierra a través de un sistema de comunicaciones inalámbricas.
Los puntos de paso se calculan teniendo en cuenta el modelo del sistema óptico a bordo del vehículo y un mapa aproximado del terreno de baja resolución. Podrá emplearse también un generador de trayectorias que interpolará entre puntos de paso teniendo en cuenta el modelo del vehículo.
El sistema de control empleará sensores de navegación incluyendo una unidad de medidas inerciales, altímetro y posicionamiento por satélite (GPS).
Se contempla también el guiado por parte del operador en tierra de modo que es dicho operador el que dirige al vehículo a los puntos de paso que pueden visualizarse en un monitor. Se contempla también que, aunque las consignas de velocidad se transmitan desde tierra, la estabilización del vehículo se realice automáticamente lo que facilita el guiado por operadores no experimentados.
Con respecto al hardware podrán existir dos diferentes controladores alternativos a bordo del vehículo aéreo no tripulado:
-
Un primer controlador con un sistema basado en computador empotrado PC-compatible.
-
Un segundo controlador con un sistema basado en micro-controlador.
El segundo controlador se empleará en vehículos con baja capacidad de carga y con radio-control desde tierra.
El sistema de comunicaciones enlazará el vehículo aéreo no tripulado con la estación en tierra que se describe más abajo. Se contempla la recepción de órdenes desde la estación en tierra, la transmisión de datos de telemetría, y la transmisión de imágenes de una cámara específica para el guiado desde tierra.
(2) Un sistema óptico donde se contemplan tres posibilidades no excluyentes para la adquisición de información:
(2.1) Sistema de visión monocular compuesto por una cámara de alta resolución y un sistema de archivo que adquiere y registra en memoria secuencias de imágenes del terreno. La tasa de adquisición y registro en memoria se calcula teniendo en cuenta la resolución del mapa requerida. Los datos de las variables de la unidad de medidas inerciales y del GPS se utilizarán para la corrección de las imágenes teniendo en cuenta las desviaciones del vehículo con respecto a la trayectoria especificada. El sistema podrá utilizar también un medidor de distancia láser puntual (telémetro láser) coaxial con el eje óptico de la cámara.
(2.2) Escáner láser (LIDAR). Se trata de un láser escáner en 2D que permite obtener las distancias a las superficies intersectadas por el rayo al girar, movido por un motor, un cierto ángulo en un plano. El dispositivo se colocará en el UAV de forma que 1 dicho plano sea perpendicular al objeto que se pretende reconstruir en 3D.
(2.3) Sistema estéreo compuesto por un par de cámaras de alta resolución colocadas en ambos extremos de una barra rígida. La barra se colocará en la aeronave empleando en la unión elementos de amortiguamiento que disminuyan las vibraciones que podrían dar lugar al movimiento relativo entre las cámaras. Este sistema solo se empleará en vuelos a pequeña distancia del objeto que se pretende reconstruir en 3D y en particular en vuelos de baja altura cuando se desea realizar mapas del terreno.
Además de los mencionados componentes se instalará a bordo una cámara adicional para el guiado del vehículo aéreo no tripulado desde tierra. Esta cámara permitirá el guiado en condiciones de escasa o nula visibilidad del vehículo no tripulado por el piloto de radio-control.
(3) Sistema de registro de datos e imágenes, que es el sistema instalado en el vehículo aéreo que realizará la lectura y registro sincronizado de los datos de la unidad de medidas inerciales, el GPS, el sensor láser lineal, el escáner láser (LIDAR) y las imágenes de la cámara de adquisición de información. Se consideran dos posibles soluciones prácticas:
(3.1) Registro a bordo empleando un dispositivo de almacenamiento apropiado.
(3.2) Transmisión mediante el sistema de comunicaciones y registro en la estación en tierra, donde esta opción se empleará para vehículos con poca carga útil, normalmente operados desde tierra.
(4) Una estación en tierra que comprende, al menos, los siguientes elementos:
(4.1) Un sistema de guiado del vehículo aéreo en modo radio-control empleando para ello un mando convencional de radio control y un visualizador portátil en el que podrán mostrase también las imágenes de la cámara para el guiado enviadas por el sistema de comunicaciones.
(4.2) Registro de imágenes y datos, incluyendo recepción y grabación de las imágenes y datos de los sensores de navegación y sensores ópticos del helicóptero empleando el sistema de comunicaciones.
(4.3) Ayudas a la operación desde tierra. Visualización de la operación del vehículo aéreo no tripulado empleando datos de los sensores de navegación del helicóptero y eventualmente las imágenes de la cámara de guiado desde tierra, pudiendo contemplarse también la modificación de la misión.
(4.4) Procesamiento básico de datos e imágenes. Procesamiento de los datos de los sensores ópticos a bordo del vehículo no tripulado conjuntamente con los datos de navegación.
(4.5) Generación de información. Se incluye aquí la utilización de los resultados del procesamiento básico para la geo-referenciación de las imágenes, generación de mapas en dos y tres dimensiones y obtención de medidas de interés para la planificación de obras e infraestructuras, monitorización de su ejecución y realización de tareas de mantenimiento de las infraestructuras.
Ejemplos de realización y Empleo del sistema
(1) Vehículo aéreo no tripulado
(1.1) Tipo de vehículo
El vehículo básico se elegirá de acuerdo con los parámetros básicos de la aplicación que son:
Distancia que es necesario recorrer en el mismo vuelo, que vendrá determinada por el área que es necesario sobrevolar desde el despegue hasta el aterrizaje.
Altura necesaria del vuelo que vendrá determinada por condiciones de seguridad.
Resolución necesaria en las imágenes para realizar la monitorización y resolución necesaria de los mapas.
Existencia de superficies apropiadas para el despegue y el aterrizaje.
Necesidad o no de inspección de paredes o elementos verticales u oblicuos.
En el caso en que no existan superficies para el despegue y aterrizaje de vehículos de ala fija en las proximidades del área que es necesario inspeccionar, o cuando es necesaria la observación de paredes o elementos verticales u oblicuos, se acudirá a vehículos aéreos de despegue y aterrizaje vertical dotados de rotores, tal como por ejemplo helicópteros. Estos vehículos tienen la ventaja adicional de poder realizar vuelo estacionario en las proximidades del objeto que es necesario inspeccionar obteniendo vistas de detalle con el sistema óptico a bordo.
Sin embargo, si no se dan las anteriores condiciones, podrá acudirse a un vehículo de ala fija. Estos vehículos son más fáciles de controlar tanto automáticamente como por un piloto remoto y sus requerimientos de mantenimiento y seguridad son menores que los del helicóptero, lo que puede ser importante para la aplicación. Sin embargo, su carga útil también suele ser menor que la de un helicóptero de las mismas dimensiones, por lo que habrá que tener en cuenta las dimensiones para su transporte al lugar de intervención. Conviene tener también en cuenta que la altura de vuelo y velocidad son mayores que las de un helicóptero lo que repercutirá en la calidad de las imágenes y los datos adquiridos por el sistema óptico.
Es posible también emplear vehículos de ala fija de peso y dimensiones reducidas lanzados manualmente o con dispositivos especiales, con posibilidad de aterrizar planeando (con motor parado) en superficies relativamente planas. Sin embargo, estos vehículos restringen drásticamente la carga útil lo que repercutirá en la calidad de las imágenes y datos que pueden adquirirse.
Finalmente puede mencionarse también la posibilidad del empleo de dirigibles, tal como, por ejemplo, dirigibles de helio. Sin embargo, estos vehículos deben ser de elevadas dimensiones para poder tener una carga útil apropiada y soportar una velocidad del viento apreciable, por lo que se requeriría disponer de un local para su almacenamiento (hangar) o bien proceder a su recarga (p.e. helio) cada vez que vaya a efectuarse un vuelo, lo que puede resultar costoso. Asimismo, la altura de vuelo debe ser relativamente elevada y el control para velocidades de viento habituales suele ser poco preciso. Por tanto, en general, el uso de estos vehículos no parece el más apropiado para la aplicación.
Por tanto, se concluye que las características de despegue y aterrizaje vertical, vuelo estacionario y capacidad de carga hacen aconsejable al helicóptero para tareas de monitorización de detalle y con obstáculos en las proximidades. Sin embargo, cuando se emplea el helicóptero, el sistema de control es más complejo y debe contarse con pilotos experimentados para su radio control tanto si el sistema ha sido diseñado para el control remoto desde tierra, como para recuperar el helicóptero en condiciones de emergencia cuando se produce un fallo en el sistema de control automático. Por otra parte, será necesario también poner especial atención a las tareas de mantenimiento, especialmente cuando se emplean adaptaciones de helicópteros convencionales de radio control, en los cuales la fiabilidad de los componentes es baja.
Sin embargo para tareas en áreas extensas, despejadas y con posibilidades de despegue y aterrizaje se recomienda el empleo de aviones de ala fija.
(1.2) Sistema de control
En el sistema de control se contemplan tres alternativas, no necesariamente excluyentes ya que podrían integrarse en un único controlador con tres modos de funcionamiento como se ilustra en la figura 2.
(1.2.1) M1: Radio Control. En este caso es el piloto de radio control el que envía desde tierra las órdenes a los servocontroladores. Por tanto, el sistema de control puede reducirse a un microcontrolador con los periféricos apropiados, Este microcontrolador debe leer, registrar y enviar a través del sistema de comunicaciones los datos de los sensores a bordo. Con respecto a las comunicaciones, además del enlace específico de radio control puede utilizarse un transmisor de imágenes analógico para el envío de las imágenes de la cámara de guiado desde tierra, y una red ethernet inalámbrica, tal como por ejemplo IEEE 802.11n para el envío de los datos de la cámara de adquisición de imágenes para su procesamiento, LIDAR y datos de navegación. Sin embargo, hay que poner de manifiesto que esta solución, es interesante para operaciones locales y a baja velocidad ya que, al contrario que la M3 que se describirá posteriormente, existen importantes limitaciones sobre la distancia a la que puede volarse (pocos cientos de metros) y la velocidad del vehículo aéreo. Asimismo, es necesario tener en cuenta que la resolución de las imágenes limitaría de forma importante la velocidad de navegación.
(1.2.2) M2: Sistema Mixto: En este caso el piloto realiza el radio-control por velocidad lineal, con estabilización del vehículo aéreo automática tal como se ilustra en la Figura 2. El control está basado en un computador empotrado que realiza las siguientes funciones:
-
Estabilización y control de bajo nivel del vehículo aéreo suministrando consignas a los servocontroladores
-
Lectura y registro sincronizado de las imágenes de la cámara de adquisición de imágenes para su procesamiento, LIDAR, telémetro láser, datos de la unidad de medidas inerciales, y datos del GPS.
Con respecto al sistema de comunicaciones se mantiene el enlace de radio-control, el transmisor de imágenes para la cámara de guiado desde tierra, y un radio-módem de alta velocidad para el envío de los datos de telemetría del vehículo aéreo (unidad de medidas inerciales y GPS).
(1.2.3) M3: Sistema autónomo con grabación a bordo. Se trata de un sistema de navegación autónoma basado en un computador empotrado que realiza las siguientes funciones:
-
Navegación entre puntos de paso con interpolación de trayectorias.
-
Control de bajo nivel del vehículo aéreo en diversos modos de control utilizando los datos del sistema de navegación y GPS diferencial.
-
Lectura y registro sincronizado de las imágenes de la cámara de adquisición de imágenes para su procesamiento, LIDAR, láser puntual, datos de la unidad de medidas inerciales, y datos del GPS.
Con respecto al sistema de comunicaciones se mantiene el enlace de radio-control para operaciones de emergencia (y eventualmente despegue y aterrizaje), el transmisor de imágenes para la cámara de guiado desde tierra, y un radiomódem de alta velocidad para el envío de los datos de telemetría del vehículo aéreo (unidad de medidas inerciales y GPS).
(2) Sistema óptico
(2.1) Sistema de cámaras: Se utilizará un número máximo de dos cámaras y, opcionalmente, otra para guiado desde tierra, con menores requerimientos en cuanto a sus prestaciones. Existen dos implementaciones diferentes en función de que se opte por instalar un microcontrolador o un computador empotrado PC-compatible:
-
En un sistema basado en microcontrolador se utilizarán cámaras de color con interfaz estándar PAL, de calidad alta resolución (unas 500 líneas de resolución horizontal). La señal se envía a tierra a través de un transmisor de vídeo inalámbrico analógico, situándose una digitalizadora en el computador de la estación de tierra.
-
En un sistema basado en computador empotrado se utilizarán cámaras digitales con interfaz IEEE-1394 (Firewire) y protocolo DCAM, que permite obtener una imagen de alta resolución sin utilizar ningún medio de compresión, y al mismo tiempo modificar de manera flexible los parámetros de la cámara. Pueden utilizarse cámaras de 1024x768 píxeles, tales como, por ejemplo, la DFK 31BF03. Alternativamente pueden utilizarse cámaras con interfaz USB 2.0 y resolución equivalente, tales como la DFK 31BU03. Tanto en un caso como en el otro, para la opción de sistema estéreo es necesario que la cámara disponga de disparo externo, que permita la captura simultánea. Las imágenes recibidas de las cámaras pueden sincronizarse con facilidad con las lecturas de otros sensores (GPS, unidad de medida inercial), dado que es el mismo computador el que realiza la captura de datos.
La primera solución tiene como principales ventajas la simplicidad y el peso reducido, mientras que la segunda permite mayores prestaciones.
Para la opción monocular, se fijará la cámara con eje óptico orientado verticalmente en aplicaciones de construcción de mapas del terreno, y horizontalmente para construcción de modelos detallados de edificios (ver Figura 3). La opción de sistema estéreo requiere que no varíe significativamente la orientación relativa de las cámaras, que habrán de estar separadas tanto como sea posible en función de las características del vehículo. La línea base que une ambas cámaras será aproximadamente horizontal; para mapas del terreno las cámaras estarán orientadas verticalmente, y para reconstrucciones de edificios estarán orientadas según la horizontal.
(2.2) Sensor LIDAR 2D: El sensor LIDAR será de tipo 2D, orientado en sentido perpendicular al elemento cuya representación 3D se pretende obtener. Para construcción de mapas del terreno el plano del LIDAR será vertical (ver Figura 3), y para modelos de detalle de edificios será horizontal. Recientemente han aparecido modelos de peso reducido, como por ejemplo el Hokuyo UTM-30LX. Para las aplicaciones que se plantean es suficiente un LIDAR con alcance real de al menos 30 metros y resolución de 0.25 grados o superior.
(3) Sistema de registro de imágenes y datos en el vehículo aéreo
Cuando existe un computador empotrado a bordo (opciones M2 y M3) el registro de datos se realizará a bordo en discos estáticos (memoria FLASH) de alta capacidad. El registro a bordo de datos permite independizar la tasa de almacenamiento del ancho de banda del enlace inalámbrico, y disminuye el riesgo de pérdida de datos por problemas en el enlace.
Para cada imagen o barrido del LIDAR se extrapolarán los datos de posición y orientación obtenidos asíncronamente del GPS, unidad de medida inercial y telémetro láser para crear una estimación del estado del vehículo en el instante de adquisición. Se creará una base de datos en la que cada imagen y barrido de LIDAR llevará asociados unos datos de telemetría y un instante de adquisición. Separadamente se almacenarán los datos en bruto obtenidos por los sensores, cada uno de ellos con su marca de tiempo correspondiente. Estas actividades se representan gráficamente en la figura 4.
(4) Estación en tierra
Se compone del equipo de radio control y de un computador para ayudas a la operación y procesamiento. A continuación se describirán utilizando la misma numeración que en la realización preferente de la invención:
(4.1) Equipo de radio control. Consistirá en un mando de radio control convencional y un monitor en el cual podrán visualizarse datos de navegación transmitidos por los sensores mediante el sistema de comunicaciones.
En el computador se realizarán las siguientes funciones:
(4.2) Registro de imágenes y datos: En la opción M1 el registro de imágenes y datos se realizará en la estación de tierra de igual manera que en las opciones M2 y M3, aunque en M1 los datos de imágenes son los proporcionados por la digitalizadora, la telemetría es la recibida por el enlace inalámbrico, y el lugar de almacenamiento es el disco del computador de la estación.
En las opciones M2 y M3, la funcionalidad de la estación de tierra se reduce a crear una copia de los datos registrados en el computador empotrado de a bordo.
(4.3) Ayudas a la operación desde tierra
Esta función es necesaria en las opciones M1 y M2 mencionadas anteriormente. Se trata de representar gráficamente la evolución de la ejecución de la misión y su comparación con la previamente especificada empleando para ello datos de navegación del vehículo aéreo no tripulado. Puede contemplarse también la modificación de la misión introduciendo nuevos puntos de paso por razones de seguridad o eficiencia.
(4.4) Técnicas básicas de procesamiento de los datos recogidos: Dependiendo de la configuración del sistema se distingue entre
-
Sistema monocular
En un sistema monocular los datos procedentes de imágenes se combinarán con los procedentes del GPS, la unidad de medida inercial y el telémetro láser (si se dispone de él), para aumentar la precisión y resolver el problema de indeterminación del factor de escala. Se utilizarán las siguientes herramientas conocidas en la literatura:
Correspondencia entre imágenes: Necesaria para relacionar imágenes de una secuencia entre sí, mediante emparejamiento de rasgos puntuales.
Construcción de mosaicos: Construcción de un mapa simplificado, describiendo la transformación del punto de vista mediante una secuencia de homografías, y suponiendo de manera implícita como primera aproximación que el terreno es plano.
◦ Reconstrucción epipolar: Recuperación de la orientación relativa y desplazamiento de las cámaras entre dos imágenes, junto con las posiciones de los puntos visibles, salvo un factor de escala. La reconstrucción de la escena en magnitud absoluta depende de la incorporación de medidas adicionales, al menos la del GPS.
-
Sistema estéreo.
En un sistema estéreo la línea base ofrece una referencia absoluta que resuelve la indeterminación de escala, a cambio de una mayor complejidad del sistema; la correspondencia entre pares de puntos conduce así a una reconstrucción 3D completa, sin necesidad de sensores adicionales. La aplicación en UAVs está condicionada a mantener una distancia máxima por encima de la cual el sistema pierde su eficacia. La distancia máxima depende del tamaño de la linea base y de la resolución de las cámaras; en el caso de vehículos aéreos pequeños es en la práctica de pocas decenas de metros.
-
Escáner láser (LIDAR): El LIDAR 2D ofrece dentro de su distancia útil (algunas decenas de metros) y de la curva de intersección del plano de medida con el terreno o edificio bajo observación una reconstrucción 3D directa. Sin embargo para obtener una reconstrucción completa hay que realizar un barrido de la escena, que puede hacerse utilizando el desplazamiento del vehículo. Para obtener un resultado correcto es necesario estimar la posición y orientación del vehículo aéreo en el instante en que se realiza cada medida, y realizar las correcciones adecuadas.
Asimismo, en función de la configuración de sensores escogida, el error de los resultados podrá minimizarse con ayuda de técnicas de fusión de datos para lo cual hay que realizar un modelado estadístico del error de cada sensor y una estimación óptima de la medida, realizada mediante técnicas de inferencia bayesiana. Pueden enumerarse las siguientes posibilidades que se representan gráficamente en la Figura 5:
-
Combinación de GPS, telémetro láser y unidad de medida inercial con datos obtenidos de imágenes o del LIDAR: Este procedimiento se utilizará siempre, pues resulta necesario con imágenes monoculares para resolver la indeterminación del factor de escala, necesario también con el LIDAR para estimar la posición del vehículo en cada instante, y conveniente para mejorar las medidas de un sistema estéreo.
-
Combinación de datos de LIDAR con datos procedentes de imágenes: Se procederá a realizar una calibración que permita ubicar la recta de proyección del láser con respecto a la imagen adquirida por la cámara. De este modo puede relacionarse la medida de distancia suministrada directamente por el LIDAR con la obtenida procesando las imágenes.
-
Integración de los datos obtenidos a lo largo de secuencias de medidas: Dado que parte de la misma escena aparece sucesivamente en varias imágenes o conjuntos de medidas del LIDAR, se procederá a integrar de manera óptima los datos a lo largo del tiempo, actualizando la descripción estadística de los parámetros de cada punto.
(4.5) Generación de resultados para aplicaciones
(4.5.1) Construcción de mapas: En esta aplicación el objetivo es obtener una representación del terreno basada en puntos para los que se define su latitud, longitud y altura. Cuando se dispone de datos de imágenes monoculares, se procederá en primer lugar a obtener una aproximación basada en construcción de mosaicos, que supone un mapa plano sobre el que se ubican los rasgos de las imágenes, transformados mediante una homografía; la hipótesis de suelo plano permite proporcionar estabilidad al proceso de estimación. Posteriormente se corrige progresivamente la altura utilizando correspondencia entre imágenes combinada con las medidas de GPS para obtener una reconstrucción 3b y con las medidas del LIDAR, si se dispone de ellas. En sistemas estéreo el propio sistema de visión proporciona una medida absoluta de profundidad, que debe combinarse con el resto de los datos. El uso de un sistema estéreo añade más información a los datos obtenidos mediante imágenes, de forma que es posible crear un mapa combinando sus resultados con la posición y orientación suministrados por el GPS y la unidad de medida inercial. Este mapa mejorará en resolución, sin embargo, utilizando técnicas de integración de datos a lo largo de secuencias de pares de imágenes y medidas de distancia obtenidas mediante el LIDAR.
(4.5.2) Geo-referenciación automática de imágenes: La geo-referenciación de imágenes aisladas puede realizarse con parte de las técnicas empleadas en la construcción de mapas. Puesto que el problema se resuelve determinando la posición relativa del vehículo con respecto al terreno u objeto que figura en la imagen. En la mayor parte de los casos puede ser suficiente un modelo simple en el que la zona se considere aproximadamente plana, y se obtenga la posición relativa mediante cálculo de homografías.
(4.5.3) Monitorización: Para esta aplicación las imágenes resultan imprescindibles, y el LIDAR (si se dispone de él) es un elemento auxiliar que permite mejorar las estimaciones de distancias y medidas de elementos. La monitorización podrá realizarse de manera simple, haciendo que el vehículo aéreo sobrevuele el área concreta a monitorizar a una distancia suficientemente pequeña, por ejemplo 10 metros, tomando imágenes. Procedimientos análogos a los utilizados para construir mapas permitirán estimar localmente distancias y medidas; la presencia del LIDAR determinará con mayor exactitud la ubicación de los objetos de interés mejorando así los resultados. Alternativamente se podrá realizar una reconstrucción 3D, con técnicas análogas a las utilizadas para la construcción de mapas, y sobre tal reconstrucción se ubicarán los puntos monitorizados.
Aplicación industrial
El equipo podría aplicarse industrialmente a:
Planificación de obras e infraestructuras a partir de imágenes geo-referenciadas y mapas del terreno.
El empleo de la información de dichas imágenes y mapas permitiría obtener mediciones de interés para planificar nivelaciones, replanteos, evaluación de movimientos de tierra, excavaciones, realización de muros de contención, tendido de tuberías, construcción de colectores de agua potable, hormigonado de canales, construcciones viales, obras en superficies comerciales y estacionamientos. Los mapas podrían utilizarse también para asignar recursos personales y de maquinaria de forma eficiente, reduciendo costes de alquileres de maquinaria.
Monitorización de la ejecución de las obras empleando también las imágenes geo-referenciadas y los mapas, minimizando las necesidades de repasar el trabajo mediante métodos manuales con personas desplazándose por la obra. Las mediciones efectuadas en las imágenes y mapas permitirían analizar de forma eficiente la evolución del movimiento de tierras para poder facturar en función del progreso de los volúmenes, así como comprobar alineaciones y nivelaciones tanto en pendientes pronunciadas (terraplenes en autopistas, escolleras y escombreras o vertederos), como en trabajos con más requerimientos de precisión (pavimentación) midiendo la elevación e inclinación De esta forma sería posible comprobar de forma fácil el replanteo y las especificaciones, así como contribuir a determinar la actividad de los recursos en cada obra para la certificación del proyecto, identificando y eliminando las ineficacias del flujo de trabajo en la obra.
Mantenimiento.
En este caso se emplearían las imágenes y los mapas para efectuar mediciones que permitan implantar estrategias de mantenimiento, en especial en zonas de difícil acceso por personas. A este respecto resultará útil disponer de imágenes obtenidas a corta distancia y relacionadas con precisión entre sí.
Aunque para efectuar mediciones de interés para las aplicaciones indicadas más arriba existen métodos manuales, y basados en el empleo de vehículos terrestres y aéreos pilotados, el empleo de la invención con un vehículo aéreo no tripulado ligero permitiría reducir costes y aumentar la calidad, obteniendo información de lugares poco accesibles, en operaciones de planificación, monitorización y mantenimiento.

Claims (5)

  1. REIVINDICACIONES
    1. Sistema para la obtención de información en obras e infraestructuras basado en vehículo aéreo no tripulado (UAV) caracterizado porque comprende, al menos:
    (i)
    un vehículo aéreo no tripulado que comprende medios para su control y operación desde tierra, medios de adquisición y medios de registro sincronizado de imágenes y datos; y
    (ii)
    una estación en tierra comprendiendo, a su vez, un dispositivo de radio-control, y un computador para ayuda a la operación comprendiendo medios para la planificación, construcción y mantenimiento de obras e infraestructuras, incluyendo la geo-referenciación de las imágenes, la construcción de mapas en dos y tres dimensiones, y la obtención de medidas entre puntos y rasgos característicos.
  2. 2. Sistema según reivindicación 1 caracterizado porque los medios de control del vehículo aéreo no tripulado comprenden un controlador configurable y operable en un modo seleccionado entre:
    a.
    Un primer modo radio-controlado desde tierra por un piloto;
    b.
    Un segundo modo radio-controlado en velocidad desde tierra por un piloto con estabilización automática a bordo del vehículo para facilitar la actuación del piloto; y
    c.
    Un tercer modo de control automático a bordo que le permite recorrer de forma automática una secuencia de puntos de paso definida por un operador en el computador de la estación de tierra.
  3. 3.
    Sistema según reivindicaciones1y2 caracterizado porque el vehículo aéreo no tripulado es un helicóptero configurado para permitir el despegue y aterrizaje vertical, y vuelo estacionario.
  4. 4.
    Sistema según reivindicaciones anteriores caracterizado porque los medios de geo-referenciación de imágenes obtenidas mediante vehículo aéreo no tripulado reciben como entradas las Imágenes y datos adquiridos con los sensores a bordo del vehículo no tripulado y producen las imágenes geo-referenciadas.
  5. 5.
    Sistema según reivindicaciones anteriores caracterizado porque los medios de construcción de mapas en 2D y 3D de obras e infraestructuras tienen como entradas las imágenes y los datos de obras e infraestructuras, así como los datos de navegación del vehículo aéreo no tripulado, obtenidos con los sensores a bordo del vehículo no tripulado, y que funcionará en un modo sensorial seleccionado entre:
    (i)
    Un primer modo sensorial comprendiendo un sistema monocular con una única cámara empleando correspondencia entre imágenes consecutivas, construcción de mosaicos y reconstrucción epipolar, resolviendo la indeterminación de escala mediante telémetro láser o coordenada GPS.
    (ii)
    Un segundo modo sensorial comprendiendo un sistema estéreo con dos cámaras cuyas imágenes deben hacerse corresponder, empleando la línea base como referencia absoluta que resuelve la indeterminación de escala.
    (iii) Un tercer modo sensorial comprendiendo un escáner láser (LIDAR) para obtener las coordenadas de los puntos que intersectan el plano de barrido con el terreno.
    (iv) Un cuarto modo sensorial combinación de los anteriores.
    OFICINA ESPAÑOLA DE PATENTES Y MARCAS
    N.º solicitud: 200802546
    ESPAÑA
    Fecha de presentación de la solicitud: 03.09.2008
    Fecha de prioridad:
    INFORME SOBRE EL ESTADO DE LA TECNICA
    51 Int. Cl. : Ver Hoja Adicional
    DOCUMENTOS RELEVANTES
    Categoría
    Documentos citados Reivindicaciones afectadas
    X
    US 7363157 B1 (HANNA BARBARA et al.) 22.04.2008, todo el documento. 1-6,9,10
    A
    US 2005027406 A1 (NONAMI KENZO et al.) 03.02.2005 1
    A
    JP 2005263105 A (CHUGOKU ELECTRIC POWER et al.) 29.09.2005 1
    A
    US 5559334 A (GUPTA RAJIV et al.) 24.09.1996 1
    A
    EP 1589482 A2 (TOPCON CORP) 26.10.2005 1
    Categoría de los documentos citados X: de particular relevancia Y: de particular relevancia combinado con otro/s de la misma categoría A: refleja el estado de la técnica O: referido a divulgación no escrita P: publicado entre la fecha de prioridad y la de presentación de la solicitud E: documento anterior, pero publicado después de la fecha de presentación de la solicitud
    El presente informe ha sido realizado • para todas las reivindicaciones • para las reivindicaciones nº:
    Fecha de realización del informe 25.03.2011
    Examinador M. C. González Vasserot Página 1/2
    INFORME DEL ESTADO DE LA TÉCNICA
    Nº de solicitud: 200802546
    CLASIFICACIÓN OBJETO DE LA SOLICITUD G01S17/89 (2006.01)
    G01C11/00 (2006.01) G01S17/02 (2006.01) Documentación mínima buscada (sistema de clasificación seguido de los símbolos de clasificación)
    G01S, G01C
    Bases de datos electrónicas consultadas durante la búsqueda (nombre de la base de datos y, si es posible, términos de búsqueda utilizados) INVENES, EPODOC, WPI
    Informe del Estado de la Técnica Página 2/2
ES200802546A 2008-09-03 2008-09-03 Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado. Active ES2366717B1 (es)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES200802546A ES2366717B1 (es) 2008-09-03 2008-09-03 Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado.
PCT/ES2009/000380 WO2010026268A1 (es) 2008-09-03 2009-07-20 Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES200802546A ES2366717B1 (es) 2008-09-03 2008-09-03 Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado.

Publications (2)

Publication Number Publication Date
ES2366717A1 ES2366717A1 (es) 2011-10-25
ES2366717B1 true ES2366717B1 (es) 2012-08-30

Family

ID=41796766

Family Applications (1)

Application Number Title Priority Date Filing Date
ES200802546A Active ES2366717B1 (es) 2008-09-03 2008-09-03 Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado.

Country Status (2)

Country Link
ES (1) ES2366717B1 (es)
WO (1) WO2010026268A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2390441B1 (es) * 2010-12-01 2013-10-02 Sacyr, S.A. (Sociedad Unipersonal) Sistema para estudios topográficos e inspección de obras
US9549646B2 (en) * 2010-12-08 2017-01-24 Gojo Industries, Inc. Wipes dispenser
ES2432229B1 (es) * 2013-03-22 2014-09-12 Universidad De León Sistema y método de supervisión
FR3004801A1 (fr) * 2013-04-18 2014-10-24 Delta Drone Procede de mesure du volume d'un amas de materiaux
CN104880149B (zh) * 2014-02-28 2018-08-28 江苏永钢集团有限公司 基于立体影像分析的大型散料货堆体积测量方法及其设备
DE102014218749A1 (de) 2014-09-18 2016-03-24 Bayerische Motoren Werke Aktiengesellschaft Unterstützung eines Bedieners einer Arbeitsmaschine mittels eines unbemannten Flugobjektes
CN106556843A (zh) 2015-09-28 2017-04-05 东莞前沿技术研究院 三维地形测绘系统以及测绘方法
CN106934579A (zh) * 2017-03-20 2017-07-07 南京医科大学第附属医院 基于无人机的自动仓储系统的控制方法
CA3099638A1 (en) 2017-05-07 2018-11-15 Manam Applications Ltd. System and method for construction 3d modeling and analysis
CN107117313B (zh) * 2017-05-24 2019-03-12 东南大学 一种基于bim的无人机道路检测系统
EP3623893B1 (de) * 2018-09-12 2021-06-23 vaireco GmbH Verfahren zum lokalisieren einer störung eines systems
ES2893998A1 (es) * 2020-07-31 2022-02-10 Arborea Intellbird Sl Sistema y procedimiento de inspeccion de infraestructuras
US11836990B2 (en) * 2022-03-18 2023-12-05 GM Global Technology Operations LLC Methods and systems for two-phase camera to lidar alignment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5559334A (en) * 1995-05-22 1996-09-24 General Electric Company Epipolar reconstruction of 3D structures
FR2735778B1 (fr) 1995-06-22 1997-08-22 Prolabo Sa Nouveau latex de microspheres magnetisables monodisperses calibrees, procede de preparation et utilisation dudit latex en chimie ou en biologie
AU731398B2 (en) 1997-07-18 2001-03-29 Gyrus Medical Limited An electrosurgical instrument
JP4141860B2 (ja) * 2003-02-26 2008-08-27 健蔵 野波 小型無人ヘリコプタの自律制御装置及びプログラム
JP4342355B2 (ja) * 2004-03-19 2009-10-14 中国電力株式会社 無人飛行体を利用した公衆への告知システム
JP2005308553A (ja) * 2004-04-21 2005-11-04 Topcon Corp 三次元画像計測装置及び方法
US7363157B1 (en) * 2005-02-10 2008-04-22 Sarnoff Corporation Method and apparatus for performing wide area terrain mapping

Also Published As

Publication number Publication date
ES2366717A1 (es) 2011-10-25
WO2010026268A1 (es) 2010-03-11

Similar Documents

Publication Publication Date Title
ES2366717B1 (es) Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado.
EP3290952B1 (en) Automatic localization geometry detection
Nex et al. UAV for 3D mapping applications: a review
Siebert et al. Mobile 3D mapping for surveying earthwork projects using an Unmanned Aerial Vehicle (UAV) system
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
Haala et al. Mobile LiDAR mapping for 3D point cloud collection in urban areas—A performance test
Tao Mobile mapping technology for road network data acquisition
EP2132530B1 (en) System and method for position determination
ES2935618T3 (es) Método de navegación de un vehículo y sistema del mismo
Eisenbeiss et al. Photogrammetric documentation of an archaeological site (Palpa, Peru) using an autonomous model helicopter
JP6290735B2 (ja) 測量方法
Santise et al. Evaluation of DEM generation accuracy from UAS imagery
CN111323789B (zh) 一种基于无人机和固态雷达的地面形貌扫描装置及方法
JP2012511697A (ja) 測地参照データベースを生成する方法
Saadatseresht et al. UAV photogrammetry: a practical solution for challenging mapping projects
US20130293716A1 (en) Mobile mapping system for road inventory
Haarbrink et al. Accurate DSM production from unmanned helicopter systems
Soheilian et al. Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas
Eisenbeiss et al. Photogrammetric recording of the archaeological site of Pinchango Alto (Palpa, Peru) using a mini helicopter (UAV)
CN115017454A (zh) 无人机和移动测量车空地协同组网遥感数据采集系统
CN101762269A (zh) 无控制点地区地形图低空测图技术和设备
Fotinopoulos Baloon photogrammetry for archaeological surveys
Harrap et al. An overview of LIDAR: collection to application
Trevoho et al. Aerial data application for construction of large-scale plans
CN201622071U (zh) 无控制点地区地形图低空测图传感平台

Legal Events

Date Code Title Description
PC2A Transfer of patent
FG2A Definitive protection

Ref document number: 2366717

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20120830