ES2394540B1 - Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto - Google Patents

Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto Download PDF

Info

Publication number
ES2394540B1
ES2394540B1 ES201231200A ES201231200A ES2394540B1 ES 2394540 B1 ES2394540 B1 ES 2394540B1 ES 201231200 A ES201231200 A ES 201231200A ES 201231200 A ES201231200 A ES 201231200A ES 2394540 B1 ES2394540 B1 ES 2394540B1
Authority
ES
Spain
Prior art keywords
aircraft
land vehicle
information
sensors
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES201231200A
Other languages
English (en)
Other versions
ES2394540A1 (es
Inventor
Jaume SASTRE I SASTRE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Geonumerics S L
GEONUMERICS SL
Original Assignee
Geonumerics S L
GEONUMERICS SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geonumerics S L, GEONUMERICS SL filed Critical Geonumerics S L
Priority to ES201231200A priority Critical patent/ES2394540B1/es
Publication of ES2394540A1 publication Critical patent/ES2394540A1/es
Priority to BR112015001737-1A priority patent/BR112015001737B1/pt
Priority to US14/417,435 priority patent/US9477230B2/en
Priority to PCT/EP2013/065401 priority patent/WO2014016240A1/en
Priority to EP13739439.1A priority patent/EP2877904B1/en
Application granted granted Critical
Publication of ES2394540B1 publication Critical patent/ES2394540B1/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0808Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/04Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Astronomy & Astrophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto.#La invención propuesta se refiere a un procedimiento para la adquisición y procesamiento simultáneo de información geográfica de un trayecto adquirido mediante misiones terrestres y aéreas de tándem que comprende un vehículo terrestre y una o más aeronaves no tripuladas cuya trayectoria está sujeta a la del vehículo terrestre que se desvía mediante desviaciones de tiempo y espaciales. El procedimiento comprende las etapas de: adquirir datos e información geográficos por medio de una pluralidad de sensores del vehículo terrestre; enviar información de trayectoria del vehículo terrestre a la aeronave, desde una estación de control alojada en el vehículo terrestre, cada cierto periodo de tiempo, siendo el periodo de tiempo un parámetro de diseño; cuando la aeronave recibe la información de trayectoria del vehículo terrestre, determinar la aeronave su trayectoria según la información de trayectoria del vehículo terrestre recibida; adquirir datos e información geográficos, incluyendo imágenes, por medio de una pluralidad de sensores de la aeronave; obtener, en un módulo de procesamiento, la orientación de los sensores tanto del vehículo terrestre como de la aeronave a partir de los datos e información geográficos adquiridos; calibrar, en un módulo de procesamiento, los sensores tanto del vehículo terrestre como de la aeronave a partir de los datos e información geográficos adquiridos; y asociar cada imagen adquirida con la orientación y la calibración obtenidas.

Description

Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto
5 CAMPO TÉCNICO DE LA INVENCIÓN
La presente invención se refiere de forma general al mapeo y más específicamente a la adquisición de geodatos de rutas por medio de un tándem compuesto por vehículos aéreo-terrestres que funcionan simultáneamente.
10 ANTECEDENTES DE LA INVENCIÓN
El mapeo, o el mapeo de rutas, se ha realizado siempre o bien mediante tecnologías de mapeo móviles terrestres o mediante tecnologías aéreas o mediante combinaciones de las mismas, pero habitualmente, sólo se usa una de las dos técnicas.
15 En proyectos pequeños de adquisición de geodatos, se usan sistemas aéreos no tripulados, sobre todo, en operaciones militares, las denominadas misiones DDD (tediosas, en ambiente contaminado y peligrosas, “dull, dirty and dangerous”). Un sistema aéreo no tripulado está compuesto por una aeronave teledirigida o no tripulada, una estación de control de tierra y un enlace radio de datos que permite que se comuniquen la
20 aeronave no tripulada y la estación de control de tierra.
Desde un punto de vista tecnológico, la aeronave no tripulada de un sistema aéreo no tripulado es una excelente plataforma para llevar teledetección fotogramétrica y otros tipos de sensores y para llevar a cabo misiones de detección aéreas. En comparación con una aeronave tripulada, una no tripulada es pequeña, liviana y barata.
25 Además, una aeronave no tripulada se beneficia del progreso actual en miniaturización informática y de sensores.
Desde un punto de vista legal (es decir, normativo), dependiendo del país, las operaciones de sistema aéreo no tripulado adolecen o bien de carencia de reglamento o bien de poseer un reglamento demasiado estricto. Aparte
30 de los usuarios militares y gubernamentales, como la policía o los bomberos, el uso de un sistema aéreo no tripulado es percibido muchas veces por las autoridades de Aviación Civil y otras autoridades del país o locales como una amenaza para la seguridad. Las autoridades de Aviación Civil están preocupadas por los accidentes de aeronave provocados por la colisión de una aeronave tripulada con una no tripulada. Otras autoridades están preocupadas por el mal uso de la tecnología de sistema aéreo no tripulado (terrorismo y delincuencia) o por los
35 daños involuntarios a propiedades y personas (accidentes). En general, cuanto mayor y más pesada sea la aeronave no tripulada, más preocupaciones y más restricciones surgen en cuanto a su funcionamiento. Existen muchos esfuerzos concurrentes y paralelos para desarrollar reglamentos compatibles europeos, estadounidense y mundiales como el grupo Joint Authorities for Rulemaking on Unmanned Systems (JARUS) con la participación de 19 autoridades de Aviación Civil a día de hoy.
40 La mayoría, sino todos, los reglamentos existentes fijan tres límites a las operaciones aéreas no tripuladas: un límite de peso (el denominado peso de despegue máximo de la aeronave no tripulada,) una distancia dentro de la línea de visión, (LOS) entre la estación de control de tierra y la aeronave no tripulada (normalmente algunos cientos de metros) y una altura de vuelo máxima por encima de tierra (normalmente hasta 300 m). “Dentro de la
45 línea de visión” o, simplemente, la “restricción LOS” entre la estación de control de tierra y la aeronave no tripulada limita el alcance y la productividad de las misiones de adquisición de geodatos basadas en sistema aéreo no tripulado en comparación con las aerotransportadas convencionales. Por tanto, aparentemente, la adquisición de geodatos y el mapeo basados en sistema aéreo no tripulado es un área de aplicabilidad y mercado limitados.
50 Sin embargo, existen más técnicas de mapeo de rutas. Por ejemplo, el mapeo de rutas de ferrocarril se realiza habitualmente con un coche o furgoneta de mapeo móvil terrestre montado sobre un tren, vagoneta o tranvía. El estudio hidrográfico de la ruta se realiza también muchas veces con un coche de mapeo móvil terrestre sobre una embarcación pequeña. Pero no se realizan misiones aéreo-terrestres de tándem simultáneas, siendo una de
55 las razones que es casi imposible (aviones) o demasiado caro (helicópteros) hacer que una aeronave vuele por encima de un sistema de mapeo móvil terrestre a las bajas velocidades de un coche de mapeo móvil terrestre, entre 20 km/h y 60 km/h.
Generalmente, las misiones descritas anteriormente se llevan a cabo por separado; es decir, no se realizan
60 misiones aéreo-terrestres simultáneas, por tanto los datos adquiridos en las misiones de mapeo terrestres carecen de la vista desde arriba. Análogamente, los datos adquiridos en misiones de mapeo aéreas carecen de la vista lateral de las fachadas de los edificios. Esto conduce a duplicar las misiones de adquisición (terrestres y aéreas), a una área de misión limitada, pequeña, o a una orientación equivocada de los sensores del vehículo terrestre en cañones urbanos o naturales.
SUMARIO DE LA INVENCIÓN
La presente invención sirve para resolver los problemas de misiones dobles de adquisición de geodatos (terrestres y aéreas); área de misión limitada, pequeña para misiones de adquisición de geodatos basadas en 5 sistemas aéreos no tripulados; y orientación equivocada de los sensores de vehículos terrestres en cañones urbanos en las misiones de mapeo móvil de ruta terrestre.
La invención propuesta permite la adquisición de geodatos para grandes áreas porque la estación de control es móvil y por tanto se resuelve la “restricción LOS” porque se instala la estación de control en el vehículo terrestre y mantiene una distancia corta con la aeronave.
La invención propuesta abre el campo de mapeo aéreo-terrestre total a costes significativamente inferiores a los de los servicios de mapeo actuales que combinan misiones mucho más caras diferentes proporcionando un procedimiento para la adquisición y procesamiento de información geográfica de un trayecto, estando
15 caracterizado el procedimiento porque comprende las siguientes etapas: a) adquirir datos e información geográficos por medio de una pluralidad de sensores del vehículo terrestre; b) enviar información de trayectoria del vehículo terrestre a la aeronave, desde una estación de control alojada en el vehículo terrestre, cada cierto periodo de tiempo, siendo el periodo de tiempo un parámetro de diseño;
c) cuando la aeronave recibe la información de trayectoria del vehículo terrestre, determinar la aeronave su trayectoria según la información de trayectoria del vehículo terrestre recibida; d) adquirir datos e información geográficos, incluyendo imágenes, por medio de una pluralidad de sensores de la aeronave; 25 e) obtener en un módulo de procesamiento, la orientación de los sensores tanto del vehículo terrestre como de la aeronave a partir de los datos e información geográficos adquiridos; f) calibrar, en un módulo de procesamiento, los sensores tanto del vehículo terrestre como de la aeronave a partir de los datos e información geográficos adquiridos; g) asociar cada imagen adquirida con la orientación y la calibración obtenidas en las etapas e) y f) respectivamente.
En la invención propuesta, la estación de control es parte del vehículo terrestre. Cuando el vehículo terrestre se mueve, la estación de control se vuelve una “estación de control móvil” y dado que la aeronave sigue al vehículo terrestre (a una altura constante encima de él en una de las realizaciones) se cumplen la “restricción
35 LOS” y la “restricción de altura”.
El procedimiento de la invención puede comprender identificar figuras geométricas de tamaño y forma conocidos sobre el techo del vehículo terrestre mediante un sensor de imagen de la aeronave.
En una realización de la invención, la etapa de obtener la orientación y calibrar los sensores de la aeronave comprende además usar información posicional, de actitud, de tamaño y de forma de las figuras geométricas sobre el techo del vehículo terrestre.
Una realización de la invención comprende, en la etapa de obtener la orientación y calibrar los sensores tanto del
45 vehículo terrestre como de la aeronave, comprende además usar información geográfica previamente conocida. Esta información geográfica puede obtenerse a partir de un mapa por ejemplo.
Otra realización de la invención puede comprender, en la etapa de obtener la orientación y calibrar los sensores tanto del vehículo terrestre como de la aeronave, además usar un mismo elemento en imágenes diferentes adquiridas mediante el sensor de imagen de la aeronave y/o el vehículo terrestre. Un mismo elemento en imágenes diferentes se usa como un punto de conexión.
En una realización de la invención, las imágenes adquiridas se etiquetan con la hora; es decir, están sincronizadas con algún marco de referencia de tiempo. Por tanto, durante la fase de postprocesamiento es útil
55 para la sincronización de imágenes con otros datos adquiridos etiquetadas con la hora.
Se considera en algunas realizaciones de la invención que la aeronave sigue la misma trayectoria que el vehículo terrestre con una desviación temporal y espacial en la que el tiempo de retardo y la diferencia vectorial entre la aeronave y el vehículo terrestre es un parámetro de diseño que puede variar con el tiempo según las órdenes de un operario.
La aeronave y el vehículo terrestre adquieren preferiblemente la información y los datos geográficos simultáneamente.
65 Un aspecto de la invención se refiere a la posibilidad en algunas realizaciones de ajustar los datos de trayectorias por medio de analizar los datos e información geográficos obtenidos mediante la pluralidad de sensores del vehículo terrestre según patrones de error y causas conocidas de errores para identificar errores sistemáticos, provocados por una falta de exactitud padecida a partir de problemas de oclusión y de trayecto múltiple de GNSS, o la posible existencia de errores sistemáticos. Cuando se identifica un posible error sistemático, la información de trayectoria adquirida por el vehículo terrestre se corrige mediante los datos e
5 información geográficos adquiridos por la aeronave y mediante su trayectoria.
Otro aspecto de la invención se refiere a un sistema para adquisición de información y datos geográficos y procesamiento de información y datos geográficos caracterizado porque comprende: -un vehículo terrestre equipado con una pluralidad de sensores para adquirir información y datos geográficos y una estación de control para controlar una aeronave; -una aeronave en comunicación con el vehículo terrestre, equipada con una pluralidad de sensores para adquirir información y datos geográficos; -un módulo de procesamiento en comunicación tanto con el vehículo terrestre como con la aeronave para procesar toda la información y datos geográficos adquiridos tanto por el vehículo 15 terrestre como por la aeronave.
El sistema puede comprender sensores de imagen tanto en la aeronave como en el vehículo terrestre. Puede comprender también figuras geométricas (para usarse como objetivos de señalización y escala) y objetivos de calibración radiométrica (como tarjetas de color, para usarse para el modelado radiométrico y la calibración radiométrica de sensor) sobre el techo del vehículo terrestre en algunas realizaciones.
Un último aspecto de la invención se refiere a un programa informático que comprende medios de código de programa adaptados para realizar las etapas del procedimiento de la invención propuesta cuando dicho programa se ejecuta en un procesador de uso general, un procesador de señales digitales, una FPGA, un ASIC,
25 un microprocesador, un microcontrolador, o cualquier otra forma de hardware programable.
Las características y ventajas anteriores no limitan la presente invención, y los expertos en la técnica reconocerán características y ventajas adicionales tras leer la siguiente descripción detallada y tras ver los dibujos adjuntos.
DESCRIPCIÓN DE LOS DIBUJOS
Para completar la descripción que se ha realizado y con el objeto de ayudar en un mejor entendimiento de las características de la invención, según un ejemplo preferido de realización práctica de la misma, acompañando a
35 dicha descripción como una parte integral de la misma, se muestra un conjunto de dibujos en el que, a modo de ilustración y no de restricción, se ha representado lo siguiente:
La figura 1 representa los subsistemas de una realización de la invención. La figura 2 representa el subsistema de vehículo terrestre -aeronave. La figura 3 representa el subsistema de vehículo terrestre -aeronave para la maniobra de calibración. La figura 4 muestra un ejemplo de una planificación de misión. La figura 5 representa un diagrama de flujo de alto nivel de las etapas de postprocesamiento.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
45 La invención propuesta comprende procedimientos y sistemas para la adquisición y procesamiento de información geográfica de un trayecto. El término “información geográfica” se refiere específicamente a geodatos
o en general, a imágenes y datos detectados remotamente de la Tierra que incluyen datos de navegación como intervalos de mediciones inerciales o de satélites de GNSS.
En una realización de la invención, a la que se hará referencia como mapKITE, la adquisición y procesamiento de información geográfica se realiza mediante un vehículo terrestre y uno o más vehículos aéreos de manera simultánea y sincronizada.
55 La entrada de una “orientación de sensores integrados” (ISO) son mediciones y la salida son parámetros. En la entrada se desconocen los parámetros. Los parámetros desconocidos se refieren a las mediciones conocidas a través de ecuaciones (también denominadas “modelos matemáticos”). Por tanto, una ISO es simplemente un método y procedimiento para resolver sistemas de ecuaciones cuyos valores conocidos son las “mediciones” u “observaciones” y cuyos valores desconocidos son los “parámetros”. El proceso de resolver los parámetros desconocidos a partir de mediciones conocidas y modelos matemáticos se conoce como “estimación de parámetro”.
La inclusión de un tipo nuevo de medición (las coordenadas de un tipo nuevo de puntos de control de tierra), denominados puntos de control de tierra cinemáticos, en una orientación de sensores integrados, permite una
65 estimación exacta de los parámetros de orientación de sensor en una fase de postprocesamiento.
Esta realización de mapKITE usa sólo un vehículo aéreo para que la descripción sea clara. De hecho, se usa una aeronave no tripulada que sigue el vehículo terrestre.
Hay dos fases en la invención: una fase de adquisición y una fase de postprocesamiento.
5 En la fase de adquisición, la aeronave no tripulada sigue, a una altura constante aproximada encima del terreno, a un vehículo terrestre. La aeronave no tripulada, o la aeronave de ahora en adelante, está equipada con una carga útil de teledetección ligera y un sistema de navegación/orientación, (entendiéndose el término “navegación” como una orientación en tiempo real y entendiéndose “orientación” como, dado un objeto y uno de sus marcos de referencia de coordenada b y dado un marco de referencia de coordenada terrestre global f, la orientación es la determinación de los parámetros de posición, velocidad y actitud xf, vf, afb de b con respecto a f) y el vehículo terrestre está equipado también con un sistema de navegación/orientación, que dirige la aeronave cargando frecuentemente puntos de ruta por medio de un enlace de radio. Un “amarre de TV a UA virtual” dirige la aeronave a partir de la trayectoria de vehículo terrestre
15 MapKITE también requiere tiempo para adquirir datos para la calibración de los sensores a bordo de la aeronave y el vehículo terrestre.
La aeronave vuela dentro de la línea de visión (LOS) del vehículo terrestre a menos de la máxima distancia permitida por las autoridades aeronáuticas, de defensa y locales. El vehículo terrestre lleva sobre su techo o en otro sitio, objetivos de señalización que consisten en figuras geométricas de tamaño y forma conocidos que son visibles desde arriba. También puede llevar sobre su techo o en otro sitio, objetivos de calibración radiométrica.
En la fase de postprocesamiento, las trayectorias de la aeronave y el vehículo terrestre se determinan
25 procesando las mediciones de los sistemas de navegación/orientación de la aeronave y el vehículo terrestre, respectivamente.
Entonces, se toman mediciones fotogramétricas de puntos de conexión, puntos de control de tierra estáticos y de los puntos de control de tierra cinemáticos. Una medición fotogramétrica es un vector 2D (x,y) y el resultado de una acción de señalización.
Un operario humano o artificial (por ejemplo, un sistema de software) produce una medición fotogramétrica señalando a un punto en una imagen que corresponde a una característica, por ejemplo X, sobre el espacio 3D (habitualmente la superficie de la Tierra y sus construcciones realizadas por el hombre). Se dice que la medición
35 (x,y) son “las coordenadas de imagen de la característica de objeto X.” Las mediciones fotogramétricas se denominan también “mediciones de imagen”, “observaciones de imagen”, “observaciones fotogramétricas” o “fotomediciones”.
Las mediciones fotogramétricas de puntos de conexión, (que son puntos en el espacio 3D –en un marco de referencia terrestre 3D– cuyas coordenadas de imagen se han medido en imágenes de solapamiento tomadas por una carga útil de teledetección (RSP) de la aeronave), de puntos de control de tierra estáticos (SGCP) (que son puntos en el espacio 3D –en un marco de referencia terrestre 3D– que se materializan mediante alguna característica reconocible como un punto de referencia, un objetivo pintado, un vértice geodésico o cualquier otra característica natural o realizada por el hombre (un punto de tierra estático no cambia su posición con el tiempo)
45 y puntos de señalización del vehículo terrestre (puntos de control de tierra cinemáticos, que son un tipo nuevo de puntos de control de tierra. Son puntos 3D en el espacio 3D (en un marco de referencia terrestre 3D) que se materializan mediante alguna característica reconocible como un objetivo pintado. En general, sus posiciones cambian con el tiempo. Un punto de control de tierra cinemático (KGCP) sólo puede usarse por un observador si su observación espontánea (de KGCP) se produce en un tiempo conocido). En el resto del documento SGCP o, simplemente, puntos de control de tierra (GCP) se usará de manera intercambiable. Los parámetros de orientación y calibración precisos y exactos (para sensores en la aeronave y el vehículo terrestre) se obtienen fusionando los datos de trayectoria (de la aeronave y del vehículo terrestre), las mediciones de imagen y las coordenadas de los puntos de control de tierra estáticos y cinemáticos en un ajuste de orientación de sensores integrados (ISO).
55 En la figura 1, se muestran todos los elementos de la realización de mapKITE. Sin embargo, están agrupados en tres bloques: A) vehículo terrestre, B) aeronave y C) módulo de procesamiento:
A)
Vehículo (1) terrestre: el vehículo terrestre puede equiparse con un subsistema de carga útil de teledetección (RSP). Incluye un subsistema de navegación y orientación (N&O) y su subsistema de objetivo métrico óptico (OMT). El OMT puede incluir tanto objetivos de señalización y escala geométricos como objetivos de calibración radiométrica. .El vehículo terrestre lleva el subsistema de amarre de vehículo terrestre a aeronave (amarre de TV a UA) y el subsistema de estación de control de tierra del sistema aéreo no tripulado (GCS).
65 Se acciona por un operario humano que sigue un trayecto previamente fijado.
Subsistema (2) de navegación y orientación del vehículo terrestre: es un servidor de tiempo, posición, velocidad y actitud (tPVA) en tiempo real, y un registrador de datos de los sensores de navegación/orientación. Implícito en su función de servidor en tiempo real de tPVA y registrador de datos de las mediciones está la sincronización y etiquetado con la hora de las observaciones generadas mediante los sensores de navegación/orientación.
5 Comprende un ordenador para leer las mediciones de los sensores de navegación/posicionamiento, al menos un receptor de GNSS de calidad geodésica y al menos una unidad de medición de inercia. En algunas realizaciones puede comprender también uno o más odómetros, uno o más baroaltímetros y cualquier otro sensor que ayude a estimar la solución de tPVA.
En una realización, el subsistema de navegación y orientación del vehículo terrestre puede estar asistido por el subsistema de ayuda óptica de navegación de la aeronave que deduce de la posición del vehículo terrestre a partir de la posición y actitud de la aeronave y a partir de mediciones fotogramétricas del OMT del vehículo terrestre. Este elemento almacena todas las observaciones de los sensores de navegación/orientación, les
15 etiqueta la hora y calcula una solución de navegación de tPVA en tiempo real.
Carga útil de teledetección del vehículo terrestre (3): captura imágenes y las almacena. Las imágenes adquiridas pueden orientarse en tiempo real o fuera de línea con la solución de salida de tPVA del subsistema (2) de navegación y orientación del vehículo terrestre.
Objetivo (4) métrico óptico del vehículo terrestre: lo lleva el vehículo terrestre sobre su techo. Consiste en varios objetivos de señalización de tamaño, forma, colores conocidos, y la orientación fija relativa entre ellos. El objetivo métrico óptico puede incluir también, en una realización, objetivos de resolución y radiométricos para la evaluación de resolución geométrica y calibración radiométrica de los sensores de obtención de imágenes de la
25 carga (3) útil de teledetección de la aeronave.
El objetivo métrico óptico permite la identificación de los puntos de control de tierra cinemáticos (KGCP) sobre las imágenes de la cámara nadir de la RSP de UA. Permite también la estimación del factor de escala entre el objetivo métrico óptico y las imágenes de la cámara nadir de la carga (3) útil de teledetección de la aeronave. El objetivo métrico óptico puede usarse también en maniobras de aterrizaje y para la localización del vehículo terrestre con los sensores de señalización de la cámara nadir de la carga (3) útil de teledetección de la aeronave.
Amarre (5) virtual de vehículo terrestre a aeronave: lo lleva el TV. Ordena a la aeronave a que realice su siguiente punto de ruta de manera repetitiva de alta frecuencia. Al leer la solución de tPVA del subsistema de
35 navegación y orientación del vehículo terrestre, hace que se transforme en la posición y actitud de la aeronave deseadas y genere una orden de “punto de ruta y rumbo siguiente”. Entonces, el “punto de ruta y rumbo siguiente” se introduce en la estación de control de tierra del sistema aéreo no tripulado (que lo carga adicionalmente en la aeronave por medio de un enlace radio de datos). Este es el denominado “bucle de TV -UA” tal como se representa en la figura 2 (funcionamiento en ruta). Cuando “E”,”N”,”H” son los parámetros para las coordenadas Este, Norte y Altura de la aeronave, y los parámetros “ !, ∀ , #” se refieren a los ángulos que definen la actitud de la aeronave.
La figura 3 ilustra el bucle de TV -UA de vehículo terrestre respecto a aeronave para el modo de funcionamiento de maniobra de calibración. La maniobra de calibración de mapKITE se aprovecha de las paradas de vehículo
45 terrestre, desde las impuestas externamente como semáforos hasta las decididas por el operario de la misión por cualquier motivo, incluyendo la ejecución de una maniobra de calibración. En este caso, la aeronave se controla para que ascienda y descienda, y para que gire sobre sí misma mientras toma imágenes a altitudes diferentes y ángulos de rumbo diferentes ! (t).
B)
Sistema (6) aéreo no tripulado: el sistema aéreo no tripulado (UAS), tiene tres subsistemas: la estación de control de tierra (GCS), la aeronave y el enlace de datos (DL) de radio entre el GCS y la aeronave. Transporta la carga útil de teledetección (RSP) de la aeronave a puntos en el espacio en los que debe activarse. El UAS de mapKITE es una aeronave de alas giratorias de rotores múltiples convencional que puede leer puntos de ruta,
55 para navegar a velocidad moderadas y para llevar una antena y receptor de GNSS de calidad geodésica.
Estación (7) de control de tierra del sistema aéreo no tripulado: lo lleva el vehículo terrestre. Controla la aeronave a través de consultas y órdenes que se envían a la aeronave a través del enlace de datos (DL) de radio de sistema aéreo no tripulado. La estación de control de tierra del sistema aéreo no tripulado tiene una interfaz de usuario (botones, joysticks, pantallas, etc.) y una interfaz de datos. A través de esta interfaz, el piloto remoto de la aeronave puede asumir el control manual de la UA en cualquier momento.
Enlace de datos del sistema (8) aéreo no tripulado: permite a la aeronave comunicarse con la estación (7) de control de tierra del sistema aéreo no tripulado. Transporta consultas y órdenes desde la estación de control de
65 tierra hasta la aeronave e información desde la aeronave de vuelta a la estación de control de tierra. Los componentes del enlace de datos se distribuyen entre la estación de control de tierra y la aeronave.
Aeronave (9) no tripulada: transporta su carga útil de teledetección a puntos en el espacio en el que se adquirirán imágenes. La realización de mapKITE no requiere un diseño particular para la aeronave siempre que:
pueda volar sin dificultades a la misma velocidad del vehículo terrestre;
pueda realizar despegues y aterrizajes verticales;
5 ● pese menos que el peso (regulado localmente, desde 5 kg hasta 8 kg) de una microaeronave;
pueda llevar su subsistema de navegación y orientación;
pueda llevar su carga útil de teledetección;
puede volar durante un largo periodo de tiempo (temas de productividad).
Con la tecnología actual de sistemas aéreos no tripulados, el diseño más apropiado de la aeronave para la realización de mapKITE es el multicóptero que está representado por el Falcon 8 y Falcon 12 de la empresa Ascending Technologies GmbH.
15 Subsistema (10) de navegación y orientación de la aeronave no tripulada: está compuesta por sensores de navegación y orientación, ordenadores y programas de software que almacenan las mediciones de los sensores y las transforman en tiempo real en parámetros de tiempo-posición-velocidad-actitud (tPVA). Las mediciones u observaciones almacenadas se usaran posteriormente por el subsistema de postprocesamiento de la invención para la orientación fuera de línea óptima de la carga útil de teledetección (RSP) de la aeronave. Los parámetros de tPVA determinados en tiempo real se usarán tiempo real por el sistema de control de vuelo de la aeronave.
El subsistema de navegación y orientación de la aeronave no tripulada contiene, al menos, una unidad de medición inercial y preferiblemente con un receptor de GNSS de calidad geodésica, aunque también podría usarse un receptor de GNSS normal. Las aeronaves están equipadas siempre con un sistema de control de
25 vuelo (FCS) que incluye un sistema de navegación. También se incluye un sensor de baroaltímetro en algunas realizaciones de la invención.
Carga (11) útil de teledetección de la aeronave no tripulada: contiene los instrumentos de detección fotogramétrica y remota de la aeronave. Su función principal es la adquisición y el etiquetado con la hora (o sincronización) de datos de obtención de imágenes (de color, infrarrojas, térmicas, de radar, LiDAR y cualquier otro tipo de imágenes). Parte de estas imágenes pueden usarse para ayudar a los sensores de navegación del subsistema de navegación y orientación.
En una realización particular de mapKITE, uno de los sensores de obtención de imágenes de carga útil de
35 teledetección es uno de señalización de nadir óptico. Las imágenes de los sensores de señalización de nadir ópticos capturan siempre el vehículo terrestre y por tanto los objetivos geométricos y radiométricos del objetivo
(4) métrico óptico, en cada una de sus imágenes, con el fin de la identificación de los objetivos del subsistema de objetivo óptico métrico para además:
○ la determinación de la trayectoria de unión fuera de línea a posteriori de las trayectorias de la aeronave y el vehículo terrestre,
el aterrizaje en tiempo real de la aeronave, y
la determinación en tiempo real y fuera de línea de la posición de vehículo terrestre.
Subsistema (12) de ayuda óptica de navegación: escanea las imágenes ópticas de la carga (11) útil de
45 teledetección en busca de los objetivos métricos ópticos del vehículo terrestre. Una vez localizados, la orientación del sensor de obtención de imágenes junto con el factor de escala de los objetivos métricos del vehículo terrestre suministra una estimación de la posición de vehículo terrestre.
La estimación de la posición del vehículo terrestre puede usarse de dos formas: puede transmitirse al vehículo terrestre a través del enlace de datos de la aeronave, o puede usarse por la aeronave para “seguir” el vehículo terrestre.
En el primer caso, la estimación de la posición de TV puede ser usada por el subsistema (2) de navegación y orientación del vehículo terrestre para comprobar la calidad de su propia estimación de navegación y/o corregirla.
55 Este uso del subsistema de ayuda óptica de navegación es interesante cuando la estimación del subsistema (2) de navegación y orientación del vehículo terrestre no es fiable o se sospecha que es errónea como en cañones urbanos o en entornos de múltiples trayectos complicados.
La integración de la solución de ayuda óptica de navegación en la solución de subsistema (2) de navegación y orientación del vehículo terrestre sigue los principios de fusión de datos con mínimos cuadrados secuenciales de las técnicas de filtro de Kalman y esas grandes diferencias de manera inconsistente entre las dos soluciones de navegación se tratan con técnicas de detección atípicas.
En el segundo caso, si se conocen las desviaciones deseadas del vehículo terrestre respecto a aeronave entre el
65 vehículo terrestre y la aeronave para la aeronave, puede usarse la solución de navegación del vehículo terrestre obtenida por el subsistema de ayuda óptica de navegación para hacer que la aeronave siga al vehículo terrestre lo que es de interés cuando la solución de subsistema de navegación y orientación del vehículo terrestre no es fiable o es manifiestamente incorrecta.
Por tanto, la función del subsistema de ayuda óptica de navegación es estimar las posiciones del vehículo 5 terrestre.
C)
Subsistema (14) de determinación de la trayectoria: el subsistema de determinación de la trayectoria realiza la determinación de la trayectoria para la aeronave no tripulada y el vehículo terrestre. Calcula la trayectoria tPVA a la frecuencia de la aeronave y la frecuencia superior del sensor de orientación y navegación del vehículo terrestre. La principal fuente de observaciones para la determinación de la trayectoria son los subsistemas de navegación y orientación y la fuente opcional secundaria de observaciones para la determinación de la trayectoria son los subsistemas de carga útil de teledetección que proporcionan datos de imagen que pueden usarse en la ayuda de los sensores de navegación principales.
15 El subsistema de determinación de la trayectoria es un sistema de fusión de datos GNSS/INS que en algunas realizaciones, también toma observaciones de entrada de otros sensores de ayuda como cámaras ópticas, escáneres láser, odómetros, sensores de presión del aire (baroaltímetros) y otros.
El subsistema de determinación de la trayectoria calcula la trayectoria tPVA a la frecuencia del subsistema de navegación y orientación, de la aeronave o vehículo terrestre, correspondiente. Es decir, a la frecuencia de la tasa de medición más alta de todos los sensores.
Subsistema (15) de calibración de sensor y determinación de orientación: su función es calcular parámetros de
25 orientación y calibración para las imágenes del sensor de carga útil de teledetección facilitadas por las observaciones tPVA (a partir de los subsistemas de navegación y orientación) y las imágenes.
Combina observaciones de trayectoria tPVA (generadas por el subsistema de determinación de la trayectoria) con observaciones de imágenes de características de conexión o control (generadas por el subsistema MATCH) para estimar parámetros de orientación y calibración de los sensores de carga útil de teledetección. Una característica de control es un objeto de tierra que puede reconocerse y medirse con una imagen de manera que se conozcan sus coordenadas. Ejemplos de características de control son puntos de control de tierra, estáticos, tradicionales o puntos de control de tierra cinemáticos propuestos por la presente invención. Otros ejemplos de características de control son segmentos de línea de control de tierra o puntos de control radiométricos.
35 El subsistema de calibración de sensor y determinación de orientación puede usarse, de la misma forma, pero con entradas de observación diferentes para salidas de parámetro diferentes. Hay dos tareas principales para el subsistema de calibración de sensor y determinación de orientación, la orientación y calibración relativas internas, temporales y espaciales, para cada subsistema de carga útil de teledetección y la orientación y calibración absolutas externas, geométricas (o espaciales) y radiométricas, para los subsistemas de carga útil de teledetección.
Subsistema (16) de coincidencia de imágenes (MATCH): realiza la medición automática, aunque en algunas realizaciones también puede funcionar de forma asistida y/o manual, de: 45 ● las coordenadas de imagen de características homólogas en dos o más imágenes capturadas por la carga útil de teledetección;
las coordenadas de imagen de objetivos métricos ópticos (es decir, de las coordenadas de imagen de los puntos de control de tierra cinemáticos (KGCP)) así como de su tamaño y radiometría; y
las coordenadas de imagen de las características de control de tierra y, en particular, de los puntos de control de tierra estáticos (GCP).
El MATCH resuelve el problema de correspondencia de imágenes y genera las coordenadas de imagen de las características de conexión de imágenes.
55 Puede aplicarse a imágenes adquiridas por la carga útil de teledetección tanto de la aeronave como del vehículo terrestre; es decir, puede hacer coincidir características de conexión en dos o más de las imágenes de la aeronave, del vehículo terrestre, o incluso de la aeronave y el vehículo terrestre. El MATCH puede usar los datos de trayectoria por tPVA para facilitar la identificación y medición de características de conexión y control, pero puede realizar la coincidencia sin los datos de tPVA.
Por tanto, la función del subsistema MATCH es medir (es decir, generar observaciones de imágenes) coordenadas de imagen de características de conexión de tierra en dos o más imágenes, medir coordenadas de imagen de características de control de tierra estáticas en una o más imágenes, medir coordenadas de imagen de características de control de tierra cinemáticas en imágenes individuales y medir el factor de escala entre los
65 objetivos OMT reales y su representación en las imágenes de carga útil de teledetección.
Subsistema (17) de orientación de sensores integrados (ISO): su función es estimar los parámetros de orientación y calibración del sensor, para los sensores del subsistema de carga útil de teledetección tanto de la aeronave como del vehículo terrestre, a partir de observaciones. Los subsistemas ISO realizan el ajuste de red para las imágenes de carga útil de teledetección. Consiste en un ajuste de haz de autocalibración por mínimos
5 cuadrados con las observaciones de ajuste de haz clásicas (observaciones de coordenadas de imagen, puntos de control de tierra y observaciones de tPVA derivadas de observaciones de GNSS/INS) y las observaciones propuestas por la realización de la invención denominada mapKITE (puntos de control de tierra cinemáticos, distancias de y entre los objetivos del OMT y escala de los objetivos OMT en las imágenes).
El subsistema ISO, en una de las realizaciones, realiza ajustes de red para las imágenes de subsistemas de carga útil de teledetección que estiman errores en la trayectoria por tPVA del vehículo terrestre introduciendo parámetros de modelado de error (desviaciones de segmento de trayectoria) en cañones artificiales (áreas urbanas) y naturales donde es probable que los múltiples trayectos y oclusiones de GNSS generen errores de GNSS que no pueden corregirse por el subsistema de determinación de la trayectoria cuando se procesa la
15 observación de navegación y orientación.
En referencia al funcionamiento de la invención, en la realización de mapKITE, consiste en una pluralidad de segmentos. Los periodos entre segmentos se denominan bases. El funcionamiento comienza con una maniobra de calibración de despegue, luego una parte de adquisición de datos en ruta, y finalmente una maniobra de aterrizaje. En la maniobra de despegue y calibración, la aeronave despega de los alrededores del vehículo terrestre y realiza una maniobra de calibración sobre el vehículo terrestre mientras se eleva hasta su altitud operativa en ruta. Inmediatamente tras esto, en la parte de adquisición de datos en ruta, el vehículo terrestre comienza a circular y a adquirir datos mientras le sigue la aeronave que también adquiere datos. La parte de adquisición de datos finaliza con el aterrizaje suave de la aeronave en las proximidades del vehículo terrestre.
25 En la figura 4, se muestra un ejemplo de una planificación de misión según una de las realizaciones. La misión comienza con una base y finaliza con una base. La planificación de misión define los periodos de tiempo y localización de las bases así como la ruta del vehículo terrestre para cada segmento. Se realiza en la oficina usando mapas digitales existentes o cualquier otra información para decidir dónde comenzar y finalizar la misión (“base” (41, 44) primera y última), qué carreteras y calles seguir (los “segmentos” (45-48)), y que paradas intermedias realizar (las “bases” (42, 43) intermedias). En una de las realizaciones, la altura o alturas del vuelo sobre tierra se define a priori, por lo que la ruta de la aeronave se define a priori y puede usarse en la ejecución de la misión por motivos de seguridad.
35 En referencia a la adquisición de datos de información geográfica por medio de sensores tanto del vehículo terrestre como de la aeronave, en algunas realizaciones tienen que distinguir entre adquisición de datos para calibración y adquisición de datos para mapeo.
La adquisición de datos para calibración se refiere a la recogida de observaciones de carga útil de teledetección que no se usarán directamente más tarde para mapeo. La carga útil de teledetección de la aeronave, en esta fase de las operaciones, recoge datos en situaciones y rumbos diferentes. Inmediatamente tras haber comenzado un segmento, la aeronave despega. Cuando alcanza la altitud deseada sobre el vehículo terrestre, el vehículo terrestre comienza a moverse y la parte (para el mapeo) de adquisición de datos en ruta del segmento. Poco antes de finalizar el segmento, el vehículo terrestre se detiene y la aeronave aterriza.
45 Los cortos periodos entre despegar y alcanzar la altitud requerida para la adquisición de datos en ruta, y entre comenzar el descenso desde la altitud en ruta y la altitud del vehículo terrestre para el aterrizaje, se usan por la invención en una de las realizaciones para realizar maniobras de calibración.
La principal finalidad de una maniobra de calibración es recoger datos para una mejora a posteriori de la determinación de los parámetros de calibración de las imágenes de la aeronave. Esta mejora se produce en la etapa de postprocesamiento. Siempre se produce el cálculo simultáneo de parámetros de orientación y calibración, independientemente de la existencia o no de maniobras de calibración al comienzo y al final de los segmentos. Sin embargo, las maniobras de calibración contribuyen a imágenes que son particularmente muy
55 adecuadas para mejorar la determinación de los parámetros de calibración.
Normalmente, las maniobras de calibración consisten en, mientras se asciende o se desciende, hacer girar la aeronave alrededor de su eje vertical y tomar imágenes con ángulos de rumbo diferentes. Las diferencias en rumbo y altura son instrumentales en la mejora de la capacidad de calibración del procedimiento de ISO. Normalmente también, el vehículo terrestre no se mueve mientras la aeronave está despegando y aterrizando. Sin embargo, en una realización de la invención, el vehículo terrestre puede moverse según algún patrón predefinido para mejorar adicionalmente los resultados de calibración.
Debe quedar claro que el principal objetivo de las maniobras de calibración es reunir datos para el uso a
65 posteriori y que calibración en el presente documento se refiere a la calibración de los sensores de obtención de imágenes de los subsistemas de carga útil de teledetección.
En referencia al procesamiento de información geográfica, la figura 5 representa un diagrama de flujo de alto nivel de las etapas de postprocesamiento.
Una primera etapa es la determinación de la trayectoria inicial del vehículo terrestre (51). La determinación de la
5 trayectoria inicial del vehículo terrestre consiste en el cálculo de la mejor trayectoria posible del vehículo terrestre usando sólo sus propios sensores (2) de navegación. En referencia a que el término “mejor trayectoria” sea óptimo cumpliendo los requisitos de usar todas las mediciones disponibles para el cálculo de la trayectoria, el algoritmo de estimación que genera estimaciones no desviadas de varianza mínima de la trayectoria y, en el caso de que la trayectoria se estime secuencialmente, el de Kalman realizan tanto la filtración como el suavizado. La trayectoria es un conjunto de tPVA; es decir un conjunto de datos de tiempo-posición-velocidad-actitud.
La trayectoria del vehículo terrestre se materializa en el centro de navegación del vehículo terrestre que es el origen del marco de referencia de coordenadas de navegación del vehículo. El origen de este marco no debe confundirse con el centro de masas del vehículo terrestre y no está alineado necesariamente con los ejes
15 longitudinal, transversal y vertical del vehículo. El marco de referencia de coordenadas de navegación del vehículo terrestre se materializa por la unidad de medición inercial del subsistema de navegación y orientación del vehículo terrestre. Pese a esta diferencia, la unidad de medición inercial se instala en algunas realizaciones de manera que sus ejes se alineen habitualmente con los del vehículo terrestre.
La trayectoria inicial del vehículo terrestre se calcula mediante cualquier procedimiento de determinación de trayectoria y fusión de sensor convencional. Los sensores que van a fusionarse y usarse para la determinación de la trayectoria son los del subsistema de navegación y orientación del vehículo terrestre. Estos sensores incluyen el receptor de GNSS, la unidad de medición inercial y, en algunas realizaciones, odómetros, sensores de presión del aire (baroaltímetros) y otros.
25 La tP, o tPVA de trayectoria inicial del vehículo terrestre en otra realización, también se transfiere (referida) a los objetivos del subsistema de objetivo métrico óptico.
Una segunda etapa es la determinación de la trayectoria inicial de la aeronave no tripulada (52). Consiste en el cálculo de la mejor trayectoria posible de la aeronave usando sólo sus propios sensores (10) de navegación. La trayectoria puede ser un conjunto de datos de tPVA o, en otra realización, de tP (tiempo-posición). El procedimiento para la determinación de la trayectoria inicial de la aeronave es análogo a la de la trayectoria inicial del vehículo terrestre.
35 Una tercera etapa es la medición fotogramétrica de las coordenadas de imagen de puntos (53) de conexión, puntos (54) de control de tierra estáticos y puntos (55) de control de tierra cinemáticos.
-
Para los puntos de conexión: el resultado de esta etapa es un conjunto de tipo IPxy, un
conjunto de cuádruples del tipo:
image_id(I) point_id(P) x coordinate [del punto P en la imagen I] (x) y coordinate
donde (x,y) son las coordenadas de imagen del punto P de tierra medido en la imagen I.
Normalmente, aparece un punto (P) en diversas imágenes (I1, I2, …) y una imagen (I) contiene diversos
puntos (P1,P2, …). image_id y point_id son identificadores únicos de imagen y punto, respectivamente.
45 Esta etapa de medición es un procedimiento convencional de la fotogrametría moderna que tiene lugar dentro de la triangulación aérea digital. Se realiza con software de procesamiento de imágenes fotogramétricas convencional. -Para los puntos de control de tierra estáticos: un punto de conexión de coordinadas de tierra conocidas se conoce como “punto de control de tierra.” Estas coordenadas conocidas se obtienen a partir de mapas existentes o a partir de estudios independientes. En una realización de la invención, la medición de las coordenadas de imagen de puntos de control de tierra se realiza manualmente. El resultado de esta etapa es análogo al de la anterior, es decir, un conjunto de datos de cuádruples del tipo image_id (I) point_id (P) x coordinate [del punto P en la imagen I] (x) y coordinate.
55 Esta etapa de medición es también un procedimiento convencional de la fotogrametría moderna que tiene lugar dentro de la triangulación aérea digital. Se realiza con software de procesamiento de imágenes que permite la medición precisa interactiva de puntos de tierra distinguibles en una o más imágenes simultáneamente.
Las coordenadas de tierra conocidas del punto P son independientes de la medición de imágenes anterior y se usan en la ISO u orientación de sensores integrados.
-
Para los puntos de control de tierra cinemáticos: a diferencia de los puntos de control de tierra estáticos, si el vehículo terrestre se está moviendo, los puntos de control de tierra cinemáticos sólo 65 aparecen en una imagen. En la realización de mapKITE, se materializan los KGCP por los objetivos del substistema de objetivo métrico óptico. Las coordinadas de KGCP se derivan de la trayectoria inicial del
vehículo terrestre obtenida antes. La medición de KGCP es automática en una realización de la invención pero en otra realización es asistida. En realizaciones con un modo de medición automático, se aprovecha la naturaleza artificial de 5 los objetivos y de su forma y tamaño conocidos. Cada imagen se analiza en busca de los objetivos y, una vez encontrados, se miden
las coordenadas de imagen de los centros de objetivo (la medición fotogramétrica normal) y
los tamaños de imagen de los objetivos (que es equivalente a una medición fotogramétrica a escala porque los tamaños de los objetivos en la imagen se comparan con sus tamaños actuales) En las realizaciones con un modo de medición asistida, un operario humano inspecciona cada
imagen en busca de objetivos métricos ópticos. Una vez encontrados, señala aproximadamente el área objetivo y un algoritmo de medición de patrones refina la medición humana y suministra las
15 coordenadas de imagen del centro del objetivo y el tamaño del objetivo (tamaño en la imagen). Comparando el tamaño de la imagen y el tamaño real del objetivo, se obtiene el factor de escala de la imagen en ese punto.
El resultado de esta etapa es el mismo cuádruple que en las dos etapas anteriores más la escala del objetivo (razón entre el tamaño del objetivo real y el tamaño del objetivo aparente de la imagen):
image_id (I) target_point_id (P) x coordinate [del punto P en la imagen I] (x) y coordinate e image_id (I) target_point_id (P) scale (s). Debe observarse que el identificador P cambia de una imagen a otra cuando el vehículo
terrestre se mueve y no cambia cuando el vehículo terrestre permanece inmóvil. Esto se debe a que, 25 aunque el punto P se materializa siempre mediante un objetivo portado por el vehículo terrestre, un objetivo físico define sólo el mismo punto en el espacio, siempre que no se mueva.
Una cuarta etapa es la orientación (56) de sensores integrados de las imágenes adquiridas por la aeronave no tripulada. En esta etapa, las mediciones obtenidas en las etapas anteriores y las coordenadas de puntos de control de tierra estáticos se combinan en una orientación (17) de sensores integrados (ISO) o ajuste de haz combinado. Por tanto, las mediciones u observaciones que participan en la ISO se agrupan en tres tipos: fotogramétrica, control de tierra y control aéreo. Son:
-
mediciones fotogramétricas
1. mediciones fotogramétricas de los puntos de conexión (coordenadas de imagen de 35 los puntos de conexión),
2.
mediciones fotogramétricas de los puntos de control de tierra estáticos,
3.
mediciones fotogramétricas (de puntos) y mediciones fotogramétricas de escala de
los puntos de control de tierra cinemáticos (KGCP), -control de tierra
4. coordenadas de tierra de los puntos de control de tierra estáticos,
5.
coordenadas de tierra de los puntos de control de tierra cinemáticos (KGCP), y -control aéreo
6.
mediciones de tP (tiempo-posición) o tPVA (tiempo-posición-velocidad-actitud) para UA.
45 El uso de las mediciones del punto 3 anterior (medición fotogramétrica de puntos y de escala) requiere un nuevo tipo de observación de colinealidad que se denominará ecuación de observación de escala y colinealidad
donde
son los parámetros de orientación exterior desconocidos de la imagen i (cámara de marco) del subsistema RSP de UA,
son las coordenadas de imagen y mediciones de escala y sus residuos correspondientes de punto p observados en la imagen i, y -f es la constante de cámara conocida de la cámara que adquirió la imagen i.
El uso de las mediciones del punto 5 anterior (coordenadas de KGCP) requiere dos tipos de ecuaciones de observación, una convencional
(2)
y una nueva para aquellas subtrayectorias del vehículo terrestre en cañones urbanos o naturales donde las mediciones de GNSS pueden resultar afectas por oclusiones y trayectos múltiples
5 donde
son las coordenadas conocidas y residuos desconocidos de las observaciones de KGCP, y
son los parámetros de desviación de TV desconocidos que modelan el 10 desplazamiento de la sub-trayectoria afectada por múltiples trayectos comunes o problemas de oclusión.
Los parámetros de desviación de vehículo terrestre desconocidos
modelan el error posicional de una parte conectada de la trayectoria del vehículo terrestre definida por el intervalo de tiempo
y por tanto están asociados con los dos instantes de tiempo
y . El número n de los parámetros de
15 desviación ,
y sus intervalos de tiempo asociados , …,
están definidos por un operario humano tras la inspección de los resultados de la determinación de la trayectoria inicial del vehículo terrestre.
La orientación de sensores integrados (ISO) es una ISO fotogramétrica convencional con la adición de las 20 observaciones y modelos de las ecuaciones (1) y (3) anteriores.
Tras esta etapa, los sensores de obtención de imágenes de la carga útil de teledetección se declaran orientados y calibrados de manera óptima.
25 Una quinta etapa es la mejora de la determinación de la trayectoria del vehículo terrestre. En esta realización de la invención, denominada mapKITE, la trayectoria del vehículo terrestre determinada en la primera etapa se corrige mediante el uso de n parámetros de desviación estimados en la cuarta etapa. Para este fin, se repite la primera etapa y las observaciones de GNSS (observaciones de fase de portador o intervalo) o las observaciones
(obtenidas en la cuarta etapa) a los puntos originales de las subtrayectorias correspondientes.
Tras esta etapa, la trayectoria por tPVA del vehículo terrestre se declara estimada de manera óptima.
35 Una sexta etapa es la orientación de los sensores de mapeo del vehículo terrestre. En la etapa anterior, se determina una trayectoria mejorada por tPVA para el vehículo terrestre. Esta trayectoria se usa ahora para asignar posiciones, velocidades y situaciones a los sensores de carga útil de teledetección del vehículo terrestre (TV RSP). Esto se denomina “transferir la trayectoria por tPVA a los sensores.”
40 En otras palabras, en esta última etapa, la trayectoria mejorada por tPVA determinada en la etapa anterior se transfiere a los sensores de TV RSP; es decir, la posición, la velocidad y la saturación del marco de referencia de coordenadas de navegación del vehículo terrestre (CRF) se transforma en posición, velocidad y saturación de cada sensor de carga útil de teledetección con la ayuda de la orientación relativa de cada CRF de sensor con
45 respecto al CRF de navegación del vehículo terrestre.
Tras esta etapa, los sensores de obtención de imágenes de la carga útil de teledetección se declaran orientados de manera óptima.
50 Para concluir con la operación de esta realización (mapKITE), los resultados logrados son una mejor estimación de los parámetros de orientación y calibración de todas las imágenes de carga útil de teledetección; la trayectoria del vehículo terrestre y la orientación de todas las imágenes adquiridas por los sistemas de carga útil de teledetección.

Claims (16)

  1. REIVINDICACIONES
    1. Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto, estando caracterizado el procedimiento porque comprende las siguientes etapas:
    5 a) adquirir datos e información geográficos por medio de una pluralidad de sensores de un vehículo terrestre; b) enviar información de trayectoria del vehículo terrestre a una aeronave, desde una estación de control alojada en el vehículo terrestre, cada cierto periodo de tiempo, siendo el periodo de tiempo un parámetro de diseño; c) cuando la aeronave recibe la información de trayectoria del vehículo terrestre, determinar la aeronave su trayectoria según la información de trayectoria del vehículo terrestre recibida; d) adquirir datos e información geográficos, incluyendo imágenes, por medio de una pluralidad de sensores de la aeronave; e) obtener en un módulo de procesamiento, la orientación de los sensores tanto del vehículo terrestre
    15 como de la aeronave a partir de los datos e información geográficos adquiridos; f) calibrar, en un módulo de procesamiento, los sensores tanto del vehículo terrestre como de la aeronave a partir de los datos e información geográficos adquiridos; g) asociar cada imagen adquirida con la orientación y la calibración obtenidas en las etapas e) y f) respectivamente.
  2. 2. Procedimiento según la reivindicación 1, que comprende además identificar figuras geométricas de tamaño y forma conocidos sobre el techo del vehículo terrestre mediante un sensor de imagen de la aeronave.
    25 3. Procedimiento según la reivindicación 2, en el que además de obtener la orientación y calibrar los sensores de la aeronave comprende además usar información posicional, de actitud, de tamaño y de forma de las figuras geométricas sobre el techo del vehículo terrestre.
  3. 4.
    Procedimiento según una cualquiera de las reivindicaciones anteriores, que además de comprender obtener la orientación y calibrar los sensores tanto del vehículo terrestre como de la aeronave comprende además usar información geográfica previamente conocida.
  4. 5.
    Procedimiento según una cualquiera de las reivindicaciones anteriores, en el que la información
    geográfica comprende además identificar un mismo elemento en imágenes diferentes adquiridas 35 mediante el sensor de imagen de la aeronave.
  5. 6.
    Procedimiento según una cualquiera de las reivindicaciones anteriores, en el que la información geográfica comprende además identificar un mismo elemento en imágenes diferentes adquiridas mediante el sensor de imagen tanto de la aeronave como del vehículo terrestre.
  6. 7.
    Procedimiento según una cualquiera de las reivindicaciones anteriores, en el que las imágenes adquiridas se etiquetan en el tiempo.
  7. 8. Procedimiento según una cualquiera de las reivindicaciones anteriores, en el que la información 45 geográfica comprende información de navegación.
  8. 9.
    Procedimiento según una cualquiera de las reivindicaciones anteriores, en el que la aeronave sigue la misma trayectoria que el vehículo terrestre con una desviación temporal y espacial en la que el tiempo de retardo y la diferencia vectorial entre la aeronave y el vehículo terrestre es un parámetro de diseño que puede variar con el tiempo según las órdenes de un operario.
  9. 10.
    Procedimiento según una cualquiera de las reivindicaciones anteriores, que comprende además analizar los datos e información geográficos obtenidos mediante la pluralidad de sensores del vehículo terrestre según patrones de error y causas conocidas de errores para identificar errores sistemáticos o la posible
    55 existencia de errores sistemáticos.
  10. 11.
    Procedimiento según la reivindicación 10, en el que cuando se identifica un posible error sistemático, la información de trayectoria adquirida por el vehículo terrestre se corrige mediante los datos e información geográficos adquiridos por la aeronave y mediante su trayectoria.
  11. 12.
    Procedimiento según una cualquiera de las reivindicaciones anteriores, que comprende además que el vehículo terrestre y la aeronave adquieren los datos e información geográficos simultáneamente.
  12. 13.
    Sistema para adquisición de información y datos geográficos y procesamiento de información y datos
    65 geográficos, caracterizado porque comprende: -un vehículo terrestre equipado con una pluralidad de sensores para adquirir información y datos
    geográficos y una estación de control para controlar una aeronave; -una aeronave en comunicación con el vehículo terrestre, equipada con una pluralidad de sensores para adquirir información y datos geográficos; -un módulo de procesamiento en comunicación tanto con el vehículo terrestre como con la aeronave
    5 para procesar toda la información y datos geográficos adquiridos tanto por el vehículo terrestre como por la aeronave.
  13. 14. Sistema según la reivindicación 13, en el que la aeronave comprende además sensores de imagen.
    10 15. Sistema según la reivindicación 14, en el que el vehículo terrestre comprende además figuras geométricas sobre su techo.
  14. 16. Sistema según una cualquiera de las reivindicaciones 13-15, en el que el vehículo terrestre comprende
    además sensores de imagen. 15
  15. 17. Programa informático que comprende medios de código de programa adaptados para realizar las etapas del procedimiento según cualquiera de las reivindicaciones desde 1 hasta 12 cuando dicho programa se ejecuta en un procesador de uso general, un procesador de señales digitales, una FPGA, un ASIC, un microprocesador, un microcontrolador, o cualquier otra forma de hardware programable.
    OFICINA ESPAÑOLA DE PATENTES Y MARCAS
    N.º solicitud: 201231200
    ESPAÑA
    Fecha de presentación de la solicitud: 26.07.2012
    Fecha de prioridad:
    INFORME SOBRE EL ESTADO DE LA TECNICA
    51 Int. Cl. : Ver Hoja Adicional
    DOCUMENTOS RELEVANTES
    Categoría
    56 Documentos citados Reivindicaciones afectadas
    X
    US 2006058928 A1 (UNIV BRIGHAM YOUNG) 16/03/2006, Párrafos [21-24], [36], [40-47], [50-53], [61-77], [96-105]; figuras 1-5,7, 8; reivindicaciones 1-8. 13-15
    A
    1-12, 16-17
    A
    EP 2071353 A2 (BOEING CO ) 17/06/2009, Párrafos [9-15], [18], [21-22], [24-25], [35], [41-51]; Figuras 1 y 7. 1-17
    A
    US 7418320 B1 ( BODIN WILLIAM KRESS ET AL.) 26/08/2008, columna 5, línea 54 -columna 6, línea 23; columna 7, líneas 13 -25; columna 7, línea 62 – columna 8, línea 22; columna 9, líneas 1 -37; columna 10, líneas 28 -59; columna 11, línea 60 -columna 13, línea 5; columna 14, línea 65 -columna 15, línea 27; columna 20, línea 60 -columna 24, línea 13; reivindicaciones 1-4; figuras 1 -6, 18, 19. 1-17
    A
    COLOMINA, I. et al “Towards a new paradigm for high-resolution low-cost photogrammetry and remote sensing”. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. 37(B1). pp. 1201-1206. Beijing, China. 2008. Apartados 2 a 4. 1-17
    Categoría de los documentos citados X: de particular relevancia Y: de particular relevancia combinado con otro/s de la misma categoría A: refleja el estado de la técnica O: referido a divulgación no escrita P: publicado entre la fecha de prioridad y la de presentación de la solicitud E: documento anterior, pero publicado después de la fecha de presentación de la solicitud
    El presente informe ha sido realizado • para todas las reivindicaciones • para las reivindicaciones nº:
    Fecha de realización del informe 21.12.2012
    Examinador J. Cotillas Castellano Página 1/5
    INFORME DEL ESTADO DE LA TÉCNICA
    Nº de solicitud: 201231200
    CLASIFICACIÓN OBJETO DE LA SOLICITUD G05D1/00 (2006.01)
    G01C11/00 (2006.01) G06K9/00 (2006.01) Documentación mínima buscada (sistema de clasificación seguido de los símbolos de clasificación)
    G05D, G06K, G01C
    Bases de datos electrónicas consultadas durante la búsqueda (nombre de la base de datos y, si es posible, términos de búsqueda utilizados) INVENES, EPODOC
    Informe del Estado de la Técnica Página 2/5
    OPINIÓN ESCRITA
    Nº de solicitud: 201231200
    Fecha de Realización de la Opinión Escrita: 21.12.2012
    Declaración
    Novedad (Art. 6.1 LP 11/1986)
    Reivindicaciones Reivindicaciones 1-17 SI NO
    Actividad inventiva (Art. 8.1 LP11/1986)
    Reivindicaciones Reivindicaciones 1-12,16-17 13-15 SI NO
    Se considera que la solicitud cumple con el requisito de aplicación industrial. Este requisito fue evaluado durante la fase de examen formal y técnico de la solicitud (Artículo 31.2 Ley 11/1986).
    Base de la Opinión.-
    La presente opinión se ha realizado sobre la base de la solicitud de patente tal y como se publica.
    Informe del Estado de la Técnica Página 3/5
    OPINIÓN ESCRITA
    Nº de solicitud: 201231200
    1. Documentos considerados.-
    A continuación se relacionan los documentos pertenecientes al estado de la técnica tomados en consideración para la realización de esta opinión.
    Documento
    Número Publicación o Identificación Fecha Publicación
    D01
    US 2006058928 A1 (UNIV BRIGHAM YOUNG) 16.03.2006
    D02
    EP 2071353 A2 (BOEING CO ) 17.06.2009
    D03
    US 7418320 B1 ( BODIN WILLIAM KRESS et al.) 26.08.2008
    D04
    COLOMINA, I. et al “Towards a new paradigm for high-resolution low-cost photogrammetry and remote sensing”. The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences. Vol. 37(B1). pp. 1201-1206. Beijing, China. 2008. 03.07.2008
  16. 2. Declaración motivada según los artículos 29.6 y 29.7 del Reglamento de ejecución de la Ley 11/1986, de 20 de marzo, de Patentes sobre la novedad y la actividad inventiva; citas y explicaciones en apoyo de esta declaración
    De los documentos encontrados para la realización de este informe, el documento D01 se considera el más próximo del estado de la técnica al objeto de las reivindicaciones 1 a 17, tal y como se explica a continuación (las referencias entre paréntesis corresponden a D01):
    Reivindicaciones independientes 1 y 17:
    Siguiendo la redacción de la reivindicación 1, el documento D01 describe un procedimiento de adquisición y procesamiento de información geográfica de un trayecto, que realiza las etapas de:
    a) enviar información de una trayectoria a una aeronave, desde una estación de control, cada cierto período de tiempo (véase el párrafo 99), b) cuando la aeronave recibe la información, determina su trayectoria según la información recibida (véase la reivindicación 9); c) adquirir datos e información geográficos (véase el párrafo 46), incluyendo imágenes (véase el párrafo 53), por medio de una pluralidad de sensores (véase la figura 2); d) obtener en un módulo de procesamiento la orientación de los sensores de la aeronave a partir de los datos geográficos adquiridos (véase la figura 8); e) calibrar, en un módulo de procesamiento, los sensores de la aeronave a partir de los datos adquiridos (véanse los párrafos 73 a 76); f) asociar las imágenes adquiridas con la orientación y calibración obtenidas (véase el párrafo 68).
    En la invención divulgada en D01, sin embargo, no se detalla ninguna etapa en la que se adquieran datos de trayectoria de un vehículo terrestre y además se envíen dichos datos desde una estación de control situada en el mismo vehículo hasta la aeronave. Tampoco se describe que se obtenga la orientación de unos sensores situados en el vehículo terrestre.
    En otros documentos encontrados, y relacionados con procedimientos de adquisición y procesamiento de información geográfica de trayectos, se describen métodos para el seguimiento de un vehículo terrestre desde una aeronave. El documento D02, por ejemplo, describe un procedimiento para que una aeronave no tripulada siga la misma trayectoria que un vehículo terrestre. En este caso, la información del trayecto del vehículo terrestre se obtiene de diversas formas (véase el párrafo 35), pero en ninguna de ellas se contempla que sean datos obtenidos por el mismo vehículo terrestre y enviadas a la aeronave.
    De este modo, no se considera obvio que un experto en la materia obtenga la invención tal y como se reivindica a partir de lo divulgado en los documentos citados, por lo que esta reivindicación cumpliría con los requisitos de novedad, actividad inventiva y aplicación industrial establecidos en el artículo 4.1 de la Ley 11/1986 de Patentes.
    Respecto a la reivindicación 17, dado que se refiere a un programa informático que realiza las etapas de la reivindicación 1, también cumpliría con los requisitos mencionados en el artículo 4.1 de la Ley de Patentes.
    Informe del Estado de la Técnica Página 4/5
    OPINIÓN ESCRITA
    Nº de solicitud: 201231200
    Reivindicación independiente 13:
    El documento D01 también describe un sistema para la adquisición de información y datos geográficos y procesamiento de la información, que comprende:
    -
    una estación de control para controlar una aeronave (véase el elemento 122 en la figura 1); -una aeronave en comunicación con la estación de control (véase el elemento 101 en la figura 1), equipada con una pluralidad de sensores (véase la figura 2); -un módulo de procesamiento (véase el elemento 120 de la figura 1) en comunicación con la estación de control para procesar toda la información y datos adquiridos por la aeronave (véase el párrafo 64).
    La principal diferencia entre la invención reivindicada y la descrita en el documento D01 está en que en este documento no se especifica que la estación de control esté situada en un vehículo terrestre con sensores que adquieran datos de información geográfica. El efecto técnico derivado de esta diferencia es tener una estación de control con cierta movilidad. El problema técnico a solucionar sería, de este modo, poder desplazar la estación de control. En el documento D01 sí se describe que la estación de control que se comunica con la aeronave puede ser un dispositivo móvil como un ordenador portátil o una PDA (véase el párrafo 63), por lo que se considera que para un experto en la materia enfrentado al problema técnico mencionado, sería evidente la utilización de un dispositivo como el descrito en D01 para llegar a la invención reivindicada.
    Del mismo modo, dado que los dispositivos GPS son elementos ampliamente extendidos y utilizados, tampoco se considera que la inclusión de estos elementos en un vehículo sea una característica que pueda dotar de actividad inventiva a la invención reivindicada.
    Por lo tanto, la reivindicación 13 carecería de actividad inventiva a la luz de lo descrito en D01 (Art. 8.1 LP).
    Reivindicaciones dependientes 2-12 y 14-16:
    Dado que las reivindicaciones 2 a 12 dependen de la reivindicación 1, también satisfarían los requisitos de patentabilidad establecidos en el Art. 4.1 de la Ley 11/1986 de Patentes.
    Respecto a las reivindicaciones 14 y 15, el documento D01 describe que la aeronave comprende sensores de imagen (véase el párrafo 53) y, por otro lado, el hecho de situar en el techo de un vehículo una serie de figuras geométricas se considera una mera opción de diseño, por lo que estas reivindicaciones no implicarían una actividad inventiva a la vista del estado de la técnica (Art. 8.1 LP).
    Finalmente, en cuanto a la reivindicación 16, dado que en los documentos citados no se menciona que el vehículo cuya ruta sigue la aeronave disponga de sensores, se considera que esta reivindicación sí satisfaría los requisitos de novedad y actividad inventiva establecidos en el Art. 4.1 de la Ley 11/1986 de Patentes.
    Informe del Estado de la Técnica Página 5/5
ES201231200A 2012-07-26 2012-07-26 Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto Active ES2394540B1 (es)

Priority Applications (5)

Application Number Priority Date Filing Date Title
ES201231200A ES2394540B1 (es) 2012-07-26 2012-07-26 Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto
BR112015001737-1A BR112015001737B1 (pt) 2012-07-26 2013-07-22 Método para aquisição e processamento de informações geográficas de uma trajetória.
US14/417,435 US9477230B2 (en) 2012-07-26 2013-07-22 Method for the acquisition and processing of geographical information of a path
PCT/EP2013/065401 WO2014016240A1 (en) 2012-07-26 2013-07-22 Method for the acquisition and processing of geographical information of a path
EP13739439.1A EP2877904B1 (en) 2012-07-26 2013-07-22 Method for the acquisition and processing of geographical information of a path

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201231200A ES2394540B1 (es) 2012-07-26 2012-07-26 Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto

Publications (2)

Publication Number Publication Date
ES2394540A1 ES2394540A1 (es) 2013-02-01
ES2394540B1 true ES2394540B1 (es) 2013-12-11

Family

ID=47528706

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201231200A Active ES2394540B1 (es) 2012-07-26 2012-07-26 Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto

Country Status (5)

Country Link
US (1) US9477230B2 (es)
EP (1) EP2877904B1 (es)
BR (1) BR112015001737B1 (es)
ES (1) ES2394540B1 (es)
WO (1) WO2014016240A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9621258B2 (en) * 2014-02-26 2017-04-11 Kutta Technologies, Inc. Bi-directional communication for control of unmanned systems
WO2015180133A1 (zh) * 2014-05-30 2015-12-03 深圳市大疆创新科技有限公司 无人机的航向生成方法和系统
US9482552B2 (en) * 2014-06-23 2016-11-01 Ge Aviation Systems Llc Method of simulating a real-time aircraft system input to an avionics component
US11768508B2 (en) 2015-02-13 2023-09-26 Skydio, Inc. Unmanned aerial vehicle sensor activation and correlation system
US10017249B1 (en) * 2015-08-21 2018-07-10 Aevena, Inc. Ducted rotor unmanned aerial vehicles
CN105318888B (zh) * 2015-12-07 2018-08-14 北京航空航天大学 基于无人机感知的无人驾驶车辆路径规划方法
US9592912B1 (en) 2016-03-08 2017-03-14 Unmanned Innovation, Inc. Ground control point assignment and determination system
US10262546B2 (en) * 2016-04-13 2019-04-16 Ge Aviation Systems Llc Aircraft navigation using exponential map
CN111108342B (zh) * 2016-12-30 2023-08-15 辉达公司 用于高清地图创建的视觉测程法和成对对准
WO2018236903A1 (en) 2017-06-20 2018-12-27 Planck Aerosystems Inc. SYSTEMS AND METHODS FOR RECHARGING A PILOT-FREE AIR VEHICLE ON A MOBILE PLATFORM
US12084179B2 (en) 2018-05-23 2024-09-10 Aerovironment, Inc. System and method for drone tethering
US11367361B2 (en) * 2019-02-22 2022-06-21 Kyndryl, Inc. Emulating unmanned aerial vehicle (UAV)
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
CN111463570B (zh) * 2020-04-21 2021-09-10 上海京济通信技术有限公司 一种抗多径干扰无人系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5894323A (en) * 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US7299130B2 (en) * 2003-12-12 2007-11-20 Advanced Ceramic Research, Inc. Unmanned vehicle
US7302316B2 (en) * 2004-09-14 2007-11-27 Brigham Young University Programmable autopilot system for autonomous flight of unmanned aerial vehicles
US7418320B1 (en) * 2005-01-24 2008-08-26 International Business Machines Corporation Navigating a UAV having an on-board digital camera to capture desired geographic area
US20100250022A1 (en) * 2006-12-29 2010-09-30 Air Recon, Inc. Useful unmanned aerial vehicle
US8718838B2 (en) * 2007-12-14 2014-05-06 The Boeing Company System and methods for autonomous tracking and surveillance
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
JP5690539B2 (ja) * 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
US8611692B2 (en) * 2011-09-26 2013-12-17 Northrop Grumman Systems Corporation Automated image registration with varied amounts of a priori information using a minimum entropy method
TW201328344A (zh) * 2011-12-27 2013-07-01 Hon Hai Prec Ind Co Ltd 控制無人飛行載具進行影像採集的系統及方法

Also Published As

Publication number Publication date
US20150192928A1 (en) 2015-07-09
BR112015001737B1 (pt) 2021-11-16
EP2877904B1 (en) 2019-07-03
US9477230B2 (en) 2016-10-25
BR112015001737A2 (pt) 2017-07-04
ES2394540A1 (es) 2013-02-01
WO2014016240A1 (en) 2014-01-30
EP2877904A1 (en) 2015-06-03

Similar Documents

Publication Publication Date Title
ES2394540B1 (es) Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto
AU2021202509B2 (en) Image based localization for unmanned aerial vehicles, and associated systems and methods
ES2951990T3 (es) Aparato y método de navegación
ES2817699T3 (es) Procedimiento automático de asistencia al aterrizaje de una aeronave
CN102815404B (zh) 用于在飞行器显示器上显示过程信息的方法和系统
CN109341700B (zh) 一种低能见度下固定翼飞机视觉辅助着陆导航方法
KR20180101717A (ko) 맵들을 사용하는 차량 컴포넌트 제어
Rehak et al. Fixed-wing micro aerial vehicle for accurate corridor mapping
Chiabrando et al. Direct photogrammetry using UAV: tests and first results
US11828859B2 (en) Navigation using self-describing fiducials
ES2935618T3 (es) Método de navegación de un vehículo y sistema del mismo
Ahmad et al. Digital aerial imagery of unmanned aerial vehicle for various applications
EP2933603B1 (en) Navigation based on at least one sensor and a 3d map
RU2584368C1 (ru) Способ определения контрольных значений параметров пространственно-угловой ориентации самолёта на трассах и приаэродромных зонах при лётных испытаниях пилотажно-навигационного оборудования и система для его осуществления
US9875403B2 (en) Method for accurately geolocating an image sensor installed on board an aircraft
JP2016188806A (ja) 移動体及びシステム
US9453708B2 (en) Method for determining position data of a target object in a reference system
CN109341686A (zh) 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法
CN110388939A (zh) 一种基于航拍图像匹配的车载惯导定位误差修正方法
Pieniazek Measurement of aircraft approach using airfield image
Andert et al. Improving monocular SLAM with altimeter hints for fixed-wing aircraft navigation and emergency landing
ES2788750T3 (es) Procedimiento para mejorar la precisión de un sistema de navegación en base a radio
US20240069214A1 (en) Navigation Using Self-Describing Fiducials
KR20170123801A (ko) 무인비행체의 이착륙용 수평위치 정확도 유지방법 및 그 장치
Paska State-of-the-art remote sensing geospatial technologies in support of transportation monitoring and management

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2394540

Country of ref document: ES

Kind code of ref document: B1

Effective date: 20131211