ES2758558T3 - Sistema de gestión de plataforma móvil en tiempo real - Google Patents

Sistema de gestión de plataforma móvil en tiempo real Download PDF

Info

Publication number
ES2758558T3
ES2758558T3 ES11832903T ES11832903T ES2758558T3 ES 2758558 T3 ES2758558 T3 ES 2758558T3 ES 11832903 T ES11832903 T ES 11832903T ES 11832903 T ES11832903 T ES 11832903T ES 2758558 T3 ES2758558 T3 ES 2758558T3
Authority
ES
Spain
Prior art keywords
mobile platform
line
sight communication
communication system
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11832903T
Other languages
English (en)
Inventor
Frank D Giuffrida
Mark A Winkelbauer
Charles Mondello
Robert Bradacs
Craig D Woodward
Stephen L Schultz
Scott Lawrence
Matthew Kusak
Kevin G Willard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pictometry International Corp
Original Assignee
Pictometry International Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pictometry International Corp filed Critical Pictometry International Corp
Application granted granted Critical
Publication of ES2758558T3 publication Critical patent/ES2758558T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/002Special television systems not provided for by H04N7/007 - H04N7/18
    • H04N7/005Special television systems not provided for by H04N7/007 - H04N7/18 using at least one opto-electrical conversion device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • H04B7/18502Airborne stations
    • H04B7/18506Communications with or from aircraft, i.e. aeronautical mobile service
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • H04B7/18502Airborne stations
    • H04B7/18506Communications with or from aircraft, i.e. aeronautical mobile service
    • H04B7/18508Communications with or from aircraft, i.e. aeronautical mobile service with satellite system used as relay, i.e. aeronautical mobile satellite service
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Traffic Control Systems (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)

Abstract

Un sistema de comunicación de datos entre un sistema (16) de plataforma móvil y un sistema (22) de estaciones terrestres en tiempo real, que comprende: el sistema de plataforma móvil adecuado para su montaje y uso en una plataforma móvil que tiene una localización y una altitud, comprendiendo el sistema de plataforma móvil: un sistema de posición que monitoriza la localización de la plataforma móvil y que genera una secuencia de datos de posición basados en el tiempo; un sistema (46) de comunicación sin línea de visión adaptado para transmitir la secuencia de datos de posición basados en el tiempo del sistema de plataforma móvil al sistema de estaciones terrestres; un sistema (44) de comunicación de línea de visión de alta velocidad adaptado para descargar productos de datos del sistema de plataforma móvil al sistema de estaciones terrestres en tiempo real y para proporcionar la secuencia de datos de posición basados en el tiempo del sistema de plataforma móvil al sistema de estaciones terrestres; un sistema (42) informático: que monitoriza la disponibilidad de un enlace de comunicación de línea de visión de alta velocidad; que recibe la secuencia de datos de posición basados en el tiempo cuando el enlace de comunicación de línea de visión de alta velocidad está disponible, y que transmite la secuencia de datos de posición basados en el tiempo a través del sistema de comunicación de línea de visión para permitir que la estación terrestre rastree la localización del sistema de plataforma móvil para mantener el enlace de comunicación de línea de visión de alta velocidad; que inicia las conexiones con el sistema de comunicación sin línea de visión cuando el enlace de comunicación de línea de visión de alta velocidad no está disponible, que recibe la secuencia de datos de posición basados en el tiempo y que transmite la secuencia de datos de posición basados en el tiempo a través del sistema de comunicación sin línea de visión para permitir que el sistema de estaciones terrestres rastree la localización del sistema de plataforma móvil; y comprendiendo el sistema (22) de estaciones terrestres: un sistema (64) de comunicación sin línea de visión adaptado para comunicarse con el sistema de comunicación sin línea de visión del sistema de plataforma móvil; un sistema (56) de comunicación de línea de visión direccional de alta velocidad adaptado para comunicarse con el sistema de comunicación de línea de visión de alta velocidad del sistema de plataforma móvil; y un sistema (70) informático adaptado para monitorizar la localización y la altitud de la plataforma móvil recibiendo la secuencia de datos de posición basados en el tiempo de al menos uno del sistema de comunicación sin línea de visión y el sistema de comunicación de línea de visión direccional de alta velocidad del sistema de estaciones terrestres, filtrando la entrada del sistema de comunicación sin línea de visión y del sistema de comunicación de línea de visión direccional de alta velocidad del sistema de estaciones terrestres para secuenciar en el tiempo adecuadamente al menos una porción de los datos de posición para generar una posición prevista de la plataforma móvil; y un dispositivo (152) de rastreo que comprende: un conjunto (84) de múltiple ejes conectado al sistema de comunicación de línea de visión direccional de alta velocidad; y uno o más controladores que reciben la posición prevista de la plataforma móvil y que controlan el conjunto de múltiple ejes para dirigir el sistema de comunicación de línea de visión direccional de alta velocidad para comunicarse con el sistema de comunicación de línea de visión de alta velocidad del sistema de plataforma móvil.

Description

DESCRIPCIÓN
Sistema de gestión de plataforma móvil en tiempo real
Referencia cruzada a solicitudes relacionadas
No aplicable.
Declaración sobre investigación y desarrollo con patrocinio federal
La presente invención se realizó con el apoyo del gobierno bajo el SBIR/STTR asunto número H-SB06.1-006 y/o el número de contrato NBCH080046 otorgado por el Departamento de la agencia de seguridad nacional de proyectos de investigación avanzada. El gobierno tiene ciertos derechos en la invención.
Antecedentes de la invención
Como antecedentes, en la industria de la detección remota/formación de imágenes aéreas, los conjuntos de imágenes se usan para capturar vistas de un área geográfica y para ser capaces de medir objetos y estructuras dentro de las imágenes, así como para ser capaz de determinar las localizaciones geográficas de los puntos dentro de la imagen. En general, se denominan "imágenes georreferenciadas" y se dividen en dos categorías básicas: Conjunto de imágenes capturadas: estas imágenes tienen el aspecto de que fueron capturadas por la cámara o el sensor empleado.
Conjunto de imágenes proyectadas: estas imágenes se han procesado y convertido de tal manera que confirman una proyección matemática.
Todos los conjuntos de imágenes se inician como imágenes capturadas, pero como la mayoría del software no puede georeferenciar el conjunto de imágenes capturadas, ese conjunto de imágenes se vuelve a procesar a continuación para crear el conjunto de imágenes proyectadas. La forma más común del conjunto de imágenes proyectadas es la imagen ortorectificada. Este procedimiento alinea la imagen a una cuadrícula ortogonal o rectilínea (compuesta de rectángulos). La imagen de entrada usada para crear una imagen ortorectificada es una imagen vertical o nadir, es decir, una imagen capturada con la cámara dirigiéndose recta hacia abajo. A menudo es bastante deseable combinar múltiples imágenes en una imagen compuesta más grande de tal manera que la imagen cubra un área geográfica más grande en el suelo. La forma más común de esta imagen compuesta es la "imagen ortomosaica", que es una imagen creada a partir de una serie de imágenes de nadir superpuestas o adyacentes que se combinan matemáticamente en una sola imagen ortorectificada.
Debido a que las cuadrículas rectilíneas usadas para el ortomosaico son, en general, las mismas cuadrículas que las usadas para la creación de mapas, las imágenes ortomosaicas poseen una sorprendente similitud con los mapas y, como tales, son en general muy fáciles de usar desde un punto de vista de dirección y orientación. Sin embargo, debido a que las imágenes se capturan mirando recto hacia abajo, la mayoría de las personas tienen dificultades para determinar lo que están viendo, ya que las personas rara vez ven el mundo de esa manera. Existe toda una disciplina dedicada a trabajar con los conjuntos de imágenes verticales o nadir conocida como la interpretación fotográfica que enseña a las personas cómo leer pistas sutiles en la imagen para determinar cuál podría ser el objeto que están viendo.
Es por esta razón que Pictometry creó los conjuntos de imágenes oblicuas totalmente georreferenciadas. Al igual que las imágenes de nadir ortorrectificadas, estas imágenes tienen la capacidad de soportar mediciones, determinar localizaciones, medir alturas y superponer anotaciones y datos GIS. Sin embargo, se capturan en un ángulo oblicuo de tal manera que capturan no solo la parte superior de las estructuras y los objetos, sino también los lados. Esta es una vista mucho más natural que permite a cualquier persona usar los conjuntos de imágenes aéreas, esto elimina la necesidad de entrenarse en la interpretación fotográfica o tener años de experiencia con el fin de realizar evaluaciones confiables sobre el contenido del conjunto de imágenes. La patente de los Estados Unidos N.° 5.247.356 describe una realización preferida de su sistema de captura de imágenes oblicuas iniciales. Desde entonces, se han realizado mejoras significativas en el sistema, todavía basadas en la patente '356. El sistema actual es capaz de capturar cinco vistas simultáneamente: cuatro vistas oblicuas, cada una orientada aproximadamente a lo largo de las cuatro direcciones cardinales, más una vista de nadir que captura el área directamente debajo de la aeronave. Todas las imágenes capturadas por este sistema tienen referencias geográficas completas en tiempo real y entonces pueden procesarse posteriormente para aumentar la precisión de las georreferencias.
En la producción de las imágenes aéreas georreferenciadas, existen unos sistemas de hardware y software diseñados para georreferenciar los datos de sensor aerotransportados y se identifican en el presente documento como un "POS", es decir, un sistema de posición y orientación. Por ejemplo, un sistema producido por Applanix Corporation de Richmond Hill, Ontario, Canadá y vendido bajo la marca comercial "POS AV" proporciona un sistema de hardware y software para georreferenciar directamente los datos de sensor. La georreferenciación directa es la medición directa de la posición y la orientación del sensor (también conocidos como parámetros de orientación exteriores), sin la necesidad de información terrestre adicional sobre el área del proyecto. Estos parámetros permiten que los datos de sensor aerotransportados se georreferencien a tierra o al fotograma de mapeo local. Ejemplos de sensores aerotransportados incluyen: cámaras aéreas digitales, escáneres multiespectrales o hiperespectrales, SAR o LIDAR.
El sistema POS, tal como el sistema POS AV, se monta en una plataforma móvil, tal como una aeronave, de tal manera que se mantiene firmemente en su lugar con respecto a los sensores para los que se mide la posición y la orientación. Al hacerlo, un único sistema POS puede registrar la posición y la orientación de múltiples sensores. Además, si el sistema POS incorpora un GPS o GLONASS, se monta una antena en la plataforma de tal manera que tenga una vista clara del cielo con el fin de recibir señales de una constelación de satélites. Si el sistema incorpora una capacidad de medición angular, tal como un giroscopio de fibra óptica, un giroscopio mecánico, un sensor de inclinación mecánico o un magnetómetro, estos sistemas deben montarse de tal manera que los mantenga firmemente en su lugar en relación con los sensores para los que están midiendo la orientación. Si las mediciones deben tomarse con más frecuencia que las posiciones y las orientaciones medidas reales, entonces se incorpora un reloj de alta precisión y se integra un medio para registrar la hora exacta de cualquier evento de captura del sensor. Por ejemplo, con una cámara con obturador, puede enviarse una señal eléctrica en el momento en que el obturador está completamente abierto, activando el sistema POS para registrar la hora precisa en el reloj para ese evento de captura de sensor.
En el pasado, las imágenes y los datos de tiempo y posición se almacenaban en discos duros en la aeronave y se procesaban posteriormente y se ponían a disposición de los usuarios después de que la aeronave aterrizase. Este procedimiento podría llevar días o incluso semanas antes de que las imágenes georreferenciadas estuvieran disponibles para los usuarios. Normalmente, estos períodos de tiempo están dentro del marco de tiempo relevante. Sin embargo, después de que se produzca un desastre, este no es necesariamente el caso.
En el pasado, se han capturado y procesado los conjuntos de imágenes oblicuas aéreas métricas y es muy útil para los primeros en responder y para los responsables de la reconstrucción. Esto es especialmente cierto para huracanes e inundaciones donde los conjuntos de imágenes oblicuas muestran la altura que el agua ha alcanzado a los lados de los edificios, algo difícil de determinar a partir de los conjuntos de imágenes ortogonales rectas hacia abajo tradicionales.
Durante las secuelas del huracán Katrina, se descubrió una nueva necesidad: la necesidad de determinar la extensión inmediata de las inundaciones y los daños y retransmitirla a los primeros en responder en el campo. Mientras que el huracán Katrina dejó una gran franja de destrucción, algunas áreas fueron más devastadas que otras. Habría sido extremadamente útil realizar un sobrevuelo, transmitir esos datos directamente a tierra, permitir a los especialistas en primeros auxilios mirar las imágenes y seleccionar las áreas más afectadas u otras piezas críticas de infraestructura, tales como rutas de evacuación que posiblemente podrían estar bloqueadas, y hacer que la aeronave capturase esas imágenes áreas con más detalle.
La invención actualmente desvelada y reivindicada se creó en respuesta a esta necesidad. El trabajo fue impulsado por el Departamento de seguridad nacional (DHS), que solicitó un sistema que pudiera realizar georreferenciación en tiempo real de un conjunto de imágenes aéreas y a continuación transmitir las imágenes a tierra para su visualización en un Sistema de información geográfica (SIG). El titular de la patente, es decir, Pictometry, recibió una subvención de Small Business Innovation Research (SBIR) para crear dicho sistema para DHS y FEMA, la administración federal de gestión de emergencias. Los conceptos inventivos actualmente desvelados y reivindicados van más allá de las necesidades y especificaciones de la SBIR y agrega la capacidad de realizar estas tareas con datos de sensor tal como, pero no limitado a, los conjuntos de imágenes oblicuas métricas, así como a los conjuntos de imágenes ortogonales rectas hacia abajo.
Existen sistemas de captura de imágenes por satélite, pero al mismo tiempo tienen la capacidad de transmitir desde el sensor a tierra, esto no consigue inmediatamente la información para los primeros en responder en el campo. En primer lugar, el satélite no puede merodear sobre un área, por ejemplo, volar múltiples rutas de vuelo contiguas; debe mantener su órbita y, por lo tanto, solo va por una región geográfica específica de vez en cuando. Incluso con la capacidad de asignar los sensores en el satélite que en general solo amplía la ventana de oportunidad sobre el objetivo o aumenta la frecuencia sobre el objetivo, todavía no le permite merodear sobre un área terrestre predeterminada. En segundo lugar, incluso si un sistema de captura de imágenes por satélite pudiera merodear, debido a que los satélites vuelan tan alto sobre la tierra, cualquier cubierta de nubes obstruirá su visión de la tierra. Ya que en general hay una gran cubierta de nubes después de los desastres relacionados con el clima, tales como huracanes, inundaciones y tornados, esto presenta un problema grave, agravado aún más por la incapacidad de los satélites para merodear. En tercer lugar, muchos satélites descargan los datos en un formato por lotes cuando pasan sobre una estación receptora apropiada, en lugar de descargar las imágenes en tiempo real a una camioneta o a otra estación terrestre en el sitio en el centro de respuesta de emergencia. En cuarto lugar, la mayoría de los datos satelitales requieren un procesamiento posterior significativo con el fin de poner las imágenes en una forma que pueda entenderse fácilmente o usarse por los sistemas de información geoespacial (SIG) y los sistemas de despacho asistido por ordenador (CAD) que usan los primeros en responder durante la respuesta de emergencia. Las aeronaves de imágenes aéreas tradicionales no proporcionan los datos capturados directamente en las manos de los primeros en responder en el campo en tiempo real por una diversidad de razones. En primer lugar, las velocidades de datos fuera del sensor son en general prohibitivas para transmitir con éxito datos a tierra en tiempo real. En segundo lugar, los conjuntos de imágenes deben ortorrectificarse, en general, para que puedan usarse en los sistemas SIG y CAD. En tercer lugar, no había sistemas de descarga directa conocidos y disponibles en la industria, capaces de descargar de manera confiable los datos de la aeronave a tierra. En cuarto lugar, los datos normalmente se capturan directamente desde arriba, que es una vista que los primeros en responder no están acostumbrados a ver. Los expertos en SIG suelen tomar cursos de interpretación fotográfica con el fin de aprender a reconocer estructuras y detalles procedentes de conjuntos de imágenes rectas hacia abajo. Pocos de los primeros en responder han tenido esta educación o la experiencia necesaria.
Con respecto a la descarga de los datos capturados desde una aeronave a tierra, las metodologías convencionales incluyen direccionar manualmente una antena parabólica en la dirección general de una plataforma a distancia en movimiento y a continuación afinar el direccionamiento utilizando la fuerza de la señal de la señal entrante. Esto funciona aceptablemente para plataformas remotas, tales como aeronaves que se ciernen sobre una localización fija. Sin embargo, esto a menudo es poco práctico o poco confiable para comunicarse con un sistema de comunicación transportado por una aeronave, usado para capturar imágenes con la ayuda de un plan de vuelo en respuesta a un desastre y que puede estar desplazándose a más de 40 kilómetros (25 millas) de la antena parabólica. Además, las metodologías convencionales no proporcionaron un procedimiento automatizado para restablecer una conexión o problemas de sincronización de datos después de una caída del enlace de alta velocidad. Cada uno de los documentos US-A-2007/188653, US-A-2008/158256, USA-2010/157055, EP-A-1393468 y "Aircraft Communications Addressing and Reporting System - Wikipedia, the free encyclopedia", (20100629), URL: en.wikipedia.org/w/index.php?title=Aircraft_Communications_Addressing_ and_Reporting_System & oldid' desvela un sistema de comunicación en tiempo real para un dispositivo de sensor aerotransportado.
Por lo tanto, existe una necesidad de un sistema que pueda capturar, procesar (por ejemplo, desarrollar y georeferenciar) y descargar datos de sensor tales como, pero no limitado a, imágenes aéreas oblicuas métricas en tiempo real, para su uso por los primeros en responder en respuesta a un desastre natural o provocado por el hombre.
El sistema de plataforma móvil en tiempo real descrito en el presente documento supera todas estas limitaciones de las metodologías de la técnica anterior analizadas anteriormente.
Vista desde un primer aspecto, la presente invención proporciona un sistema para comunicar datos entre un sistema de plataforma móvil y un sistema de terrestre en tiempo real de acuerdo con la reivindicación 1.
En general, el sistema está diseñado para comunicar datos entre un sistema de plataforma móvil y un sistema de terrestre. La plataforma móvil es preferentemente una aeronave, aunque podría ser otro tipo de plataforma aerotransportada, tal como un helicóptero o una plataforma basada en agua, tal como un barco. Otros ejemplos de la plataforma móvil se analizan a continuación.
La plataforma móvil puede incluir un sistema de captura de sensores. El sistema de comunicación sin línea de visión puede ser un sistema de comunicación por satélite, y el sistema de comunicación con línea de visión puede incluir una antena omnidireccional con un controlador de comunicación adecuado.
El sistema de captura de sensores incluye preferentemente una pluralidad de sensores, tales como cámaras oblicuas aéreas dirigidas a tierra.
El sistema de terrestre se localiza preferentemente en o cerca del sitio del desastre y se proporciona con un sistema de comunicación sin línea de visión adaptado para comunicarse con el sistema de comunicación sin línea de visión del sistema de plataforma móvil; un sistema de comunicación de línea de visión direccional adaptado para comunicarse con el sistema de comunicación de línea de visión del sistema de plataforma móvil; un sistema informático y un dispositivo de rastreo.
El sistema informático está adaptado para monitorizar la localización y la altitud en tiempo real de la plataforma móvil recibiendo la secuencia de datos de posición basados en el tiempo a partir de al menos uno del sistema de comunicación sin línea de visión y el sistema de comunicación de línea de visión direccional del sistema de estaciones terrestres, para filtrar la entrada del sistema de comunicación sin línea de visión y el sistema de comunicación de línea de visión direccional del sistema de estaciones terrestres para secuenciar en el tiempo adecuadamente al menos una parte de los datos de posición para generar una posición prevista de la plataforma móvil.
El dispositivo de rastreo está provisto de un conjunto de múltiple ejes conectado al sistema de comunicación de línea de visión direccional, y a uno o más controladores que reciben la posición prevista de la plataforma móvil y que controlan el conjunto de múltiple ejes para dirigir el sistema de comunicación de línea de visión direccional para comunicarse con el sistema de comunicación de línea de visión.
Una vez que se forma un enlace de alta velocidad del sistema de comunicación de línea de visión, los datos de sensor y los datos de posición para georreferenciar los datos de sensor pueden transmitirse en tiempo real desde el sistema de plataforma móvil al sistema de terrestre.
En una realización preferida, el sistema de captura de sensor puede recibir planes de vuelo en tiempo real, dirigir un sistema de piloto o de control para merodear en un área de desastre, y volar la plataforma móvil en altitudes entre 2.500 y 10.000 pies (762 y 3048 metros) (preferentemente entre 3.000 y 6.500 pies (915 y 1981 metros)) que está muy por debajo de las nubes más bajas. El sistema de captura de sensor usa preferentemente cámaras de encuadre digital de formato pequeño o mediano que tienen una velocidad de datos manejable que pueden descargarse a través del enlace de alta velocidad del sistema de comunicación de línea de visión direccional. Preferentemente, el sistema de plataforma móvil desarrolla y georreferencia los datos de sensor capturados antes de descargar los datos de sensor capturados al sistema de estaciones terrestres usando una metodología de registro directo en tiempo real de tal manera que no se requiera un procesamiento adicional con el fin de posicionar adecuadamente los datos en los sistemas SIG o CAD. El sistema de captura de sensores puede administrar múltiples sensores, tal como, pero no limitado a, cuatro cámaras oblicuas además de una cámara vertical, proporcionando de este modo unas vistas que muestran los lados de las estructuras y los objetos en la escena. Esta visión natural permite a los primeros en responder reconocer instantáneamente lo que están mirando y tomar decisiones inteligentes basadas en esa información.
El enlace de alta velocidad del sistema de comunicación de línea de visión direccional permite que esta información se canalice directamente al centro de respuesta de emergencia o a una furgoneta en el lugar del desastre. Por lo tanto, los primeros en responder saben lo que está sucediendo ahora, no horas o incluso días después.
Como se ha analizado anteriormente, el sistema de comunicación de línea de visión puede estar provisto de una antena omnidireccional montada en la aeronave y una antena parabólica de seguimiento montada en tierra. El sistema de estaciones terrestres mantiene la antena parabólica dirigida a la aeronave con el fin de permitir el enlace de alta velocidad del sistema de comunicación de línea de visión direccional a través del que pueden transmitirse a tierra las imágenes y los metadatos y a través del que nuevos planes de vuelo y directivas de vuelo pueden transmitirse a la aeronave.
El sistema de comunicación sin línea de visión puede usarse para determinar inicialmente la localización de la aeronave, dirigir la antena direccional del sistema de comunicación de línea de visión, y comunicarse a través de períodos de falta de disponibilidad del enlace de alta velocidad.
Al adaptar el sistema informático del sistema de plataforma móvil para monitorizar las imágenes y los metadatos recopilados y monitorizar el enlace de alta velocidad del sistema de comunicación de línea de visión direccional, el sistema informático transmite automáticamente nuevos datos de sensor, tales como el conjunto de imágenes oblicuas que bajan por el enlace cuando esté disponible. Este sistema también responde a comandos y directivas que suben al enlace e inicia los procedimientos adecuados según sea necesario. Este sistema informático también inicia el enlace del sistema de comunicación sin línea de visión (tal como el enlace por satélite) en el caso de que se interrumpa el enlace de alta velocidad del sistema de comunicación de línea de visión direccional.
En una realización preferida, el sistema de terrestre también puede visualizar y procesar los datos de sensor en tiempo real, en la medida en que bajan al enlace de alta velocidad del sistema de comunicación de línea de visión direccional; permitir al operador medir y explotar los conjuntos de imágenes; solicitar los conjuntos de imágenes de resolución completa del sistema de plataforma móvil ya que los conjuntos de imágenes comprimidas en general se transmiten automáticamente; así como también rastrear la posición, orientación y estado actual de la plataforma móvil; y permitir al operador generar nuevos planes de vuelo y transmitirlos a la plataforma móvil. Además, el sistema de estaciones terrestres incluye preferentemente una conexión de internet de tal manera que los productos de datos creados por el sistema de plataforma móvil y el sistema de estaciones terrestres puedan publicarse en tiempo real en un servidor web y ponerse a disposición de múltiples sistemas de clientes a través de internet.
Aunque los sistemas descritos en el presente documento fueron diseñados inicialmente para su uso en una aeronave, este enfoque también funciona para otras plataformas móviles, tales como barcos, coches, helicópteros, o incluso sistemas de mano. Durante el desarrollo de la realización preferida, estos componentes lograron rastrear una camioneta que circulaba por las calles y establecer un enlace de comunicación de alta velocidad cada vez que la camioneta estaba en la línea de visión de la antena, que en las pruebas se montó en la cima de una colina alta. Debido a que este sistema maneja adecuadamente la desviación, la separación, la oscilación, X, Y y Z de la plataforma móvil, este es adecuado para prácticamente cualquier plataforma móvil.
Por lo tanto el sistema de plataforma móvil en tiempo real crea preferentemente un sistema completo de extremo a extremo capaz de satisfacer las necesidades de los primeros en responder y de los equipos de emergencia en una respuesta continua a un desastre natural o de origen humano.
La figura 1 es una imagen oblicua de una parte de la línea de costa de Galveston Texas después del huracán Ike.
La figura 2 es una imagen oblicua de la misma parte de la línea de costa de Galveston Texas antes del huracán Ike.
La figura 3 es un diagrama de bloques de un sistema de gestión de plataforma móvil en tiempo real a modo de ejemplo construido de acuerdo con una realización de la presente invención.
La figura 4 es un diagrama de bloques de un sistema de plataforma a modo de ejemplo construido de acuerdo con una realización de la presente invención.
La figura 5 es un diagrama de bloques de un sistema de estaciones terrestres a modo de ejemplo construido de acuerdo con una realización de la presente invención para comunicarse con el sistema de plataforma representado en la figura 4.
La figura 6 es una vista esquemática de una pantalla de un sistema informático del sistema de estaciones terrestres que ilustra un plan de vuelo construido de acuerdo con una realización de la presente invención que puede cargarse en el sistema de plataforma en tiempo real y usarse para guiar la plataforma móvil para capturar datos de sensor preseleccionados.
La figura 6A es un diagrama de flujo de un procedimiento para crear un plan de vuelo de acuerdo con una realización de la presente invención desde el punto de vista de un usuario que utiliza el sistema de estaciones terrestres representado en la figura 5.
La figura 6B es un diagrama de flujo de otro procedimiento para crear un plan de vuelo de acuerdo con una realización de la presente invención desde el punto de vista representado en la figura 5.
La figura 7 es una vista de la pantalla del sistema informático que ilustra una etapa de selección de parámetros de vuelo predeterminados.
La figura 8A es otra vista de la pantalla del sistema informático de la figura 6 que ilustra una etapa de selección de puntos en un mapa para abarcar un área predeterminada para desarrollar un plan de vuelo.
La figura 8B es otra vista de la pantalla del sistema informático de la figura 6 que ilustra un plan de vuelo desarrollado de acuerdo con el área predeterminada seleccionada representada en la figura 8A.
La figura 9 es una vista en perspectiva de un dispositivo de rastreo a modo de ejemplo del sistema de estaciones terrestres.
La figura 10 es un diagrama de tiempos que ilustra la transmisión de una secuencia de datos de posición basados en el tiempo, la recepción de la secuencia de datos de posición basados en el tiempo fuera de orden y el filtrado de los datos de posición basados en el tiempo recibidos para secuenciar adecuadamente el tiempo los datos de posición basados en el tiempo recibidos.
La figura 11 es una vista esquemática de un procedimiento para estimar la posición de la plataforma móvil usando los datos de posición secuenciados en el tiempo adecuadamente.
La figura 12 es un diagrama de bloques de software y hardware del sistema de gestión de plataforma móvil en tiempo real que funciona en conjunto con el fin de generar datos de sensor y colocar los datos y hacer que los datos de sensor georreferenciados se muestren en un mapa geoespacial de uno o más sistemas cliente en tiempo real.
La figura 13 es un archivo XML a modo de ejemplo que contiene datos de posición.
La figura 14 es una vista esquemática de una pantalla de uno de los sistemas cliente que ilustra la representación automática de los productos de datos (por ejemplo, imágenes oblicuas) en tiempo real en un mapa geoespacial de un programa informático de visualización de mapas indicativo del área cubierta por los recién creados productos de datos.
La figura 15 es una vista esquemática de la pantalla de uno de los sistemas cliente que ilustra la representación de una imagen orto en el mapa geoespacial de un programa informático de visualización de mapas.
La figura 16 es una vista esquemática de la pantalla de uno de los sistemas cliente que ilustra la representación de una imagen oblicua en el mapa geoespacial de un programa informático de visualización de mapas.
La figura 17 es una vista esquemática de un producto de datos producido por el sistema de gestión de plataforma móvil en tiempo real.
La figura 18 es una vista esquemática de la pantalla de uno de los sistemas cliente que ilustra al menos una parte del contenido de píxel de imagen oblicua colocada para aparecer en o por encima del mapa geoespacial y alineada con respecto al eje óptico del sensor que capturó la imagen oblicua.
La figura 19 es una vista en perspectiva inferior de una configuración alternativa de sensores que pueden usar el sistema de captura de imágenes para capturar datos de sensor que incluye una o más estructuras de soporte que soportan cámaras de color oblicuas hacia delante y hacia atrás, una cámara de color nadir y una cámara de IR nadir, un sensor LADAR flash (láser y cámara) (preferentemente dirigiéndose en la dirección del nadir) y una cámara de video en movimiento (por ejemplo, de 30 fotogramas por segundo).
Descripción detallada de la invención
Antes de explicar al menos una realización de la invención en detalle, debe entenderse que la invención no se limita en su aplicación a los detalles de construcción, experimentos, datos a modo de ejemplo, y/o la disposición de los componentes expuestos en la siguiente descripción o ilustrados en los dibujos. La invención es capaz de otras realizaciones o que se practiquen o se realicen de diversas maneras. Además, debe entenderse que la fraseología y la terminología empleadas en el presente documento tienen fines descriptivos y no deberían considerarse limitantes.
Haciendo referencia ahora a los dibujos, las figuras 1 y 2 son unas imágenes oblicuas que muestran imágenes de una parte de la línea de costa en Galveston Texas antes y después del huracán Ike. Como se muestra en la figura 1, el daño a Galveston Texas fue extenso y la Agencia federal para la gestión de emergencias se desplegó inmediatamente en la región en un esfuerzo de respuesta de emergencia.
En los desastres, los equipos de respuesta de emergencia necesitan que se les proporcione información del conocimiento situacional crítico y diseminar los datos rápidamente para dar soporte a la toma de decisiones en los primeros días del desastre para acelerar los tiempos de respuesta y para proteger las vidas. Tradicionalmente, tareas como estas se han realizado enviando individuos al campo. Sin embargo, esta es una tarea que lleva mucho tiempo y que a menudo es peligrosa. Cuando se han usado datos de detección remota, a menudo no están actualizados debido al tiempo que ha pasado desde la captura de datos hasta la entrega de los datos. Los sistemas basados en el espacio pueden usarse para capturar datos, pero a menudo están limitados debido a la resolución y a la cubierta de nubes para acceder al área objetivo. Las aeronaves se han usado en el pasado, pero en general requieren horas o días de procesamiento para permitir la entrega de datos al cliente. Estos plazos son inaceptables cuando hay vidas en juego y se requieren decisiones rápidas.
Basándose en la experiencia de diversos huracanes y desastres realizados por el hombre, el Departamento de seguridad nacional emitió una concesión de investigación innovadora para pequeñas empresas para el desarrollo de un sistema de detección remota de respuesta rápida. El objetivo de la concesión de investigación innovadora para pequeñas empresas era desarrollar un sistema de respuesta rápida que fuese capaz de soportar desastres grandes y pequeños. La meta de ese sistema era capturar datos de imágenes verticales o nadir y distribuirlos a aquellos que necesitan tomar decisiones dentro de los 15 segundos desde el momento de la captura de los datos recibidos en una estación terrestre, de tal manera que los datos puedan redistribuirse a internet en cuyo punto los tomadores de decisiones a través de los Estados Unidos pudieran tener acceso a los datos que tienen solo unos minutos de antigüedad.
Los conceptos de la invención actualmente desvelados y reivindicados van más allá del ámbito y la capacidad de dicho sistema creando los conjuntos de imágenes oblicuas georreferenciadas en tiempo real y los datos de elevación georreferenciados en tiempo real, que transmiten esa información a tierra en tiempo real y que los presentan a los primeros en responder de una manera fácil de usar e intuitiva.
Haciendo referencia ahora a la figura 3, se muestra en la misma y designado por el número de referencia 10 un sistema de gestión de plataforma móvil en tiempo real construida de acuerdo con la presente invención para capturar datos de sensor que son métricos y que distribuye los datos de sensor en tiempo real a los tomadores de decisiones provistos de o que usan unos sistemas 12 cliente en tiempo real, por ejemplo, a los pocos minutos de la captura de los datos de sensor y preferentemente a los 15 segundos de la captura de los datos de sensor. El término "métrico" se usa en el presente documento para indicar que los datos de sensor, tales como los conjuntos de imágenes oblicuas, están georreferenciados, son geográficamente precisos y capaces de medirse.
En general, el sistema 10 de gestión de plataforma móvil en tiempo real está provisto de un sistema 16 de plataforma móvil soportado por una plataforma 18 móvil que captura los datos de sensor de las zonas afectadas y pasa los datos de sensor en tiempo real a uno o más sistemas 22 de terrestre que proporciona automáticamente los datos de sensor a uno o más sistemas 12 cliente utilizando preferentemente internet 24. Solo se muestran dos de los sistemas cliente en la figura 3 con fines de claridad y se designan con los números de referencia 12A y 12B. Los sistemas 12 cliente pueden implementarse en una diversidad de maneras e incluyen una diversidad de tipos de dispositivos de entrada y de salida tales como un ratón, un teclado, un micrófono, uno o más dispositivos de visualización, uno o más altavoces, una o más impresoras, una o más conexiones de red o similares. El sistema 12 cliente puede implementarse como uno o más ordenadores o procesadores que trabajan juntos o de manera dispar para proporcionar las funciones descritas en el presente documento. El sistema 12 cliente también puede implementarse como un dispositivo portátil, como un teléfono móvil, un ordenador portátil o un ordenador de plantilla. La plataforma 18 móvil puede implementarse en una amplia diversidad de maneras. Por ejemplo, la plataforma 18 móvil puede ser cualquier tipo de dispositivo o sistema que pueda moverse a través del espacio de manera predeterminada o aleatoria. Normalmente, la plataforma 18 móvil es una aeronave tripulada, pero debería entenderse que la plataforma 18 móvil puede implementarse de otras maneras. Por ejemplo, la plataforma 18 móvil puede implementarse como una aeronave no tripulada, un tren, un automóvil como una furgoneta, un barco, un barco, un vehículo de cuatro ruedas, una motocicleta, un tractor, un dispositivo robótico o similar.
En general, el sistema 16 de plataforma móvil y el sistema 22 de terrestre se comunican preferentemente los datos y la información de control a través de una línea de alta velocidad del sistema 30 de comunicación de sitio como se muestra en la figura 3. Cuando el sistema 30 de comunicación de línea de visión de alta velocidad no está disponible o conectado, el sistema 22 de estaciones terrestres y el sistema 16 de plataforma móvil se comunican a través de un sistema 32 de comunicación sin línea de visión que se representa en la figura 3 como un sistema basado en satélite a modo de ejemplo.
Los datos de sensor capturados por el sistema 16 de plataforma móvil pueden ser de diversos tipos, incluyendo, pero no limitados a, un radar por infrarrojos (lidar), una o unas imágenes pancromáticas, una o unas imágenes de colores, una o unas imágenes en escalas de grises o una o unas imágenes de infrarrojos. Las imágenes pueden ser, pero no están limitadas a, imágenes oblicuas, imágenes ortogonales o imágenes de nadir, o combinaciones de las mismas. Los sistemas de sensores considerados son normalmente de formato medio o pequeño en naturaleza. Estos tipos de sistemas de sensores pueden proporcionar una capacidad de recopilación de bajo coste y también suelen generar los tipos más comunes de datos de sensor utilizados por la policía, los bomberos y los respondedores de emergencia.
Haciendo referencia a la figura 4, se muestra en la misma un diagrama de bloques de un sistema 16 de plataforma móvil a modo de ejemplo construido de acuerdo con los conceptos inventivos actualmente desvelados y reivindicados. En general, el sistema 16 de plataforma móvil está provisto de un sistema 40 de captura de sensores, un sistema 42 informático, un sistema 44 de comunicación de línea de visión y un sistema 46 de comunicación sin línea de visión. El sistema 40 de captura de sensores puede construirse en de una manera similar a los sistemas de captura de imágenes establecidos en las figuras 1, 2, 4 y 9 de la solicitud de patente identificada por el número de serie de Estados Unidos 12/031.576, que incluye uno o más dispositivos de captura de imágenes (1, 2, 3, 4, 5 o más), uno o más sistemas de monitorización, uno o más sistemas multiplexores de eventos y una o más unidades de almacenamiento de datos o sistemas informáticos.
A modo de sumario, cada uno de los dispositivos de captura de imágenes tiene un sensor (no mostrado) para capturar datos de sensor, tales como una imagen y también está provisto de un canal de eventos que proporciona una señal de evento que indica la captura de una imagen por el sensor. El canal de eventos puede ser cualquier dispositivo que proporcione una señal coincidente con la captura de la imagen, que incluye, pero no se limita a, una salida de flash u otra interrupción informática comunicada a través de un protocolo de comunicación informático serie u otro protocolo de comunicación. El sensor puede capturar la imagen de manera digital o analógica y convertirla a una forma digital. Además, debería entenderse que la imagen puede almacenarse electrónicamente, magnéticamente u ópticamente.
El sistema multiplexor de eventos del sistema 40 de captura de sensores tiene al menos una entrada de captura de imágenes y al menos un puerto de salida. En una realización preferida, el sistema multiplexor de eventos tiene al menos dos entradas de captura de imágenes. Cada entrada de captura de imágenes recibe señales del canal de eventos de uno de los dispositivos de captura de imágenes. El sistema multiplexor de eventos emite señales de eventos indicativas de un orden de eventos indicado por las señales proporcionadas por los dispositivos de captura de imágenes, y una identificación (CID) de los dispositivos de captura de imágenes que proporcionan las señales de eventos.
El sistema de monitorización registra los datos indicativos de la captura de las imágenes. Por ejemplo, el sistema de monitorización puede registrar datos de posición en función del tiempo, datos de tiempo y/o datos de orientación. En los ejemplos descritos en el documento de Estados Unidos número de serie 12/031.576, el sistema de monitorización registra datos de posición en función del tiempo, así como datos de tiempo y/o datos de orientación relacionados con la plataforma móvil. Preferentemente, el sistema de monitorización lee y/o registra automática y continuamente los datos. Sin embargo, debería entenderse que el sistema de monitorización puede leer y/o registrar los datos de otras maneras, tal como de manera periódica, o al recibir una señal para activar el sistema de monitorización para obtener y registrar los datos. Por ejemplo, las señales de eventos producidas por el sistema multiplexor de eventos pueden proporcionarse al sistema de monitorización para hacer que el sistema de monitorización lea y/o registre los datos indicativos de la posición en función del tiempo relacionados con la plataforma 18 móvil.
En las realizaciones representadas en las figuras 1 y 2 del documento de Estados Unidos número de serie 12/031.576, el sistema de monitorización también incluye un receptor de satélite que recibir normalmente señales de posición y de temporización desde una constelación de satélites, usando cualquier protocolo apropiado, tal como GPS o Loran, aunque pueden usarse otros tipos de sistemas de determinación de posición, como la triangulación de teléfonos móviles, por ejemplo, el protocolo de aplicación inalámbrica (WAP).
El sistema informático del sistema 40 de captura de sensores recibe y almacena (preferentemente en una base de datos) la información indicativo del orden de los eventos indicado por las señales de evento, y la identificación de los dispositivos de captura de imágenes que proporcionan las señales de evento. El sistema informático también recibe y almacena opcionalmente las imágenes (preferentemente en la base 38 de datos) generadas por los dispositivos de captura de imágenes. El sistema de monitorización registra los datos indicativos de la captura de imágenes almacenándolas internamente, enviándolas al sistema informático o enviando dichos datos de cualquier otra manera adecuada, tal como almacenando dichos datos en un sistema de almacenamiento magnético u óptico exterior. La posición relacionada con la plataforma 18 móvil puede proporcionarse en cualquier sistema de coordenadas adecuado que incluye, pero no se limita a, un sistema de coordenadas X, Y, Z o a un sistema de coordenadas de latitud/longitud WGS1984.
Además, el sistema 40 de captura de sensores puede estar provisto de un sistema de orientación, tal como una unidad de medición inercial para capturar otros tipos de información con respecto a la plataforma 18 móvil, tal como la orientación de la plataforma 18 móvil. La unidad de medición inercial puede proporcionarse con una diversidad de sensores, tales como acelerómetros (no mostrados) para determinar la desviación, la separación, la oscilación relacionadas con la plataforma 18 móvil. Además, debería entenderse que la información de posición y/u orientación no necesariamente tiene que ser una posición y/u orientación de la plataforma 18 móvil. La información de posición y orientación simplemente está relacionada con la plataforma 18 móvil, es decir, la posición y/u orientación de la plataforma 18 móvil debería poder determinarse por la información registrada por el sistema de monitorización. Por ejemplo, la información de posición y orientación puede proporcionarse para un dispositivo conectado a la plataforma 18 móvil. A continuación, la posición y orientación para cada dispositivo de captura de imágenes puede determinarse basándose en sus localizaciones conocidas en relación con la plataforma 18 móvil.
Más detalles acerca de la construcción del sistema 40 de captura de sensores se establecen en el documento de Estados Unidos número de serie 12/031.576.
El sistema 42 informático puede construirse en una diversidad de maneras e incluyen una diversidad de tipos de dispositivos de entrada y de salida tales como un ratón, un teclado, un micrófono, uno o más dispositivos de visualización, uno o más altavoces, una o más impresoras, una o más conexiones de red o similares. El sistema 42 informático puede implementarse como uno o más ordenadores o procesadores que trabajan juntos o de manera dispar para proporcionar las funciones descritas en el presente documento.
El sistema 42 informático se comunica con el sistema 40 de captura de sensores, el sistema 44 de comunicación de línea de visión, y el sistema 46 de comunicación sin línea de visión utilizando las rutas 47a, 47b, y 47c de señal. Las rutas 47a, 47b y 47c de señal pueden implementarse de cualquier manera adecuada, tal como unos enlaces de comunicación por cable o inalámbricos.
En general, el sistema 42 informático está provisto de uno o más medios 48 legibles por ordenador que almacenan instrucciones ejecutables por ordenador (por ejemplo, software, firmware o similares), que cuando se ejecutan por el uno o más ordenadores o procesadores del sistema 42 informático hacen preferentemente que el sistema 42 informático: (1) permita que el sistema 40 de captura de sensores capture datos de sensor y datos de posición en tiempo real y guarde los datos de sensor y los datos de posición en uno o más directorios de uno o más medios 48 legibles por ordenador en tiempo real; (2) monitorice, en tiempo real, uno o más directorios de uno o más medios 48 legibles por ordenador para los datos de sensor y los datos de posición; y (3) transmita los datos de sensor y los datos de posición desde el sistema 16 de plataforma móvil en tiempo real al sistema 22 de estaciones terrestres a través del sistema 44 de comunicación de línea de visión en respuesta a los datos de sensor y los datos de posición que se detectan, por ejemplo dentro del uno o más directorios. Debería entenderse que el sistema 42 informático puede programarse para transmitir los datos de sensor y los datos de posición desde el sistema 16 de plataforma móvil en respuesta a otros disparadores o eventos.
Para proporcionar los productos de datos analizados en el presente documento en tiempo real, es importante que el sistema 22 de terrestre, y el sistema 16 de plataforma móvil se comunican de manera fiable, mientras que el sistema 16 de plataforma móvil está en movimiento. El sistema 22 de estaciones terrestres es normalmente estacionario, pero también puede ser móvil y/o moverse tal como montando el sistema 22 de estaciones terrestres en una camioneta u otro vehículo.
En una realización, el sistema 22 de terrestre y el sistema 16 de plataforma móvil están adaptados para comunicarse a distancias superiores a las 20 millas (32 km) de distancia. Además, el ancho de banda alto es un requisito a pesar de la capacidad del sistema 16 de plataforma móvil para comprimir datos. Si bien pueden usarse metodologías de compresión de un bit por píxel de 8 a 12 bits de datos originales, el tamaño de fotograma y las velocidades son lo suficientemente altas como para que el ancho de banda del canal sea una consideración importante. Por ejemplo, suponiendo que el sistema 16 de plataforma móvil está generando cinco productos de datos por segundo, cada uno desde un sensor de 50 megapíxeles, entonces se generan 250 MB de datos por segundo.
El sistema 22 de terrestre y el sistema 16 de plataforma móvil están provistos de una línea de ancho de banda alto correspondiente de los sistemas de comunicación de visión para descargar los productos de datos desde el sistema 16 de plataforma móvil en tiempo real y para proporcionar la información de posición del sistema 16 de plataforma móvil al sistema 22 de estaciones terrestres de tal manera que el sistema 22 de estaciones terrestres pueda rastrear la localización del sistema 16 de plataforma móvil para mantener el enlace de comunicación de línea de visión de ancho de banda alto. Debería observarse que hay momentos en que los sistemas de comunicación de línea de visión de ancho de banda alto no pueden comunicarse y, por esta razón, el sistema 22 de estaciones terrestres y el sistema 16 de plataforma móvil están provistos de los sistemas de comunicación sin línea de visión correspondientes para comunicar la información de posición del sistema 16 de plataforma móvil al sistema 22 de estaciones terrestres para permitir que el sistema 22 de estaciones terrestres rastree la localización del sistema 16 de plataforma móvil para establecer y/o mantener el enlace de comunicación de línea de visión de ancho de banda alto entre los mismos.
El sistema 44 de comunicación de línea de visión se proporciona, en general, con un controlador 52 de comunicación de línea de visión y una antena 54. La antena 54 está montada normalmente en una superficie exterior de la plataforma 18 móvil con el fin de que sea capaz de comunicarse como se analiza a continuación. En general, la antena 54 puede implementarse de cualquier manera adecuada para comunicarse con un sistema 56 de comunicación de línea de visión direccional de alta velocidad (mostrado en la figura 5) del sistema 22 de estaciones terrestres. En una realización, la antena 54 se implementa como una antena omnidireccional que tiene una configuración de pala. Esto permite que el sistema 16 de plataforma móvil opere en cualquier orientación y se comunique con el sistema 22 de estaciones terrestres. Una antena adecuada 54 puede ser un número de modelo 6040 que puede obtenerse en Harris Tactical Communications de Melbourne Florida.
El controlador 52 de comunicación de línea de visión puede ser una radio de línea de visión de alta capacidad (por ejemplo, mayor que 1 MB por segundo y preferentemente más de aproximadamente 40 MB por segundo e incluso más preferentemente mayor que aproximadamente 80 MB por segundo) adaptada para proporcionar una infraestructura IP o Ethernet inalámbrica punto a punto o punto a multipunto que permita la comunicación de datos de ancho de banda alto entre el sistema 22 de estaciones terrestres y el sistema 16 de plataforma móvil con distancias preferentemente entre 0 millas y 25 millas (0 km y 40 km) entre el sistema 16 de plataforma móvil y el sistema 22 de estaciones terrestres. Un controlador 52 de comunicación de línea de visión adecuado puede ser un RF-7800W y/o un RF-7800W-PA440 disponibles en Harris Tactical Communications de Melbourne Florida.
El sistema 46 de comunicación sin línea de visión se proporciona, en general, con un controlador 58 de comunicación sin línea de visión y una antena 60. El sistema 46 de comunicación sin línea de visión se usa para transmitir información de posición del sistema 16 de plataforma móvil al sistema 22 de estaciones terrestres. Ya que el sistema 46 de comunicación sin línea de visión no está diseñado normalmente para comunicar los productos de datos generados por el sistema 16 de plataforma móvil, el sistema 46 de comunicación sin línea de visión puede proporcionar un ancho de banda con menores requisitos que el sistema 44 de comunicación de línea de visión. El sistema 46 de comunicación sin línea de visión puede implementarse de cualquier manera adecuada, tal como usando enlaces móviles o enlaces de comunicación basados en satélites, prefiriéndose este último a altitudes medias a altas.
Cuando se espera que la altitud del sistema 16 de plataforma móvil sea superior a 2000 pies (609 m) sobre el suelo, entonces se prefiere un sistema de comunicación basado en satélites. En particular, se ha descubierto que un procedimiento de comunicación de enlaces de datos basado en Iridium tiene un rendimiento ideal adecuado para una transmisión precisa a baja velocidad para comunicar la información de posición con respecto al sistema 16 de plataforma móvil, aunque pueden usarse otras metodologías basadas en satélites. La antena 60 está normalmente montada en una superficie exterior de la plataforma 18 móvil con el fin de poder comunicarse como se analiza en el presente documento. En general, la antena 60 puede implementarse de cualquier manera adecuada para comunicarse con un sistema 64 de comunicación sin línea de visión (mostrado en la figura 5) del sistema 22 de estaciones terrestres. Un controlador y una antena de comunicación sin línea de visión adecuados pueden ser los modelos números 9522A y AT1621-262W obtenibles en Harris Tactical Communications de Melbourne Florida.
Haciendo referencia ahora a la figura 5, se muestra en la misma un diagrama de bloques de una realización del sistema 22 de terrestre construido de acuerdo con los conceptos inventivos actualmente desvelados y reivindicados. En general, el sistema 22 de estaciones terrestres está provisto de un sistema 70 informático, el sistema 56 de comunicación de línea de visión, el sistema 64 de comunicación sin línea de visión y una conexión 72 de internet. El sistema 70 informático puede construirse de la misma manera que el sistema 42 informático analizado anteriormente e incluye y/o accede a uno o más medios 74 legibles por ordenador que almacenan instrucciones ejecutables por ordenador (normalmente software o firmware) que cuando se ejecutan por uno o más procesadores del sistema 70 informático hacen que el sistema 70 informático monitorice uno o más enlaces de comunicación, es decir, el sistema 56 de comunicación de línea de visión, en tiempo real para los datos de sensor y los datos de posición recién capturados; guarde los datos de sensor y los datos de posición recién capturados en uno o más directorios del uno o más medios 74 legibles por ordenador en tiempo real; monitorice, en tiempo real, el uno o más directorios del uno o más medios 74 legibles por ordenador para los datos de sensor y los datos de posición recién capturados; procese los datos de sensor y los datos de posición para crear uno o más productos de datos para su uso por uno o más sistemas de mapeo y explotación; y almacene uno o más productos de datos en uno o más directorios del uno o más medios 74 legibles por ordenador.
Como se analizará con más detalle a continuación, el sistema 56 de comunicación de línea de visión está provisto de una antena 80, un controlador 82 de comunicación de línea de visión, un conjunto 84 de ejes múltiples conectado a la antena 80 para controlar la posición y/o la dirección de apuntado de la antena 80, y un controlador 86 para recibir información relacionada con la posición en tiempo real del sistema 16 de plataforma móvil y generar señales de control para hacer que el conjunto 84 de ejes múltiples dirija la antena 80 hacia la antena 54 para formar el sistema 30 de comunicación de línea de visión de alta velocidad. La antena 80 es preferentemente una antena parabólica de malla abierta unidireccional, con el fin de proporcionar un mínimo impacto de aire durante el movimiento de la antena o el viento. Una antena 80 adecuada puede ser el modelo número RF-7800W-AT003 obtenible en Harris Tactical Communications de Melbourne Florida. Se obtuvieron resultados satisfactorios usando una antena parabólica de 4 pies (1,22 m).
Como se ha observado anteriormente, el seguimiento de la plataforma 18 móvil mejora de manera óptima la fuerza de la señal y a su vez el ancho de banda. La antena 80 se dirige con el conjunto 84 de ejes múltiples y el controlador 86. El controlador 86 está diseñado para localizar la antena 54 del sistema 16 de plataforma móvil utilizando una posición prevista de la plataforma 18 móvil utilizando una secuencia temporal de datos de posición, tales como, pero no limitado a, datos de GPS. Una vez provisto de la posición prevista de la plataforma 18 móvil, el controlador 86 envía señales de control al conjunto 84 de ejes múltiples para dirigir la antena 80 hacia la antena 54.
El conjunto 84 de ejes múltiples se enlaza con la antena 80, tal como conectando el conjunto 84 de ejes múltiples entre dos conexiones mecánicas, por ejemplo, una base y un mástil, que soportan la antena 80. El conjunto 84 de ejes múltiples puede construirse en una diversidad de maneras y está provisto preferentemente de uno o más subsistemas motores (no mostrados) que controlan el movimiento a lo largo de múltiples ejes para dirigir la antena 80 hacia la antena 54. Un kit adecuado que contiene un conjunto 84 de ejes múltiples y un controlador 86 puede ser un modelo "Sure Shot IV" pudiendo obtenerse en Arizona Engineering of Phoenix y/o Flagstaff Arizona.
El controlador 82 de comunicación de línea de visión puede ser una radio de comunicación de ancho de banda alto que utiliza cualquier intervalo de frecuencia adecuado, tal como, pero no limitado a 4,4 a 5,0 GHz y está adaptado para comunicarse con el controlador 52 de comunicación de línea de visión a través de las antenas 80 y 54. Un controlador 82 de comunicación de línea de visión adecuado pueden ser unos modelos números RF-7800W y/o RF-7800W-PA440 obtenibles en Harris Tactical Communications de Melbourne Florida. La expresión "ancho de banda alto", como se usa en el presente documento, se refiere a capacidades de comunicación superiores a 1 Mb/segundo. El sistema 64 de comunicación sin línea de visión está provisto de un controlador 90 de comunicación de línea de visión, y una antena 92. En general, el controlador 90 de comunicación de línea de visión y la antena 92 se seleccionan para comunicarse con el controlador 58 de comunicación sin línea de visión y la antena 60 del sistema 16 de plataforma móvil normalmente de manera indirecta a través de una red de teléfonos móviles o una red de satélites. Cuando el sistema 46 de comunicación sin línea de visión se basa en un sistema basado en satélites o Iridium, el controlador 90 de comunicación de línea de visión puede ser un módem satelital, tal como un número de modelo 9522A, y la antena 92 puede ser un número de modelo PAA 0601 pudiendo obtenerse ambos en Harris Tactical Communications.
La conexión 72 de internet puede usarse para entregar los productos de datos a los usuarios basados en la web tan rápida y rentablemente como sea posible después de la recopilación. Los procedimientos para enviar los datos del sistema 22 de estaciones terrestres a internet incluyen; radio cableada, móvil, satelital y de banda ancha. Cada solución ofrece características, beneficios y perjuicios únicos. Las soluciones pueden combinarse o pueden ser en la forma de unidades múltiples para aumentar el rendimiento. Las pruebas han demostrado que los módems móviles son demasiado lentos para el retorno de la gran cantidad de datos de imágenes capturadas, por ejemplo, dentro de los productos de datos típicos. Debido a las lentas velocidades de carga, las soluciones móviles y satelitales solo son viables si se produce una mejora tecnológica. Sin embargo, los módems móviles son una posible consideración para la transmisión de una sola imagen a los usuarios en el campo en el caso de que los servicios se mantengan después del desastre.
Las radios de banda ancha tal como, pero no limitadas a, la Harris 7800 analizada anteriormente son viables cuando se requiere una solución inalámbrica. Estas radios mantienen su ancho de banda alto, pero pueden requerir múltiples instalaciones unitarias, conectadas en cadena tipo margarita hasta que pueda realizarse una conexión a internet cableada. Ya que cada configuración de comunicación inalámbrica debe realizarse en pares; las cadenas tipo margarita de estos sistemas para llegar a internet pueden ser costosas. También debe mantenerse una línea de sitio para garantizar las comunicaciones. Harris Tactical Communications proporciona software para soportar esta tarea.
En una realización, el sistema 10 de gestión de plataforma móvil en tiempo real está adaptado para entregar productos de datos de manera rápida basándose en las necesidades de situación actuales. Por ejemplo, al tener una supervisión aérea de una región, el sistema 10 de gestión de plataforma móvil en tiempo real puede utilizarse para guiar de manera más rápida y segura a los respondedores en una región afectada por un desastre.
La planificación del vuelo es una de las tareas iniciales al desplegarse el sistema 10 de gestión de plataforma móvil en tiempo real. Tradicionalmente, la planificación del vuelo es un procedimiento muy laborioso. Requiere una comprensión detallada del sensor, su plataforma, las condiciones ambientales, las áreas objetivo y las restricciones de espacio aéreo. No debería exigir a un respondedor de emergencia que tenga una familiaridad detallada con estas métricas, ni deberían estar capacitados en los diversos paquetes de software necesarios para la planificación del vuelo.
Con esto en mente, se muestra en la figura 6 una vista esquemática de una pantalla 100 del sistema 70 informático del sistema 22 de terrestre que ilustra un plan 102 de vuelo construido de acuerdo con una realización de los conceptos inventivos actualmente desvelados y reivindicados que puede cargarse en el sistema 16 de plataforma móvil en tiempo real y utilizarse para guiar la plataforma móvil 16 para capturar los datos de sensor preseleccionados. El plan 102 de vuelo incluye una serie de rutas 104 para guiar la plataforma 18 móvil y una pluralidad de puntos de referencia (no mostrados) indicando cada uno de los puntos de referencia un área geográfica predeterminada para capturar los datos de sensor. Las rutas se muestran por medio de flechas en la figura 6 mostrando también las flechas la dirección en la que se guiará la plataforma 18 móvil. Solo una de las rutas está etiquetada con el número de referencia 104 con fines de claridad. El plan 102 de vuelo que tiene los puntos de referencia se usa para guiar la plataforma 16 móvil mientras que también controla el sistema 40 de captura de sensores para obtener los datos de sensor de las áreas geográficas predeterminadas.
De acuerdo con ciertos conceptos inventivos, se ha desarrollado una realización de una interfaz gráfica de usuario simplificada (GUI) para la recolección de datos aéreos en tiempo real de planificación de vuelo. En las figuras 6A y 6B se muestran unos diagramas de flujo lógicos de los procedimientos para crear un plan de vuelo de acuerdo con los conceptos inventivos actualmente desvelados y reivindicados. Inicialmente, el usuario utiliza el sistema 70 informático para seleccionar ciertos parámetros de vuelo como se muestra en el bloque 120 y el sistema 70 informático recibe los parámetros de vuelo como se muestra en el bloque 122. El sistema 70 informático muestra o proporciona a continuación un mapa geoespacial como se muestra en el bloque 124. El usuario localiza un área para capturar en el mapa geoespacial como se indica por el bloque 126, y a continuación selecciona al menos tres puntos en el mapa geoespacial como se indica por el bloque 128. Debería observarse que en una realización la selección de los primeros dos puntos determina la dirección para volar la serie de rutas haciendo que las rutas sean paralelas a una línea que pasa a través de los dos puntos seleccionados.
El sistema 70 informático recibe la selección de los puntos en el mapa geoespacial como se indica por el bloque 130, y a continuación se desarrolla un plan de vuelo, como se indica por el bloque 132, teniendo en cuenta los parámetros de vuelo seleccionados por el usuario. El sistema 70 informático crea a continuación un archivo de plan de vuelo como se indica por el bloque 134, y a continuación transmite el archivo de plan de vuelo al sistema 16 de plataforma móvil en tiempo real como se indica por el bloque 136 usando el sistema 56 de comunicación de línea de visión. El archivo de plan de vuelo puede estar en cualquier formato adecuado, como, pero no limitados a, un formato binario.
El sistema 10 puede adaptarse para tener en cuenta una diversidad de parámetros de vuelo como se muestra en la figura 7. Los parámetros de vuelo pueden incluir, pero no están limitados a, un número de sensores montados en la plataforma 18 móvil, el tipo de sensores montados en la plataforma 18 móvil, la altitud de la plataforma 18 móvil y una tolerancia de vuelo o cantidad de cobertura superpuesta deseada. En una realización preferida, las instrucciones que se ejecutan en el sistema 70 informático están adaptadas para provocar la visualización de una pantalla 140 de planificación de vuelo que tiene una pluralidad de campos 142, 144 y 146 de datos con unos parámetros de vuelo predeterminados que pueden seleccionarse por el usuario. En el ejemplo mostrado en la figura 7, (1) el campo 142 de datos incluye una pluralidad de parámetros de vuelo seleccionables dirigidos a la combinación de un número y configuración de sensor(es) a controlar; (2) el campo 144 de datos incluye una pluralidad de parámetros de vuelo seleccionables dirigidos a la altitud de la plataforma 18 móvil; y (3) el campo 144 de datos incluye una pluralidad de parámetros de vuelo seleccionables dirigidos a la tolerancia de vuelo o cantidad de cobertura de los datos de sensor. El software que se ejecuta en el sistema 70 informático puede diseñarse para proporcionar campos de datos adicionales y/o menús desplegables para seleccionar y/o introducir parámetros de vuelo para dar acceso, por ejemplo, a configuraciones únicas de productos y aeronaves. Los campos de datos o menús desplegables pueden personalizarse en función de los sensores usados.
Como se muestra en la figura 8, la selección de los puntos en el mapa geoespacial como se indica en el bloque 128 puede implementarse en una diversidad de maneras. Por ejemplo, el usuario puede simplemente arrastrar una forma 150 o incluso una sola línea al mapa geoespacial. El mapa geoespacial puede ser un vector, una cuadrícula o una representación híbrida de la región. Este es un punto importante ya que la representación debería permitir planificar el vuelo a los usuarios que no estén familiarizados con un área. Al tener mapas de cuadrícula/vectores e híbridos, un usuario puede guiar la plataforma 18 móvil a posibles sitios de desastre con mayor precisión y confianza. El contenido de cuadrícula proporciona una muestra histórica de datos aéreos o satelitales de la región.
La mayoría de los datos, incluso si se generan a partir de fotografía aérea nacional, a nivel estatal aérea o datos locales, serán menores de 5 años de edad. Esto será cierto basándose en los requisitos del programa de mapeo nacional en los Estados Unidos. En muchos casos, habrá más datos actuales disponibles. Como la mayoría de los eventos tienen al menos un aviso mínimo, estos datos, junto con la elevación más actualizada, se cargarán preferentemente en el sistema antes del despliegue en el campo.
Los conjuntos de datos híbridos en los que el contenido de vector se superpone, pueden usarse para la evaluación de daños. En muchos casos, las áreas se habrán destruido o inundado, dejando al usuario sin puntos de referencia viables o puntos de referencia que requieran familiaridad con la región.
Los datos probablemente tendrán también valor después de la recopilación. Si el usuario cuenta con múltiples recopilaciones temporales, puede ser capaz de realizar la detección de cambios locales. En este caso un usuario puede comparar rápidamente el antes y el después del contenido. Con los datos directamente uno al lado del otro o superpuestos, los usuarios podrán determinar más fácilmente si las áreas planificadas para el vuelo inicial son las más afectadas. Nuevamente, el tiempo para responder y responder a las áreas más afectadas es crítico. Esta superposición permitirá que una misión de cobertura de área amplia de mayor altitud muestree múltiples áreas. Una vez que se determinan los principales impactos, pueden asignarse los datos de mayor resolución (menor distancia de muestra de terreno o GSD).
Una vez que la plataforma 18 móvil está en la región, puede revectoriarse a nuevas localizaciones si se determina que las áreas inicialmente seleccionadas no son las de impacto primario. Un usuario también puede asignar una tarea a la plataforma 18 móvil para que recopile inicialmente líneas de vuelo simples o múltiples. Esto permite una supervisión de área amplia, o un examen más detallado de una región localizada. La tarea debería tener en cuenta la localización de la estación terrestre. Esto se observa en el mapeo. El sistema 16 de plataforma móvil está normalmente diseñado para comunicarse a distancias de hasta veinticinco millas (40,2 km) del sistema 22 de estaciones terrestres. Si se generan planes de vuelo más allá de este nivel, el sistema 16 de plataforma móvil aún puede recopilar los datos de sensor y a continuación alertar al usuario que se requerirá que el sistema 16 de plataforma móvil se mueva dentro de un intervalo efectivo de comunicación de línea de visión, por ejemplo, veinticinco millas (40,2 km), por ejemplo, en algún momento para descargar los datos capturados. También pueden desplegarse múltiples sistemas 22 de estaciones terrestres con un traspaso automático entre los mismos. Esto puede usarse para extender la cobertura de la transmisión y revisión de datos casi en vivo.
Como se muestra en la figura 8, un usuario ha esbozado un área y el software ha añadido automáticamente una superposición para garantizar la cobertura debido a los impactos de viento sobre la oscilación, separación y desviación del sensor. También se ha tenido en cuenta la elevación para ayudar a garantizar que no se introduzcan vacíos de datos en la recopilación debido a un cambio en la altura sobre el suelo provocado por la variación del terreno. Se ha observado cada sensor individual con su huella de imagen asociada en el suelo. Cuando se hace zoom, puede verse y/u observarse cada fotograma individual. Los fotogramas individuales se convertirán en las imágenes reales capturadas y descargadas en tiempo real al sistema 22 de estaciones terrestres desde el sistema 16 de plataforma móvil.
El software y/o el hardware informático para implementar los algoritmos de planificación de vuelo descritos en el presente documento pueden diseñarse para proporcionar una solución basada en la web usando el sistema 70 informático y/o un sistema 12 cliente como una interfaz de entrada/salida para el usuario, y/o una solución independiente donde el sistema 70 informático y/o el sistema 12 cliente generan el plan de vuelo. Por ejemplo, el software y/o el hardware informático pueden diseñarse para generar planes de vuelo a partir de un polígono que se ha exportado en formato KML para trabajar con un programa informático de visualización de mapas independiente como Google Earth. Además, el área seleccionada puede guardarse en un formato adecuado, tal como KML y a continuación importarse a una herramienta de planificación de vuelo KML separada. La herramienta genera un plan de vuelo en formato binario adecuado para el sistema de captura que se ejecuta en la plataforma 18 móvil, así como un archivo KML que representa las líneas de vuelo y los polígonos de las tomas, por ejemplo, en formato KML. Estos planes de vuelo permiten al usuario simular las rutas de vuelo y sus conjuntos de imágenes asociadas para una mayor precisión del área representada. Para crear un plan de vuelo, el usuario coloca una forma o caja sobre el área afectada y el software generará un plan de acuerdo con los sistemas de captura en la plataforma 18 móvil disponible. Los sistemas de captura pueden diferir entre la plataforma 18 móvil, a partir de la distancia focal de la lente, la matriz, la orientación de las cámaras y la altura de vuelo. Todas estas características pueden tenerse en cuenta por las herramientas de software.
La figura 9 es una vista en perspectiva de un dispositivo 152 de rastreo a modo de ejemplo del sistema 22 de terrestre. El dispositivo 152 de rastreo incluye la antena 80, un conjunto 84 de ejes múltiples, el controlador 82 de comunicación de línea de visión, y al menos dos antenas 154 y 156 de alineación usadas para determinar la dirección de apuntado actual de la antena 80. En este ejemplo, el conjunto 84 de ejes múltiples está conectado entre una base 158 (por ejemplo, un trípode) y un mástil 160 e incluye un primer casquillo 162 para cambiar la orientación vertical de la antena 80, y un segundo casquillo 164 para cambiar la orientación horizontal de la antena 80. El controlador 82 de comunicación de línea de visión puede montarse en el mástil 160 para que pueda moverse con la antena 80. En una realización, las antenas 154 y 156 de alineación pueden ser antenas GPS que están separadas una distancia preseleccionada y alineadas con un centro y/o dirección de apuntado de la antena 80.
Como se ha analizado anteriormente, el sistema 46 de comunicación sin línea de visión del sistema 16 de plataforma móvil realiza una conexión con el sistema 64 de comunicación sin línea de visión del sistema 22 de terrestre para formar el sistema 32 de comunicación sin línea de visión. La información de posición se envía al sistema 70 informático del sistema 22 de estaciones terrestres, y a continuación la posición prevista de la antena 54 se proporciona al controlador 86 para formar el sistema 30 de comunicación de línea de visión de alta velocidad a través de los sistemas 56 y 44. Cuando el sistema 16 de plataforma móvil se comunica con el sistema 22 de estaciones terrestres con el sistema 32 de comunicación sin línea de visión, puede haber un período de latencia en el intervalo de 3-10 segundos y más normalmente alrededor de 5 segundos.
Sin embargo, cuando el sistema 16 de plataforma móvil se comunica con el sistema 22 de terrestre el sistema 30 de comunicación de línea de visión de alta velocidad, entonces existe casi una latencia cero. El uso de dos sistemas de comunicación diferentes con diferentes períodos de latencia puede provocar errores al dirigir la antena 80.
La figura 10 es un diagrama de temporización que ilustra la transmisión de una secuencia de datos de posición basados en el tiempo (es decir, los eventos 1001 - 1020), una indicación del sistema de comunicación en uso (es decir, HS se refiere al sistema 30 de comunicación de línea de visión de alta velocidad, y LS se refiere al sistema 32 de comunicación sin línea de visión), la recepción de la secuencia de datos de posición basados en el tiempo está fuera de servicio debido a la transición entre la línea de alta velocidad del sistema 30 de comunicación del sitio y el sistema 32 de comunicación sin línea de visión y el filtrado de los datos de posición basados en el tiempo recibidos para secuenciar en el tiempo adecuadamente los datos de posición basados en el tiempo recibidos. En una realización preferida, los datos de posición basados en el tiempo se alimentan directamente desde un receptor GPS en la plataforma 18 móvil, y proporcionan una marca de tiempo, así como la latitud, longitud y altitud de la plataforma 18 móvil. Como se muestra en la figura 10, cuando la línea de alta velocidad del sistema 30 de comunicación del sitio se interrumpe durante el evento 1005, se inicia el sistema 32 de comunicación sin línea de visión y existe una latencia de cuatro eventos, es decir, se recibe el evento 1007 durante el evento 1011. Cuando se reinicia la línea de alta velocidad del sistema 30 de comunicación del sitio, los datos transmitidos por la línea de alta velocidad del sistema 30 de comunicación del sitio se reciben antes que los datos sean transmitidos por el sistema 32 de comunicación sin línea de visión, lo que hace que el evento 1013 llegue, por ejemplo, antes que el evento 1011. El sistema 70 informático está programado para secuenciar en el tiempo adecuadamente al menos una parte de los datos de posición de tal manera que pueda determinarse o estimarse la posición más actual de la plataforma 18 móvil. En este ejemplo, los eventos 1010 -1012 pueden descartarse ya que el evento 1013 es más actual.
La figura 11 es una vista esquemática de un procedimiento para estimar la posición de la plataforma móvil utilizando los datos de posición secuenciados en el tiempo adecuadamente. En la figura 11 se muestra una pluralidad de posiciones 168a, 168b y 168c pasadas identificadas por los datos de posición basados en el tiempo de la plataforma 18 móvil, así como una posición 170 estimada o prevista. La posición 170 prevista puede calcularse calculando la velocidad angular y la dirección de desplazamiento de la plataforma 18 móvil usando las posiciones 168a, 168b y 168c pasadas y a continuación extrapolando para calcular la posición 170 prevista basándose en el tiempo actual. Puede usarse cualquier técnica de extrapolación adecuada tal como usar un algoritmo de ajuste de curvas, tal como, pero no limitado a, cúbicos o segmentarios, y a continuación calcular el tiempo actual. Aunque se muestran tres posiciones 168a, 168b y 168c pasadas, debería entenderse que pueden usarse más o menos de las posiciones pasadas para calcular la posición 170 estimada o prevista. En general, aumentar el número de las posiciones pasadas, así como su tiempo relativo al tiempo actual aumentará la precisión de la posición estimada o prevista.
La figura 12 es un diagrama de bloques de software y hardware del sistema de gestión de plataforma móvil en tiempo real funcionando juntos con el fin de generar datos de sensor, y datos de posición y hacer que los datos de sensor georreferenciados se muestren en un mapa geoespacial de uno o más sistemas cliente en tiempo real de acuerdo con los aspectos preferidos de los conceptos inventivos actualmente desvelados y reivindicados.
Como se ha analizado anteriormente, el sistema 46 de comunicación sin línea de visión del sistema 16 de plataforma móvil realiza una conexión con el sistema 64 de comunicación sin línea de visión del sistema 22 de terrestre. La información de posición se envía al sistema 70 informático del sistema 22 de estaciones terrestres, y a continuación la posición prevista de la antena 54 se proporciona al controlador 86 para formar el enlace de comunicación de línea de visión directa de alta velocidad a través de los sistemas 56 y 44. Puede haber un período de latencia con esta información en el intervalo de 3-10 segundos y más normalmente alrededor de 5 segundos. En una realización preferida, la información de colocación se alimenta directamente desde un receptor GPS en la plataforma 18 móvil, y proporciona un tiempo de captura, así como la latitud, longitud y altitud de la plataforma 18 móvil.
La antena 80 se coloca basándose en esta información, y una vez que la plataforma 18 móvil está dentro de la línea de visión de la antena 80, se consigue preferentemente una conexión IP. El sistema 42 informático ahora cambia a la transmisión de información de posición basada en IP donde hay un período de latencia de casi 0 segundos con esta información. Si esta conexión falla (debido a una diversidad de eventos tales como la plataforma 18 móvil que se inclina o va más allá del horizonte, aterriza, etc.), el sistema 42 informático volverá al sistema 46 de comunicación sin línea de visión para transmitir la información de posición.
En uso, el piloto hace navegar la plataforma 18 móvil a lo largo de la ruta de vuelo, y el sistema 40 de captura de sensores empieza la captura de datos de sensor, tal como un conjunto de imágenes. El sistema 40 de captura de sensores guarda los archivos de imagen sin procesar RAW directamente de las cámaras en un directorio específico, en función de una diversidad de factores, tales como, pero no limitados a, la aeronave, la salida, el plan de vuelo y la línea de vuelo. El sistema 40 de captura de sensores también produce un archivo de posición, mostrado a modo de ejemplo y analizado en este caso como un "archivo XML" que puede guardarse junto con el archivo RAW. En una realización, este archivo XML contiene:
- ID de imagen: nombre de archivo del archivo RAW asociado
- Fecha y hora en que se capturó la imagen
- La cuenta de fotogramas: número de secuencia de la imagen este día
- Latitud, longitud de las cuatro esquinas de la imagen
La determinación con respecto a las cuatro esquinas de la imagen que se determina es una forma de "georreferenciación" (aunque pueden usarse otros tipos de georreferenciación) y puede tener en cuenta la orientación interior (longitud focal, punto principal y distorsión radial del sensor), orientación exterior (datos GPS como la posición x, y y z de la plataforma 18 móvil), datos de la unidad de medida inercial (tal como la oscilación, la separación y la desviación) y elevación en el suelo de los datos de sensor capturados y un modelo de tierra. En una realización, se determina la elevación del punto de nadir para cada punto de referencia programado durante la planificación del vuelo, y esta elevación se usa para georeferenciar inicialmente los datos de sensor en lugar de un modelo de elevación digital (la elevación de cada imagen puede tomarse a partir del plan de vuelo). En otras palabras, al crear el plan de vuelo, en una realización, puede haber una elevación individual capturada para cada fotograma de datos de sensor como una aproximación para el cálculo inmediato. Por lo tanto, se supone que cada fotograma de datos de sensor está a cierta elevación y plano. La elevación para cada datos de sensor también puede lograrse usando datos de radar de infrarrojo, datos de radar de infrarrojo de flash o un modelo de elevación, como el modelo de elevación digital. El sistema 12 cliente y/o el sistema 70 informático del sistema de estaciones terrestres 22 pueden conducir una georreferenciación adicional utilizando un modelo de elevación del terreno para mejorar la precisión georreferenciada de los datos de sensor. Además, en una realización preferida, los datos de sensor, tal como una imagen oblicua, no se ortorrectifican con el fin de conservar la potencia de procesamiento. El sistema 10 está provisto de paquetes de software de "gestor" que se ejecutan en el sistema 16 de plataforma móvil, el sistema 22 de estaciones terrestres y el sistema 12 cliente. Los paquetes de software de "gestor" incluyen una "gestor de aire" 200 que se ejecuta en el sistema 42 informático en la plataforma 18 móvil, un "gestor de servidor" 210 en el sistema 70 informático del sistema 22 de estaciones terrestres, y un "gestor de cliente" 220 en el sistema 12 cliente de pantalla. En una realización preferida, el gestor 200 de aire, el gestor 210 de servidor y el gestor 220 de cliente comparten una arquitectura común.
En una realización, los gestores 200, 210 y 220 incluyen una "red troncal" que pone en marcha unos "nodos" que realizan una tarea específica. La "red troncal" también actúa como una especie de policía de tráfico, enviando mensajes de un nodo a otro.
Cuando se inicia un nodo, le dice a la red troncal un par de cosas: 1. qué tipo de nodo es; y 2. a qué tipos de datos quiere abonarse. Mientras se ejecuta, un nodo también puede enviar información de estado a la red troncal que incluye:
- estado genérico (en espera de entrada, fallido, procesando, etc.)
- cadena de estado específica del nodo ("procesando 4/34 imágenes", etc.)
Los nodos pueden producir mensajes de tipos específicos y pueden escuchar mensajes de tipos específicos. Los mensajes pasados también pueden incluir una cadena de carga útil que, en general, contiene el nombre de archivo asociado. Ejemplos de mensajes incluyen:
- Archivo RAW listo
- Archivo JPG listo
- Archivo XML listo
- Anuncio de URL
En el caso de "anuncio de URL", la carga útil es la URL. Algunos nodos buscarán múltiples archivos y los anunciarán cuando se hayan descubierto ambos archivos asociados. Por ejemplo, una parte del sistema busca el conjunto de imágenes RAW y el archivo de metadatos XML asociado. Cuando ambos se encuentran y están completos, se envía un mensaje "RAW XML".
Los nodos envían mensajes a su red troncal, que a continuación determina qué hacer con los mismos. El gestor reenviará el mensaje a los nodos que se han abonado a estos tipos de mensajes. También puede enviar estos mensajes a través de una conexión XML-RPC a otro gestor en la misma red.
Los gestores 200, 210 y 220 también pueden tener mecanismos por los que pueden encontrarse entre sí. Por ejemplo, un gestor 200, 210 y 220 puede retransmitir información sobre sí mismo una vez cada segundo a través de UDP. Esta información puede incluir;
- Puerto XML-RPC (para comunicaciones entre gestores)
- Número de puerto para acceso web
- Tipo de gestor (aéreo, servidor, cliente)
- Nombre del gestor ("gestor de aire", "gestor de servidor", etc.)
- Id única (que puede generarse aleatoriamente en el momento del inicio)
La identificación única puede usarse para decir si un gestor 200, 210 y/o 220 se ha reiniciado. Los gestores 200, 210 y 220 también pueden usar esta retransmisión UDP para determinar su propia información de IP. Por ejemplo, uno de los gestores 200, 210 y 220 puede comenzar un hilo escuchando a otros gestores, y a continuación comenzar a retransmitir por sí mismo. Cuando la cadena retransmitida coincide con la suya, sabe que se está escuchando a sí mismo.
En una realización, los gestores 200, 210 y 220 pueden usar XML-RPC para reenviar mensajes desde los nodos en un gestor a los nodos en el gestor remoto. Cada gestor 200, 210 y 220 también puede ejecutar un mecanismo de registro en el que todos los nodos pueden publicar mensajes. Esto es para que los usuarios puedan ver el progreso del procesamiento usando uno o más de los nodos 230, 232 y 234 de servidor web, o si hay un fallo, determinar qué ha salido mal.
En una realización, cada gestor 200, 210 y/o 220 también se carga en un archivo de configuración basado en XML en el tiempo de ejecución que contiene diversas configuraciones para cada nodo y configuraciones generales para el gestor 200, 210 y/o 220. Cuando se ejecuta un gestor 200, 210 y/o 220, también busca algunos nombres de archivo de configuración diferentes en el directorio local, que se cargan después de que se consume el archivo de configuración interior.
Los gestores 200, 210 y/o 220 también pueden tener archivos integrados en su ejecutable. Estos se incorporan en el ejecutable en el momento de la construcción. Esto simplifica enormemente la distribución de los archivos ejecutables, ya que solo se necesita un archivo. Esto permite que el servidor web integrado proporcione archivos de imagen y similares sin necesidad de instalar o mantener esos archivos junto con el ejecutable de gestor.
Todos los gestores 200, 210 y/o 220 también pueden estar provistos del "nodo de servidor web" 230, 232 y/o 234. Los nodos 230, 232 y/o 234 de servidor web pueden ser un servidor web muy simple que actúa como la interfaz para el gestor, aunque también pueden usarse servidores web sofisticados. A través de los nodos 230, 232 y/o 234 de servidor web, un usuario puede ver el estado del gestor 200, 210 y/o 220, el estado de todos los nodos, el estado de la máquina en la que se están ejecutando, los mensajes de registro, y la lista de URL que se han anunciado.
El "gestor de aire" (que se ejecuta en la plataforma 18 móvil) puede proporcionarse con los siguientes nodos:
- El nodo 240 de explorador de directorios que, en una realización, busca en un directorio del medio 48 legible por ordenador, por ejemplo, un disco, las imágenes RAW así como los archivos XML asociados (que pueden ser georreferenciados o RAW) producidos por el sistema 40 de captura de sensores. El nodo 240 de explorador de directorios puede enviar, por ejemplo, mensajes "RAW listo", "XML listo" y "XML RAW listo".
- El nodo 242 de desarrollador: escucha "RAW listo", y a continuación agarra los archivos de imágenes RAW, desarrolla los archivos de imágenes RAW preferentemente usando una metodología de desarrollo rápido, tal como, pero no limitados a, el filtro vecino más cercano y a continuación guarda los datos de sensor, tal como en la forma de un archivo de imagen que se muestra y describe en el presente documento a modo de ejemplo como un "archivo JPEG". Pueden usarse otros tipos de archivos, como BMP; TIFF y PNG. El nodo 242 de desarrollador también puede usar cualquier metodología de compresión de datos basada en hardware y/o software para reducir el tamaño del archivo desarrollado. Una solución de hardware adecuada usa, por ejemplo la metodología JPEG 2000. En general, usando el sistema 10 descrito anteriormente, los archivos se comprimen para estar en el intervalo de entre 3 bits/píxel a 0,0625 bits/píxel. La cantidad de compresión puede depender de la velocidad de los sistemas 44 y 56 de comunicación de línea de visión de alta velocidad y con el hardware analizado anteriormente, un intervalo preferido de compresión es de aproximadamente 12:1 a aproximadamente 48:1, lo que da como resultado un archivo de imagen que tiene aproximadamente 1 bit/píxel a aproximadamente 0,25 bit/píxel. El nodo 242 de desarrollador también envía, por ejemplo mensajes "JPG listo", "XML JPG listo". - El nodo 244 impulsor escucha los mensajes "XML JPG listo". En una realización, el nodo 244 impulsor abre una conexión FTP a un servidor 246 terrestre alojado por el sistema 70 informático, e impulsa algunos tipos de archivos diferentes a la tierra, incluidos, entre otros:
- Imágenes desarrolladas en JPEG
- Archivos de metadatos XML
- Archivos de registro
En una realización, el nodo 244 impulsor monitoriza uno o más directorios actuales, y mira en un directorio apropiado en el servidor 246 terrestre y si existe localmente un archivo (o si existe un archivo local con un tamaño de archivo diferente), el nodo 244 impulsor impulsará ese archivo hacia abajo al servidor 246 terrestre.
- El nodo 248 de radio: este es un nodo especial que se comunica con el controlador 52 de comunicación de línea de visión para enviar datos entre la plataforma 18 móvil y tierra. El nodo 248 de radio monitoriza la calidad de transmisión y otras estadísticas basadas en radio.
El gestor 210 de servidor/tierra (que se ejecuta en el sistema 70 informático del sistema 22 de estaciones terrestres puede tener los siguientes nodos:
- El nodo 250 de explorador de directorios busca en el uno o más medios 74 legibles por ordenador, por ejemplo, en un disco o en una memoria, las imágenes JPG, así como los archivos XML asociados impulsados hacia abajo a través del nodo 244 impulsor en la plataforma 18 móvil. El nodo 250 de explorador de directorios puede enviar, por ejemplo, mensajes "JPG listo", "XML listo" y "XML JPG listo".
- El nodo 252 segmentador escucha los mensajes "JPG listo". Carga los archivos JPEG, los escala y los segmenta para un programa informático de visualización de mapas, tal como Google Earth. En este caso, el nodo 252 segmentador crea "superposiciones" (un medio para superponer grandes volúmenes de datos de manera eficiente) adaptados a las especificaciones de Google Earth. El nodo 252 segmentador envía, por ejemplo, mensajes "JpGs listo" y "XML JPGS listo".
- El nodo 254 KML Gen puede leer en los archivos XML y generar uno o más archivos KML que pueden usarse con el archivo JPEG asociado para cargar, por ejemplo, el conjunto de imágenes en Google Earth. El nodo 254 KML Gen también genera las Pirámides KML estáticas (que es un medio para almacenar múltiples niveles de resolución de tal manera que puedan mostrarse versiones de menor resolución de la imagen, ahorrando en memoria y ancho de banda, cuando el punto de vista del usuario está lejos de la imagen que se muestra) usado para el procedimiento de "superposición" de cargar el conjunto de imágenes en Google Earth.
- El nodo 256 de radio es similar al nodo 248 de radio analizado anteriormente.
Un gestor 220 de cliente a modo de ejemplo (que se ejecuta en la estación terrestre) puede tener, pero no está limitado a, los siguientes nodos:
- El nodo 260 de explorador de directorios busca imágenes divididas producidas en el gestor 210 de servidor terrestre, así como sus archivos XML asociados. El nodo 260 de explorador de directorios envía mensajes "XML JPGS".
- El nodo 262 lanzador busca mensajes "XML JPGS" y cuando el nodo 262 lanzador los ve, esa información se agrega a una "cola de lanzamiento". El nodo 262 lanzador incluye las siguientes dos partes principales.
1. La cola de lanzamiento. Cuando se consumen mensajes "XML JPGS", la información asociada se agrega al final de una cola de lanzamiento. El mecanismo de lanzamiento llamará a un programa de software de visualización de mapas, tal como Google Earth, con la URL a un archivo KML para estos datos. Esta es una URL para el servidor web secundario, con una URL específicamente diseñada que describe al servidor web exactamente qué archivo XML de origen usar, así como dónde están exactamente los datos en la superposición/pirámide.
2. El servidor web secundario genera un mensaje de "anuncio de URL" que da como resultado que la URL para este servidor web aparezca en la interfaz web en el "nodo de servidor web". Bajo demanda, este servidor web puede producir los archivos piramidales KML necesarios para una superposición KML. Preferentemente, se generan en vivo, en lugar de ser estáticos, debido a que deben incluir la dirección IP de la máquina en la que se ejecutan y la dirección de este servidor web, así como un servidor web terciario que proporciona los datos de imagen, si el nodo se configura como tal. Este servidor web también proporciona una interfaz de navegación para todos los datos adquiridos hasta el momento. El usuario verá miniaturas de las imágenes individuales, ordenadas por plan de vuelo y salida. El usuario también puede disparar planes de vuelo completos para lanzarse desde esta interfaz.
El servidor web terciario, en general IIS, proporciona los datos de imagen, ya que está más afinado para proporcionar cantidades masivas de datos estáticos.
En uso, el nodo 240 del gestor de aire explora en busca de archivos RAW y XML generados por el sistema 40 de captura de sensores. Una vez descubierto, esto dispara el nodo 242 de desarrollador para convertir el archivo RAW en un archivo JPEG. Estos archivos se envían a continuación al nodo 246 del servidor terrestre a través de la conexión de red inalámbrica, preferentemente a través del protocolo FTP.
Debería observarse que el sistema 40 de captura de sensores y el gestor 200 de aire están preferentemente desacoplados para funcionar de manera independiente y esto es una ventaja para tener al sistema 40 de captura de sensores guardando archivos en un directorio específico y a continuación tener al nodo 240 de explorador de directorios monitorizando el directorio de nuevos archivos. Esto puede representarse como una ruptura distinta entre el sistema 40 de captura de sensores y el gestor 200 de aire de tal manera que los dos sistemas funcionen de manera independiente, de tal manera que el sistema 40 de captura de sensores no pueda afectar directamente la operación del gestor 200 de aire y viceversa.
El nodo 246 del servidor terrestre observa los directorios FTP entrantes para los archivos XML y JPG impulsados anteriormente. A continuación, iniciará la generación de los archivos KML estáticos y, por ejemplo, dividirá y escalará el archivo JPEG.
El nodo 260 de explorador de directorios observa el directorio (preferentemente montado a través de la red Smb compartida) para los archivos JPEG y XML divididos anteriores. Una vez que los ve, se agregan a la cola del lanzador. A continuación, el lanzador lanzará el programa informático de visualización de mapas, tal como "Google Earth", usando cualquier tecnología adecuada, tal como a través de una URL. El programa informático de visualización de mapas, tal como, pero no limitado a, Google Earth, consultará el servidor web del lanzador e IIS (si está configurado como tal) para recuperar las pirámides de KML y de imágenes necesarias.
Debería observarse que KML JPEG son para la implementación actual del sistema. Es decir, la aplicación de cliente de visualización actual (o programa informático de visualización de mapas) es Google Earth. Google Earth permite archivos KML y JPEG como uno de sus tipos de medios de origen. En el diagrama y en el ciclo de vida de la imagen podrían generarse fácilmente otros formatos de imagen u otros formatos de metadatos, o posiblemente combinarlos en un archivo binario a lo largo del camino, para satisfacer las necesidades de otros clientes de visualización, otros paquetes de software de visualización, o en un formato de paquete determinado por las necesidades del cliente final.
Debería observarse que hay dos lugares en el sistema donde se generan los archivos KML. Lo que sigue es una breve explicación de las diferencias entre los mismos. Los archivos KML especifican el archivo de imagen asociado a los mismos a través de una ruta de archivo o URL de enlace de red. También especifican los archivos subKML de manera similar con respecto a las pirámides superpuestas de KML. La primera forma es una ruta directa en un sistema de archivos local. Esto sería algo así como "groundlmagery.jpg". La segunda forma es a través de una URL de enlace web, por ejemplo, "http://192.168.1.42/Imagery/ThisFlight/ground)magery.jpg".
En este caso, requeriría que un servidor web que se ejecuta en el ordenador con una dirección de red de "192.168.1.42" pueda proporcionar el archivo de imagen.
El nodo KML Gen genera archivos del tipo anterior. Estos archivos KML deben usarse en combinación con un archivo o archivos de imagen, y pueden distribuirse a quien sea y cargarse sin ningún conocimiento del sistema anterior. Son solo archivos KML y JPG estáticos. En una realización, el nodo 262 lanzador genera archivos del último tipo. También los genera en vivo, cuando se necesitan. Esto se hace debido a que las pirámides de imágenes (superposiciones) funcionan mejor en Google Earth cuando se refieren a KML y al conjunto de imágenes proporcionado a través de un servidor web, en lugar de a archivos locales. Con el fin de adoptar la posibilidad de que el software de servidor cliente pudiese ejecutarse en una o más máquinas, o pudiese ejecutarse en una red completamente diferente, se necesita generar la dirección del proveedor en los enlaces en los archivos KML cuando se necesitan. Esto permite que incluso que la máquina cambie su dirección y todo siga funcionando.
La latencia total desde que se adquiere la imagen a través del sistema 40 de captura de sensores hasta su lanzamiento en Google Earth es de aproximadamente 20 segundos. La mayor parte de ese tiempo son las exploraciones de directorio que garantizan que se tengan archivos de datos completos. Además, aunque la figura 12 ilustra la tecnología de impulsión utilizada para enviar los datos de sensor y los datos de posición al servidor 246 de datos, debería entenderse que también podría usarse la tecnología de extracción. Por ejemplo, el servidor 246 de datos puede configurarse para sondear el nodo 244 impulsor para iniciar la transmisión de los datos de sensor y los datos de posición.
La figura 13 es un archivo XML a modo de ejemplo que contiene datos de posición de acuerdo con ciertas versiones de los conceptos inventivos actualmente desvelados y reivindicados. En particular, el archivo XML contiene información con respecto a la georreferenciación de la fecha del sensor, tal como, pero no limitado a, las coordenadas lat/long para las cuatro esquinas de los datos de sensor, así como diversas localizaciones con respecto a la captura de la fecha del sensor, tal como la localización del archivo RAW, ID de la misión, fecha/hora de captura, número de fotogramas y similares.
La figura 14 es una vista esquemática de una pantalla 270 de uno de los sistemas 12 cliente que ilustra la representación automática de productos de datos (por ejemplo, imágenes oblicuas) en tiempo real en un mapa 272 geoespacial de un programa informático de visualización de mapas indicativo de un área 274 cubierta por productos de datos recién creados de acuerdo con ciertas versiones de los conceptos inventivos actualmente desvelados y reivindicados.
La figura 15 es una vista esquemática de la pantalla 270 de uno de los sistemas 12 cliente que ilustra la representación de una orto imagen 276 en el mapa 272 geoespacial del programa informático de visualización de mapas de acuerdo con ciertas versiones de los conceptos inventivos actualmente desvelados y reivindicados.
Haciendo referencia ahora a las figuras 16-18, en general, hay dos formas principales de representar o mostrar las imágenes oblicuas en el mapa 272 geoespacial: estirando las imágenes oblicuas para llenar el área que cubren en tierra o colocándolas de pie perpendiculares al eje óptico del sensor que las capturó. El primer procedimiento es muy directo. Se realiza una determinación de dónde se mapea el contenido de la imagen en tierra y a continuación los píxeles se estiran para llenar ese espacio. Esto puede hacerse calculando la localización de las cuatro esquinas de la imagen oblicua y aplicando un estiramiento lineal a los datos de píxeles entre las esquinas de la imagen oblicua o teniendo en cuenta la geometría de la cámara exterior y proyectando cada parte de la imagen oblicua hacia abajo, hacia su localización adecuada en tierra. Una forma de visualizar este procedimiento es tomar un proyector, cargarlo con la imagen oblicua capturada y colocar el proyector en la misma localización y orientación que tenía el sensor cuando capturó originalmente la imagen. La imagen capturada se proyectaría hacia tierra y llenaría todo el terreno capturado originalmente por el sensor. Para imágenes oblicuas de una vista perpendicular a tierra, la proyección resultante en tierra tomaría una forma trapezoidal deformada por cualquier desviación, separación u oscilación de la plataforma móvil y potencialmente por cualquier cambio en el terreno si esos cambios se tienen en cuenta en el modelo de mapeo usado por el software de mapeo.
Un ejemplo de la imagen 278 oblicua representada en el mapa 272 geoespacial se muestra en la figura 16 como una vista esquemática de la pantalla 270 de uno de los sistemas 12 cliente. En particular, la figura 16 ilustra la representación de la imagen 278 oblicua en el mapa 272 geoespacial de un programa informático de visualización de mapas de acuerdo con ciertas versiones de los conceptos inventivos actualmente desvelados y reivindicados. Para el segundo procedimiento, como se muestra en la figura 18, esto es un poco más complicado. El objetivo es mantener la forma rectangular de la imagen 278 oblicua (mostrada en la figura 18 como que está rodeada por líneas discontinuas) y no deformarla en absoluto, sino colocarla dentro del mapa 272 geoespacial de tal manera que cuando se vea desde la misma localización y orientación de la cámara que capturó la imagen 278 oblicua, sea indistinguible en apariencia del primer procedimiento, ya que se alinea con el área en tierra. Para mantener la forma rectangular de la imagen, la imagen 278 oblicua puede colocarse en un plano 280 matemático que sea perpendicular al eje óptico que la capturó. No es necesario que sea perfectamente perpendicular (por ejemplo, incluso /- 5 grados fuera de la perpendicular puede funcionar si la imagen no se deforma más allá de las cantidades deseables), pero debería estar lo suficientemente cerca para evitar cualquier deformación indeseable.
A continuación, con el fin de llenar la escena lo mejor posible, la imagen 278 oblicua debe estar lo más cerca posible de tierra. Ya que el eje óptico se cruza oblicuamente con la tierra, esto significa que la imagen 278 oblicua no se coloca plana sobre la tierra, sino que se representa como si estuviera de pie sobre el suelo en el plano 280a matemático, de tal manera que al menos una parte del contenido de píxel de imagen oblicua se muestra como estando sobre la tierra. Con el fin de mantener visible la mayor parte de la imagen 278 oblicua lo que sea posible, esto significa en general que se coloca un borde 282 inferior de la imagen 278 oblicua a lo largo de la superficie terrestre en el mapa geoespacial. El plano 280a matemático en el que se representa la imagen 278 oblicua se proyecta a continuación desde tierra intersecándose con el eje óptico de una manera en general perpendicular como se ha analizado anteriormente.
Los bordes de este plano 280a matemático se describen a continuación por el campo de visión del sensor que capturó la imagen. Por lo tanto, si la cámara tiene un campo de visión horizontal de 20 grados, entonces el tamaño correcto del plano matemático terminaría a lo largo de un borde vertical que se proyecta hacia fuera desde el eje óptico en 10 grados, comenzando en la localización desde la que se capturó originalmente la imagen. Una forma de visualizar este procedimiento es hacer una cartelera que sea tan ancha como el área del terreno representada en la parte inferior de la imagen oblicua y cuya altura se vea limitada para cumplir con la relación de aspecto del sensor. Por lo tanto, si se usa un sensor con una relación de aspecto de 3:2 y el frente de la imagen cubre un área en tierra de 1500 pies (457 m) de ancho, la cartelera tendría 1000 pies (305 m) de alto. La imagen 278 oblicua se imprime a continuación en esta cartelera preferentemente sin deformación o estiramiento, simplemente se escala para adaptarse a la cartelera. Finalmente, esta cartelera se coloca a continuación en la superficie de la tierra recubriendo el frente de la imagen con la misma localización que cubre en la tierra y a continuación inclinando la cartelera hacia arriba para que quede perpendicular al eje óptico, es decir, hasta que se observe recta cuando se mira desde la localización y orientación en la que se capturó originalmente la imagen oblicua.
Debido a que en una realización, el sistema 40 de captura de sensores captura cada localización del terreno desde múltiples direcciones, el resultado es normalmente cuatro de estas vistas oblicuas, o carteleras, que están de pie con una de cada dirección capturada. Sin embargo, el programa informático de visualización de mapas puede ocultar una o más vistas que están dirigidas lejos del punto de vista actual, de tal manera que solo dos o tres de las cuatro vistas oblicuas (norte, sur, este y oeste) pueden verse en cualquier momento. Sin embargo, en este caso, el programa informático de visualización de mapas puede adaptarse para desvelar las otras vistas direccionales girando el punto de vista del mapa 272 geoespacial. En el ejemplo mostrado en la figura 18, se muestran tres de los planos 280a, 280b y 280c matemáticos con imágenes oblicuas 278 representadas sobre los planos 280a, 280b y 280c matemáticos. Los planos 280a, 280b y 280c matemáticos corresponden a las vistas norte, oeste y este que están de pie en su localización correcta.
La figura 17 es una vista esquemática de un producto 281 de datos producido por el sistema 10 de gestión de plataforma móvil en tiempo real de acuerdo con ciertas versiones de los conceptos inventivos actualmente desvelados y reivindicados. En particular, debido a que el producto 281 de datos incluye una imagen 282 oblicua referenciada geográficamente, puede superponerse una capa 284 GIS (mostrada en líneas continuas) que ilustra las localizaciones originales de las huellas de construcción en la imagen 282 oblicua referenciada geográficamente. La figura 19 representa una configuración alternativa de sensores que pueden usarse por el sistema 40 de captura de sensores para capturar los datos de sensor que incluyen una o más estructuras 300 de soporte que soportan las cámaras 302 y 304 de color oblicuas hacia delante y hacia atrás, una cámara 306 de color nadir y una cámara 308 de IR nadir, un sensor 310 LADAR flash (láser y cámara) (preferentemente dirigiéndose en una dirección nadir), y una cámara 312 de video en movimiento (por ejemplo, 30 fotogramas por segundo).
Una necesidad importante durante las secuelas de un desastre mayor es la determinación de la cantidad de escombros que deben limpiarse. Esta información volumétrica es importante con el fin de tener a mano la cantidad correcta de camiones para transportar los escombros. Si se subestima la cantidad de escombros, la eliminación de escombros se demora más de lo deseado. Si se sobreestima la cantidad de escombros, entonces el coste de la eliminación de escombros supera el presupuesto.
Una manera de resolver este problema es capturar nuevos datos de elevación de superficie inmediatamente después del desastre y calcular el volumen de cualquier volumen de escombros tomando la diferencia entre los datos de superficie de tierra originales y los datos de elevación de superficie recién capturados. Con el fin de monitorizar adecuadamente la retirada de los escombros, este cálculo debe producirse rápidamente y no puede esperar los días, semanas o meses que es lo que toma la generación normal del modelo de elevación. Obtener esta información en tiempo real o casi en tiempo real es extremadamente beneficioso.
Además, habrá muchas veces que el sistema 10 se use en zonas con datos de elevación pobres o incluso no haya datos de elevación. Con el fin de realizar mediciones más precisas, puede ser conveniente recopilar nuevos datos de elevación al mismo tiempo que se capturan el conjunto de imágenes oblicuas. A continuación, estos datos de elevación pueden usarse para georeferenciar el conjunto de imágenes oblicuas. Ya que la meta de este sistema es proporcionar un conjunto de imágenes oblicuas totalmente georreferenciadas en tiempo real, los datos de elevación deberían capturarse en tiempo real cuando existan datos de elevación deficientes, o incluso inexistentes.
En una configuración del sistema 10 de realización preferido, esto se logra incorporando un sistema LADAR flash de Ball Aerospace. El sistema LADAR flash emite una ráfaga de energía láser en un haz 314 disperso que se refleja en la superficie de la tierra (así como en cualquier objeto o estructura en o sobre la superficie de la tierra) y a continuación un sensor registra la forma de onda de la luz 316 de retorno incluyendo el tiempo de alta precisión transcurrido desde el momento en que se pulsó el láser hasta el momento en que la luz vuelve a la cámara. Al usar esta información de tiempo transcurrido, puede calcularse la distancia desde el sensor a tierra para cada elemento de sensor discreto visto por la cámara del sistema LADAR flash.
Aunque el sistema de realización preferido usa un sistema LADAR flash, puede usarse cualquier sistema capaz de capturar datos de elevación detectados remotamente, tal como un sistema LiDAR pulsado, un sistema LiDAR de modo Geiger, un sistema de radar de apertura sintética, o incluso un modelo de superficie extraída por triangulación aérea generado automáticamente, directamente a partir del conjunto de imágenes oblicuas o de nadir capturadas en tiempo real.
En una realización preferida, las etapas de los procedimientos descritos en el presente documento se producen secuencialmente en tiempo real. Los períodos de tiempo reales en al menos una de las realizaciones preferidas pueden depender de la velocidad del equipo usado para realizar los conceptos inventivos declarados y reivindicados, así como de cualquier tiempo de retraso que no sea necesario para el equipo. Por ejemplo, la velocidad y/o la eficacia de los sistemas de comunicación y de los sistemas informáticos pueden afectar al tiempo de ejecución de los procedimientos descritos en el presente documento. Como tal, la expresión "tiempo real" está destinada a designar una relación temporal relacionada con la sincronización de las etapas descritas en el presente documento.
Esta descripción está destinada únicamente a fines ilustrativos y no debería interpretarse en un sentido limitante. El ámbito de esta invención debería determinarse únicamente por el lenguaje de las reivindicaciones que siguen. La expresión "que comprende" dentro de las reivindicaciones tiene la intención de significar "que incluye al menos" de tal manera que la lista de elementos mencionada en una reivindicación sea un grupo abierto. "Un", "una" y otros términos singulares pretenden incluir sus formas plurales a menos que se excluyan específicamente.
La expresión "medio legible por ordenador" tal como se usa en el presente documento se refiere a un artículo capaz de almacenar instrucciones legibles por ordenador (por ejemplo, software o firmware) de una manera accesible y legible por uno o más sistemas informáticos. Ejemplos de medios legibles por ordenador incluyen memoria, un disco duro, un disquete, una unidad flash o similares.

Claims (6)

REIVINDICACIONES
1. Un sistema de comunicación de datos entre un sistema (16) de plataforma móvil y un sistema (22) de estaciones terrestres en tiempo real, que comprende:
el sistema de plataforma móvil adecuado para su montaje y uso en una plataforma móvil que tiene una localización y una altitud, comprendiendo el sistema de plataforma móvil:
un sistema de posición que monitoriza la localización de la plataforma móvil y que genera una secuencia de datos de posición basados en el tiempo;
un sistema (46) de comunicación sin línea de visión adaptado para transmitir la secuencia de datos de posición basados en el tiempo del sistema de plataforma móvil al sistema de estaciones terrestres;
un sistema (44) de comunicación de línea de visión de alta velocidad adaptado para descargar productos de datos del sistema de plataforma móvil al sistema de estaciones terrestres en tiempo real y para proporcionar la secuencia de datos de posición basados en el tiempo del sistema de plataforma móvil al sistema de estaciones terrestres;
un sistema (42) informático:
que monitoriza la disponibilidad de un enlace de comunicación de línea de visión de alta velocidad;
que recibe la secuencia de datos de posición basados en el tiempo cuando el enlace de comunicación de línea de visión de alta velocidad está disponible, y que transmite la secuencia de datos de posición basados en el tiempo a través del sistema de comunicación de línea de visión para permitir que la estación terrestre rastree la localización del sistema de plataforma móvil para mantener el enlace de comunicación de línea de visión de alta velocidad;
que inicia las conexiones con el sistema de comunicación sin línea de visión cuando el enlace de comunicación de línea de visión de alta velocidad no está disponible, que recibe la secuencia de datos de posición basados en el tiempo y que transmite la secuencia de datos de posición basados en el tiempo a través del sistema de comunicación sin línea de visión para permitir que el sistema de estaciones terrestres rastree la localización del sistema de plataforma móvil; y
comprendiendo el sistema (22) de estaciones terrestres:
un sistema (64) de comunicación sin línea de visión adaptado para comunicarse con el sistema de comunicación sin línea de visión del sistema de plataforma móvil;
un sistema (56) de comunicación de línea de visión direccional de alta velocidad adaptado para comunicarse con el sistema de comunicación de línea de visión de alta velocidad del sistema de plataforma móvil; y un sistema (70) informático adaptado para monitorizar la localización y la altitud de la plataforma móvil recibiendo la secuencia de datos de posición basados en el tiempo de al menos uno del sistema de comunicación sin línea de visión y el sistema de comunicación de línea de visión direccional de alta velocidad del sistema de estaciones terrestres, filtrando la entrada del sistema de comunicación sin línea de visión y del sistema de comunicación de línea de visión direccional de alta velocidad del sistema de estaciones terrestres para secuenciar en el tiempo adecuadamente al menos una porción de los datos de posición para generar una posición prevista de la plataforma móvil; y
un dispositivo (152) de rastreo que comprende:
un conjunto (84) de múltiple ejes conectado al sistema de comunicación de línea de visión direccional de alta velocidad; y
uno o más controladores que reciben la posición prevista de la plataforma móvil y que controlan el conjunto de múltiple ejes para dirigir el sistema de comunicación de línea de visión direccional de alta velocidad para comunicarse con el sistema de comunicación de línea de visión de alta velocidad del sistema de plataforma móvil.
2. El sistema de la reivindicación 1, en el que el sistema de plataforma móvil comprende además un sistema (40) de captura de sensor colocado para capturar imágenes de nadir.
3. El sistema de la reivindicación 1, en el que el sistema de plataforma móvil comprende además un sistema (40) de captura de sensor colocado para capturar imágenes oblicuas.
4. El sistema de la reivindicación 3, que comprende además el sistema (42) informático que transmite imágenes oblicuas al sistema (22) de estaciones terrestres desde la plataforma (18) móvil.
5. El sistema de la reivindicación 4, en el que las imágenes oblicuas se georreferencian antes de ser transmitidas al sistema (22) de estaciones terrestres.
6. El sistema de la reivindicación 5, en el que las imágenes oblicuas se georreferencian en tiempo real.
ES11832903T 2010-07-07 2011-07-06 Sistema de gestión de plataforma móvil en tiempo real Active ES2758558T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/831,971 US8477190B2 (en) 2010-07-07 2010-07-07 Real-time moving platform management system
PCT/US2011/043059 WO2012050648A2 (en) 2010-07-07 2011-07-06 Real-time moving platform management system

Publications (1)

Publication Number Publication Date
ES2758558T3 true ES2758558T3 (es) 2020-05-05

Family

ID=45438314

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11832903T Active ES2758558T3 (es) 2010-07-07 2011-07-06 Sistema de gestión de plataforma móvil en tiempo real

Country Status (7)

Country Link
US (5) US8477190B2 (es)
EP (2) EP2591313B1 (es)
AU (1) AU2011314338C1 (es)
CA (3) CA3154717A1 (es)
ES (1) ES2758558T3 (es)
MX (1) MX2013000158A (es)
WO (1) WO2012050648A2 (es)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7899243B2 (en) * 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US8078436B2 (en) 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
US8145578B2 (en) 2007-04-17 2012-03-27 Eagel View Technologies, Inc. Aerial roof estimation system and method
US8170840B2 (en) 2008-10-31 2012-05-01 Eagle View Technologies, Inc. Pitch determination systems and methods for aerial roof estimation
US8209152B2 (en) 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
CA2801486C (en) 2010-02-01 2018-12-11 Eagle View Technologies, Inc. Geometric correction of rough wireframe models derived from photographs
US9930298B2 (en) * 2011-04-19 2018-03-27 JoeBen Bevirt Tracking of dynamic object of interest and active stabilization of an autonomous airborne platform mounted camera
JP5775354B2 (ja) 2011-04-28 2015-09-09 株式会社トプコン 離着陸ターゲット装置及び自動離着陸システム
JP5882693B2 (ja) 2011-11-24 2016-03-09 株式会社トプコン 航空写真撮像方法及び航空写真撮像装置
EP2527787B1 (en) * 2011-05-23 2019-09-11 Kabushiki Kaisha TOPCON Aerial photograph image pickup method and aerial photograph image pickup apparatus
US11401045B2 (en) 2011-08-29 2022-08-02 Aerovironment, Inc. Camera ball turret having high bandwidth data transmission to external image processor
US9288513B2 (en) * 2011-08-29 2016-03-15 Aerovironment, Inc. System and method of high-resolution digital data image transmission
US9156551B2 (en) 2011-08-29 2015-10-13 Aerovironment, Inc. Tilt-ball turret with gimbal lock avoidance
US8523462B2 (en) 2011-08-29 2013-09-03 Aerovironment, Inc. Roll-tilt ball turret camera having coiled data transmission cable
US20160224842A1 (en) * 2012-01-09 2016-08-04 Rafael Advanced Defense Systems Ltd. Method and apparatus for aerial surveillance and targeting
US8774525B2 (en) 2012-02-03 2014-07-08 Eagle View Technologies, Inc. Systems and methods for estimation of building floor area
US9933257B2 (en) 2012-02-03 2018-04-03 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US10663294B2 (en) 2012-02-03 2020-05-26 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area and producing a wall estimation report
US9599466B2 (en) 2012-02-03 2017-03-21 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US10515414B2 (en) 2012-02-03 2019-12-24 Eagle View Technologies, Inc. Systems and methods for performing a risk management assessment of a property
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
US9658314B2 (en) 2012-03-02 2017-05-23 Nokomis, Inc. System and method for geo-locating and detecting source of electromagnetic emissions
CA2875266C (en) 2012-06-18 2022-01-11 Collineo Inc. Remote visual inspection system and method
RU2498378C1 (ru) * 2012-06-21 2013-11-10 Александр Николаевич Барышников Способ получения изображения земной поверхности с движущегося носителя и устройство для его осуществления
JP6122591B2 (ja) 2012-08-24 2017-04-26 株式会社トプコン 写真測量用カメラ及び航空写真装置
JP6055274B2 (ja) * 2012-10-31 2016-12-27 株式会社トプコン 航空写真測定方法及び航空写真測定システム
FR2999303B1 (fr) * 2012-12-12 2018-03-30 Thales Procede de geo localisation precise d'un capteur d'images embarque a bord d'un aeronef
US10909482B2 (en) 2013-03-15 2021-02-02 Pictometry International Corp. Building materials estimation
US9959581B2 (en) 2013-03-15 2018-05-01 Eagle View Technologies, Inc. Property management on a smartphone
US11587176B2 (en) 2013-03-15 2023-02-21 Eagle View Technologies, Inc. Price estimation model
WO2014149154A1 (en) 2013-03-15 2014-09-25 Battelle Memorial Institute Multi-domain situational awareness for infrastructure monitoring
CN103292127B (zh) * 2013-05-20 2014-12-10 哈尔滨工业大学 多轴支撑气浮平台的测量控制系统
CN103335636B (zh) * 2013-05-31 2015-07-22 南京理工大学 对地面弱小目标的检测方法
IL231114A0 (en) * 2013-07-05 2014-08-31 Hitachi Ltd Device for formulating a photography program and software and method for it
US9031325B2 (en) 2013-07-19 2015-05-12 Digitalglobe, Inc. Automatic extraction of built-up footprints from high resolution overhead imagery through manipulation of alpha-tree data structures
US9679227B2 (en) 2013-08-02 2017-06-13 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
CN103646384B (zh) * 2013-12-20 2016-06-22 江苏大学 一种遥感扫描成像平台飞行速度的优化方法
US20150199556A1 (en) * 2014-01-13 2015-07-16 Honeywell International Inc. Method of using image warping for geo-registration feature matching in vision-aided positioning
MY184651A (en) * 2014-01-20 2021-04-14 Pillay Venkateshwara A system for mapping and tracking ground targets
DK2997768T3 (en) 2014-02-10 2018-06-18 Sz Dji Technology Co Ltd Adaptive communication mode switching
CA2855414A1 (en) * 2014-06-30 2015-12-30 Frederick D. Lake Method of documenting a position of an underground utility
WO2016053438A2 (en) 2014-07-21 2016-04-07 King Abdullah University Of Science And Technology STRUCTURE FROM MOTION (SfM) PROCESSING FOR UNMANNED AERIAL VEHICLE (UAV)
US10247557B2 (en) * 2014-09-30 2019-04-02 Here Global B.V. Transmitting map data images in a limited bandwidth environment
US9460517B2 (en) 2014-10-22 2016-10-04 Pointivo, Inc Photogrammetric methods and devices related thereto
FR3032579B1 (fr) * 2015-02-05 2017-03-10 Dassault Aviat Procede et dispositif d'echange de donnees avec un dispositif de stockage d'un aeronef
WO2016129667A1 (ja) * 2015-02-13 2016-08-18 日本電信電話株式会社 衛星信号受信特性推定装置、その方法及びプログラム
US10080143B2 (en) * 2015-07-17 2018-09-18 Clearsky Technologies, Inc. Method of placing an antenna of a radio access network (RAN) asset in a wireless communication network
CA2995850A1 (en) 2015-08-31 2017-03-09 Ryan Kottenstette Systems and methods for analyzing remote sensing imagery
US10384607B2 (en) * 2015-10-19 2019-08-20 Ford Global Technologies, Llc Trailer backup assist system with hitch angle offset estimation
US20170245361A1 (en) * 2016-01-06 2017-08-24 Nokomis, Inc. Electronic device and methods to customize electronic device electromagnetic emissions
US10762795B2 (en) 2016-02-08 2020-09-01 Skydio, Inc. Unmanned aerial vehicle privacy controls
EP3430591A4 (en) * 2016-03-16 2019-11-27 ADCOR Magnet Systems, LLC SYSTEM FOR GEOREFERENCED, GEOORIENTED REAL-TIME VIDEO DATA STREAMS
DK3223191T3 (da) * 2016-03-23 2021-08-16 Leica Geosystems Ag Skabelse af en 3d-bymodel ud fra skrå billeddannelses- og lidardata
US10628802B2 (en) 2016-05-19 2020-04-21 Lockheed Martin Corporation Systems and methods for assessing damage to infrastructure assets
US10032267B2 (en) 2016-06-09 2018-07-24 Lockheed Martin Corporation Automating the assessment of damage to infrastructure assets
US10393860B2 (en) * 2016-07-01 2019-08-27 General Electric Company Multi-platform location deception detection system
US10809379B2 (en) * 2016-07-04 2020-10-20 Topcon Corporation Three-dimensional position measuring system, three-dimensional position measuring method, and measuring module
US10688382B2 (en) * 2016-09-26 2020-06-23 Interblock Usa L.C. Oscillation and magnetic braking assembly for dice gaming system
US10565682B2 (en) * 2016-11-07 2020-02-18 Ford Global Technologies, Llc Constructing map data using laser scanned images
WO2018098678A1 (zh) * 2016-11-30 2018-06-07 深圳市大疆创新科技有限公司 飞行器的控制方法、装置和设备以及飞行器
US10448864B1 (en) 2017-02-24 2019-10-22 Nokomis, Inc. Apparatus and method to identify and measure gas concentrations
US10123181B1 (en) 2017-05-03 2018-11-06 Honeywell International Inc. Systems and methods for collaborative vehicle mission operations
SE545423C2 (en) * 2017-05-17 2023-09-05 Icomera Ab Communication system for aircrafts with altitude based antenna type selection
SE1750614A1 (en) * 2017-05-17 2018-11-18 Icomera Ab Communication system for aircrafts
US10503843B2 (en) 2017-12-19 2019-12-10 Eagle View Technologies, Inc. Supervised automatic roof modeling
US11489847B1 (en) 2018-02-14 2022-11-01 Nokomis, Inc. System and method for physically detecting, identifying, and diagnosing medical electronic devices connectable to a network
FR3077875A1 (fr) 2018-02-15 2019-08-16 Helper-Drone Dispositif de cartographie tactique evolutive dans un environnement exterieur, systeme et procede associes
US10783648B2 (en) * 2018-03-05 2020-09-22 Hanwha Techwin Co., Ltd. Apparatus and method for processing image
CN108955702B (zh) * 2018-05-07 2021-09-07 西安交通大学 基于三维激光和gps惯性导航系统的车道级地图创建系统
CN108876807B (zh) * 2018-05-31 2021-07-23 长春博立电子科技有限公司 一种实时星载卫星图像运动对象检测跟踪方法
US11210552B2 (en) 2018-11-14 2021-12-28 Cape Analytics, Inc. Systems, methods, and computer readable media for predictive analytics and change detection from remotely sensed imagery
US11017232B2 (en) * 2018-12-06 2021-05-25 Double Eagle, Llc System for providing live virtual-reality and augmented reality environments
US11076303B2 (en) * 2018-12-18 2021-07-27 Sunsight Holdings, Llc Antenna alignment tool generating earth browser file and related methods
KR102522923B1 (ko) * 2018-12-24 2023-04-20 한국전자통신연구원 차량의 자기위치 추정 장치 및 그 방법
US11790773B2 (en) * 2019-02-25 2023-10-17 Quantifly Llc Vehicle parking data collection system and method
CN110186433B (zh) * 2019-03-27 2019-11-22 成都睿铂科技有限责任公司 一种可剔除多余航片的航测方法和装置
CN110196454B (zh) * 2019-06-17 2020-05-19 中国地质大学(北京) 基于无人机的地质勘测集成系统
US11866193B2 (en) * 2019-08-01 2024-01-09 Volo Alto, Llc Non-intrusive flight data collection and analyzation with flight automation
US11310451B1 (en) 2019-09-05 2022-04-19 Waymo Llc Smart sensor with region of interest capabilities
CN110891251A (zh) * 2019-11-07 2020-03-17 银河智点(北京)科技有限公司 用于监控线路的系统
US11252366B2 (en) 2019-11-19 2022-02-15 Waymo Llc Sensor read out mode for high resolution and low light imaging in-sync with LIDAR timing
US11094113B2 (en) 2019-12-04 2021-08-17 Geomni, Inc. Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs
US11428550B2 (en) 2020-03-03 2022-08-30 Waymo Llc Sensor region of interest selection based on multisensor data
CN111243091B (zh) * 2020-04-09 2020-07-24 速度时空信息科技股份有限公司 基于分布式系统的海量dem金字塔切片并行构建方法
EP4133235A4 (en) 2020-04-10 2024-04-03 Cape Analytics, Inc. GEOCODING SYSTEM AND METHOD
US20210349922A1 (en) * 2020-05-05 2021-11-11 Jane Huang Hsu METHOD OF RECOGNIZING AN OBJECT IN AN IMAGE USING iMaG AUTOMATED GEOREGSTRATION SYSTEM GENERATED MULTI-ORBIT SATELLITE IMAGERY WITH A CADSTRAL DATA BASED IMAGERY BASE
US11222426B2 (en) 2020-06-02 2022-01-11 Cape Analytics, Inc. Method for property feature segmentation
US11367265B2 (en) 2020-10-15 2022-06-21 Cape Analytics, Inc. Method and system for automated debris detection
CN112835306B (zh) * 2020-10-22 2022-06-24 中信戴卡股份有限公司 基于卫星监控汽车的方法、装置、设备、计算机和介质
US11756283B2 (en) 2020-12-16 2023-09-12 Waymo Llc Smart sensor implementations of region of interest operating modes
US12033528B2 (en) 2021-02-04 2024-07-09 Honeywell International Inc. Display systems and methods
US11875413B2 (en) 2021-07-06 2024-01-16 Cape Analytics, Inc. System and method for property condition analysis
KR20230036858A (ko) * 2021-09-08 2023-03-15 한국과학기술원 3차원 포인트 클라우드 맵을 이용한 차선 레벨 지도 구축 방법 및 시스템
US11676298B1 (en) 2021-12-16 2023-06-13 Cape Analytics, Inc. System and method for change analysis
US11861843B2 (en) 2022-01-19 2024-01-02 Cape Analytics, Inc. System and method for object analysis

Family Cites Families (185)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2273876A (en) 1940-02-12 1942-02-24 Frederick W Lutz Apparatus for indicating tilt of cameras
US3153784A (en) 1959-12-24 1964-10-20 Us Industries Inc Photo radar ground contour mapping system
US3157608A (en) 1960-07-13 1964-11-17 Ashland Oil Inc Emulsion polymerization
US5345086A (en) 1962-11-28 1994-09-06 Eaton Corporation Automatic map compilation system
US3621326A (en) 1968-09-30 1971-11-16 Itek Corp Transformation system
US3594556A (en) 1969-01-08 1971-07-20 Us Navy Optical sight with electronic image stabilization
US3661061A (en) 1969-05-05 1972-05-09 Atomic Energy Commission Picture position finder
US3614410A (en) 1969-06-12 1971-10-19 Knight V Bailey Image rectifier
US3716669A (en) 1971-05-14 1973-02-13 Japan Eng Dev Co Mapping rectifier for generating polarstereographic maps from satellite scan signals
US3725563A (en) 1971-12-23 1973-04-03 Singer Co Method of perspective transformation in scanned raster visual display
US3864513A (en) 1972-09-11 1975-02-04 Grumman Aerospace Corp Computerized polarimetric terrain mapping system
US4015080A (en) 1973-04-30 1977-03-29 Elliott Brothers (London) Limited Display devices
JPS5223975Y2 (es) 1973-05-29 1977-05-31
US3877799A (en) 1974-02-06 1975-04-15 United Kingdom Government Method of recording the first frame in a time index system
DE2510044A1 (de) 1975-03-07 1976-09-16 Siemens Ag Anordnung zum aufzeichnen von zeichen unter verwendung von mosaikschreibwerken
US4707698A (en) 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
US4240108A (en) 1977-10-03 1980-12-16 Grumman Aerospace Corporation Vehicle controlled raster display system
JPS5637416Y2 (es) 1977-10-14 1981-09-02
IT1095061B (it) 1978-05-19 1985-08-10 Conte Raffaele Apparecchiatura per la registrazione magnetica di eventi casuali relativi a mezzi mobili
US4396942A (en) 1979-04-19 1983-08-02 Jackson Gates Video surveys
FR2461305B1 (fr) 1979-07-06 1985-12-06 Thomson Csf Systeme indicateur cartographique destine plus particulierement a la navigation aerienne
DE2939681A1 (de) 1979-09-29 1981-04-30 Agfa-Gevaert Ag, 5090 Leverkusen Verfahren und vorrichtung zur ueberwachung der qualitaet bei der herstellung von fotografischen bildern
DE2940871C2 (de) 1979-10-09 1983-11-10 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
US4387056A (en) 1981-04-16 1983-06-07 E. I. Du Pont De Nemours And Company Process for separating zero-valent nickel species from divalent nickel species
US4382678A (en) 1981-06-29 1983-05-10 The United States Of America As Represented By The Secretary Of The Army Measuring of feature for photo interpretation
US4463380A (en) 1981-09-25 1984-07-31 Vought Corporation Image processing system
US4495500A (en) 1982-01-26 1985-01-22 Sri International Topographic data gathering method
US4490742A (en) 1982-04-23 1984-12-25 Vcs, Incorporated Encoding apparatus for a closed circuit television system
US4586138A (en) 1982-07-29 1986-04-29 The United States Of America As Represented By The United States Department Of Energy Route profile analysis system and method
US4491399A (en) 1982-09-27 1985-01-01 Coherent Communications, Inc. Method and apparatus for recording a digital signal on motion picture film
US4527055A (en) 1982-11-15 1985-07-02 Honeywell Inc. Apparatus for selectively viewing either of two scenes of interest
FR2536851B1 (fr) 1982-11-30 1985-06-14 Aerospatiale Systeme de reconnaissance comportant un vehicule aerien tournant autour de son axe longitudinal
US4489322A (en) 1983-01-27 1984-12-18 The United States Of America As Represented By The Secretary Of The Air Force Radar calibration using direct measurement equipment and oblique photometry
US4635136A (en) 1984-02-06 1987-01-06 Rochester Institute Of Technology Method and apparatus for storing a massive inventory of labeled images
US4814711A (en) 1984-04-05 1989-03-21 Deseret Research, Inc. Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network
US4686474A (en) 1984-04-05 1987-08-11 Deseret Research, Inc. Survey system for collection and real time processing of geophysical data
US4673988A (en) 1985-04-22 1987-06-16 E.I. Du Pont De Nemours And Company Electronic mosaic imaging process
US4653136A (en) 1985-06-21 1987-03-31 Denison James W Wiper for rear view mirror
EP0211623A3 (en) 1985-08-01 1988-09-21 British Aerospace Public Limited Company Identification of ground targets in airborne surveillance radar returns
US4953227A (en) 1986-01-31 1990-08-28 Canon Kabushiki Kaisha Image mosaic-processing method and apparatus
US4653316A (en) 1986-03-14 1987-03-31 Kabushiki Kaisha Komatsu Seisakusho Apparatus mounted on vehicles for detecting road surface conditions
US4688092A (en) 1986-05-06 1987-08-18 Ford Aerospace & Communications Corporation Satellite camera image navigation
US4956872A (en) 1986-10-31 1990-09-11 Canon Kabushiki Kaisha Image processing apparatus capable of random mosaic and/or oil-painting-like processing
JPS63202182A (ja) 1987-02-18 1988-08-22 Olympus Optical Co Ltd 傾斜ドツトパタ−ン形成方法
US4814896A (en) 1987-03-06 1989-03-21 Heitzman Edward F Real time video data acquistion systems
US5164825A (en) 1987-03-30 1992-11-17 Canon Kabushiki Kaisha Image processing method and apparatus for mosaic or similar processing therefor
US4807024A (en) 1987-06-08 1989-02-21 The University Of South Carolina Three-dimensional display methods and apparatus
US4899296A (en) 1987-11-13 1990-02-06 Khattak Anwar S Pavement distress survey system
US4843463A (en) 1988-05-23 1989-06-27 Michetti Joseph A Land vehicle mounted audio-visual trip recorder
GB8826550D0 (en) 1988-11-14 1989-05-17 Smiths Industries Plc Image processing apparatus and methods
US4906198A (en) 1988-12-12 1990-03-06 International Business Machines Corporation Circuit board assembly and contact pin for use therein
JP2765022B2 (ja) 1989-03-24 1998-06-11 キヤノン販売株式会社 立体画像形成装置
US5617224A (en) 1989-05-08 1997-04-01 Canon Kabushiki Kaisha Imae processing apparatus having mosaic processing feature that decreases image resolution without changing image size or the number of pixels
US5086314A (en) 1990-05-21 1992-02-04 Nikon Corporation Exposure control apparatus for camera
JPH0316377A (ja) 1989-06-14 1991-01-24 Kokusai Denshin Denwa Co Ltd <Kdd> 2値画像の縮小方法及び装置
US5166789A (en) 1989-08-25 1992-11-24 Space Island Products & Services, Inc. Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates
JP3147358B2 (ja) 1990-02-23 2001-03-19 ミノルタ株式会社 撮影地データを記録できるカメラ
US5335072A (en) 1990-05-30 1994-08-02 Minolta Camera Kabushiki Kaisha Photographic system capable of storing information on photographed image data
EP0464263A3 (en) 1990-06-27 1992-06-10 Siemens Aktiengesellschaft Device for obstacle detection for pilots of low flying aircrafts
US5191174A (en) 1990-08-01 1993-03-02 International Business Machines Corporation High density circuit board and method of making same
US5200793A (en) 1990-10-24 1993-04-06 Kaman Aerospace Corporation Range finding array camera
US5155597A (en) 1990-11-28 1992-10-13 Recon/Optical, Inc. Electro-optical imaging array with motion compensation
JPH04250436A (ja) 1991-01-11 1992-09-07 Pioneer Electron Corp 撮像装置
US5265173A (en) 1991-03-20 1993-11-23 Hughes Aircraft Company Rectilinear object image matcher
US5369443A (en) 1991-04-12 1994-11-29 Abekas Video Systems, Inc. Digital video effects generator
EP0509822B1 (en) 1991-04-16 1995-08-30 Nec Corporation Image pickup system with an image pickup device for control
US5555018A (en) 1991-04-25 1996-09-10 Von Braun; Heiko S. Large-scale mapping of parameters of multi-dimensional structures in natural environments
US5231435A (en) 1991-07-12 1993-07-27 Blakely Bruce W Aerial camera mounting apparatus
EP0530391B1 (en) 1991-09-05 1996-12-11 Nec Corporation Image pickup system capable of producing correct image signals of an object zone
US5677515A (en) 1991-10-18 1997-10-14 Trw Inc. Shielded multilayer printed wiring board, high frequency, high isolation
US5402170A (en) 1991-12-11 1995-03-28 Eastman Kodak Company Hand-manipulated electronic camera tethered to a personal computer
JPH05249216A (ja) * 1992-02-04 1993-09-28 Nec Corp データリンクシステム
US5247356A (en) 1992-02-14 1993-09-21 Ciampa John A Method and apparatus for mapping and measuring land
US5251037A (en) 1992-02-18 1993-10-05 Hughes Training, Inc. Method and apparatus for generating high resolution CCD camera images
US5270756A (en) 1992-02-18 1993-12-14 Hughes Training, Inc. Method and apparatus for generating high resolution vidicon camera images
US5506644A (en) 1992-08-18 1996-04-09 Olympus Optical Co., Ltd. Camera
US5576964A (en) * 1992-11-30 1996-11-19 Texas Instruments Incorporated System and method for relating a passive sensor to a geographic environment
US5481479A (en) 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
US5342999A (en) 1992-12-21 1994-08-30 Motorola, Inc. Apparatus for adapting semiconductor die pads and method therefor
US5414462A (en) 1993-02-11 1995-05-09 Veatch; John W. Method and apparatus for generating a comprehensive survey map
US5508736A (en) 1993-05-14 1996-04-16 Cooper; Roger D. Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information
US6542077B2 (en) 1993-06-08 2003-04-01 Raymond Anthony Joao Monitoring apparatus for a vehicle and/or a premises
US5467271A (en) 1993-12-17 1995-11-14 Trw, Inc. Mapping and analysis system for precision farming applications
CA2190596C (en) 1994-05-19 2002-03-26 Theodore M. Lachinski Method for collecting and processing visual and spatial position information
RU2153700C2 (ru) 1995-04-17 2000-07-27 Спейс Системз/Лорал, Инк. Система управления ориентацией и формированием изображения (варианты)
US5604534A (en) 1995-05-24 1997-02-18 Omni Solutions International, Ltd. Direct digital airborne panoramic camera system and method
US5668593A (en) 1995-06-07 1997-09-16 Recon/Optical, Inc. Method and camera system for step frame reconnaissance with motion compensation
US5878356A (en) * 1995-06-14 1999-03-02 Agrometrics, Inc. Aircraft based infrared mapping system for earth based resources
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US5835133A (en) 1996-01-23 1998-11-10 Silicon Graphics, Inc. Optical system for single camera stereo video
US5894323A (en) 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US5798786A (en) 1996-05-07 1998-08-25 Recon/Optical, Inc. Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions
US5844602A (en) 1996-05-07 1998-12-01 Recon/Optical, Inc. Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver
US5841574A (en) 1996-06-28 1998-11-24 Recon/Optical, Inc. Multi-special decentered catadioptric optical system
US6108032A (en) 1996-11-05 2000-08-22 Lockheed Martin Fairchild Systems System and method for image motion compensation of a CCD image sensor
DE69739272D1 (de) 1996-11-05 2009-04-02 Bae Systems Information Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation
SE510860C2 (sv) * 1996-12-09 1999-06-28 Telia Ab System, anordning och metod för integration av ett mikrovågssystem med ett millimetervågssystem
RU2127075C1 (ru) 1996-12-11 1999-03-10 Корженевский Александр Владимирович Способ получения томографического изображения тела и электроимпедансный томограф
US6222583B1 (en) 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6597818B2 (en) 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6157747A (en) 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
US6097854A (en) 1997-08-01 2000-08-01 Microsoft Corporation Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping
WO1999018732A1 (en) 1997-10-06 1999-04-15 Ciampa John A Digital-image mapping
US5852753A (en) 1997-11-10 1998-12-22 Lo; Allen Kwok Wah Dual-lens camera with shutters for taking dual or single images
WO1999024936A1 (en) 1997-11-10 1999-05-20 Gentech Corporation System and method for generating super-resolution-enhanced mosaic images
US6037945A (en) 1997-12-16 2000-03-14 Xactware, Inc. Graphical method for modeling and estimating construction costs
US6094215A (en) 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US6130705A (en) 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
JP4245699B2 (ja) 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置
US6434265B1 (en) 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
DE19857667A1 (de) 1998-12-15 2000-08-17 Aerowest Photogrammetrie H Ben Verfahren zur Erzeugung einer drei-dimensionalen Objektbeschreibung
US6167300A (en) 1999-03-08 2000-12-26 Tci Incorporated Electric mammograph
DE19922341C2 (de) 1999-05-14 2002-08-29 Zsp Geodaetische Sys Gmbh Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes
AUPQ056099A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
TW483287B (en) 1999-06-21 2002-04-11 Semiconductor Energy Lab EL display device, driving method thereof, and electronic equipment provided with the EL display device
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
WO2001048683A1 (en) 1999-12-29 2001-07-05 Geospan Corporation Any aspect passive volumetric image processing method
US6826539B2 (en) 1999-12-31 2004-11-30 Xactware, Inc. Virtual structure data repository and directory
US6829584B2 (en) 1999-12-31 2004-12-07 Xactware, Inc. Virtual home data repository and directory
US6810383B1 (en) 2000-01-21 2004-10-26 Xactware, Inc. Automated task management and evaluation
AU3047801A (en) 2000-02-03 2001-08-14 Alst Technical Excellence Center Image resolution improvement using a color mosaic sensor
CA2400975C (en) 2000-03-16 2008-11-04 The Johns Hopkins University Light detection and ranging (lidar) mapping system
IL151951A0 (en) 2000-03-29 2003-04-10 Astrovision International Inc Direct broadcast imaging satellite system, apparatus and method for providing real-time, continuous monitoring of earth from geostationary earth orbit and related services
US7184072B1 (en) 2000-06-15 2007-02-27 Power View Company, L.L.C. Airborne inventory and inspection system and apparatus
US6834128B1 (en) 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
US6484101B1 (en) 2000-08-16 2002-11-19 Imagelinks, Inc. 3-dimensional interactive image modeling system
US7313289B2 (en) 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US6421610B1 (en) 2000-09-15 2002-07-16 Ernest A. Carroll Method of preparing and disseminating digitized geospatial data
JP4236372B2 (ja) * 2000-09-25 2009-03-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 空間情報利用システムおよびサーバシステム
US6622090B2 (en) 2000-09-26 2003-09-16 American Gnc Corporation Enhanced inertial measurement unit/global positioning system mapping and navigation process
US6959120B1 (en) 2000-10-27 2005-10-25 Microsoft Corporation Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data
AU2002308651A1 (en) 2001-05-04 2002-11-18 Leberl, Franz, W. Digital camera for and method of obtaining overlapping images
EP1393468B1 (en) 2001-05-22 2006-06-14 Honeywell International Inc. Method, apparatus and computer program product for implementing and organizing an ad-hoc aviation data communication network
US7046401B2 (en) 2001-06-01 2006-05-16 Hewlett-Packard Development Company, L.P. Camera-based document scanning system using multiple-pass mosaicking
US7509241B2 (en) 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
US20030043824A1 (en) 2001-08-31 2003-03-06 Remboski Donald J. Vehicle active network and device
US6747686B1 (en) 2001-10-05 2004-06-08 Recon/Optical, Inc. High aspect stereoscopic mode camera and method
US7262790B2 (en) 2002-01-09 2007-08-28 Charles Adams Bakewell Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring
TW550521B (en) 2002-02-07 2003-09-01 Univ Nat Central Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings
US6894809B2 (en) 2002-03-01 2005-05-17 Orasee Corp. Multiple angle display produced from remote optical sensing devices
US6803997B2 (en) * 2002-03-08 2004-10-12 Anzus, Inc. Gridlocking and correlation methods and arrangements
JP4184703B2 (ja) 2002-04-24 2008-11-19 大日本印刷株式会社 画像修正方法およびシステム
IL149934A (en) 2002-05-30 2007-05-15 Rafael Advanced Defense Sys Airborne intelligence photography system
US7725258B2 (en) 2002-09-20 2010-05-25 M7 Visual Intelligence, L.P. Vehicle based data collection and processing system and imaging sensor system and methods thereof
EP1540937A4 (en) 2002-09-20 2008-11-12 M7 Visual Intelligence Lp VEHICLE TESTED DATA COLLECTION AND TREATMENT SYSTEM
EP1696204B1 (en) 2002-11-08 2015-01-28 Pictometry International Corp. Method for capturing, geolocating and measuring oblique images
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US7018050B2 (en) 2003-09-08 2006-03-28 Hewlett-Packard Development Company, L.P. System and method for correcting luminance non-uniformity of obliquely projected images
JP2005151536A (ja) 2003-10-23 2005-06-09 Nippon Dempa Kogyo Co Ltd 水晶発振器
US7916940B2 (en) 2004-01-31 2011-03-29 Hewlett-Packard Development Company Processing of mosaic digital images
DE102004006033B3 (de) * 2004-02-06 2005-09-08 Eads Deutschland Gmbh Verfahren zur Erkennung und Bekämpfung von Wald-und Flächenbränden
BRPI0508226A (pt) 2004-02-27 2007-07-17 Intergraph Software Tech Co formação de uma única imagem a partir de imagens de sobreposição
US20050195221A1 (en) * 2004-03-04 2005-09-08 Adam Berger System and method for facilitating the presentation of content via device displays
US7660441B2 (en) * 2004-07-09 2010-02-09 Southern California, University System and method for fusing geospatial data
US20060028550A1 (en) 2004-08-06 2006-02-09 Palmer Robert G Jr Surveillance system and method
US7728833B2 (en) 2004-08-18 2010-06-01 Sarnoff Corporation Method for generating a three-dimensional model of a roof structure
US8078396B2 (en) 2004-08-31 2011-12-13 Meadow William D Methods for and apparatus for generating a continuum of three dimensional image data
US7348895B2 (en) 2004-11-03 2008-03-25 Lagassey Paul J Advanced automobile accident detection, data recordation and reporting system
US7418320B1 (en) 2005-01-24 2008-08-26 International Business Machines Corporation Navigating a UAV having an on-board digital camera to capture desired geographic area
US7142984B2 (en) 2005-02-08 2006-11-28 Harris Corporation Method and apparatus for enhancing a digital elevation model (DEM) for topographical modeling
US7466244B2 (en) 2005-04-21 2008-12-16 Microsoft Corporation Virtual earth rooftop overlay and bounding
US8032265B2 (en) 2005-06-29 2011-10-04 Honeywell International Inc. System and method for enhancing computer-generated images of terrain on aircraft displays
US7554539B2 (en) 2005-07-27 2009-06-30 Balfour Technologies Llc System for viewing a collection of oblique imagery in a three or four dimensional virtual scene
US7437062B2 (en) 2005-11-10 2008-10-14 Eradas, Inc. Remote sensing system capable of coregistering data from sensors potentially having unique perspectives
US7844499B2 (en) 2005-12-23 2010-11-30 Sharp Electronics Corporation Integrated solar agent business model
US7630797B2 (en) 2006-01-10 2009-12-08 Harris Corporation Accuracy enhancing system for geospatial collection value of an image sensor aboard an airborne platform and associated methods
US9182228B2 (en) * 2006-02-13 2015-11-10 Sony Corporation Multi-lens array system and method
US7778491B2 (en) 2006-04-10 2010-08-17 Microsoft Corporation Oblique image stitching
US20080158256A1 (en) * 2006-06-26 2008-07-03 Lockheed Martin Corporation Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data
US7873238B2 (en) 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
DE102007030781A1 (de) 2006-10-11 2008-04-17 Gta Geoinformatik Gmbh Verfahren zur Texturierung virtueller dreidimensionaler Objekte
IL179344A (en) 2006-11-16 2014-02-27 Rafael Advanced Defense Sys Mobile Platform Tracking Method
US7832267B2 (en) 2007-04-25 2010-11-16 Ecometriks, Llc Method for determining temporal solar irradiance values
US7912596B2 (en) 2007-05-30 2011-03-22 Honeywell International Inc. Vehicle trajectory visualization system
WO2009025928A2 (en) 2007-06-19 2009-02-26 Ch2M Hill, Inc. Systems and methods for solar mapping, determining a usable area for solar energy production and/or providing solar information
EP2174265A4 (en) * 2007-08-07 2011-01-19 Visionmap Ltd METHOD AND SYSTEM FOR PERFORMING OPTICAL MOBILE OBJECT DETECTION AND TRACKING OVER A LARGE AREA
WO2009065003A1 (en) 2007-11-14 2009-05-22 Intergraph Software Technologies Company Method and apparatus of taking aerial surveys
KR100974534B1 (ko) 2008-01-24 2010-08-10 인하대학교 산학협력단 시선벡터의 연속 회전이 가능한 피치-롤 기반의 안테나추적 짐발 시스템
US8417061B2 (en) 2008-02-01 2013-04-09 Sungevity Inc. Methods and systems for provisioning energy systems
US8275194B2 (en) 2008-02-15 2012-09-25 Microsoft Corporation Site modeling using image data fusion
US8538151B2 (en) 2008-04-23 2013-09-17 Pasco Corporation Building roof outline recognizing device, building roof outline recognizing method, and building roof outline recognizing program
US8401222B2 (en) 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
US8314816B2 (en) * 2009-06-08 2012-11-20 Honeywell International Inc. System and method for displaying information on a display element
US9286720B2 (en) * 2009-08-20 2016-03-15 Northrop Grumman Systems Corporation Locative video for situation awareness
US9183538B2 (en) 2012-03-19 2015-11-10 Pictometry International Corp. Method and system for quick square roof reporting

Also Published As

Publication number Publication date
EP3653990A1 (en) 2020-05-20
WO2012050648A2 (en) 2012-04-19
US20130113831A1 (en) 2013-05-09
US8477190B2 (en) 2013-07-02
US20200084414A1 (en) 2020-03-12
AU2011314338B2 (en) 2013-08-22
US10455197B2 (en) 2019-10-22
US20120007982A1 (en) 2012-01-12
AU2011314338A1 (en) 2013-01-24
EP2591313A4 (en) 2016-08-03
US11483518B2 (en) 2022-10-25
EP3653990B1 (en) 2022-03-16
EP2591313B1 (en) 2019-10-23
CA3055701C (en) 2022-06-21
US9723269B2 (en) 2017-08-01
CA3055701A1 (en) 2012-04-19
US20140063243A1 (en) 2014-03-06
US9743046B2 (en) 2017-08-22
MX2013000158A (es) 2013-03-18
US20130135471A1 (en) 2013-05-30
EP2591313A2 (en) 2013-05-15
CA3154717A1 (en) 2012-04-19
AU2011314338C1 (en) 2014-03-27
CA2804587C (en) 2019-11-12
CA2804587A1 (en) 2012-04-19
WO2012050648A3 (en) 2012-06-21

Similar Documents

Publication Publication Date Title
ES2758558T3 (es) Sistema de gestión de plataforma móvil en tiempo real
US10996055B2 (en) Integrated aerial photogrammetry surveys
US11140326B2 (en) Aerial video based point, distance, and velocity real-time measurement system
JP6658532B2 (ja) 制御装置、制御方法および飛行体デバイス
CN111540059B (zh) 提供加强环境感知的增强视频系统
US20160132057A1 (en) Method for constructing air-observed terrain data by using rotary wing structure
US20090262974A1 (en) System and method for obtaining georeferenced mapping data
JP3225434B2 (ja) 映像提示システム
JP2002034055A (ja) 移動体用広視野角多方向画像取得装置及び移動体用広視野角多方向画像取得システム
JPWO2018193574A1 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
ES2366717A1 (es) Equipo de obtención de información en obras e infraestructuras basado en un vehículo aéreo no tripulado.
WO2023150888A1 (en) System and method for firefighting and locating hotspots of a wildfire
US20090019382A1 (en) Systems and methods for side angle radar training and simulation
US20120307003A1 (en) Image searching and capturing system and control method thereof
Wu et al. Design and experiment OF a high payload fixed wing VTOL UAV system for emergency response
Gademer et al. Solutions for near real time cartography from a mini-quadrators UAV
Persson et al. Real-time image processing on handheld devices and UAV
Buchroithner et al. Satellite-Based Technologies in Use for Extreme Nocturnal Mountain Rescue Operations: a Synergetic Approach Applying Geophysical Principles
CN117522681A (zh) 无人机热红外遥感影像实时拼接方法及系统