BR112015001737B1 - Método para aquisição e processamento de informações geográficas de uma trajetória. - Google Patents

Método para aquisição e processamento de informações geográficas de uma trajetória. Download PDF

Info

Publication number
BR112015001737B1
BR112015001737B1 BR112015001737-1A BR112015001737A BR112015001737B1 BR 112015001737 B1 BR112015001737 B1 BR 112015001737B1 BR 112015001737 A BR112015001737 A BR 112015001737A BR 112015001737 B1 BR112015001737 B1 BR 112015001737B1
Authority
BR
Brazil
Prior art keywords
aircraft
land vehicle
trajectory
sensors
information
Prior art date
Application number
BR112015001737-1A
Other languages
English (en)
Other versions
BR112015001737A2 (pt
Inventor
Jaume SASTRE I SASTRE
Original Assignee
Geonumerics, S.L.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Geonumerics, S.L. filed Critical Geonumerics, S.L.
Publication of BR112015001737A2 publication Critical patent/BR112015001737A2/pt
Publication of BR112015001737B1 publication Critical patent/BR112015001737B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0808Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/04Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Astronomy & Astrophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

método para aquisição e processamento de informações geográficas de uma trajetória. a invenção proposta refere-se a um método para a aquisição simultânea e processamento de informação geográfica de uma trajetória adquirida por tandem terrestre e missões aéreas compreendendo um veículo terrestre e uma ou mais aeronaves não tripuladas cuja trajetória se encontra acoplada ao do veículo terrestre através da passagem por hora e mudanças espaciais. o método compreende as etapas de: adquirir dados geográficos e informações por meio de uma pluralidade de sensores do veículo terrestre; enviar informações trajetória do veículo terrestre para a aeronave, de uma estação de controle hospedado no veículo terrestre, a cada certo período de tempo, em que o período de tempo é um parâmetro de projeto; quando a aeronave recebe a informação de trajetória do veículo terrestre, a aeronave determinar a sua trajetória de acordo com a informação de trajetória do veículo terrestre recebido; a aquisição de dados e informações geográficas, incluindo imagens, por meio de uma pluralidade de sensores da aeronave; obtenção, em um módulo de processamento, da orientação de ambos os sensores de veículo terrestre de aeronaves e dos dados geográficos e informação adquirida; calibração, em um módulo de processamento, dos sensores tanto do veículo terrestre quanto da aeronave a partir dos dados geográficos e informações adquiridas; e associar a cada imagem obtida com a orientação e de calibração obtida nas etapas e) e f), respectivamente.

Description

DESCRIÇÃO CAMPO TÉCNICO DA INVENÇÃO
[001] A presente invenção refere-se genericamente ao mapeamento e, mais especificamente, a aquisição de dados geográficos de corredores por meio de um conjunto composto por veículos aéreos-terrestre que trabalham simultaneamente.
ANTECEDENTES DA INVENÇÃO
[002] Mapeamento, ou mapeamento de corredor têm sido sempre realizado quer por tecnologias de mapeamento móvel terrestre ou por aquelas aéreas ou por combinações das mesmas, mas, normalmente, apenas uma das duas técnicas é usada.
[003] Em pequenos projetos de aquisição de dados geográficos, são utilizados sistemas aéreos não tripulados, sobretudo, em operações militares, as chamadas missões DDD (maçantes, sujas e perigosas). Um sistema aéreo não tripulado é composto de uma aeronave pilotada remotamente ou não tripulada, uma estação de controle (da aeronave) de solo e um link de dados via rádio que permite que a aeronave não tripulada e a estação de controle de solo comuniquem-se.
[004] Do ponto de vista tecnológico, a aeronave não tripulada de um sistema aéreo não tripulado é uma excelente plataforma para transportar instrumentos fotogramétricos, de sensoriamento remoto e outros tipos de sensores e para realizar missões de sensoriamento aéreo. Em comparação com uma aeronave tripulada, uma não-tripulada é pequena, leve e barata. Além disso, uma aeronave não tripulada beneficia-se do atual progresso dos computadores e da miniaturização de sensores.
[005] A partir de um ponto de vista legal, ou seja ponto de vista regulatório, dependendo do país, as operações do sistema aéreo não tripulado sofrem tanto com a falta de regulamentação ou regulamento muito rigoroso. Além de utilizadores militares e governamentais, como a polícia ou os bombeiros, o uso de um sistema aéreo não tripulado é, muitas vezes, percebido pelas autoridades da Aviação Civil ou autoridades locais como uma ameaça à segurança. Autoridades da Aviação Civil estão preocupadas com a queda de aeronaves causada pela colisão de aeronaves tripuladas com as não tripuladas. Outras autoridades estão preocupadas com o mau uso da tecnologia de sistema aéreo não tripulado (terrorismo e crime) ou dano não intencional sobre a propriedades e pessoas (acidentes). Em geral, quanto maior e mais pesado o avião não tripulado é, maior as preocupações sobre e restrições quanto ao seu funcionamento. Há muitos esforços simultâneos e paralelos para desenvolver regulamentos norte-americanos, europeus e em todo o mundo consistentes, como o grupo Joint Authorities for Rulemaking on Unmanned Systems (JARUS), com participação de 19 países/autoridades da aviação civil até hoje.
[006] A maioria, se não todos, os regulamentos existentes definem três limites para operações aéreas não tripuladas: um limite de peso - o chamado peso de decolagem máximo da aeronave não tripulada, - uma distância dentro da linha de visão (LOS, line of sight) entre a estação de controle de solo e a aeronave não tripulada - tipicamente algumas centenas de metros - e uma altura máxima de vôo acima do solo - tipicamente até 300 m. O "dentro da linha de visão" ou simplesmente "restrição LOS" entre a estação de controle de solo e a aeronave não tripulada limita o alcance e a produtividade das missões de aquisição de dados geográficos com base em sistemas aéreos não tripulados, em comparação com os sistemas tripulados padrões. Portanto, aparentemente, a aquisição de dados geográficos com base no sistema aéreo não tripulado e mapeamento é uma área de aplicabilidade e de mercado limitado.
[007] No entanto, existem mais técnicas de mapeamento de corredor (hidrovias, ferrovias e rodovias). Por exemplo, o mapeamento de corredor ferroviário é normalmente realizado com um carro de mapeamento móvel terrestre ou van montada em um trem, carrinho ou bonde. O levantamento de corredor hidrográfico também é feito, muitas vezes, com um carro de mapeamento móvel terrestre em um pequeno barco. Mas nenhuma missão simultânea de mapeamento de corredores aéreo-terrestre é realizada. Uma das razões é que é quase impossível (avião) ou demasiado caro (helicóptero), fazer uma aeronave voar sobre um sistema de mapeamento móvel terrestre nas baixas velocidades de um carro de mapeamento móvel terrestre, entre 20 km/h e 60 km/h.
[008] Geralmente, as missões descritas acima são conduzidas de forma separadas; ou seja, nenhuma missão simultânea aéreo-terrestre é realizada, assim, os dados adquiridos em missões de mapeamento terrestre não têm a visão de cima. Analogamente, os dados adquiridos em missões de mapeamento aéreo não têm a visão lateral das fachadas dos edifícios. Isto leva a duplicar missões de aquisição (terrestres e aéreos), a uma pequena área de missão limitada, ou a uma orientação errada dos sensores de veículos terrestres em desfiladeiros urbanos ou naturais.
SUMÁRIO DA INVENÇÃO
[009] A presente invenção, que será referida como mapKITE, serve para resolver os problemas das missões de aquisição de dados geográficos duplos (terrestres e aéreos); área de missão limitada e pequena para os sistemas aéreos não tripulados com base em missões de aquisição de dados geográficos; e orientação errada dos sensores de veículos terrestres em desfiladeiro urbano em missões de mapeamento móvel de corredores terrestres.
[010] A invenção proposta permite a aquisição de dados geográficos para grandes áreas porque a estação de controle é móvel e, portanto, a "restrição LOS" é resolvida uma vez que a estação de controle da aeronave está instalada no veículo terrestre e mantém a uma curta distância da aeronave.
[011] A invenção proposta abre o campo de mapeamento aéreo-terrestre total a custos significativamente inferiores aos atuais serviços de mapeamento que combinam diferentes missões muito mais caras, fornecendo um método para a aquisição e processamento de informação geográfica de uma trajetória, o método é caracterizado por compreender as seguintes etapas:a) aquisição de dados geográficos e informações por meio de uma pluralidade de sensores do veículo terrestre;b) envio de informações de trajetória do veículo terrestre para a aeronave, da estação de controle da aeronave hospedada no veículo terrestre, a cada certo período de tempo, em que o período de tempo é um parâmetro de projeto;c) quando a aeronave recebe a informação de trajetória do veículo terrestre, a aeronave determina a sua trajetória de acordo com a informação de trajetória do veículo terrestre recebido;d) aquisição de dados e informações geográficas, incluindo imagens, por meio de uma pluralidade de sensores da aeronave;e) obtenção, em um módulo de processamento, da orientação de ambos os sensores de veículo terrestre e das aeronaves a partir dos dados geográficos e informação adquirida;f) calibragem, em um módulo de processamento, dos sensores tanto do veículo terrestre e das aeronaves a partir dos dados geográficos e informações adquiridas;g) associar cada imagem obtida com a orientação e calibração obtida nas etapas e) e f), respectivamente.
[012] Na proposta de invenção, a estação de controle é parte do veículo terrestre. Com os movimentos do veículo terrestre, a estação de controle torna- se uma "estação móvel de controle" e uma vez que a aeronave segue o veículo terrestre - a uma altura constante acima dela em uma das concretizações - a "restrição LOS" e a "restrição de altura" são preenchidas.
[013] O método da invenção pode compreender a identificação de figuras geométricas de tamanho e forma conhecidas sobre o teto do veículo terrestre por um sensor de imagem da aeronave.
[014] Numa concretização da invenção, a etapa de obtenção da orientação e a calibragem dos sensores da aeronave que compreende ainda a utilização de posicionamento, atitude, forma e informação de tamanho das figuras geométricas no teto do veículo terrestre.
[015] Uma concretização da invenção compreende, na etapa de obtenção da orientação e calibragem dos sensores de ambos o veículo terrestre e a aeronave que compreende ainda a utilização de informação geográfica conhecida anteriormente. Esta informação geográfica pode ser obtida a partir de um mapa, por exemplo.
[016] Outra concretização da invenção pode compreender, na etapa de obter a orientação e calibragem dos sensores de ambos o veículo terrestre e a aeronave compreendendo ainda a utilização de um mesmo elemento do solo em diferentes imagens adquiridas pelo sensor de imagem da aeronave e / ou o veículo terrestre. Um mesmo elemento em diferentes imagens é utilizado como um ponto de conexão também chamado ponto de ligação para o cálculo da orientação e calibragem dos sensores.
[017] Numa concretização da invenção, as imagens adquiridas são marcadas com o tempo; isto é, elas são sincronizadas com algum marco de referência de tempo. Assim, durante a fase de pós-processamento é útil para a sincronização de imagens para outros dados adquiridos com etiquetas de tempo.
[018] É considerado, em algumas concretizações da invenção, que a aeronave segue a mesma trajetória que o veículo terrestre com um deslocamento temporal e espacial em que o atraso de tempo e uma diferença de vetor entre a aeronave e o veículo terrestre é um parâmetro de projeto que pode variar com o tempo de acordo aos comandos de um operador.
[019] A aeronave e o veículo terrestre adquirirem, de preferência, a informação geográfica e os dados simultaneamente.
[020] Um aspecto da invenção refere-se à possibilidade em algumas concretizações do ajuste de dados de trajetórias por meio da análise de dados e a informação geográfica obtida pela pluralidade de sensores do veículo terrestre de acordo com padrões de erro e causas conhecidas de erros para identificar os erros sistemáticos, causados por uma falta de precisão sofrida de multipercursos dos sinais GNSS e problemas de oclusão, ou a existência potencial de erros sistemáticos. Quando um possível erro sistemático é identificado, a informação de trajetória adquirida pelo veículo terrestre é corrigida pelos dados geográficos e informações adquiridas pelas aeronaves.
[021] Outro aspecto da invenção refere-se a um sistema de informação geográfica e aquisição de dados e informação geográfica e processamento de dados caracterizado por compreender:- um veículo terrestre equipado com uma pluralidade de sensores para a aquisição de informação e dados geográficos e uma estação de controle para controlar uma aeronave;- uma aeronave em comunicação com o veículo terrestre, equipado com uma pluralidade de sensores para adquirir informação geográficas e dados;- um módulo de processamento em comunicação tanto com o veículo terrestre e a aeronave para processar toda a informação geográfica e os dados obtidos por ambos o veículo terrestre e a aeronave.
[022] O sistema pode compreender sensores de imagem, tanto na aeronave e no veículo terrestre. Ele também pode compreender figuras geométricas (para ser utilizada como apontando e alvos de escala) e alvos de calibração radiométricos (como cartões de cores, a ser usado para modelagem radiométrica e calibração radiométrica de sensor) no teto do veículo terrestre, em algumas concretizações.
[023] Um último aspecto da presente invenção refere-se a um programa de computador que compreende meios de código de programa adaptados para executar as etapas do método da invenção proposta quando o referido programa é executado num processador de uso geral, um processador de sinal digital, um FPGA, um ASIC, um micro-processador, um micro-controlador, ou qualquer outra forma de hardware programável.
[024] As características e vantagens acima não limitam a presente invenção, e as pessoas versadas na técnica irão reconhecer características e vantagens adicionais após a leitura da seguinte descrição detalhada e com a visualização dos desenhos em anexo.
DESCRIÇÃO DOS DESENHOS
[025] Para completar a descrição que está sendo feita e com o objetivo de auxiliar uma melhor compreensão das características da invenção, de acordo com um exemplo preferido da concretização prática da mesma, acompanham a dita descrição como parte integrante da mesma, um conjunto de desenhos em que, a título de ilustração e não de forma restritiva, o seguinte foi representado:A Figura 1 ilustra os subsistemas de uma concretização da invenção (veículo terrestre ou TV, aeronave não tripulada ou UAS, e o sistema de pós- processamento).A Figura 2 ilustra o subsistema TV-to-UA tether que cálcula os “way points” para a aeronave a partir da trajetória do veículo terrestre.A Figura 3 mostra o subsistema TV-to-UA_tether no caso de “way points” para manobras de calibração dos sensores da aeronave.A Figura 4 mostra um exemplo de um planejamento de missão no caso de uma área urbana.A Figura 5 ilustra um fluxograma de alto nível das etapas de pós- rocessamento.
DESCRIÇÃO DETALHADA DA INVENÇÃO
[026] A invenção proposta compreende métodos e sistemas de aquisição e processamento de informação geográfica de uma trajetória. O termo "informação geográfica" refere-se especificamente aos dados geográficos ou, em geral, às imagens e os dados da Terra, incluindo os dados de navegação, como distâncias aos satélites GNSS, ou medições inerciais ou medições de sensoriamento remoto.
[027] Em uma concretização da invenção, a aquisição e processamento de informação geográfica é feita por um veículo terrestre e um ou mais veículos aéreos de uma forma simultânea e sincronizada.
[028] A entrada de uma "orientação integrada de sensores" (ISO, Integrated Sensor Orientation) são medições e a saída são parâmetros. Na entrada, os parâmetros são desconhecidos. Os parâmetros desconhecidos estão relacionados com as medições por meio de equações conhecidas (também chamados "modelos matemáticos"). Assim, uma ISO é apenas um método e procedimento para resolver sistemas de equações cujos valores conhecidos são as "medições” ou "observações" e cujos valores desconhecidos são os "parâmetros". O processo de solução para os "parâmetros" desconhecidos a partir de "medições” conhecidas e "modelos matemáticos" é conhecido como "estimativa de parâmetros" ou, simplesmente, "cálculo dos parâmetros".
[029] A inclusão de um novo tipo de medida (as coordenadas de um novo tipo de pontos de controle), nomeada como ponto de controle cinemático terrestre (KGCPs, kinematic ground control points), em uma orientação integrada de sensores, permite estimar, com precisão os parâmetros de orientação do sensor, em uma fase de pós-processamento.
[030] Esta concretização de mapKITE usa apenas um veículo aéreo para fazer a descrição clara. De fato, é usada uma aeronave não tripulada que segue o veículo terrestre.
[031] Existem duas fases na invenção: uma fase de aquisição e uma fase de pós-processamento.
[032] Na fase de aquisição, a aeronave não tripulada segue, a uma altura aproximadamente constante acima do solo, um veículo terrestre. A aeronave não tripulada, ou a partir de agora simplesmente a aeronave, é equipada com uma carga útil de sensoriamento remoto (RSP, remote sensing payload) de peso leve e um sistema de navegação / orientação, (sendo o termo "navegação" entendido como uma orientação em tempo real e "orientação" é entendida como, dado um objeto e um dos seus marcos de referência de coordenadas b e dado um marco de referência de coordenadas terrestre global f, a determinação dos parâmetros de posição (x_f), velocidade (v_f) e atitude (a_f_b) de b com respeito à f.). O veículo terrestre é igualmente equipado com um sistema de navegação/orientação. O veículo terrestre “puxa virtualmente” a aeronave fazendo o upload com frequência de pontos da trajetória ou “way points” através de um link de rádio. O sistema que implementa esta função é denominado "Virtual TV-to-UA Tether" ou simplesmente “TV-to-UA Tether”, “virtual Tether" ou "vTether”.
[033] A aeronave voa dentro da linha de visada (LOS) para o veículo terrestre a menos a distância permitida pela aeronáutica, defesa e as autoridades locais. O veículo terrestre carrega em seu teto ou em outro lugar um alvo que consiste em figuras geométricas de tamanho e forma conhecida que são visíveis a partir de cima. Ele também pode carregar em seu teto alvos de calibração radiométrica.
[034] Na fase de pós-processamento, as trajetórias das aeronaves e o veículo terrestre são determinadas pelo processamento das medições dos sistemas de navegação / orientação das aeronaves e o veículo terrestre, respectivamente.
[035] Em seguida, são tomadas medidas de fotogrametria de pontos de controle, pontos de controle estático terrestre e dos pontos de controle cinemáticos terrestres. Uma medição fotogramétrica é um vetor bidimensional (x, y) e o resultado de uma ação de apontar.
[036] Um operador humano ou artificial (por exemplo, um sistema de software) produz uma medição fotogramétrica, apontando para um ponto em uma imagem que corresponde a um elemento do solo ou objeto, digamos X, no espaço tridimensional (3D) (geralmente a superfície da Terra e suas construções feitas pelo homem). A medição (x, y) é dita ser "as coordenadas de imagem do elemento ou objeto". As medições fotogramétricas também são chamadas de "medições de imagens", "observações de imagem", "observações de fotogrametria" ou "foto-medidas".
[037] Medições fotogramétricas de pontos de ligação, (que são pontos no espaço 3D - ou seja, em um marco de referência terrestre 3D - cujas coordenadas de imagem foram medidas em imagens sobrepostas obtidas pela carga útil de sensoriamento remoto da aeronave); de pontos de controle terrestres estáticos (SGCP, static ground control points) (que são pontos no espaço 3D, que são materializados por alguma característica reconhecível como um alvo pintado, um vértice geodésico ou qualquer outro objeto natural ou provocado pelo homem e que não altera a sua posição com o tempo); e de pontos de controle terrestres cinemáticos (que também são pontos no espaço 3D, materializados pelos alvos do teto do veículo terrestre, e que de um modo geral, as suas posições mudam com o tempo). Um ponto de controle de cinemático terrestre só pode ser usado por um observador se sua observação instantânea acontece em um momento conhecido. No resto do documento, ponto de controle estático terrestre ou, simplesmente, ponto de controle (GPC, ground control points) serão usados como sinônimos. Parâmetros de orientação e de calibração precisos e exatos - para sensores na aeronave e no veículo terrestre - são obtidos através da fusão de dados de trajetória (da aeronave e do veículo terrestre), das medidas de imagens e das coordenadas dos pontos de controle estáticos e cinemáticos num cálculo de orientação integrada de sensores (ISO).
[038] Na figura 1, todos os elementos da concretização da mapKITE são mostrados. No entanto, eles são agrupados em três blocos: A) veículo terrestre, B) aeronaves e C) módulo de pós-processamento:
A)
[039] Veículo terrestre (1): o veículo terrestre pode ser equipado com um subsistema de carga útil de sensoriamento remoto. Ele inclui um subsistema de navegação e orientação (N&O) e seu subsistema de alvo métrico óptico (OMT). O OMT pode incluir alvos de apontamento geométrico, alvos de escala e alvos de calibração radiométricos. O veículo terrestre carrega o subsistema TV-to- UA_tether e o subsistema de estação de controle de solo da aeronave não tripulada (GCS).
[040] É dirigido por um operador humano, um motorista, que segue uma trajetória previamente definida.
[041] Subsistema de navegação e orientação do veículo terrestre (2): é um servidor em tempo real, de valores de tempo, posição, velocidade e atitude (tPVA), e um registrador de dados dos sensores de navegação / orientação. Implícita em sua função do servidor em tempo real tPVA e registrador de dados de medições está a sincronização e etiquetado de tempo das observações geradas pelos sensores de navegação/orientação.
[042] Ele compreende um computador para ler as medições dos sensores de navegação/orientação, pelo menos, um receptor GNSS de nível geodésico e pelo menos uma unidade de medição inercial. Em algumas concretizações, também pode compreender um ou mais hodômetros, um ou mais baroaltimetros e qualquer outro sensor que ajuda a estimar a solução tPVA.
[043] Em uma concretização, na fase do pós-processamento, o subsistema de navegação/orientação do veículo terrestre pode ser auxiliado a partir de medições fotogramétricas do alvo métrico óptico do veículo terrestre.
[044] Este elemento armazena todas as observações dos sensores de navegação/orientação, marca-os com uma etiqueta de tempo e calcula uma solução de navegação tPVA em tempo real.
[045] Carga útil de sensoriamento remoto do veículo terrestre (3): ele captura imagens e as armazena. As imagens adquiridas podem ser orientadas em tempo real e offline com a solução de saída tPVA do subsistema de navegação e orientação do veículo terrestre (2).
[046] Alvo métrico óptico do veículo terrestre (4): ele é transportado pelo veículo terrestre no teto. Consiste em um número de alvos de apontamento de tamanho, forma, cores e orientação fixa relativa entre si conhecidos. O alvo pode incluir adicionalmente, numa concretização, alvos de resolução e radiométricos para a avaliação da resolução geométrica e calibração radiométrica dos sensores de imagem da carga útil de sensoriamento remoto da aeronave (3).
[047] O alvo métrico óptico permite no solo a identificação dos pontos de controle cinemáticos sobre as imagens da aeronave não tripulada. Também permite a estimativa do fator de escala entre o alvo métrico óptico e as imagens nadir da carga útil de sensoriamento remoto da aeronave (3).
[048] O alvo métrico óptico também pode ser utilizado em manobras de aterrisagem e para a localização do veículo terrestre com os sensores de apontamento nadir da carga útil de sensoriamento remoto da aeronave (3).
[049] O subsistema TV-to-UA_tether (5): é realizado pela TV. Ele comanda a aeronave para proceder ao seu próximo ponto de trajetória de forma repetitiva em alta frequência.
[050] O subsistema TV-to-UA_tether lê a solução tPVA do subsistema de navegação/orientação do veículo terrestre, transforma-o em posição e atitude da aeronave desejadas e gera um comando "próximo ponto de trajetória" ou “próximo way point”. Em seguida, o "próximo ponto de trajetória" é injetado na estação de controle de solo da aeronave não tripulada. A estação de controle de solo da aeronave carrega/envia repetidamente os pontos de passagem atualizados para o aeronave por meio de seu link de rádio.
[051] Este é o denominado "loop do TV-to-UA_tether", como representado na figura 2 (operação em rota). Onde "E", "N", "H" são os parâmetros para coordenadas leste, norte e altura das aeronaves, e os parâmetros " y, õ , Y referem-se os ângulos que definem a atitude da aeronave.
[052] A Figura 3 ilustra o loop do TV-to-UA_tether, do veículo terrestre para a aeronave, para o modo de operação de manobra de calibração. A manobra de calibração de mapKITE aproveita as paradas do veículo terrestre, desde as impostas externamente como semáforos para as decididas pelo operador da missão por qualquer razão, incluindo a execução de uma manobra de calibração. Neste caso, a aeronave é ordenada a ir para cima e para baixo, e para rodar em si, enquanto a tomada de imagens em diferentes altitudes e diferentes ângulos de atitude Φ (t).
B)
[053] Sistema aéreo não tripulado (6): o sistema aéreo não tripulado (UAS) tem três subsistemas: a estação de controle de solo (GCS), a aeronave não tripulada (UA) e o link de dados (DL) via rádio entre o GCS e a aeronave. Ele transporta a carga útil de sensoriamento remoto da aeronave para pontos no espaço onde será ativada.
[054] A aeronave (UA) de mapKITE é uma aeronave de asa rotativa e multirotor padrão capaz de ler pontos da trajetória, para navegar a velocidades moderadas, e para transportar uma antena e receptor GNSS de nível geodésico.
[055] A estação de controle de solo (GCS) do sistema aéreo não tripulado (GCS) (7): é transportada pelo veículo terrestre (TV). Ela controla a aeronave (UA) por meio de consultas e comandos que são enviados para a aeronave através do link de dados via rádio do sistema aéreo não tripulado (DL). A estação de controle de solo do sistema de controle aéreo não tripulado tem uma interface de usuário (botões, joysticks, displays e outros) e uma interface de dados. Por meio desta interface, o piloto remoto da aeronave pode assumir o controle manual dela em qualquer momento.
[056] O link de dados (DL) do sistema aéreo não tripulado (8): ele permite que a aeronave se comunique com a estação de controle de solo (GCS) do sistema aéreo não tripulado (7). Ele transporta consultas e comandos da estação de controle de solo para a aeronave e as informações da aeronave de volta para a estação de controle de solo. Os componentes do link de dados são distribuídos entre a estação de controle de solo e a aeronave.
[057] Aeronaves não tripuladas (9): transportam sua carga útil de sensoriamento remoto para pontos no espaço em que as imagens devem ser adquiridas. A concretização de mapKITE não exige um desenho específico para a aeronave, desde que:• pode voar sem problemas com a mesma velocidade do veículo terrestre;• pode realizar decolagem e pouso vertical;• peso menor do que o - localmente regulamentada, de 5 kg a 8 de kg - peso de uma micro aeronave;• pode levar seu subsistema de navegação/orientação;• pode transportar sua carga útil de sensoriamento remoto;• pode voar por um longo período de tempo (questões de produtividade).
[058] Com a tecnologia atual dos sistemas aéreos não tripulados, existem inúmeros modelos comerciais de aeronave não tripulada que atendem aos regulamentos locais correspondentes.
[059] O subsistema de orientação e navegação (N&O) da aeronave não tripulada (10): ele é composto de sensores de navegação e orientação, computadores e programas de software que armazena as medições dos sensores em tempo real e transformam as mesmas em parâmetros de tempo- posição-velocidade-atitude (tPVA). As medições ou observações armazenadas serão utilizadas mais tarde pelo subsistema de pós-processamento da invenção para a óptima orientação off-line dos sensores da carga útil de sensoriamento remoto da aeronave. Os parâmetros tPVA em tempo real determinados serão utilizados em tempo real pelo sistema de controle de voo da aeronave.
[060] O subsistema de navegação e orientação das aeronaves não tripuladas contém, pelo menos, uma unidade de medição de inércia (IMU, inertial measurement unit) e um receptor GNSS de preferência com de nível geodésica, embora um receptor GNSS normal possa também ser usado. Aeronaves são sempre equipadas com um sistema de controle de vôo (FCS, flight control system), que inclui um sistema de navegação. Além disso, um altímetro barométrico está incluído em algumas concretizações da invenção.
[061] A carga útil de sensoriamento remoto da aeronave não tripulada (11): contém os instrumentos de fotogrametria e sensoriamento remoto da aeronave. Sua função principal é a aquisição e marcação de tempo (ou sincronização) de dados de imagem (cor, infravermelha, termal, radar, laser e qualquer outro tipo de imagens). Parte destas imagens pode ser utilizada para auxiliar os sensores de navegação do subsistema de navegação e orientação.
[062] Em uma concretização particular de mapKITE, um dos sensores de imagem de carga útil de sensoriamento remoto é um um apontador nadiral óptico (que é uma câmara cujas imagens são paralelas ao solo e que captura imagens do solo) cujas imagens sempre capturam o veículo terrestre e, portanto, os alvos geométricos e radiométricos do alvo métrico óptico (OMT) (4), com a finalidade de identificação e medição dos alvos do subsistema OMT para ainda: a posteriori determinação off line, integrada de trajetória da aeronave e as trajetórias de veículos terrestres, pouso em tempo real da aeronave, e determinação em tempo real ou off-line da posição do veículo terrestre.
[063] O subsistema de auxílio óptico à navegação (NOA) (12): ele examina as imagens ópticas da carga útil de sensoriamento remoto (11) em busca dos alvos do veículo terrestre. Uma vez que estão localizados, a orientação do sensor de imagem em conjunto com o fator de escala dos alvos métricos do veículo terrestre proporciona uma estimativa da posição do veículo terrestre.
[064] A estimativa da posição do veículo terrestre pode ser utilizado de duas maneiras: ela pode ser transmitida ao veículo terrestre através do link de dados de aeronave (DL), ou pode ser utilizada pela aeronave para "seguir" o veículo terrestre.
[065] No primeiro caso, a estimativa da posição do veículo terrestre (TV) pode ser utilizada pelo subsistema de orientação e de navegação do veículo terrestre (2) para verificar a qualidade da sua própria estimativa de navegação e/ou para corrigir a dita estimativa. Este uso do subsistema de auxílio óptico à navegação é interessante quando a estimativa do subsistema de navegação/orientação do veículo terrestre (2) não é confiável ou é suspeito de estar errado como em desfiladeiros urbanos ou, em geral, ambientes que geram erros de tipo multipercurso em medições GNSS.
[066] A integração da solução de auxílio óptico à navegação com a solução do subsistema de navegação e orientação (N&O) do veículo terrestre (2) segue os princípios da fusão de dados com técnicas de mínimos quadrados sequenciais como o filtro de Kalman e com técnicas de detecção de outliers em caso de grandes inconsistências entre as trajetórias do veículo terrestre e das aeronaves.
[067] No segundo caso, se os deslocamentos desejados entre o veículo terrestre e as aeronaves são conhecidos da aeronave, a solução de navegação do veículo terrestre obtida pelo subsistema de auxílio óptico à navegação pode ser usada para fazer a aeronave seguir o veículo terrestre que é de interesse quando a solução do subsistema de navegação e orientação o veículo terrestre não é confiável ou manifestamente errada.
[068] A função do subsistema de auxílio óptico à navegação é, por conseguinte, calcular as posições do veículo terrestre.
C)
[069] Subsistema de determinação de trajetória (14): o subsistema de determinação de trajetória (TD, trajectory determination) faz a determinação da trajetória das aeronaves e do veículo terrestre em pós-processamento. Ele calcula a trajetória tPVA na frequência mais alta dos sensores de navegação da aeronave e do veículo terrestre. A fonte primária de medições para a determinação das trajetórias são os subsistemas de navegação/orientação e a fonte secundária, opcional, de medições para a determinação das trajetórias são os subsistemas de carga útil de sensoriamento remoto que fornecem dados de imagem que podem ser utilizados no auxílio dos sensores primários de navegação.
[070] O subsistema de determinação de trajetória é um sistema de fusão de dados GNSS / INS que em, algumas concretizações, leva também observações de entrada de outros sensores auxiliares como câmeras ópticas, scanners a laser, odômetros, sensores de pressão de ar (altímetros barométricos) e outros.
[071] O subsistema de determinação de trajetória calcula a trajetória tPVA na frequência do correspondente, aeronave ou veículo terrestre, subsistema de navegação/orientação. Isto é, na frequência de mais alta taxa de medição de todos os sensores.
[072] O subsistema de determinação de orientação e calibração de sensores (SOD) (15): a sua função é calcular parâmetros de orientação e de calibração para as imagens dos sensores de carga útil de sensoriamento remoto, dadas observações tPVA (dos subsistemas de navegação/orientação) e as imagens.
[073] Ele combina observações de trajetória tPVA (geradas pelo subsistema de determinação de trajetória) com as medições de imagem de elementos de ligação, e de controle estáticos e cinemáticos (gerados pelo subsistema MATCH) para estimar parâmetros de orientação e calibração das imagens obtidas pelos subsistemas de sensoriamento remoto. Um elemento de controle é um objeto do solo, artificial ou natural, que pode ser reconhecido e mensurado em uma imagem de tal forma que suas coordenadas de imagem são conhecidas. Exemplos de elementos de controle são pontos de controle terrestres, estáticos tradicionais ou pontos de controle cinemáticos propostos pela presente invenção. Outros exemplos de elementos de controle são segmentos de linha no solo ou pontos de controle radiométricos.
[074] O subsistema de determinação de orientação e calibração de sensores (SOD) podem ser utilizados, da mesma forma, mas com diferentes medições de entrada e parâmetros de saída. O SOD tem duas tarefas principais: a orientação e calibração internas relativas, temporais e espaciais, para cada subsistema de carga útil de sensoriamento remoto e a orientação e calibração, absolutas externas, geométrica (ou espacial) e radiométrica, para o conjunto de todos os subsistema de carga útil de sensoriamento remoto.
[075] Subsistema de correspondência de imagem (MATCH) (16): realiza automatico, embora em algumas concretizações pode também trabalhar de forma assistida e/ou manual, medição de:• coordenadas de imagem de elementos homólogos em duas ou mais imagens capturados pela carga útil de sensoriamento remoto;• as coordenadas de imagem dos alvos métricos ópticos - isto é, da coordenadas de imagem dos pontos de controle cinemáticos (KGCPs), bem como da sua dimensão e radiometria; e• as coordenadas de imagem dos elementos de controle terrestre e, em particular, dos pontos de controle estáticos (GCPs).
[076] MATCH resolve o problema de correspondência de imagens e gera as coordenadas de imagem de elementos de ligação ou controle.
[077] Ele pode ser aplicado a imagens adquiridas pela carga útil a sensoriamento remoto de ambos, a aeronave e o veículo terrestre; isto é, pode estabelecer a correspondência entre elementos de ligação em duas ou mais das imagens da aeronave, do veículo terrestre, ou mesmo da aeronave e do veículo terrestre. MATCH pode usar dados de trajetória tPVA para facilitar a identificação e medição de elementos de ligação e de controle, mas é capaz de fazer a correspondência sem os dados tPVA.
[078] Assim, a função do subsistema MATCH é medir -ou seja, gerar observações de imagen - coordenadas de imagem de: elementos de ligação em duas ou mais imagens; elementos de controle terrestres estáticos em uma ou mais imagens; elementos de controle terrestres cinemáticos em imagens individuais; e, finalmente, medir o fator de escala entre os alvos e sua representação nas imagens capturadas pelos sensores dos subsistemas de sensoriamento remoto das aeronaves.
[079] O subsistema de orientação integrada de sensores (ISO) (17): a sua função é estimar parâmetros de orientação das imagens e calibração dos sensores, para os sensores dos subsistema de sensoriamento remoto tanto das aeronave quando do veículo terrestre, a partir de medições. O subsistema ISO implementado faz um ajuste de redes a partir das medições em imagens tomadas pelos sensores dos subsistemas de sensoriamento remoto. O ajuste de redes consiste em um ajuste em bloco, de feixes de raios e auto-calibração, pelo método dos mínimos quadrados com as medições clássicas do ajuste de feixes (medições de coordenadas de imagem, de pontos de controle e medições tPVA derivadas de medições GNSS/INS) e as medições propostas pela presente invenção mapKITE (pontos de controle cinemáticos, distâncias e entre os alvos da OMT e a escala dos alvos OMT sobre as imagens).
[080] O subsistema ISO, em uma das concretizações, implementa um ajuste de redes para as imagens dos subsistemas de sensoriamento remoto que calcula os erros na trajetória tPVA do veículo terrestre, por meio da introdução de parâmetros de modelagem de erro -deslocamento de segmentos da trajetória- em desfiladeiros naturais e urbanos e, onde as oclusões e multipercurso dos sinais GNSS são susceptíveis de gerar erros GNSS que não podem ser corrigidos pelo subsistema de determinação de trajetória (TD) ao processar as medições de navegação e orientação.
[081] Referindo-se ao funcionamento da invenção, na concretização de mapKITE, uma missão operacional consiste numa pluralidade de segmentos. Os períodos entre segmentos são chamados de bases. A operação começa com uma manobra de decolagem e calibração, em seguida, uma fase de aquisição de dados em rota, e, finalmente, uma manobra de pouso. Na manobra de decolagem e calibração, a aeronave decola de um ponto próximo ao veículo terrestre e executa uma manobra de calibração acima do veículo, enquanto ele sobe à sua altitude operacional em rota. Imediatamente após isso, na fase de aquisição de dados em rota, o veículo terrestre passa a circular e adquirir dados enquanto está sendo seguido pela aeronave que também está adquirindo dados. A fase de aquisição de dados acaba pousando suavemente a aeronave perto ou acima do veículo terrestre.
[082] Na figura 4, é mostrado um exemplo de um planejamento de missão de acordo com uma das concretizações. Uma missão começa em uma base e termina em uma outra base. O planejamento de missão define os períodos de tempo e localização das bases, bem como a rota do veículo terrestre para cada segmento. É realizada no escritório usando mapas digitais existentes ou qualquer outra informação para decidir onde iniciar e encerrar a missão (primeira e última base (41,44)), que estradas e ruas acompanhar (os segmentos (45-48)), e que paradas intermediárias fazer (as bases intermediárias (42,43)). Em uma das concretizações, a altura de voo ou alturas acima do solo é definida a priori, assim, o percurso da aeronave é definido a priori e pode ser utilizado na execução da missão, por razões de segurança.
[083] Referindo-se à aquisição de informação e dados geográficos por meio de sensores de ambos, o veículo terrestre e a aeronave, em algumas concretizações, têm que ser distinguido entre a aquisição de dados para a calibração e aquisição de dados para mapeamento.
[084] A aquisição de dados para a calibração refere-se à coleta de medições que não serão diretamente usadas posteriormente para o mapeamento. A carga útil de sensoriamento remoto da aeronave, nesta fase das operações, coleta dados em diferentes atitudes e posições. Imediatamente, após um segmento começar, a aeronave decola. Quando atinge a altitude desejada acima do veículo terrestre, o veículo terrestre começa a se mover e a fase de aquisição de dados em rota [para o mapeamento] começa. Pouco antes do final do segmento, o veículo terrestre para e aeronave pousa.
[085] Os curtos períodos entre a decolagem e alcançar a altitude necessária para a aquisição de dados em rota, e entre o início da descida da altitude em rota para a altitude do veículo terrestre para o pouso, são utilizados pela invenção em uma das concretizações para realizar manobras de calibração.
[086] O principal objetivo de uma manobra de calibração é coletar dados para uma melhoria posterior da determinação dos parâmetros de calibração das imagens de aeronaves. Esta melhoria ocorre na etapa de pós-processamento. A computação simultânea de parâmetros de orientação e calibração ocorre sempre, independentemente da existência ou não de manobras de calibração no início e no final dos segmentos. No entanto, as manobras de calibração contribuem com imagens que são particularmente bem adequadas para melhorar a determinação dos parâmetros de calibração.
[087] Normalmente, as manobras de calibração consistem em, enquanto subindo ou descendo, girar a aeronave em torno do seu eixo vertical e tirar as imagens com diferentes ângulos de posição. As diferenças de posição e altura são fundamentais para melhorar a capacidade de calibração do processo ISO. Normalmente, assim, o veículo terrestre não se move quando o avião estiver em descolagem e pouso. No entanto, numa concretização da invenção, o veículo terrestre pode mover-se de acordo com algum padrão previamente definido para melhorar ainda mais os resultados de calibragem.
[088] Deve ficar claro que o principal objetivo das manobras de calibração é coletar dados para um usa a posteriori e que a calibragem aqui refere-se à calibração dos sensores de imagem dos subsistemas de sensoriamento remoto.
[089] Referindo-se ao tratamento da informação geográfica, a figura 5 ilustra um fluxograma de alto nível das etapas de pós-processamento.
[090] Um primeira etapa é a determinação inicial da trajetória do veículo terrestre (51). A determinação inicial da trajetória do veículo terrestre consiste no cálculo da melhor trajetória possível do veículo terrestre, usando apenas os seus próprios sensores de navegação (2). O termo "melhor trajetória" refere-se à optimalidade atendendo aos requisitos de: usar todas as medidas disponíveis para o cálculo da trajetória; o algoritmo de estimativa deve ser de variância mínima e não viesado; e, no caso da trajetória estimada sequencialmente, que tanto o filtro de Kalman quanto a suavização tenham sido realizados. A trajetória é um conjunto tPVA; isto é, um conjunto de dados de tempo-posição-velocidade- atitude.
[091] A trajetória do veículo terrestre é materializada no centro de navegação do veículo terrestre, que é a origem do referencial de navegação do veículo. A origem deste referencial não deve ser confundida com o centro de massas do veículo terrestre e não está necessariamente alinhado com os eixos longitudinal, transversal e vertical do veículo. O referencial de navegação do veículo terrestre é materializado pela unidade de medição inercial do subsistema de navegação e orientação do veículo terrestre. Esta diferença não obstante, a unidade de medição inercial está instalada em algumas concretizações, de uma forma tal que os seus eixos estão geralmente alinhados com os do veículo terrestre.
[092] A trajetória inicial do veículo terrestre é calculada por qualquer método e procedimento padrão de integração de sensores e determinação de trajetórias. Os sensores a serem integrados e utilizados para a determinação das trajetórias são aqueles do subsistema de navegação e orientação do veículo terrestre. Estes sensores incluem o receptor GNSS, a unidade de medição inercial e, em algumas concretizações, hodômetros, sensores de pressão de ar (altímetros barsométricos) e outros.
[093] A trajetória do veículo terrestre inicial tP (tempo-posição), ou tPVA em uma outra concretização, também é transferida - referida - para os alvos do subsistema de alvo métrico óptico.
[094] Uma segunda etapa é a determinação inicial da trajetória da aeronave não tripulada (52). Ela consiste no cálculo da melhor trajetória possível da aeronave apenas usando os seus próprios sensores de navegação (10). A trajetória pode ser um de tipo tPVA ou, em uma outra concretização, de tipo tP. O procedimento para a determinação da trajetória inicial da aeronave é análogo à determinação da trajetória inicial do veículo terrestre.
[095] A terceira etapa é a medida fotogramétrica de coordenadas de imagem de pontos de ligação (53), os pontos de controle estáticos (54) e pontos de controle cinemáticos (55).
[096] Para os pontos de ligação: o resultado desta etapa é um conjunto de tipo IPxy, um conjunto de quádruplos do tipo: image_id (I) point_id(P) x coordenada [do ponto P na imagem I] y em que (x, y) são as coordenadas de imagem do ponto terrestre P medido na imagem I. Tipicamente, um ponto (P) aparece em várias imagens (I1, I2, ...), e uma imagem (I) contém vários pontos (P1, P2, ...),image_id e point_id são os identificadores da coordenada e do ponto respectivamente.
[097] Esta etapa de medição é um procedimento padrão da fotogrametria moderna que ocorre dentro da triangulação aérea digital. É realizado com o software fotogramétrico padrão de processamento de imagens.
[098] Para os pontos de controle terrestre estáticos: um ponto de ligação de coordenadas 3D conhecidas é um ponto de controle estático terrestre. Estas coordenadas conhecidas são obtidas a partir de mapas existentes ou a partir de levantamentos independentes. Em uma concretização da invenção, a medição das coordenadas de imagem dos pontos de controle estáticos terrestres é executada manualmente. O resultado desta etapa é análogo ao da anterior; isto é, um conjunto de quádruplos do tipo de dados: image_id (I) point_id (P) x coordenada [do ponto P na imagem I] y.
[099] Esta etapa de medição também é um procedimento padrão da fotogrametria moderna, que ocorre dentro de triangulação aérea digital. É realizada com o software de processamento de imagem que permite uma medição precisa interativa de pontos terrestres distinguíveis em uma ou mais imagens simultaneamente.
[100] As coordenadas terrestres 3D do ponto P são conhecidas e independem das medições de coordenadas de imagem nas imagens. As coordenadas terrestres 3D do ponto são utilizadas, como medições, na orientação integrada de sensores (ISO).
[101] Para os pontos de controle cinemáticos: em contraste com pontos de controle estáticos, se o veículo terrestre está em movimento, os pontos de controle terrestre cinemáticos (KGCPs) eles só são visíveis e, portanto, adequados para medições fotogramétricas, em apenas uma imagem. Na concretização da mapKITE, os KGCPs são materializados pelos alvos do subsistema de alvo métrico óptico (OMT). As coordenadas dos KGCPs são calculadas a partir da trajetória inicial do veículo terrestre obtida anteriormente.
[102] A medição de KGCPs é automática numa concretização da invenção, mas em outra concretização é assistida.
[103] Em concretizações com uma ferramenta de medição automática, tira- se partido da natureza artificial dos alvos e da sua forma e tamanho conhecido.
[104] Cada imagem é analisada em busca dos alvos e, uma vez encontrados, medidos:a) as coordenadas de imagem dos centros dos alvos (a medida fotogramétrica usual) eb) os tamanhos de imagem dos alvos (o que equivale a uma medição fotogramétrica de escala porque os tamanhos dos alvos na imagem são comparados com os seus tamanhos reais).
[105] Nas concretizações com uma ferramenta de medição assistida, um operador humano inspeciona cada imagem em busca dos alvos métricos ópticos. Uma vez encontrado, ele aponta aproximadamente à área alvo e um algoritmo de medida padrão refina a medida humana e entrega as coordenadas de imagem do centro e o tamanho do alvo (tamanho na imagem). Ao comparar o tamanho de imagem e o tamanho real do alvo, o fator de escala de imagem nesse ponto é obtido.
[106] O resultado desta etapa é o mesmo quádruplo que nas duas etapas anteriores mais a dimensão do alvo (razão entre o tamanho do alvo real e o tamanho de imagem aparente alvo):image_id (I) point_id(P) x coordenada [do ponto P na imagem I] y eimage_id (I) target_point_id (P) scale (s).
[107] Note-se que o identificador P muda de imagem para imagem em que o veículo terrestre move-se e não muda quando o veículo terrestre fica parado. Isto é assim porque, embora o ponto P seja materializado por um alvo sempre transportado pelo veículo terrestre, um alvo físico define apenas o mesmo ponto no espaço, desde que ele não se mova.
[108] A quarta etapa é a orientação integrada de sensores (ISO) para as imagens adquiridas pelas aeronaves não tripuladas (56). Nesta etapa, as medidas obtidas nas etapas anteriores e as coordenadas dos pontos de controle estáticos terrestres são combinadas em uma orientação integrada de sensores (17). Assim, as medições que participam da ISO são agrupadas em três tipos: fotogramétricas, de controle terrestre e de controle aéreo. Elas são:- medições fotogramétricas1. medições fotogramétricas de pontos de ligação,2. medições fotogramétricas de pontos de controle terrestre estáticos,3. medições fotogramétricas de imagem de pontos e medições fotogramétricas de escala dos pontos de controle de cinemáticos terrestres (KGCPs),- controle terrestre4. coordenadas terrestres dos pontos de controle estáticos terrestres5. coordenadas terrestres dos pontos de controle cinemáticos terrestres (KGCPs), e- controle áereo6. medidas de tP (tempo-posição) ou tPVA (time-posição-velocidade- atitude) da trajetória das aeronaves.
[109] A utilização de medidas do item 3 acima (medição fotogramétrica de pontos e de escala) requer um novo tipo de equação de observação de colinearidade que será chamado de equação de observação de colinearida e escala
Figure img0001
onde
Figure img0002
as coordenadas terrestres desconhecidos do KGCP
Figure img0003
sao os parâmetros desconhecidos de orientaço exterior da imagem i do SubSiStema de SenSoriamento remoto da aeronave,
Figure img0004
. M são as coordenadas de imagem e medições de eScala e SeuS reSíduoS correSpondenteS do ponto obServado p na imagen i , e- f é a constante, conhecida, da câmera que adquiriu a imagen i.
[110] A utilização de medidas do item 5 acima - coordenadas dos KGCPs - requer dois tipos de equações de observação; uma equação padrão
Figure img0005
e uma nova equação para essas sub-trajetórias do veículo terrestre em desfiladeiros urbanos ou naturais onde as medições GNSS podem ser afetadas por oclusões e erros de multipercurso dos sinais GNSS
Figure img0006
Onde
Figure img0007
sao as coordenadas terrestres desconhecidos do KGCP p,
Figure img0008
são as coordenadas conhecidas e reíduo deonhecidos das medições KGCP, e
Figure img0009
são os parâmetros de deslocamento do veículo terrestre (TV) desconhecidos que modelam o deslocamento do sub-trajetória afetada por problemas e erros nos sinais GNSS.
[111] Os parâmetros de deslocamento ( S’A . S’/, )'" do veículo terrestre desconhecidos modelam o erro de posicionamento de uma parte da trajetória do veículo terrestre definida por um intervalo de tempo e, portanto, eles estão associados aos dois instantes de tempo [ti e t2]. O número de parâmetros n de deslocamento
Figure img0010
e os seus intervalos de tempo associados
Figure img0011
são definidos por um operador humano aós inseção dos resultados da determinação inicial da trajetória do veículo terrestre.
[112] A orientação integrada de sensores (ISO) é um método fotogramétrico adrão que nesta concretização da invenção com a adição das medições e dos modelos de equações (i) e (3).
[113] Aós esta etapa, os sensores de imagem da carga útil de sensoriamento remoto são declarados otimamente orientados e calibrados.
[114] Uma quinta etapa é a melhoria da determinação da trajetória do veículo terrestre. Nesta concretização da invenção a trajetória do veículo terrestre determinada na primeira etapa é corrigida usando os parâmetros de deslocamento estimados na quarta etapa. Para esta finalidade, a primeira etapa é repetida e as medições GNSS - medições de rango ou fase da portadora - ou as medições derivadas de GNSS -medições (coordenadas) de pontos de controle - correspondentes às sub-trajetórias definidas por^
Figure img0012
são substituídas pelas medições de pontos de controle cinemáticos obtidas pela soma dos deslocamentosi
Figure img0013
-obtidos na quarta etapa - e as coordenadas dos pontos de controle cinemáticos originais das correspondentes sub-trajetórias.
[115] Após esta etapa, a trajetória tPVA do veículo terrestre é declarada otimamente estimada.
[116] Uma sexta etapa é a orientação dos sensores de mapeamento do veículo terrestre. Na etapa anterior, uma trajetória tPVA melhorada para o veículo terrestre é determinada. Essa trajetória é agora usada para atribuir posições, velocidades e atitudes para os sensores do subsistema de sensoriamento remoto do veículo terrestre remoto. Isto é chamado "transferência da trajetória tPVA aos sensores".
[117] Em outras palavras, nesta última etapa, a trajetória tPVA melhorada determinada na etapa anterior é transferida para os sensores da carga útil de sensoriamento remoto (RSP) do veículo terrestre (TV); isto é, a posição, a velocidade e a atitude do referencial de navegação do veículo terrestre são transferidas aos sensores da carga útil de sensoriamento remoto com a ajuda da orientação relativa conhecida entre o referencial de navegação do veículo e o referencial de cada sensor.
[118] Após esta etapa, os sensores da carga útil de sensoriamento remoto do veículo terrestre são declarados otimamente orientados.
[119] Para concluir a operação desta concretização (mapKITE), os resultados alcançados são a melhor estimativa dos parâmetros de orientação e calibração de todas as imagens de carga útil de sensoriamento remoto e da trajetória do veículo terrestre.

Claims (14)

1. Método para a aquisição e pós-processamento de informação geográfica de uma trajetória, o método compreendendo as etapas de:a) aquisição de dados geográficos e informações por meio de uma pluralidade de sensores de um veículo terrestre;b) envio de informações trajetória do veículo terrestre para uma aeronave não tripulada, de uma estação de controle hospedada no veículo terrestre, a cada certo período de tempo, em que o período de tempo é um parâmetro de projeto;c) quando a aeronave recebe a informação de trajetória do veículo terrestre, a aeronave determina a sua trajetória de acordo com a informação de trajetória do veículo terrestre recebida;d) aquisição de dados e informações geográficas, incluindo imagens, por meio de uma pluralidade de sensores da aeronave; e após a fase de aquisição, o método é caracterizado por uma fase de pós-processamento compreendendo as etapas de:e) i ntrodução, em um módulo de pós-processamento, dos dados e a informação geográfica adquirida nas etapas anteriores, que compreende imagens adquiridas pelas aeronaves, informações geográficas previamente conhecidas, as coordenadas dos pontos de controle cinemáticos associados ao centro de um alvo no teto do veículo terrestre, coordenadas de imagem e fator de escala dos pontos de controle cinemáticos associados ao referido alvo no teto do veículo terrestre;f) identificação de um mesmo elemento de solo em diferentes imagens obtidas pelo sensor de imagem da aeronave e medição da sua coordenada de imagem;g) obtenção, no módulo de pós-processamento, da orientação de ambos os sensores de veículo terrestre e aeronaves de acordo com as entradas da etapa e) e etapa f);h) calibragem, no módulo de pós-processamento, dos sensores de ambos veículo terrestre e aeronaves de acordo com as entradas da etapa e) e etapa f);i) associação de cada imagem obtida com a orientação e calibração obtida nas etapas g) e h), respectivamente.
2. Método, de acordo com a reivindicação 1, caracterizado por o ponto de controle cinemático associado ao veículo terrestre compreender ainda valores de tamanho e forma conhecidos, sobre o teto do veículo terrestre, cujas coordenadas terrestres são computadas e cujas coordenadas de imagem e o fator de escala são medidos nas imagens adquiridas
3. Método, de acordo com a reivindicação 2, caracterizado por ainda obter a orientação e calibrar os sensores da aeronave compreendendo ainda a utilização de posicionamento, atitude, forma e tamanho das figuras geométricas sobre o teto do veículo terrestre.
4. Método, de acordo com a reivindicação 1, caracterizado por pontos de controle cinemáticos associados ao veículo terrestre compreenderem ainda alvos de calibração radiométrica no teto do veículo terrestre para ser usado para modelagem radiométrica e calibração radiométrica dos sensores.
5. Método, de acordo com qualquer uma das reivindicações 1 a 4, caracterizado por as imagens serem adquiridas com etiquetas de tempo.
6. Método, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado por a informação geográfica compreender informações de navegação.
7. Método, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado por a aeronave seguir a mesma trajetória que o veículo terrestre com um deslocamento espacial e temporal, onde o tempo de atraso e um vetor de diferença entre a aeronave e o veículo terrestre é um parâmetro de projeto que pode variar com o tempo de acordo com as ordens de um operador.
8. Método, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado por compreender ainda analisar os dados e informação geográfica obtidos pela pluralidade de sensores do veículo terrestre de acordo com padrões de erro e causas conhecidas de erros para identificar os erros sistemáticos ou a existência potencial de erros sistemáticos em uma trajetória computada do veículo terrestre.
9. Método, de acordo com a reivindicação 8, caracterizado por quando um possível erro sistemático ser identificado, a informação adquirida pela trajetória do veículo terrestre é corrigida pelos dados geográficos e informação adquiridas pela aeronave e a sua formação.
10. Método, de acordo com qualquer uma das reivindicações 1 a 9, caracterizado por compreender ainda o veículo terrestre a aeronave e a aquisição dos dados e informações geográficos simultaneamente.
11. Sistema de aquisição e de pós-processamento de informação geográfica de uma via, o sistema é caracterizado por compreender:- um veículo terrestre equipado com uma pluralidade de sensores para a aquisição de dados geográficos e informações por meio de uma pluralidade de sensores; e envio de informações de trajetória do veículo terrestre a uma aeronave não tripulada, de uma estação de controle da aeronave hospedada no veículo terrestre, a cada certo período de tempo, em que o período de tempo é um parâmetro de projeto;- uma aeronave não tripulada em comunicação com o veículo terrestre, equipado com uma pluralidade de sensores, que, quando a aeronave recebe a informação de trajetória do veículo terrestre, a aeronave determinar a sua trajetória de acordo com a informação de trajetória do veículo terrestre recebido, e a aquisição de dados geográficos e informações, incluindo imagens, por meio de uma pluralidade de sensores da aeronave;- um módulo de pós-processamento configurado para:- receber como entrada os dados geográficos e informações adquiridas pelo veículo terrestre e a aeronave, que compreende informação geográfica previamente conhecida, as coordenadas do solo dos pontos de controle cinemáticos terrestres associadas a um alvo do teto do veículo terrestre, e as coordenadas de imagem e fatores de escala do referido alvo do teto; - identificação de um mesmo elemento em diferentes imagens adquiridas pelo sensor de imagem da aeronave e medindo suas coordenadas de imagem e recebendo ainda essas medidas como entrada para o módulo de processamento;- obtenção da orientação de ambos os sensores de veículo terrestre e aeronaves de acordo com as entradas recebidas;- calibragem dos sensores de ambos veículo terrestre e aeronaves de acordo com as entradas recebidas;- associação de cada imagem adquirida com a orientação e calibração obtida.
12. Sistema, de acordo com a reivindicação 11, caracterizado por a aeronave compreender ainda sensores de imagem.
13. Sistema, de acordo com a reivindicação 12, caracterizado por o veículo terrestre compreender ainda figuras geométricas no teto do veículo terrestre.
14. Sistema, de acordo com qualquer uma das reivindicações 11 a 13, caracterizado por o veículo terrestre compreender ainda sensores de imagem.
BR112015001737-1A 2012-07-26 2013-07-22 Método para aquisição e processamento de informações geográficas de uma trajetória. BR112015001737B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ES201231200A ES2394540B1 (es) 2012-07-26 2012-07-26 Procedimiento para la adquisición y procesamiento de información geográfica de un trayecto
ESP201231200 2012-07-26
PCT/EP2013/065401 WO2014016240A1 (en) 2012-07-26 2013-07-22 Method for the acquisition and processing of geographical information of a path

Publications (2)

Publication Number Publication Date
BR112015001737A2 BR112015001737A2 (pt) 2017-07-04
BR112015001737B1 true BR112015001737B1 (pt) 2021-11-16

Family

ID=47528706

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015001737-1A BR112015001737B1 (pt) 2012-07-26 2013-07-22 Método para aquisição e processamento de informações geográficas de uma trajetória.

Country Status (5)

Country Link
US (1) US9477230B2 (pt)
EP (1) EP2877904B1 (pt)
BR (1) BR112015001737B1 (pt)
ES (1) ES2394540B1 (pt)
WO (1) WO2014016240A1 (pt)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9621258B2 (en) * 2014-02-26 2017-04-11 Kutta Technologies, Inc. Bi-directional communication for control of unmanned systems
JP6124384B2 (ja) * 2014-05-30 2017-05-10 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人機の進行方向の作成方法、システム、及びプログラム
US9482552B2 (en) * 2014-06-23 2016-11-01 Ge Aviation Systems Llc Method of simulating a real-time aircraft system input to an avionics component
WO2016131005A1 (en) 2015-02-13 2016-08-18 Unmanned Innovation, Inc. Unmanned aerial vehicle sensor activation and correlation
US10017249B1 (en) * 2015-08-21 2018-07-10 Aevena, Inc. Ducted rotor unmanned aerial vehicles
CN105318888B (zh) * 2015-12-07 2018-08-14 北京航空航天大学 基于无人机感知的无人驾驶车辆路径规划方法
US9592912B1 (en) 2016-03-08 2017-03-14 Unmanned Innovation, Inc. Ground control point assignment and determination system
US10262546B2 (en) * 2016-04-13 2019-04-16 Ge Aviation Systems Llc Aircraft navigation using exponential map
CN111108342B (zh) * 2016-12-30 2023-08-15 辉达公司 用于高清地图创建的视觉测程法和成对对准
US11086337B2 (en) 2017-06-20 2021-08-10 Planck Aerosystems Inc. Systems and methods for charging unmanned aerial vehicles on a moving platform
US11367361B2 (en) * 2019-02-22 2022-06-21 Kyndryl, Inc. Emulating unmanned aerial vehicle (UAV)
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
CN111463570B (zh) * 2020-04-21 2021-09-10 上海京济通信技术有限公司 一种抗多径干扰无人系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5894323A (en) 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US7299130B2 (en) 2003-12-12 2007-11-20 Advanced Ceramic Research, Inc. Unmanned vehicle
US7302316B2 (en) * 2004-09-14 2007-11-27 Brigham Young University Programmable autopilot system for autonomous flight of unmanned aerial vehicles
US7418320B1 (en) * 2005-01-24 2008-08-26 International Business Machines Corporation Navigating a UAV having an on-board digital camera to capture desired geographic area
US20100250022A1 (en) * 2006-12-29 2010-09-30 Air Recon, Inc. Useful unmanned aerial vehicle
US8718838B2 (en) * 2007-12-14 2014-05-06 The Boeing Company System and methods for autonomous tracking and surveillance
US8244469B2 (en) * 2008-03-16 2012-08-14 Irobot Corporation Collaborative engagement for target identification and tracking
JP5690539B2 (ja) * 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
US8611692B2 (en) * 2011-09-26 2013-12-17 Northrop Grumman Systems Corporation Automated image registration with varied amounts of a priori information using a minimum entropy method
TW201328344A (zh) * 2011-12-27 2013-07-01 Hon Hai Prec Ind Co Ltd 控制無人飛行載具進行影像採集的系統及方法

Also Published As

Publication number Publication date
US20150192928A1 (en) 2015-07-09
WO2014016240A1 (en) 2014-01-30
EP2877904B1 (en) 2019-07-03
ES2394540B1 (es) 2013-12-11
EP2877904A1 (en) 2015-06-03
ES2394540A1 (es) 2013-02-01
US9477230B2 (en) 2016-10-25
BR112015001737A2 (pt) 2017-07-04

Similar Documents

Publication Publication Date Title
BR112015001737B1 (pt) Método para aquisição e processamento de informações geográficas de uma trajetória.
Nex et al. UAV for 3D mapping applications: a review
Rinaudo et al. Archaeological site monitoring: UAV photogrammetry can be an answer
Mian et al. Direct georeferencing on small unmanned aerial platforms for improved reliability and accuracy of mapping without the need for ground control points
KR100556103B1 (ko) 자동촬영시스템을 이용한 항공촬영방법
Ahmad et al. Digital aerial imagery of unmanned aerial vehicle for various applications
Rehak et al. Fixed-wing micro aerial vehicle for accurate corridor mapping
Chiabrando et al. Direct photogrammetry using UAV: tests and first results
Gabrlik The use of direct georeferencing in aerial photogrammetry with micro UAV
KR102075028B1 (ko) 무인기 고속비행 중 정밀위치 영상 획득 장치 및 그를 이용한 정밀위치 획득 방법
KR20110134076A (ko) 무인항공기의 자세 제어를 이용한 3d 공간정보구축 방법
Tahar Multi rotor UAV at different altitudes for slope mapping studies
RU2584368C1 (ru) Способ определения контрольных значений параметров пространственно-угловой ориентации самолёта на трассах и приаэродромных зонах при лётных испытаниях пилотажно-навигационного оборудования и система для его осуществления
Sužiedelytė Visockienė et al. Comparison of UAV images processing softwares
Tahar A new approach on slope data acquisition using unmanned aerial vehicle
Lo et al. The direct georeferencing application and performance analysis of uav helicopter in gcp-free area
Andert et al. Optical-aided aircraft navigation using decoupled visual SLAM with range sensor augmentation
Kawamura et al. Simulated vision-based approach and landing system for advanced air mobility
Zhou Geo-referencing of video flow from small low-cost civilian UAV
Andert et al. Improving monocular SLAM with altimeter hints for fixed-wing aircraft navigation and emergency landing
Hosseinpoor et al. Pricise target geolocation based on integeration of thermal video imagery and rtk GPS in UAVS
Hlotov et al. The study of the “Cetus” unmanned aerial vehicle for topographic aerial surveying
Suroso Analysis Of Mapping Multicopter Drones In The Entrance Area Of Prospective New Airports In Congot, Temon, Kulonprogo, Yogyakarta
US20190050001A1 (en) System and method for precise determination of a remote geo-location in real time
RU2583851C2 (ru) Беспилотный мобильный комплекс

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 22/07/2013, OBSERVADAS AS CONDICOES LEGAIS.