BR112019016526A2 - Método e sistema para calibrar um sistema de imagens - Google Patents

Método e sistema para calibrar um sistema de imagens Download PDF

Info

Publication number
BR112019016526A2
BR112019016526A2 BR112019016526-6A BR112019016526A BR112019016526A2 BR 112019016526 A2 BR112019016526 A2 BR 112019016526A2 BR 112019016526 A BR112019016526 A BR 112019016526A BR 112019016526 A2 BR112019016526 A2 BR 112019016526A2
Authority
BR
Brazil
Prior art keywords
light source
image data
structured light
image
wide
Prior art date
Application number
BR112019016526-6A
Other languages
English (en)
Inventor
Boyle Adrian
Flynn Michael
Original Assignee
Cathx Ocean Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cathx Ocean Limited filed Critical Cathx Ocean Limited
Publication of BR112019016526A2 publication Critical patent/BR112019016526A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

são fornecidos um método e sistema para calibrar parâmetros de um sistema de imagem compreendendo pelo menos um dispositivo de geração de imagens e fontes de luz amplas e estruturadas, compreendendo o método: pelo menos um dispositivo de geração de imagens capturando sequencialmente dados de imagem de fonte de luz ampla e dados de imagem de fonte de luz estruturada de uma ou mais cenas usando as fontes de luz amplas e estruturadas, respectivamente; gerar um modelo fotogramétrico dos dados da imagem da fonte de luz ampla e um modelo fotogramétrico dos dados da imagem da fonte de luz estruturada usando as respectivas coordenadas dos dados da imagem da fonte de luz ampla e estruturada; determinar as características correspondentes nos respectivos modelos fotogramétricos; resolução interativa de parâmetros do sistema de imagem para corrigir variações entre as características correspondentes nos respectivos modelos fotogramétricos, convergir os modelos e obter parâmetros de calibração; e aplicar os parâmetros de calibração ao sistema de imagem para compensar erros nas posições relativas do dispositivo de imagem e da fonte de luz estruturada.

Description

“MÉTODO E SISTEMA PARA CALIBRAR SISTEMA DE FORMAÇÃO DE IMAGEM” CAMPO [0001] A presente invenção é relacionada a calibragem de sistemas de formação de imagem, e especificamente à calibragem de partes de componente de um sistema de formação de imagem que compreende pelo menos um dispositivo de formação de imagem e fontes de luz ampla e estruturada.
ANTECEDENTE DA INVENÇÃO [0002] Pesquisa e inspeção é um componente significativo de muitas indústrias, tais como ciências marítimas e oceanográficas e indústrias. Por exemplo, em topografia submarina, custos consideráveis são incorridos em pesquisa e inspeção de estruturas artificiais tais como cascos de navios; óleo e tubulações de cabo; e plataformas petrolíferas que incluem plataformas petrolíferas associadas e risers. Há grande demanda em aprimorar a eficiência e eficácia e reduzir os custos dessas pesquisas. O crescente desenvolvimento de plataformas de perfuração petrolífera no fundo do mar e a necessidade de inspecionar e manter as mesmas provavelmente impulsionará a demanda para serviços de inspeção ainda mais. Inspeção óptica, tanto por observação humana como por análise humana de dados de vídeo e fotográficos, é necessária de modo a fornecer a resolução necessária para determinar sua saúde e situação.
[0003] Sistemas de laser em 3D submarinos de formação de imagem com o uso de triangulação de laser necessitam de calibragem precisa das posições relativas dos sistemas de laser e câmera de modo a computar a posição XYZ dos pontos de laser. [0004] Especificamente, a pré-calibragem de posições de componente limitou a capacidade de entregar precisão, exatidão e repetibilidade em aplicações de medição no mundo real devido a vários fatores que causam desvio das posições ideais ou précalibradas.
[0005] Fatores específicos que causam o desvio de um sistema calibrado no ar ou na água incluem o seguinte:
[0006] O movimento mecânico de um ou mais elementos causa desvios substanciais aos parâmetros de calibragem. Em um ambiente submarino, esse
Petição 870190093681, de 19/09/2019, pág. 7/43
2/22 movimento mecânico pode ser devido a torção, expansão térmica, contração ou a influência de pressão em alojamentos, movimentos de elemento óptico interno. Adicionalmente a isso, a salinidade, termoclinas e desvios locais nos índices refrativos da água podem ter, todos, um impacto substancial na exatidão final e repetibilidade de medição.
[0007] Sobre a água, a pressão de ar reduzida, o ar mais frio e os efeitos atmosféricos devido ao calor e à densidade do ar têm um impacto substancial na exatidão.
[0008] Em vista do supracitado, há uma necessidade de fornecer um método e sistema para calibrar sistemas de formação de imagem.
DESCRIÇÃO RESUMIDA [0009] De acordo com a presente revelação, é fornecido um método conforme detalhado na reivindicação 1. É também fornecido um sistema de acordo com a reivindicação 16. Recursos vantajosos são citados nas reivindicações dependentes.
[0010] A presente revelação aborda os problemas associados a desvios nos conjuntos de componentes de sistemas de formação de imagem. Para solucionar esse problema, dados de imagem podem ser processados após a coleta para remover esses efeitos. Potencialmente, os dados podem ser processados quase em tempo real para fornecer medição imediata, ou após a coleta e armazenamento em um tempo posterior, os dados podem ser processados para estabelecer parâmetros de calibragem que consideram esses desvios.
[0011 ] As técnicas descritas no presente documento permitem que esses cálculos sejam realizados com o uso de sistemas de formação de imagem a laser e óptico sequencial e de modo duplo.
BREVE DESCRIÇÃO DOS DESENHOS [0012] O presente pedido será agora descrito em referência aos desenhos.
[0013] A Figura 1 ilustra um layout típico de um sistema de formação de imagem sequencial.
[0014] A Figura 2 mostra uma imagem de linha de laser típica.
[0015] A Figura 3 é uma cena simples com algum relevo em 3D.
Petição 870190093681, de 19/09/2019, pág. 8/43
3/22 [0016] A Figura 4 mostra uma sequência de amostra de imagens de luz branca e imagens de laser em 3D em um sistema de formação de imagem para capturar a cena da Figura 3.
[0017] A Figura 5 é uma vista em 3D que mostra a captura de imagem da cena da Figura 3 em uma vista em 3D com um sistema Cartesiano XYZ.
[0018] A Figura 6 ilustra um processo de obtenção de parâmetros de calibragem com o uso de calibração fotogramétrica, de acordo com uma modalidade da presente revelação.
[0019] A Figura 7 ilustra um processo de obtenção de parâmetros de calibragem com o uso de calibragem baseada em visão mecânica em 2D, de acordo com uma modalidade da presente revelação.
[0020] A Figura 8 ilustra um exemplo de detecção de elemento característico de visão mecânica em 2D baseada em imagem.
[0021] As Figuras 9 e 10 ilustram a localização de elementos característicos em dados de laser com o uso de visão mecânica em 3D.
[0022] A Figura 11 ilustra uma comparação na posição entre elementos característicos correspondentes em dois conjuntos de dados de imagem.
[0023] A Figura 12 ilustra um processo simples para corregistrar múltiplas câmeras em um espaço coordenado comum.
[0024] A Figura 13 é um diagrama de blocos que ilustra uma configuração de um sistema para calibrar parâmetros de um sistema de formação de imagem, de acordo com uma modalidade da presente revelação.
DESCRIÇÃO DETALHADA DOS DESENHOS [0025] A presente revelação fornece um método e sistema para compensar desvios em sistemas de formação de imagem.
[0026] Especificamente, um método e sistema é fornecido para obter parâmetros de calibragem para um sistema de formação de imagem sequencial que compreende pelo menos um dispositivo de formação de imagem e fontes de luz ampla e estruturada.
[0027] É fornecido abaixo uma breve discussão sobre uma parte da terminologia
Petição 870190093681, de 19/09/2019, pág. 9/43
4/22 que será usado nesta descrição.
[0028] Processamento em Máquina: O processamento geral de imagens e conjuntos de dados em nuvem de ponto. O termo é um termo generalista que cobre, porém sem limitação, processamento de imagem, visão computacional, visão mecânica e aprendizado por máquina.
[0029] Processamento de imagem: Extrair informações de imagens, distribuição de luz, cor, nitidez, etc. de modo a determinar a qualidade da imagem e para identificar mudanças em comparação a outras imagens.
[0030] Visão em Computador: Começa com a detecção de objetos, bordas ou elementos característicos em uma imagem ou grupo de imagens. A mesma uma ação direta com o uso de dados de processamento de imagem também, mas particularmente encontrando transações de cor, nitidez ou intensidade, por exemplo, em imagens para encontrar eventos ou para classificar objetos. (Detectores de bolha, detectores de borda, etc.) [0031] Visão em Máquina: Tomado ao seu objetivo final, a visão mecânica leva informações de processamento de imagem e processamento de visão computacional e usa o mesmo para adaptar a aquisição de imagens para alterar os valores medidos. Ou seja, a máquina está no controle da aquisição real de modo que se algo mudar, a mesma possa adaptar.
[0032] Aprendizado por Máquina: é uma etapa adicional pelo fato de que objetos são classificados com base em análise de muitos objetos similares.
[0033] Há uma falta de clareza em geral entre visão mecânica e aprendizado por máquina. Para os propósitos do presente pedido, o aprendizado por máquina é incluído na definição de processamento em máquina.
[0034] Processamento em máquina 2D: Consultar processamento geral de informações em 2D conforme descrito acima.
[0035] Processamento em máquina 3D: Consultar processamento geral de informações de 3D em muito do mesmo modo como (2D) acima.
[0036] Nuvens de ponto de laser 3D podem ser gerados a partir de múltiplas aquisições de laser. Cada aquisição forma uma fatia em 2D que descreve o formato
Petição 870190093681, de 19/09/2019, pág. 10/43
5/22 do objeto formado de imagem pelo laser. Para a análise de cada uma dessas fatias, a fatia pode ser reduzida a um grupo de estatísticas, isto é, mínimo, máximo, médio, desvio padrão, etc. e realizar grande análise estatística em escala através de um conjunto de dados 3D inteiro. Alternativamente, análise de formato/geométrico pode ser realizada em cada fatia completa para identificar objetos, tais como tubos.
[0037] Visão em Máquina 3D: Uso de modelos 3D/nuvens de pontos para reconhecer objetos e extrair informações de medição, por exemplo, distâncias de borda a borda automaticamente extraídas de uma estrutura. Encaixar um círculo a uma tubulação, encontrar a altura de um objeto al lado de um tubo, etc.
[0038] A presente revelação fornece um método para calibrar parâmetros de um sistema de formação de imagem que compreende pelo menos um dispositivo de formação de imagem e fontes de luz ampla e estruturada, sendo que o método compreende: o pelo menos um dispositivo de formação de imagem que captura sequencialmente dados de imagem de fonte de luz ampla e dados de imagem de fonte de luz estruturada de uma ou mais cenas com o uso das fontes de luz ampla e estruturada, respectivamente; gerar um modelo fotogramétrico dos dados de imagem de fonte de luz ampla e um modelo fotogramétrico dos dados de imagem de fonte de luz estruturada com o uso de respectivas coordenadas dos dados de imagem de fonte de luz ampla e estruturada; determinar elementos característicos correspondentes nos respectivos modelos fotogramétricos; solucionar iterativamente parâmetros do sistema de formação de imagem para corrigir variações entre elementos característicos correspondentes nos respectivos modelos fotogramétricos, convergir os modelos e obter parâmetros de calibragem; e aplicar os parâmetros de calibragem ao sistema de formação de imagem para compensar erros nas posições relativas do dispositivo de formação de imagem e fonte de luz estruturada.
[0039] Coordenadas e especificamente coordenadas dos dados de imagem de fonte de luz ampla e estruturada, consultar a posição relativa (em comparação a outras imagens) ou posição absoluta (na Terra) dos dados de imagem, (por exemplo, coordenadas Cartesianas ou coordenadas polares que mostram posições).
[0040] A Figura 1 ilustra um layout típico de um sistema de formação de imagem
Petição 870190093681, de 19/09/2019, pág. 11/43
6/22 sequencial 100. Em referência à Figura 1, o sistema 100 inclui uma fonte de luz ampla 110, uma fonte de luz estruturada 120 e um dispositivo de formação de imagem 130 tal como uma câmera. A fonte de luz ampla 110 pode compreender uma fonte de luz branca. A fonte de luz estruturada 120 pode compreender uma fonte de luz laser. O termo ‘fonte de luz estruturada’ pode ser entendido para se referir a uma fonte de luz que produz um feixe que tem um formato, estrutura, disposição ou configuração definida. Isso não inclui luz que fornece iluminação geralmente ampla ou larga, tal como uma fonte de luz branca. De modo similar, uma ‘fonte de luz estruturada’ pode ser entendida a se referir a uma fonte de luz adaptada para gerar tal feixe. Tipicamente, um feixe de luz estruturada é derivado de um laser, mas pode ser derivado de outros modos. Para facilidade de explicação, uma fonte de luz laser será descrita como uma fonte de luz estruturada por toda a presente revelação.
[0041 ] O dispositivo de formação de imagem 130 pode ser configurado para lançar laser e imagens de luz branca em uma sequência definida. A fonte de luz ampla 120 pode ser configurada para projetar um leque de luz 125 em um ângulo ao dispositivo de formação de imagem 130. Esse leque de luz 125 preenche tipicamente o campo de vista horizontal do dispositivo de formação de imagem 130 e quaisquer objetos que o leque de luz 125 cruza são formados de imagens pelo dispositivo de formação de imagem 130 e seu formato pode ser determinado.
[0042] Devido à natureza sequencial da formação de imagem, a fonte de luz ampla 120 é desligada quando o laser está sendo capturado. A Figura 2 mostra uma imagem de linha de laser típica. Em referência à Figura 2, a imagem de linha de laser é obtida a partir de um laser que atinge dois tubos situados em um leito marinho. A imagem na Figura 2 é uma captura de faixe de laser. Um sistema de formação de imagem a laser captura tipicamente 30 a 60 de tais imagens por segundo. Tais imagens a laser podem ser processadas em 3 linhas dimensionais que são referenciadas somente à câmera. Desse modo, os dados de 3D precisam ser posicionados no espaço no mundo real por dados de navegação que rastreia a trajetória de deslocamento da câmera à medida que os dados de laser são adquiridos.
[0043] Em referência à Figura 2, todos os pontos extraídos da imagem podem ser
Petição 870190093681, de 19/09/2019, pág. 12/43
7/22 computados a uma coordenada X, Y & Z relativa à câmera.
[0044] Conforme mencionado acima, triangulação de laser pode ser usada para computar a posição XYZ dos pontos de laser. A triangulação de laser necessita de calibragem precisa das posições relativas dos sistemas de laser e câmera de modo a computar a posição XYZ dos pontos de laser. Devido ao fato de que o vetor de imagem de câmera e o plano de laser são triangulados, é importante determinar exatamente as posições relativas dos sistemas de laser e câmera.
[0045] O laser pode ser posicionado de acordo com o projeto de sistema e sua posição é conhecida a >95% de exatidão. Isso é determinado tanto ao layout de projeto ou algumas medições rudimentares e, em alguns casos, a exatidão pode ser muito maior. A posição de laser tem três parâmetros, conforme ilustrado na Figura 1. [0046] ‘D’ é a distância do eixo geométrico óptico do dispositivo de formação de imagem ao plano de laser. Essa medição é tomada no plano da porta plana de entrada de câmera, ‘Θ’ é o ângulo do plano de laser ao plano de porta plana de dispositivo de formação de imagem, e ‘β’ é a distorção no plano de laser. Em um sistema convencional, isso se aproxima de zero graus conforme praticamente possível [0047] No espaço de câmera, o plano de laser pode ser expresso na forma:
ax+by+cz+d=0 [0048] A equação de plano de laser acima é derivada dos ângulos relativos e deslocamento (‘D’, ‘0’,‘β’) do laser à câmera e usa o centro óptico de câmera como sua posição (0,0,0).
[0049] A separação de laser de câmera também pode ser definida como uma matriz de transformada que descreve os deslocamentos e rotações.
[0050] Cada ponto no sensor de câmera pode ser representado por um vetor de espaço 3D
X _ Y _Z x' y' 7
X, Y, e Z sendo as coordenadas relativas à câmera, em que f é o comprimento focal da câmera.
[0051] O ponto no espaço (X, Y, Z) é a interseção do vetor de espaço 3D e plano
Petição 870190093681, de 19/09/2019, pág. 13/43
8/22 de laser.
[0052] A calibragem da separação de câmera de laser envolve solucionar para (‘D’, ‘θ’/ β’).
PROCESSO DE CALIBRAGEM FOTOGRAMÉTRICO 3D USANDO VISÃO EM MÁQUINA 3D [0053] Um aspecto principal de como o processo de calibragem é alcançado é que ambos os dados de laser e imagens de luz branca em alta resolução são capturados. Tais sequência de captura de dados de imagem é tipicamente formada de imagem em uma câmera única em uma base de tempo muito exata.
[0054] Consequentemente, dois conjuntos de dados que compreendem imagens 3D de laser e imagens de luz branca podem ser obtidas. Um modelo fotogramétrico para as imagens de luz branca pode ser gerado. Desse modo, duas correntes paralelas de dados de 3D podem ser obtidas de modo eficaz. Ambos os conjuntos de dados não são inteiramente independentes entre si quando processados. Na maioria dos veículos, faixas de laser individuais podem ser posicionadas com o uso de dados de navegação de base inercial. No entanto, de acordo com uma modalidade da presente revelação, para maior exatidão posicionai, a pose fotogramétrica da câmera obtida a partir das imagens de luz branca pode ser usada para refinar isso em uma exatidão local muito maior. Será entendido que a combinação de posição e orientação é denominada como a pose de um objeto. A pose de câmera, no entanto, não tem escala inicialmente. Para escalonar os dados de pose, os dados de laser podem ser usados para variar e escalonar os dados de pose. Desse modo, em efeito, tanto as imagens 3D de laser quanto as imagens de luz branca auxiliam umas às outras a produzir dois conjuntos de dados de 3D. Ambos os conjuntos de dados são em um sistema de coordenadas Cartesianas 3D de local comum.
[0055] Passando-se uma cena interessante com muitos elementos característicos distintos, as técnicas de visão mecânica em 3D podem ser usadas para localizar elementos característicos em 3D comuns em cada conjunto de dados. Rastreando-se a diferença de posição de elemento característico entre cada conjunto de dados, o cálculo da equação de plano de laser descrita acima pode ser iterada para convergir
Petição 870190093681, de 19/09/2019, pág. 14/43
9/22 os dois conjuntos de dados.
[0056] Para representar isso visualmente, considerar um cena simples com algum relevo em 3D, conforme ilustrado na Figura 3. A cena ilustrada na Figura 3 pode ser formada de imagem em uma sequência simples com uma combinação de imagens de luz branca e imagens de laser em 3D, conforme ilustrado na Figura 4 que mostra uma sequência de captura de amostra dos tipos de imagem descritos acima. A Figura 5 é uma vista em 3D que mostra a captura de imagem em uma vista em 3D com um sistema Cartesiano XYZ.
[0057] Com a sequência de imagens capturada conforme descrito acima, os dados de imagem podem ser processados a seguir e conforme ilustrado na Figura 6, de acordo com uma modalidade da presente revelação. A Figura 6 ilustra um processo de obtenção de parâmetros de calibragem com o uso de calibração fotogramétrica, de acordo com uma modalidade da presente revelação. Em referência à Figura 6, os dados de imagem compreendem dois conjuntos de dados, dados de imagem de luz branca 600 e dados de laser 650. Os dados de imagem de luz branca 600 podem ser processados para computar a pose de câmera raw 610, isto é, pose sem escala. A pose de câmera raw 610 pode ser obtida com o uso de algoritmos de detecção de elemento característico para encontrar elementos característicos de alinhamento comuns a uma sucessão sobreprojetante de imagens. Os dados de laser 650 podem ser aplicados para escalonar a pose 610 às posições de câmera relativas ao mundo real. Dessa maneira, a micronavegação de sistema 630 pode ser computada. Por clareza, a micronavegação se refere à capacidade de medir o movimento em rastreamento de uma câmera e, portanto, de um veículo no qual a câmera é instalada, precisamente à resolução milimétrica ou maior em todos os eixos geométricos. Em referência à Figura 6, a pose de câmera obtida a partir dos dados de imagem de luz branca pode ser usada para determinar a posição dos dados de laser 660.
[0058] As posições de câmera são então interpoladas. Devido ao fato de que o intervalo de tempo entre imagens estáticas é tipicamente várias centenas de milissegundos, o movimento de sistema é diretamente para computar. Por exemplo, em água, um veículo relativamente pesado com inércia relativamente significativa
Petição 870190093681, de 19/09/2019, pág. 15/43
10/22 pode permanecer em uma trajetória confinada. Esses dados podem ser suplementados com uma unidade de medição inercial (IMU).
[0059] Uma vez que as posições de câmera e laser são conhecidas, esses dados podem ser então usados para posicionar perfis em 3D de laser para gerar um modelo ou mapa em 3D.
[0060] Um modelo esparso pode ser gerado com base em vários milhares de elementos característicos comuns encontrados em cada imagem. Essa é uma forma muito leve de fotogrametria pelo fato de que o modelo é esparso e pode ser realizado rapidamente. Um objetivo da presente revelação é permitir a geração de modelo em tempo real.
[0061] Para determinar os parâmetros de calibragem corretos, elementos característicos óbvios em cada modelo podem ser correspondidos com o uso de visão mecânica em 3D. A variação na posição e tamanho do mesmo elemento característico de modelo de laser ao modelo de pose é causado por erros nos números de calibração. Solucionar iterativamente a posição de laser parâmetros (‘D’, ‘θ’,“ β’) 695 faz com que os dois conjuntos de dados de 3D convirjam. Medindo-se aproximadamente os valores antes da iteração, limites superior e inferior em cada valor podem ser definidos. Isso acelera o processo de iteração. Por exemplo, obter ‘D’ a ± 1 cm de seu valor nominal e ‘θ’ & ‘β’ a ± 2S é facilmente alcançável com ferramentas simples. Se o sistema for montado em um sistema de suporte projetado, esses valores podem ser recuperáveis a partir de um modelo de CAD.
[0062] O uso de um conjunto de dados significativo e comparar muitos ‘pares de elementos característicos’ 690 pode aumentar significativamente a exatidão do método de calibragem.
[0063] Encontrar elementos característicos em dados de laser em 3D é uma etapa de processamento eficiente 670. Isso pode ser usado para acionar fotogrametria seletiva 680 das áreas de elemento característico localizadas no modelo de pose. A fotogrametria não é um processo eficiente então a seleção de regiões de interesse 680 nos quais realizar fotogrametria 685 pode acelerar amplamente o processo geral. CALIBRAGEM BASEADA EM VISÃO EM MÁQUINA 2D
Petição 870190093681, de 19/09/2019, pág. 16/43
11/22 [0064] Um método ligeiramente alternativo e potencialmente mais simples envolve identificar um elemento característico nas imagens em 2D e comparar isso 790 a onde o elemento característico deve ser localizado no modelo 3D de laser. A Figura 7 ilustra um processo de obtenção de parâmetros de calibragem com o uso de calibragem baseada em visão mecânica em 2D, de acordo com uma modalidade da presente revelação. As referências numéricas 700,710,730,750, 760,770,790 e 795 na Figura 7 se referem aos elementos característicos correspondentes identificados respectivamente como 600, 610, 630, 650, 660, 670, 690 e 695 na Figura 6. Como as imagens e localizações de câmera (pose) estão no espaço Cartesiano que os dados de 3D de laser, erros devido à calibragem incorreta também mostrará se aqui quando o mesmo vetor é traçado nos dados de 3D de laser. O centroide de um elemento característico em 3D de laser pode ser posicionado na imagem calculando-se seu vetor à posição de câmera e com o uso do modelo de calibração de câmera para traçar esse vetor a uma localização de pixel. O centroide do elemento característico na imagem pode ser então comparado a sua posição aparente na projeção em 3D de laser. Em relação a isso, a Figura 8 ilustra um exemplo de detecção de elemento característico de visão mecânica em 2D baseada em imagem. Tomando o exemplo fotogramático anterior e executando visão mecânica em 2D 780 na cena localiza os elementos característicos conforme mostrado na Figura 8.
[0065] As Figuras 9 e 10 ilustram a localização de elementos característicos nos dados de laser com o uso de visão mecânica em 3D;
[0066] A Figura 11 ilustra uma comparação na posição entre elementos característicos correspondentes in dois conjuntos de dados de imagem que podem ser usados para iterar a solução da equação de plano de laser conforme descrito anteriormente.
[0067] A escolha como ao qual dos métodos descritos acima é usada pode depender amplamente do tipo de elemento característico e cena. Embora a versão de imagem em 2D possa ser mais rápida, a versão em 3D completa pode se provar mais robusta através de cenas variadas. Uma abordagem híbrida pode se provar útil em que um método mais rápido tal como a abordagem em 2D é usada para refinar o
Petição 870190093681, de 19/09/2019, pág. 17/43
12/22 modelo. Qualquer método permite-se realizar é reprocessar dados anteriormente adquiridos. A análise desses conjuntos de dados e comparação entre seu desempenho pode mostrar fraquezas e fortalecimentos de qualquer método.
DOIS OU MAIS SISTEMAS DE CÂMERA [0068] Em muitas circunstâncias, pode ser desejável usar um sistema de formação de imagem separado para formação de imagem de luz branca e formação de imagem de laser. Em alguns outros sistemas, múltiplas câmeras podem ser usadas para alcançar maiores campos de vista. Um elemento característico comum desses sistemas é que:
- as múltiplas câmeras estão em um sistema de formação de imagem sequencial compartilhado então bases de tempo são conhecidas através das câmeras de forma muito exata; e
- há normalmente sobreposição significativa entre sistemas de formação de imagem adjacentes.
[0069] A tarefa de calibragem compreende encontrar o seguinte:
1. As posições relativas de todas as câmeras no sistema,
2. Os parâmetros de calibragem de plano de laser a câmera a laser (‘D’, ‘θ’/ β’).
[0070] A Figura 12 ilustra um processo simples para corregistrar múltiplas câmeras em um espaço coordenado comum. Em referência à Figura 12, o sistema tem n múltiplas câmeras 1210a, 1210b a 121 On. O processo compreende sincronizar a aquisição de imagens das múltiplas câmeras, calcular a pose de cada câmera individual, e escalonar a pose com dados de laser a uma posição relativa ao mundo real de cada câmera. O processo pode ser conduzido por um conjunto de dados dimensionável para refinar a posição individual de cada câmera. O resultado pode aparecer como uma primeira câmera 1210a na origem e cada outra câmera em uma posição e orientação no espaço relativo à primeira câmera 1210a.
[0071] A escala também pode ser rapidamente encontrada conhecendo-se as posições relativas das câmeras. Isso pode ser fisicamente medido exatamente em muitos sistemas. Alternativamente, realizar a etapa descrita na Figura 12 no ar e ter
Petição 870190093681, de 19/09/2019, pág. 18/43
13/22 uma medição conhecida na cena permitirá uma fotogrametria aérea escalonada que revelará a translação física entre cada câmera. Tal separação não muda na água. A separação aplicada aos dados submarinos pode escalonar automaticamente dados extraídos de imagens com o uso de técnicas fotogramétricas. Quando esses dados são analisados em um dado índice refrativo, um conjunto de matrizes de transformada completa pode ser extraído que descreve o componente de translação e rotação entre as múltiplas câmeras. Rastrear essas transformadas em conjuntos de dados subsequentes mostrará uma mudança no índice refrativo à medida que os componentes rotacionais mostrarão mudança/erro uma vez que o índice muda e altera os comprimentos focais de sistema por sua vez.
CALIBRAGEM DE RASTREAMENTO [0072] Até agora, métodos para rastrear/medir o plano de laser à câmera a laser foram descritos. No centro de tudo isso, houve o pressuposto de que a calibragem intrínseca de câmera estava próxima de ser perfeita. Conforme mencionado anteriormente, muitos fatores podem influenciar a calibragem. Desses, as influências mais importantes que podem ser afetadas são:
1. índice refrativo de água (de mudanças de salinidade, temperatura da água, etc.),
2. Deformação devido a pressão em câmera alojamentos,
3. Temperatura interna da câmera,
4. Movimento relativo das câmeras em sua montagem devido às condições ambientais.
[0073] Algum controle pode ser alcançado sobre esses elementos. E esses elementos podem ser modelados. O movimento em uma armação submarina pode ser amplamente minimizado. A maior parte do projeto se mantém sob cargas hidroestáticas. Em pressão maior, uma deformação de módulo de volume pode ocorrer. Esse efeito pode ser rastreado em que um sistema trabalha em diferentes profundidades.
[0074] A temperatura interna pode frequentemente seguir a temperatura média da água, e desse modo, seu efeito pode ser facilmente modelado e dimensionado. A
Petição 870190093681, de 19/09/2019, pág. 19/43
14/22 temperatura interna das câmeras usadas nos sistemas de formação de imagem descrito no presente documento pode ser rastreada, então sua influência pode ser considerada. A deformação que move a porta de plano de câmera relativa à óptica interna afetará os números de calibração. A salinidade pode variar de região a região do mar significativamente e pode ter um efeito significativo na calibragem. Saber como a calibragem de câmera reage às mudanças de salinidade é importante visto que isso permite a iteração a esses parâmetros uma vez que uma mudança de salinidade é esperada.
[0075] Para rastrear uma calibragem, precisa-se de uma linha de base que pode ser baseada. Os elementos fixos mais consistentes são a posição relativa entre componentes tais como câmeras e lasers uma vez que as mesmas são aparafusadas no lugar. Onde uma calibragem relativa de múltiplas câmeras é realizada no ar ou na água, distâncias físicas entre as câmeras podem ser registradas. Essas distâncias podem ser tratadas conforme fixado. O rastreamento dos mesmos pode ser, portanto, alcançado com o uso do método de calibragem de câmera a câmera para rastrear suas posições relativas.
[0076] Onde o índice refrativo for o responsável percebido (isto é, onde a mudança aconteceu em uma profundidade de temperatura consistente) então os parâmetros de calibragem podem ser iterados para se fecharem nos números de posição de linha de base. Para os sistemas de câmera única, pode-se ainda rastrear o laser à calibragem de câmera para prever uma mudança ambiental que afetará a exatidão de calibragem. Uma vez que essa câmera para posição de laser foi calibrada, barrando a alteração física ao sistema, a mesma pode ser considerada fixada e usada como um meio para rastrear a calibragem de câmera.
AMBIENTE DE MEDIÇÃO [0077] Pode-se observar também que o processo de calibragem descrita no presente documento também pode fornecer informações acerca do ambiente. Uma medida desse índice refrativo é possível de modo que desvios de um tipo nas calibragens possam ser atribuídos a determinados valores para índice refrativo. Dado que essa temperatura da água pode ser facilmente medida a partir dos sensores
Petição 870190093681, de 19/09/2019, pág. 20/43
15/22 embutidos em dispositivos, tais como câmeras e outro hardware de veículo submarino e que há dados empíricos satisfatórios que ligam temperatura, índice refrativo, profundidade e salinidade, pode ser possível extrair as informações de salinidade dos dados ópticos.
[0078] Também de importância, é que as técnicas de calibragem descritas no presente documento podem ser usadas para medir “anomalias” locais tais como mudanças de calor locais. Especificamente, se um ambiente local é considerado como estável, mas onde mudanças ambientais locais se dão devido a, por exemplo, a uma quebra de isolamento de um tubo submarino, isso resulta em aquecimento local de água ou ar. Tais mudanças podem se manifestar como uma mudança de “calibragem.” Em efeito, isso permite que o sistema a ser usado para medir vazamentos de calor ou para permitir que dados adicionais sejam coletados onde tais “vazamentos” potências sejam identificados.
[0079] Para ambos os dados de laser e dados de imagem, intensidade e alcance à cena podem ser registrados com o uso de hardware de formação de imagem e iluminação controlados. Através de percurso por uma cena, o alcance varia naturalmente, e a intensidade varia também, exigindo frequentemente uma mudança nas propriedades de formação de imagem para manter a qualidade de imagem. A qualidade da água em termos de turbidez tem uma influência muito forte em transmissão de luz.
[0080] Isso é frequentemente denominado como:
/o — = e (ref Beer — Lambert) em que li é a potência de luz inserida, Io a potência de luz emitida reduzida, L o comprimento de trajetória e α uma medida do desenvolvimento de absorção A dessa teoria permite a mudança de intensidade para uma faixa à outra para extrair um número para o fator de absorção a. Além disso, ao capturar laser e imagens de luz branca, há um componente de ruído. A análise desses componentes de ruído junto com o número de absorção permite medição de turbidez direta. Isso pode ser ainda auxiliado realizando-se estrobificação de determinadas frequências de luz fixa para olhar em padrões de ruído em mudança. Mesmo luz azul, verde ou vermelha têm
Petição 870190093681, de 19/09/2019, pág. 21/43
16/22 comportamentos de dispersão e absorção muito diferentes. Isso também pode ser alcançado em uma sequência de formação de imagem sequencial sem afetar uma operação de pesquisa principal. Além disso, o conhecimento desses fatores pode ser usado para influenciar uma operação de pesquisa e parâmetros de sistema. Por exemplo, um aumento de absorção/turbidez pode diminuir a sensitividade de sistema e influência um pesquisador a talvez escolher um alcance de pesquisa mais próximo e velocidade mais lenta para manter a qualidade dos dados. Conforme as pesquisas se movem para o reino futuro de veículos não manipulados e residentes, tais técnicas suplementadas por algoritmos de aprendizado contínuo podem formar a base da inteligência artificial que os veículos precisarão para navegar em um ambiente em mudança constante [0081] Em termos da aquisição de imagens, as imagens de luz branca podem ser obtidas com o uso de pelo menos um dispositivo de aquisição de imagem adequado. Os dados de imagem brutos podem ser adquiridos de uma ou mais plataformas fixas ou em movimento com um ou mais dispositivos de aquisição de imagem. No contexto da presente revelação, os dados de imagem brutos se referem a imagens não processadas. Os mesmos podem ser formatos EAW (não comprimidos) ou comprimidos tais como JPEG, PNG e outros formatos padrão, por exemplo. Os dados de imagem podem compreender uma ou mais imagens estáticas ou uma sequência de vídeo de uma ou mais cenas. No contexto da presente revelação, imagens estáticas são imagens fotográficas, tipicamente digitais. A resolução das imagens estáticas é tipicamente maior do que vídeo, por exemplo 8, 12,5, ou 24 Megapixels (MP). Maior resolução não é necessária, no entanto. O projeto óptico é a chave para a aquisição de imagens estáticas ou de vídeo de alta qualidade. Dados de imagem brutos podem ter entradas de múltiplas câmeras ou ferramentas de sensores, em particular, em que as mesmas são ligadas por tempo ou outro aspecto, por exemplo, de outra máquina. As múltiplas imagens e medições podem ser adquiridas em uma localização geográfica comum e/ou ao mesmo tempo.
[0082] Os dados de imagem podem ser então processados com o uso de técnicas de visão mecânica. A visão mecânica pode ser usada para analisar as imagens
Petição 870190093681, de 19/09/2019, pág. 22/43
17/22 capturadas. Visão mecânica se refere à capacidade de uma máquina ou computador para extrair informações de uma imagem ou uma série de imagens e potencialmente sobre decisões de máquina de base nas informações extraídas. Dados de imagem estática ou dados de vídeo podem ser processadas AO VIVO e em tempo real. Alternativamente, dados de imagem podem ser armazenados em um banco de dados e processados offline com o uso de ferramentas de processamento de imagem e visão mecânica específicas seguindo armazenamento.
[0083] Técnicas de visão mecânica específicas incluem:
- Detecção de evento,
- Reconhecimento de objeto,
- Medição de objeto,
- Classificação de objeto,
- Correlação de imagem a imagem para pontos comuns,
- Medições e fluxo óptico,
- Correlação de Navegação.
[0084] Técnicas de visão mecânica podem ser empregadas para extrair dados relacionadas a uma cena representada pelos dados de imagem brutos. Ou seja, algoritmos de visão mecânica de visão mecânica podem ser usados para obter: uma descrição da cena e uma área dentro da cena, coordenadas de referência, posição, área, tamanho, objetos, eventos, e dados de cor. Técnicas de visão mecânica podem ser empregadas para formação de imagem sequencial: capturar imagens sob luz diferente (por exemplo, branco, UV, ou Laser), adicionando desse modo informações adicionais tais como eventos encontrados, e dados de telemetria tais como faixa ao objeto e tamanho de objeto. Dados em nuvem de ponto 3D que compreendem um conjunto de pontos podem ser extraídos de uma série de imagens de perfil de luz e mapeados no espaço para fornecer uma imagem em 3D total de uma cena. Uma nuvem de ponto 3D pode ser gerada com o uso de técnicas fotogramétricas com o uso de uma combinação de imagens estáticas e dados de nuvem de ponto.
[0085] Conforme denominado a acima, a funcionalidade de visão mecânica pode ser usada para detectar a escala da imagem. Fontes de luz fixadas podem ser
Petição 870190093681, de 19/09/2019, pág. 23/43
18/22 dispostas para fornecer iluminação paralela que serve como uma referência para calibrar o tamanho de campo que é formado de imagem. Preferencialmente, isso é realizado com o uso de um feixe de luz estruturada, por exemplo, um par de linhas paralelas de laser. As linhas de lasers estão em uma distância fixa conhecida. Portanto, comparando-se essa distância conhecida às imagens das linhas de laser capturadas como parte da formação de imagem sequencial, é possível deduzir a escala da imagem.
[0086] Funcionalidade de visão mecânica também pode deduzir o alcance dos objetos na cena a partir da câmera. Isso pode ser realizado de várias maneiras, descrito em relação ao uso de feixes de luz estruturados como parte da formação de imagem sequencial.
[0087] Visão mecânica também pode ser usada para detectar objetos dentro da cena. Por exemplo, realizando-se detecção de borda em uma imagem de luz branca, é possível detectar as bordas de objetos na imagem. A detecção de borda é uma ferramenta fundamental em visão mecânica, particularmente nas áreas de detecção de elemento característico e extração de elemento característico. Um algoritmo de detecção de borda pode compreender um conjunto de etapas matemáticas que visam identificar pontos em uma imagem digital nas quais o brilho de imagem muda acentuadamente ou, mais formalmente, tem descontinuidades. Os pontos nos quais o brilho de imagem muda acentuadamente são tipicamente organizados em um conjunto de segmentos de linha curvada denominados bordas.
[0088] A detecção de objeto é outra ferramenta útil de visão mecânica. A detecção de objeto pode ser usada para detectar determinados objetos que são esperados como presentes na imagem. Técnicas de visão mecânica podem detectar as imagens com os objetos que são contidos nos mesmos. Ademais, quando combinados com informações de localização quanto a onde a imagem foi capturada, é possível identificar exclusivamente o objeto particular identificado. Isso pode ser útil para comparações com imagens anteriores ou subsequentes.
[0089] Um objeto dentro de uma imagem pode ser automaticamente detectado, e designada uma probabilidade de que a mesma corresponda a um objeto conhecido
Petição 870190093681, de 19/09/2019, pág. 24/43
19/22 contido em uma biblioteca de objetos. Um dispositivo de aquisição de imagem por si só pode ter inteligência para mudar alguns parâmetros de iluminação ou aquisição de imagem para aprimorar essa probabilidade. Para uma imagem em alta resolução de 12,5 Megapixels, o objeto em questão pode ocupar somente 1 /20 dos pixels ou menos do que 5% do volume de dados.
[0090] Visão mecânica também pode ser usada para correlacionar imagens estáticas adjacentes em uma imagem estática combinada maior. Ou seja, técnicas de visão mecânica podem compreender correlacionar dados entre múltiplas imagens para permitir armazenamento, recuperação, e visualização de cada das imagens. Os dados de imagem brutos das múltiplas imagens podem compreender pelo menos um elemento característico comum entre pelo menos algumas das múltiplas imagens. Outra forma de processamento de visão mecânica envolve formação de mosaico. Um mosaico é um conjunto de imagens estáticas esticadas em conjunto para fornecer uma visão em 2D maior de uma cena. A formação de mosaico usa algoritmos de visão mecânica de visão mecânica e regras de mapeamento/mosaico para alinhar imagens estáticas e formar camadas de mosaico para apresentação em um aplicativo de sistema de informações geográficas (GIS) ou ferramenta de visualização. Outra técnica de visão mecânica pode envolver combinar aspectos de cada uma dentre uma pluralidade de imagens em uma captura de imagem sequencial para formar uma imagem emitida aumentada da cena.
[0091] Adicionalmente, através de com o uso de técnicas de visão mecânica, dados baseados em tempo e posição em objetos específicos pode ser usada para realizar comparações e analítica em eventos e objetos específicos.
[0092] A detecção de evento é outro tipo de técnica de visão mecânica. Em computação, um evento é relacionado como uma ação ou ocorrência reconhecida por software que pode ser gerenciada por software. A detecção de evento compreende identificar um evento dentro de uma imagem com o uso de algoritmos geométricos ou outras técnicas de medição. As técnicas pelas quais informações de evento podem ser identificadas nas imagens conforme descrito acima são conhecidas como visão mecânica, visão computacional ou processamento de imagem. Tais eventos podem
Petição 870190093681, de 19/09/2019, pág. 25/43
20/22 ser classificados e caracterizados.
[0093] A presente revelação fornece um método no qual desvios em parâmetros posicionais de um sistema de formação de imagem podem ser compensados com o uso de parâmetros de calibragem. Dados de imagem capturados podem ser processados quase em tempo real para fornecer as medições imediatas ou, após a coleta e armazenamento em um tempo posterior. Os dados de imagem podem ser processados para estabelecer os parâmetros de calibragem que consideram os desvios mencionados acima.
[0094] A presente revelação também fornece um sistema de formação de imagem que compreende: uma fonte de luz ampla; uma fonte de luz estruturada; pelo menos um dispositivo de formação de imagem configurados para capturar sequencialmente dados de imagem de fonte de luz ampla e dados de imagem de fonte de luz estruturada de uma ou mais cenas com o uso das fontes de luz ampla e estruturada, respectivamente, e pelo menos um processador configurado para realizar os métodos de processamento de dados de imagem descritos no presente documento.
[0095] A Figura 13 é um diagrama de blocos que ilustra uma configuração de um sistema 400 para calibrar parâmetros de um sistema de formação de imagem, de acordo com uma modalidade da presente revelação. O sistema 400 inclui vários componentes de hardware e software que funcionam para realizar os métodos de acordo com a presente revelação. Em referência à Figura 13, o sistema 400 compreende um módulo de formação de imagem 401 e um módulo de processamento de dados 402. O módulo de formação de imagem 401 compreende um módulo de luz 403 e um módulo de aquisição de imagem 404. O módulo de luz 403 pode compreender uma pluralidade de classes de luz, cada classe de luz tendo uma ou mais fontes de luz diferentes conforme descrito acima. Um módulo de aquisição de imagem 404 compreende um ou mais dispositivos de aquisição de imagem tais como câmeras. Os dados de imagem brutos podem ser capturados a partir de uma ou mais plataformas fixas ou em movimento com o um ou mais dispositivos de aquisição de imagem.
[0096] O módulo de processamento de dados 402 inclui processamento em
Petição 870190093681, de 19/09/2019, pág. 26/43
21/22 máquina, funcionalidade de visão mecânica e capacidade armazenamento de dados, conforme descrito acima. O módulo de processamento de dados 402 é configurado para realizar os métodos de processamento de dados de imagem descritos no presente documento. Em uso, imagens são capturadas pelo módulo de formação de imagem 401 e processados pelo módulo de processamento de dados 402. Em referência à Figura 13, o módulo de processamento de dados 402 compreende uma interface de usuário 410, um processador 420 em comunicação com uma memória 450, e uma interface de comunicação 430. O processador 420 funciona para executar instruções de software que podem ser carregados e armazenados na memória 450. O processador 420 pode incluir vários processadores, um núcleo de múltiplos processadores, ou algum outro tipo de processador, dependendo da implantação particular. A memória 450 pode ser acessível pelo processador 420, permitindo assim que o processador 420 receba e execute instruções armazenadas na memória 450. A memória 450 pode ser, por exemplo, uma memória de acesso aleatório (RAM) ou qualquer outro meio de armazenamento legível em computador volátil ou não volátil adequado. Adicionalmente, a memória 450 pode ser fixada ou removível e pode conter um ou mais componentes ou dispositivos tais como uma disco rígido, uma memória flash, uma disco óptico regravável, uma fita magnética regravável, ou alguma combinação dos supracitados.
[0097] Um ou mais módulos de software 460 podem ser codificados na memória 450. Os módulos de software 460 podem compreender um ou mais programas ou aplicativos de software 461 e 462 que tem código de programa de computador ou um conjunto de instruções configuradas para serem executadas pelo processador 420. Tal código de programa de computador ou instruções para realizar operações para aspectos dos sistemas e métodos revelados no presente documento podem ser gravados em qualquer combinação de uma ou mais linguagens de programação.
[0098] Outras informações e/ou dados relevantes à operação do presente sistema e métodos, tais como um banco de dados 470, também podem ser armazenados na memória 450. O banco de dados 470 pode conter e/ou manter vários itens de dados e elementos que são utilizados por todas as várias operações do método e sistema
Petição 870190093681, de 19/09/2019, pág. 27/43
22/22 descritos acima.
[0099] As palavras “compreende/compreender”, quando usadas neste relatório descritivo, são para especificar a presença de elementos característicos, inteiros, etapas ou componentes declarados, mas não impede a presença ou adição de um ou mais outros elementos característicos, inteiros, etapas, componentes ou grupos dos mesmos.

Claims (18)

  1. REIVINDICAÇÕES
    1. Método para calibrar parâmetros de um sistema de formação de imagem que compreende pelo menos um dispositivo de formação de imagem e fontes de luz ampla e estruturada, o método caracterizado por compreender:
    o pelo menos um dispositivo de formação de imagem que captura sequencialmente dados de imagem de fonte de luz ampla e dados de imagem de fonte de luz estruturada de uma ou mais cenas com o uso das fontes de luz ampla e estruturada, respectivamente;
    gerar um modelo fotogramétrico dos dados de imagem de fonte de luz ampla e um modelo fotogramétrico dos dados de imagem de fonte de luz estruturada com o uso de respectivas coordenadas dos dados de imagem de fonte de luz ampla e estruturada;
    determinar elementos característicos correspondentes nos respectivos modelos fotogramétricos;
    resolver iterativamente parâmetros do sistema de formação de imagem para corrigir variações entre elementos característicos correspondentes nos respectivos modelos fotogramétricos, convergir os modelos e obter parâmetros de calibragem; e aplicar os parâmetros de calibragem ao sistema de formação de imagem para compensar erros nas posições relativas do dispositivo de formação de imagem e da fonte de luz estruturada.
  2. 2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que a fonte de luz ampla compreende uma fonte de luz branca.
  3. 3. Método, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que a fonte de luz estruturada compreende uma fonte de laser.
  4. 4. Método, de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo fato de que compreende:
    determinar dados posicionais do dispositivo de formação de imagem e da fonte de luz estruturada quando os dados de imagem de fonte de luz ampla e estruturada forem capturados; e
    Petição 870190093681, de 19/09/2019, pág. 29/43
    2/4 determinar as coordenadas dos dados de imagem de fonte de luz ampla e estruturada com o uso dos dados posicionais.
  5. 5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que compreende triangular um vetor de imagem do dispositivo de formação de imagem e um plano da fonte de luz estruturada para determinar as coordenadas dos dados de imagem de fonte de luz estruturada.
  6. 6. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que os parâmetros do sistema de formação de imagem compreendem o deslocamento e os ângulos relativos (‘D’, ‘θ’, ‘β’) da fonte de luz estruturada ao dispositivo de formação de imagem, em que:
    ‘D’ é uma distância do eixo geométrico óptico do dispositivo de formação de imagem ao plano de fonte de luz estruturada, ‘Θ’ é um ângulo do plano de fonte de luz estruturada ao plano de porta plana de dispositivo de formação de imagem, e ‘β’ é uma distorção no plano de fonte de luz estruturada.
  7. 7. Método, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de que compreende:
    determinar a pose de câmera dos dados de imagem de fonte de luz ampla; e aplicar escala à pose de câmera com o uso dos dados de imagem de fonte de luz estruturada para obter dados posicionais do dispositivo de formação de imagem relativa à uma ou mais cenas.
  8. 8. Método, de acordo com a reivindicação 7, caracterizado pelo fato de que a pose de câmera obtida dos dados de imagem de fonte de luz ampla é usada para determinar as coordenadas dos dados de imagem de fonte de luz estruturada.
  9. 9. Método, de acordo com qualquer uma das reivindicações 1 a 8, caracterizado pelo fato de que a construção de um modelo fotogramétrico para os dados de imagem de fonte de luz ampla compreende processamento em máquina 2D dos dados de imagem de fonte de luz ampla.
  10. 10. Método, de acordo com qualquer uma das reivindicações 1 a 8,
    Petição 870190093681, de 19/09/2019, pág. 30/43
    3/4 caracterizado pelo fato de que a construção de um modelo fotogramétrico para os dados de imagem de fonte de luz ampla compreende processamento em máquina 3D dos dados de imagem de fonte de luz ampla.
  11. 11. Método, de acordo com qualquer uma das reivindicações 1 a 10, caracterizado pelo fato de que compreende determinar a localização de elementos característicos nos dados de imagem de fonte de luz estruturada com o uso de visão de máquina 3D.
  12. 12. Método, de acordo com qualquer uma das reivindicações 1 a 11, caracterizado pelo fato de que compreende extrair dados em nuvem de ponto 3D compreendendo um conjunto de pontos dos dados de imagem de fonte de luz estruturada para fornecer um modelo 3D completo.
  13. 13. Método, de acordo com qualquer uma das reivindicações 9 a 12, caracterizado pelo fato de que o processamento em máquina compreende realizar pelo menos um dentre detecção de evento, reconhecimento de objeto, medição de objeto e classificação de objeto nos dados de imagem.
  14. 14. Método, de acordo com qualquer uma das reivindicações 1 a 13, caracterizado pelo fato de que, quando o sistema compreende uma pluralidade de dispositivos de formação de imagem, o método compreende:
    sincronizar a aquisição de imagens pela pluralidade de dispositivos de formação de imagem;
    determinar a pose de cada dispositivo de formação de imagem individual; e escalonar a pose com os dados de imagem de fonte de luz estruturada para obter posições relativas no mundo real de todos os dispositivos de formação de imagem no sistema.
  15. 15. Método, de acordo com a reivindicação 14, caracterizado pelo fato de que compreende escalonar a pose com base em separação conhecida fixa entre os dispositivos de formação de imagem que é medida no ar.
  16. 16. Sistema para calibrar parâmetros de um sistema de formação de imagem caracterizado por compreender:
    Petição 870190093681, de 19/09/2019, pág. 31/43
    4/4 uma fonte de luz ampla;
    uma fonte de luz estruturada;
    pelo menos um dispositivo de formação de imagem configurado para capturar sequencialmente dados de imagem de fonte de luz ampla e dados de imagem de fonte de luz estruturada de uma ou mais cenas com o uso das fontes de luz ampla e estruturada, respectivamente, e pelo menos um processador configurado para:
    gerar um modelo fotogramétrico dos dados de imagem de fonte de luz ampla e um modelo fotogramétrico dos dados de imagem de fonte de luz estruturada com o uso de respectivas coordenadas dos dados de imagem de fonte de luz ampla e estruturada;
    determinar elementos característicos correspondentes nos respectivos modelos fotogramétricos;
    solucionar iterativamente parâmetros do sistema de formação de imagem para corrigir variações entre elementos característicos correspondentes nos respectivos modelos fotogramétricos, convergir os modelos e obter parâmetros de calibragem; e aplicar os parâmetros de calibragem ao sistema de formação de imagem para compensar erros nas posições relativas do dispositivo de formação de imagem e da fonte de luz estruturada.
  17. 17. Sistema, de acordo com a reivindicação 16, caracterizado pelo fato de que compreende uma pluralidade de dispositivos de formação de imagem.
  18. 18. Sistema, de acordo com a reivindicação 16 ou 17, caracterizado pelo fato de que o pelo menos um processador é configurado para realizar o método do tipo definido em qualquer uma das reivindicações 2 a 15.
BR112019016526-6A 2017-02-09 2018-02-09 Método e sistema para calibrar um sistema de imagens BR112019016526A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB1702118.9A GB201702118D0 (en) 2017-02-09 2017-02-09 Method and system for calibrating imaging system
GB1702118.9 2017-02-09
PCT/EP2018/053355 WO2018146280A1 (en) 2017-02-09 2018-02-09 Method and system for calibrating imaging system

Publications (1)

Publication Number Publication Date
BR112019016526A2 true BR112019016526A2 (pt) 2020-03-31

Family

ID=58461936

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112019016526-6A BR112019016526A2 (pt) 2017-02-09 2018-02-09 Método e sistema para calibrar um sistema de imagens

Country Status (7)

Country Link
US (1) US10930013B2 (pt)
EP (1) EP3580724A1 (pt)
AU (1) AU2018217391B2 (pt)
BR (1) BR112019016526A2 (pt)
CA (1) CA3053028A1 (pt)
GB (1) GB201702118D0 (pt)
WO (1) WO2018146280A1 (pt)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7008942B2 (ja) * 2017-12-21 2022-01-25 株式会社安川電機 較正方法及び較正装置
US11828157B2 (en) * 2018-02-21 2023-11-28 E.V. Offshore Limited Image correction methods for downhole inspection tools
EP3651056A1 (en) * 2018-11-06 2020-05-13 Rovco Limited Computing device and method for video object detection
US10839560B1 (en) * 2019-02-26 2020-11-17 Facebook Technologies, Llc Mirror reconstruction
US11488324B2 (en) * 2019-07-22 2022-11-01 Meta Platforms Technologies, Llc Joint environmental reconstruction and camera calibration
CN113048912B (zh) * 2021-02-26 2022-07-19 山东师范大学 投影仪的标定系统及方法
US11719822B2 (en) 2021-07-02 2023-08-08 Bae Systems Information And Electronic Systems Integration Inc. System and method for generating three-dimensional imagery
US11908147B1 (en) * 2022-10-14 2024-02-20 Lumincode As Calibration and monitoring of camera position and laser position and wavelength

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7429999B2 (en) * 2004-05-24 2008-09-30 CENTRE DE RECHERCHE INDUSTRIELLE DU QUéBEC Camera calibrating apparatus and method
EP2909811B1 (en) 2012-10-17 2020-02-19 Cathx Research Ltd. Improvements in and relating to gathering range and dimensional information underwater surveys
US9912884B2 (en) * 2014-03-03 2018-03-06 Photoneo, s.r.o. Methods and apparatus for superpixel modulation
KR102085228B1 (ko) * 2014-03-27 2020-03-05 한국전자통신연구원 깊이 센서의 깊이 보정을 위한 이미지 처리방법 및 그 장치

Also Published As

Publication number Publication date
WO2018146280A1 (en) 2018-08-16
US20200105019A1 (en) 2020-04-02
CA3053028A1 (en) 2018-08-16
AU2018217391B2 (en) 2022-01-13
US10930013B2 (en) 2021-02-23
GB201702118D0 (en) 2017-03-29
AU2018217391A1 (en) 2019-09-26
EP3580724A1 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
BR112019016526A2 (pt) Método e sistema para calibrar um sistema de imagens
US9547802B2 (en) System and method for image composition thereof
Fassi et al. Comparison between laser scanning and automated 3d modelling techniques to reconstruct complex and extensive cultural heritage areas
BR102013010781A2 (pt) Registro de imagens de dados multimodais utilizando arcos geográficos 3d
Maset et al. Photogrammetric 3D building reconstruction from thermal images
JP2013186816A (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
BRPI0514755B1 (pt) Method for automated 3d image formation
Bleier et al. Low-cost 3d laser scanning in air orwater using self-calibrating structured light
CN105069743A (zh) 探测器拼接实时图像配准的方法
CN113008195B (zh) 一种基于空间点云的三维曲面距离测量方法及系统
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
Gunatilake et al. Real-time 3D profiling with RGB-D mapping in pipelines using stereo camera vision and structured IR laser ring
Li et al. A practical comparison between Zhang's and Tsai's calibration approaches
Özdemir et al. A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment
Sommer et al. Scan methods and tools for reconstruction of built environments as basis for digital twins
O'Byrne et al. A comparison of image based 3D recovery methods for underwater inspections
CN113706635B (zh) 一种基于点特征和线特征融合的长焦距相机标定方法
BR102014025597A2 (pt) método e sistema de referência de um objeto imageado
CN116363302B (zh) 一种基于多视角几何的管道三维重建和坑洞量化方法
Gracias Mosaic-based visual navigation for autonomous underwater vehicles
WO2023073360A1 (en) Dry calibration for underwater survey
Partovi et al. Automatic integration of laser scanning and photogrammetric point clouds: From acquisition to co-registration
Shojaeipour et al. Robot path obstacle locator using webcam and laser emitter
Morelli et al. Orientation of Images with Low Contrast Textures and Transparent Objects
Muharom et al. Real-Time 3D Modeling and Visualization Based on RGB-D Camera using RTAB-Map through Loop Closure

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]