BR112015013804B1 - sistema de medição para medição tridimensional de uma estrutura submarina, método para a triangulação a laser de uma estrutura submarina e meio legível por computador não transitório codificado com instruções - Google Patents

sistema de medição para medição tridimensional de uma estrutura submarina, método para a triangulação a laser de uma estrutura submarina e meio legível por computador não transitório codificado com instruções Download PDF

Info

Publication number
BR112015013804B1
BR112015013804B1 BR112015013804-7A BR112015013804A BR112015013804B1 BR 112015013804 B1 BR112015013804 B1 BR 112015013804B1 BR 112015013804 A BR112015013804 A BR 112015013804A BR 112015013804 B1 BR112015013804 B1 BR 112015013804B1
Authority
BR
Brazil
Prior art keywords
camera
laser
images
fact
relation
Prior art date
Application number
BR112015013804-7A
Other languages
English (en)
Inventor
Arnaud DUMONT
Fred Jallon
Patrick Raymond
Jason Kestner
Madhav Parimi
Original Assignee
Bp Corporation North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bp Corporation North America Inc filed Critical Bp Corporation North America Inc
Publication of BR112015013804B1 publication Critical patent/BR112015013804B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

APARELHO E MÉTODO PARA MEDIÇÃO TRIDIMENSIONAL DE SUPERFÍCIE. Um sistema e método para medição tridimensional de superfícies. Numa forma de realização, um sistema de medição inclui um projetor de laser, uma primeira câmara, e um processador. O projetor de laser é configurado para emitir uma projeção laser sobre uma superfície de triangulação laser. A primeira câmara é configurada para proporcionar imagens da superfície, e é disposta com um ângulo oblíquo em relação ao projetor laser. O processador é configurado para aplicar o processamento de fotogramétrico para as imagens, para o cálculo de triangulação para calibrações de laser com base no resultado do processamento fotogramétrico, e para calcular, com base nas calibrações, coordenadas de pontos da superfície iluminada pela projeção laser através de triangulação a laser .

Description

REFERÊNCIA CRUZADA A PEDIDOS CORRELATOS
[001] A presente invenção reivindica prioridade do Pedido de Patente Provisório U.S. No. 61/737.499, depositado em 14 de dezembro de 2012, intitulado “Apparatus and Method for Measuring Subsea Structures”, que é incorporado ao presente documento a título de referência integralmente.
FUNDAMENTOS
[002] Diversos métodos óticos podem ser aplicados à mediação e à modelagem de um objeto. A fotogrametria é uma técnica que extrai medições de fotografias de um objeto. A fotogrametria pode ser usada, por exemplo, para produzir mapas (fotogrametria aérea, por exemplo) e/ou para produzir modelos de instalações industriais (fotogrametria a pequena distância) a partir de fotografias. Na fotogrametria, as imagens de uma cena são capturadas de diferentes ângulos e a partir de medições bidimensionais de objetos são convertidas em coordenadas tridimensionais por meio de rotinas matemáticas de ajuste de feixes. A fotogrametria exige o uso de alvos para correlacionar as imagens e é limitada à medição de indicadores visuais tais como pontos e características naturais (isto é, cantos, bordas, cilindros). A fotogrametria a pequena distância pode proporcionar bons resultados quando é provida uma multiplicidade de imagens de ângulos diferentes que produzem uma boa geometria de interseção e alto nível de redundância. A fotogrametria estereoscópica permite a medição de pontos nas superfícies, mas tem limitações em termos de precisão, pois o sensor estereoscópico tem somente duas linhas de visão que são quase paralelas.
[003] A Triangulação a laser é uma técnica ótica que pode ser usada para medição de alta densidade de pequenas superfícies. Na triangulação a laser, uma fonte de laser que projeta, por exemplo, uma linha, um ponto, ou um padrão, é montada com um sensor ótico (uma câmera, por exemplo) de acordo com uma geometria calibrada predeterminada. A projeção de laser é triangulada pelo sensor ótico. Para proporcionar uma multiplicidade de medições um espelho rotativo pode ser montado na frente do laser, permitindo que o sensor ótico “faça uma varredura” de uma grande superfície com uma alta densidade de pontos.
SUMÁRIO
[004] São descritos no presente documento um sistema e método para a medição e modelagem tridimensional de superfícies e objetos. Em uma modalidade, um sistema de medição inclui um projetor de laser, uma primeira câmera, e um processador. O projetor de laser é configurado para emitir uma projeção de laser sobre uma superfície para uma triangulação a laser. A primeira câmera é configurada para fornecer imagens da superfície e é disposta formando um ângulo oblíquo com o projetor de laser. O processador é configurado para aplicar um processamento fotogramétrico às imagens, para computar calibrações para a triangulação a laser com base em um resultado do processamento fotogramétrico, e para computar, com base nas calibrações, coordenadas de pontos da superfície iluminados pela projeção de laser por meio da triangulação a laser.
[005] Em uma outra modalidade, um método para a triangulação a laser inclui a captura de imagens de uma superfície, por meio de uma primeira câmera, à medida que a primeira câmera se desloca ao longo da superfície. A superfície é iluminada por uma projeção de laser produzida por uma fonte de laser que se desloca ao longo da superfície em conjunto com a primeira câmera. O processamento fotogramétrico é aplicado às imagens. As calibrações para a triangulação a laser são computadas com base em um resultado do processamento fotogramétrico. Por meio da triangulação a laser, as coordenadas dos pontos da superfície iluminados pela projeção de laser são computados com base nas calibrações.
[006] Em uma outra modalidade, um meio legível por computador não transitório é codificado com instruções que, quando executadas, fazem com que um processador extraia imagens de uma superfície de uma corrente de imagens recebidas de uma primeira câmera. As instruções também fazem com que o processador aplique processamento fotogramétrico às imagens e compute calibrações para triangulação a laser com base em um resultado do processamento fotogramétrico. As instruções fazem ainda com que o processador compute, por meio de triangulação a laser, com base nas calibrações, coordenadas de pontos da superfície iluminados por uma projeção de laser capturada nas imagens.
DESCRIÇÃO SUCINTA DOS DESENHOS
[007] Para uma descrição detalhada de modalidades exemplares será agora feita referência aos desenhos apensos em que:
[008] A Figura mostra uma representação esquemática de um aparelho que proporciona medições de superfície de acordo com os princípios descritos no presente documento;
[009] a Figura 2 mostra uma representação ilustrativa de um eixo de sistema de fotogrametria de acordo com os princípios descritos no presente documento;
[0010] a Figura 3 mostra uma representação ilustrativa do posicionamento do plano de laser de acordo com os princípios descritos no presente documento;
[0011] a Figura 4 mostra uma representação ilustrativa de uma definição de eixo de laser de acordo com os princípios descritos no presente documento;
[0012] a Figura 5 mostra uma representação ilustrativa do posicionamento de uma primeira câmera em relação a uma segunda câmera de acordo com os princípios descritos no presente documento;
[0013] as Figuras 6A-6B mostram vistas de um aparelho de medição adaptado para uso submarino de acordo com os princípios divulgados no presente documento;
[0014] as Figuras 7A-7D mostram vistas de uma câmera e laser adaptados para uso em um aparelho de medição de acordo com os princípios divulgados no presente documento;
[0015] as Figuras 8A-8B mostram vistas de uma câmera e de um diodo emissor de luz (LED) adaptados para uso em um aparelho de medição de acordo com os princípios divulgados no presente documento;
[0016] as Figuras 9A-9B mostram vistas de uma câmera e laser dispostos em uma porta dianteira para uso em um aparelho de medição de acordo com os princípios divulgados no presente documento;
[0017] a Figura 10 mostra uma vista de uma câmera e LED dispostos me uma porta dianteira para uso em um aparelho de medição de acordo com os princípios divulgados no presente documento;
[0018] as Figuras 11A-11B mostram vistas de um suporte adequado para a montagem de uma câmera e laser (ou LED) para uso em um aparelho de medição de acordo com os princípios divulgados no presente documento; e
[0019] a Figura 12 mostra um fluxograma para um método para triangulação a laser de acordo com os princípios divulgados no presente documento.
NOTAÇÃO E NOMENCLATURA
[0020] Na discussão que segue e nas reivindicações, os termos “incluindo” e “compreendendo” são usados de um modo de extremidades abertas, e deve, portanto ser interpretado como significando ”incluindo, mas sem limitação...”. Qualquer uso de qualquer forma dos termos “conectar”, “engatar”, “acoplar”, “fixar”, ou qualquer outro termo descrevendo uma interação entre elementos não se destina a limitar a interação a uma interação direta entre os elementos e pode também incluir uma interação indireta entre os elementos descritos. O termo “software” inclui qualquer código executável capaz de funcionar em um processador, independentemente dos meios usados para armazenar o software. Assim, o código armazenado na memória (memória não volátil, por exemplo) e ao qual se refere às como “firmware embutido” está incluído na definição de software. A expressão “baseado em, com base em” se destina a significar “baseado pelo menos parcialmente em, com base pelo menos parcialmente em”. Portanto, se X for baseado em Y, X pode ser baseado em Y e em qualquer número de fatores adicionais.
DESCRIÇÃO DETALHADA
[0021] Nos desenhos e na descrição que segue, partes iguais são tipicamente marcadas em todo o relatório e nos desenhos com os mesmos números de referência. As figuras do desenho não são necessariamente desenhadas em escala. Determinadas características da invenção podem ser mostradas em uma escala exagerada ou de um modo um tanto esquemático, e alguns detalhes de elementos convencionais podem não ser mostrados, visando a clareza e concisão. A presente invenção pode se apresentar em modalidades de diferentes formas. Modalidades específicas são descritas detalhadamente e são mostradas nos desenhos, devendo ficar subentendido que a presente descrição deve ser considerada como uma exemplificação dos princípios da invenção, e não se destina a limitar a invenção àquela ilustrada e descrita no presente documento. Deve ser totalmente reconhecido o fato de que diferentes ensinamentos e diferentes componentes das modalidades discutidas abaixo podem ser empregados separadamente ou em qualquer combinação adequada para produzir os resultados desejados.
[0022] Embora possam ser aplicadas técnicas tais como fotogrametria e triangulação a laser para medir objetos, estas técnicas apresentam dificuldades que tornam problemático o seu uso, especialmente em ambientes adversos, tais como o ambiente submarino. A fotogrametria, por exemplo, exige a adição de alvos à cena para correlacionar as imagens, e é limitada à medição de indicadores visuais tais como pontos e características naturais (isto é, cantos, bordas, cilindros). Além disso, a fotogrametria pode exigir que, antes da medição, seja conduzido um procedimento para calibragem submarina em condições que estiverem o mais próximo possível das condições nas quais devem ser efetuadas as medições fotogramétricas. A triangulação a laser convencional pode também ser usada no ambiente submarino e em outros ambientes adversos, mas exige um alto nível de estabilidade de sensores, e uma calibração do sensor antes da medição em condições que estejam o mais próximo possível das condições nas quais as triangulações a laser deverão ser efetuadas. Estas limitações tornam o uso de técnicas convencionais fotogramétrica e de triangulação a laser difíceis de serem implementadas em ambiente submarino e em outros ambientes adversos.
[0023] As modalidades da presente invenção incluem um método e aparelho para proporcionar medição tridimensional e modelagem de objetos no ambiente submarino e outros ambientes arriscados. O aparelho de medição divulgado no presente documento pode ser transportado e/ou operado, por exemplo, por um operador humano, um veículo aéreo não tripulado (VANT), um veículo submarino operado remotamente (ROV) etc. As modalidades permitem a medição tanto de objetos (tais como pontos, linhas, bordas, cilindros etc.), como de uma alta densidade de pontos nas superfícies, em diversos ambientes (submarino e outros ambientes de risco, por exemplo) sem calibração prévia. As modalidades habilitam a operação sem calibração prévia combinando fotogrametria e triangulação a laser para prover uma técnica de autocalibração inédita.
[0024] A Figura 1 mostra uma representação esquemática de um aparelho 100 que proporciona medições da superfície de acordo com os princípios divulgados no presente documento. O aparelho de medição 100 inclui uma câmera 102 e um projetor de laser 106. Uma fonte de luz 104 pode ser incluída no aparelho 100 para a operação em conjunto com a câmera 102. Algumas modalidades podem incluir adicionalmente uma segunda câmera 108 próxima do projetor de laser 106. O eixo ótico da câmera 108 pode ser substancialmente paralelo (dentro de 2 graus da paralela, por exemplo) à projeção de laser gerada pelo projetor de laser 106. Cada câmera 102, 108 pode ser capaz de capturar um vídeo em alta definição (1.280 x 720 píxels, por exemplo, 1.920 x 1.080 píxels, ou mais). Cada uma das câmeras 102, 108 inclui um sensor de imagem, tal como um sensor de dispositivo acoplado com carga (CCD), um sensor de semicondutor de óxido metálico complementar (CMOS), ou outro sensor de imagem adequado. O projetor de laser 106 pode incluir um diodo de laser ou outra fonte de laser e um espelho rotativo ou um outro aparelho que produza uma imagem de laser definindo um plano no espaço.
[0025] A câmera 102 é disposta a uma distância predeterminada e formando um anulo determinado com o projetor de laser 106. A distância (d) entre a câmera 102 e o projetor de laser 106 depende da distância (D) entre o sensor de imagem da câmera 102 e o objeto a ser medido. d pode variar de um terço à metade de D, por exemplo. De modo análogo, a câmera 102 é disposta formando um ângulo predeterminado com o projetor de laser 106. A câmera 102 pode ser disposta para visualizar o plano de laser projetado pelo projetor de laser 106 em um ângulo de aproximadamente 30 graus (isto é, o ângulo entre o plano do laser no eixo ótico da câmera 102 é de aproximadamente 20 graus (30 graus ± 3 graus, por exemplo) para gerar uma geometria com uma boa interseção). Consequentemente, se o projetor de laser 106 for disposto substancialmente na perpendicular a uma estrutura de montagem 110, então a câmera 102 pode ser disposta em um ângulo de aproximadamente 60 graus em relação à estrutura de montagem 110. O aparelho 100 pode ser disposto em latas ou em outros alojamentos para uso no ambiente submarino, nuclear, de vácuo térmico ou outros ambientes adversos.
[0026] O aparelho 100 também inclui um sistema de processamento 112 acoplado às câmeras 102, 108 e ao projetor de laser 106. O sistema de processamento 112 pode controlar a geração da projeção de laser pelo projetor de laser 106 e controlar a captura de imagens pelas câmeras 102, 108. O sistema de processamento 112 inclui um processador 114 e um meio de armazenagem 116. O meio de armazenagem 116 pode ser uma memória de semicondutor, ou outro dispositivo de armazenagem (ótico, magnético, por exemplo, etc.) que armazena imagens capturadas pelas câmeras 102, 108 e/ou que armazena instruções para o processamento das imagens capturadas. As instruções para o processamento fotogramétrico, a computação das calibrações de triangulação a laser baseadas nos resultados do processamento fotogramétrico e a efetuação da triangulação a laser calibrada, conforme descrito aqui, por exemplo, podem ser armazenadas no meio de armazenagem 116 para serem executadas pelo processador 114.
[0027] O processador 114 pode ser um microprocessador de finalidade geral, um processador de sinais digitais, ou outro dispositivo de execução de instruções adequado. O sistema de processamento 112 pode ser disposto na proximidade da câmera 102 e do projetor de laser 106 (em uma carcaça comum, por exemplo) ou disposto à distância da câmera 102 e do projetor de laser 106. O sistema de processamento 112 pode ser acoplado remotamente às câmeras 102, 108 por cabeamento, por exemplo, ou por outros meios de comunicação (por comunicação por radiofrequência, por exemplo). Em algumas modalidades, as câmeras 102, 108 ou a memória associada com as câmeras 102, 108 pode armazenar imagens capturadas para um processamento posterior pelo sistema de processamento 112. O processamento executado pelo sistema de processamento 112 inclui uma calibração in-situ do sensor ótico para habilitar a triangulação a laser. Em algumas modalidades, o sistema de processamento 112 pode ser um computador tal como um computador de mesa, um notebook, um computador montado em um suporte, um computador de servidor, um computador embutido etc.
[0028] Para efetuar a triangulação a laser com uma calibração in-situ, o aparelho 100 (por meio do sistema de processamento 112) primeiro aplica uma técnica fotogrametria (isto é, o processamento de imagens em 3D de imagens do vídeo capturado pelas câmeras 102, 108) que provê coordenadas em 3d dos pontos (assim como para outras entidades) e as localização e orientações em 3D da câmera 102 no espaço em relação ao conjunto de pontos em 3D. Como parte da computação de fotogrametria, o sistema de processamento 112, executa uma rotina de calibração que computa os parâmetros optomecânicos da câmera 102 assim como a localização e orientação precisas do projetor de laser 106 em relação à câmera 102. Os parâmetros optomecânicos da câmera incluem: c (distância principal), xp, yp (centro fiducial), K1, K2, K3 (distorção radial), P1, P2 (distorções de descentralização) e outros parâmetros tais como AP1, AP2 (ortogonalidade de píxels). Tendo se determinado a localização e a orientação do projetor de laser 106 em relação à câmera 102, o sistema de processamento 112 podem em cada imagem, triangular pontos sobre uma linha de laser projetada sobe uma superfície a ser medida com qualquer resolução necessária: Os “pontos triangulados a laser” estarão no mesmo eixo de sistema que os “pontos fotogramétricos”. Selecionando-se imagens do vídeo a uma taxa escolhida, o aparelho 100 pode obter uma alta densidade de pontos em 3D sobre qualquer superfície.
[0029] A triangulação a laser com uma calibração in-situ, pode ainda ser descrita do seguinte modo. O aparelho 100 é colocado a uma distância adequada da cena de medição. O projetor de laser 106 projeta uma linha de laser sobre o objeto/superfície a ser medida. A câmera 102 grava o vídeo de Alta Definição incluindo a linha de laser projetada sobre o objeto. O aparelho 100 se move ao redor ou ao longo do objeto (no caso de objetos lineares tais como tubulações) enquanto estiver gravando o vídeo. O aparelho 100 pode ser deslocado manualmente ou deslocado por qualquer tipo de veículo ou robô (VANT, ROV etc.). O sistema de processamento 112 extrai imagens das imagens fornecidas pela câmera 102. Se a câmera 102 fornece, por exemplo, uma corrente de vídeo de alta definição, então o sistema de processamento 112 pode extrair imagens individuais, ou figuras, da corrente de vídeo. Em algumas modalidades, as imagens podem ser extraídas manualmente ou extraídas por um sistema diferente e fornecidas ao sistema de processamento 112.
[0030] O sistema de processamento 112 identifica “pontos fotogramétricos” sobre todas as imagens por meio de algoritmos de processamento de imagens. Quando estes pontos forem identificados, o sistema de processamento executa as computações de fotogrametria e produz os seguintes resultados: - As coordenadas em 3D dos pontos fotogramétricos; - As coordenadas em 3D e as orientações dos locais da câmera; - A calibração do sensor (isto é, os parâmetros optomecânicos da câmera e a posição e a orientação do plano de laser em relação à câmera); - As coordenadas em 3D dos “pontos de Triangulação a Laser”.
[0031] O sistema de processamento 112 pode aplicar o processamento fotogramétrico do seguinte modo. A Figura 2 mostra uma representação ilustrativa de um eixo de sistema fotogramétrico de acordo com os princípios divulgados no presente documento. Cada uma das câmeras 102, 108 tem o seu próprio eixo de sistema, centralizado e orientado no sensor de imagem da câmera. Durante a captura da imagem a posição e a orientação de uma câmera 102, 108 são dadas no Eixo de Sistema Mundial (World System Axis). O “Eixo de Sistema Mundial” tem as seguintes referências: (O X Y Z), e o Eixo do Sistema da Câmera (“Camera System Axis”) tem as seguintes referências: (o x y z).
[0032] As equações de colinearidade fotogramétricas aplicadas pelo sistema de processamento 112 descrevem o fato de que um ponto medido no sensor de imagem da câmera (o centro de perspectiva) e um ponto imageado sobre o objeto estão sobre a mesma linha. O ponto medido sobre o sensor de imagem de câmera tem as distorções óticas e os defeitos de fabricação compensados. As equações de colinearidade fotogramétricas podem ser expressas como:
Figure img0001
em que: (x,y)T são coordenadas do ponto m, no Eixo de Sistema de Câmera; (dx,dy)T são correções das distorções óticas; R é uma matriz de rotação do eixo de sistema de câmera para o Eixo de Sistema Mundial; (XM, YM, ZM)T são coordenadas do ponto M no Eixo de Sistema Mundial; (XC, YC, ZC)T são coordenadas do centro de perspectiva da câmera (durante a captura da imagem); e k é um fator de escala entre cm e CM.
[0033] Há tres tipos de distorção a seremcorrigidos no sistema 100; distorção radial, distorção de descentralização, e defeitos de fabricação dos sensores de imagem. O sistema de processamento 112 aplica uma compensação às coordenadas anteriormente compensadas para a descentralização do ponto principal (projeção do centro de perspectiva sobre CCD). Sendo (xp, yp)T as coordenadas do centro de perspectiva (ou centro fiducial) no Eixo doSistema de Câmera, as fórmulas de compensação incluem:
Figure img0002
em que: (rdx, rdy)T é um vetor de distorção radial; (ddx, ddy)T é um vetor de distorção de descentralização; e (pdx,O)T é um vetor de distorção de píxel, sendo:
Figure img0003
Figure img0004
[0034] O sistema de processamento 112 pode computar calibrações para a triangulação a laser do seguinte modo. O laser projetado no espaço forma um plano. O sistema de processamento 112 calibre o plano de laser computando a sua posição no eixo do sistema de câmera. A Figura 3 mostra uma representação ilustrativa do posicionamento do plano de laser em relação à câmera 102 de acordo com os princípios divulgados no presente documento. O plano de laser é definido pela distância (matemática mínima) dl à origem do Eixo de Sistema de Câmera e à linha normal nl no Eixo de Sistema de Câmera.
[0035] A Figura 4 mostra uma representação ilustrativa de uma definição de eixo de laser de acordo com os princípios divulgados no presente documento. Ao se definir um eixo de sistema para o laser, a origem do eixo do laser é a projeção sobre o plano do laser da origem do Eixo de Sistema de Câmera, o eixo OZ do plano do laser intercepta o eixo OZ, e o eixo OX é perpendicular ao plano do laser. De acordo com esta definição, podem ser geradas características metrológicas tais como a convergência (entre o eixo OZ e o eixo OZ do plano do laser), a base (distância entre a origem da câmera e a origem do laser). (ol,xl,zl) são definidos do seguinte modo:eixo (ol,xl) passando por o e pela projeção de o sobre o plano do laser, e eixo (ol, zl) concorrendo com o Eixo Ótico da Câmera.
[0036] As coordenadas de um ponto podem sercomputadas de acordo com ou com o Eixo do Sistema de Câmera ou no Eixo de Sistema de Laser. Um ponto de laser no Eixo de Sistema de Câmera pode ser computado do seguinte modo.
Figure img0005
em que: cl está no Eixo do Sistema de Câmera; e CL está no Eixo do Sistema de Laser
Figure img0006
Além disso, L pertence ao Plano do Laser, portanto:
Figure img0007
As equações (9) e (10) geram tres equações independentes, permitindo a computação das coordenadas do Ponto de Laser (xL, yL, zL) no Eixo do Sistema de Laser.
[0037] Como algumas modalidades do sistema 100incluem duas câmeras 102, 108, o sistema de processamento112 pode computar a posição da câmera 102 em relação à câmera 108. A Figura 5 mostra uma representação do posicionamento de uma primeira câmera (câmera 102) em relação a uma segunda câmera (câmera 108) de acordo com os princípios divulgados no presente documento.
Figure img0008
em que: Ti: posição da câmera 1 no Eixo do Sistema da Câmera 2;e Ri: Matriz de Rotação do Eixo do Sistema da Câmera 1 no Eixo do Sistema da Câmera 2.
[0038] As equações de colinearidade para a câmera 102 do laser podem ser definidas sem se usar a localização da câmera 102 do laser. Em vez disso, as equações de colinearidade para a câmera 102 do laser podem serdefinidas com base na posição e orientação da câmera 102 dolaser em relação à câmera piloto 108, o que reduzsubstancialmente o número de parâmetros para o ajuste dofeixe.
[0039] As equações de colinearidade para a câmera102 do laser são as seguintes:
Figure img0009
(Ti, Ri) é a localização relativa da câmera de laser emrelação à câmera piloto; ((X2, Y2, Z2)T, R2) é a localização da câmera piloto para dentro do Eixo do Sistema Mundial; C1 e C2 são as principais distâncias da câmera do laser e da câmera piloto.
[0040] As Figuras 6A-6B mostram vistas de pelo menos uma porção do sistema de medição 100 adaptado para uso submarino de acordo com os princípios divulgados no presente documento. O projetor de laser 106 é disposto me uma primeira lata ou carcaça 602, e a câmera 102 é disposta em uma segunda carcaça 604.
[0041] As Figuras 7A-7D mostram vistas de uma câmera 108 e projetor de laser 106 adaptados para uso em um sistema de medição 100 de acordo com os princípios divulgados no presente documento.
[0042] As Figuras 8A-8B mostram vistas de uma câmera e de um diodo emissor de luz (LED) 104 adaptados para uso no sistema 100 de acordo com os princípios divulgados no presente documento;
[0043] As Figuras 9A-9B mostram vistas de uma câmera 108 e projetor de laser 106 disposto em uma porta dianteira da carcaça 602 para uso em um sistema de medição 100 de acordo com os princípios divulgados no presente documento;
[0044] A Figura 10 mostra uma vista de uma câmera 102 e LED (luz 104) dispostos em uma porta dianteira da carcaça 604 para uso em um sistema de medição 10 de acordo com os princípios divulgados no presente documento;
[0045] As Figuras 11A-11B mostram vistas de um suporte 702 adequado para a montagem de uma câmera 108 e projetor de laser 106 para uso em um sistema de medição 100 de acordo com os princípios divulgados no presente documento.
[0046] A Figura 12 mostra um fluxograma para um método para triangulação a laser de acordo com os princípios divulgados no presente documento. Embora ilustradas em sequência para fins de conveniência, pelo menos algumas das ações mostradas podem ser conduzidas em uma ordem diferentes e/ou conduzidas em paralelo. Adicionalmente, em algumas modalidades podem ser conduzidas somente algumas das ações mostradas. Em algumas modalidades, pelo menos algumas das operações, o método pode estar codificado em instruções fornecidas ao processo 114 em forma de programa de software armazenado no dispositivo de armazenagem legível por computador 116.
[0047] No bloco 1202, o sistema de medição 100 ou uma porção sua, incluindo a fonte de laser 106 e a câmera 102, é deslocado ao longo de uma superfície a ser medida. O movimento pode ser manual o por meio de um transporte veicular. O sistema de medição 100, ou uma porção relevante dele, por exemplo, pode ser acondicionado em um recipiente de pressão ou em uma outra carcaça e ser transportado ao longo de uma superfície a ser medida por um veículo operado remotamente.
[0048] No bloco 1204, a fonte de laser 106 emite uma projeção de laser que ilumina a superfície a ser medida. A projeção de laser pode formar um plano no espaço e uma linha na superfície. A câmera 102 captura imagens da superfície iluminadas pela projeção de laser. A câmera 102, por exemplo, pode capturar um vídeo de alta definição da superfície e a projeção de laser. Em algumas modalidades, uma iluminação adicional da superfície pode ser fornecida por uma fonte de luz 104 associada com a câmera 102. A geração da projeção de laser e a captura de imagens podem ser controladas pelo sistema de processamento 112.
[0049] No bloco 1206, o sistema de processamento 112 aplica técnicas de processamento de imagens para identificar pontos e/ou características em todas as imagens capturadas. Tendo identificado pontos comuns sobre todas as imagens, o sistema de processamento 112 aplica um processamento fotogramétrico às imagens. O processamento fotogramétrico determina as coordenadas 3D dos pontos e as coordenadas 3D e orientação da câmera 102. O sistema de processamento 112 pode também computar os parâmetros óticos da câmera 102.
[0050] No bloco 1208, o sistema de processamento 112 computa as calibrações para a triangulação a laser com base nos resultados do processamento fotogramétrico. O sistema de processamento 112 determina a localização da projeção do laser em relação à câmera 102.
[0051] No bloco 1210, o sistema de processamento 112 computa por meio da triangulação a laser, aplicando as calibrações, as coordenadas 3D de pontos na superfície iluminada pela projeção de laser.
[0052] Em algumas modalidades, um método para a medição e modelagem tridimensional de objetos e superfícies em qualquer ambiente inclui: - prover um conjunto de pelo menos uma câmera e um projetor de linha de laser montados sobre um suporte; - deslocar-se ao redor da cena de medição e a tomada de um vídeo da cena de medição com a linha de laser projetada sobre o objeto; - manual ou automaticamente: - - extrair imagens do vídeo; - - determinar os pontos de correlação entre imagens; - - determinar as coordenadas 3D (xyz) de pontos de correlação; - - determinar os parâmetros óticos da câmera; - - determinar as localizações da câmera; - - determinar a posição relativa e a orientação do plano de laser em relação à câmera; e - - determinar coordenadas 3D (xyz) dos pontos de triangulação a laser.
[0053] Em algumas modalidades, um método para a medição e modelagem tridimensionais de objetos e superfícies em qualquer ambiente inclui: - prover imagens fixas ou imagens de vídeo (em Alta Definição ou não) por uma câmera; - podendo uma multiplicidade de câmeras ser montada e usada, permitindo uma visão estereoscópica e medições adicionais; e - prover uma projeção de padrão, tal como uma linha de laser.
[0054] Em algumas modalidades, um sistema para a medição e modelagem tridimensionais de objetos e superfícies em qualquer ambiente inclui: - uma câmera; - um laser; - um módulo de autocalibração que integra em medição a modelagem dos parâmetros optomecânicos da câmera e a localização relativa e a orientação do laser em relação à câmera; - um módulo de autocalibração que leva em conta o desvio ótico devido aos meios (ar, vidro ótico, água); e - um módulo de autocalibração que estende para qualquer posição de zoom.
[0055] A discussão acima se destina a ser ilustrativa de diversos princípios e modalidades da presente invenção. Embora tenham sido mostradas e descritas determinadas modalidades, nelas podem ser introduzidas modificações pelos versados na técnica sem que haja desvio do espírito e ensinamentos da presente invenção. As modalidades descritas no presente documento são exemplares somente, e não têm caráter limitante. Consequentemente, o âmbito da proteção não é limitado pela descrição apresentada acima, mas é limitado somente pelas reivindicações que seguem, incluindo tal âmbito todos os equivalentes do objeto das reivindicações.

Claims (16)

1. Sistema de medição (100) para medição tridimensional de uma estrutura submarina, CARACTERIZADO pelo fato de que compreende: - um projetor de laser (106) e uma primeira câmera (102) acondicionada para operação submarina; - em que o projetor de laser (106) é configurado para emitir uma projeção de laser sobre uma superfície da estrutura submarina para triangulação a laser; - em que a primeira câmera (102) é configurada para prover imagens da superfície, e é disposta formando um ângulo oblíquo em relação ao projetor de laser (106); - um processador (114) configurado para: - -aplicar um processamento fotogramétrico às imagens submarinas capturadas; - - computar as calibrações para a triangulação a laser com base em um resultado do processamento fotogramétrico das imagens submarinas capturadas, em que as calibrações incluem a determinação de: orientação do plano de laser projetado pelo projetor de laser (106) em relação à primeira câmera (102); e parâmetros optomecânicos da primeira câmera (102), os parâmetros compreendendo distância principal, centro fiducial, distorção radial, distorção de descentralização, e distorção em relação à ortogonalidade de pixels de um sensor de imagem na primeira câmera (102); e - - computar, com base nas calibrações, coordenadas de pontos da superfície iluminados pela projeção de laser por meio de triangulação a laser; e - uma segunda câmera (108) configurada para capturar imagens da superfície, e disposta de modo que um eixo ótico da segunda câmera (108) é aproximadamente paralelo à emissão do projetor de laser (106).
2. Sistema (100), de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a primeira câmera (102) está montada em relação ao projetor de laser (106) de modo tal, que um eixo ótico da primeira câmera (102) intercepta a projeção de laser em um ângulo de aproximadamente 30 graus.
3. Sistema (100), de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a primeira câmera (102) é configurada para capturar vídeo e o processador (114) é configurado para extrair figuras do vídeo como as imagens.
4. Sistema (100), de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o processador (114) é configurado para, como parte do processamento fotogramétrico: - identificar pontos da superfície através das imagens fornecidas pela primeira câmera (102); - computar coordenadas dos pontos em três dimensões; e - determinar a localização e a orientação da primeira câmera (102) em relação às coordenadas.
5. Sistema (100), de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o processador (114) é configurado, como parte do processamento fotogramétrico, para determinar uma localização da primeira câmera (102) em relação à localização da segunda câmera (108).
6. Sistema (100), de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a projeção de laser forma uma linha na superfície.
7. Método para a triangulação a laser de uma estrutura submarina, CARACTERIZADO pelo fato de que compreende: - a disposição submarina de um aparato compreendendo uma primeira câmera (102) e uma fonte de laser; - a captura de imagens de uma superfície de uma estrutura submarina, por meio da primeira câmera (102), à medida que a primeira câmera (102) se desloca ao longo da superfície; - a iluminação da superfície com uma projeção de laser produzida pela fonte de laser, em que a fonte de laser se desloca ao longo da superfície em conjunto com a primeira câmera (102); - a aplicação de processamento fotogramétrico às imagens submarinas capturadas; - a computação de calibrações para a triangulação a laser com base em um resultado do processamento fotogramétrico das imagens submarinas capturadas, em que as calibrações incluem a determinação de: - orientação de um plano de laser projetado pelo projetor de laser (106) em relação à primeira câmara (102); e - parâmetros optomecânicos da primeira câmera (102), os parâmetros compreendendo distância principal, centro fiducial, distorção radial, distorção de descentralização, e ortogonalidade de pixels de um sensor de imagem na primeira câmera (102); - a computação por meio da triangulação a laser das coordenadas de pontos da superfície iluminados pela projeção de laser com base nas calibrações; e - a captura de imagens da superfície, por meio da segunda câmera (108), à medida que a primeira câmera (102) se desloca ao longo da superfície; em que a segunda câmera (108) é disposta de modo tal que um eixo ótico da segunda câmera (108) está aproximadamente paralelo à emissão da fonte de laser.
8. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que a primeira câmera (102) é montada em relação à fonte de laser de modo tal, que um eixo ótico da primeira câmera (102) intercepta a projeção de laser a um ângulo de aproximadamente 30 graus.
9. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que compreende ainda a captura de vídeo, pela primeira câmera (102), e a extração das imagens capturadas pela primeira câmera (102) do vídeo.
10. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que a aplicação de processamento fotogramétrico compreende: - a identificação de pontos da superfície através das imagens capturadas pela primeira câmera (102); - a computação de coordenadas dos pontos em três dimensões; e - a determinação da localização e da orientação da primeira câmera (102) em relação às coordenadas.
11. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que a aplicação do processamento fotogramétrico compreende a determinação de uma localização da primeira câmera (102) em relação a uma localização da segunda câmera (108).
12. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que a iluminação da superfície com uma projeção de laser compreende a projeção de uma linha de laser sobre a superfície.
13. Meio legível por computador não transitório, CARACTERIZADO pelo fato de que é codificado com instruções que quando executadas fazem com que o processador (114): - extraia imagens de uma superfície submarina de uma corrente de imagens capturadas por uma primeira câmera submarina; - aplique um processamento fotogramétrico às imagens submarinas capturadas; - compute calibrações para a triangulação a laser com base em um resultado do processamento fotogramétrico das imagens submarinas capturadas, em que as calibrações incluem a determinação de: - orientação de um plano de laser projetado pelo projetor de laser (106) em relação à primeira câmara (102); e - parâmetros optomecânicos da primeira câmera (102), os parâmetros compreendendo distância principal, centro fiducial, distorção radial, distorção de descentralização, e ortogonalidade de pixels de um sensor de imagem na primeira câmera (102); - compute, por meio da triangulação a laser, com base nas calibrações, coordenadas de pontos da superfície submarina iluminados por uma projeção de laser capturada nas imagens; - extraia imagens da superfície a partir de uma corrente de imagens recebida de uma segunda câmera (108); e - determine uma localização da primeira câmera (102) em relação à localização da segunda câmera (108).
14. Meio legível por computador, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que é codificado com instruções que, quando executadas, fazem com que um processador (114), como parte do processamento fotogramétrico: - identifique pontos da superfície através das imagens submarinas capturadas; - compute coordenadas dos pontos em três dimensões; e - determine a localização e a orientação da primeira câmera (102) em relação às coordenadas.
15. Meio legível por computador, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que é codificado com instruções que, quando executadas, fazem com que um processador (114), como parte da computação das calibrações para a triangulação a laser, determine um desvio ótico causado pelos meios entre a primeira câmera (102) e a superfície.
16. Meio legível por computador, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que é codificado com instruções que, quando executadas, fazem com que o processador (114) dispare uma fonte de laser para gerar a projeção de laser; sendo que a projeção de laser forma uma linha sobre a superfície.
BR112015013804-7A 2012-12-14 2013-12-16 sistema de medição para medição tridimensional de uma estrutura submarina, método para a triangulação a laser de uma estrutura submarina e meio legível por computador não transitório codificado com instruções BR112015013804B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261737499P 2012-12-14 2012-12-14
US61/737,499 2012-12-14
PCT/US2013/075354 WO2014133646A2 (en) 2012-12-14 2013-12-16 Apparatus and method for three dimensional surface measurement

Publications (1)

Publication Number Publication Date
BR112015013804B1 true BR112015013804B1 (pt) 2021-02-09

Family

ID=50983096

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015013804-7A BR112015013804B1 (pt) 2012-12-14 2013-12-16 sistema de medição para medição tridimensional de uma estrutura submarina, método para a triangulação a laser de uma estrutura submarina e meio legível por computador não transitório codificado com instruções

Country Status (12)

Country Link
US (1) US10397550B2 (pt)
EP (1) EP2932191A2 (pt)
JP (1) JP6317760B2 (pt)
CN (1) CN105190234B (pt)
AU (1) AU2013379669B2 (pt)
BR (1) BR112015013804B1 (pt)
CA (1) CA2912859C (pt)
EA (1) EA031929B1 (pt)
MX (1) MX353350B (pt)
MY (1) MY181876A (pt)
PH (1) PH12015501343A1 (pt)
WO (1) WO2014133646A2 (pt)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6217227B2 (ja) * 2013-08-12 2017-10-25 株式会社リコー 校正装置、方法及びプログラム
DE102014019670B3 (de) * 2014-12-30 2016-06-30 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels Redundanzen
RU2655012C2 (ru) * 2015-09-22 2018-05-23 Общество с ограниченной ответственностью "Нординкрафт Санкт-Петербург" Способ измерения геометрических параметров электросварных труб различного диаметра и система для его осуществления
US9963246B2 (en) * 2016-03-28 2018-05-08 Amazon Technologies, Inc. Combining depth and thermal information for object detection and avoidance
DE102016221040A1 (de) * 2016-10-26 2018-04-26 Robert Bosch Gmbh Verfahren zur Lokalisierung einer Vorrichtung in einem System
CN108257182A (zh) * 2016-12-29 2018-07-06 深圳超多维光电子有限公司 一种立体摄像头模组的标定方法及装置
US11450148B2 (en) * 2017-07-06 2022-09-20 Wisconsin Alumni Research Foundation Movement monitoring system
CN107976148B (zh) * 2017-12-25 2024-05-03 自然资源部第二海洋研究所 一种深海生物测量装置及其生物特征的测量方法
US10928196B2 (en) 2017-12-28 2021-02-23 Topcon Positioning Systems, Inc. Vision laser receiver
CN110596131B (zh) * 2018-05-25 2022-06-17 翌视智能科技(上海)有限公司 一种基于图像采集的片状玻璃边缘瑕疵检测方法
CN109118577B (zh) * 2018-07-23 2023-03-10 国家深海基地管理中心 基于载人潜水器的水下激光扫描重构系统及其方法
US11763486B2 (en) 2018-08-30 2023-09-19 Hunter Engineering Company Method and apparatus for placement of ADAS fixtures during vehicle inspection and service
US11544870B2 (en) 2018-08-30 2023-01-03 Hunter Engineering Company System and method for verification of vehicle service target positioning
US11145084B2 (en) 2018-08-30 2021-10-12 Hunter Engineering Company Method and apparatus for guiding placement of ADAS fixtures during vehicle inspection and service
JP7349702B2 (ja) * 2018-10-01 2023-09-25 株式会社コムビック 非接触測定装置
CN111354036B (zh) * 2018-12-20 2022-11-22 核动力运行研究所 一种应用于压力容器环境的水下光学定位方法
US11461906B2 (en) * 2018-12-31 2022-10-04 Numeric Engineering, Inc. Systems and methods for monitoring offshore structures
JP7434008B2 (ja) 2019-04-01 2024-02-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置およびプログラム
DE102019204613A1 (de) * 2019-04-01 2020-10-01 Micro-Epsilon Optronic Gmbh Messsystem zur optischen Messung
EP3839418A1 (en) * 2019-12-18 2021-06-23 Hexagon Technology Center GmbH Optical sensor with overview camera
US11872965B2 (en) * 2020-05-11 2024-01-16 Hunter Engineering Company System and method for gyroscopic placement of vehicle ADAS targets
CN113310428B (zh) * 2021-06-11 2023-06-02 安徽工程大学 一种基于线结构光的同步传动表面轮廓测量系统及测量方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4979815A (en) * 1989-02-17 1990-12-25 Tsikos Constantine J Laser range imaging system based on projective geometry
CN1171467C (zh) * 1999-06-11 2004-10-13 埃米尔·亨德里克斯 用单部手持摄像机获取三维景象
US6590640B1 (en) * 2000-07-20 2003-07-08 Boards Of Regents, The University Of Texas System Method and apparatus for mapping three-dimensional features
US6757445B1 (en) * 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
JP4656745B2 (ja) * 2001-03-09 2011-03-23 西松建設株式会社 トンネル坑内の形状測定方法
CN1227511C (zh) * 2001-06-15 2005-11-16 斯耐普昂技术有限公司 自校准位置测定系统
US8428393B2 (en) * 2003-03-14 2013-04-23 Rudolph Technologies, Inc. System and method of non-linear grid fitting and coordinate system mapping
US20040213463A1 (en) * 2003-04-22 2004-10-28 Morrison Rick Lee Multiplexed, spatially encoded illumination system for determining imaging and range estimation
EP1524494A1 (en) * 2003-10-17 2005-04-20 inos Automationssoftware GmbH Method for calibrating a camera-laser-unit in respect to a calibration-object
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
US7429999B2 (en) * 2004-05-24 2008-09-30 CENTRE DE RECHERCHE INDUSTRIELLE DU QUéBEC Camera calibrating apparatus and method
JP4542821B2 (ja) * 2004-05-25 2010-09-15 学校法人愛知学院 画像処理方法、画像処理装置、および画像処理プログラム
US7876455B2 (en) * 2004-08-03 2011-01-25 TechnoDream21 Co., Ltd. Three-dimensional shape measuring method and apparatus for the same
CN1238689C (zh) * 2004-11-11 2006-01-25 天津大学 视觉测量系统现场校准装置及校准方法
EP2278271B1 (en) * 2005-03-11 2012-05-23 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
US8082120B2 (en) * 2005-03-11 2011-12-20 Creaform Inc. Hand-held self-referenced apparatus for three-dimensional scanning
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
EP2618102A2 (en) * 2006-11-21 2013-07-24 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
CA2606267A1 (fr) * 2007-10-11 2009-04-11 Hydro-Quebec Systeme et methode de cartographie tridimensionnelle d'une surface structurelle
EP2112467A3 (en) * 2008-04-21 2011-07-06 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for fluorescent immersion range scanning
JP5337243B2 (ja) * 2008-08-06 2013-11-06 クリアフォーム インコーポレイティッド 表面特徴の適応型3次元走査システム
JP2012519277A (ja) * 2009-02-27 2012-08-23 ボディー サーフェイス トランスレーションズ, インコーポレイテッド 三次元表示を使用する物理パラメータの推定
US11403739B2 (en) * 2010-04-12 2022-08-02 Adobe Inc. Methods and apparatus for retargeting and prioritized interpolation of lens profiles
US8430319B2 (en) * 2011-02-08 2013-04-30 Symbol Technologies, Inc. Imaging reader for electro-optically reading two-dimensional symbols with controller having limited internal memory
KR20140115062A (ko) * 2013-03-20 2014-09-30 한국전자통신연구원 수중물체 형상측정 장치 및 방법

Also Published As

Publication number Publication date
EP2932191A2 (en) 2015-10-21
MX2015007555A (es) 2015-10-20
US20150317780A1 (en) 2015-11-05
CN105190234B (zh) 2018-05-18
US10397550B2 (en) 2019-08-27
AU2013379669A1 (en) 2015-07-02
WO2014133646A2 (en) 2014-09-04
JP2016509199A (ja) 2016-03-24
EA201591144A1 (ru) 2016-01-29
MX353350B (es) 2018-01-10
PH12015501343B1 (en) 2015-09-07
CA2912859A1 (en) 2014-09-04
CN105190234A (zh) 2015-12-23
JP6317760B2 (ja) 2018-04-25
PH12015501343A1 (en) 2015-09-07
EA031929B1 (ru) 2019-03-29
MY181876A (en) 2021-01-11
AU2013379669B2 (en) 2017-08-17
WO2014133646A3 (en) 2014-11-06
CA2912859C (en) 2021-01-26

Similar Documents

Publication Publication Date Title
BR112015013804B1 (pt) sistema de medição para medição tridimensional de uma estrutura submarina, método para a triangulação a laser de uma estrutura submarina e meio legível por computador não transitório codificado com instruções
US10621753B2 (en) Extrinsic calibration of camera systems
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
KR102085228B1 (ko) 깊이 센서의 깊이 보정을 위한 이미지 처리방법 및 그 장치
US9928595B2 (en) Devices, systems, and methods for high-resolution multi-view camera calibration
US20150070468A1 (en) Use of a three-dimensional imager's point cloud data to set the scale for photogrammetry
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP7300948B2 (ja) 測量データ処理装置、測量データ処理方法、測量データ処理用プログラム
JP6282098B2 (ja) キャリブレーション装置及び方法
ES2894935T3 (es) Aparato de medición de distancias tridimensionales y procedimiento para el mismo
JP4052382B2 (ja) 非接触画像計測装置
Zhao et al. Multisensor registration using phase matching for large-scale fringe projection profilometry
JP4764896B2 (ja) カメラ校正装置、カメラ校正方法、カメラ校正プログラムおよびそのプログラムを記録した記録媒体
US11927692B2 (en) Correcting positions after loop closure in simultaneous localization and mapping algorithm
Yang et al. Effect of field of view on the accuracy of camera calibration
US20230029596A1 (en) Survey device, system and method
US11640680B2 (en) Imaging system and a method of calibrating an image system
WO2005073669A1 (en) Semi and fully-automatic camera calibration tools using laser-based measurement devices
KR100457080B1 (ko) 영상에 의한 암반사면 절리의 기하학적 특성조사방법
Hlotov et al. Method for determining the focal length in a digital non-metric camera
Schneider et al. Bundle adjustment and system calibration with points at infinity for omnidirectional cameras
RU2788666C1 (ru) Способ взаимной калибровки видеокамеры и устройства веерного лазерного подсвета
OA17428A (en) Apparatus and method for three dimensional surface measurement.
Ahmadabadian Photogrammetric multi-view stereo and imaging network design
Midulla Bifocal Pairs of Images for Low-Cost Survey in Close Range Photogrammetry

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 16/12/2013, OBSERVADAS AS CONDICOES LEGAIS.