BR112020004570A2 - sistema e método para determinação de propriedade espacial de um objeto submerso em um espaço 3d - Google Patents

sistema e método para determinação de propriedade espacial de um objeto submerso em um espaço 3d Download PDF

Info

Publication number
BR112020004570A2
BR112020004570A2 BR112020004570-5A BR112020004570A BR112020004570A2 BR 112020004570 A2 BR112020004570 A2 BR 112020004570A2 BR 112020004570 A BR112020004570 A BR 112020004570A BR 112020004570 A2 BR112020004570 A2 BR 112020004570A2
Authority
BR
Brazil
Prior art keywords
image
orientation
camera
user
bounding volume
Prior art date
Application number
BR112020004570-5A
Other languages
English (en)
Inventor
Stefan Mark Wierda
Evert SCHIPPERS
Original Assignee
Fugro N.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fugro N.V. filed Critical Fugro N.V.
Publication of BR112020004570A2 publication Critical patent/BR112020004570A2/pt

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G8/00Underwater vessels, e.g. submarines; Equipment specially adapted therefor
    • B63G8/001Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G8/00Underwater vessels, e.g. submarines; Equipment specially adapted therefor
    • B63G8/001Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations
    • B63G2008/002Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations unmanned
    • B63G2008/005Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations unmanned remotely controlled

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Método para determinar uma propriedade espacial de um objeto submerso em um espaço 3D, usando uma plataforma móvel subaquática, que é provido de uma câmera e de um sistema de medição de posição e orientação configurado para emitir uma posição e orientação da câmera. O método inclui receber entrada a partir do usuário para ajustar visualmente um volume delimitador ao objeto e, determinar a propriedade espacial do objeto com base em uma propriedade espacial correspondente de um volume delimitador, uma vez que o usuário esteja satisfeito que o volume delimitador se encaixa suficientemente no objeto. O método provê uma maneira interativa de ajustar visualmente o volume delimitador ao objeto, com base em imagens do objeto tiradas em diferentes posições e/ou orientações da câmera em relação ao objeto, bem como na representação de uma posição e orientação da câmera no espaço 3D no momento em que cada imagem foi capturada.

Description

“SISTEMA E MÉTODO PARA DETERMINAÇÃO DE PROPRIEDADE ESPACIAL DE UM OBJETO SUBMERSO EM UM ESPAÇO 3D” Campo Técnico
[001] A presente invenção refere-se a um sistema e método para determinação de uma propriedade espacial, tal como cabeçalho, posição, verticalidade, atitude, elevação e/ou inclinação, de um objeto em um espaço 3D, quando o objeto é parcialmente ou completamente submerso na água.
Técnica de Fundamentos
[002] Estruturas offshore tipicamente compreendem objetos, tal como elementos de construção, que estão total ou parcialmente submersos abaixo da água. Durante a construção de uma estrutura offshore, é desejável que uma ou mais propriedades espaciais de um objeto submerso possam ser determinadas a partir da distância do objeto e sem entrar em contato físico com o objeto. Depois de um objeto ter sido instalado ou após a conclusão da estrutura offshore, é desejável medir as propriedades espaciais do objeto, por exemplo, verificar se foi posicionado corretamente, durante a manutenção e/ou verificar se o objeto foi danificado. Para facilitar a inspeção de objetos submersos, particularmente a profundidades superiores a 10m abaixo da superfície da água, sabe-se que os veículos operados remotamente submersos (ROV) usam sonar. No entanto, a baixa resolução espacial do sonar torna difícil determinar com precisão as propriedades espaciais do objeto com base nos sinais do sonar retornados.
[003] A EP 2 993 620 A1 descreve um sistema para determinar a posição de uma estrutura offshore, por exemplo, uma jaqueta offshore, em um quadro de referência fixo, por observações a partir de um quadro de referência móvel, compreendendo: uma pluralidade de marcadores localizados em posições definidas na estrutura; um dispositivo de imagem, disposto para visualizar os marcadores e gerar dados de imagem representativos das posições relativas dos marcadores no quadro de referência móvel; um sistema de posicionamento local, disposto para determinar posições instantâneas do dispositivo de imagem no quadro de referência fixo e gerar dados de posição; e uma unidade de processamento, disposta para receber os dados de imagem do dispositivo de imagem e os dados de posição do sistema de posicionamento local e calcular a posição da estrutura com base nas posições definidas dos marcadores.
[004] A partir do documento WO 2016/075231, é conhecido um método para controlar uma plataforma submarina, o método compreendendo as etapas de: prover um banco de dados contendo informações de objetos dos objetos identificados em um ambiente em que a plataforma está operando, gerar dados de visualização dos referidos objetos, receber dados de imagem de câmera de uma unidade de câmera disposta na plataforma submarina e compor uma estrutura de imagem com base nos dados de visualização de objeto e nos dados de imagem de câmera, em que os dados de visualização dos referidos objetos são gerados usando modelos sintéticos dos mesmos. Nesse processo, o conhecimento da topologia submarina esperada, objetos conhecidos, pontos de referência reconhecíveis, localização das câmeras em relação a um quadro de referência e outros fatores podem ser usados. Esse sistema conhecido é particularmente útil para facilitar a navegação de um ROV submerso no qual a unidade da câmera está montada, se a visibilidade na água for limitada.
[005] Uma desvantagem dos sistemas conhecidos é que, para que esses sistemas funcionem, as marcações devem ser anexadas ao objeto, ou informações detalhadas sobre um objeto identificado, por exemplo, um modelo CAD ou suas propriedades físicas, propriedades dimensionais, propriedades de localização e propriedades de exibição devem ser conhecidos com antecedência, tornando esses sistemas inadequados para a medição ad-hoc de objetos sobre os quais pouca ou nenhuma informação é previamente conhecida.
[006] Seria desejável prover um método que facilite a determinação das propriedades espaciais de um objeto em uma base ad-hoc.
Sumário da Invenção
[007] Portanto, de acordo com um primeiro aspecto, é provido um método para determinar uma propriedade espacial de um objeto submerso em um espaço 3D, usando uma plataforma móvel subaquática (tal como um veículo operado remotamente ou um veículo subaquático autônomo) que é provida de uma câmera e um sistema de medição de posição e orientação configurado para emitir uma posição e orientação da câmera. O método compreende capturar, em uma posição ou em uma pluralidade de posições diferentes da câmera em relação ao objeto, dados de imagem compreendendo uma imagem do objeto capturado pela câmera e uma representação de uma posição e orientação da câmera no espaço 3D no momento em que a/cada imagem foi capturada. A referida representação pode ser obtida utilizando uma posição e orientação emitidas pelo sistema de medição de posição e orientação. Além disso, o método compreende receber (por exemplo, de um usuário), em uma unidade de processamento, dimensões de um volume delimitador 3D para o objeto na imagem capturada. O método adicionalmente compreende construir na unidade de processamento, para uma imagem capturada ou para duas ou mais das referidas imagens capturadas, uma imagem composta na qual o volume delimitador é projetado sobreposto à referida imagem. O método compreende receber, na unidade de processamento, entrada para ajustar a posição e/ou orientação do volume delimitador para melhorar o encaixe visual do volume delimitador com o objeto na imagem composta. O método adicionalmente compreende determinar pelo menos um de um cabeçalho, uma posição, uma verticalidade, uma atitude e uma inclinação do objeto, com base nas dimensões e/ou orientações do volume delimitador ajustado no espaço 3D.
[008] No presente contexto, o termo "imagem composta" refere-se a uma imagem aumentada que é composta da imagem capturada originalmente e uma sobreposição visual de informações de aprimoramento (por exemplo, o volume delimitador projetado). Alternativamente, a imagem capturada pode ser inicialmente submetida a pré-processamento, por exemplo, para corrigir a distorção da lente, e a imagem pré-processada é combinada com a sobreposição visual para formar a imagem composta. A invenção permite que características espaciais, como cabeçalho, posição, verticalidade, atitude, elevação e/ou inclinação do objeto sejam determinadas indiretamente, calculando-se cabeçalho, posição, verticalidade, atitude, elevação e/ou inclinação do volume delimitador. Dessa maneira, é possível estimar rapidamente essas propriedades para o objeto submerso enquanto estiver sendo realizada uma inspeção subaquática do objeto.
[009] Nas modalidades, o método inclui ainda a exibição de uma ou mais das imagens capturadas incluindo o objeto em uma exibição para um usuário. As dimensões do volume delimitador 3D para o objeto podem ser recebidas do usuário, para que a imagem composta possa ser construída e exibida para o usuário.
Posteriormente, a entrada para ajustar interativamente a posição e/ou orientação do volume delimitador para melhorar o encaixe visual pode ser recebida do usuário. A unidade de processamento pode ser conectada ao monitor, e o cabeçalho, posição, verticalidade, atitude e/ou inclinação determinados do objeto podem, assim, ser emitidos para o usuário.
[010] Ao usar a entrada interativa do usuário para melhorar o encaixe visual do volume delimitador com o objeto, a precisão dessas estimativas é significativamente aprimorada. O ajuste interativo pelo usuário do encaixe visual da caixa delimitadora para o objeto geralmente é realizado sem rastreamento automatizado do objeto na caixa delimitadora (no caso de movimento do objeto) e sem detecção automatizada de recursos do objeto e/ou correspondência automática de tais recursos previamente identificados. O método pode, portanto, ser realizado mesmo quando nenhuma informação prévia detalhada sobre o objeto submerso está disponível e, mesmo que o ajuste do volume delimitador para encaixar visualmente o objeto seja realizado pelo usuário, os requisitos de processamento e memória para uma unidade de processamento usada na execução do método são mantidos baixos.
[011] Em modalidades alternativas, o método inclui enviar uma ou mais das imagens capturadas para uma cabine de controle, receber as dimensões do volume delimitador 3D da cabine de controle, e receber a entrada para ajustar interativamente a posição e/ou orientação do volume delimitador da cabine de controle. Nesse caso, o cabeçalho, posição, verticalidade, atitude e/ou inclinação determinadas do objeto podem ser emitidos para a cabine de controle.
[012] Existem várias maneiras nas quais o volume delimitador pode ser mostrado sobreposto na imagem composta, por exemplo, mostrando as bordas e os vértices do volume delimitador e/ou mostrando as superfícies do volume delimitador parcialmente transparentes para que o objeto e a caixa delimitadora fiquem visíveis ao mesmo tempo. Preferivelmente, as propriedades espaciais da caixa delimitadora são exibidas ao usuário durante o ajuste interativo da mesma.
[013] As imagens são capturadas enquanto a plataforma móvel subaquática está afastada do objeto submerso, para evitar colisões entre a plataforma móvel subaquática e o objeto. A câmera pode ser configurada para capturar uma faixa de luz visível, em particular a luz na faixa de verde a azul, por exemplo, com um comprimento de onda na faixa de 420 a 570 nm. A fim de prover uma melhor visão do objeto, a plataforma móvel subaquática pode ser provida de uma ou mais fontes de luz para iluminar o objeto, em que uma ou mais fontes de luz são preferivelmente configuradas para emitir a maioria de sua potência na faixa de comprimento de onda de 420 a 570 nm.
[014] Em uma modalidade, a câmera está configurada para capturar luz na região UV não visível. Isso permite que o usuário visualize melhor o movimento dos fluxos de gás na água.
[015] Em uma modalidade, o volume delimitador é um cilindro delimitador, uma caixa delimitadora ou um poliedro convexo. Essas formas se prestam a serem ajustadas de maneira particularmente fácil e interativa pelo usuário. Preferivelmente, o método inclui permitir que o usuário escolha entre usar um cilindro delimitador ou uma caixa delimitadora como o volume delimitador.
[016] Em uma modalidade alternativa, o volume delimitador é um modelo 3D- CAD do objeto. Quando esse modelo CAD estiver disponível, o encaixe visual do volume delimitador às imagens capturadas pode ser realizado de maneira particularmente fácil, por exemplo, usando uma caixa delimitadora ou um cilindro delimitador do modelo 3D-CAD como o volume delimitador do objeto.
[017] Em uma modalidade, as dimensões do volume limitador permanecem constantes durante o ajuste interativo da posição e/ou orientação do volume limitador. Para alguns objetos, o usuário pode ter informações anteriores sobre as dimensões esperadas do volume delimitador, por exemplo, quando o objeto é um objeto com dimensões padronizadas. Ajustando apenas a posição e a orientação da caixa delimitadora, mas não suas dimensões, o usuário pode facilmente verificar visualmente se as dimensões do objeto ainda estão em conformidade com as dimensões esperadas.
[018] Em uma modalidade alternativa, o dispositivo de entrada é adicionalmente configurado para receber entrada a partir do usuário para ajustar interativamente as dimensões do volume delimitador. Isso permite que as propriedades espaciais sejam medidas quando nenhuma informação sobre as dimensões do submerso estiver disponível.
[019] Em uma modalidade, o método adicionalmente compreende, após o recebimento das dimensões da caixa delimitadora do usuário ou cabine de controle,
configuradas na unidade de processamento e com base nas dimensões inseridas, a posição e a orientação da câmera no momento a imagem foi capturada e, na altura e largura da imagem, uma posição e orientação iniciais do volume delimitador, de modo que, se o volume delimitador for projetado sobreposto à imagem capturada, o volume delimitador será centralizado na imagem capturada e se encaixará dentro da imagem capturada. Um eixo principal do volume delimitador se estende preferivelmente paralelo à direção da altura ou largura da imagem capturada. Assim, é garantido que o volume delimitador se encaixe dentro de um campo de visão que a câmera tinha no momento em que a imagem foi capturada.
[020] Em uma modalidade, o sistema de medição de posição e orientação é configurado para prover uma ou mais amostras de posição e orientação entre cada captura de uma imagem pela câmera. Para cada imagem capturada, a representação da posição e orientação da câmera que foi amostrada no momento mais próximo do momento em que a imagem foi capturada pode ser selecionada.
Para conseguir isso, as amostras de posição, as amostras de orientação e a imagem capturada são, preferivelmente, todas providas com uma marca de tempo. Para uma imagem capturada que é provida de uma marca de tempo, uma amostra de posição pode ser selecionada a qual tem uma marca de tempo mais próxima à marca de tempo da imagem, e uma amostra de orientação pode ser selecionada a qual tem uma marca de tempo mais próxima da marca de tempo da imagem. A marca de tempo da imagem para as amostras de posição e orientação e para a imagem capturada é preferivelmente provida por um relógio central.
[021] Em uma modalidade alternativa, o sistema de medição de posição e orientação é configurado para prover múltiplas amostras de posição e orientação entre cada captura de uma imagem pela câmera. Para cada imagem capturada, a representação da posição e orientação da câmera no espaço 3D no momento em que a imagem foi capturada pode ser determinada pela interpolação de duas ou mais das referidas amostras tiradas antes e após o momento em que a imagem foi capturada. Preferivelmente, o sistema de medição de posição e orientação é configurado para prover amostras de posição a uma primeira taxa fixa e para prover amostras de orientação a uma segunda taxa fixa. A fim de ser capaz de determinar corretamente a posição e a orientação da câmera, o sistema de medição de posição e orientação geralmente opera nas respectivas taxas de amostragem de pelo menos 10-20 Hz e 50 Hz. Embora a primeira e a segunda taxa de amostragem possam ser ajustadas para taxas mais altas, a câmera normalmente possui uma taxa de captura de imagem que é fixa ou menor que a primeira e a segunda taxas. Interpolando as amostras do sistema de medição de posição e orientação, as informações de posição e orientação de cada imagem capturada podem ser melhoradas.
[022] Em uma modalidade, a câmera é configurada para capturar cada imagem após o recebimento de um sinal de gatilho que é sincronizado com ou provido pelo sistema de medição de posição e orientação. Esta modalidade é especialmente adequada para ser usada com uma câmera que não possui uma taxa fixa de amostragem de imagem.
[023] Em uma modalidade, o método adicionalmente compreende prover o usuário de um dispositivo de entrada para determinar um ângulo entre uma linha em uma das referidas imagens capturadas exibidas ao usuário e a direção da gravidade da terra, e o usuário desenhar interativamente uma linha de medição na referida imagem exibida e o usuário ajustando interativamente o ângulo entre a referida linha de medição e a direção da gravidade da terra enquanto exibe o ângulo para o usuário. Em geral, o dispositivo de entrada compreenderá um mouse, teclado, joystick ou caneta ou similar do computador. Como a orientação e a posição da câmera no momento em que a imagem foi capturada são conhecidas, a direção da gravidade da terra dentro da imagem capturada também é conhecida, de modo que essa direção pode ser mostrada para o usuário. No entanto, ao usar esta ferramenta para alinhar a linha de medição com uma linha do objeto mostrado na imagem, é importante garantir que a imagem tenha sido capturada de um ponto de vista adequado, para evitar medições imprecisas devido à distorção da perspectiva.
[024] Em uma modalidade, a imagem composta adicionalmente compreende uma sobreposição de uma bússola, que mostra a direção em que a câmera está voltada. Isso facilita a navegação da plataforma móvel subaquática durante a inspeção.
[025] Para facilitar a entrada da aproximação inicial da posição do volume delimitador, o método pode compreender recusar entrar em uma aproximação da posição e orientação do volume delimitador, se a caixa delimitadora resultante não estiver parcial ou completamente dentro do volume de visualização 3D da imagem exibida ao usuário. Com base nas informações posicionais e de orientação da câmera e na configuração de câmera, um volume de visualização 3D pode ser calculado para cada imagem capturada, independentemente de o objeto ser mostrado na imagem capturada ou não. Por exemplo, se uma imagem do objeto foi capturada quando a câmera foi orientada para o norte, o volume de visualização 3D da imagem excluirá o volume ao sul da câmera.
[026] Em uma modalidade, a unidade de processamento está localizada em um navio que está afastado da plataforma móvel subaquática e que flutua na água.
[027] Em uma modalidade, o método é realizado enquanto a plataforma móvel submersa está submersa na vizinhança do objeto submerso e enquanto espaçada do mesmo. Nas proximidades, isso pode significar que a câmera está localizada em qualquer lugar na faixa de até 25 metros do objeto.
[028] De acordo com um segundo aspecto, é provido um meio legível por computador compreendendo instruções que, quando executadas por um computador, fazem com que o computador execute o método como aqui descrito.
[029] De acordo com um terceiro aspecto, e de acordo com as vantagens e efeitos aqui descritos acima, é provido um sistema para determinar uma propriedade espacial de um objeto submerso em um espaço 3D. O sistema compreende uma plataforma móvel subaquática e um navio. A plataforma móvel subaquática é provida de uma câmera e um sistema de medição de posição e orientação configurado para emitir uma posição e orientação da câmera. O navio é provido de uma unidade de processamento configurada para executar o método de acordo com o primeiro aspecto. O navio pode ainda incluir um monitor de usuário para exibir uma imagem composta para um usuário e um dispositivo de entrada para receber entrada a partir do usuário.
Breve Descrição dos Desenhos
[030] As modalidades serão agora descritas, apenas a título de exemplo, com referência aos desenhos esquemáticos anexos, nos quais os símbolos de referência correspondentes indicam partes correspondentes.
[031] As Fig. 1A e 1B mostram esquematicamente vistas lateral e superior de uma plataforma móvel subaquática com uma câmera digital, e um objeto submerso.
[032] A Fig.2A mostra uma vista do monitor de usuário no qual é exibida uma imagem do objeto submerso capturado com a câmera digital.
[033] A Fig. 2B mostra a entrada de dimensões de uma caixa delimitadora para encaixar em torno do objeto.
[034] A Fig. 2C ilustra como uma orientação e posição da caixa delimitadora são ajustadas pelo usuário, enquanto as propriedades espaciais da caixa delimitadora são apresentadas no monitor de usuário em tempo real.
[035] A Fig.2D ilustra como a orientação e a posição da caixa delimitadora são adicionalmente ajustadas pelo usuário com base em outra imagem capturada pela câmera, enquanto as propriedades espaciais da caixa delimitadora são apresentadas no monitor de usuário em tempo real.
[036] A Fig.3 mostra um monitor de usuário, no qual um volume delimitador alternativo é formado por um cilindro delimitador e no qual uma ferramenta de bússola virtual é mostrada.
[037] A Fig.4 mostra outro monitor de usuário, no qual uma ferramenta transferidora virtual é mostrada dinamicamente.
[038] A Fig. 5 mostra um fluxograma do método de acordo com uma modalidade.
[039] As figuras destinam-se apenas a fins ilustrativos e não servem como restrição do escopo ou da proteção estabelecida pelas reivindicações.
Descrição das Modalidades
[040] A seguir, é apresentada uma descrição de certas modalidades da invenção, providas apenas a título de exemplo e com referência às figuras.
[041] Figs. 1A e 1B mostram esquematicamente uma vista lateral e uma vista superior de uma plataforma subaquática, neste caso, um veículo operado remotamente (ROV) 20 que está conectado a uma plataforma superior, neste caso um navio 10, através de um cabo 19. Normalmente, mas não necessariamente, um comprimento do cabo 19 está entre alguns metros e 6 km, permitindo que o ROV alcance objetos submersos em águas profundas e/ou em posições remotas do navio
10. O cabo inclui um cabo de sinal, geralmente um cabo de fibra óptica, para transmitir sinais de controle para direcionar o ROV. No exemplo mostrado, o ROV pode ser direcionado controlando a orientação das aletas direcionáveis 22 em relação ao corpo principal 21 do ROV e/ou controlando individualmente a velocidade de rotação das hélices 23 que são montadas nas aletas direcionáveis. O ROV é ainda provido de um módulo 30 compreendendo uma câmera 31 que é anexada fixamente a um sistema de medição de posição e orientação 32. O sistema de medição de posição e orientação 32 é configurado para prover informações sobre a posição (X, Y, Z) e orientação (Rx, Ry, Rz) da câmera no espaço 3D, preferivelmente a uma taxa de 25 Hz ou mais, e pode compreender um GPS e um sistema de medição de inércia ou outro tipo de sistema de medição de atitude. A posição pode ser determinada em um quadro de referência local ou no quadro de referência da Terra, dependendo dos requisitos da situação. A seguir, será feita referência ao posicionamento dentro do referencial geodésico da Terra, salvo indicação em contrário, embora a invenção seja igualmente aplicável a qualquer referencial escolhido.
[042] O ROV 20 pode ser controlado, a partir do navio, para mover-se sobre o objeto 50 da posição P1 para a posição P2. Na Fig.1B, o ROV quando na posição P2 é referido usando o número de referência 20’. Ao mover o ROV em relação ao objeto, as imagens do objeto quando a câmera do ROV 31 está em posição e orientação diferentes em relação ao objeto 50 podem ser capturadas. A câmera 31 pode apenas detectar objetos que estão pelo menos parcialmente dentro do seu campo de visão. Nas Figs. 1A e 1B, o campo de visão da câmera quando o ROV está na posição P1 é ilustrado pelo frustum de visualização V, e o campo de visão da câmera quando o ROV está na posição P2 é ilustrado pelo frustum de visualização V. Nas posições P1, P2, a orientação e a posição da câmera 30 em relação ao objeto submerso 50, o objeto 50 está completamente dentro dos frustums de visualização V e V', respectivamente. O objeto 50 é completamente submerso na água 3 abaixo da superfície da água 4 e deve formar parte de uma base mecânica para suportar uma cabeça de poço. O objeto 50 compreende um quadro 51 com uma borda inferior quadrada 52 que é suportada no fundo do mar 2, cujo quadro afunila para cima em direção a uma borda superior quadrada 53 com uma borda menor que a inferior 52.
[043] Geralmente, a câmera e o sistema de posição e orientação funcionam em diferentes taxas de amostragem, com o sistema de posição e orientação tipicamente amostrando dados de posição e orientação a uma taxa mais alta do que a câmera captura imagens digitais. A fim de ser capaz de determinar com precisão a posição e a orientação da câmera a cada vez que a câmera captura uma imagem, cada uma das imagens capturadas pela câmera e cada dado de posição e orientação amostrado pelo sistema de posição e orientação são providos de uma marca de tempo. Para um exemplo mais detalhado de como essas marcas de tempo podem ser providas, é feita referência ao parágrafo [0044] do pedido de patente europeia EP2993620A1 pela requerente.
[044] As imagens capturadas e os dados de posição e orientação, juntamente com as marcas de tempo correspondentes, são transmitidos do ROV para o navio 10. Dentro de uma cabine de controle 11 do navio, um monitor de usuário 12 está disposto para mostrar as imagens capturadas pela câmera digital para um usuário no navio 10, junto com um dispositivo de entrada 13, por exemplo, um teclado, mouse ou monitor sensível ao toque para receber entrada a partir do usuário. Uma unidade de processamento 14 é provida para o cálculo, com base nas informações da imagem capturada que incluem a imagem capturada, bem como os dados posicionais e orientacionais da câmera no momento em que a imagem foi capturada, uma posição e orientação de uma caixa delimitadora que deve ser mostrada sobreposta à imagem capturada.
[045] A Fig.2A mostra um monitor de usuário 60 na qual uma imagem 64 do objeto submerso 50 é exibida, em que a imagem foi capturada usando a câmera digital 31 quando a plataforma móvel subaquática estava na posição P1 da Fig.1B.
Uma janela de informações 61 mostra informações para o usuário, tais como posição e orientação da câmera no momento em que a imagem foi capturada. Além disso, a janela de informações 61 provê um espaço no display no qual as propriedades espaciais de um volume delimitador, tais como uma caixa delimitadora ou um cilindro delimitador, podem ser mostradas ao usuário. Uma janela de entrada 62 mostrada no monitor permite ao usuário inserir dimensões de altura, largura e comprimento de uma caixa delimitadora retangular em uma unidade de processamento, por exemplo, um computador que está conectado ao monitor. Na visualização da Fig. 2A, nenhuma informação foi ainda inserida na janela de entrada 62 e, consequentemente, nenhum volume delimitador é mostrado.
[046] Na Fig. 2B, o usuário inseriu as dimensões de altura, largura e comprimento providas para uma caixa delimitadora retangular 70 para a unidade de processamento via janela de entrada 62 nas respectivas seções de entrada marcadas H:, W: e L:. No exemplo, o usuário tem conhecimento prévio das dimensões da delimitação retangular, por exemplo, porque os esquemas do objeto que indica a largura e o comprimento da altura estavam disponíveis para o usuário antes que a imagem fosse exibida para o usuário.
[047] Como nenhuma informação sobre a posição exata e a orientação da caixa delimitadora 70 foi provida à unidade de processamento 14, a unidade de processamento define inicialmente a posição da caixa delimitadora de modo que seja desenhada centralizada na imagem com um centro C da caixa delimitadora 70 coincidindo com o centro da imagem 64. A orientação da caixa delimitadora 70 é inicialmente definida de modo que uma face da caixa delimitadora mais próxima da exibição seja paralela ao plano da exibição. Na Fig. 2B, esta face contém os vértices 70a, 70d, 70e e 70h da caixa delimitadora. Além disso, a orientação da caixa delimitadora é definida de modo que uma borda inferior 77, na Fig.2B entre os vértices 70e e 70h, da caixa delimitadora seja paralela à borda inferior 67 da imagem retangular 64. A orientação da caixa delimitadora é, portanto, parcialmente definida com base no plano de exibição da unidade de exibição, e pelo menos duas das três coordenadas posicionais da caixa delimitadora no espaço 3D são inicialmente baseadas na largura e altura da imagem capturada 64. A terceira coordenada posicional restante da caixa delimitadora no espaço 3D é inicialmente definida pela unidade de processamento, de modo que toda a caixa delimitadora fique visível na exibição. Preferivelmente, a terceira coordenada é definida de modo que, quando a caixa delimitadora é exibida no monitor, ela é afastada das bordas horizontais e verticais do monitor por uma margem de pelo menos 20%, respectivamente, da largura e altura do monitor. Por exemplo, se a imagem capturada tiver 1600x1080 pixels, a terceira coordenada seria inicialmente definida para que a caixa delimitadora seja exibida dentro de um retângulo com coordenada inferior esquerda (320.216), coordenada inferior direita (1280, 216) e coordenada superior direita (1280, 864).
[048] Após definir a posição inicial, as dimensões e a orientação da caixa delimitadora, informações sobre as propriedades espaciais da caixa delimitadora, como título, posição, verticalidade, atitude, elevação e/ou inclinação da caixa delimitadora, são instantaneamente (por exemplo, dentro de 0,2 s) exibidos na janela de informações 61.
[049] A Fig. 2B mostra que inicialmente a posição e a orientação da caixa delimitadora 70 não coincidem visualmente com as do objeto submerso 50.
Consequentemente, as informações exibidas na janela de informações 61 sobre propriedades espaciais da caixa delimitadora não fornecem informações precisas sobre as propriedades espaciais correspondentes do objeto submerso.
[050] Na Fig. 2C, o usuário ajustou interativamente a posição e a orientação da caixa delimitadora, inserindo valores de ajuste para a posição e orientação da caixa delimitadora 70 nos campos de entrada 65 e 66, respectivamente. Como resultado, há uma correspondência visual aprimorada entre a caixa delimitadora 70 e o objeto 50. Em vez de, ou além de, inserir valores de ajuste nos campos de entrada 65, 66, o usuário pode ajustar a posição e/ou orientação da caixa delimitadora dentro da imagem capturada 64 arrastando qualquer um dos vértices 70a-70h para converter ou girar a caixa delimitadora na imagem.
[051] Na vista da Fig. 2C, os vértices 70e-70h da caixa delimitadora 70 parecem coincidir substancialmente com os vértices da borda inferior retangular 52 do objeto 50, enquanto os vértices da borda superior retangular 53 do objeto parecem estar substancialmente dentro de um plano medido pelos vértices 70a-70d da caixa delimitadora. Para alcançar essa visualização, o usuário intitulou levemente a caixa delimitadora em torno do eixo z e converteu a caixa delimitadora ao longo dos eixos X, Y e Z, até ficar satisfeito com a correspondência visual mostrada da caixa delimitadora no objeto submerso.
[052] A Fig 2D mostra uma imagem 64’ do objeto capturado quando a plataforma subaquática 20' se moveu para a posição P2' na Fig.1B. A caixa delimitadora para a qual as dimensões, orientação e posição se ajustaram interativamente para formar a sobreposição mostrada na Fig. 2C, agora é vista de uma perspectiva diferente. Nesta perspectiva, é claro que a caixa delimitadora deve ser girada levemente em torno de Ry para permitir que a borda inferior quadrada 52 e a borda superior quadrada 53 fiquem dentro do plano inferior e do plano superior da caixa delimitadora. Na vista em perspectiva do objeto mostrado no monitor da Fig. 2C, essa diferença entre a caixa delimitadora e o objeto submerso não era tão claramente visível. Ao ajustar interativamente a orientação da caixa delimitadora, o usuário aprimora ainda mais a correspondência visual entre o objeto e a caixa delimitadora. O usuário pode visualizar várias imagens capturadas tomadas em diferentes posições e orientações da câmera em relação ao objeto e, com base nas referidas imagens, melhorar o encaixe visual da caixa delimitadora que é mostrada sobreposta em cada imagem.
[053] Após cada ajuste da caixa delimitadora, as propriedades espaciais da caixa delimitadora são instantaneamente (por exemplo, dentro de 0,2 s) recalculadas e exibidas na janela de informações 61. Quando o usuário estiver satisfeito com o fato de a caixa delimitadora corresponder ao objeto em uma extensão suficiente, ele pode ler as propriedades espaciais calculadas da caixa delimitadora na janela de informações, por exemplo, para uso posterior adicional.
[054] Com referência às figuras 2A-2D, foi descrito um método de acordo com a invenção, que utilizou dimensões predeterminadas do volume delimitador do objeto submerso, em que as dimensões do volume delimitador correspondem substancialmente às dimensões do objeto submerso. No entanto, será apreciado que, se nenhuma dessas dimensões predeterminadas for conhecida, o método ainda poderá ser realizado, permitindo que o usuário insira uma aproximação das dimensões do volume delimitador do objeto, com base em uma imagem capturada.
Com base em uma ou mais imagens capturadas, o usuário pode posteriormente ajustar interativamente as dimensões do volume delimitador, bem como sua orientação e/ou posição.
[055] Além disso, para medir algumas propriedades espaciais de um objeto com base nas propriedades espaciais correspondentes de um volume delimitador, não é necessário que as dimensões do volume delimitador correspondam com precisão às dimensões do volume submerso. Por exemplo, um cabeçalho ou inclinação de um objeto submerso pode ser determinado com precisão se a orientação do volume delimitador corresponder suficientemente a do objeto submerso, mesmo que as dimensões e a posição do volume delimitador não correspondam exatamente as do objeto submerso.
[056] A Fig.3 mostra um exemplo de um volume delimitador na forma de um cilindro delimitador, que é mais adequado para corresponder visualmente a um objeto cilíndrico como o tubo 58. A Fig. 3 mostra o cilindro delimitador 80 como ele é exibido inicialmente sobreposto em uma imagem capturada de 64’' no monitor de usuário, imediatamente após o usuário inserir uma aproximação das dimensões do cilindro delimitador. A posição, orientação e dimensões do volume cilíndrico podem ser ajustadas interativamente pelo usuário, até que ele esteja substancialmente alinhado com o tubo 58. Por razões de brevidade, a Fig.3 mostra o cilindro 80 em sua posição e orientação inicial, bem como em sua posição e orientação alinhadas como cilindro 80' mostrado em linhas pontilhadas. No entanto, deve entender-se que o usuário apenas mostrará o cilindro 80 na sua posição e orientação inicial ou o cilindro em uma posição e orientação ajustadas. Uma vez que o usuário esteja convencido de que o cilindro delimitador corresponde ao objeto 58 em uma extensão suficiente, ele pode ler as propriedades espaciais calculadas da caixa delimitadora na janela de informações 61, por exemplo, para uso posterior adicional.
[057] Além da caixa delimitadora, uma ferramenta de bússola virtual 69 é sobreposta à imagem 64’'. À medida que o ROV muda de direção, a ferramenta de bússola virtual gira correspondentemente na imagem exibida para o usuário. A ferramenta da bússola virtual é compensada pelo movimento, de modo que, se a câmera olhar para o centro da terra, a bússola assumirá a forma de um círculo adequado.
[058] A Fig.4 mostra um exemplo de uma ferramenta transferidora virtual para determinar um ângulo entre uma linha em uma das imagens capturadas e a direção da gravidade. Depois de optar por usar a ferramenta transferidora virtual, o usuário clica em um ponto P3 na imagem e extrai uma linha de base L1 do transferidor. O transferidor virtual é sobreposto à imagem 2D com seu ponto central no ponto P3 e orientado de modo que sua linha de grau zero L2 esteja ao longo da direção da gravidade, ao longo da linha L2. O ponto final da linha de base na imagem 2D capturada pode ser ajustado interativamente pelo usuário, por exemplo até que esteja alinhado com uma barra 54 do objeto, em que durante o ajuste interativo o ângulo transferidor α entre a linha L1 e a linha L2 seja instantaneamente calculado e exibido na janela de informações do transferidor 68.
[059] A Fig. 5 mostra um fluxograma de um método de acordo com a presente invenção. Na etapa 100, uma plataforma móvel subaquática captura os primeiros dados de imagem de um objeto submerso, os primeiros dados de imagem compreendendo uma imagem digital do objeto, bem como uma representação de uma posição e orientação da câmera no espaço 3D no momento em que a primeira imagem foi capturada. Na etapa 101, esta imagem capturada é exibida para um usuário. Posteriormente, na etapa 102, a entrada é recebida do usuário nas dimensões de um volume delimitador 3D (por exemplo, caixa) para o objeto que é mostrado na imagem. Na etapa 103, é construída uma imagem composta, na qual o volume delimitador se sobrepõe à primeira imagem e a imagem composta é exibida ao usuário. Na etapa 104, a plataforma móvel subaquática captura os dados da segunda imagem do objeto submerso quando a câmera está em um local diferente do da etapa 100. Os segundos dados da imagem compreendem uma segunda imagem digital do objeto, bem como uma representação de uma posição e orientação da câmera no espaço 3D no momento em que a segunda imagem foi capturada. Na etapa 105, é construída uma imagem composta, na qual o volume delimitador se sobrepõe à segunda imagem e a imagem composta é exibida ao usuário. Entrada de usuário para ajustar a orientação e/ou posição do volume delimitador na segunda imagem para melhorar o encaixe visual do volume delimitador com o objeto é recebida na etapa 106. Após o recebimento da entrada de usuário, as propriedades espaciais do volume delimitador são instantaneamente calculadas e emitidas para o usuário na etapa 107. As etapas 105, 106 e 107 podem ser repetidas, conforme indicado pela seta pontilhada, até que o usuário esteja satisfeito com o encaixe visual do volume delimitador com o objeto que é exibido na imagem composta. Quando o volume delimitador se encaixa suficientemente ao objeto submerso, as propriedades espaciais como direção, posição, verticalidade, atitude, elevação e/ou inclinação do objeto no espaço 3D correspondem substancialmente às mesmas propriedades espaciais do volume delimitador.
[060] No método descrito acima, na etapa 105, apenas a posição e/ou orientação do volume delimitador são ajustadas interativamente pelo usuário, tornando o método adequado para situações nas quais as dimensões do volume delimitador de um objeto são conhecidas antecipadamente.
[061] Se as dimensões do volume delimitador de um objeto não forem conhecidas antecipadamente, por exemplo, ao realizar inspeção ad-hoc, ou quando a existência dos objetos submersos não era conhecida anteriormente pelo usuário, a etapa 105 pode compreender adicionalmente receber entrada de usuário para ajustar as dimensões do volume delimitador para melhorar o encaixe visual do volume delimitador com o objeto.
[062] Em resumo, a invenção provê um método para determinar uma propriedade espacial de um objeto submerso em um espaço 3D, usando uma plataforma móvel subaquática provida de uma câmera e um sistema de medição de posição e orientação configurado para emitir uma posição e orientação da câmera, o método que compreende receber entrada a partir do usuário para ajustar visualmente um volume delimitador ao objeto, e determinar a propriedade espacial do objeto com base em uma propriedade espacial correspondente de um volume delimitador, uma vez que o usuário esteja convencido de que o volume delimitador suficientemente se encaixa no objeto. O método provê uma maneira interativa de ajustar visualmente o volume delimitador ao objeto, com base em uma, duas ou mais imagens do objeto tiradas em uma ou em uma pluralidade de posições e/ou orientações diferentes da câmera em relação ao objeto, como bem como na representação de uma posição e orientação da câmera no espaço 3D no momento em que cada imagem foi capturada.
[063] A presente invenção foi descrita acima com referência a uma série de modalidades exemplares, como mostrado nos desenhos. Modificações e implementações alternativas de algumas partes ou elementos são possíveis e estão incluídas no escopo de proteção, conforme definido nas reivindicações anexas. Por exemplo, as modalidades exemplares foram descritas com referência a um ROV. O especialista compreenderá que os princípios aqui descritos também podem ser usados com outros tipos de plataformas móveis subaquáticas, por exemplo, com um veículo subaquático autônomo (AUV).

Claims (36)

REIVINDICAÇÕES
1. Método para determinar uma propriedade espacial de um objeto submer- so (50; 58) em um espaço 3D, usando uma plataforma móvel subaquática (20), tal como um veículo operado remotamente ou um veículo subaquático autônomo, que é provido de uma câmera (31) e de um sistema de medição de posição e orientação (32) configurado para emitir uma posição e orientação da câmera, o método CARACTERIZADO pelo fato de que compreende: capturar, em uma ou uma pluralidade de diferentes posições (P1, P2) da câmera em relação ao objeto, dados de imagem compreendendo uma imagem (64; 64’) do objeto capturado pela câmera e uma representação de uma posição e orien- tação da câmera no espaço 3D no momento em que a ou cada imagem foi captura- da, em que a referida representação é obtida usando a posição e a orientação emiti- da pelo sistema de medição de posição e orientação; receber, em uma unidade de processamento (14), dimensões de um volume delimitador 3D (70; 80) para o objeto na imagem capturada; construir na unidade de processamento, para uma ou duas ou mais das refe- ridas imagens capturadas, uma imagem composta na qual o volume delimitador é projetado sobreposto sobre a referida imagem, e receber, na unidade de processa- mento, entrada para ajustar a posição e/ou orientação de o volume delimitador para melhorar o encaixe visual do volume delimitador com o objeto na imagem composta; determinar pelo menos um de um cabeçalho, uma posição, uma verticalida- de, uma atitude e uma inclinação do objeto, com base nas dimensões e na orienta- ção do volume delimitador ajustado no espaço 3D.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o método adicionalmente compreende: exibir uma ou mais das imagens captu- radas (64; 64’) em um monitor (12) para um usuário; receber as dimensões do volu- me delimitador 3D (70; 80) do objeto a partir do usuário; exibir a imagem composta para o usuário, e receber a entrada para ajustar interativamente a posição e/ou ori- entação do volume delimitador do usuário; ou em que o método adicionalmente compreende: enviar uma ou mais das imagens capturadas (64; 64’) para uma cabine de controle (11); receber as dimen- sões do volume delimitador 3D (70; 80) da cabine de controle e receber a entrada para ajustar interativamente a posição e/ou orientação do volume delimitador a partir da cabine de controle.
3. Método, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que a unidade de processamento (14) está conectada ao monitor (12) e em que o objeto é exibido na imagem capturada (64, 64’).
4. Método, de acordo com a reivindicação 2 ou 3, CARACTERIZADO pelo fato de que adicionalmente compreende: emitir pelo menos uma das posições, a po- sição, a verticalidade, a atitude e a inclinação do objeto ao usuário ou para cabine de controle (11).
5. Método, de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que o volume delimitador (70; 80) é um cilindro de- limitador ou uma caixa delimitadora.
6. Método, de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que o volume delimitador é um modelo CAD 3D do objeto.
7. Método, de acordo com qualquer uma das reivindicações 1 a 6, CARACTERIZADO pelo fato de que, durante o ajuste interativo da posição e/ou ori- entação do volume delimitador, as dimensões do volume delimitador permanecem constantes.
8. Método, de acordo com qualquer uma das reivindicações 2 a 6, CARACTERIZADO pelo fato de que adicionalmente compreende receber entrada a partir do usuário para ajustar interativamente as dimensões do volume limitador para melhorar o encaixe visual do volume limitador com o objeto exibido na imagem com- posta.
9. Método, de acordo com qualquer uma das reivindicações 2 a 8, CARACTERIZADO pelo fato de que adicionalmente compreende, subsequente à etapa de recebimento das dimensões do volume delimitador a partir do usuário ou cabine de controle, estabelecer na unidade de processamento e com base nas di- mensões inseridas, a posição e orientação da câmera no momento em que a ima- gem foi capturada e na altura e largura da imagem, uma posição inicial e orientação do volume delimitador, de modo que, se o volume delimitador for projetado sobre- posto à imagem capturada, o volume delimitador é centralizado na imagem captura- da e se encaixa na imagem capturada, preferivelmente em que um eixo principal do volume delimitador se estende paralelamente à direção da altura ou largura da ima- gem capturada.
10. Método, de acordo com qualquer uma das reivindicações 1 a 9, CARACTERIZADO pelo fato de que o sistema de medição de posição e orientação é configurado para prover uma ou mais amostras de posição e orientação entre cada captura de uma imagem pela câmera, e em que para cada imagem capturada a re- presentação da posição e orientação da câmera é selecionada e foi amostrada no momento mais próximo do momento em que a imagem foi capturada.
11. Método, de acordo com qualquer uma das reivindicações 1 a 10, CARACTERIZADO pelo fato de que o sistema de medição de posição e orientação é configurado para prover várias amostras de posição e orientação entre cada captu- ra de uma imagem pela câmera, e em que para cada imagem capturada a represen- tação da posição e orientação da câmera no espaço 3D no momento em que a ima- gem foi capturada é determinada pela interpolação de duas ou mais das amostras tiradas antes e depois do momento em que a imagem foi capturada.
12. Método, de acordo com qualquer uma das reivindicações 1 a 11,
CARACTERIZADO pelo fato de que a câmera é configurada para capturar cada imagem após o recebimento de um sinal de gatilho que é sincronizado com ou pro- vido pelo sistema de medição de posição e orientação.
13. Método, de acordo com qualquer uma das reivindicações 2 a 12, CARACTERIZADO pelo fato de que adicionalmente compreende prover o usuário de um dispositivo de entrada para determinar um ângulo entre uma linha em uma das referidas imagens capturadas exibidas ao usuário e a direção da gravidade da terra, e o usuário interativamente desenhar uma linha de medição na referida ima- gem exibida e o usuário ajustar interativamente o ângulo entre a referida linha de medição e a direção da gravidade da terra enquanto exibe o ângulo para o usuário.
14. Método, de acordo com qualquer uma das reivindicações 1 a 13, CARACTERIZADO pelo fato de que a imagem composta adicionalmente compreen- de uma sobreposição de uma bússola que mostra a direção em que a câmera está voltada.
15. Método, de acordo com qualquer uma das reivindicações 2 a 14, CARACTERIZADO pelo fato de que recusa a entrada a partir de uma aproximação da posição e orientação do volume delimitador se o volume delimitador resultante não se encontrar parcial ou completamente dentro do frustum de visualização 3D da câmera correspondente à imagem exibida para o usuário.
16. Método, de acordo com qualquer uma das reivindicações 1 a 15, CARACTERIZADO pelo fato de que a unidade de processamento está localizada em um navio que é espaçado da plataforma subaquática móvel e que flutua na água.
17. Método, de acordo com qualquer uma das reivindicações 1 a 16, CARACTERIZADO pelo fato de que o método é realizado enquanto a plataforma móvel subaquática está submersa na vizinhança do objeto submerso.
18. Meio legível por computador, CARACTERIZADO pelo fato de que com-
preende instruções que, quando executadas por um computador, fazem com que o computador execute o método de acordo com qualquer uma das reivindicações 1-
17.
19. Sistema para determinar uma propriedade espacial de um objeto sub- merso em um espaço 3D, o sistema CARACTERIZADO pelo fato de que compreen- de: - uma plataforma móvel subaquática (20), provida de uma câmera (31) e um sistema de medição de posição e orientação (32) configurado para emitir uma posi- ção e orientação da câmera, e - um navio (10) equipado com uma unidade de processamento (14), configu- rada para executar o método como definido em qualquer uma das reivindicações 1 a 17, e opcionalmente de um monitor de usuário (12) para exibir uma imagem compos- ta para um usuário e de um dispositivo de entrada (13) para receber entrada a partir do usuário.
20. Método para determinar uma propriedade espacial de um objeto sub- merso (50; 58) em um espaço 3D, usando uma plataforma móvel subaquática (20), tal como um veículo operado remotamente ou um veículo subaquático autônomo, que é provido de uma câmera (31) e de um sistema de medição de posição e orien- tação (32) configurado para emitir uma posição e orientação da câmera, o método CARACTERIZADO pelo fato de que compreende: capturar, em uma ou uma pluralidade de diferentes posições (P1, P2) da câmera em relação ao objeto, dados de imagem compreendendo uma imagem (64; 64’) do objeto capturado pela câmera e uma representação de uma posição e orien- tação da câmera no espaço 3D no momento em que a ou cada imagem foi captura- da, em que a referida representação é obtida usando a posição e a orientação emiti- da pelo sistema de medição de posição e orientação; exibir, em um monitor (12), uma ou mais das imagens capturadas para um usuário; receber do usuário, em uma unidade de processamento (14) conectada ao monitor, dimensões de um volume delimitador 3D (70; 80) para o objeto que é exibi- do na imagem capturada; construir na unidade de processamento, para uma ou duas ou mais das refe- ridas imagens capturadas, uma imagem composta na qual o volume delimitador é projetado sobreposto à referida imagem, exibir a referida imagem composta ao usuá- rio e receber, na unidade de processamento, entrada a partir do usuário para ajustar interativamente a posição e/ou orientação do volume delimitador para melhorar o encaixe visual do volume delimitador com o objeto exibido na imagem composta; determinar pelo menos um de um cabeçalho, uma posição, uma verticalida- de, uma atitude e uma inclinação do objeto, com base nas dimensões e na orienta- ção do volume delimitador ajustado no espaço 3D e transmiti-lo ao usuário.
21. Método para determinar uma propriedade espacial de um objeto sub- merso (50; 58) em um espaço 3D, usando uma plataforma móvel subaquática (20), como um veículo operado remotamente ou um veículo subaquático autônomo, que é provido de uma câmera (31) e de um sistema de medição de posição e orientação (32) configurado para emitir uma posição e orientação da câmera, o método CARACTERIZADO pelo fato de que compreende: capturar, em uma ou uma pluralidade de diferentes posições (P1, P2) da câmera em relação ao objeto, dados de imagem compreendendo uma imagem (64; 64’) do objeto capturado pela câmera e uma representação de uma posição e orien- tação da câmera no espaço 3D no momento em que a ou cada imagem foi captura- da, em que a referida representação é obtida usando a posição e a orientação emiti- da pelo sistema de medição de posição e orientação; enviar para uma cabine de controle (11), uma ou mais das imagens captura- das;
receber da cabine de controle, em uma unidade de processamento (14), di- mensões de um volume delimitador 3D (70; 80) para o objeto que está contido na imagem capturada; construir na unidade de processamento, para uma ou pelo menos duas das referidas imagens capturadas, uma imagem composta na qual o volume delimitador é projetado sobreposto sobre a referida imagem e receber, na unidade de proces- samento, entrada a partir da cabine de controle para ajustar interativamente a posi- ção e/ou orientação do volume delimitador para melhorar o encaixe visual do volume delimitador com o objeto exibido na imagem composta; determinar pelo menos um de um cabeçalho, uma posição, uma verticalida- de, uma atitude e uma inclinação do objeto, com base nas dimensões e na orienta- ção do volume delimitador ajustado no espaço 3D, e emitir para a cabine de contro- le.
22. Método, de acordo com a reivindicação 20 ou 21, CARACTERIZADO pelo fato de que o volume delimitador é um cilindro delimitador ou uma caixa delimi- tadora.
23. Método, de acordo com a reivindicação 20 ou 21, CARACTERIZADO pelo fato de que o volume delimitador é um modelo CAD 3D do objeto.
24. Método, de acordo com qualquer uma das reivindicações 20 a 23, CARACTERIZADO pelo fato de que, durante o ajuste interativo da posição e/ou ori- entação do volume limitador, as dimensões do volume limitador permanecem cons- tantes.
25. Método, de acordo com qualquer uma das reivindicações 20 a 24, CARACTERIZADO pelo fato de que adicionalmente compreende receber entrada a partir do usuário para ajustar interativamente as dimensões do volume limitador para melhorar o encaixe visual do volume limitador com o objeto exibido na imagem com- posta.
26. Método, de acordo com qualquer uma das reivindicações 20 a 25, CARACTERIZADO pelo fato de que adicionalmente compreende, após a etapa de recebimento das dimensões do volume delimitador a partir do usuário ou cabine de controle, estabelecer na unidade de processamento e com base nas dimensões in- seridas, a posição e orientação da câmera no momento em que a imagem foi captu- rada e na altura e largura da imagem, uma posição inicial e orientação do volume delimitador, de modo que, se o volume delimitador for projetado sobreposto à ima- gem capturada, o volume delimitador é centrado na imagem capturada e se encaixa na imagem capturada, preferivelmente em que um eixo principal do volume delimita- dor se estende paralelamente à direção da altura ou largura da imagem capturada.
27. Método, de acordo com qualquer uma das reivindicações 20 a 26, CARACTERIZADO pelo fato de que o sistema de medição de posição e orientação é configurado para prover uma ou mais amostras de posição e orientação entre cada captura de uma imagem pela câmera, e em que para cada imagem capturada a re- presentação da posição e orientação da câmera é selecionada e foi amostrada no momento mais próximo do momento em que a imagem foi capturada.
28. Método, de acordo com qualquer uma das reivindicações 20 a 27, CARACTERIZADO pelo fato de que o sistema de medição de posição e orientação é configurado para prover múltiplas amostras de posição e orientação entre cada captura de uma imagem pela câmera, e em que para cada imagem capturada a re- presentação da posição e orientação da câmera no espaço 3D no momento em que a imagem foi capturada é determinada pela interpolação de duas ou mais das amos- tras tiradas antes e depois do momento em que a imagem foi capturada.
29. Método, de acordo com qualquer uma das reivindicações 20 a 28, CARACTERIZADO pelo fato de que a câmera está configurada para capturar cada imagem após o recebimento de um sinal de gatilho que é sincronizado com ou pro- vido pelo sistema de medição de posição e orientação.
30. Método, de acordo com qualquer uma das reivindicações 20 a 29, CARACTERIZADO pelo fato de que adicionalmente compreende prover o usuário de um dispositivo de entrada para determinar um ângulo entre uma linha em uma das referidas imagens capturadas exibidas ao usuário e a direção da gravidade da terra, e o usuário interativamente desenhar uma linha de medição na referida ima- gem exibida e o usuário ajustar interativamente o ângulo entre a referida linha de medição e a direção da gravidade da terra enquanto exibe o ângulo para o usuário.
31. Método, de acordo com qualquer uma das reivindicações 20 a 30, CARACTERIZADO pelo fato de que a imagem composta adicionalmente compreen- de uma sobreposição de uma bússola que mostra a direção em que a câmera está voltada.
32. Método, de acordo com qualquer uma das reivindicações 20 a 31, CARACTERIZADO pelo fato de que recusa a entrada a partir de uma aproximação da posição e orientação do volume delimitador, se o volume delimitador resultante não se encontrar parcial ou completamente dentro do campo de visão 3D da câmera correspondente à imagem exibida ao usuário.
33. Método, de acordo com qualquer uma das reivindicações 20 a 32, CARACTERIZADO pelo fato de que a unidade de processamento está localizada em um navio que é espaçado da plataforma subaquática móvel e que flutua na água.
34. Método, de acordo com qualquer uma das reivindicações 20 a 33, CARACTERIZADO pelo fato de que o método é realizado enquanto a plataforma móvel subaquática está submersa na vizinhança do objeto submerso.
35. Meio legível por computador, CARACTERIZADO pelo fato de que com- preende instruções que, quando executadas por um computador, fazem com que o computador execute o método de acordo com qualquer uma das reivindicações 20 a
34.
36. Sistema para determinar uma propriedade espacial de um objeto sub-
merso em um espaço 3D, o sistema CARACTERIZADO pelo fato de que compreen-
de:
- uma plataforma móvel subaquática (20), provida de uma câmera (31) e um sistema de medição de posição e orientação (32) configurado para emitir uma posi-
ção e orientação da câmera, e
- um navio (10) provido de uma unidade de processamento (14) configurada para executar o método como definido em qualquer uma das reivindicações 20-34, e opcionalmente provido de um monitor de usuário (12) para exibir uma imagem com-
posta para um usuário, e de um dispositivo de entrada (13) para receber entrada a partir do usuário.
BR112020004570-5A 2017-09-08 2018-09-05 sistema e método para determinação de propriedade espacial de um objeto submerso em um espaço 3d BR112020004570A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
NL2019516A NL2019516B1 (en) 2017-09-08 2017-09-08 System and method for determination of a spatial property of a submerged object in a 3D-space
NL2019516 2017-09-08
PCT/NL2018/050569 WO2019050396A1 (en) 2017-09-08 2018-09-05 SYSTEM AND METHOD FOR DETERMINING A SPATIAL PROPERTY OF AN OBJECT IMMERSED IN A 3D SPACE

Publications (1)

Publication Number Publication Date
BR112020004570A2 true BR112020004570A2 (pt) 2020-09-08

Family

ID=60020566

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020004570-5A BR112020004570A2 (pt) 2017-09-08 2018-09-05 sistema e método para determinação de propriedade espacial de um objeto submerso em um espaço 3d

Country Status (6)

Country Link
US (1) US11391559B2 (pt)
EP (1) EP3679320B1 (pt)
AU (1) AU2018329399B2 (pt)
BR (1) BR112020004570A2 (pt)
NL (1) NL2019516B1 (pt)
WO (1) WO2019050396A1 (pt)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL2019516B1 (en) 2017-09-08 2019-03-19 Fugro N V System and method for determination of a spatial property of a submerged object in a 3D-space
NL2020405B1 (en) * 2018-02-08 2019-08-19 Fugro N V Method of and apparatus for analyzing images
WO2020068849A1 (en) * 2018-09-25 2020-04-02 Visual Robotics Systems Inc. Spatially-aware camera and method thereof
KR20220008256A (ko) * 2019-05-14 2022-01-20 인텔 코포레이션 몰입형 미디어를 위한 자동 포인트 클라우드 검증
CN111397578B (zh) * 2020-03-11 2022-01-25 中煤航测遥感集团有限公司 管道焊口的高程获取方法、装置及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0222211D0 (en) * 2002-09-25 2002-10-30 Fortkey Ltd Imaging and measurement system
GB2483213B8 (en) * 2009-06-11 2016-09-14 Toshiba Res Europ Ltd 3D image generation
FR2998400B1 (fr) * 2012-11-21 2016-01-15 Thales Sa Procede de reconstruction 3d et de mosaiquage 3d panoramique d'une scene
KR20150142923A (ko) * 2014-06-12 2015-12-23 한국전자통신연구원 소포 인입 시스템 및 그 방법
NL2013409B1 (en) 2014-09-03 2016-09-27 Fugro N V Spatial positioning of offshore structures.
NL2013804B1 (en) * 2014-11-14 2016-10-07 Fugro Subsea Services Ltd A method of controlling a subsea platform, a system and a computer program product.
NL2019516B1 (en) 2017-09-08 2019-03-19 Fugro N V System and method for determination of a spatial property of a submerged object in a 3D-space

Also Published As

Publication number Publication date
AU2018329399A1 (en) 2020-04-23
EP3679320B1 (en) 2021-08-04
EP3679320A1 (en) 2020-07-15
NL2019516B1 (en) 2019-03-19
AU2018329399B2 (en) 2024-06-20
US11391559B2 (en) 2022-07-19
US20210123717A1 (en) 2021-04-29
WO2019050396A1 (en) 2019-03-14

Similar Documents

Publication Publication Date Title
BR112020004570A2 (pt) sistema e método para determinação de propriedade espacial de um objeto submerso em um espaço 3d
US8315425B2 (en) Method for comparison of 3D computer model and as-built situation of an industrial plant
JP5058364B2 (ja) 俯瞰画像生成装置、俯瞰画像生成装置の俯瞰画像生成方法および俯瞰画像生成プログラム
US20140049617A1 (en) Image information output method
DK2588882T3 (en) A method of producing a digital photo, wherein at least some of the pixels comprise position information and such a digital photo
CN105115560B (zh) 一种船舱舱容的非接触测量方法
US20110040425A1 (en) Device, Program Product and Computer Implemented Method for Touchless Metrology Using an Inertial Navigation System and Laser
US20150049187A1 (en) Method, Device and Computer Programme for Extracting Information About One or More Spatial Objects
JP2009068951A (ja) 空中架線の管理システム
CN102829769B (zh) 基于结构光视觉传感器的集装箱位置姿态测量方法
EP3413266B1 (en) Image processing device, image processing method, and image processing program
CN102692213B (zh) 基于主动式全景视觉传感器的交通事故现场测绘仪
CN106408601A (zh) 一种基于gps的双目融合定位方法及装置
CN110135396A (zh) 地面标志的识别方法、装置、设备及介质
US20210279443A1 (en) Method and apparatus for detecting object in three-dimensional (3d) point cloud
US20200068125A1 (en) State estimation and localization for rov-based structural inspection
CN110675455A (zh) 一种基于自然场景的车身环视相机自标定方法和系统
ES2732354T3 (es) Dispositivo para la representación de un terreno sobre un dispositivo de visualización de un cuerpo volador
CN108180926A (zh) 一种面阵相机imu视准轴误差地面检测方法
JP2010249709A (ja) 断面計測装置、断面計測方法および断面計測プログラム
JP2009140402A (ja) 情報表示装置、情報表示方法、情報表示プログラム及び情報表示プログラムを記録した記録媒体
CN104166995B (zh) 一种基于马步测度的Harris‑SIFT双目视觉定位方法
CN110132131A (zh) 一种三维场景数据的测量方法
KR100780603B1 (ko) 이동형 사진측량 시스템에서의 라인 레이저를 이용한시설물의 위치 파악 방법
KR20160047059A (ko) 수중 구조물의 외벽 점검용 수중 점검 카메라 및 이를 이용한 수중 구조물의 외벽 점검 방법

Legal Events

Date Code Title Description
B25A Requested transfer of rights approved

Owner name: FNV IP B.V. (PB)

B350 Update of information on the portal [chapter 15.35 patent gazette]
B06W Patent application suspended after preliminary examination (for patents with searches from other patent authorities) chapter 6.23 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 05/09/2018, OBSERVADAS AS CONDICOES LEGAIS