BR112021001746A2 - sistema e método de operação para veículos operados remotamente para detecção automática de ameaças à integridade estrutural - Google Patents
sistema e método de operação para veículos operados remotamente para detecção automática de ameaças à integridade estrutural Download PDFInfo
- Publication number
- BR112021001746A2 BR112021001746A2 BR112021001746-1A BR112021001746A BR112021001746A2 BR 112021001746 A2 BR112021001746 A2 BR 112021001746A2 BR 112021001746 A BR112021001746 A BR 112021001746A BR 112021001746 A2 BR112021001746 A2 BR 112021001746A2
- Authority
- BR
- Brazil
- Prior art keywords
- module
- rov
- video
- fact
- operable
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000011218 segmentation Effects 0.000 claims abstract description 63
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 31
- 230000007246 mechanism Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 2
- 238000013136 deep learning model Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 18
- 238000012800 visualization Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 229910052751 metal Inorganic materials 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63G—OFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
- B63G8/00—Underwater vessels, e.g. submarines; Equipment specially adapted therefor
- B63G8/001—Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63G—OFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
- B63G8/00—Underwater vessels, e.g. submarines; Equipment specially adapted therefor
- B63G8/001—Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations
- B63G2008/002—Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations unmanned
- B63G2008/005—Underwater vessels adapted for special purposes, e.g. unmanned underwater vessels; Equipment specially adapted therefor, e.g. docking stations unmanned remotely controlled
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Computer Graphics (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
A presente invenção proporciona um sistema e método e detecção automática de ameaças à integridade estrutural. Um mecanismo de detecção de ameaças detecta ameaças à integridade em estruturas, tais como estruturas submarinas, e segmenta as estruturas em uma imagem usando redes neurais convolucionais (CNN). O mecanismo de detecção de ameaças pode incluir um módulo de conjunto de dados, um módulo de treinamento de CNN, um módulo de mapa de segmentação, um módulo de semi-supervisão e um módulo de eficiência. O mecanismo de detecção de ameaças pode treinar um modelo de aprendizagem profunda para detectar anomalias nos vídeos. Para tanto, um módulo de conjunto de dados com vídeos pode ser usado quando o módulo de conjunto de dados inclui anotações detalhando em quais marcações de tempo uma ou mais anomalias estão visíveis.
Description
[001] As revelações dos documentos de patente publicados referenciados neste pedido são por meio deste incorporadas em suas totalidades para fins de referência neste pedido de modo a descrever de forma mais abrangente o estado da técnica à qual pertence esta invenção.
[002] A presente invenção diz respeito a um sistema de operação para veículos operados remotamente (“ROV”), e a métodos para seu uso. Mais especificamente, a presente invenção oferece um sistema e método de operação para ROVs com detecção automática de ameaças à integridade estrutural. Antecedentes da Invenção
[003] A exploração da última região inexplorada da terra, o mar, é em grande medida motivada pela demanda continuada por recursos energéticos. Devido ao fato de os seres humanos não serem capazes de suportar as pressões induzidas às quais ocorre a exploração energética, nos tornamos cada vez mais dependentes de tecnologias tais como veículos autônomos e tecnologia ROV. A velocidade, confiabilidade e segurança da exploração dos oceanos só irão até onde a tecnologia disponível permitir no futuro. Portanto, novas inovações na exploração são necessárias. Sumário da Invenção
[004] Falhas em manter estruturas submarinas de Petróleo e Gás (O&G) em boa condição podem expor o meio ambiente a graves riscos, causar perda de produção e maiores custos de reparos e reposição. Os operadores podem ser obrigados a garantir que as estruturas estejam em uma condição segura.
[005] Por exemplo, é necessário realizar inspeção periódica dos dutos quanto a danos. Esses danos poderiam se originar de colisões de objetos ou causas naturais. Quando uma ameaça à integridade é detectada, o duto precisa ser reparado, ou, em casos mais extremos, substituído.
[006] Outro exemplo ainda mais amplo é a inspeção dos anodos de sacrifício. Estes são feitos de metais altamente ativos e são usados para proteger superfícies metálicas menos ativas contra a corrosão. O anodo de sacrifício é consumido em vez da superfície metálica que ele está protegendo, e, portanto, os anodos de sacrifício precisam ser substituídos periodicamente.
[007] Os ROVs são usados para inspecionar visualmente estruturas submarinas. Para tanto, os ROVs filmam as estruturas que necessitam de inspeção e operadores humanos treinados tentam detectar, no vídeo, ameaças em potencial à integridade. Sendo assim, é necessário um sistema que seja capaz de: 1) detectar ameaças à integridade em uma estrutura submarina; e 2) segmentar a estrutura na imagem.
[008] Esta revelação oferece sistemas e métodos relacionados à operação dos ROVs com detecção aperfeiçoada de ameaças à integridade estrutural, sendo a detecção automática em algumas modalidades e realizada com o uso de redes neurais convolucionais. Embora as modalidades e exemplos sejam apresentados no contexto de missões submarinas, um indivíduo capacitado na técnica apreciará que os aspectos, características, funcionalidades, etc. discutidos nesta revelação também podem ser estendidos a praticamente qualquer tipo de projeto de navegação complexo. Breve Descrição dos Desenhos
[009] Os aspectos, características e vantagens supramencionados, e outros, podem ser melhor entendidos a partir da descrição detalhada seguinte com referência aos desenhos acompanhantes, nos quais:
[010] A Fig. 1A mostra uma vista diagramática de um sistema, de acordo com algumas modalidades;
[011] A Fig. 1B mostra uma vista diagramática de um sistema e suas funções associadas, de acordo com algumas modalidades;
[012] As Figs. 2A e 2B representam vistas alternativas de uma interface de usuário de um sistema de acordo com algumas modalidades;
[013] As Figs. 3A e 3B mostram visões gerais de arquitetura de software de um sistema, de acordo com algumas modalidades;
[014] A Fig. 3C é uma ilustração diagramática de sistemas em rede, de acordo com algumas modalidades;
[015] A Fig. 4 representa módulos para obter imagens 3D híbridas, e um método para seu uso, de acordo com algumas modalidades;
[016] A Fig. 5A ilustra cálculos para alinhar um vídeo virtual e um vídeo real, de acordo com algumas modalidades;
[017] A Fig. 5B ilustra imagens 3D híbridas obtidas pela sobreposição de um vídeo virtual e um vídeo real, de acordo com algumas modalidades;
[018] As Figs. 6A a 6E representam várias vistas de uma interface de navegação, de acordo com algumas modalidades;
[019] A Fig. 7 ilustra uma visão geral em diagrama de blocos de um mecanismo de detecção de ameaças, de acordo com algumas modalidades; e
[020] A Fig. 8 representa uma arquitetura para um modelo CNN básico, de acordo com algumas modalidades. Descrição Detalhada da Invenção
[021] A invenção proporciona um sistema para operar um veículo operado remotamente (ROV), compreendendo: a) um módulo de banco de dados de elementos 3D operáveis para representar objetos dispostos em um ambiente de operação do ROV; b) um módulo de geração de vídeo virtual operável para gerar um vídeo virtual incorporando os elementos 3D;
c) uma câmera de vídeo montada no ROV operável para gerar um vídeo real do ambiente de operação do ROV; d) um módulo de sincronização operável para sincronizar um ângulo e posição de uma câmera virtual com um ângulo e posição da câmera de vídeo montada no ROV; e) um mecanismo de visualização operável para sobrepor o vídeo real no vídeo virtual para criar imagens 3D híbridas; e f) um mecanismo de detecção de ameaças operável para detectar uma ameaça à integridade em uma estrutura a partir das imagens 3D híbridas e segmentar a estrutura nas imagens 3D híbridas, o mecanismo de detecção de ameaças compreendendo: um módulo de conjunto de dados; um módulo de treinamento de rede neural convolucional (CNN); um módulo de mapa de segmentação; e um módulo de eficiência.
[022] Os sistemas e métodos descritos aqui podem adicionalmente ter um ou mais dos seguintes aspectos adicionais, os quais podem ser combinados uns com os outros ou com qualquer outro aspecto descrito aqui, a menos que sejam claramente mutuamente exclusivos.
[023] O módulo de conjunto de dados pode incluir anotações detalhando em quais marcações de tempo uma ou mais anomalias estão visíveis.
[024] O módulo de treinamento CNN pode aceitar uma imagem de entrada e emitir uma lógica alta se uma anomalia visível for detectada e, caso contrário, emitir uma lógica baixa.
[025] O módulo de treinamento CNN pode compreender uma pluralidade de camadas convolucionais empilhadas, em que cada camada convolucional empilhada subsequente da pluralidade de camadas convolucionais empilhadas inclui uma região maior da imagem de entrada.
[026] O modelo de treinamento CNN pode adicionalmente compreender um mapa de segmentação de estrutura grosseira.
[027] O módulo de mapa de segmentação pode gerar um conjunto de dados de mapa de segmentação usando segmentações em nível de pixel.
[028] O módulo de mapa de segmentação pode gerar as segmentações em nível de pixel projetando um modelo 3D de uma estrutura visível na câmera virtual do ROV.
[029] O módulo de treinamento CNN pode treinar um modelo CNN para minimizar uma função de perda.
[030] O módulo de treinamento CNN pode (i) usar uma função de perda L para dados que contêm tanto dados de segmentação quanto dados de verdade de campo (ground-truth) de anomalias e (ii) usar uma função de perda La para dados que contêm dados de verdade de campo de anomalias, mas não dados de segmentação.
[031] O módulo de eficiência pode calcular uma máscara binária m e, quando todos os elementos de m estiverem próximos de zero, o módulo de eficiência pode impedir o mecanismo de detecção de ameaças de realizar cálculos adicionais e gerar uma saída de que não há anomalias estruturais.
[032] A invenção proporciona um sistema para exploração submarina, compreendendo: a) um veículo operado remotamente (ROV) compreendendo uma câmera para obter um vídeo real; b) um sistema operacional em rede compreendendo um computador e software executável por computador compreendendo um mecanismo de visualização e um mecanismo de detecção de ameaças; c) um módulo de banco de dados de elementos 3D operáveis para representar objetos dispostos em um ambiente de operação do ROV; d) um módulo de geração de vídeo virtual operável para gerar um vídeo virtual incorporando os elementos 3D; e) uma câmera de vídeo montada no ROV operável para gerar um vídeo real do ambiente de operação do ROV; f) um módulo de sincronização operável para sincronizar um ângulo e posição de uma câmera virtual com um ângulo e posição da câmera de vídeo montada no ROV; g) em que o mecanismo de visualização é operável para sobrepor o vídeo real no vídeo virtual para criar imagens 3D híbridas; e h) em que o mecanismo de detecção de ameaças é operável para detectar uma ameaça à integridade em uma estrutura a partir das imagens 3D híbridas e segmentar a estrutura nas imagens 3D híbridas, o mecanismo de detecção de ameaças compreendendo: um módulo de conjunto de dados; um módulo de treinamento de rede neural convolucional (CNN); um módulo de mapa de segmentação; e um módulo de eficiência; e i) uma interface de navegação configurada para exibir as imagens 3D híbridas, a interface de navegação compreendendo pelo menos um monitor interligado em rede.
[033] O módulo de conjunto de dados pode incluir anotações detalhando em quais marcações de tempo uma ou mais anomalias estão visíveis.
[034] O módulo de treinamento CNN pode aceitar uma imagem de entrada e emitir uma lógica alta se uma anomalia visível for detectada e, caso contrário, emitir uma lógica baixa.
[035] O módulo de treinamento CNN pode compreender uma pluralidade de camadas convolucionais empilhadas, em que cada camada convolucional empilhada subsequente da pluralidade de camadas convolucionais empilhadas inclui uma região maior da imagem de entrada.
[036] O modelo de treinamento CNN pode adicionalmente compreender um mapa de segmentação de estrutura grosseira.
[037] O módulo de mapa de segmentação pode gerar um conjunto de dados de mapa de segmentação usando segmentações em nível de pixel.
[038] O módulo de mapa de segmentação pode gerar as segmentações em nível de pixel projetando um modelo 3D de uma estrutura visível na câmera virtual do ROV.
[039] A invenção também proporciona um método de operação de um veículo operado remotamente (ROV), compreendendo: a) obter dados 3D; b) armazenar elementos 3D em um módulo de banco de dados, os elementos 3D representando objetos dispostos no ambiente de operação do ROV e compreendendo os dados 3D; c) gerar um vídeo virtual dos elementos 3D; d) sincronizar um ângulo e posição de uma câmera virtual com um ângulo e posição da câmera de vídeo montada no ROV; e e) alinhar e sobrepor um elemento de vídeo virtual com um elemento de vídeo real para criar imagens 3D híbridas; f) segmentar uma estrutura a partir das imagens 3D híbridas; e g) detectar uma ameaça à integridade na estrutura a partir das imagens 3D híbridas.
[040] Um método pode adicionalmente compreender detectar uma ameaça à integridade que adicionalmente inclui: a) treinar um modelo CNN; e b) gerar mapas de segmentação. Um método pode adicionalmente compreender detectar uma ameaça à integridade que adicionalmente inclui: a) gerar um conjunto de dados de mapa de segmentação usando segmentações em nível de pixel; e b) calcular uma máscara binária m; e c) interromper cálculos adicionais quando todos os elementos de m estiverem próximos de zero.
[041] A invenção também propõe um produto de programa de computador, armazenado em um meio legível por computador, para implementar qualquer método de acordo com a invenção como descrito aqui.
[042] Como mencionado acima, vários aspectos e funcionalidades são discutidos aqui a título de exemplos e modalidades em um contexto de navegação por ROV e detecção de ameaças para uso na exploração submarina. Ao descrever tais exemplos e modalidades ilustrativas, emprega-se terminologia específica em prol da clareza. Entretanto, esta revelação não pretende se limitar aos exemplos e modalidades ilustrativas discutidos aqui, tampouco à terminologia específica utilizada em tais discussões, e deve ser entendido que cada elemento específico inclui todos os equivalentes técnicos que operam de maneira similar. Definições
[043] Os termos a seguir são definidos como se segue:
[044] elementos 3D; objetos 3D – Dados definindo formas tridimensionais, obtidas pela modelagem da entrada derivada do sonar ou da entrada determinada pelo usuário.
[045] Abstração; camada de abstração – Uma característica do software executável, em que diferentes formatos de dados são padronizados em um formato comum, de modo que os componentes se tornem compatíveis.
[046] Mecanismo de dados – Um conjunto de módulos, de acordo com uma modalidade desta invenção, que é responsável pelo menos pela aquisição, armazenamento e relatório dos dados coletados no decurso de uma missão do ROV.
[047] Estado de falha – Um estado, definido por um usuário ou por um padrão, em que a funcionalidade do sistema, de acordo com algumas modalidades da invenção, caiu a um nível inaceitável.
[048] Limiar de luminância, um valor determinado pelo sistema de intensidade de cor de pixel RGB (Vermelho, Verde, Azul) que define um estado visível, porém transparente, para as imagens exibidas por um dispositivo de saída de imagem digital.
[049] Módulo – Uma combinação de pelo menos um processador de computador, memória de computador e software personalizado que executa uma ou mais funções definidas.
[050] Mecanismo de navegação – Um conjunto de módulos, de acordo com algumas modalidades da presente invenção, que é responsável por tornar a Interface de Navegação interativa, e para produzir dados para exibição na Interface de Navegação.
[051] Posicionado; geoposicionado; mercado – Que possui uma localização definida pelo Sistema de Posicionamento Global de satélites e/ou sistemas de posicionamento acústico ou inercial, e, opcionalmente, que possui uma localização definida por uma profundidade abaixo do nível do mar.
[052] ROV – Um veículo operado remotamente; geralmente, um veículo aquático. Embora, para fins de conveniência e concisão, descrevam-se aqui ROVs, nada aqui sugere limitar-se somente a veículos que necessitam de operação remota. Veículos autônomos e veículos semi-autônomos estão dentro do escopo desta revelação.
[053] Mecanismo de Detecção de Ameaças – Um conjunto de módulos, de acordo com algumas modalidades, que é responsável por detectar ameaças de integridade às estruturas e por segmentar a estrutura em uma imagem.
[054] Mecanismo de visualização – Um conjunto de módulos, de acordo com uma modalidade da presente invenção, que é responsável por produzir o aspecto exibido da interface de navegação. Sistema Hardware e Dispositivos
[055] Referindo-se agora aos desenhos, nos quais numerais de referência similares designam partes idênticas ou correspondentes por todas as várias vistas, a Fig. 1A representa diagramaticamente um sistema de acordo com uma modalidade da invenção. Este sistema inclui um ROV e sua instrumentação associada 1, um sistema operacional alojado dentro do hardware do computador 3 e uma interface do usuário e seus dispositivos associados 2. O sistema operacional 3 media a interação entre o ROV 1 e o usuário 4, de modo que o usuário possa enviar comandos e consultas por informações ao ROV 1, e obtenha respostas mecânicas e dados emitidos pelo ROV 1.
[056] Como visto a partir da Fig. 1B, o sistema operacional 3 pode receber informações em tempo real obtidas pelo sonar em tempo real 3D multifeixe do ROV 1, dados de telemetria, dados de posicionamento e vídeo, bem como objetos 3D programados a partir de uma base de dados 5, e processar esses dados para fornecer modelos 3D em tempo real do ambiente tanto para realidade aumentada quanto para renderização 3D total exibida na interface do usuário 2. A interface do usuário 2 também pode ser usada para exibir vídeo obtido usando a instrumentação digital do ROV 1, incluindo, por exemplo, câmeras e outros sensores. O ROV 1 utilizado no sistema da presente invenção está equipado com instrumentação convencional para telemetria e posicionamento, que respondem aos comandos mediados pelo sistema operacional 3.
[057] Em uma modalidade da invenção, o hardware para o sistema operacional 3 inclui um computador de prateleira topo de linha que pode ser facilmente integrado a qualquer sistema de controle de ROV. Os vários módulos de software que adicionalmente definem o sistema operacional serão descritos em maiores detalhes adiante.
[058] Com referência às Figs. 2A e 2B, a interface homem-máquina inclui pelo menos um monitor 7, e, de preferência, três monitores interativos 7 para navegação. De acordo com uma modalidade ilustrada na Fig. 2A, o monitor central 7 fornece uma alimentação de vídeo e realidade aumentada (AR), enquanto que os monitores laterais oferecem uma expansão do campo de visão da operação. Em outro aspecto, os monitores laterais podem permitir que o usuário tenha uma visão panorâmica do ambiente do ROV usando visualização 3D total a partir do ponto de visão do ROV. Como se vê na Fig. 2B, a interação entre o usuário e o sistema pode utilizar joysticks 7, controles de jogo, ou outros controladores. Em outra modalidade, a interface do usuário 2 pode empregar tecnologia de tela de toque ou multitoque, alertas de áudio e sons, comandos de voz, um mouse de computador, etc. Módulos Funcionais
[059] Em vez de desenvolver um sistema operacional 3 diferente para cada marca e modelo do ROV 1, as modalidades descritas aqui funcionam por abstração, de modo que o sistema operacional revelado 3 e o hardware associado trabalhem da mesma forma com todos os ROVs 1. Por exemplo, se um componente entregar “$DBS,14.0,10.3” como coordenadas de profundidade e proa, e outro componentes entregar “$HD,15.3,16.4” como coordenadas de proa e profundidade, essas cadeias de caracteres de dados são analisadas em suas respectivas variáveis: Profundidade1=14.0, Profundidade2=16.4, Proa1=16.4, Proa2=15.3. Esta análise permite que ambos os sistemas trabalhem da mesma forma, independente dos detalhes do formato de dados.
[060] Ao desenvolver uma camada de abstração de controladores para comunicação entre o sistema operacional 3 e o hardware do ROV, o usuário 4 é provido de comunicação de dados ininterrupta, e não está restrito ao uso de modelos de ROV específicos. Esta abstração adicionalmente permite que os usuários 4 e os sistemas 3 comuniquem informação de rede entre vários sistemas e compartilhem informações entre diversos projetos submarinos. O uso de um único sistema também possibilita redução de custo no treinamento, manutenção e operação deste sistema.
[061] A Fig. 3A representa uma visão geral da arquitetura de software ilustrando as partes componentes do ROV 1, da interface do usuário 2 e do sistema operacional 3. As contrapartes de software são proporcionadas para a telemetria, posicionamento, vídeo e instrumentação do sonar do ROV. De modo a implementar funções do usuário incluindo planejamento, registro de eventos, navegação, supervisão e relato de missão, o sistema operacional 3 fornece um mecanismo de navegação, um mecanismo de visualização e um mecanismo de dados. O sistema operacional 3 é interligado em rede, de modo que os serviços conectados e unidades de comando externas possam fornecer entrada de dados em tempo real. Uma de tais unidades de comando externas pode ser configurada como um “watchdog” (sistema de vigilância ou monitoramento contra falhas) O sistema externo de vigilância contra falhas pode realizar verificações periódicas para determinar se o sistema está funcionando corretamente ou se está em um estado de falha. Se o sistema estiver em um estado de falha, o sistema de vigilância contra falhas pode alterar as entradas dos monitores, ou contorná-las, para uma alimentação de vídeo em tempo real convencional até que o sistema esteja operando corretamente.
[062] A Fig. 3B representa uma visão geral de arquitetura de software adicional ilustrando que o sistema operacional 3, que medeia as funções do usuário supramencionadas, está interligado em rede para oferecer comunicação entre um console de supervisão multitoque e um piloto ou pilotos. A Fig. 3C ilustra ainda outro nível de conectividade, em que o sistema de navegação de um primeiro ROV pode compartilhar todos os seus dados dinâmicos com o sistema de navegação de outro ROV através de uma rede. Mecanismo de Visualização
[063] Como se vê nas Figs. 1B e 3A, o mecanismo de visualização do sistema operacional 3 adicionalmente inclui módulos para implementar imagens 3D, imagens bidimensionais ("2D"), e fornecer uma atualização do ambiente em tempo real. Esses módulos são ilustrados na Fig. 4, que ilustra, de maneira gradual, como o sistema opera em algumas modalidades para criar imagens 3D híbridas sobrepostas.
[064] Um módulo de banco de dados 3D 10 inclui tecnologia de renderização 3D avançada para permitir que todos os estágios da operação do ROV sejam executados com referência a um ambiente de águas profundas 3D recriado visualmente. Este ambiente é composto pela batimetria do leito marinho e equipamento modelado, por exemplo, estruturas dos dispositivos de energia do oceano.
[065] Como discutido acima, as principais fontes de dados de imagem podem ser modelagem 2D pré-gravada de dados do sonar (isto é, vídeo 3D gerado por computador), e, possivelmente, outros dados de vídeo; dados de sonar em tempo real obtidos em tempo real; dados de vídeo obtidos em tempo real; elementos 3D determinados pelo usuário; e comunicações textuais ou gráficas que deverão ser exibidas na tela de interface do usuário. A posição geográfica e profundidade (ou altura) de quaisquer elementos ou regiões incluídos nos dados de imagem são conhecidas pelo posicionamento GPS, pelo uso de sistemas de posicionamento acústico e/ou inercial, e/ou por referência a mapas, e/ou por outras medições de sensor.
[066] Em algumas modalidades, um módulo de geração de vídeo virtual 11 é proporcionado para usar os elementos 3D armazenados supramencionados ou elementos 3D detectados em tempo real para criar um vídeo virtual de tais elementos 3D. O módulo de geração de vídeo virtual 11 pode trabalhar conjuntamente com um módulo de sincronização 12.
[067] O módulo de sincronização 12 alinha a posição da câmera virtual do vídeo virtual com o ângulo e posição de uma câmera real em um ROV. De acordo com algumas modalidades, a câmera virtual define um campo de visão para o vídeo virtual, que pode se estender, por exemplo, entre 45 e 144 graus a partir de um ponto de visão central.
[068] Como ilustrado na Fig. 5A, o alinhamento dos ângulos de câmera virtual e real pode ser realizado calculando-se o ângulo entre a proa do ROV e a direção do campo de visão da câmera; calculando-se o ângulo entre a vertical do ROV e a direção do campo de visão da câmera; e calculando-se o ângulo entre o ROV e o horizonte geográfico. Esses ângulos calculados são então usados para determinar uma coordenada na tela do objeto equivalente do eixo X-Y digital em intervalos de tempo determinados ou toda vez que uma variável mudar de valor.
[069] Um módulo de sobreposição 13, cuja função é adicionalmente diagramada na Fig. 5B, é proporcionado para sobrepor o vídeo virtual gerado 20 e o vídeo em tempo real sincronizado 21 obtido pela câmera digital do ROV. O resultado são as imagens 3D sobrepostas híbridas 22, em que o sistema efetivamente desenha o ambiente 3D gerado sobre a parte não-visível da alimentação de vídeo, melhorando assim em grande medida a visibilidade para o piloto do ROV. Mais especificamente, o software de sobreposição divide o vídeo de alimentação da câmera e o vídeo 3D gerado em várias camadas no armazenamento temporário (buffer) z do sistema de renderização 3D. Isto permite o nivelamento das camadas e sua sobreposição, o que simula a percepção espacial e facilita a navegação.
[070] Ainda outro aspecto do módulo de sobreposição 13 é que um dos vídeos real 21 ou virtual 20, ou ambos, podem ser manipulados, baseado em um limiar de luminância, para ser mais transparente nas áreas de menor interesse, permitindo assim que a área correspondente da outra alimentação de vídeo transpareça. De acordo com algumas modalidades, a luminância no formato hexadecimal Vermelho-Verde-Azul pode estar entre 0-0-0 e 255-255-255, e, de preferência, entre 0-0-0 e 40-40-40. As áreas de menor interesse podem ser selecionadas por um padrão do sistema, ou pelo usuário. A intensidade de cor das imagens nas áreas de menor interesse é definida no limiar de luminância, e a região correspondente do outro vídeo é definida em luminância normal. Para o exemplo ilustrado na Fig. 5B, o plano de fundo do vídeo virtual 20 é mantido relativamente mais transparente do que o primeiro plano. Assim, quando o vídeo real 21 é sobreposto na imagem 3D virtual 20, o vídeo real 21 é seletivamente aumentado primariamente com o primeiro plano virtual, que contém uma estrutura submarina de interesse. Mecanismo de Navegação
[071] A Interface de Navegação 2D na tela para o piloto do ROV envolve sobrepor dados geoposicionados ou informações técnicas em um sistema de renderização 2D. O geoposicionamento ou geomarcação dos dados e elementos é executado tomando como referência mapas ou satélites de posicionamento global. A Interface de Navegação resultante, como se vê nas Figs. 6A a 6D, é similar aos consoles de exibição frontal do tipo aviação (HUD). No caso da navegação submarina, o meio de exibição é configurado para indicar a posição do ROV 1 baseado nas coordenadas conhecidas, e usando um sistema de sonar que registra imagens 3D a partir de uma posição do ROV para navegação posterior. Desta maneira, as modalidades descritas aqui proporcionam a visualização imersiva da operação do ROV.
[072] A Fig. 6A ilustra a sobreposição das informações textuais e símbolos 30 sobre a renderização de vídeo 2D da interface de usuário do ROV. A Fig. 6B ilustra a sobreposição dos elementos 3D 31 sobre a renderização de vídeo. A sobreposição desses dados sobre a alimentação de vídeo é útil, não apenas para navegar e controlar o ROV 1, mas também para executar as funções de planejamento e supervisão relacionadas do sistema operacional 3. Esta sobreposição pode ser realizada de maneira similar à sobreposição das alimentações de vídeo, isto é, obtendo-se coordenadas na tela de um objeto, e renderizando texto e números próximo a essas coordenadas.
[073] O módulo de planejamento permite que engenheiros e/ou supervisores planejem uma ou várias missões do ROV. Referindo-se novamente à Fig. 6A, um aspecto importante do módulo de planejamento é a entrada e apresentação das informações de batimetria 32 através de visualização 3D. Como visto na Interface de Navegação, os pontos de rota 33 e os pontos de verificação 34 são sobrepostos na alimentação de vídeo. Esses elementos podem ser identificados, por exemplo, pelo número e/ou pela distância de um ponto de referência. Em outras palavras, além de sobrepor as especificações técnicas e informações de condição 30 para o ROV 1 ou outras estruturas relevantes, a Interface de Navegação também fornece posições determinadas pelo GPS para navegação e informações do piloto.
[074] Em algumas modalidades, os procedimentos 35, incluindo procedimentos temporizados (tarefas de observação de posição fixa, por exemplo), podem ser incluídos na Interface de Navegação como texto. Dada esta informação procedural, um piloto do ROV pode antever e completar tarefas com mais precisão. Um usuário também pode usar o sistema para definir áreas acionáveis. As áreas acionáveis são áreas geoposicionadas no ambiente submarino que disparam uma ação do sistema ao entrar, sair ou permanecer por mais tempo do que um tempo designado. A ação disparada poderia ser um alarme, notificação, mudança de procedimento, mudança de tarefa, etc.
[075] Referindo-se à Fig. 6C, usando uma série de regras estabelecidas no módulo de planejamento, ou por entrada manual, o sistema pode apresentar mais ou menos informações 2D geomarcadas na Interface de Navegação. Por exemplo, como se vê em 36, durante uma operação do ROV, quando o piloto está a 100 metros de um objeto geomarcado, o sistema pode apresentar apenas informações gerais relacionadas à estrutura geral, ou informações específicas necessárias para uma tarefa atual específica na área próxima. À medida que o piloto se aproxima da estrutura geomarcada, ilustrada em 37, o sistema pode incrementalmente apresentar mais informações sobre os componentes dessa estrutura. Este nível dinâmico e manual de controle de detalhes pode se aplicar tanto às informações textuais quanto simbólicas 30, bem como ao aumento dos elementos 3D 31.
[076] Com referência à Fig. 6D, o módulo de planejamento também pode fornecer informações na tela relacionadas à trajetória de voo 38. Como se vê na Fig. 6E, outro aspecto importante da invenção é incorporado por um minimapa 39, isto é, um gráfico sobreposto no vídeo, que pode incluir uma variedade de representações diferentes, tais como ícones pequenos representando objetos alvo. O minimapa 39 pode mostrar os pontos cardeais (Norte, Sul, Leste, Oeste) em uma representação 3D, opcionalmente em acréscimo a uma representação de um objeto relevante no espaço tridimensional. O minimapa 39 pode estar posicionado em um canto, e pode ser movido, ocultado e chamado de volta pelo usuário. Mecanismo de Dados
[077] O mecanismo de dados, que medeia as funções de armazenagem de dados e transferência de dados da invenção, portanto, incorpora os módulos de registro e supervisão.
[078] O módulo de registro registra ou grava todas as informações disponibilizadas pelo sistema operacional e salva tais dados em um banco de dados central para acesso futuro. As informações disponíveis podem incluir qualquer um ou todos dentre telemetria, dados de sonar, modelos 3D, batimetria, pontos de rota,
pontos de verificação, alarmes ou mau funcionamentos, procedimentos, operações e registros de navegação, tais como informações de trajetória de voo, dados de posicionamento e inerciais, etc.
[079] Uma parte essencial de qualquer operação offshore fornecendo dados críticos ao cliente após a operação é concluída. Após a operação, durante o estágio de relato de missão e geração de relatório, o módulo de relato de missão e geração de relatório pode fornecer um cenário ou reprodução 3D completo da operação. O módulo de relato de missão e geração de relatório pode fornecer um relatório sobre a trajetória de voo planejada versus a trajetória de voo real, pontos de rota, pontos de verificação, diversos desvios no plano, alarmes fornecidos pelo ROV, incluindo detalhes do tipo de alarme, tempo e localização, procedimentos, pontos de verificação, etc. prontos a serem distribuídos ao cliente. Por conseguinte, o sistema de operacional é configurado para fornecer relatórios interativos quadridimensionais (três dimensões espaciais mais o tempo) para cada operação. Isso possibilita a análise rápida e uma compreensão abrangente das operações.
[080] Ainda outro elemento de software que interage com a Interface de Navegação é o módulo supervisor. A execução do módulo supervisor permite que um ou mais supervisores visualizem e/ou utilizem a Interface de Navegação, e, por extensão, qualquer ROV 1 sendo controlado a partir da interface. Esses supervisores não precisam compartilhar a localização do piloto ou pilotos do ROV, mas, em vez disso, podem empregar os elementos de conectividade representados nas Figs. 3B e 3C. Uma pluralidade de consoles de supervisão multitoque pode ser usada em diferentes localizações. Por exemplo, poderiam-se ter nove monitores conectados a três estruturas de hardware ilustrativas, incluindo um ROV 1, em que somente um sistema operacional 3 coletou os dados do ROV e compartilhou informações com os outros. Em alternativa, entre um e 12 monitores interligados em rede podem ser usados, e, de preferência, entre 3 e 9 podem ser usados. A interconexão em rede oferecida, como ilustrado nas Figs. 3B e 3C, pode reduzir riscos, tal como erro humano, em operações com múltiplos ROV, mesmo naquelas coordenadas a partir de embarcações separadas. A interconexão em rede através do módulo supervisor possibilita o compartilhamento de informações entre os sistemas ROV, equipes e operações por todo o fluxo de trabalho de operação. Mecanismo de Detecção de Ameaças
[081] Como discutido aqui com respeito às Figs. 1B e 3A, o mecanismo de visualização do sistema operacional 3 adicionalmente inclui módulos para implementar imagens 3D, implementar imagens 2D, fornecer uma atualização do ambiente em tempo real. Esses módulos são ilustrados na Fig. 4, que ilustra como o sistema opera em algumas modalidades para criar imagens 3D híbridas sobrepostas com um mecanismo de visualização usando um módulo de banco de dados 3D 10, um módulo de geração de vídeo virtual 11, um módulo de sincronização 12, e um módulo de sobreposição 13.
[082] De acordo com algumas modalidades, ainda outro aspecto do sistema operacional 3 é o mecanismo de detecção de ameaças que detecta ameaças à integridade nas estruturas, tais como estruturas submarinas, e segmenta as estruturas em uma imagem usando redes neurais convolucionais (“CNN”). Geralmente, o módulo de detecção de ameaças pode receber vídeos a partir do ROV, escrever nos registros (por exemplo, registro de dados), e exibir alertas na interface do usuário. Este aspecto é adicionalmente descrito e ilustrado com respeito à Fig. 7.
[083] A Fig. 7 ilustra uma visão geral de diagrama de blocos de um mecanismo de detecção de ameaças 70 que inclui um módulo de conjunto de dados 71, um módulo de mapa de segmentação 72, um módulo de treinamento de CNN 73, e um módulo de eficiência 75.
[084] O mecanismo de detecção de ameaças 70 pode treinar um modelo de aprendizagem profunda para detectar anomalias nos vídeos. Para tanto, um módulo de conjunto de dados 71 com vídeos pode ser usado quando o módulo de conjunto de dados 71 inclui anotações detalhando em quais marcações de tempo uma ou mais anomalias estão visíveis. O módulo de conjunto de dados 71 pode ser parte de, operar de maneira similar a, ou usar o mecanismo de dados e/ou banco de dados 5 descritos aqui (e ilustrados nas Figs. 1B & 3A). O módulo de conjunto de dados 71 pode recuperar vídeos, tais como vídeos de missões passadas. Esses vídeos podem ter anotações em determinados quadros. Em algumas modalidades, os vídeos podem ter anotações que indicam se existe uma ameaça à integridade em um dado quadro.
[085] O módulo de mapa de segmentação 72 pode usar o vídeo virtual (por exemplo, o vídeo virtual 20) para obter os mapas de segmentação. Um mapa de segmentação é uma matriz em que, para cada pixel de um dado quadro, a matriz contém um 1 quando esse pixel pertence a uma estrutura e um 0 quando esse pixel não pertence a uma estrutura.
[086] O módulo de treinamento de CNN 73 pode usar os dados do conjunto de dados 71 e do módulo de mapa de segmentação 72 para treinar um modelo de CNN. Em algumas modalidades, o módulo de treinamento de CNN 73 pode treinar um modelo de CNN que prediz se há uma ameaça à integridade em uma dada imagem, prediz um mapa de segmentação grosseira das estruturas presentes na imagem, ou ambos. Em algumas modalidades, os mapas de segmentação oriundos do módulo de mapa de segmentação 72 não são obrigatórios. Consequentemente, em alguns casos, o modelo de CNN será treinado com supervisão nos mapas de segmentação, e, em outros casos, o modelo de CNN será treinado sem supervisão nos mapas de segmentação. Assim, o modelo de CNN é treinado de maneira semi- supervisionada com respeito aos mapas de segmentação.
[087] O mecanismo de detecção de ameaças 70 pode usar um módulo de treinamento de CNN 73 para treinar um modelo de CNN que aceita um quadro de entrada (ou imagem de entrada) e emite um 1 (ou lógica alta) se uma anomalia visível for detectada e emite um 0 (ou lógica baixa) caso contrário. Este tipo de CNN geralmente requer vastas quantidades de dados para funcionar, uma vez que o modelo aprende do zero. Em algumas modalidades, o mecanismo de detecção de ameaças 70 pode melhorar a eficiência de treinamento do modelo CNN usando conjuntos de dados menores e forçando o modelo a buscar por anomalias dentro das estruturas, tais como estruturas submarinas, o que permite que o modelo aprenda a partir de conjuntos de dados menores (e, portanto, este é um aprimoramento da eficiência técnica).
[088] Um modelo de CNN básico (tal como o representado na Fig. 8) consiste de várias Camadas Convolucionais empilhadas. Cada Camada Convolucional subsequente leva em conta uma região maior da imagem de entrada até alcançar a saída que deverá levar em conta a imagem completa. A região da imagem de entrada que a CNN leva em conta pode ser chamada de campo receptivo.
[089] Em algumas modalidades, zi é a saída da inésima Camada Convolucional, que é um tensor com altura hi, largura wi e características ki. O mecanismo de detecção de ameaças 70 pode gerar uma Camada Convolucional 1 1 por uma função de ativação sigmoide sobre zi para obter uma máscara binária hi wi x 1 m. Esta máscara binária pode ser um mapa de segmentação de estrutura grosseira com valores definidos em 1 quando uma estrutura está visível em seu campo receptivo, e 0 caso contrário.
[090] Dispor deste mapa de segmentação de estrutura grosseira permite que o mecanismo de detecção de ameaças 70 descarte características que foram extraídas de regiões fora das estruturas multiplicando zi por m: zi’ = zi m. Então, o mecanismo de detecção de ameaças 70 informa zi’ para a (i + 1)nésima Camada
Convolucional. O mecanismo de detecção de ameaças pode então treinar o modelo completo conjuntamente, por exemplo, com Retropropagação e Descida do Gradiente Estocástico, para minimizar uma função de perda La entre sua saída e o valor binário de verdade de tempo que consiste em ter ou não, na imagem, uma ameaça à integridade.
[091] Entretanto, treinando o modelo desta forma, o mecanismo de detecção de ameaças 70 não está forçando m para detectar estruturas. Para detectar estruturas, o mecanismo de detecção de ameaças 70 requer um conjunto de dados em que cada quadro é anotado com um mapa de segmentação de estrutura grosseira. Com este conjunto de dados, é possível aplicar uma função de perda Lm para oferecer supervisão no mapa de estrutura.
[092] Para os sistemas anteriores, a coleta de mapas de segmentação geralmente era um processo extremamente trabalhoso. Em contrapartida, usando as modalidades da invenção descritas aqui, o mecanismo de detecção de ameaças 70 pode usar o módulo de mapa de segmentação 72 para coletar os mapas de segmentação usando os sistemas e métodos descritos aqui. Por exemplo, um ROV 1 com uma câmera de vídeo usando o sistema operacional 3 pode ser usado de modo que uma cena 3D do campo seja construída, e, dada a posição do ROV e a direção da câmera, os modelos 3D das estruturas visíveis podem ser sobrepostos na câmera do ROV (por exemplo, usando o mecanismo de visualização e o módulo de sobreposição 13). Em algumas modalidades, somente a imagem virtual é gerada. Os modelos 3D das estruturas visíveis são projetados em uma imagem virtual, tal como o vídeo virtual 20, dada a posição e direção do ROV.
[093] Usando esta modalidade, a eficiência é aprimorada, uma vez que somente os objetos 3D que pertencem às estruturas são projetados, em vez de projetar todos os objetos 3D (por exemplo, estruturas, outros ROVs, pontos de rota, trajetórias de voo, etc.). Ao projetar as estruturas na câmera do ROV, o mecanismo de detecção de ameaças 70 pode gerar segmentações de estruturas em nível de pixel e usar essas segmentações de estruturas em nível de pixel para construir o conjunto de dados de mapa de segmentação.
[094] O mecanismo de detecção de ameaças 70 pode treinar o modelo de CNN para minimizar uma função de perda, tal como a função de perda a seguir: L = La + Lm
[095] A Fig. 8 representa uma arquitetura para um modelo CNN básico, de acordo com algumas modalidades. A Fig. 8 mostra um modelo de CNN 80, uma imagem de entrada 81, camadas convolucionais empilhadas 82, perdas (La e Lm), e a camada totalmente conectada (“FC”) 83. A FC83 é uma camada de rede neural que pode ser usada para prever se há uma ameaça à integridade em uma imagem, dadas as características extraídas pelas camadas convolucionais. Cada camada convolucional empilhada subsequente 82 leva em conta uma região maior (ou diferente) da imagem de entrada. O modelo de CNN pode ser projetado de modo que as camadas convolucionais empilhadas 82 levem em conta a imagem de entrada completa na saída do modelo de CNN. Como mostra a Fig. 8, a perda é aplicada em duas camadas diferentes do modelo.
[096] O mecanismo de detecção de ameaças 70 pode melhorar a precisão da predição do mapa de segmentação. Os dados coletados de acordo com as modalidades da invenção oferecem maior precisão para fins de detecção de ameaças, pois o mecanismo de detecção de ameaças 70 possui tanto dados de segmentação quando dados de verdade de campo de anomalias. Os dados de verdade de campo referem-se ao valor correto para um dado exemplo. Nesta modalidade, há dois exemplos de dados de verdade de campo. Os dados de verdade de campo de ameaça à integridade podem ser um 1 lógico se houver uma ameaça à integridade na imagem e um 0 lógico caso contrário. Os dados de verdade de campo de segmentação de estrutura podem ser um 1 lógico se um pixel (por exemplo, um pixel da imagem de entrada) estiver relacionado a uma estrutura e um 0 lógico caso contrário. Assim, para dados coletados pelo mecanismo de detecção de ameaças 70 para um dado quadro, um modelo de CNN totalmente supervisionado pode usar a função de perda L e um modelo de CNN semi- supervisionado pode usar a função de perda La. Por outro lado, usando somente os dados que foram coletados usando o sistema descrito aqui, o sistema pode estar perdendo acesso aos vídeos e dados de outros sistemas que só possuem dados de verdade de campo de ameaça à integridade (isto é, que não contêm dados de verdade de campo de segmentação de estrutura). Portanto, quando o módulo de segmentação 72 não é capaz de produzir mapas de segmentação para um dado quadro, o módulo de treinamento de CNN 73 irá usar a função de perda La. Neste caso, (isto é, quando somente os dados de verdade de campo de ameaça à integridade estão disponíveis, mas os dados de verdade de campo de segmentação não estão disponíveis), o erro retropropagado por La é usado para melhorar a segmentação grosseira m e, dessa forma, estes dados podem ser usados para aprimorar o modelo de segmentação.
[097] O mecanismo de detecção de ameaças 70 pode melhorar a eficiência com um módulo de eficiência 74. De modo a implementar um sistema em um cenário em tempo real, a velocidade é muito importante. Assim, em algumas modalidades, o módulo de eficiência 74 pode executar CNNs em GPUs para potencializar suas capacidades de computação paralela em massa. Adicionalmente ou em alternativa, em algumas modalidades, o módulo de eficiência 74 pode calcular a máscara binária m, e, se todos seus elementos estiverem próximos de zero, o módulo de eficiência 75 pode impedir o mecanismo de detecção de ameaças de realizar cálculos adicionais e gerar uma saída informando que não há anomalias estruturais. Isto se baseia, pelo menos em parte, no raciocínio de que, se não há estruturas na imagem, então não há ameaças à integridade estrutural.
[098] Sendo assim, foi ilustrado e descrito um sistema e método relacionados à detecção automática de ameaças para estruturas.
O método e sistema não se limitam a qualquer configuração de hardware ou software específica.
As diversas variações, modificações e aplicações alternativas da invenção que seriam aparentes aos versados na técnica, e que não se distanciam do escopo da invenção, são consideradas como sendo cobertas pela invenção.
Claims (21)
1. Sistema para operar um veículo operado remotamente (ROV), CARACTERIZADO por compreender: um módulo de banco de dados de elementos 3D operáveis para representar objetos dispostos em um ambiente de operação do ROV; um módulo de geração de vídeo virtual operável para gerar um vídeo virtual incorporando os elementos 3D; uma câmera de vídeo montada no ROV operável para gerar um vídeo real do ambiente de operação do ROV; um módulo de sincronização operável para sincronizar um ângulo e posição de uma câmera virtual com um ângulo e posição da câmera de vídeo montada no ROV; um mecanismo de visualização operável para sobrepor o vídeo real no vídeo virtual para criar imagens 3D híbridas; e um mecanismo de detecção de ameaças operável para detectar uma ameaça à integridade em uma estrutura a partir das imagens 3D híbridas e segmentar a estrutura nas imagens 3D híbridas, o mecanismo de detecção de ameaças compreendendo: um módulo de conjunto de dados; um módulo de treinamento de rede neural convolucional (CNN); um módulo de mapa de segmentação; e um módulo de eficiência.
2. Sistema, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o módulo de conjunto de dados inclui anotações detalhando em quais marcações de tempo uma ou mais anomalias estão visíveis.
3. Sistema, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que o módulo de treinamento de CNN aceita uma imagem de entrada e emite uma lógica alta se uma anomalia visível for detectada e, caso contrário, emite uma lógica baixa.
4. Sistema, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que o módulo de treinamento de CNN compreende uma pluralidade de camadas convolucionais empilhadas, em que cada camada convolucional empilhada subsequente da pluralidade de camadas convolucionais empilhadas inclui uma região maior da imagem de entrada.
5. Sistema, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que o modelo de treinamento de CNN adicionalmente compreende um mapa de segmentação de estrutura grosseira.
6. Sistema, de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que o módulo de mapa de segmentação gera um conjunto de dados de mapa de segmentação usando segmentações em nível de pixel.
7. Sistema, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que o módulo de mapa de segmentação gera as segmentações em nível de pixel projetando um modelo 3D de uma estrutura visível na câmera virtual do ROV.
8. Sistema, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que o módulo de treinamento de CNN treina um modelo de CNN para minimizar uma função de perda.
9. Sistema, de acordo com a reivindicação 8, CARACTERIZADO pelo fato de que o módulo de treinamento de CNN (i) usa uma função de perda L para dados que contêm tanto dados de segmentação quanto dados de verdade de campo (ground-truth) de anomalias e (ii) usa uma função de perda La para dados que contêm dados de verdade de campo de anomalias, mas não dados de segmentação.
10. Sistema, de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que o módulo de eficiência calcula uma máscara binária m e, quando todos os elementos de m estiverem próximos de zero, o módulo de eficiência impede o mecanismo de detecção de ameaças de realizar cálculos adicionais e gera uma saída de que não há anomalias estruturais.
11. Sistema para exploração submarina, CARACTERIZADO por compreender: um veículo operado remotamente (ROV) compreendendo uma câmera para obter um vídeo real; um sistema operacional interligado em rede compreendendo um computador e software executável por computador compreendendo um mecanismo de visualização e um mecanismo de detecção de ameaças; um módulo de banco de dados de elementos 3D operáveis para representar objetos dispostos em um ambiente de operação do ROV; um módulo de geração de vídeo virtual operável para gerar um vídeo virtual incorporando os elementos 3D; uma câmera de vídeo montada no ROV operável para gerar um vídeo real do ambiente de operação do ROV; um módulo de sincronização operável para sincronizar um ângulo e posição de uma câmera virtual com um ângulo e posição da câmera de vídeo montada no ROV; em que o mecanismo de visualização é operável para sobrepor o vídeo real no vídeo virtual para criar imagens 3D híbridas; e em que o mecanismo de detecção de ameaças é operável para detectar uma ameaça à integridade em uma estrutura a partir das imagens 3D híbridas e segmentar a estrutura nas imagens 3D híbridas, o mecanismo de detecção de ameaças compreendendo: um módulo de conjunto de dados; um módulo de treinamento de rede neural convolucional (CNN);
um módulo de mapa de segmentação; um módulo de eficiência; e uma interface de navegação configurada para exibir as imagens 3D híbridas, a interface de navegação compreendendo pelo menos um monitor interligado em rede.
12. Sistema, de acordo com a reivindicação 11, CARACTERIZADO pelo fato de que o módulo de conjunto de dados inclui anotações detalhando em quais marcações de tempo uma ou mais anomalias estão visíveis.
13. Sistema, de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que o módulo de treinamento de CNN aceita uma imagem de entrada e emite uma lógica alta se uma anomalia visível for detectada e, caso contrário, emite uma lógica baixa.
14. Sistema, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que o módulo de treinamento de CNN compreende uma pluralidade de camadas convolucionais empilhadas, em que cada camada convolucional empilhada subsequente da pluralidade de camadas convolucionais empilhadas inclui uma região maior da imagem de entrada.
15. Sistema, de acordo com a reivindicação 14, CARACTERIZADO pelo fato de que o modelo de treinamento de CNN adicionalmente compreende um mapa de segmentação de estrutura grosseira.
16. Sistema, de acordo com a reivindicação 15, CARACTERIZADO pelo fato de que o módulo de mapa de segmentação gera um conjunto de dados de mapa de segmentação usando segmentações em nível de pixel.
17. Sistema, de acordo com a reivindicação 16, CARACTERIZADO pelo fato de que o módulo de mapa de segmentação gera as segmentações em nível de pixel projetando um modelo 3D de uma estrutura visível na câmera virtual do ROV.
18. Método de operação de um veículo operado remotamente (ROV),
CARACTERIZADO por compreender: obter dados 3D; armazenar elementos 3D em um módulo de banco de dados, os elementos 3D representando objetos dispostos no ambiente de operação do ROV e compreendendo os dados 3D; gerar um vídeo virtual dos elementos 3D; sincronizar um ângulo e posição de uma câmera virtual com um ângulo e posição da câmera de vídeo montada no ROV; e alinhar e sobrepor um elemento de vídeo virtual com um elemento de vídeo real para criar imagens 3D híbridas; segmentar uma estrutura a partir das imagens 3D híbridas; e detectar uma ameaça à integridade na estrutura a partir das imagens 3D híbridas.
19. Método, de acordo com a reivindicação 18, CARACTERIZADO pelo fato de que a detecção de uma ameaça à integridade adicionalmente inclui: treinar um modelo CNN; e gerar mapas de segmentação.
20. Método, de acordo com a reivindicação 19, CARACTERIZADO pelo fato de que a detecção de uma ameaça à integridade adicionalmente inclui: gerar um conjunto de dados de mapa de segmentação usando segmentações em nível de pixel; e calcular uma máscara binária m; e interromper cálculos adicionais quando todos os elementos de m estiverem próximos de zero.
21. Produto de programa de computador, CARACTERIZADO por compreender instruções que, quando o programa é executado por um computador, fazem o computador executar as etapas do método da reivindicação 20.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IB2018/055977 WO2020030949A1 (en) | 2018-08-08 | 2018-08-08 | System and method of operation for remotely operated vehicles for automatic detection of structure integrity threats |
Publications (1)
Publication Number | Publication Date |
---|---|
BR112021001746A2 true BR112021001746A2 (pt) | 2021-04-27 |
Family
ID=63592763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112021001746-1A BR112021001746A2 (pt) | 2018-08-08 | 2018-08-08 | sistema e método de operação para veículos operados remotamente para detecção automática de ameaças à integridade estrutural |
Country Status (7)
Country | Link |
---|---|
US (1) | US11475551B2 (pt) |
EP (1) | EP3834126A1 (pt) |
AU (1) | AU2018436495B2 (pt) |
BR (1) | BR112021001746A2 (pt) |
CA (1) | CA3108354A1 (pt) |
SG (1) | SG11202100876PA (pt) |
WO (1) | WO2020030949A1 (pt) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445496B (zh) * | 2020-02-26 | 2023-06-30 | 沈阳大学 | 一种水下图像识别跟踪系统及方法 |
CN113312832B (zh) * | 2021-03-22 | 2022-04-29 | 哈尔滨工程大学 | 一种基于机器学习的水下爆炸载荷下船体板架结构动响应快速预报方法 |
US11948257B2 (en) * | 2022-05-09 | 2024-04-02 | Rovi Guides, Inc. | Systems and methods for augmented reality video generation |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW259856B (pt) | 1994-03-29 | 1995-10-11 | Gen Electric | |
FR2949167B1 (fr) | 2009-08-11 | 2016-07-01 | Alain Dinis | Systeme et methode de plongee virtuelle en temps reel |
ES2895454T3 (es) * | 2011-11-09 | 2022-02-21 | Abyssal S A | Sistema y método de operación para vehículos operados de manera remota con imágenes en 3D superpuestas |
WO2016040862A2 (en) | 2014-09-12 | 2016-03-17 | Chizeck Howard Jay | Integration of auxiliary sensors with point cloud-based haptic rendering and virtual fixtures |
GB2554633B (en) | 2016-06-24 | 2020-01-22 | Imperial College Sci Tech & Medicine | Detecting objects in video data |
US10007269B1 (en) | 2017-06-23 | 2018-06-26 | Uber Technologies, Inc. | Collision-avoidance system for autonomous-capable vehicle |
US20200041276A1 (en) | 2018-08-03 | 2020-02-06 | Ford Global Technologies, Llc | End-To-End Deep Generative Model For Simultaneous Localization And Mapping |
CA3108629A1 (en) | 2018-08-08 | 2020-02-13 | Abyssal S.A. | System and method of operation for remotely operated vehicles for simultaneous localization and mapping |
WO2020088739A1 (en) | 2018-10-29 | 2020-05-07 | Hexagon Technology Center Gmbh | Facility surveillance systems and methods |
US10872584B2 (en) | 2019-03-14 | 2020-12-22 | Curious Company, LLC | Providing positional information using beacon devices |
-
2018
- 2018-08-08 AU AU2018436495A patent/AU2018436495B2/en active Active
- 2018-08-08 US US17/266,045 patent/US11475551B2/en active Active
- 2018-08-08 EP EP18770078.6A patent/EP3834126A1/en active Pending
- 2018-08-08 WO PCT/IB2018/055977 patent/WO2020030949A1/en unknown
- 2018-08-08 CA CA3108354A patent/CA3108354A1/en active Pending
- 2018-08-08 BR BR112021001746-1A patent/BR112021001746A2/pt unknown
- 2018-08-08 SG SG11202100876PA patent/SG11202100876PA/en unknown
Also Published As
Publication number | Publication date |
---|---|
AU2018436495A1 (en) | 2021-02-18 |
SG11202100876PA (en) | 2021-02-25 |
US11475551B2 (en) | 2022-10-18 |
EP3834126A1 (en) | 2021-06-16 |
US20210366097A1 (en) | 2021-11-25 |
WO2020030949A1 (en) | 2020-02-13 |
AU2018436495B2 (en) | 2023-08-10 |
CA3108354A1 (en) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2019264604B2 (en) | System and method of operation for remotely operated vehicles with superimposed 3d imagery | |
US11455740B2 (en) | System and method of operation for remotely operated vehicles for simultaneous localization and mapping | |
BR112021001746A2 (pt) | sistema e método de operação para veículos operados remotamente para detecção automática de ameaças à integridade estrutural | |
WO2021207205A1 (en) | Geo-augmented field excursion for geological sites | |
US20210295605A1 (en) | System and method of operation for remotely operated vehicles with improved position estimation | |
US12012189B2 (en) | System and method of operation for remotely operated vehicles leveraging synthetic data to train machine learning models | |
Gonçalves | A Robust Visual Odometry System for Autonomous Surface Vehicles using Deep Learning | |
Williamson et al. | Creating a 360-Degree RGB-D Sensor System for Augmented Reality Research |