BR102019022477A2 - Sistema de realidade aumentada com o uso de modelos realçados - Google Patents

Sistema de realidade aumentada com o uso de modelos realçados Download PDF

Info

Publication number
BR102019022477A2
BR102019022477A2 BR102019022477-0A BR102019022477A BR102019022477A2 BR 102019022477 A2 BR102019022477 A2 BR 102019022477A2 BR 102019022477 A BR102019022477 A BR 102019022477A BR 102019022477 A2 BR102019022477 A2 BR 102019022477A2
Authority
BR
Brazil
Prior art keywords
physical object
model
images
computing device
region
Prior art date
Application number
BR102019022477-0A
Other languages
English (en)
Inventor
William David Kelsey
Brian Dale Laughlin
Original Assignee
The Boeing Company
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by The Boeing Company filed Critical The Boeing Company
Publication of BR102019022477A2 publication Critical patent/BR102019022477A2/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

a presente invenção refere-se a um método, um aparelho e um sistema para a visualização de informação. um sistema de realidade aumentada compreende um sistema computadorizado e um visualizador no sistema computadorizado. o sistema computadorizado fica em comunicação com veículos não tripulados ao usar links de comunicações. o sistema de visualizador recebe imagens de um objeto físico dos veículos não tripulados que se movem em relação ao objeto físico e recebe os dados da varredura para uma região do objeto físico dos veículos não tripulados. o visualizador cria um modelo realçado do objeto físico ao usar as imagens e os dados da varredura. a região do objeto físico no modelo realçado tem uma quantidade maior de detalhes do que as outras regiões do objeto físico. o visualizador envia a um dispositivo de computação portátil a informação que é exibida pelo dispositivo de computação portátil em uma visualização ao vivo do objeto físico. a informação é identificada ao usar o modelo realçado do objeto físico.

Description

1. ANTECEDENTES DA INVENÇÃO
[0001] A realidade aumentada envolve uma experiência interativa com um ambiente do mundo real que é aumentada pela informação de um sistema computadorizado. A informação é exibida em uma visualização ao vivo do ambiente do mundo real visto através de um dispositivo de computação portátil. A informação é exibida na visualização ao vivo de uma maneira que apresenta descrições ou indicadores ao usuário sobre os objetos na visualização ao vivo. Essa informação também é indicada como informação sobre a realidade aumentada. Em outros casos, a informação sobre a realidade aumentada é exibida na visualização ao vivo do ambiente do mundo real de maneira conti-nuamente entrelaçada, de tal modo que a informação é percebida como parte do ambiente do mundo real, tal como visto através do dispositivo de computação portátil.
[0002] Um processo simultâneo de localização e mapeamento usa âncoras para localizar o dispositivo de computação portátil no meio ambiente do ambiente. A âncora é um ponto de característica que é a localização distinta em um objeto físico ou em um ambiente próximo do objeto físico. A âncora é usada para fazer a correspondência de um modelo do objeto físico com o objeto físico no mundo real, tal como visto na visualização ao vivo do objeto físico.
[0003] Às vezes, à medida que a distância do dispositivo de realidade aumentada da âncora aumenta, a precisão com que o dispositivo de realidade aumentada exibe a informação sobre a realidade aumentada na visualização ao vivo do objeto físico diminui.
[0004] Por exemplo, uma distância de mais de cinco metros pode resultar em um nível de precisão indesejado para que o dispositivo de realidade aumentada exiba a informação sobre a realidade aumentada nas posições ou próxima do objeto físico.
[0005] À medida que o tamanho do objeto físico aumenta, o número de âncoras necessárias para a precisão desejada na informação de exibição para aumentar a visualização ao vivo do objeto físico pode ser maior do que possível ou praticável para alguns objetos físicos. Por exemplo, aumentar a visualização ao vivo de objetos grandes, tais como um avião, um edifício comercial ou uma represa pode ser mais difícil do que o desejado. A precisão pode não ser tão precisa quanto o desejado e o uso de recursos de processamento pode ser maior do que o desejado.
SUMÁRIO
[0006] Uma modalidade da presente invenção apresenta um sistema de realidade aumentada que compreende um grupo de veículos aéreos não tripulados, um sistema computadorizado e um dispositivo de computação portátil. O grupo de veículos não tripulados opera para se mover em relação a um objeto físico, gerar imagens do objeto físico e gerar dados de varredura que descrevem pontos no espaço para uma região do objeto físico. O sistema computadorizado fica em co-municação com o grupo de veículos não tripulados ao usar links de comunicação e opera para: receber imagens do objeto físico do grupo de veículos não tripulados que se move em relação ao objeto físico; receber dados de varredura para a região do objeto físico de vários veículos não tripulados no grupo de veículos não tripulados que se move em relação ao objeto físico; e criar um modelo realçado do objeto físico ao usar as imagens e os dados de varredura, em que a região do objeto físico no modelo realçado tem uma quantidade maior de detalhes do que as outras regiões do objeto físico no modelo realçado. O dispositivo de computação portátil opera para localizar o objeto físico ao usar o modelo realçado e exibe a informação em uma visualização ao vivo do objeto físico visto através do dispositivo de computação portátil. A informação é identificada ao usar o modelo realçado do objeto físico.
[0007] Outra modalidade da presente invenção apresenta um sistema de realidade aumentada, o qual compreende um sistema compu-tadorizado e um visualizador no sistema computadorizado. O sistema computadorizado fica em comunicação com um grupo de veículos não tripulados ao usar os links de comunicação durante a operação do sis-tema computadorizado e a operação do grupo de veículos não tripula-dos. O visualizador opera para receber as imagens de um objeto físico do grupo de veículos não tripulados que se move em relação ao objeto físico e para receber os dados de varredura de uma região do objeto físico de vários veículos não tripulados no grupo de veículos não tripu-lados que se move em relação ao objeto físico. O visualizador opera para criar um modelo realçado do objeto físico ao usar as imagens e os dados de varredura. A região do objeto físico no modelo realçado tem uma quantidade maior de detalhes do que as outras regiões do objeto físico no modelo realçado. O visualizador envia a informação a um dispositivo de computação portátil. A informação é exibida pelo dispositivo de computação portátil em uma visualização ao vivo do ob-jeto físico visto através do dispositivo de computação portátil. A infor-mação é identificada ao usar o modelo realçado do objeto físico.
[0008] Outra modalidade da presente descrição apresenta um método para visualização da informação em uma visualização ao vivo do objeto físico. As imagens do objeto físico são recebidas pelo sistema computadorizado do grupo de veículos não tripulados que se move em relação ao objeto físico. O sistema computadorizado fica em comuni-cação com o grupo de veículos não tripulados ao usar os links de co-municação. Os dados de varredura são recebidos pelo sistema com-putadorizado para uma região do objeto físico. Um modelo realçado do objeto físico é criado pelo sistema computadorizado ao usar as ima-gens e os dados de varredura. A região no modelo realçado tem mais detalhes do que as outras regiões do objeto físico no modelo realçado. Pelo menos uma parte do modelo realçado é enviada pelo sistema computadorizado a um dispositivo de computação portátil, em que o dispositivo de computação portátil localiza o objeto físico ao usar pelo menos uma parte do modelo realçado. A informação que é exibida pelo dispositivo de computação portátil é enviada ao dispositivo de com-putação portátil pelo sistema computadorizado. O dispositivo de com-putação portátil exibe a informação na visualização ao vivo do objeto físico visto através do dispositivo de computação portátil, e a informa-ção é identificada ao usar o modelo realçado do objeto físico.
[0009] As características e as funções podem ser obtidas de modo independente nas várias modalidades da presente descrição ou podem ainda ser combinadas em outras modalidades em que detalhes adicionais podem ser vistos com referência à descrição e aos desenhos a seguir.
BREVE DESCRIÇÃO DOS DESENHOS
[0010] As características novas consideradas como próprias das modalidades ilustrativas são indicadas nas reivindicações anexas. As modalidades ilustrativas, no entanto, assim como um modo preferido de uso, os objetivos adicionais e as características das mesmas serão mais bem compreendidos com referência à descrição detalhada a se-guir de uma modalidade ilustrativa da presente descrição, quando lida em conjunto com os desenhos anexos, nos quais:
[0011] A Figura 1 é a ilustração de uma representação pictórica de uma rede de sistemas de processamento de dados em que as modalidades ilustrativas podem ser implementadas.
[0012] A Figura 2 é a ilustração de um diagrama de blocos de um ambiente de realidade aumentada de acordo com uma modalidade ilustrativa.
[0013] A Figura 3 é a ilustração de um diagrama de blocos que mostra a criação de um modelo realçado de acordo com uma modalidade ilustrativa.
[0014] A Figura 4 é a ilustração de um diagrama de blocos que mostra a seleção de uma região de um objeto físico de acordo com uma modalidade ilustrativa.
[0015] A Figura 5 é a ilustração pictórica de um ambiente de visua-lização de acordo com uma modalidade ilustrativa.
[0016] A Figura 6 é a ilustração pictórica de uma interface gráfica do usuário de acordo com uma modalidade ilustrativa.
[0017] A Figura 7 é a ilustração de um fluxograma de um processo de visualização da informação em uma visualização ao vivo de um objeto físico de acordo com uma modalidade ilustrativa.
[0018] A Figura 8 é a ilustração de um fluxograma de um processo de controle de veículos não tripulados para gerar a informação a fim de criar um modelo realçado de acordo com uma modalidade ilustrativa.
[0019] A Figura 9 é a ilustração de um fluxograma de um processo de criação de um modelo realçado de um objeto físico de acordo com uma modalidade ilustrativa.
[0020] A Figura 10 é a ilustração de um fluxograma de um processo de visualização da informação em uma visualização ao vivo de um objeto físico de acordo com uma modalidade ilustrativa.
[0021] A Figura 11 é a ilustração de um diagrama de blocos de um sistema de processamento de dados de acordo com uma modalidade ilustrativa.
[0022] A Figura 12 é a ilustração de um diagrama de blocos de um dispositivo de computação portátil de acordo com uma modalidade ilustrativa.
[0023] A Figura 13 é a ilustração de um diagrama de blocos de um dispositivo de veículo não tripulado de acordo com uma modalidade ilustrativa.
[0024] A Figura 14 é a ilustração de um diagrama de blocos de um método de fabricação e manutenção de avião de acordo com uma modalidade ilustrativa.
[0025] A Figura 15 é a ilustração de um diagrama de blocos de um avião em que uma modalidade ilustrativa pode ser implementada.
[0026] A Figura 16 é a ilustração de um diagrama de blocos de um sistema de gerenciamento de produto de acordo com uma modalidade ilustrativa.
DESCRIÇÃO DETALHADA DA INVENÇÃO
[0027] As modalidades ilustrativas reconhecem e levam em conta uma ou mais considerações diferentes. Por exemplo, as modalidades ilustrativas reconhecem e levam em conta que os objetos físicos, tais como um avião, um edifício, um campo ou algum outro objeto físico grande, podem tornar a exibição da informação para aumentar as vi-sualizações desses objetos físicos mais difícil do que o desejado. As modalidades ilustrativas reconhecem e levam em conta que uma solu-ção envolve a geração de um modelo do objeto físico ao usar um ou mais dispositivos de computação, além de um dispositivo de computa-ção portátil operado por um operador humano. As modalidades ilustra-tivas reconhecem e levam em conta que esses dispositivos de compu-tação adicionais podem fornecer a informação adicional usada para, pelo menos, um dentre a criação de um modelo de objeto físico, a lo-calização do dispositivo de computação portátil ou a execução de ou-tras operações com respeito ao objeto físico.
[0028] Por exemplo, as modalidades ilustrativas reconhecem e levam em conta que os dispositivos de computação portáteis, tais como os veículos não tripulados, podem ser usados para gerar os dados usados a fim de criar um modelo do objeto físico. Esses veículos não tripulados podem incluir pelo menos um dentre um veículo aéreo não tripulado, um veículo terrestre não tripulado ou um veículo aquático não tripulado. Além disso, os dados coletados pelo dispositivo de computação portátil podem ser usados para gerar dados adicionais, os quais são usados juntamente com os dados gerados pelos veículos não tripulados a fim de gerar o modelo.
[0029] Tal como aqui utilizado, a frase "pelo menos um dentre", quando usada com uma lista de itens, significa que combinações diferentes de um ou mais dos itens listados pode ser usada, e somente um de cada item na lista pode ser necessário. Em outras palavras, "pelo menos um dentre" significa que qualquer combinação de itens e número de itens pode ser usada da lista, mas nem todos os itens na lista são requeridos. O item pode ser um objeto, uma coisa ou uma categoria em particular.
[0030] Por exemplo, sem limitação, "pelo menos um dentre o item A, o item B ou o item C" pode incluir o item A, o item A e o item B ou o item B. Este exemplo também pode incluir o item A, o item B e o item C ou o item B e o item C. Naturalmente, quaisquer combinações desses itens podem estar presentes. Em alguns exemplos ilustrativos, "pelo menos um dentre" pode ser, por exemplo, sem limitação, dois do item A; um do item B; e dez do item C; quatro do item B e sete do item C; ou outras combinações apropriadas.
[0031] Além disso, as modalidades ilustrativas reconhecem e levam em conta que fazer a varredura de um objeto físico inteiro a fim de criar um modelo do objeto físico pode consumir mais recursos do que o desejado à medida que o tamanho do objeto físico aumenta. Por exemplo, as modalidades ilustrativas reconhecem e levam em conta que a geração de dados de varredura com um scanner tridimensional a fim de criar uma nuvem de pontos de um objeto físico, tal como um avião ou um edifício, pode requerer mais largura de faixa, energia de processamento, armazenamento ou outros recursos de computação do que o desejado. Esses scanners tridimensionais podem incluir um scanner a laser, um sistema LIDAR, um scanner por infravermelho ou algum outro tipo de sistema de varredura.
[0032] As modalidades ilustrativas reconhecem e levam em conta que as imagens podem ser usadas para criar um modelo do objeto físico. As modalidades ilustrativas reconhecem e levam em conta que a quantidade de detalhes no modelo do objeto físico pode ser menor do que os detalhes de uma varredura usada para gerar as nuvens de pontos. As modalidades ilustrativas reconhecem e levam em conta, no entanto, que um scanner tridimensional pode ser usado para gerar os dados de varredura de uma ou mais regiões de interesse em que um nível mais alto de detalhes é desejado. Como resultado, pelo menos um dentre a quantidade de largura de banda, os recursos de proces-samento, o armazenamento ou outros recursos de computação pode ser reduzido com o uso de dois tipos de dados a fim de gerar o modelo do objeto físico.
[0033] Por conseguinte, as modalidades ilustrativas apresentam um método, um aparelho e um sistema para a visualização de informação em uma visualização ao vivo de um objeto físico. Em um exemplo ilustrativo, um sistema computadorizado recebe as imagens do objeto físico dos veículos não tripulados que se movem em relação ao objeto físico. O sistema computadorizado fica em comunicação com os veículos não tripulados ao usar links de comunicação. O sistema computadorizado recebe os dados de varredura da região do objeto físico. O sistema computadorizado cria um modelo realçado do objeto físico ao usar as imagens e os dados de varredura, em que uma região no modelo realçado tem mais detalhes do que outras regiões do objeto físico no modelo realçado. O sistema computadorizado envia pelo menos uma parte do modelo realçado a um dispositivo de computação portátil, em que o dispositivo de computação portátil localiza o objeto físico ao usar pelo menos a parte do modelo realçado. O sistema computadorizado também envia a informação que é exibida pelo dispositivo de computação portátil. O dispositivo de computação portátil exibe a informação na visualização ao vivo do objeto físico visto através do dispositivo de computação portátil, em que a informação é identificada ao usar o modelo realçado do objeto físico.
[0034] Agora com referência às figuras e, em particular, com referência à Figura 1, é mostrada a ilustração de uma representação pictórica de uma rede de sistemas de processamento de dados, em que as modalidades ilustrativas podem ser implementadas. O sistema de pro-cessamento de dados de rede 100 é uma rede de computadores em que as modalidades ilustrativas podem ser implementadas. O sistema de processamento de dados de rede 100 contém a rede 102, que é o meio usado para prover os links de comunicação entre os vários dis-positivos e os computadores conectados uns aos outros dentro do sis-tema de processamento de dados de rede 100. A rede 102 pode incluir conexões, tais como os links de comunicação cabeados ou links de comunicação sem fio. Os links de comunicação sem fio podem ser es-tabelecidos através de pelo menos um dentre o ar, o vácuo ou a água.
[0035] Os links de comunicação cabeados podem incluir pelo menos um dentre fios ou cabos de fibra óptica. Tal como descrito, os links de comunicação cabeados pode ser mais volumosos ou limitar a distância que os veículos não tripulados podem percorrer. Esses tipos de links de comunicação podem propiciar uma segurança aumentada em comparação com os links de comunicação sem fio. Esses links de co-municação cabeados também podem incluir conexões intermitentes que podem ocorrer quando o veículo aéreo não tripulado retorna e entra em contato com a estação de carga ou base.
[0036] Em outro exemplo, as conexões intermitentes podem ser conexões sem fio intermitentes que podem ser afetadas pela linha de visão, pela distância ou outros fatores. Com este tipo de conexão, um primeiro veículo aéreo não tripulado pode perder uma conexão sem fio. Neste caso, outro veículo aéreo não tripulado pode se mover ou então se posicionar em relação ao primeiro veículo aéreo não tripulado a fim de prover uma conexão de ponte com o computador do servidor 104.
[0037] No exemplo descrito, o computador do servidor 104 e o computador do servidor 106 se conectam à rede 102 junto com a uni-dade de armazenamento 108. Além disso, os dispositivos do cliente 110 se conectam à rede 102. Tal como descrito, os dispositivos do cli-ente 110 incluem o veículo aéreo não tripulado 112, o veículo aéreo não tripulado 114 e o veículo aéreo não tripulado 116. Tal como des-crito, o veículo aéreo não tripulado 112 e o veículo aéreo não tripulado 114 consistem em um avião de asas fixas. Tal como descrito, o veículo aéreo não tripulado 116 é um quadricóptero. Os dispositivos do cliente 110 podem ser, por exemplo, computadores, estações de trabalho ou computadores de rede. No exemplo descrito, o computador do servidor 104 apresenta uma informação, tal como um arquivo de reinicializa- ção, imagens do sistema operacional e aplicações aos dispositivos do cliente 110. Além disso, os dispositivos do cliente 110 também podem incluir outros tipos de dispositivos do cliente, tais como telefone móvel 118, um computador do tipo tablet 120 e óculos inteligentes 122. Neste exemplo ilustrativo, o computador do servidor 104, o computador do servidor 106, a unidade de armazenamento 108 e os dispositivos do cliente 110 são dispositivos de rede que se conectam à rede 102 em cuja rede 102 estão os meios de comunicação com esses dispositivos de rede. Alguns ou todos os dispositivos do cliente 110 podem formar a Internet das Coisas (loT) em que esses dispositivos físicos podem se conectar à rede 102 e trocar informações uns com os outros na rede 102.
[0038] Os dispositivos do cliente 110 são clientes do computador do servidor 104 neste exemplo. O sistema de processamento de dados de rede 100 pode incluir computadores dos servidores adicionais, computadores do cliente e outros dispositivos não mostrados. Os dis-positivos do cliente 110 se conectam à rede 102 ao utilizar pelo menos uma dentre conexões cabeadas ou conexões sem fio.
[0039] O código do programa localizado no sistema de processamento de dados de rede 100 pode ser armazenado em um meio de armazenamento que pode ser gravado em um computador e baixado em um sistema de processamento de dados ou outro dispositivo para uso. Por exemplo, o código do programa pode ser armazenado em um meio de armazenamento que pode ser gravado em um computador no computador do servidor 104 e baixado nos dispositivos do cliente 110 da rede 102 para uso nos dispositivos do cliente 110. Em algumas im-plementações, um processador recupera o código do programa e exe-cuta as instruções para iniciar, executar ou controlar certas operações descritas no presente documento.
[0040] No exemplo descrito, o sistema de processamento de dados de rede 100 é a Internet com a rede 102, que representa uma coleção mundial de redes e gateways que usam a suíte de protocolos Transmission Control Protocol/lnternet Protocol (TCP/IP) para se co-municar uns com os outros. No coração da Internet há uma espinha dorsal de linhas de transmissão de dados de alta velocidade entre os nós principais ou os computadores hospedeiros que consistem em mi-lhares de sistemas comerciais, governamentais, educacionais e outros sistemas computadorizados que distribuem dados e mensagens. Natu-ralmente, o sistema de processamento de dados de rede 100 também pode ser implementado ao usar vários tipos diferentes de redes. Por exemplo, a rede 102 pode compreender pelo menos uma dentre a In-ternet, a Intranet, uma rede de área local (LAN), uma rede de área me-tropolitana (MAN) ou uma rede de longa distância (WAN). Como um outro exemplo, a rede 102 pode ser uma rede de malha ou uma rede de borda móvel ponto a ponto para essa finalidade. A Figura 1 se presta como um exemplo, e não uma limitação de arquitetura para as dife-rentes modalidades ilustrativas.
[0041] Tal como aqui utilizado, o termo "vários", quando usado com referência aos itens, significa um ou mais itens. Por exemplo, "vários tipos diferentes de redes" indica um ou mais tipos diferentes de redes.
[0042] No exemplo ilustrativo, o operador humano 124 usa os óculos inteligentes 122 para ver um objeto físico na forma de um avião 126. Neste exemplo ilustrativo, o operador humano 124 vê a visualização ao vivo de um avião 126 ao usar os óculos inteligentes 122. Esta visualização ao vivo pode ser sobreposta pela informação 142 exibida na visualização ao vivo, tal como visto com o uso dos óculos inteligen-tes 122, a fim de formar uma vista de realidade aumentada do avião 126.
[0043] Neste exemplo ilustrativo, os óculos inteligentes 122 estão em comunicação com o visualizador 128 localizado no computador do servidor 104. O visualizador 128 fornece a informação 142 do modelo de referência 132 que é exibida para se sobrepor à visualização ao vivo do avião 126 visto através dos óculos inteligentes 122. Os próprios óculos inteligentes 122 são posicionados no avião 126 ao usar o modelo realçado 130.
[0044] Neste exemplo ilustrativo, o modelo realçado 130 é um modelo ou mapa tridimensional do avião 126. Em outros exemplos, o modelo ou mapa podem ser de um objeto físico diferente. Tal como descrito, o veículo aéreo não tripulado 112 gera as imagens 134 do avião 126 enquanto voa em relação ao avião 126. O veículo aéreo não tripulado 112 envia as imagens 134 ao visualizador 128. O veículo aéreo não tripulado 114 também gera e envia as imagens 136 do avião 126 ao visualizador 128. O veículo aéreo não tripulado 116 gera e envia as imagens 138 do avião 126 ao visualizador 128.
[0045] O visualizador 128 usa essas imagens dos veículos aéreos não tripulados para gerar um modelo do avião 126. O modelo é um modelo tridimensional da superfície do avião 126 e pode ser gerado ao usar as técnicas atualmente disponíveis para gerar modelos de imagens. Essas técnicas realizam a reconstrução tridimensional de múltiplas imagens para criar um modelo tridimensional do avião 126. Dessa maneira, o avião 126 pode ser mapeado ao usar essas imagens.
[0046] Nos exemplos ilustrativos, a região 144 do avião 126 pode não estar visível nas imagens 134, nas imagens 136 ou nas imagens 138. Em consequência disto, o modelo do avião 126 vai ter um orifício ou uma seção em falta na região 144. Em outros casos, a região 144 pode ser incluída nas imagens.
[0047] Neste exemplo, o operador humano 124 pode precisar de um modelo mais detalhado da região 144 do avião 126 que pode ser provido ao usar as imagens 134, as imagens 136 e as imagens 138. Em outras palavras, a região 144 pode estar presente no modelo ge-rado com as imagens, mas o detalhe da região 144 pode estar faltando ou pode não ser tão grande como desejado. Em consequência disto, a informação 142 exibida na região 144 pode não ser tão exata quanto desejado.
[0048] Neste exemplo, um ou mais dos veículos aéreos não tripulados podem ser usados para gerar um modelo mais detalhado dessa região. Por exemplo, o veículo aéreo não tripulado 112 também pode gerar os dados de varredura 140 e enviar os dados de varredura 140 ao visualizador 128.
[0049] Neste exemplo descrito, os dados de varredura 140 são usados para gerar uma nuvem de pontos da região 144 do avião 126. Esta nuvem de pontos pode então ser usada para modificar a região 144 no modelo do avião 126 a fim de formar o modelo realçado 130. O modelo realçado 130 inclui a região 144 do avião 126 em que os detalhes realçados estão presentes em comparação com as outras regiões do avião 126 no modelo realçado 130.
[0050] Neste exemplo ilustrativo, o veículo aéreo não tripulado 112, o veículo aéreo não tripulado 114 e o veículo aéreo não tripulado 116 fornecem dois tipos de dados, imagens e dados de varredura, que são usados para gerar o modelo realçado 130. O modelo realçado 130 pode ser usado para posicionar os óculos inteligentes 122. O posicionamento pode ser realizado ao usar os processos de localização e mapeamento simultâneos (SLAM).
[0051] O uso de veículos aéreos não tripulados, o tempo e o esforço gastos para operar os óculos inteligentes 122, gerar imagens, dados de varredura ou alguma combinação dos mesmos cria um modelo. O operador humano 124 pode focalizar a execução de tarefas ou outras operações a respeito do avião 126.
[0052] A redução do tempo e o esforço evitado pelo operador 124 podem ser obtidos no exemplo ilustrativo ao usar pelo menos um dentre o veículo aéreo não tripulado 112, o veículo aéreo não tripulado 114 ou o veículo aéreo não tripulado 116. Esses veículos aéreos não tripulados podem proveras imagens 134, as imagens 136, as imagens 138 e os dados de varredura 140 processados pelo visualizador 128 a fim de gerar o modelo realçado 130.
[0053] Essas operações realizadas pelos veículos aéreos não tri-pulados podem ser executadas antes de o operador humano 124 visu-alizar o avião 126. Em outras palavras, o operador humano 124 não precisa executar nenhuma operação para gerar os dados a fim de criar o modelo realçado 130 quando os veículos aéreos não tripulados for-necem os dados necessários antes do tempo. Os veículos aéreos não tripulados também podem gerar as imagens 134, as imagens 136, as imagens 138 e os dados de varredura 140 enquanto o operador hu-mano 124 vê o avião 126.
[0054] As imagens e os dados de varredura adicionais, considerados em tempo real ou de antemão, podem ser usados para prover pelo menos um dentre o aumento da precisão do modelo realçado 130 ou dos detalhes ou da granularidade em outras seções, além da seção 144.
[0055] Por exemplo, além disso, o uso desse veículo aéreo não tripulado pode aumentar a quantidade de dados gerados para o avião 126 de uma maneira que aumente a granularidade da informação no modelo realçado 130. Neste exemplo ilustrativo, um dos veículos aé-reos não tripulados 112, 114 ou 116 pode capturar imagens de vários pontos de vista a fim de adicionar ou de realçar as imagens usadas para a criação do modelo realçado 130. Por exemplo, o veículo aéreo não tripulado 112 pode gerar âncoras das imagens e fazer a varredura dos dados 140. As âncoras, tal como utilizadas no presente documento, representam as características comuns no avião 126 e no modelo de referência 132 que são usadas para alinhar o modelo de referência 132 ao avião 126. O veículo aéreo não tripulado 112 pode se mover para longe do avião 126 até uma distância suficiente para capturar as características comuns sobre a qual uma âncora será colocada, em uma única estrutura de referência. Dessa maneira, o número de ânco-ras necessárias para alinhar um modelo ao avião 126 pode ser reduzi-do. Em outras palavras, o modelo realçado 130 pode ser mais bem alinhado com o avião 126. Os veículos aéreos não tripulados podem gerar âncoras das imagens e fazer a varredura dos dados 140.
[0056] Além disso, a precisão do modelo realçado 130 usado para determinar as características de posição no avião 126 pode aumentar com o uso dos veículos aéreos não tripulados. Tal como descrito, os veículos aéreos não tripulados geram imagens e fazem a varredura dos dados de pontos de vista ou posições diferentes. Uma característica no avião 126, tal como uma janela no avião 126, pode ser capturada em pelo menos uma das imagens 134, das imagens 136, das imagens 138 ou dos dados de varredura 140. Estes pontos de vista diferentes conferem uma maior precisão na identificação da posição da janela quando da exibição da informação que se refere à janela no modelo de referência 132.
[0057] Por exemplo, a triangulação pode ser realizada ao usar essas imagens e os dados de varredura de diferentes posições dos veículos aéreos não tripulados. Por exemplo, a triangulação da visão do computador pode ser usada pelo visualizador 128. A triangulação da visão do computador é um processo que determina um ponto no espa-ço tridimensional dada a sua projeção em duas ou mais imagens do ponto. À medida que mais imagens estão presentes, diferentes pontos de vista estão presentes, e a precisão pode ser de um ponto particular no avião 126 e é aumentada no exemplo ilustrativo. Como outro exemplo, uma estéreo-fotogrametria pode ser usada para determinar retratos tridimensionais dos pontos no objeto, tal como o avião 126. Esta técnica pode ser executada ao usar as imagens 134, as imagens 136, as imagens 138 obtidas de diferentes posições pelos veículos aé-reos não tripulados.
[0058] O operador humano 124, utilizando os óculos inteligentes 122, pode se aproximar do avião 126 de uma maneira tal que as âncoras fiquem visíveis ao operador humano 124 que utiliza os óculos inte-ligentes 122. A posição do operador humano 124 pode ser determinada ao usar o modelo realçado 130 e as âncoras vistas através dos óculos inteligentes 122. À medida que o operador humano 124 se aproxima do avião 126, outras posições no avião 126 podem ser vistas pelo operador humanos 124 através dos óculos inteligentes 120 que não incluem as âncoras no modelo realçado 130 ou no modelo de re-ferência 132. A precisão na exibição da informação do modelo de refe-rência 132 pode ser mantida pelos pontos de referência que são identi-ficados a partir da âncora que é vista inicialmente pelo operador hu-mano 124 que utiliza os óculos inteligentes 122. Esses pontos de refe-rência podem ser características ou elementos no avião 126.
[0059] Este tipo de criação de modelo reduz o tempo e o esforço necessários para criar o modelo de um objeto físico. Este tipo de cria-ção de modelo pode ser especialmente útil para objetos grandes, tais como o avião 126, um edifício, um campo, um quarteirão, uma represa ou outros tipos de objetos físicos que podem resultar no uso de recurso de processador e de tempo indesejados na criação do modelo para a exibição da informação para uma vista de realidade aumentada de um objeto físico.
[0060] Além disso, ao processar as imagens para o objeto físico e fazer a varredura dos dados para uma ou mais regiões do objeto físico, a quantidade de recursos de computação necessários para processar os dados é reduzida. Por exemplo, o uso de recursos de processador para gerar nuvens de pontos dos dados de varredura e criar um modelo do objeto físico das nuvens de pontos é reduzido, uma vez que as nuvens de pontos são usadas somente para uma região do objeto físico em vez do objeto físico inteiro. Como outro exemplo, os recursos armazenados podem ser diminuídos porque o tamanho do modelo realçado é menor do que um modelo que é gerado inteiramente ao usar os dados de varredura.
[0061] Agora com referência à Figura 2, é mostrada a ilustração de um diagrama de blocos de um ambiente de realidade aumentada de acordo com uma modalidade ilustrativa. Neste exemplo ilustrativo, o ambiente de visualização 200 inclui componentes que podem ser implementados em um hardware, tal como o hardware mostrado no sistema de processamento de dados de rede 100 na Figura 1.
[0062] Tal como descrito, o ambiente de visualização 200 é um ambiente em que a informação 202 do objeto físico 204 pode ser visu-alizada pelo operador humano 206 ao usar um dispositivo de compu-tação portátil 208. Neste exemplo ilustrativo, o objeto físico 204 é sele-cionado de um grupo que compreende um avião, um edifício, uma ponte, uma represa, um veículo, um campo, um lago, uma montanha, um motor, uma seção da fuselagem, uma pista de pouso e decolagem e outros tipos de objetos. Neste exemplo ilustrativo, a informação 202 é selecionada de pelo menos uma dentre a informação da tarefa, um conjunto, um vídeo, uma indicação de uma não conformidade, um pe-dido de trabalho, uma vista explodida de um conjunto, um diagrama esquemático ou outra informação sobre o objeto físico 204.
[0063] O dispositivo de computação portátil 208 pode apresentar várias formas diferentes. Por exemplo, o dispositivo de computação portátil 208 pode ser selecionado de um grupo que compreende os óculos inteligentes, um telefone móvel, um computador do tipo tablet, uma lente de contato de realidade aumentada, um mostrador retinal virtual, um mostrador arranjado na cabeça e outros tipos de dispositivos apropriados para prover uma vista de realidade aumentada do objeto físico 204.
[0064] Tal como descrito, o operador humano 206 pode ver a in-formação 202 exibida na interface gráfica de usuário 210 na visualiza-ção ao vivo 212 do objeto físico 204 para ajudar o operador humano 206 a executar a tarefa 214. Neste exemplo ilustrativo, a tarefa 214 é selecionada de um grupo que compreende uma tarefa de projeto, uma tarefa de fabricação, uma tarefa de inspeção, uma tarefa de manuten-ção, uma tarefa de teste, uma tarefa de uso do objeto físico 204 e ou- tras tarefas apropriadas em que a visualização ao vivo 212 do objeto físico 204 é aumentada com a informação 202 para ajudar a executar a tarefa 214 no objeto físico 204.
[0065] Neste exemplo ilustrativo, o sistema de realidade aumentada 216 inclui vários componentes diferentes. Tal como descrito, o sistema de realidade aumentada 216 inclui o sistema computadorizado 218, um grupo de veículos não tripulados 220 e o dispositivo de computação portátil 208.
[0066] Tal como utilizado no presente documento, o termo "um grupo de", quando usado com referência aos itens, significa um ou mais itens. Por exemplo, "um grupo de veículos não tripulados 220" significa um ou mais veículos não tripulados 220.
[0067] O sistema computadorizado 218 é um sistema de hardware físico e inclui um ou mais sistemas de processamento de dados. Quando mais de um sistema de processamento de dados está presente no sistema computadorizado 218, esses sistemas de processamento de dados ficam em comunicação uns com os outros ao usar um meio de comunicação. O meio de comunicação pode ser uma rede. Os sistemas de processamento de dados podem ser selecionados de pelo menos um dentre um computador, um computador do servidor, um computador do tipo tablet ou algum outro sistema de processamento de dados apropriado.
[0068] Neste exemplo ilustrativo, o grupo de veículos não tripulados 220 pode apresentar várias formas diferentes. Por exemplo, o grupo de veículos não tripulados 220 pode ser selecionado de pelo menos um dentre um veículo aéreo não tripulado, um drone, um veículo terrestre não tripulado ou um veículo aquático não tripulado. O grupo de veículos não tripulados 220 opera para se mover em relação ao objeto físico 204.
[0069] O grupo de veículos não tripulados 220 gera as imagens 222 do objeto físico 204 e gera os dados de varredura 224 que descrevem pontos no espaço para a região 226 do objeto físico 204. Neste exemplo ilustrativo, o grupo de veículos não tripulados 220 pode gerar os dados de varredura 224 ao ter vários veículos não tripulados 220 no grupo de veículos não tripulados 220 fazendo a varredura do objeto físico 204. Em outras palavras, todo o grupo de veículos não tripulados 220 ou um subconjunto do mesmo pode gerar os dados de varredura 224.
[0070] No exemplo ilustrativo, o grupo de veículos não tripulados 220 opera para gerar as imagens 222 e os dados de varredura 224 enquanto o operador humano 206 vê a visualização ao vivo 212 do objeto físico 204 através do dispositivo de computação portátil 208. Por exemplo, os veículos não tripulados 220 podem gerar as imagens 222 e os dados de varredura 224 antes que o operador humano 206 veja a visualização vivo 212 do objeto físico 204. Neste exemplo, os veículos não tripulados 220 podem continuar a gerar as imagens 222 e os dados de varredura 224 enquanto o operador humano 206 vê o objeto físico 204. Em outros exemplos, a geração das imagens 222 e dos dados de varredura 224 podem ocorrer enquanto o operador humano 206 observa a visualização ao vivo 212 do objeto físico 204 através do dispositivo de computação portátil 208.
[0071] Tal como descrito, o sistema computadorizado 218 fica em comunicação com o grupo de veículos não tripulados 220 ao usar os links de comunicação 228. Os links de comunicação 228 podem ser selecionados de pelo menos um dentre um link de comunicação cabe-ado ou um link de comunicação sem fio. O link de comunicação cabe-ado inclui, por exemplo, pelo menos um dentre um fio, um cabo com fios, um cabo coaxial, uma fibra óptica ou um cabo óptico. Os links de comunicação sem fio podem ser selecionados de pelo menos um den-tre sinais de radiofrequência, sinais ópticos, radiação eletromagnética, micro-ondas ou outros meios apropriados.
[0072] Neste exemplo ilustrativo, o visualizador 230 fica localizado no sistema computadorizado 218. Durante a operação, o visualizador 230 no sistema computadorizado 218 recebe as imagens 222 do objeto físico 204 do grupo de veículos não tripulados 220 que se move em relação ao objeto físico 204.
[0073] O visualizador 230 recebe os dados de varredura 224 para a região 226 do objeto físico 204 de vários veículos não tripulados 220 no grupo de veículos não tripulados 220 que se move em relação ao objeto físico 204. O visualizador 230 cria o modelo realçado 232 do objeto físico 204 ao usar as imagens 222 e os dados de varredura 224.
[0074] A região 226 do objeto físico 204 no modelo realçado 232 tem uma quantidade maior de detalhes do que outras regiões 234 do objeto físico 204 no modelo realçado 232. Por exemplo, os dados de varredura 224 podem prover uma resolução maior da região 226 em comparação com as imagens 222. Como outro exemplo, os dados de varredura 224 também podem prover uma regularidade aumentada na região 226 do modelo realçado 232 do objeto físico 204. Scanners tridimensionais, tais como os scanners a laser, direcionam ativamente a radiação para o objeto físico 204. As respostas da radiação de energia podem aumentar o brilho, reduzir as sombras e conferir outras características que ocorrem com a regularidade aumentada em comparação com um sistema sensor passivo, tal como uma câmera. Os scanners tridimensionais também podem usar outros tipos de radiação para rea-lizar varreduras, tais como elétrico, óptico, infravermelho, outras por-ções do espectro de luz, do espectro eletromagnético, do espectro acústico ou outros tipos de radiação de varredura. Em outro exemplo, o scanner tridimensional pode incluir os dispositivos de detecção de pressão que usam a varredura de interferência.
[0075] Com os tipos diferentes de varreduras que podem ser realizadas ao usar os scanners tridimensionais, os detalhes de características tais como opacidade, refletividade, dureza, cor, matiz ou outras características podem ser determinados com mais facilidade ou mais precisão em comparação com o uso de imagens de câmeras. Essas características podem ser usadas para acessar o objeto físico 204. Por exemplo, a saúde, a vida restante, a conveniência para uso ou outras características do objeto físico 204 podem ser determinadas. No exemplo ilustrativo, tipos diferentes de sensores podem ser usados para determinar tipos diferentes de não conformidades. Por exemplo, a luz detectada por uma câmera pode ser usada para identificar não conformidades nas estruturas do objeto físico 204. Essas não confor-midades podem ser identificadas ao comparar uma estrutura no modelo realçado 232 gerada com as imagens detectadas pela câmera para o modelo de referência 202, tal como um modelo de projeto com auxílio de computador ou um modelo realçado prévio gerado do objeto físico 204. Um sensor de ultrassom pode ser usado para identificar espaços vazios em uma estrutura composta no objeto físico 204. Em outro exemplo, um sensor magnético pode ser usado para identificar incon-sistências na estrutura de metal do objeto físico 204.
[0076] Essas características podem ser usadas pelo visualizador 230 para classificar as propriedades como não conformidades. Essas não conformidades podem incluir pelo menos um dentre um risco, um dente, uma rachadura, uma pintura em falta, um prendedor em falta ou outros tipos de não conformidades.
[0077] Tal como descrito, o dispositivo de computação portátil 208 localiza o objeto físico 204 ao usar o modelo realçado 232 e exibe a informação 202 na visualização ao vivo 212 do objeto físico 204 visto através do dispositivo de computação portátil 208.
[0078] Neste exemplo ilustrativo, a informação 202 é identificada ao usar o modelo realçado 232 do objeto físico 204. Por exemplo, a informação 202 pode estar localizada no modelo de referência 236. O modelo de referência 236 é um modelo do objeto físico 204. As locali-zações correspondentes no modelo realçado 232 e no modelo de refe-rência 236 podem ser correlacionadas para ter o mesmo sistema de coordenadas ao usar o registo da imagem. Além disso, a localização do dispositivo de computação portátil 208 no objeto físico 204 pode usar o mesmo sistema de coordenadas.
[0079] O modelo de referência 236 pode apresentar várias formas diferentes. Por exemplo, o modelo de referência 236 pode ser um mo-delo de projeto com auxílio de computador do objeto físico 204. Em outro exemplo, o modelo de referência 236 pode ser um modelo do objeto físico 204 criado com as imagens 222 e os dados de varredura 204 em um momento anterior. Por exemplo, o modelo de referência 236 pode ser um modelo do objeto físico 204 em um estado prévio de fabricação. Como outro exemplo, o modelo de referência 236 pode ser um modelo do objeto físico 204 gerado em um momento anterior. Este tipo do modelo de referência 236 pode ser usado para a comparação com o modelo realçado 232 a fim de determinar se houve mudanças. Essas mudanças podem ser não conformidades, mudanças na confi-guração ou outros tipos de mudanças.
[0080] Neste exemplo ilustrativo, o visualizador 230 no sistema computadorizado 218 controla o grupo de veículos não tripulados 220 para se mover em relação ao objeto físico 204 e para gerar as imagens 222 do objeto físico 204 e os dados de varredura 204 descrevendo pontos no espaço para a região 226 do objeto físico 204.
[0081] Em outros exemplos ilustrativos, o grupo de veículos não tripulados 220 pode operar de maneira autônoma sem usar a entrada do visualizador 230 no sistema computadorizado 218. Por exemplo, cada um dentre o grupo de veículos não tripulados 220 pode incluir o código de programa que identifica o objeto físico 204 como um objeto para o qual as imagens 222 e os dados de varredura 224 podem ser gerados.
[0082] Em um exemplo ilustrativo, o operador humano 206 que utiliza o dispositivo de computação portátil 208 também pode contribuir com dados para gerar o modelo realçado 232. Por exemplo, o dispositivo de computação portátil 208 pode gerar pelo menos uma das imagens adicionais 238 ou dos dados de varredura adicionais 240. O dispositivo de computação portátil 208 fica em comunicação com o sistema computadorizado 218 ao usar o link de comunicação 242. O link de comunicação 242 pode ser selecionado de pelo menos um dentre os sinais de radiofrequência, sinais ópticos, de radiação eletromagnética, de micro-ondas ou outros meios apropriados.
[0083] Tal como descrito, o dispositivo de computação portátil 208 pode enviar pelo menos uma das imagens adicionais 238 ou dos dados de varredura adicionais 240 ao visualizador 230 no sistema com-putadorizado 218. Ao criar o modelo realçado 232 do objeto físico 204, o visualizador 230 pode criar o modelo realçado 232 do objeto físico 204 ao usar as imagens 222, as imagens adicionais 238, os dados de varredura 224 e os dados de varredura adicionais 240.
[0084] O visualizador 230 pode ser implementado em um software, um hardware, um firmware ou uma combinação dos mesmos. Quando o software é usado, as operações executadas pelo visualizador 230 podem ser implementadas no código de programa configurado para rodar no hardware, tal como uma unidade de processamento. Quando o firmware é usado, as operações executadas pelo visualizador 230 podem ser implementadas no código de programa e nos dados e ser armazenadas na memória persistente para rodar na unidade de pro-cessamento. Quando o hardware é usado, o hardware pode incluir cir-cuitos que operam para executar as operações no visualizador 230.
[0085] Nos exemplos ilustrativos, o hardware pode apresentar uma forma que é selecionada de pelo menos um dentre um sistema de cir-cuitos, um circuito integrado, um circuito integrado de aplicação espe-cífica (ASIC), um dispositivo de lógica programável ou algum outro tipo apropriado de hardware configurado para executar várias operações. Com um dispositivo de lógica programável, o dispositivo pode ser con-figurado para executar o número de operações. O dispositivo pode ser reconfigurado em um momento posterior ou pode ser configurado permanentemente para executar o número de operações. Os dispositi-vos de lógica programáveis incluem, por exemplo, uma matriz de lógica programável, uma lógica de matriz programável, uma matriz de lógica programável de campo, uma matriz de porta programável de campo e outros dispositivos de hardware apropriados. Além disso, os processos podem ser implementados em componentes orgânicos integrados com os componentes inorgânicos e podem ser compreendidos inteiramente de componentes orgânicos, com exceção do ser humano. Por exemplo, os processos podem ser implementados como circuitos em semicondutores orgânicos.
[0086] Em um exemplo ilustrativo, há uma ou mais soluções técnicas presentes que superam um problema técnico com a exibição da informação para aumentar a visualização ao vivo de um objeto físico de uma maneira que reduz a quantidade de recursos de processamento usados em comparação com as técnicas atualmente usadas que geram nuvens de pontos do objeto físico.
[0087] Em consequência disto, uma ou mais soluções técnicas podem prover um efeito técnico de reduzir a quantidade de recursos de processamento usados para criar o modelo de um objeto físico ao usar dois tipos de dados. No exemplo ilustrativo, as imagens e os dados de varredura são usados para reduzir a quantidade de recursos de processamento usados em comparação com as técnicas atuais que só usam as nuvens de pontos.
[0088] Com respeito aos objetos físicos grandes, tais como um avião comercial, uma represa e um navio de cruzeiro, a obtenção de modelos tridimensionais desses tipos de objetos físicos pode ser mais difícil à medida que a distância aumenta por causa da faixa de scanners tridimensionais atualmente usados. Além disso, à medida que a distância aumenta, a separação estereoscópica que está presente nas varreduras diminui e pode não prover a separação desejada. Desse modo, o uso de veículos não tripulados para gerar os dois tipos de da-dos, as imagens e os dados de varredura, provê vários efeitos técnicos. Por exemplo, a capacidade de zoom para ver mais detalhes de uma ou mais regiões está presente. Além disso, o uso de veículos não tripulados permite que esses veículos sejam movidos para posições que permitem uma separação maior.
[0089] O sistema computadorizado 218 pode ser configurado para realizar pelo menos uma das etapas, operações ou ações descritas nos diferentes exemplos ilustrativos ao usar software, hardware, firmware ou uma combinação dos mesmos. Em consequência, o sistema computadorizado 218 opera como um sistema computadorizado de finalidade especial em que visualizador 230 no sistema computadori-zado 218 permite gerar o modelo realçado 232 ao usar dois tipos de dados que usam menos recursos de processamento se comparados com os processos atuais. Em particular, o visualizador 230 transforma o sistema computadorizado 218 em um sistema computadorizado de finalidade especial em comparação com os sistemas computadorizados gerais atualmente disponíveis que não têm o visualizador 230.
[0090] A seguir, com referência à Figura 3, a ilustração de um diagrama de blocos que mostra a criação de um modelo realçado é mostrada de acordo com uma modalidade ilustrativa. Nos exemplos ilustrativos, o mesmo número de referência pode ser usado em mais de uma figura. Essa reutilização de um número de referência em figuras dife- rentes representa o mesmo elemento nas diferentes figuras.
[0091] Neste exemplo ilustrativo, o visualizador 230 cria o modelo realçado 232 ao usar as imagens 222 recebidas de um grupo de veí-culos não tripulados 220 e os dados de varredura 224 recebidos de vários veículos não tripulados 220.
[0092] Ao criar o modelo realçado 232 do objeto físico 204, o visu-alizador 230 cria o modelo 300 do objeto físico 204 ao usar as imagens 222. O visualizador 230 pode identificar o objeto físico 204 nas imagens 222 ao usar um processo de reconhecimento de objeto. O visualizador 230 pode usar a reconstrução tridimensional do objeto físico 204.
[0093] Essa reconstrução tridimensional pode ser realizada ao usar a identificação do objeto físico 204 das imagens 222 a fim de criar o modelo 300, que é um modelo tridimensional do objeto físico 204. O modelo 300 pode ser um modelo de projeto com auxílio de computador CAD, um modelo de engenharia com auxílio de computador CAE ou qualquer outro tipo apropriado de modelo.
[0094] Nesse exemplo descrito, as imagens 222 são imagens do objeto físico 204 de diferentes pontos de vista. Em outras palavras, os vários veículos não tripulados 220 geram as imagens 222 do objeto físico 204 de diferentes posições. Uma posição é a localização de um veículo não tripulado em um espaço tridimensional e inclui a orientação do veículo não tripulado.
[0095] Os dados de varredura 224 são gerados por vários veículos não tripulados 220 para a região 226. Os dados de varredura 224 des-crevem pontos no espaço para a região 226 do objeto físico 204. A região 226 pode não estar presente nas imagens 222 ou pode ser uma região em que mais detalhes são desejados do que pode ser provido ao usar as imagens 222.
[0096] O visualizador 230 também cria várias nuvens de pontos 302 dos dados de varredura 224 gerados pelos vários veículos não tripulados 220 no grupo de veículos não tripulados 220. O número de nuvens de pontos 302 descreve a superfície 304 do objeto físico 204 na região 226. O visualizador 230 modifica o modelo 300 do objeto físico 204 ao usar o número de nuvens de pontos 302 para formar o modelo realçado 232.
[0097] Por exemplo, o número de nuvens de pontos 302 pode ser convertido em um modelo de malha de polígonos, um modelo de malha de triângulos, um modelo de superfície de estrias de base racional não uniforme (NURBS) ou um modelo com auxílio de computador por meio de um processo usado atualmente que é indicado geralmente como reconstrução de superfície.
[0098] Além disso, o modelo realçado 232 também pode ser criado ao usar os dados recebidos do dispositivo de computação portátil 208. Por exemplo, os dados de varredura adicionais 240 podem ser recebidos para a região 226 do dispositivo de computação portátil 208 e ser usados para gerar uma nuvem de pontos no número de nuvens de pontos 302. Como outro exemplo, as imagens adicionais 238 podem ser recebidas do dispositivo de computação portátil 208 e ser usadas na geração do modelo 300.
[0099] A Figura 4 é a ilustração de um diagrama de blocos que mostra a seleção de uma região de um objeto físico, tal como descrito de acordo com uma modalidade ilustrativa. Neste exemplo ilustrativo, o visualizador 230 no sistema computadorizado 218 seleciona a região 226 do objeto físico 204 e controla vários veículos não tripulados 220 em um grupo de veículos não tripulados 220 a fim de gerar os dados de varredura 224 da região 226 do objeto físico 204.
[00100] A região 226 pode ser selecionada de várias maneiras dife-rentes. Por exemplo, o visualizador 230 pode selecionar a região 226 do objeto físico 204 com base no ponto de observação 400 do operador humano 206 ao usar o dispositivo de computação portátil 208.0 ponto de observação 400 é o local para o qual o operador humano 206 está olhando. Neste exemplo ilustrativo, o dispositivo de computação portátil 208 pode medir o ponto de observação 400 do operador humano 206. A localização do ponto de observação 400 no objeto físico 204 pode ser usada para determinar a região 226 no objeto físico 204.
[00101] Em outro exemplo ilustrativo, o visualizador 230 pode selecionar a região 226 do objeto físico 204 com base na localização 402 para a tarefa 214 executada pelo operador humano 206 ao usar o dispositivo de computação portátil 208. Neste exemplo, a localização 402 é abrangida pela região 226.
[00102] Com a identificação da região 226, o visualizador 230 pode controlar o número de veículos não tripulados 220 a fim de gerar os dados de varredura 224. Com os dados de varredura 224, a região 226 do objeto físico 204 no modelo realçado 232 tem mais detalhes do que outras regiões 234 do objeto físico 204 no modelo realçado 232.
[00103] Além disso, o sistema de inteligência artificial 404 pode ajudar a identificar a região 226. Por exemplo, o sistema de inteligência artificial 404 pode prever para onde o operador humano 206 irá olhar. Em outras palavras, o sistema de inteligência artificial 404 pode prever o ponto de observação 400 do operador humano 206 e pode direcionar o número de veículos não tripulados 220 para uma região prevista no objeto físico 204 a fim de gerar os dados de varredura 224 e gerar ou atualizar o modelo realçado 232. Essa geração ou atualização do modelo realçado 232 pode ocorrer antes que o operador humano 206 mude o ponto de observação 400 para a região prevista.
[00104] Além disso, o dispositivo de computação portátil 208 pode gerar e enviar os dados de varredura adicionais 240 ao visualizador 230. Neste exemplo ilustrativo, os dados de varredura adicionais 240 podem ser para o ponto de observação 400.
[00105] A ilustração do ambiente de visualização 200 e dos compo-nentes diferentes no ambiente de visualização 200 nas Figuras 2 a 4 não se prestam a implicar em limitações físicas ou de arquitetura à maneira pela qual uma modalidade ilustrativa pode ser implementada. Outros componentes além ou no lugar desses que foram ilustrados podem ser usados. Alguns componentes podem ser desnecessários. Além disso, os blocos são apresentados para ilustrar alguns compo-nentes funcionais. Um ou mais desses blocos podem ser combinados, divididos ou combinados e divididos em blocos diferentes quando im-plementados em uma modalidade ilustrativa.
[00106] Por exemplo, um ou mais dispositivos de computação portátil e um ou mais operadores humanos que utilizam um ou mais dispositivos de computador portátil podem estar presentes no ambiente de visualização, além do dispositivo de computação portátil 208 ou no lugar do mesmo. Como outro exemplo, embora o modelo realçado 232 tenha sido descrito no exemplo ilustrativo como sendo usado no sis-tema de realidade aumentada 216, o modelo realçado 232 pode ser usado em outros sistemas de realidade mista, tal como um sistema de realidade virtual. Em um sistema de realidade virtual, o modelo realça-do 232 pode ser usado em treinamentos para executar ações no objeto físico 204. Por exemplo, o operador humano 206 pode ver o modelo realçado 232 do objeto físico 204 e treiná-lo para executar a tarefa 214 no objeto físico 204. Em outro exemplo, uma ou mais regiões além da região 226 ou no lugar da mesma podem receber a varredura para criar os dados de varredura para uma ou dessas regiões.
[00107] Por exemplo, o modelo de referência 236 pode ser atualizado ao usar os dados de varredura 224 em vez de criar o modelo realçado 232. Dessa maneira, o modelo de referência 236 pode ser atualizado para refletir as mudanças no objeto físico 204 que ocorreram com o tempo.
[00108] Nesse exemplo, a região 226 do objeto físico 204 pode receber a varredura e a região correspondente no modelo de referência 236 pode ser atualizada. A atualização do modelo de referência 236 pode expressar as mudanças no objeto físico 204 que ocorrem com o tempo. Além disso, os dados de varredura 224 também podem ser usados para aumentar os detalhes no modelo de referência 236 na região 226 para que reflitam com mais precisão as mudanças temporais do objeto físico 204 no modelo de referência 236 ao mesmo nível de detalhes.
[00109] Em um exemplo ilustrativo, uma estrutura no objeto físico 204 pode ser reformada, deformada ou de outra maneira modificada com o tempo. Se a estrutura que mudou tiver que ser substituída, a configuração atual com a estrutura modificada é usada para identificar ou fabricar as estruturas de substituição. O modelo de referência 236 sem a mudança não pode ser usado para substituir a estrutura. Neste caso, a região 226 no objeto físico 204 em que a estrutura está locali-zada pode ser submetida à varredura para gerar os dados de varredura 224 para a região 226 do objeto físico 204 no modelo de referência 236 do objeto físico 204.
[00110] Como outro exemplo, o modelo realçado 232 das imagens 222 e dos dados de varredura 224 pode ser usado para criar o modelo de referência 236. Este tipo de processo pode ser útil quando o modelo de referência 236 ainda não existia.
[00111] Em outro exemplo ilustrativo, o tipo de objeto físico é co-nhecido, mas uma identificação mais detalhada do modelo de referên-cia a ser usado pode não ser conhecida. Por exemplo, com um avião, vários modelos de referência podem estar presentes para um tipo par-ticular de avião, mas o modelo particular de avião ou o número identifi-cador do avião podem não ser conhecidos. O modelo realçado 232 pode ser usado para identificar um modelo de referência particular pa- ra o uso. Em alguns casos, o grau de confiança na identificação do objeto físico pode ser de menos de 100 por cento. Neste caso, um subconjunto de modelos de referência pode ser identificado para uso.
[00112] Com referência à Figura 5, a ilustração pictórica de um am-biente de visualização é mostrada de acordo com uma modalidade ilustrativa. Neste exemplo ilustrativo, o ambiente de visualização 500 é o exemplo de uma implementação do ambiente de visualização 200 na Figura 2.
[00113] Neste exemplo ilustrativo, o ambiente de visualização 500 inclui a seção de fuselagem 502. Tal como descrito, o operador humano 504 executa a inspeção da seção de fuselagem 502 em uma fase vigente da fabricação. Tal como descrito, o operador humano 504 usa os óculos inteligentes 506, que é um tipo de dispositivo de computação portátil. Além disso, o veículo aéreo não tripulado 508 e o veículo aéreo não tripulado 510, que são quadricópteros neste exemplo ilustrado.
[00114] Tal como descrito, o veículo aéreo não tripulado 508 e o veículo aéreo 510 geram as imagens da seção de fuselagem 502. Além disso, o veículo aéreo não tripulado 508 e o veículo aéreo não tripulado 510 também podem fazer a varredura de uma ou mais regiões da seção de fuselagem 502 da varredura de dados. Por exemplo, o veículo aéreo não tripulado 508 pode fazer a varredura da região 520 abrangendo uma não conformidade 512 na forma de uma rachadura na seção de fuselagem 502.
[00115] As imagens e os dados de varredura gerados pelo veículo aéreo não tripulado 508 e pelo veículo aéreo não tripulado 510 são enviados ao computador do servidor 512 com o link de comunicação sem fio 514 e o link de comunicação sem fio 516.
[00116] Tal como descrito, o computador do servidor 512 gera um modelo realçado ao usar as imagens e os dados de varredura recebi-dos do veículo aéreo não tripulado 508 e do veículo aéreo não tripula- do 510. Tal como descrito, os dados de varredura da região 520 forne-cem uma resolução mais alta de visualização da região 520, incluindo a não conformidade 512.
[00117] Pelo menos uma parte do modelo realçado é enviada aos óculos inteligentes 506 com o link de comunicação sem fio 518. A parte do modelo realçado enviada aos óculos inteligentes 506 é uma in-formação que pode ser renderizada e exibida pelos óculos inteligentes 506 a fim de aumentar a visualização ao vivo da região 520 para o operador humano 504.
[00118] Com referência à Figura 6, a ilustração pictórica de uma interface gráfica de usuário é mostrada de acordo com uma modalidade ilustrativa. Neste exemplo ilustrativo, a interface gráfica de usuário 600 é exibida nos óculos inteligentes 506 em um operador humano 504 na Figura 5.
[00119] Neste exemplo ilustrativo, a interface gráfica de usuário 600 compreende a visualização ao vivo 602 da seção de fuselagem 502 com a informação 604 de uma visualização ao vivo aumentada do mo-delo realçado 602. A informação 604 também pode ser indicada como a informação sobre a realidade aumentada. Neste exemplo ilustrativo, a informação 604 inclui o indicador gráfico 610 que identifica a não conformidade 512 na visualização ao vivo 602 da seção de fuselagem 502. O indicador gráfico 610 chama a atenção do operador humano 504 para essa não conformidade na visualização ao vivo 602 da seção de fuselagem 502. Além disso, o indicador gráfico 612 destaca a não conformidade 512. O indicador gráfico 612 é exibido mais precisamente na visualização ao vivo 602 da não conformidade 512 ao usar os dados de varredura além das imagens. Além disso, a informação 604 também inclui a ordem de trabalho 614 exibida na visualização ao vivo 602 que identifica as operações a serem executadas com o respeito à não conformidade 522.
[00120] Com referência à Figura 7, a ilustração do fluxograma de um processo de visualização da informação em uma visualização ao vivo de um objeto físico é mostrada de acordo com uma modalidade ilustrativa. O processo na Figura 7 pode ser implementado em um hardware, em um software, ou em ambos. Quando implementado no software, o processo pode estar na forma de um código do programa que é executado em uma ou mais unidades processadoras localizadas em um ou mais dispositivos de hardware em um ou mais sistemas computadorizados. Por exemplo, o processo pode ser implementado no visualizador 230 no sistema computadorizado 218 na Figura 2.
[00121] O processo começa com a recepção das imagens de um objeto físico de um grupo de veículos não tripulados que se move em relação ao objeto físico (operação 700). Na operação 700, as imagens são recebidas nos links de comunicação com os veículos não tripulados.
[00122] O processo recebe os dados de varredura de uma região do objeto físico (operação 702). Os dados de varredura são recebidos de vários veículos não tripulados no grupo de veículos não tripulados nos vários links de comunicação.
[00123] O processo cria um modelo realçado do objeto físico ao usar as imagens e os dados de varredura (operação 704). A região no modelo realçado tem mais detalhes do que as outras regiões do objeto físico no modelo realçado. Mais detalhes podem ser obtidos com uma resolução aumentada, o que pode ajudar em uma precisão maior ao colocar a informação em uma visualização ao vivo da região do objeto físico.
[00124] O processo envia pelo menos uma parte do modelo realçado a um dispositivo de computação portátil (operação 706). O dispositivo de computação portátil localiza o objeto físico ao usar pelo menos a parte do modelo realçado.
[00125] O processo envia a informação que é exibida pelo dispositivo de computação portátil, em que o dispositivo de computação portátil exibe a informação na visualização ao vivo do objeto físico visto através do dispositivo de computação portátil (operação 708). O processo termina em seguida.
[00126] Na operação 708, a informação é identificada ao usar o modelo realçado do objeto físico. Por exemplo, ao identificar uma localização no objeto físico visto na visualização ao vivo do objeto físico, essa localização pode ser identificada no modelo realçado, que pode ser usado para identificar uma localização correspondente em um modelo de referência do objeto físico que contém a informação. Por exemplo, a extração da característica e a segmentação semântica da cena podem ser realizadas em imagens eletro-ópticas (EO) ou em infravermelho (IV). Ao usar a classificação de imagem e o reconhecimento de objeto as imagens adquiridas podem alinhar a informação de varredura ao modelo de referência.
[00127] Em algumas circunstâncias, estão presentes outras carac-terísticas ou marcas de localização que podem definir pontos de pas-sagem rígidos (imóveis) ou macios (predominantemente fixos). Essas marcas de localização podem ser coisas como uma posição física, tal como determinado por um sistema de posicionamento global e de ob-tenção de orientação. Alternativamente, a autoidentificação pode ser realizada ao usar pelo menos um dentre códigos de barra bidimensio-nais ou códigos de barra tridimensionais. A autoidentificação também pode ser realizada ao usar identificadores de radiofrequência, logos conhecidos ou placas identificadoras conhecidas a bordo de um avião com uma configuração predefinida. A informação de uma localização correspondente desejada no modelo de referência pode ser obtida do modelo de referência.
[00128] Com referência à Figura 8, é mostrada a ilustração do flu- xograma de um processo de controle de veículos não tripulados a fim de gerar a informação para a criação de um modelo realçado, de acor-do com uma modalidade ilustrativa. O processo na Figura 8 pode ser implementado em um hardware, um software, ou em ambos. Quando implementado no software, o processo pode apresentar a forma de um código de programa que é executado em uma ou mais unidades pro-cessadoras localizadas em um ou mais dispositivos de hardware em um ou mais sistemas computadorizados. Por exemplo, o processo pode ser implementado no visualizador 230 no sistema computadorizado 218 na Figura 2.
[00129] A informação inclui pelo menos uma das imagens ou dos dados de varredura. As imagens podem ser usadas para criar um modelo do objeto físico. Os dados de varredura podem ser usados para realçar o modelo em uma ou mais regiões a fim de ter mais detalhes para formar o modelo realçado.
[00130] O processo começa pelo controle de um grupo de veículos não tripulados para que se movam em relação a um objeto físico (operação 800). O processo controla o grupo de veículos não tripulados a fim de gerar imagens do objeto físico e dos dados de varredura descrevendo pontos no espaço para uma região do objeto físico (operação 802). A geração das imagens pode ocorrer enquanto os veículos não tripulados se movem em relação ao objeto físico. Além disso, a geração das imagens pode ocorrer com um ou mais dos veículos não tripulados em posições fixas em relação ao objeto. Em outras palavras, as imagens podem ser geradas enquanto os veículos não tripulados se movem, enquanto os veículos não tripulados estão em uma certa posição fixa ou alguma combinação dos mesmos. O processo termina em seguida.
[00131] Com referência à Figura 9, é mostrada a ilustração do flu-xograma de um processo de criação de um modelo realçado de um objeto físico, de acordo com uma modalidade ilustrativa. O processo na Figura 9 é o exemplo de uma implementação da operação 704 na Figura 7.
[00132] O processo começa com a criação do modelo de um objeto físico ao usar as imagens (operação 900). O processo cria várias nu-vens de pontos dos dados de varredura gerados pelos vários veículos não tripulados em um grupo de veículos não tripulados (operação 902).
[00133] O processo modifica o modelo do objeto físico ao usar o número de nuvens de pontos para formar um modelo realçado (opera-ção 904). O processo termina depois disso. Na operação 904, o pro-cesso pode substituir parte do modelo para a região pelo modelo da região gerado ao usar o número de nuvens de pontos.
[00134] Com referência à Figura 10, é mostrada a ilustração do flu- xograma de um processo de visualização da informação em uma visu-alização ao vivo de um objeto físico, de acordo com uma modalidade ilustrativa. O processo na Figura 10 pode ser implementado em um hardware, um software, ou em ambos. Quando implementado no sof-tware, o processo pode apresentar a forma de um código de programa que é executado em uma ou mais unidades processadoras localizadas em um ou mais dispositivos de hardware em um ou mais sistemas computadorizados. Por exemplo, o processo pode ser implementado no dispositivo de computação portátil 208 no sistema de realidade au-mentada 216 na Figura 2.
[00135] O processo começa com a localização de um dispositivo de computação portátil de um objeto físico ao usar um modelo realçado do objeto físico (operação 1000). A localização na operação 1000 pode ser realizada ao usar os processos de localização e mapeamento simultâneos (SLAM) que são executados no dispositivo de computação portátil.
[00136] O processo exibe a informação em uma visualização ao vivo do objeto físico visto através de um dispositivo de exibição no dispositivo de computação portátil que foi posicionado ao usar o modelo realçado do objeto físico e um modelo de referência do objeto físico (operação 1002). Na operação 1002, o posicionamento na visualização ao vivo do objeto físico pode ser correlacionado ao posicionamento correspondente no modelo realçado. Por sua vez, o posicionamento no modelo realçado pode ser correlacionado ao modelo de referência do objeto físico. A informação pode ser identificada com base no posi-cionamento no modelo de referência. Esta informação pode ser exibida na visualização ao vivo do objeto físico. Essas correlações podem ser realizadas ao usar os processos de registo de imagem atualmente disponíveis.
[00137] A operação 1002 pode ser implementada ao usar os aplicativos de realidade aumentada atualmente disponíveis, tais como o software de realidade aumentada Vuforia™ desenvolvido pela Vuforia and PTC Incorporated. O processo termina em seguida.
[00138] Os fluxogramas e os diagramas de blocos nas diferentes modalidades descritas ilustram a arquitetura, a funcionalidade e a ope-ração de algumas implementações possíveis dos aparelhos e métodos em uma modalidade ilustrativa. A esse respeito, cada bloco nos fluxo-gramas ou nos diagramas de bloco pode representar pelo menos um dentre um módulo, um segmento, uma função ou parte de uma opera-ção ou de uma etapa. Por exemplo, um ou mais dos blocos podem ser implementados como código de programa, hardware ou uma combina-ção de código de programa e de hardware. Quando implementados em hardware, o hardware pode, por exemplo, apresentar a forma de circuitos integrados que são fabricados ou configurados para executar uma ou mais operações nos fluxogramas ou nos diagramas de bloco. Quando implementados como uma combinação de código de progra- ma e de hardware, a implementação pode apresentar a forma de fir-mware. Cada bloco nos fluxogramas ou nos diagramas de bloco pode ser implementado ao usar os sistemas de hardware de finalidades es-peciais que executam as diferentes operações ou as combinações de hardware de finalidades especiais e código de programa executado pelo hardware de finalidades especiais.
[00139] Em algumas implementações alternativas de uma modalidade ilustrativa, a função ou as funções observadas nos blocos podem ocorrer fora da ordem observada nas figuras. Por exemplo, em alguns casos, dois blocos mostrados em sucessão podem ser executados de modo substancialmente simultâneo, ou os blocos podem, às vezes, ser executados na ordem inversa, dependendo da funcionalidade en-volvida. Além disso, outros blocos podem ser adicionados além dos blocos ilustrados em um fluxograma ou em um diagrama de blocos.
[00140] Além disso, os exemplos são descritos com respeito às operações que são executadas pelo visualizador 230 na Figura 2, como exemplo. Em outros exemplos ilustrativos, esses processos podem ser executados por outros componentes, incluindo pelo menos um dentre o sistema de inteligência artificial 404 na Figura 4 ou o visualizador 128 na Figura 1.
[00141] Com referência à Figura 11, é mostrada a ilustração de um diagrama de blocos de um sistema de processamento de dados de acordo com uma modalidade ilustrativa. O sistema de processamento de dados 1100 pode ser usado para implementar o computador do servidor 104, o computador do servidor 106 e os dispositivos do cliente 110 na Figura 1. O sistema de processamento de dados 1100 também pode ser usado para implementar o sistema computadorizado 218 e o dispositivo de computação portátil 208 na Figura 2. Neste exemplo ilustrativo, o sistema de processamento de dados 1100 inclui a estrutu-ra de comunicações 1102, que provê comunicações entre a unidade de processamento 1104, a memória 1106, o armazenamento persistente 1108, a unidade de comunicações 1110, a unidade de entra- da/saída 1112 (I/O) e o mostrador 1114. Neste exemplo, a estrutura de comunicações 1102 apresenta a forma de um sistema de barramento.
[00142] A unidade de processamento 1104 serve para executar as instruções para o software que pode ser carregado na memória 1106. A unidade de processamento 1104 inclui um ou mais processadores. Por exemplo, a unidade de processamento 1104 pode ser selecionada de pelo menos um dentre um processador multinúcleos, de uma unidade de processamento central (CPU), de uma unidade de processamento de gráficos (GPU), de uma unidade de processamento física (PPU), de um processador de sinal digital (DSP), de um processador de rede ou de qualquer outro tipo apropriado de processador.
[00143] A memória 1106 e o armazenamento persistente 1108 são exemplos de dispositivos de armazenamento 1116. Um dispositivo de armazenamento é qualquer parte de hardware que pode armazenar a informação, tal como, por exemplo, sem limitação, pelo menos um dentre dados, código de programa na forma funcional ou outra infor-mação apropriada em uma base provisória, em uma base permanente ou em ambas, em uma base provisória e em uma base permanente. Os dispositivos de armazenamento 1116 também podem ser indicados como dispositivos de armazenamento que podem ser lidos por compu-tador nestes exemplos ilustrativos. A memória 1106, nestes exemplos, pode ser, por exemplo, uma memória de acesso aleatório ou qualquer outro dispositivo apropriado volátil de armazenamento ou não volátil. O armazenamento persistente 1108 pode apresentar várias formas, de-pendendo da implementação particular.
[00144] Por exemplo, o armazenamento persistente 1108 pode conter um ou mais componentes ou dispositivos. Por exemplo, o armaze-namento persistente 1108 pode ser um drive rígido, um drive de esta- do sólido (SSD), uma memória flash, um disco óptico regravável, uma fita magnética regravável ou alguma combinação acima. Os meios usados pelo armazenamento persistente 1108 também podem ser re-movíveis. Por exemplo, uma disco rígido removível pode ser usado para o armazenamento persistente 1108.
[00145] A unidade de comunicações 1110, nestes exemplos ilustra-tivos, provê comunicações com outros sistemas de processamento de dados ou dispositivos. Nesses exemplos ilustrativos, a unidade de co-municações 1110 é um cartão de interface de rede.
[00146] A unidade de entrada/saída 1112 permite a entrada e a saída de dados em outros dispositivos que podem ser conectados ao sistema de processamento de dados 1100. Por exemplo, a unidade de entrada/saída 1112 pode prover uma conexão para a entrada do usuá-rio através de pelo menos um teclado, um mouse ou algum outro dis-positivo de entrada apropriado. Além disso, a unidade de entrada/saída 1112 pode enviar a saída a uma impressora. O mostrador 1114 provê um mecanismo para exibir a informação ao usuário.
[00147] As instruções para pelo menos um dentre o sistema opera-cional, as aplicações ou os programas podem ficar localizadas nos dispositivos de armazenamento 1116, que ficam em comunicação com a unidade de processamento 1104 através da estrutura de comunica-ções 1102. Os processos das diferentes modalidades podem ser exe-cutados pela unidade de processamento 1104 ao usar as instruções implementadas por computador, que podem ficar localizadas em uma memória, tal como a memória 1106.
[00148] Essas instruções são indicadas como código de programa, código de programa utilizável pelo computador, ou código de programa que pode ser lido por computador que pode ser lido e executado por um processador na unidade de processamento 1104. O código do programa nas diferentes modalidades pode ser incorporado em dife- rentes meios de armazenamento físico ou que podem ser lidos por computador, tais como a memória 1106 ou o armazenamento persis-tente 1108.
[00149] O código de programa 1118 fica localizado em uma forma funcional no meio que pode ser lido por computador 1120 que é seleti-vamente removível e que pode ser carregado ou transferido ao sistema de processamento de dados 1100 para a execução pela unidade de processamento 1104. O código de programa 1118 e o meio que pode ser lido por computador 1120 formam o produto programa de computador 1122 nesses exemplos ilustrativos. No exemplo ilustrativo, o meio que pode ser lido por computador 1120 é o meio de armaze-namento que pode ser lido por computador 1124.
[00150] Nestes exemplos ilustrativos, o meio de armazenamento que pode ser lido por computador 1124 é um dispositivo de armazenamento físico ou tangível usado para armazenar o código de programa 1118 em vez de um meio que propaga ou transmite o código de programa 1118.
[00151] Alternativamente, o código de programa 1118 pode ser transferido ao sistema de processamento de dados 1100 ao usar um meio de sinal que pode ser lido por computador. O meio de sinal que pode ser lido por computador pode ser, por exemplo, um sinal de dados propagado que contém o código de programa 1118. Por exemplo, o meio de sinal que pode ser lido por computador pode ser pelo menos um dentre um sinal eletromagnético, um sinal óptico ou qualquer outro tipo apropriado de sinal. Esses sinais podem ser transmitidos pelas conexões, tais como os links de comunicação cabeados ou os links de comunicação sem fio. Os links de comunicação cabeados podem incluir as conexões feitas ao usar o cabo de fibra óptica, o cabo coaxial, um fio ou qualquer outro tipo de conexão apropriado.
[00152] Os diferentes componentes ilustrados para o sistema de processamento de dados 1100 não se prestam a apresentar limitações de arquitetura à maneira na qual as modalidades diferentes podem ser implementadas. Em alguns exemplos ilustrativos, um ou mais dos componentes podem ser incorporados em, ou então uma parte de um outro componente. Por exemplo, a memória 1106, ou partes da mesma, podem ser incorporadas na unidade de processamento 1104 em alguns exemplos ilustrativos. Modalidades ilustrativas diferentes podem ser implementadas em um sistema de processamento de dados que inclui componentes além daqueles ilustrados para o sistema de processamento de dados 1100 ou no lugar dos mesmos. Outros com-ponentes mostrados na Figura 11 podem variar dos exemplos ilustrati-vos mostrados. As modalidades diferentes podem ser implementadas ao usar qualquer dispositivo ou sistema de hardware capaz de executar o código de programa 1118.
[00153] Com referência à Figura 12, é mostrada a ilustração de um diagrama de blocos de um dispositivo de computação portátil de acordo com uma modalidade ilustrativa. O dispositivo de computação portátil 1200 é um exemplo de uma maneira como o dispositivo de computação portátil 208 na Figura 2 pode ser implementado. Neste exemplo ilustrativo, o dispositivo de computação portátil 1200 inclui compo-nentes de hardware físico tais como a unidade de processamento 1202, a estrutura de comunicações 1204, a memória 1206, o armazenamento de dados 1208, a unidade de comunicações 1210, o mostrador 1212 e o sistema sensor 1214.
[00154] A estrutura de comunicações 1204 permite que os diferentes componentes no dispositivo de computação portátil 1200 se comu-niquem uns com os outros quando conectados à estrutura de comuni-cações 1204. A estrutura de comunicações 1204 é um sistema de bar- ramento neste exemplo ilustrativo.
[00155] A unidade de processamento 1202 processa o código de programa para o software carregado na memória 1206. Neste exemplo ilustrativo, o código de programa pode incluir aplicativos tais como o aplicativo de realidade aumentada 1205 e os processos de localização e mapeamento simultâneos (SLAM) 1207.
[00156] O aplicativo de realidade aumentada 1205 pode operar para exibir a informação em uma visualização ao vivo do objeto físico visto através do mostrador 1212 no dispositivo de computação portátil 1200 para prover uma visualização de realidade aumentada.
[00157] O processo de localização e mapeamento simultâneos 1207 pode operar para criar um mapa ou um modelo do objeto físico. Além disso, este processo também pode operar para localizar ou identificar a posição do dispositivo de computação portátil 1200 em relação ao objeto físico. Este processo pode ser usado para determinar onde exibir a informação com respeito a uma visualização ao vivo do objeto físico.
[00158] A unidade de processamento 1202 inclui um ou mais pro-cessadores. Por exemplo, a unidade de processamento 1202 pode ser selecionada pelo menos dentre um processador de múltiplos núcleos, uma unidade de processamento central (CPU), uma unidade de pro-cessamento de gráficos (GPU), uma unidade de processamento física (PPU), um processador de sinal digital (DSP), um processador de rede ou qualquer outro tipo apropriado de processador.
[00159] A memória 1206 é conectada à unidade de processamento 1202 através da estrutura de comunicações 1204. Tal como descrito, a memória 1206 pode incluir pelo menos uma dentre uma memória de acesso aleatório (RAM), uma memória só de leitura (ROM), uma me-mória de acesso aleatório estática (SRAM), uma memória de acesso aleatório dinâmica (DRAM) ou outros tipos apropriados de dispositivos ou circuitos de memória.
[00160] Tal como descrito, o armazenamento de dados 1208 é co- nectado à estrutura de comunicações 1204 e pode armazenar dados, código de programa ou outras informações. As instruções no código de programa podem ser carregadas do armazenamento de dados 1208 na memória 1206 para processamento pela unidade de processamento 1202. O armazenamento de dados 1208 pode compreender pelo menos um dentre um drive de disco rígido, um drive flash, um drive de disco de estado sólido, um drive óptico ou algum outro tipo apropriado de dispositivo ou sistema do armazenamento dos dados.
[00161] Neste exemplo ilustrativo, a unidade de comunicações 1210 provê comunicações com outros sistemas ou dispositivos de proces-samento de dados. Nestes exemplos ilustrativos, a unidade de comu-nicações 1210 inclui pelo menos um dentre um cartão de interface de rede, um dispositivo de comunicações sem fio, uma porta de barra- mento serial universal ou outro dispositivo apropriado.
[00162] O mostrador 1212 é conectado à estrutura de comunicações 1204 e provê um mecanismo para exibir a informação ao usuário. Neste exemplo, o mostrador 1212 pode ser uma tela sensível ao toque, que permite receber a entrada do usuário através desse mostrador.
[00163] Neste exemplo ilustrativo, o sistema sensor 1214 é conectado à estrutura de comunicações 1204. Tal como descrito, o sistema sensor 1214 pode incluir o hardware, o software, ou ambos, que controlam a operação do sistema de câmera 1216 e do scanner tridimensional 1218 no sistema sensor 1214. O sistema de câmera 1216 é um hardware físico que compreende uma ou mais câmeras e é capaz de gravar ou capturar imagens. O sistema de câmera 1216 consiste em uma ou mais câmeras digitais e pode incluir pelo menos uma dentre uma câmera estéreo, uma câmera sem espelhos ou algum outro tipo de dispositivo de formação de imagem. As câmeras também podem ser, por exemplo, pelo menos uma dentre as câmeras eletro-ópticas ou infravermelhas. As imagens podem ser imagens individuais ou imagens para um vídeo.
[00164] O scanner tridimensional 1218 é o hardware que pode fazer a varredura de um objeto físico para gerar os dados de varredura. Os dados de varredura descrevem pontos no objeto físico. Os dados de varredura podem ser usados para gerar o modelo de uma região do objeto que é mais detalhada do que outras regiões do objeto criado ao usar imagens. Esses dados podem ser usados em conjunto com o processo de localização e mapeamento simultâneos 1207 para mapear o objeto, bem como posicionar o dispositivo de computação portátil 1200 no objeto físico. O scanner tridimensional 1218 pode apresentar várias formas diferentes. Por exemplo, o scanner tridimensional 1218 pode ser selecionado dentre pelo menos um scanner a laser, um sis-tema lidar, um scanner com infravermelho ou algum outro tipo de sis-tema de varredura.
[00165] A ilustração do dispositivo de computação portátil 1200 é o exemplo de uma maneira por meio da qual o dispositivo de computação portátil 1200 pode ser implementado. Esta ilustração não se presta a limitar a maneira pela qual o dispositivo de computação portátil 1200 pode ser incorporado em outros exemplos ilustrativos.
[00166] Com referência à Figura 13, é mostrada a ilustração do dia-grama de blocos de um dispositivo de veículo não tripulado de acordo com uma modalidade ilustrativa. O veículo não tripulado 1300 é o exemplo de uma maneira por meio da qual o veículo aéreo não tripu-lado 112 na Figura 1, o veículo aéreo não tripulado 114 na Figura 1, o veículo aéreo não tripulado 116 na Figura 1 e os veículos não tripulados 220 na Figura 2 podem ser implementados.
[00167] Neste exemplo ilustrativo, o veículo não tripulado 1300 compreende vários componentes. Tal como descrito, o veículo não tripulado 1300 inclui a estrutura 1302, o sistema de propulsão 1304, o computador 1306, o sistema de comunicações 1308 e o sistema sensor 1310.
[00168] A estrutura 1302 é uma estrutura física que é projetada com base no tipo de locomoção usado pelo veículo não tripulado 1300. Por exemplo, se o veículo não tripulado 1300 for um veículo aéreo não tri-pulado, o veículo não tripulado 1300 pode ter superfícies aerodinâmi-cas. Se o veículo não tripulado 1300 for um veículo aquático não tripu-lado, o veículo não tripulado 1300 pode ter um casco para uso na água. Neste exemplo ilustrativo, o sistema de propulsão 1304, o computador 1306, o sistema de comunicações 1308 e o sistema sensor 1310 são conectados à estrutura 1302.
[00169] O sistema de propulsão 1304 é um sistema de hardware que faz com que o veículo não tripulado 1300 se mova. Por exemplo, o sistema de propulsão 1304 pode incluir um motor a jato, rotores ou ou-tros componentes de propulsão quando o veículo não tripulado 1300 é um veículo aéreo não tripulado.
[00170] O computador 1306 é o hardware que controla a operação dos componentes no veículo não tripulado 1300. Por exemplo, o com-putador 1306 pode controlar as operações do sistema de propulsão 1304, do sistema de comunicações 1308 e do sistema sensor 1310.
[00171] O sistema de comunicações 1308 é o hardware que provê as comunicações ao usar um link de comunicação cabeado ou um link de comunicação sem fio. Este link de comunicação pode ser estabelecido com os computadores remotos no solo ou nos outros veículos não tripulados. Um link de comunicação sem fio pode usar sinais de radio-frequência ou sinais ópticos.
[00172] O sistema sensor 1310 inclui o hardware, o software ou ambos. Tal como descrito, o sistema sensor 1310 compreende o sistema de câmera 1312 e o scanner tridimensional 1314.
[00173] As modalidades ilustrativas da descrição podem ser descritas no contexto do método de fabricação e de assistência técnica do avião 1400, tal como mostrado na Figura 14, e no avião 1500, tal como mostrado na Figura 15. Primeiramente com referência à Figura 14, a ilustração do diagrama de blocos de um método de fabricação e de assistência técnica do avião é mostrada de acordo com uma modali-dade ilustrativa. Durante a pré-produção, o método de fabricação e de assistência técnica do avião 1400 pode incluir a especificação e o de-senho 1402 do avião 1500 na Figura 15 e a aquisição de material 1404.
[00174] Durante a produção, ocorrem a fabricação de um componente e de um subconjunto 1406 e a integração de sistema 1408 do avião 1500 na Figura 15. Depois disso, o avião 1500 na Figura 15 passa pela certificação e a entrega 1410 a fim de ser colocado em serviço 1412. Enquanto em serviço 1412 por um cliente, o avião 1500 na Figura 15 é programado para manutenção e assistência técnica de rotina 1414, que podem incluir a modificação, a reconfiguração, a restauração e outra manutenção ou assistência técnica.
[00175] Cada um dos processos do método de fabricação e de as-sistência técnica do avião 1400 pode ser executado ou realizado por um integrador de sistema, por um terceiro, por um operador ou alguma combinação dos mesmos. Nestes exemplos, o operador pode ser um cliente. Para as finalidades desta descrição, um integrador de sistema pode incluir, sem limitação, vários fabricantes de avião e subcontratan- tes do sistema principal; o terceiro pode incluir, sem limitação, qualquer número de vendedores, subcontratantes e fornecedores; e o operador pode ser uma linha aérea, uma companhia de leasing, uma entidade militar, uma organização de serviço e assim por diante.
[00176] Agora com referência à Figura 15, é mostrada a ilustração do diagrama de blocos de um avião em que uma modalidade ilustrativa pode ser implementada. Neste exemplo, o avião 1500 é produzido pelo método de fabricação e de assistência técnica do avião 1400 na Figura 14 e pode incluir a estrutura do avião 1502 com uma pluralidade de sistemas 1504 e o interior 1506. Os exemplos dos sistemas 1504 incluem um ou mais dentre o sistema de propulsão 1508, o sistema elétrico 1510, o sistema hidráulico 1512 e o sistema ambiental 1514. Qualquer número de outros sistemas pode ser incluído. Embora um exemplo aeroespacial seja mostrado, modalidades ilustrativas dife-rentes podem ser aplicadas a outras indústrias, tais como a indústria automotiva.
[00177] Os aparelhos e os métodos incorporados no presente do-cumento podem ser usados durante pelo menos um dos estágios do método de fabricação e de assistência técnica do avião 1400 na Figura 14.
[00178] Em um exemplo ilustrativo, os componentes ou os subcon-juntos produzidos na fabricação de componente e subconjunto 1406 na Figura 14 podem ser fabricados ou manufaturados de uma maneira similar aos componentes ou subconjuntos produzidos enquanto o avião 1500 está em serviço 1412 na Figura 14. Em outro exemplo, uma ou mais modalidades do aparelho, modalidades do método ou uma combinação das mesmas podem ser utilizadas durante os estágios de produção, tais como a fabricação de componente e subconjunto 1406 e a integração de sistema 1408 na Figura 14. Uma ou mais modalidades do aparelho, modalidades do método ou uma combinação das mesmas podem ser utilizadas enquanto o avião 1500 está em serviço 1412, durante a manutenção e a assistência técnica 1414 na Figura 14, ou ambas.
[00179] Por exemplo, o sistema de realidade aumentada 216 na Figura 2 pode ser usado para prover as visualizações das localizações da tarefa. Essas visualizações podem incluir a exibição da informação sobre a tarefa a ser executada nas localizações da tarefa. O sistema de realidade aumentada 216 pode ser utilizado por operadores humanos durante pelo menos uma dentre a fabricação de componente e subconjunto 1406, a integração de sistema 1408, a certificação e a en-trega 1410 ou a manutenção e a assistência técnica 1414. O sistema de realidade aumentada 216 pode ser útil na visualização de objetos maiores, tais como o avião parcialmente montado, em comparação com o uso das técnicas atuais para aumentar a visualização ao vivo dos objetos.
[00180] O uso de várias modalidades ilustrativas diferentes pode acelerar de maneira substancial a montagem do avião 1500, reduzir o custo do avião 1500 ou ambos, acelerar a montagem do avião 1500 e reduzir o custo do avião 1500. Por exemplo, a quantidade de recursos de processador necessários para informar as operações pode ser re-duzida, assim como pode ser reduzida a quantidade de tempo neces-sário a fim de gerar os modelos para uso na execução de operações em objetos, tais como o avião 1500, ou uma parte do mesmo.
[00181] Agora com referência à Figura 16, é mostrada a ilustração de um diagrama de blocos de um sistema de gerenciamento de produtos de acordo com uma modalidade ilustrativa. O sistema de gerenci-amento de produtos 1600 é um sistema de hardware físico. Neste exemplo ilustrativo, o sistema de gerenciamento de produtos 1600 in-clui pelo menos um dentre o sistema de fabricação 1602 ou o sistema de manutenção 1604.
[00182] O sistema de fabricação 1602 é configurado para fabricar os produtos, tais como o avião 1500 na Figura 15. Tal como descrito, o sistema de fabricação 1602 inclui o equipamento de fabricação 1606. O equipamento de fabricação 1606 inclui pelo menos um dentre o equipamento de fabricação 1608 ou o equipamento de montagem 1610.
[00183] O equipamento de fabricação 1608 é o equipamento que é usado para fabricar os componentes das partes usadas para formar o avião 1500 na Figura 15. Por exemplo, o equipamento de fabricação 1608 pode incluir máquinas e ferramentas. Essas máquinas e ferra-mentas podem ser pelo menos uma dentre uma broca, uma prensa hidráulica, um forno, um molde, uma máquina de colocação de fita composta, um sistema a vácuo, um torno, o sistema de realidade au-mentada 216 na Figura 2 ou outros tipos apropriados de equipamento. O equipamento de fabricação 1608 pode ser usado para fabricar pelo menos uma dentre peças de metal, peças compósitas, semicondutores, circuitos, prendedores, reforços, painéis de cobertura, mastros, antenas ou outros tipos apropriados de peças.
[00184] O equipamento de montagem 1610 é o equipamento usado para montar as partes que formam o avião 1500 na Figura 15. Em par-ticular, o equipamento de montagem 1610 é usado para montar os componentes e partes que formam o avião 1500. O equipamento de montagem 1610 também pode incluir máquinas e ferramentas. Essas máquinas e ferramentas podem ser pelo menos uma dentre um braço robótico, uma esteira rolante, um sistema mais rápido de instalação, um sistema de perfuração baseado em trilhos, o sistema de realidade aumentada 216 na Figura 2 ou um robô. O equipamento de montagem 1610 pode ser usado para montar partes tais como assentos, estabili-zadores horizontais, asas, motores, invólucros de motor, sistemas de engrenagem de pouso e outras partes do avião 1500 na Figura 15.
[00185] Neste exemplo ilustrativo, o sistema de manutenção 1604 inclui o equipamento de manutenção 1612. O equipamento de manutenção 1612 pode incluir qualquer equipamento necessário para realizar a manutenção no avião 1500. O equipamento de manutenção 1612 pode incluir ferramentas para realizar diferentes operações em partes do avião 1500. Essas operações podem incluir pelo menos uma dentre as partes de desmontagem, as partes de renovação, as partes de inspeção, as partes de remodelamento, as partes de substituição de fabricação ou outras operações para realizar a manutenção no avião 1500 da Figura 15. Essas operações podem ser para manutenção rotineira, inspeções, atualizações, renovações ou outros tipos de ope-rações de manutenção.
[00186] No exemplo ilustrativo, o equipamento de manutenção 1612 pode incluir dispositivos de inspeção ultrassónicos, sistemas de forma-ção de imagem de raio X, sistemas de visualização, brocas, esteiras rolantes e outros dispositivos apropriados. Em alguns casos, o equi-pamento de manutenção 1612 pode incluir o equipamento de fabrica-ção 1608, o equipamento de montagem 1610 ou ambos, a fim de pro-duzir e montar as partes necessárias para a manutenção.
[00187] O sistema de gerenciamento de produtos 1600 também inclui o sistema de controle 1614. O sistema de controle 1614 é um sistema de hardware e também pode incluir o software ou outros tipos de componentes. O sistema de controle 1614 é configurado para controlar a operação de pelo menos um dentre o sistema de fabricação 1602 ou o sistema de manutenção 1604. Em particular, o sistema de controle 1614 pode controlar a operação de pelo menos um dentre o equipa-mento de fabricação 1608, o equipamento de montagem 1610 ou o equipamento de manutenção 1612.
[00188] O hardware no sistema de controle 1614 pode ser imple-mentado ao usar um hardware que pode incluir computadores, circui-tos, redes e outros tipos de equipamento. O controle pode apresentar a forma de controle direto do equipamento de fabricação 1606. Por exemplo, os robôs, as máquinas controladas por computador e outros equipamentos podem ser controlados pelo sistema de controle 1614. Em outros exemplos ilustrativos, o sistema de controle 1614 pode ge-renciar as operações executadas pelos operadores humanos 1616 na fabricação ou na realização da manutenção do avião 1500. Por exem- pio, o sistema de controle 1614 pode atribuir tarefas, fornecer instru-ções, exibir modelos ou executar outras operações a fim de gerenciar as operações executadas pelos operadores humanos 1616. Nesses exemplos ilustrativos, o sistema de realidade aumentada 216 na Figura 2 pode ser implementado no sistema de controle 1614 ou com o mesmo a fim de gerenciar pelo menos uma dentre a fabricação ou a manutenção do avião 1500 na Figura 15.
[00189] Por exemplo, o sistema de controle 1614 pode atribuir tarefas tais como montar ou realizar a manutenção em um objeto, tal como um avião, um edifício, uma represa, ou algum outro objeto apropriado a um ou mais dos operadores humanos 1616. O sistema de controle 1614 pode enviar a informação sobre a tarefa a fim de aumentar as visualizações ao vivo dos dispositivos de computação portáteis no sis-tema de realidade aumentada 216 na Figura 2 usado ou carregado pelos operadores humanos 1616.
[00190] Nos diferentes exemplos ilustrativos, os operadores humanos 1616 podem operar ou interagir com pelo menos um dentre o equipamento de fabricação 1606, o equipamento de manutenção 1612 ou o sistema de controle 1614. Essa interação pode ocorrer para fabri-car o avião 1500 na Figura 15.
[00191] Naturalmente, o sistema de gerenciamento de produtos 1600 pode ser configurado para gerenciar outros produtos, com exceção do avião 1500 na Figura 15. Embora o sistema de gerenciamento de produtos 1600 tenha sido descrito com respeito à fabricação na in-dústria aeroespacial, o sistema de gerenciamento de produtos 1600 pode ser configurado para gerenciar produtos para outras indústrias. Por exemplo, o sistema de gerenciamento de produtos 1600 pode ser configurado para fabricar produtos para a indústria automotiva, bem como para todas as outras indústrias apropriadas.
[00192] Além disso, a invenção compreende modalidades de acor- do com as cláusulas a seguir:
[00193] Cláusula 1. Um sistema de realidade aumentada 216, o qual compreende: um grupo de veículos não tripulados 220 que operam para se mover em relação a um objeto físico 204, gerar imagens 222 do ob-jeto físico 204, gerar dados da varredura 224 que descrevem pontos no espaço para uma região 226 do objeto físico 204; um sistema computadorizado 218 em comunicação com o grupo de veículos não tripulados 220 ao usar links de comunicações 228, em que o sistema computadorizado 218 opera para: receber as imagens 222 do objeto físico 204 do grupo de veículos não tripulados 220 que se movem em relação ao objeto físico 204; receber os dados da varredura 224 para a região 226 do objeto físico 204 de um número de veículos não tripulados 220 no gru-po de veículos não tripulados 220 que se movem em relação ao objeto físico 204; criar um modelo realçado 232 do objeto físico 204 ao usar as imagens 222 e os dados da varredura 224, em que a região 226 do objeto físico 204 no modelo realçado 232 tem uma quantidade maior de detalhes do que outras regiões 234 do objeto físico 204 no modelo realçado 232; e um dispositivo de computação portátil 208 que opera para: localizar o objeto físico 204 ao usar o modelo realçado 232; e exibir a informação 202 sobre uma visualização ao vivo 212 do objeto físico 204 visto através do dispositivo de computação portátil 208, em que a informação 202 é identificada ao usar o modelo realçado 232 do objeto físico 204.
[00194] Cláusula 2. O sistema de realidade aumentada 216 da cláusula 1, em que o sistema computadorizado 218 controla o grupo de veículos não tripulados 220 para se mover em relação ao objeto físico 204, e gera as imagens 222 do objeto físico 204 e os dados da varredura 224 que descrevem pontos no espaço para a região 226 do objeto físico 204.
[00195] Cláusula 3. O sistema de realidade aumentada 216 de acordo com qualquer uma das cláusulas 1 a 2, em que na criação do modelo realçado 232 do objeto físico 204 ao usar as imagens 222 e os dados da varredura 224, o sistema computadorizado 218 opera para: criar um modelo 302 do objeto físico 204 ao usar as imagens 222; criar um número de nuvens de pontos 302 a partir dos dados da varredura 224 gerados por um número de veículos não tripulados 220 no grupo de veículos não tripulados 220; e modificar o modelo 302 do objeto físico 204 ao usar o nú-mero de nuvens de pontos 302 para formar o modelo realçado 232.
[00196] Cláusula 4. O sistema de realidade aumentada 216 de acordo com qualquer uma das cláusulas 1 a 3, em que o grupo de veículos não tripulados 220 opera para gerar as imagens 222 e os dados da varredura 224 enquanto um operador humano 206 observa a visua-lização ao vivo 212 do objeto físico 204 através do dispositivo de com-putação portátil 208.
[00197] Cláusula 5. O sistema de realidade aumentada 216 de acordo com qualquer uma das cláusulas 1 a 4, em que o sistema computadorizado 218 seleciona a região 226 do objeto físico 204 e controla um número de veículos não tripulados 220 no grupo de veícu-los não tripulados 220 para gerar os dados da varredura 224 da região 226 do objeto físico 204.
[00198] Cláusula 6. O sistema de realidade aumentada 216 da cláusula 5, em que, na seleção da região 226 do objeto físico 204, o sistema computadorizado 218 seleciona a região 226 do objeto físico 204 com base em um ponto de observação 400 de um operador humano 206 ao usar o dispositivo de computação portátil 208.
[00199] Cláusula 7. O sistema de realidade aumentada 216 da cláusula 5, em que, na seleção da região 226 do objeto físico 204, o sistema computadorizado 218 seleciona a região 226 do objeto físico 204 com base em uma localização 402 para uma tarefa 214 executada por um operador humano 206 ao usar o dispositivo de computação portátil 208, em que a localização 402 é abrangida pela região 226.
[00200] Cláusula 8. O sistema de realidade aumentada 216 de acordo com qualquer uma das cláusulas 1 a 7, em que o sistema computadorizado 218 recebe pelo menos uma das imagens adicionais 228 do objeto físico 204 ou dos dados da varredura adicionais 240 do objeto físico 204 do dispositivo de computação portátil 208; e em que, na criação do modelo realçado 232 do objeto físico 204 ao usar as imagens 222 e os dados da varredura 224, o sistema computadorizado 218 cria o modelo realçado 232 do objeto físico 204 ao usar as imagens 222, as imagens adicionais 228, os dados da var-redura 224, e os dados da varredura adicionais 240.
[00201] Cláusula 9. O sistema de realidade aumentada 216 de acordo com qualquer uma das cláusulas 1 a 8, em que a informação 202 é selecionada de pelo menos um dentre a informação da tarefa, um conjunto, um vídeo, uma indicação de não conformidade, um pedido de trabalho, uma vista explodida de um conjunto, ou um diagrama esquemático.
[00202] Cláusula 10. O sistema de realidade aumentada 216 de acordo com qualquer uma das cláusulas 1 a 9, em que o objeto físico 204 é selecionado de um grupo que compreende um avião, um edifício, uma ponte, uma represa, um veículo, um campo, um lago, uma montanha, um motor, uma seção da fuselagem, e uma pista de pouso e decolagem.
[00203] Cláusula 11. O sistema de realidade aumentada 216 de acordo com qualquer uma das cláusulas 1 a 10, em que o dispositivo de computação portátil 208 é selecionado de um grupo que compreende óculos inteligentes, um telefone móvel, um computador do tipo tablet, e um mostrador montado na cabeça.
[00204] Cláusula 12. O sistema de realidade aumentada de qualquer uma das cláusulas 1 a 11, em que o grupo de veículos não tripulados 220 é selecionado de pelo menos um dentre um veículo aéreo não tripulado, um drone, um veículo terrestre não tripulado, ou um veículo aquático não tripulado.
[00205] Cláusula 13. Sistema de realidade aumentada 216, o qual compreende: um sistema computadorizado 218, em que o sistema com-putadorizado 218 fica em comunicação com um grupo de veículos não tripulados 220 ao usar links de comunicações 228 durante a operação do sistema computadorizado 218 e a operação do grupo de veículos não tripulados 220; um visualizador 230 no sistema computadorizado 218 que opera para: receber as imagens 222 de um objeto físico 204 do grupo de veículos não tripulados 220 que se movem em relação ao objeto físico 204; receber os dados da varredura 224 para uma região 226 do objeto físico 204 de um número de veículos não tripulados 220 no gru-po de veículos não tripulados 220 que se movem em relação ao objeto físico 204; criar um modelo realçado 232 do objeto físico 204 ao usar as imagens 222 e os dados da varredura 224, em que a região 226 do objeto físico 204 no modelo realçado 232 tem uma quantidade maior de detalhes do que outras regiões 234 do objeto físico 204 no modelo realçado 232; e enviar a informação 202 a um dispositivo de computação portátil 208, em que a informação 202 é exibida pelo dispositivo de computação portátil 208 em uma visualização ao vivo 212 do objeto físico 204 vista através do dispositivo de computação portátil 208, em que a informação 202 é identificado ao usar o modelo realçado 232 do objeto físico 204.
[00206] Cláusula 14. O sistema de realidade aumentada 216 da cláusula 13, em que o visualizador 230 opera para: controlar o grupo de veículos não tripulados 220 para se mover em relação ao objeto físico 204; e controlar o grupo de veículos não tripulados 220 para gerar as imagens 222 do objeto físico 204 e para fazer a varredura dos dados 224 que descrevem pontos no espaço para a região 226 do objeto físico 204.
[00207] Cláusula 15. O sistema de realidade aumentada 216 de acordo com qualquer uma das cláusulas 13 e 14, em que o visualizador 230 opera para selecionar a região 226 do objeto físico 204 e controlar o número dos veículos não tripulados 220 no grupo de veículos não tripulados 220 para gerar os dados da varredura 224 da região 226 do objeto físico 204.
[00208] Cláusula 16. O sistema de realidade aumentada 216 da cláusula 15, em que, na seleção da região 226 do objeto físico 204, o visualizador 230 opera para selecionar a região 226 do objeto físico 204 com base em um ponto de observação 400 de um operador humano 206 ao usar o dispositivo de computação portátil 208.
[00209] Cláusula 17. O sistema de realidade aumentada 216 da cláusula 15, em que, na seleção da região 226 do objeto físico 204, o visualizador 230 opera para selecionar a região 226 do objeto físico 204 com base em uma localização 402 para uma tarefa 214 executada por um operador humano 206 ao usar o dispositivo de computação portátil 208, em que a localização 402 é abrangida pela região 226.
[00210] Cláusula 18. O sistema de realidade aumentada de qualquer cláusula precedente, em que o grupo de veículos não tripulados 220 é selecionado de pelo menos um dentre um veículo aéreo não tripulado, um drone, um veículo terrestre não tripulado, ou um veículo aquático não tripulado.
[00211] Cláusula 19. Um método para visualizar uma informação 202 em uma visualização ao vivo 212 de um objeto físico 204, em que o método compreende: a recepção, por um sistema computadorizado 218, das imagens 222 de um objeto físico 204 do grupo de veículos não tripula-dos 220 que se movem em relação ao objeto físico 204, em que o sis-tema computadorizado 218 fica em comunicação com o grupo de veí-culos não tripulados 220 ao usar links de comunicações 228; a recepção, pelo sistema computadorizado 218, dos dados da varredura 224 para uma região 226 do objeto físico 204; a criação, pelo sistema computadorizado 218, de um modelo realçado 232 do objeto físico 204 ao usar as imagens 222 e os dados da varredura 224, em que a região 226 no modelo realçado 232 tem mais detalhes do que outras regiões 234 do objeto físico 204 no modelo realçado 232; o envio, pelo sistema computadorizado 218, de pelo menos uma porção do modelo realçado 232 a um dispositivo de computação portátil 208, em que o dispositivo de computação portátil 208 localiza o objeto físico 204 ao usar pelo menos a porção do modelo realçado 232; e o envio, pelo sistema computadorizado 218, da informação 202 que é exibida pelo dispositivo de computação portátil 208, em que o dispositivo de computação portátil 208 exibe a informação 202 na visualização ao vivo 212 do objeto físico 204 visto através do dispositi-vo de computação portátil 208, e em que a informação 202 é identifi-cada ao usar o modelo realçado 232 do objeto físico 204.
[00212] Cláusula 20. O método da cláusula 19, o qual também compreende: o controle, pelo sistema computadorizado 218, do grupo de veículos não tripulados 220 para se mover em relação ao objeto físico 204; e o controle do grupo de veículos não tripulados 220 para ge-rar as imagens 222 do objeto físico 204 e para fazer a varredura dos dados 224 que descrevem pontos no espaço para a região 226 do ob-jeto físico 204.
[00213] Cláusula 21. O método de qualquer uma das cláusulas 19 a 20, em que a criação do modelo realçado 232 do objeto físico 204 ao usar as imagens 222 e os dados da varredura 224 compreende: a criação de um modelo 302 do objeto físico 204 ao usar as imagens 222; a criação um número de nuvens de pontos 302 a partir dos dados da varredura 224 gerados por um número de veículos não tripu-lados 220 no grupo de veículos não tripulados 220; e a modificação do modelo 302 do objeto físico 204 ao usar o número das nuvens de pontos 302 para formar o modelo realçado 232.
[00214] Cláusula 22. O método de qualquer uma das cláusulas 19 a 21, em que o grupo de veículos não tripulados 220 opera para gerar as imagens 222 e para fazer a varredura dos dados 224 enquanto um operador humano 206 observa a visualização ao vivo 212 do objeto físico 204 através do dispositivo de computação portátil 208.
[00215] Cláusula 23. O método de qualquer uma das cláusulas 19 a 22, o qual também compreende: a seleção, pelo sistema computadorizado 218, da região 226 do objeto físico 204; e o controle, pelo sistema computadorizado 218, de um nú-mero de veículos não tripulados 220 no grupo de veículos não tripula-dos 220 para gerar os dados da varredura 224 da região 226 do objeto físico 204.
[00216] Cláusula 24. O método da cláusula 23, em que a seleção pelo sistema computadorizado 218 da região 226 do objeto físico 204 compreende: a seleção, pelo sistema computadorizado 218, da região 226 do objeto físico 204 com base em um ponto de observação 400 de um operador humano 206 ao usar o dispositivo de computação portátil 208.
[00217] Cláusula 25. O método da cláusula 23, em que a seleção pelo sistema computadorizado 218 da região 226 do objeto físico 204 compreende: a seleção, pelo sistema computadorizado 218, da região 226 do objeto físico 204 com base em uma localização 402 para uma tarefa 214 executada por um operador humano 206 ao usar o dispositivo de computação portátil 208, em que a localização 402 é abrangida pela região 226.
[00218] Cláusula 26. O método de qualquer uma das cláusulas 19 a 24, o qual também compreende: a recepção, pelo sistema computadorizado 218, de pelo menos uma das imagens adicionais 228 do objeto físico 204 ou dos dados da varredura adicionais 240 do objeto físico 204 do dispositivo de computação portátil 208; e em que a criação, pelo sistema computadorizado 218, do modelo realçado 232 do objeto físico 204 ao usar as imagens 222 e os dados da varredura 224 compreende: a criação, pelo sistema computadorizado 218, do modelo realçado 232 do objeto físico 204 ao usar as imagens 222, as imagens adicionais 228, os dados da varredura 224, e os dados da varredura adicionais 240.
[00219] Cláusula 27. O método de qualquer uma das cláusulas 19 a 26, em que a informação 202 é selecionada de pelo menos um dentre a informação da tarefa, um conjunto, um vídeo, uma indicação de uma não conformidade, um pedido de trabalho, uma vista explodida de um conjunto, ou um diagrama esquemático.
[00220] Cláusula 28. O método de qualquer uma das cláusulas 19 a 27, em que o objeto físico 204 é selecionado de um grupo que compreende um avião, um edifício, uma ponte, uma represa, um veículo, um campo, um lago, uma montanha, um motor, uma seção da fuselagem, e uma pista de pouso e decolagem.
[00221] Cláusula 29. O método de qualquer uma das cláusulas 19 a 28, em que o dispositivo de computação portátil 208 é selecionado de um grupo que compreende óculos inteligentes, um telefone móvel, um computador do tipo tablet, e um mostrador montado na cabeça.
[00222] Desse modo, um ou mais exemplos ilustrativos superam um problema técnico com a exibição de informação para aumentar uma visualização ao vivo do objeto físico em uma maneira que reduz a quantidade de recursos de processamento em comparação às técnicas atualmente usadas que geram nuvens de pontos do objeto físico. Como resultado, um ou mais exemplos ilustrativos podem conferir um efeito técnico de redução da quantidade de recursos de computação usados para criar um modelo de um objeto físico ao usar dois tipos de dados. No exemplo ilustrativo, as imagens e os dados da varredura são usados para reduzir a quantidade de recursos de computação usados em comparação às técnicas atuais que usam somente nuvens de pontos.
[00223] A descrição das modalidades ilustrativas diferentes foi apresentada para finalidades de ilustração e descrição e não se presta a ser exaustiva ou limitada às modalidades na forma descrita. Os exemplos ilustrativos diferentes descrevem componentes que executam ações ou operações. Em uma modalidade ilustrativa, um componente pode ser configurado para executar a ação ou a operação descrita. Por exemplo, o componente pode ter uma configuração ou um desenho para uma estrutura que confere ao componente uma capacidade de executar a ação ou a operação que é descrita nos exemplos ilustrativos como sendo executada pelo componente.
[00224] Muitas modificações e variações serão aparentes aos ele-mentos normalmente versados no estado da técnica. Além disso, mo-dalidades ilustrativas diferentes podem fornecer características dife-rentes em comparação a outras modalidades desejáveis. A modalidade ou modalidades selecionadas são escolhidas e descritas a fim de melhor explicar os princípios das modalidades, a aplicação prática, e para permitir que outros elementos normalmente versados no estado da técnica compreendam a invenção para várias modalidades com várias modificações que são adaptadas ao uso particular contemplado.

Claims (15)

1. Sistema de realidade aumentada (216), caracterizado pelo fato de que compreende: um grupo de veículos não tripulados (220) que operam para se mover em relação a um objeto físico (204), gerar as imagens (222) do objeto físico (204), gerar os dados da varredura (224) que descrevem pontos no espaço para uma região (226) do objeto físico (204); um sistema computadorizado (218) em comunicação com o grupo de veículos não tripulados (220) ao usar links de comunicações (228), em que o sistema computadorizado (218) opera para: receber as imagens (222) do objeto físico (204) do grupo de veículos não tripulados (220) que se movem em relação ao objeto físico (204); receber os dados da varredura (224) para a região (226) do objeto físico (204) de um número de veículos não tripulados (220) no grupo de veículos não tripulados (220) que se movem em relação ao objeto físico (204); criar um modelo realçado (232) do objeto físico (204) ao usar as imagens (222) e os dados da varredura (224), em que a região (226) do objeto físico (204) no modelo realçado (232) tem uma quantidade maior de detalhes do que outras regiões (234) do objeto físico (204) no modelo realçado (232); e um dispositivo de computação portátil (208) que opera para: localizar o objeto físico (204) ao usar o modelo realçado (232); e exibir a informação (202) em uma visualização ao vivo (212) do objeto físico (204) observado através do dispositivo de computação portátil (208), em que a informação (202) é identificada ao usar o modelo realçado (232) do objeto físico (204).
2. Sistema de realidade aumentada (216) de acordo com a reivindicação 1, caracterizado pelo fato de que o sistema computadorizado (218) controla o grupo de veículos não tripulados (220) para se mover em relação ao objeto físico (204), e gera as imagens (222) do objeto físico (204) e os dados da varredura (224) que descrevem pontos no espaço para a região (226) do objeto físico (204).
3. Sistema de realidade aumentada (216) de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que, na criação do modelo realçado (232) do objeto físico (204) ao usar as imagens (222) e os dados da varredura (224), o sistema computadorizado (218) opera para: criar um modelo (302) do objeto físico (204) ao usar as imagens (222); criar um número de nuvens de pontos (302) a partir dos dados da varredura (224) gerados por um número de veículos não tripulados (220) no grupo de veículos não tripulados (220); e modificar o modelo (302) do objeto físico (204) ao usar o número de nuvens de pontos (302) para formar o modelo realçado (232).
4. Sistema de realidade aumentada (216) de acordo com qualquer uma das reivindicações 1 a 3, caracterizado pelo fato de que o grupo de veículos não tripulados (220) opera para gerar as imagens (222) e os dados da varredura (224) enquanto um operador humano (206) observa a visualização ao vivo (212) do objeto físico (204) através do dispositivo de computação portátil (208).
5. Sistema de realidade aumentada (216) de acordo com qualquer uma das reivindicações 1 a 4, caracterizado pelo fato de que o sistema computadorizado (218) seleciona a região (226) do objeto físico (204) e controla um número de veículos não tripulados (220) no grupo de veículos não tripulados (220) para gerar os dados da varredura (224) da região (226) do objeto físico (204).
6. Sistema de realidade aumentada (216) de acordo com a reivindicação 5, caracterizado pelo fato de que, na seleção da região (226) do objeto físico (204), o sistema computadorizado (218) seleciona a região (226) do objeto físico (204) com base em um ponto de observação (400) de um operador humano (206) ao usar o dispositivo de computação portátil (208).
7. Sistema de realidade aumentada (216) de acordo com a reivindicação 5, caracterizado pelo fato de que, na seleção da região (226) do objeto físico (204), o sistema computadorizado (218) seleciona a região (226) do objeto físico (204) com base em uma localização (402) para uma tarefa (214) executada por um operador humano (206) ao usar o dispositivo de computação portátil (208), em que a localização (402) é abrangida pela região (226).
8. Sistema de realidade aumentada (216) de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que o sistema computadorizado (218) recebe pelo menos uma das imagens adicionais (228) do objeto físico (204) ou dos dados da varredura adicionais (240) do objeto físico (204) do dispositivo de computação portátil (208); e em que, na criação do modelo realçado (232) do objeto físico (204) ao usar as imagens (222) e os dados da varredura (224), o sistema computadorizado (218) cria o modelo realçado (232) do objeto físico (204) ao usar as imagens (222), as imagens adicionais (228), os dados da varredura (224), e os dados da varredura adicionais (240).
9. Sistema de realidade aumentada (216) de acordo com qualquer uma das reivindicações 1 a 8, caracterizado pelo fato de que a informação (202) é selecionada de pelo menos um dentre a informação da tarefa, um conjunto, um vídeo, uma indicação de uma não conformidade, um pedido de trabalho, uma vista explodida de um conjunto, ou um diagrama esquemático; em que o objeto físico (204) é selecionado de um grupo que compreende um avião, um edifício, uma ponte, uma represa, um veículo, um campo, um lago, uma montanha, um motor, uma seção da fuselagem, e uma pista de pouso e decolagem; em que o dispositivo de computação portátil (208) é selecionado de um grupo que compreende óculos inteligentes, um telefone móvel, um computador do tipo tablet, e um mostrador montado na cabeça; e, em que o grupo de veículos não tripulados (220) é selecionado de pelo menos um dentre um veículo aéreo não tripulado, um drone, um veículo terrestre não tripulado, ou um veículo aquático não tripulado.
10. Método para visualizar uma informação (202) em uma visualização ao vivo (212) de um objeto físico (204), caracterizado pelo fato de que o método compreende: a recepção, por um sistema computadorizado (218), das imagens (222) de um objeto físico (204) do grupo de veículos não tripulados (220) que se movem em relação ao objeto físico (204), em que o sistema computadorizado (218) fica em comunicação com o grupo de veículos não tripulados (220) ao usar links de comunicações (228); a recepção, pelo sistema computadorizado (218), dos dados da varredura (224) para uma região (226) do objeto físico (204); a criação, pelo sistema computadorizado (218), de um modelo realçado (232) do objeto físico (204) ao usar as imagens (222) e os dados da varredura (224), em que a região (226) no modelo realçado (232) tem mais detalhes do que outras regiões (234) do objeto físico (204) no modelo realçado (232); o envio, pelo sistema computadorizado (218), de pelo menos uma porção do modelo realçado (232) a um dispositivo de computação portátil (208), em que o dispositivo de computação portátil (208) localiza o objeto físico (204) ao usar pelo menos a porção do modelo realçado (232); e o envio, pelo sistema computadorizado (218), da informação (202) que é exibida pelo dispositivo de computação portátil (208), em que o dispositivo de computação portátil (208) exibe a informação (202) na visualização ao vivo (212) do objeto físico (204) observada através do dispositivo de computação portátil (208), e em que a informação (202) é identificada ao usar o modelo realçado (232) do objeto físico (204).
11. Método de acordo com a reivindicação 10, caracterizado pelo fato de que também compreende: o controle, pelo sistema computadorizado (218), do grupo de veículos não tripulados (220) para se mover em relação ao objeto físico (204); e o controle do grupo de veículos não tripulados (220) para gerar as imagens (222) do objeto físico (204) e para fazer a varredura dos dados (224) que descrevem pontos no espaço para a região (226) do objeto físico (204).
12. Método de acordo com a reivindicação 10 ou 11, caracterizado pelo fato de que a criação do modelo realçado (232) do objeto físico (204) ao usar as imagens (222) e os dados da varredura (224) compreende: a criação de um modelo (302) do objeto físico (204) ao usar as imagens (222); a criação de um número de nuvens de pontos (302) a partir dos dados da varredura (224) gerados por um número de veículos não tripulados (220) no grupo de veículos não tripulados (220); e a modificação do modelo (302) do objeto físico (204) ao usar o número de nuvens de pontos (302) para formar o modelo realçado (232).
13. Método de acordo com qualquer uma das reivindicações 10 a 12, caracterizado pelo fato de que também compreende: a seleção, pelo sistema computadorizado (218), da região (226) do objeto físico (204) com base em pelo menos um de: um ponto de observação (400) de um operador humano (206) ao usar o dispositivo de computação portátil (208), ou com base em um ponto de observação (400) de um operador humano (206) ao usar o dispositivo de computação portátil (208); e o controle, pelo sistema computadorizado (218), de um número de veículos não tripulados (220) no grupo de veículos não tripulados (220) para gerar os dados da varredura (224) da região (226) do objeto físico (204).
14. Método de acordo com qualquer uma das reivindicações 10 a 13, caracterizado pelo fato de que também compreende: a recepção, pelo sistema computadorizado (218), de pelo menos uma das imagens adicionais (228) do objeto físico (204) ou dos dados da varredura adicionais (240) do objeto físico (204) do dispositivo de computação portátil (208); e em que a criação, pelo sistema computadorizado (218), do modelo realçado (232) do objeto físico (204) ao usar as imagens (222) e os dados da varredura (224) compreende: a criação, pelo sistema computadorizado (218), do modelo realçado (232) do objeto físico (204) ao usar as imagens (222), as imagens adicionais (228), os dados da varredura (224), e os dados da varredura adicionais (240).
15. Método de acordo com qualquer uma das reivindicações 10 a 14, caracterizado pelo fato de que a informação (202) é selecionada de pelo menos um dentre a informação da tarefa, um conjunto, um vídeo, uma indicação de uma não conformidade, um pedido de trabalho, uma vista explodida de um conjunto, ou um diagrama es- quemático; em que o objeto físico (204) é selecionado de um grupo que compreende um avião, um edifício, uma ponte, uma represa, um veículo, um campo, um lago, uma montanha, um motor uma seção da fuselagem, e uma pista de pouso e decolagem; e em que o dispositivo de computação portátil (208) é selecionado de um grupo que compreende óculos inteligentes, um telefone móvel, um computador do tipo tablet, e um mostrador montado na cabeça.
BR102019022477-0A 2019-01-02 2019-10-25 Sistema de realidade aumentada com o uso de modelos realçados BR102019022477A2 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/237,841 2019-01-02
US16/237,841 US11030812B2 (en) 2019-01-02 2019-01-02 Augmented reality system using enhanced models

Publications (1)

Publication Number Publication Date
BR102019022477A2 true BR102019022477A2 (pt) 2020-07-14

Family

ID=69137677

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102019022477-0A BR102019022477A2 (pt) 2019-01-02 2019-10-25 Sistema de realidade aumentada com o uso de modelos realçados

Country Status (7)

Country Link
US (1) US11030812B2 (pt)
EP (1) EP3678100A1 (pt)
JP (1) JP7500187B2 (pt)
KR (1) KR102645667B1 (pt)
CN (1) CN111402425A (pt)
BR (1) BR102019022477A2 (pt)
CA (1) CA3059940A1 (pt)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
WO2020072985A1 (en) 2018-10-05 2020-04-09 Magic Leap, Inc. Rendering location specific virtual content in any location
US11210851B1 (en) * 2019-06-14 2021-12-28 State Farm Mutual Automobile Insurance Company Systems and methods for labeling 3D models using virtual reality and augmented reality
CN114600064A (zh) 2019-10-15 2022-06-07 奇跃公司 具有定位服务的交叉现实系统
WO2021118962A1 (en) 2019-12-09 2021-06-17 Magic Leap, Inc. Cross reality system with simplified programming of virtual content
US20210248826A1 (en) * 2020-02-07 2021-08-12 Krikey, Inc. Surface distinction for mobile rendered augmented reality
US11562525B2 (en) 2020-02-13 2023-01-24 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
EP4103910A4 (en) 2020-02-13 2024-03-06 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH ACCURATE COMMON MAPS
CN115398484A (zh) 2020-02-13 2022-11-25 奇跃公司 具有用于定位的地理定位信息优先级的交叉现实系统
US11551430B2 (en) * 2020-02-26 2023-01-10 Magic Leap, Inc. Cross reality system with fast localization
CN113618723A (zh) * 2021-08-18 2021-11-09 东华大学 一种基于增强现实的船舶小组立辅助装配系统
US20230316644A1 (en) * 2022-03-31 2023-10-05 Topcon Corporation Point cloud information generating system, control method of point cloud information generating system, and control program of point cloud information generating system
US11538228B1 (en) * 2022-08-26 2022-12-27 Illuscio, Inc. Systems and methods for augmented reality viewing based on directly mapped point cloud overlays

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8060270B2 (en) * 2008-02-29 2011-11-15 The Boeing Company System and method for inspection of structures and objects by swarm of remote unmanned vehicles
US10026227B2 (en) * 2010-09-02 2018-07-17 The Boeing Company Portable augmented reality
US8902254B1 (en) * 2010-09-02 2014-12-02 The Boeing Company Portable augmented reality
US9639984B2 (en) * 2013-06-03 2017-05-02 Daqri, Llc Data manipulation based on real world object manipulation
US9383819B2 (en) * 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
US10250821B2 (en) * 2013-11-27 2019-04-02 Honeywell International Inc. Generating a three-dimensional model of an industrial plant using an unmanned aerial vehicle
WO2015103689A1 (en) * 2014-01-08 2015-07-16 Precisionhawk Inc. Method and system for generating augmented reality agricultural presentations
US9335764B2 (en) * 2014-05-27 2016-05-10 Recreational Drone Event Systems, Llc Virtual and augmented reality cockpit and operational control systems
US20160085426A1 (en) * 2014-09-18 2016-03-24 The Boeing Company Interactive Imaging System
JP6534296B2 (ja) 2015-05-19 2019-06-26 株式会社パスコ 3次元モデル生成装置、3次元モデル生成方法、及びプログラム
US10176520B2 (en) * 2015-07-07 2019-01-08 The Boeing Company Product visualization system
US10110871B2 (en) * 2016-10-31 2018-10-23 Disney Enterprises, Inc. Recording high fidelity digital immersive experiences through off-device computation
EP3566201A4 (en) * 2016-12-22 2020-11-25 Xevo Inc. PROCESS AND SYSTEM FOR PROVIDING SERVICES OF ANALYSIS OF ARTIFICIAL INTELLIGENCE (AIA) FOR PERFORMANCE PREDICTION
WO2019143117A1 (en) * 2018-01-18 2019-07-25 Samsung Electronics Co., Ltd. Method and apparatus for adjusting augmented reality content
US20200049946A1 (en) * 2018-08-10 2020-02-13 Varjo Technologies Oy Display apparatus and method of displaying using gaze prediction and image steering
US10902678B2 (en) * 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information

Also Published As

Publication number Publication date
US11030812B2 (en) 2021-06-08
KR102645667B1 (ko) 2024-03-07
US20200211286A1 (en) 2020-07-02
CN111402425A (zh) 2020-07-10
JP7500187B2 (ja) 2024-06-17
EP3678100A1 (en) 2020-07-08
KR20200084784A (ko) 2020-07-13
JP2020119511A (ja) 2020-08-06
CA3059940A1 (en) 2020-07-02

Similar Documents

Publication Publication Date Title
BR102019022477A2 (pt) Sistema de realidade aumentada com o uso de modelos realçados
EP3407292B1 (en) Neural network point cloud generation system
KR102631717B1 (ko) 복합재 부품을 제조하기 위한 증강 현실 시스템
CN106547939B (zh) 对象管理系统、飞机设计系统及管理对象的方法
CN108401461A (zh) 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
CN112652016A (zh) 点云预测模型的生成方法、位姿估计方法及其装置
US20170076495A1 (en) Immersive Object Testing System
CN112115607A (zh) 一种基于多维赛博空间的移动智能体数字孪生系统
KR102649171B1 (ko) 물체에 대한 결함 데이터를 시각화하기 위한 증강 현실 시스템
Eiris et al. InDrone: a 2D-based drone flight behavior visualization platform for indoor building inspection
RU2562368C1 (ru) Способ трёхмерного (3d) картографирования
CN116664997A (zh) 一种感知融合系统、电子设备和存储介质
US10410331B2 (en) Computed tomography object inspection system
Stavropoulos et al. Augmented Reality tool for the facilitation of the UAV flight inspection process during aircraft de-icing as a maintenance procedure
Zhang et al. A Self-Supervised Monocular Depth Estimation Approach Based on UAV Aerial Images
Castagno et al. Realtime rooftop landing site identification and selection in urban city simulation
Helmich et al. Automatic Ground-Truth Image Labeling for Deep Neural Network Training and Evaluation Using Industrial Robotics and Motion Capture
EP4310788A1 (en) Machine learning model training corpus apparatus and method
Amigo et al. UAV Simulation for Object Detection and 3D Reconstruction Fusing 2D LiDAR and Camera
CN115797250A (zh) 支持一般目视检查的物体的自动体积图像捕获
Zhao et al. An element perception and state recognition method oriented to complex assembled product
Faustino Vegetation Detection and Classification for Power Line Monitoring
Dalirani A Target-Based and A Targetless Extrinsic Calibration Methods for Thermal Camera and 3D LiDAR
Oh et al. CNN-Based Camera Pose Estimation and Localization of Scan Images for Aircraft Visual Inspection
Sun et al. 3D Model Reconstruction with Sequence Image of Aircraft

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]