BR102013027355A2 - Sistema de exibição de realidade virtual - Google Patents

Sistema de exibição de realidade virtual Download PDF

Info

Publication number
BR102013027355A2
BR102013027355A2 BRBR102013027355-4A BR102013027355A BR102013027355A2 BR 102013027355 A2 BR102013027355 A2 BR 102013027355A2 BR 102013027355 A BR102013027355 A BR 102013027355A BR 102013027355 A2 BR102013027355 A2 BR 102013027355A2
Authority
BR
Brazil
Prior art keywords
eye
virtual
image
head
person
Prior art date
Application number
BRBR102013027355-4A
Other languages
English (en)
Other versions
BR102013027355B1 (pt
Inventor
Christopher Leonard Covington
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of BR102013027355A2 publication Critical patent/BR102013027355A2/pt
Publication of BR102013027355B1 publication Critical patent/BR102013027355B1/pt

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)

Abstract

RESUMO Patente de Invenção: "SISTEMA DE EXIBIÇÃO DE REALIDADE VIRTUAL". A presente invenção refere-se a um processo e um aparelho para exibir um meio físico virtual (204). As informações de posição do primeiro olho (226) para um primeiro olho (234), em um computador (236) de uma pessoa (206), e as informações de posição do segundo olho (228) para um segundo olho (240), na cabeça (236) da pessoa (206), são recebidas. Uma primeira imagem (252) do meio físico virtual (204) para o primeiro olho (234) é gerada com base nas informações de posição do primeiro olho (22). Uma segunda imagem (254) do meio físico virtual (204) para o segundo olho (240) é gerada com base nas informações de posição do segundo olho (228) para o segundo olho (240). A primeira imagem (252) e a segunda imagem (254), para exibição, são enviadas para a pessoa (206).

Description

Relatório Descritivo da Patente de Invenção para "SISTEMA DE EXIBIÇÃO DE REALIDADE VIRTUAL".
INFORMAÇÕES DE ANTECEDENTES
1. CAMPO
A presente invenção refere-se, de uma maneira geral, a informa
ções exibidas e, em particular, a informações exibidas em um dispositivo de vídeo. Ainda mais particularmente, a presente invenção se refere a um processo e a um aparelho para exibir informações de um meio físico virtual.
2. ANTECEDENTES
Um meio físico virtual é um meio físico simulado por computa
dor. Em particular, um meio físico virtual proporciona uma realidade virtual para uma pessoa. Em outras palavras, em um meio físico virtual, uma simulação de uma presença física de lugares no mundo real, bem como de mundos imaginários, pode ser feita. Um meio físico virtual pode ser exibido por 15 uso de um dispositivo de vídeo, tal com uma tela de exibição ou um visor montado em uma cabeça. Com uma tela de exibição, o meio físico virtual pode ser exibido em três dimensões por uso de óculos tridimensionais. Com visores montados na cabeça, o meio físico virtual pode ser exibido em três dimensões por uso de visores estereoscópicos. Adicionalmente, outras in20 formações sensoriais, tais como de realimentação sonora e táctil, também podem ser geradas para o meio físico virtual.
A geração de imagens para o meio físico virtual representa o meio físico em uma maneira que não é natural e que desorienta a pessoa olhando o meio físico virtual. Em particular, as imagens são imagens bidi25 mensionais geradas por uso de um único ponto de vista, para sintetizar e exibir imagens a uma pessoa. Por exemplo, muitos sistemas de meio físico virtual usados atualmente empregam um único ponto de vista para uma câmera gerando imagens.
Atualmente, o rastreio de cabeça pode ser usado para reduzir a percepção que uma imagem bidimensional está sendo exibida ao operador. O uso de rastreio de cabeça pode representar precisamente a vista da pessoa dentro do meio físico virtual. Alguns sistemas de meio físico virtual podem proporcionar imagens estereográficas, em uma tentativa de proporcionar uma vista tridimensional do meio físico virtual.
Mesmo com rastreio de cabeça e imagens estereográficas, os dispositivos de vídeo, usados em sistemas de meio físico virtual disponíveis 5 atualmente, podem apresentar ainda efeitos indesejáveis. Estes efeitos indesejáveis podem incluir pelo menos um de desorientação, embaçamento, fadiga, vista cansada, dores de cabeça ou outros efeitos indesejáveis. Ainda, com períodos mais longos de visualização do meio físico virtual, estes efeitos indesejáveis podem aumentar.
Por exemplo, muitos sistemas de meio físico virtual geram ima
gens bidimensionais de um meio físico tridimensional, em uma maneira que pode provocar fadiga ocular. Os sistemas atuais podem forçar os olhos a focalizar em uma maneira não natural, tal como em uma maneira estrábica.
Diferentes tipos de mecanismos têm sido usados em uma tentativa de reduzir os efeitos indesejáveis. Por exemplo, alguns sistemas de exibição tridimensionais usam lentes polarizadoras. Outros sistemas podem usar óculos obturadores, que bloqueiam um olho, à medida que uma imagem é exibida no outro olho.
Esses tipos de sistemas podem ainda resultar em efeitos indesejáveis. Portanto, seria desejável ter-se um processo e um aparelho, que considerem pelo menos alguns dos aspectos discutidos acima, bem como outros possíveis aspectos.
SUMÁRIO
Em uma concretização ilustrativa, um aparelho compreende um 25 processador de imagem. O processador de imagem é configurado para receber informações de posição do primeiro olho, para um primeiro olho em uma cabeça de uma pessoa, e informações de posição do segundo olho, para um segundo olho na cabeça da pessoa. O processador de imagem é configurado ainda para gerar uma primeira imagem de um meio físico virtual 30 para o primeiro olho, com base nas informações de posição do primeiro olho para o primeiro olho. O processador de imagem é configurado ainda para gerar uma segunda imagem do meio físico virtual para o segundo olho, com base em informações de posição do segundo olho para o segundo olho. O processador de imagem é configurado ainda para enviar a primeira imagem e a segunda imagem para exibição para a pessoa.
Em outra concretização ilustrativa, um processo para exibir um 5 meio físico virtual é apresentado. As informações de posição do primeiro olho para um primeiro olho em uma cabeça de uma pessoa e as informações de posição do segundo olho para um segundo olho na cabeça da pessoa são recebidas. Uma primeira imagem para o meio físico virtual para o primeiro olho é gerada com base nas informações de posição do primeiro 10 olho para o primeiro olho. Uma segunda imagem do meio físico virtual para o segundo é gerada com base nas informações de posição do segundo olho para o segundo olho. A primeira imagem e a segunda imagem para exibição são enviadas para a pessoa.
Os aspectos e as funções podem ser obtidos independentemente em várias concretizações da presente invenção, ou podem ser combinados em mais outras concretizações, nas quais outros detalhes podem ser vistos com referência à descrição e aos desenhos apresentados a seguir. BREVE DESCRICÀO DOS DESENHOS
Os novos aspectos considerados característicos das concretiza20 ções ilustrativas são apresentados nas reivindicações em anexo. As concretizações ilustrativas, bem como também um modo preferido de uso, outros objetos e seus aspectos, vão ser melhor entendidos por referência à descrição detalhada apresentada a seguir de uma concretização ilustrativa da presente invenção, quando lida em conjunto com os desenhos em anexo, em 25 que:
a Figura 1 é uma ilustração de um sistema de meio físico virtual, de acordo com uma concretização ilustrativa;
a Figura 2 é uma ilustração de um diagrama de blocos de um sistema de meio físico virtual, de acordo com uma concretização ilustrativa; a Figura 3 é uma ilustração de um diagrama de blocos de im
plementações para um dispositivo de vídeo, de acordo com uma concretização ilustrativa; a Figura 4 é uma ilustração de um diagrama de blocos de tipos de sensores, que podem ser usados em um sistema sensor em um sistema de meio físico virtual, de acordo com uma concretização ilustrativa;
a Figura 5 é uma ilustração de um diagrama de um sistema de meio físico virtual, de acordo com uma concretização ilustrativa;
a Figura 6 é uma ilustração de um fluxograma de um processo para exibição de um meio físico virtual, de acordo com uma concretização ilustrativa;
as Figuras 7 A e 7B são uma ilustração de um fluxograma de um processo para visualização de um meio físico virtual, de acordo com uma concretização ilustrativa; e
a Figura 8 é uma ilustração de um diagrama de blocos de um sistema de processamento de dados, de acordo com uma concretização ilustrativa.
DESCRICÀO DETALHADA
As concretizações ilustrativas reconhecem e levam em consideração uma ou mais diferentes considerações. Por exemplo, as concretizações ilustrativas reconhecem e consideram que o fato de ter-se dois pontos de vista para gerar imagens pode proporcionar uma experiência de visuali20 zação mais natural para uma pessoa. As concretizações ilustrativas reconhecem e consideram que os sistemas de meio físico virtual atualmente disponíveis não consideram as diferenças individuais entre diferentes pessoas que podem ver o meio físico virtual. Em vez disso, esses sistemas usam medidas ou valores pré-selecionados para gerar os pontos de vista.
As concretizações ilustrativas reconhecem e consideram, no en
tanto, que os pontos de vista usados por sistemas de meio físico virtual atualmente disponíveis podem não reduzir os efeitos indesejáveis tanto quanto desejado, sem considerar as diferenças nos olhos de diferentes pessoas. Por exemplo, diferentes pessoas podem ter diferentes distâncias entre os 30 olhos, e os olhos podem ter diferentes alturas. Por conseguinte, os pontos de vista para os olhos de uma pessoa para outra podem ser muito diferentes. As concretizações ilustrativas reconhecem e consideram que sem os pontos de vista corretos, as imagens resultantes, vistas pelos olhos, não parecem naturais para a pessoa processando as imagens. Por conseguinte, uma pessoa focalizando em diferentes partes das imagens geradas 5 para o meio físico virtual pode também notar discrepâncias no meio físico virtual, tal como o meio físico virtual deve parecer e como o meio físico virtual é de fato representado, se os pontos de vista da pessoa são diferentes daqueles usados para gerar as imagens. O ponto de vista pode ser identificado com base na orientação de ambos os olhos da pessoa. Um raio pode 10 ser representado de cada olho com base na orientação. A interseção desses raios pode ser usada como o ponto de vista.
Essencialmente, a pessoa processa as imagens esperando que duas vistas ligeiramente dissimilares sejam capturadas por ambos os olhos. Com a apresentação de uma imagem de um ponto de vista de cada olho, a pessoa pode ser capaz de reconstruir o meio físico virtual por meio de processamento normal.
Os meios físicos virtuais podem ser usados para vários diferentes fins. Por exemplo, um meio físico virtual é frequentemente usado em jogos. Os meios físicos virtuais têm, no entanto, muitos outros usos. Por e20 xemplo, os meios físicos virtuais podem ser usados para executar tarefas de engenharia, tarefas de manutenção, análise de simulações e outras tarefas adequadas.
Desse modo, as concretizações ilustrativas proporcionam um processo e um aparelho para exibir um meio físico virtual a uma pessoa. Em 25 uma concretização ilustrativa, um processador de imagem é configurado para receber informações de posição do primeiro olho, para um primeiro olho na cabeça da pessoa, e informações de posição do segundo olho, para um segundo olho na cabeça da pessoa. Uma primeira imagem de um meio físico virtual é gerada para o primeiro olho, com base nas informações de posi30 ção do primeiro olho. Uma segunda imagem de um meio físico virtual é gerada para o segundo olho, com base nas informações de posição do segundo olho. As primeira e segunda imagens são depois enviadas para exibição para a pessoa.
Com referência então às figuras e, em particular, com referência à Figura 1, uma ilustração de um sistema de meio físico virtual é apresentada de acordo com uma concretização ilustrativa. Neste exemplo ilustrativo, o 5 sistema de meio físico virtual 100 inclui o computador 1021 e a interface de sistema 104. Como ilustrado, a interface de sistema 104 inclui a pessoa 106, o dispositivo de vídeo montado na cabeça 108 e luvas de dados 110. O dispositivo de vídeo montado na cabeça 108 é localizado na cabeça 112 da pessoa 106. As luvas de dados 110 são localizadas nas mãos 114 da pes10 soa 106.
O sistema de meio físico virtual 100 e a pessoa 106 são localizados no meio físico 116. O sistema de meio físico 100 permite que a pessoa 106, no meio físico 116, interaja com um meio físico virtual gerado pelo sistema de meio físico virtual 100.
Nestes exemplos ilustrativos, o dispositivo de vídeo montado na
cabeça 108 e as luvas de dados 110 proporcionam à pessoa 106 uma capacidade de interagir com um meio físico virtual gerado pelo computador 102. As informações trocadas durante a interação da pessoa 106 com o meio físico virtual, gerado pelo computador 102 no sistema de meio físico virtual 100, ocorre por uma ligação de comunicações sem fio 118.
Como ilustrado, as luvas de dados 110 são dispositivos de entrada para a pessoa 106. Em particular, as luvas de dados 110 podem ser capazes de identificar uma posição das luvas de dados 110 usadas nas mãos 114 da pessoa 106. Adicionalmente, as luvas de dados 110 podem 25 também proporcionar uma realimentação háptica, que simula um sentido de toque. A realimentação háptica pode proporcionar um sentido de toque por aplicação de forças, vibrações, movimentos ou algumas de suas combinações nas mãos 114 da pessoa 106.
Nestes exemplos ilustrativos, o dispositivo de vídeo montado na cabeça 108 é configurado para exibir o meio físico virtual, gerado pelo computador 102, à pessoa 106. As imagens são geradas como parte da interação da pessoa 106 com o meio físico virtual gerado pelo computador 102. O dispositivo de vídeo montado na cabeça 108 é também configurado para proporcionar uma exibição do meio físico virtual em uma maneira que resulte em menos efeitos indesejáveis à medida que a pessoa 106 usa o dispositivo de vídeo montado na cabeça 108 com o tempo. Em particu5 lar, a pessoa 106 pode usar o dispositivo de vídeo montado na cabeça 108 por períodos de tempo mais longos do que os dispositivos de vídeos atualmente disponíveis, em uma maneira que reduza os efeitos indesejáveis, tais como desorientação, embaçamento e fadiga.
Nestes exemplos ilustrativos, o dispositivo de vídeo montado na 10 cabeça 108 é configurado para identificar uma posição de cabeça 112, bem como dos olhos (não mostrados) na cabeça 112 da pessoa 106. Com as informações de posição para ambas a cabeça 112 e os olhos da pessoa 106, o computador 102 gera imagens ajustadas ao ponto de vista de cada olho da pessoa 106.
Em particular, o computador 102 identifica uma posição de ca
beça 112 da pessoa 106 no meio físico virtual. Adicionalmente, o dispositivo de vídeo montado na cabeça 108 também gera informações sobre a posição dos olhos na cabeça 112 da pessoa 106. O dispositivo de vídeo montado na cabeça 108 envia as informações para o computador 102 pela ligação de comunicações sem fio 118.
Com as informações de posição para a cabeça 112 e os olhos da pessoa 106 na cabeça 112, o computador 102 gera imagens da perspectiva de cada olho no meio físico virtual. Estas imagens são enviadas para o dispositivo de vídeo montado na cabeça 108 pela ligação de comunicações 25 sem fio 118. Em outras palavras, cada olho na cabeça 112 da pessoa 106 pode ser uma perspectiva ligeiramente diferente, uma vez que eles são espaçados entre si.
Neste exemplo ilustrativo, a posição de cada olho é rastreada independentemente da pessoa 106. Dessa maneira, um ponto focal exato da pessoa 106, no meio físico 116, pode ser identificado. As informações de posição para a cabeça 112 e os olhos da pessoa 106 são usadas pelo computador 102. Estas informações são traduzidas pelo computador 102 em uma posição correspondente da pessoa 106 no meio físico virtual.
A posição de cabeça 112 da pessoa 106 pode variar, dependendo de se a pessoa está em pé, sentada, agachada, deitada ou em alguma outra posição. Neste exemplo, a pessoa 106 está sentada na cadeira 120, enquanto está interagindo com o meio físico virtual.
Dessa maneira, o computador 102 posiciona câmeras virtuais no meio físico virtual, na mesma maneira que os olhos da pessoa 106 no meio físico virtual são usados para gerar diferentes vistas do meio físico virtual. Em outras palavras, as posições das câmeras virtuais correspondem às po10 sições dos olhos da pessoa 106. As posições das câmeras virtuais, correspondentes às posições dos olhos da pessoa 106, podem variar à medida que a posição da pessoa 106 varia.
Uma vista é gerada para cada olho da pessoa 106. Uma imagem de cada vista é gerada e enviada de volta ao dispositivo de vídeo montado na cabeça 108, para exibição à pessoa 106. Dessa maneira, imagens bidimensionais independentes podem ser exibidas para a pessoa 106 no dispositivo de vídeo montado na cabeça 108.
Nestes exemplos ilustrativos, os olhos da pessoa 106 reconstroem uma imagem tridimensional percebida do meio físico virtual das duas 20 imagens bidimensionais exibidas no dispositivo de vídeo montado na cabeça 108. Dessa maneira, o processamento de visão binocular humana natural ocorre na pessoa 106, para gerar a imagem tridimensional para o meio físico virtual, usando as duas imagens bidimensionais pelo computador 102.
Nestes exemplos ilustrativos, a visão binocular humana natural envolve o uso de dois olhos. Com processamento de visão binocular humana natural, as imagens vistas por ambos os olhos podem ser usadas para gerar uma vista tridimensional. Em outras palavras, a pessoa 106 pode ser capaz de perceber profundidade.
Como os olhos da pessoa 106, a cabeça 112 da pessoa 106, ou ambos se movimentam, o ponto focal da pessoa 106 pode variar. As informações geradas pelo dispositivo de vídeo montado na cabeça 108 são enviadas para o computador 102 pela ligação de comunicações sem fio 118. O computador 102 usa estas informações para recalcular o ponto focal da pessoa 106, em uma posição correspondente, para as câmeras virtuais no meio físico virtual. As imagens bidimensionais atualizadas são geradas de diferentes câmeras virtuais representando os olhos da pessoa 106 no meio físico virtual.
Por conseguinte, uma representação mais precisa de um meio físico virtual é gerada para exibição no dispositivo de vídeo montado na cabeça 108 para a pessoa 106. Com este tipo de exibição, um casamento mais próximo da visão natural da pessoa 106 ocorre. Dessa maneira, os efeitos
indesejáveis de visão de um meio físico virtual por uso de imagens bidimensionais pela pessoa 106 podem ser reduzidos. Uma diminuição nos efeitos indesejáveis também ocorre além de uma vista mais realística do meio físico virtual para a pessoa 106 usando o dispositivo de vídeo montado na cabeça 108.
Voltando então à Figura 2, uma ilustração de um diagrama de
blocos de um sistema de meio físico virtual é mostrada, de acordo com uma concretização ilustrativa. O sistema de meio físico virtual 100, na Figura 1, é um exemplo de uma implementação para o sistema de meio físico virtual 200, mostrado em forma de blocos nesta figura.
Como ilustrado, o sistema de meio físico virtual 200 é localizado
no meio físico 202. O sistema de meio físico virtual 200 é configurado para gerar o meio físico virtual 204 para a pessoa 206. A pessoa 206 pode interagir com o meio físico virtual 204 pelo sistema de meio físico virtual 200.
Nestes exemplos ilustrativos, o sistema de meio físico virtual 200
inclui vários diferentes componentes. Como ilustrado, o sistema de meio físico virtual 200 inclui o gerador de meio físico virtual 208 e a interface de sistema 210. Estes componentes operam para gerar o meio físico virtual 204 e proporcionar à pessoa 206 uma capacidade de interagir com o meio físico virtual 204.
Nestes exemplos ilustrativos, o gerador de meio físico virtual 208
pode ser implementado em hardware, software ou em uma combinação dos dois. Nestes exemplos ilustrativos, o hardware pode assumir a forma de um sistema de circuito, um circuito integrado, um circuito integrado de aplicação específica (ASIC), um dispositivo lógico programável, ou outro tipo adequado de hardware configurado para executar várias operações. Com um dispositivo lógico programável, o dispositivo é configurado para executar várias ope5 rações. O dispositivo pode ser reconfigurado posteriormente ou pode ser configurado permanentemente, para execução das várias operações. Os exemplos de dispositivos lógicos programáveis incluem, por exemplo, um arranjo lógico programável, uma lógica de arranjo programável, um arranjo lógico programável de campo, um arranjo de porta programável de campo e 10 outros dispositivos de hardware adequados. Adicionalmente, os processos podem ser implementados em componentes orgânicos integrados com componentes inorgânicos, e/ou podem ser compreendidos inteiramente de componentes orgânicos excluindo um ser humano. Por exemplo, os processos podem ser implementados em semicondutores orgânicos.
Nestes exemplos ilustrativos, o gerador de meio físico virtual 208
pode ser implementado no sistema computadorizado 212. O sistema computadorizado 212 pode ser um ou mais computadores. Quando mais de um computador está presente no sistema computadorizado 212, estes computadores podem ficar em comunicação entre si por um meio de comunicações, tal como uma rede.
Neste exemplo ilustrativo, o gerador de meio físico virtual 208 inclui o controlador 214 e o processador de imagem 216. O controlador 214 é configurado para gerar o meio físico virtual 204. Nestes exemplos ilustrativos, o meio físico virtual 204 pode assumir várias formas.
Por exemplo, o meio físico virtual 204 pode ser pelo menos um
de um meio físico de projeto, um meio físico de manutenção, um meio físico de manufatura e outros tipos adequados de meios físicos. Como usado no presente relatório descritivo, o termo "pelo menos um de", quando usado com uma lista de termos, significa que diferentes combinações de um ou 30 mais dos itens listados podem ser usados e apenas um de cada item na lista pode ser necessário. Por exemplo, "pelo menos um dos item A, item Beitem C" pode incluir, sem limitação, o item A ou o item Aeo item B. Este exemplo também pode incluir os item A, item B e item C, ou os item B e item C.
Quando o meio físico virtual 204 é de um meio físico de projeto, a pessoa 206 pode interagir com o meio físico virtual 204, para projetar um 5 produto, tal como uma aeronave, um navio, um veículo terrestre, uma nave espacial, um satélite, um motor, uma antena, uma peça composta, uma cadeira e outros produtos adequados. Quando o meio físico virtual 204 assume a forma de um meio físico de manutenção, a pessoa 206 pode praticar a execução de manutenção em uma plataforma, tal como uma aeronave. Adi10 cionalmente, a pessoa 206 pode usar o meio físico de manutenção para identificar os procedimentos de manutenção para a aeronave, para uso no meio físico 202.
Quando o meio físico virtual 204 é um meio físico de manufatura, a pessoa 206 pode interagir com o meio físico de manufatura para obter in15 formações sobre os processos de manufatura. Por exemplo, a pessoa 206 pode variar os componentes no meio físico de manufatura, para ver como as variações afetam a manufatura de um produto. Dessa maneira, a pessoa 206 pode identificar variações nos componentes ou procedimentos usados para manufaturar um produto no meio físico 202.
O processador de imagem 216 é configurado para gerar as ima
gens 218, que são exibidas à pessoa 206 pela interface de sistema 210. As imagens 218 são imagens de meio físico virtual 204, como vistas pela pessoa 206 por interação da pessoa 206 com o meio físico virtual 204. Nestes exemplos ilustrativos, as imagens 218 são imagens bidimensionais. As ima25 gens 218 podem ser vistas pela pessoa 206, para reconstruir uma vista tridimensional do meio físico virtual 204.
Como ilustrado, o sistema de interface 210 é hardware e pode incluir software. Nestes exemplos ilustrativos, o sistema de interface 210 é configurado para proporcionar à pessoa 206 uma capacidade de interagir com o meio físico virtual 204. Esta interação pode incluir entrada no meio físico virtual 204, bem como receber a saída do meio físico virtual 204.
Como ilustrado, o sistema de interface 210 é compreendido de vários diferentes componentes. Neste exemplo ilustrativo, o sistema de interface 210 inclui o dispositivo de vídeo 220 e o sistema sensor 222.
O dispositivo de vídeo 220 é configurado para exibir as imagens 218 geradas pelo processador de imagem 216 no gerador de meio físico virtual 208. Dessa maneira, a pessoa 206 pode ver o meio físico virtual 204.
Nestes exemplos ilustrativos, o sistema sensor 222 é configurado para gerar informações 224 sobre a pessoa 206. Em particular, o sistema sensor 222 pode gerar informações de posição do primeiro olho 226, informações de posição do segundo olho 228 e informações de posição de cabe10 ça 230. Adicionalmente, o sistema sensor 222 pode também gerar informações sobre a posição e movimento de outras partes da pessoa 206. Estas outras partes podem incluir, por exemplo, mãos, dedos, braços, pés e outras partes adequadas.
As informações de posição do primeiro olho 226 são para a pri15 meira posição 232 do primeiro olho 234 na cabeça 236 da pessoa 206. As informações de posição do segundo olho 228 são para a segunda posição 238 do segundo olho 240 na cabeça 236 da pessoa 206. As informações de posição de cabeça 230 são para a posição de cabeça 242 da cabeça 236 da pessoa 206 nestes exemplos ilustrativos.
Como ilustrado, as informações de posição do primeiro olho 226,
as informações de posição do segundo olho 226 e as informações de posição de cabeça 230 podem incluir vários diferentes tipos de informações. As informações de posição do primeiro olho 226, as informações de posição do segundo olho 228 e as informações de posição de cabeça 230 podem inclu25 ir, por exemplo, um local e uma orientação de um objeto. O local pode ser descrito em três dimensões, usando um sistema de coordenadas tridimensional. A orientação pode ser descrita de vários diferentes modos. Por exemplo, a orientação pode ser descrita usando um sistema, tal como um espaço relativo usando ângulos de Euler, um vetor direcional, uma matriz, um qua30 ternião, uma combinação de mudança de direção, passo e rolamento, ou outro quadro de referência.
As informações de posição do primeiro olho 226, as informações de posição do segundo olho 228 e as informações de posição de cabeça 230 podem ser enviadas como parte das informações 224 do sistema sensor 222 para o gerador de meio físico virtual 208. O controlador 214 pode usar informações 224 para fazer mudanças no meio físico virtual 204 com base 5 na entrada gerada pela pessoa 206, ou com base em outros eventos que podem ser gerados pelo controlador 214 ou de outras fontes.
O processador de imagem 216 é configurado para usar as informações de posição do primeiro olho 226 e as informações de posição do segundo olho 228, para gerar as imagens 218. Nestes exemplos ilustrativos, 10 as informações de posição de cabeça 230 podem ser opcionais na geração das imagens 218. Como ilustrado, o processador de imagem 216 gera a primeira câmera virtual 244 e a segunda câmera virtual 246 no meio físico virtual 204. Neste exemplo ilustrativo, as primeira câmera virtual 244 e a segunda câmera virtual 246 são localizadas no avatar 248. O avatar 248 é uma 15 representação virtual da pessoa 206 no meio físico virtual 204. Em particular, a primeira câmera virtual 244 e a segunda câmera virtual 246 podem ser localizadas na cabeça 250 do avatar 248, nestes exemplos ilustrativos.
Em um exemplo, o processador de imagem 216 é configurado para gerar a primeira imagem 252 nas imagens 218 do meio físico virtual 20 204 para o primeiro olho 234, com base nas informações de posição do primeiro olho 226. Adicionalmente, o processador de imagem 216 é também configurado para gerar a segunda imagem 254 nas imagens 218 do meio físico virtual 204 para o segundo olho 240, com base nas informações de posição do segundo olho 228. O processador de imagem 216 é configurado 25 para enviar a primeira imagem 252 e a segunda imagem 254 para exibição para a pessoa 206. Nestes exemplos ilustrativos, a primeira imagem 252 e a segunda imagem 254 são enviadas para o dispositivo de vídeo 220.
Nestes exemplos ilustrativos, o processador de imagem 216 é configurado para identificar a primeira posição 256 para a primeira câmera virtual 244 no meio físico virtual 204, representando o primeiro ponto de vista 258 do primeiro olho 234 no meio físico virtual 204. Adicionalmente, o processador de imagem 216 é configurado para identificar a segunda posição 260 da segunda câmera virtual 246 no meio físico virtual 204, representando o segundo ponto de vista 262 do segundo olho 240 no meio físico virtual 204.
Nestes exemplos ilustrativos, a primeira imagem 252 é uma imagem de meio físico virtual 204, como vista pela primeira câmera virtual 244. A segunda imagem 254 é uma imagem do meio físico virtual 204, como vista pela segunda câmera virtual 246.
Quando a primeira imagem 252 e a segunda imagem 254 são enviadas para o dispositivo de vídeo 220, o dispositivo de vídeo 220 exibe a 10 primeira imagem 252 para o primeiro olho 234 da pessoa 206. O dispositivo de vídeo 220 exibe a segunda imagem 254 para o segundo olho 240 da pessoa 206 nestes exemplos ilustrativos. A primeira imagem 252 e a segunda imagem 254 são imagens bidimensionais e são processadas pela pessoa 206, para reconstruir uma imagem tridimensional do meio físico virtual 204.
Com a geração da primeira imagem 252 e da segunda imagem
254 dos primeiro ponto de vista 258 e segundo ponto de vista 262, respectivamente, a experiência da pessoa 206 interagindo com o meio físico virtual 204 pode ocorrer com uma redução nos efeitos indesejáveis de visualização das imagens 218 de meio físico virtual 204. Nestes exemplos ilustrativos, a 20 primeira câmera virtual 244 e a segunda câmera virtual 246 podem ser posicionadas em uma maneira que se correlaciona com a primeira posição 232 do primeiro olho 234 e a segunda posição 238 do segundo olho 240.
Nestes exemplos ilustrativos, a primeira câmera virtual 244 e a segunda câmera virtual 246 podem ser posicionadas verticalmente com base nas informações de posição de cabeça 230. Em particular, a altura da cabeça 236 pode ser usada para posicionar a primeira câmera virtual 244 e a segunda câmera virtual 246.
As informações de posição de cabeça 230 podem ser usadas para posicionar a cabeça 250 do avatar 248 com a posição de cabeça 264 dentro do meio físico virtual 204. A posição de cabeça 264 da cabeça 250 para o avatar 248, no meio físico virtual 204, corresponde à posição de cabeça 242 da cabeça 236 da pessoa 206 no meio físico 202. Em outras palavras, a orientação da cabeça 250 para o avatar 248 corresponde à orientação da cabeça 236 da pessoa 206.
Em outras palavras, o posicionamento da cabeça 250 do avatar 248, com a primeira câmera virtual 244 e a segunda câmera virtual 246, po5 de ser com relação à distância que a cabeça 236 da pessoa 206 fica do solo. Esta distância pode variar dependendo de se a pessoa 206 está em pé, sentada, sentada no chão, sentada em um objeto, ou em alguma outra posição adequada.
Adicionalmente, a primeira câmera virtual 244 e a segunda câ10 mera virtual 246 podem ser posicionadas relativamente entre si, com base em uma distância pupilar do primeiro olho 234 para o segundo olho 240. A distância pupilar pode ser uma distância entre as pupilas nos primeiro olho 234 e segundo olho 240. A distância pupilar pode ser também referida como uma distância interpupilar. Em particular, a distância pupilar é a distância 15 entre os centros das pupilas nos olhos da pessoa 206. Esta distância pupilar pode ser usada pelo processador de imagem 216, para gerar posições das primeira câmera virtual 244 e segunda câmera virtual 246 na cabeça 250 do avatar 248.
Nestes exemplos ilustrativos, à medida que o primeiro olho 234 20 e o segundo olho 240 se movimentam a diferentes posições, a primeira câmera virtual 244 e a segunda câmera virtual 246 são também movimentadas às diferentes posições correspondentes. Em um modo similar, quando a cabeça 236 da pessoa 206 se movimenta, a cabeça 250 do avatar 248, no meio físico virtual 204, pode também se movimentar. Naturalmente, as in25 formações de posição da cabeça 230 podem ser opcionais. Por exemplo, quando as informações de posição do primeiro olho 226 e as informações de posição do segundo olho 228 incluem as coordenadas do primeiro olho 234 e do segundo olho 240 em três dimensões, a localização da cabeça 236 em três dimensões não é necessária.
Ainda mais, a orientação do primeiro olho 234 e do segundo olho
240 pode ser relativa a um plano ou outro ponto de referência diferente da cabeça 236 da pessoa 206. Neste tipo de implementação, as informações de posição da cabeça 230 da cabeça 236 podem não ser necessárias.
Em outros exemplos ilustrativos, as informações de posição da cabeça 230 podem incluir uma localização da cabeça 236 em três dimensões, bem como a orientação da cabeça 236. As informações de posição do 5 primeiro olho 226 e as informações de posição do segundo olho 228 podem incluir uma orientação do primeiro olho 226 e do segundo olho 240 na cabeça 236. Em outras palavras, as informações de posição do primeiro olho 226 e as informações de posição do segundo olho 228 podem ser relativas à cabeça 236, em vez de algum outro objeto de referência.
Neste tipo de implementação, as informações de posição da ca
beça 230 são usadas em conjunto com as informações de posição do primeiro olho 226 e as informações de posição do segundo olho 228, para gerar uma posição para a cabeça 250, juntamente com a primeira câmera virtual 244 e a segunda câmera virtual 246. Neste caso, o processador de ima15 gem 216 gera a primeira imagem 252, com base nas informações de posição do primeiro olho 226 e informações de posição da cabeça 230. Em uma maneira similar, o processador de imagem 216 gera a segunda imagem 254, com base nas informações de posição do segundo olho 228 e informações de posição da cabeça 230.
Com referência então à Figura 3, uma ilustração de um diagra
ma de blocos de implementações para um dispositivo de vídeo é apresentada, de acordo com uma concretização ilustrativa. Neste exemplo ilustrado, os tipos de dispositivos de vídeo 300 são exemplos de diferentes tipos de dispositivos de vídeo, que podem ser usados para implementar o dispositivo de vídeo 220 na Figura 2.
Nestes exemplos ilustrativos, os tipos de dispositivos de vídeo 300 incluem vários diferentes tipos de dispositivos. Neste exemplo, os tipos de dispositivos de vídeo 300 incluem o sistema de exibição montado na cabeça 302, o sistema de exibição de obturador 304, o sistema de exibição de 30 polarização 306, o sistema de exibição retinal 308 e o sistema de exibição de lente de contato 310.
O sistema de exibição montado na cabeça 302 pode ser um dispositivo de vídeo usando na cabeça 236 da pessoa 206 na Figura 2. O sistema de exibição montado na cabeça 302 pode também incluir sensores do sistema sensor 222, para gerar informações sobre o primeiro olho 234, o segundo olho 240 e a cabeça 236 da pessoa 206. A exibição no sistema de 5 exibição montado na cabeça 302 pode ser, por exemplo, sem limitação, um visor de cristal líquido, um visor de diodo emissor de luz, um visor de plasma, ou algum outro tipo adequado de visor. O visor no sistema de exibição montado na cabeça 302 pode ser construído de um ou mais sistemas de exibição independentes.
O sistema de exibição de obturador 304 pode ser um visor visto
pela pessoa 206 usando óculos de obturador ativo, que têm um sistema de obturador que apenas permite que um do primeiro olho 234 e do segundo olho 240 veja o visor em qualquer momento. Com este tipo de sistema de exibição, a exibição da primeira imagem 252 e da segunda imagem 254 no 15 visor é alternada, para corresponder a quando o primeiro olho 234 e o segundo olho 240 são capazes de ver o visor.
O sistema de exibição de polarização 306 envolve a exibição de ambas a primeira imagem 252 e segunda imagem 254 no visor ao mesmo tempo, de modo que a primeira imagem 252 e a segunda imagem 254 sejam 20 exibidas com diferentes polarizações. Óculos de polarização no sistema de exibição de polarização 306 podem ser usados pela pessoa 206, para permitir que cada olho veja a imagem correta.
O sistema de exibição retinal 308 é configurado para projetar uma exibição de rastreio na retina do olho. O sistema de exibição retinal 308 pode incluir um projetor, que gera um feixe que varre a retina do olho.
O sistema de exibição de lente de contato 310 assume a forma de uma lente de contato, que é colocada no primeiro olho 234 e no segundo olho 240. Estas lentes de contato incluem circuitos eletrônicos e diodos emissores de luz. Os diodos emissores de Iuz nos circuitos são configurados 30 para gerar uma imagem que é vista pelo primeiro olho 234 e pelo segundo olho 240.
Voltando agora à Figura 4, uma ilustração de um diagrama de blocos de tipos de sensores, que podem ser usados em um sistema sensor, em um sistema de meio físico virtual, é apresentada de acordo com uma concretização ilustrativa. Neste exemplo ilustrativo, os tipos de sensores 400 incluem diferentes tipos de sensores, que podem ser usados no sistema sensor na Figura 2.
Neste exemplo ilustrativo, os tipos de sensores 400 podem incluir vários diferentes tipos de sensores. Por exemplo, os tipos de sensores 400 podem incluir um sistema de rastreio de olho 402, um sistema de rastreio de cabeça 404, luvas de dados 406 e sistema de rastreio de gesto 408.
O sistema de rastreio de olho 402 pode incluir um rastreador do
primeiro olho 410 e um rastreador do segundo olho 412. O rastreador do primeiro olho 410 é configurado para rastrear a primeira posição 232 do primeiro olho 234 e gerar as informações de posição do primeiro olho 226 na Figura 2. O rastreador do segundo olho 412 é configurado para rastrear a 15 segunda posição 238 do segundo olho 240 e gerar as informações de posição do segundo olho 228.
Nestes exemplos ilustrativos, o sistema de rastreio de olho 402 pode ser associado com o sistema de exibição montado na cabeça 302, ou pode ser um dispositivo separado. Nestes exemplos ilustrativos, o sistema 20 de rastreio de olho 402 rastreia a primeira posição 232 do primeiro olho 234 e a segunda posição 238 do segundo olho 240, em oposição ao olhar fixo dos primeiro olho 234 e segundo olho 240.
O rastreio de olhar fixo envolve a identificação de uma região em uma imagem vista pelos primeiro olho 234 e segundo olho 240, em oposição 25 à primeira posição 232 do primeiro olho 234 e à segunda posição 238 do segundo olho 240. Em alguns exemplos ilustrativos, as informações de posição do primeiro olho 226 e as informações de posição do segundo olho 228, para a primeira posição 232 do primeiro olho 234 e a segunda posição 238 do segundo olho 240, podem ser usadas para identificar um olhar fixo para a 30 pessoa 206.
Ainda mais, o sistema de rastreio de olho 402 pode usar várias técnicas, tal como reflexão corneal, para gerar informações sobre a orientação do primeiro olho 234 e do segundo olho 240. Estas técnicas são baseadas na localização de uma fonte de iluminação com relação à óptica. O sistema de rastreio de olho 402 pode ser implementado por uso de câmeras com dispositivos de hardware, bem como outros dispositivos adequados.
Por conseguinte, o rastreador do primeiro olho 410 e o rastrea
dor do segundo olho 412 podem ser câmeras separadas, ou podem ser implementados em uma única câmera, com o rastreador do primeiro olho 410 e o rastreador do segundo olho 412 sendo implementados por uso de processos de software.
Ainda, em alguns outros exemplos ilustrativos, o sistema de ras
treio de olho 402 pode ser implementado por uso de lentes de contato contendo um modelo impresso, que é rastreado por uma câmera ou outro dispositivo adequado. O sistema de rastreio de olho 402 pode ser implementado usando uma bobina de pesquisa, implantada nas lentes de contato ou 15 implantada diretamente no primeiro olho 234 e no segundo olho 240. O sistema de rastreio de olho 402 pode ser implementado usando sensores de atividade muscular colocados em torno do primeiro olho 234 e do segundo olho 240.
Nestes exemplos ilustrativos, o sistema de rastreio de cabeça 404 é um dispositivo de hardware, configurado para identificar a posição de cabeça 242 da cabeça 236 da pessoa 206 e gerar as informações de posição da cabeça 230. O sistema de rastreio de cabeça 404 pode incluir o rastreador de cabeça 405. O rastreador de cabeça 405 pode incluir sensores de rastreio, que detectam uma variação nos ângulo e orientação da cabeça 236. Esses sensores podem ser, por exemplo, acelerômetros ou outros tipos adequados de sensores. Em outros exemplos ilustrativos, o rastreador de cabeça 405 pode ser implementado por uso de um sistema de câmera e marcadores na cabeça 236 da pessoa 206, ou em um sistema de exibição montado na cabeça 302. Ainda, em alguns exemplos ilustrativos, o sistema de rastreio de cabeça 404 pode ser implementado como parte do sistema de exibição montado na cabeça 302.
As luvas de dados 406 são dispositivos de hardware usados peIa pessoa 206. Estes dispositivos podem identificar a posição das mãos da pessoa 206, bem como vários gestos gerados pelas mãos da pessoa 206.
Como ilustrado, o sistema de rastreio de gesto 408 é configurado para identificar os movimentos e gestos das mãos da pessoa 206. O sistema de rastreio de gesto 408 pode incluir câmeras, detectores de movimento e outros dispositivos, que geram informações usadas para identificar gestos e posições das mãos da pessoa 206.
A ilustração do sistema de meio físico virtual 200 e os componentes no sistema de meio físico virtual 200, nas Figuras 2 - 4, não são 10 mencionados para implicar em limitações físicas e arquitetônicas para a maneira na qual uma concretização ilustrativa pode ser implementada. Outros componentes, além ou em lugar daqueles ilustrados, podem ser usados. Alguns componentes podem ser desnecessários. Também, os blocos são apresentados para ilustrar alguns componentes funcionais. Um ou mais des15 ses blocos podem ser combinados, divididos, ou combinados e divididos em diferentes blocos, quando implementados em uma concretização ilustrativa.
Por exemplo, uma ou mais pessoas, além da pessoa 206, podem interagir com o meio físico virtual 204. Estas pessoas adicionais podem usar a interface de sistema 210. Em outro exemplo ilustrativo, o dispositivo 20 de vídeo 220 e o sistema sensor 222 podem ser implementados como um único componente. Como um outro exemplo ilustrativo, outros tipos de sensores podem ser usados além ou em lugar daqueles listados nos tipos de sensor 400 na Figura 4. Por exemplo, um joystick, uma vara de rastreio, um periférico de pistola, um mouse e outros dispositivos adequados podem ser 25 usados.
Como um outro exemplo ilustrativo, o dispositivo de vídeo 220 é configurado para proporcionar uma vista de meio físico 202 em torno da pessoa 206, além da primeira imagem 252 e da segunda imagem 254 nas imagens 218 para o meio físico virtual 204. Em outras palavras, a exibição 30 da primeira imagem 252 e da segunda imagem 254 podem ser usada para proporcionar uma exibição de realidade aumentada para a pessoa 206. Essa exibição de realidade aumentada combina uma vista de meio físico 202 com uma vista de meio físico virtual 204. Por exemplo, a pessoa 206 pode ver uma aeronave no meio físico 202. O meio físico virtual 204 pode recriar a aeronave e proporcionar vistas da parte interna dela. Estas vistas da parte interna da aeronave podem ser usadas para gerar a primeira imagem 252 e 5 a segunda imagem 254, que são exibidas no dispositivo de vídeo 220, em uma maneira que se sobrepõe à vista física da aeronave no meio físico 202.
Dessa maneira, o sistema de meio físico virtual 200 pode ser usado para gerar vistas para um meio físico puramente virtual, para várias operações, tais como projeto, manutenção, treinamento e outras operações 10 adequadas. Ainda, o sistema de meio físico virtual 200 pode ser incluído como parte de um sistema de geração de realidade aumentada, que gera o meio físico virtual 204, em uma maneira que pode ser coberta com o meio físico 202, para proporcionar à pessoa 206 informações adicionais sobre o meio físico 202.
Com referência então à Figura 5, uma ilustração de um diagra
ma de um sistema de meio físico virtual é apresentada, de acordo com uma concretização ilustrativa. Neste exemplo mostrado, o sistema de meio físico virtual 500 é um exemplo de uma implementação para o sistema de meio físico virtual 200, mostrado em forma de blocos na Figura 3.
Neste exemplo ilustrativo, o sistema de meio físico virtual 500 in
clui o gerador de meio físico virtual 502 e o dispositivo de vídeo montado na cabeça 504.
Neste exemplo ilustrativo, o dispositivo de vídeo montado na cabeça 504 inclui o rastreador do primeiro olho 506, o rastreador do segundo olho 508, o rastreador de cabeça 510, o primeiro visor 512 e o segundo visor 514. O dispositivo de vídeo montado na cabeça 504 é configurado para ser usado na cabeça 516 da pessoa 518.
Nestes exemplos ilustrativos, o rastreador do primeiro olho 506 é configurado para rastrear a posição do primeiro olho 520 na cabeça 516 da pessoa 518. O rastreador do segundo olho 508 é configurado para rastrear a posição do segundo olho 522 na cabeça 516 da pessoa 518. Em particular, o rastreador do primeiro olho 506 e o rastreador do segundo olho 508 podem rastrear a orientação do primeiro olho 520 e do segundo olho 522, respectivamente.
O primeiro visor 512 é configurado para exibir imagens para o primeiro olho 520, enquanto que o segundo visor 514 é configurado para exibir imagens para o segundo olho 522. Em particular, o primeiro visor 512 e o segundo visor 514 exibem as imagens 523, que são recebidas do gerador de meio físico virtual 502.
Neste exemplo ilustrativo, o primeiro visor 512 e o segundo visor 514 são isolados entre si, de modo que o primeiro olho 520 não possa ver o 10 segundo visor 514 e o segundo olho 522 não possa ver o primeiro visor 512. Como ilustrado, o primeiro visor 512 e o segundo visor 514 podem ser implementados usando vários tipos de visores. Por exemplo, um visor de cristal líquido, um visor de diodo emissor de luz, um visor de plasma ou algum outro tipo adequado de visor pode ser usado para o primeiro visor 512, o se15 gundo visor 514, ou ambos o primeiro visor 512 e o segundo visor 514.
O rastreador de cabeça 510 é configurado para rastrear a posição da cabeça 516 da pessoa 518 nestes exemplos ilustrativos. Nestes exemplos ilustrativos, o dispositivo de vídeo montado na cabeça 504 envia informações 524 para o gerador de meio físico virtual 502. Como ilustrado, 20 as informações 524 são informações de rastreio sobre o primeiro olho 520 e o segundo olho 522. Adicionalmente, as informações 524 podem também incluir as informações de posição da cabeça gerada pelo rastreador de cabeça 510.
O gerador de meio físico virtual 502 recebe as informações 524. Nestes exemplos ilustrativos, o gerador de meio físico virtual 502 pode ser implementado por uso de um computador. O gerador de meio físico virtual 502 é configurado para criar e operar o meio físico virtual 528.
O gerador de meio físico virtual 502 pode se comunicar com o dispositivo de vídeo montado na cabeça 504 por uso de uma ligação de comunicações. A ligação de comunicações pode ser, por exemplo, sem limitação, uma ligação de comunicações ligada, uma ligação de comunicações óptica, uma ligação de comunicações sem fio ou alguma combinação delas. As informações 524, recebidas do dispositivo de vídeo montado na cabeça 504, são usadas pelo gerador de meio físico virtual 502, para gerar o avatar 526 e o avatar de posição 526 no meio físico virtual 528. O avatar 526 é uma representação da pessoa 518 no meio físico virtual 528.
Nestes exemplos ilustrativos, as informações 524 são também
usadas para identificar uma posição para a primeira câmera virtual 530 e uma segunda câmera virtual 532 no avatar 526. Em particular, a primeira câmera virtual 530 e a segunda câmera virtual 532 podem ser localizadas na cabeça 536 do avatar 526, nestes exemplos ilustrativos.
A primeira câmera virtual 530 e a segunda câmera virtual 532
representam o primeiro olho 520 e o segundo olho 522, respectivamente. Em outras palavras, uma correção de um para um está presente entre as câmeras virtuais e os olhos. Nestes exemplos ilustrados, a primeira câmera virtual 530 e a segunda câmera virtual 532 têm uma distância 534, que cor15 responde à distância pupilar 537 entre o primeiro olho 520 e o segundo olho 522.
Nestes exemplos ilustrativos, à medida que o primeiro olho 520 e o segundo olho 522 se movimentam na cabeça 516, a primeira câmera virtual 530 e a segunda câmera virtual 532 são reposicionadas para que te20 nham um movimento correspondente usando as informações 524. Ainda mais, quando a cabeça 516 da pessoa 518 se movimenta, a cabeça 536 do avatar 526 também se movimenta.
A primeira câmera virtual 530 e a segunda câmera virtual 532 podem ser usadas pelo gerador de meio físico virtual 502, para gerar as i25 magens baseadas nas vistas que podem ser observadas do meio físico virtual 528, pelas primeira câmera virtual 530 e segunda câmera virtual 532. As informações 524 podem atualizar a posição da primeira câmera virtual 530 e da segunda câmera virtual 532, nestes exemplos ilustrativos.
A ilustração do sistema de meio físico virtual 500, como uma implementação do sistema de meio físico virtual 200, mostrado em forma de blocos na Figura 2, não é mencionada para implicar em limitações para a maneira na qual diferentes sistemas de meio virtual podem ser implementados. Por exemplo, em algumas concretizações ilustrativas, um sistema de exibição de lentes de contato pode ser usado em lugar do dispositivo de vídeo montado na cabeça 504. E mais outros exemplos ilustrativos, câmeras virtuais podem ser usadas sem o avatar 526.
Os diferentes componentes mostrados nas Figuras 2 - 4 podem
ser combinados com os componentes nas Figuras 1 e 5, usados com os componentes nas Figuras 1 e 5, ou uma combinação dos dois. Adicionalmente, alguns dos componentes na Figura 1 podem ser exemplos ilustrativos de como os componentes, mostrados em forma de blocos nas Figuras 2 10 - 4 e esquematicamente na Figura 5, podem ser implementados como estruturas físicas.
Com referência então à Figura 6, uma ilustração de um fluxograma de um processo, para exibir um meio físico virtual, é mostrada de acordo com uma concretização ilustrativa., O processo ilustrado na Figura 6 pode ser implementado usando o sistema de meio físico virtual 200 na Figura 2.
O processo começa por recebimento das informações de posição do primeiro olho para um primeiro olho em uma cabeça de uma pessoa e informações de posição do segundo olho para um segundo olho na cabeça 20 da pessoa (operação 600). O processo então gera uma primeira imagem de um meio físico virtual para o primeiro olho, com base nas informações de posição do primeiro olho, e gera uma segunda imagem do meio físico virtual para o segundo olho, com base nas informações de posição do segundo olho (operação 602). Na operação 602, as imagens são geradas de modo 25 que os pontos de vista para gerar as imagens no meio físico virtual correspondem aos pontos de vista dos olhos da pessoa no meio físico. O processo então envia a primeira imagem e a segunda imagem para exibição para a pessoa (operação 604), com o processo então retornando à operação 600.
Essas diferentes operações podem se repetir, desde que a pessoa esteja interagindo com o meio físico virtual. O uso das diferentes operações no fluxograma da Figura 6 proporciona a uma pessoa, vendo um meio físico virtual, uma experiência mais natural. Em particular, as imagens são geradas de pontos de vista dos olhos da pessoa, usando os mesmos pontos de vista no meio físico virtual.
Voltando então para as Figuras 7 A e 7B, uma ilustração de um fluxograma de um processo para ver um meio físico virtual é ilustrado, de 5 acordo com uma concretização ilustrativa. O processo ilustrado nas Figuras 7A e 7B pode ser implementado usando o sistema de meio físico virtual 200 na Figura 2, para gerar as imagens 218 para visualização pela pessoa 206 usando o dispositivo de vídeo 220. As diferentes operações, ilustradas nas Figuras 7A e 7B, descrevem operações executadas tanto pelo sistema de 10 meio físico virtual 200 quanto pela pessoa 206 na Figura 2, durante a interação da pessoa 206 com o meio físico virtual 204.
O processo começa por colocação de um dispositivo de vídeo montado na cabeça em uma cabeça da pessoa (operação 700). O dispositivo de vídeo montado na cabeça é uma implementação para o dispositivo de 15 vídeo 220, e também pode incluir pelo menos uma parte do sistema sensor 222. O dispositivo de vídeo montado na cabeça pode rastrear o movimento do olho e, opcionalmente, o movimento da cabeça.
A pessoa então inicia a geração de um meio físico virtual (operação 702). Nesta operação, a pessoa pode ligar o sistema de meio físico virtual para iniciar a geração do meio físico virtual. Nestes exemplos ilustrativos, um gerador de meio físico virtual, tal como o gerador de meio físico virtual 208 na Figura 2, pode começar a geração do meio físico virtual.
O gerador de meio físico virtual envia consultas para o dispositivo de vídeo montado na cabeça para informações atuais (operação 704). A 25 consulta faz com que o dispositivo de vídeo montado na cabeça gere as informações nela. Estas informações atuais incluem as informações sobre a posição dos olhos da pessoa. As informações atuais podem também incluir a posição de cabeça e outras informações adequadas. A consulta, na operação 704, pode ser feita periodicamente nestes exemplos ilustrativos. Ainda, 30 a posição dos olhos pode ser um local dos olhos em três dimensões, uma orientação, ou ambos.
O gerador de meio físico virtual recupera as informações sobre uma orientação de um primeiro olho e de um segundo olho da pessoa (operação 706). Nestes exemplos ilustrativos, o primeiro olho pode corresponder ao olho esquerdo e o segundo olho pode corresponder ao olho direito da pessoa.
Uma determinação é então feita de se o dispositivo de vídeo
montado na cabeça inclui as informações sobre uma orientação da cabeça da pessoa (operação 708). Se o dispositivo de vídeo montado na cabeça incluir informações sobre a orientação da cabeça, o gerador de meio físico virtual recupera as informações sobre a orientação da cabeça (operação 710).
A seguir, uma determinação é feita de se o dispositivo de vídeo montado na cabeça inclui informações sobre um local da cabeça (operação 712). Na operação 712, o local pode ser descrito por uso de um sistema de coordenadas tridimensional. Se o dispositivo de vídeo montado na cabeça 15 incluir estas informações, o dispositivo de vídeo montado na cabeça recupera as informações sobre o local da cabeça (operação 714). Nestes exemplos ilustrativos, as informações sobre a orientação e o local da cabeça formam as informações de posição da cabeça.
A seguir, uma determinação é feita de se o gerador de meio físi20 co virtual foi configurado para uso pela pessoa (operação 716). Se o gerador de meio físico virtual não tiver sido configurado para uso pela pessoa, a distância pupilar entre o primeiro olho e o segundo olho é calculada por uso de informações de rastreio de olho (operação 718). Nestes exemplos ilustrativos, as informações de rastreio de olho podem incluir a orientação do primei25 ro olho e do segundo olho, as características do dispositivo de vídeo montado na cabeça, a distância entre os rastreadores de olho, os ângulos de visão dos sensores e outras informações adequadas, que podem ser usadas para calcular a distância entre as pupilas da pessoa.
Nestes exemplos ilustrativos, a distância pupilar pode ser identificada por uso de várias diferentes técnicas. Uma técnica para identificar a distância pupilar inclui tirar múltiplas amostras de cada olho, quando focalizado em um ponto de controle. O ponto de controle pode ser, por exemplo, um cursor em forma de cruz no centro, extremos do dispositivo de vídeo ou alguma combinação deles. A seguir, a direção de visão para cada ponto de controle, para cada olho, é calculada. A posição do olho, relativa ao sensor de rastreio de olho ou aos sensores de rastreio de olho, é calculada por uso 5 de múltiplas direções de visão. A seguir a distância entre os sensores de rastreio de olho é calculada. Finalmente, a distância entre cada olho, com base nos deslocamentos do sensor de olho e deslocamentos dos sensores de olho, é calculada.
Estas e outras informações sobre a pessoa podem ser armaze10 nadas em vários diferentes locais. Por exemplo, as informações podem ser armazenadas em pelo menos um do dispositivo de vídeo montado na cabeça, um gerador de meio físico virtual, uma base de dados remota ou algum outro local adequado. Em mais outros exemplos ilustrativos, a pessoa pode introduzir pelo menos algumas das informações.
O gerador de meio físico virtual então cria um avatar, para re
presentar uma posição da pessoa no meio físico virtual (operação 720). Uma primeira câmera virtual e uma segunda câmera virtual, representando o primeiro olho e o segundo olho da pessoa, são adicionadas ao avatar (operação 722). A colocação das câmeras virtuais é feita por uso das informações 20 sobre os olhos, recuperadas do dispositivo de vídeo montado na cabeça. A colocação pode ser também baseada nas informações sobre a cabeça da pessoa, se estas informações estiverem disponíveis.
As câmeras virtuais podem ser adicionadas com base na distância pupilar calculada da pessoa e nas informações atuais sobre os olhos da 25 pessoa. As informações sobre os olhos da pessoa. As informações sobre a cabeça da pessoa também podem ser usadas, se disponíveis. O espaçamento horizontal das câmeras virtuais pode ser baseado na distância pupilar. A distância vertical das câmeras a partir do piso do meio físico virtual pode ser baseada nas informações sobre a cabeça da pessoa. Adicional30 mente, o posicionamento das câmeras virtuais também pode considerar que um olho da pessoa pode estar verticalmente mais alto do que o outro olho da pessoa. O posicionamento das câmeras virtuais também pode considerar que os olhos de uma pessoa podem não ser alinhados simetricamente.
O gerador de meio físico virtual posiciona as câmeras virtuais para ter as orientações correspondentes àquelas dos olhos da pessoa (operação 724). Este posicionamento é feito com base nas informações atuais 5 recuperadas do dispositivo de vídeo montado na cabeça. Dessa maneira, as câmeras virtuais podem ter pontos de vista que correspondem àqueles dos olhos da pessoa, com base na localização dos olhos e da orientação dos olhos, identificadas das informações recuperadas do dispositivo de vídeo montado na cabeça.
A seguir, uma determinação é feita de se as informações recu
peradas do dispositivo de vídeo montado na cabeça incluem as informações sobre a orientação da cabeça (operação 726). Se as informações recuperadas incluírem informações sobre uma orientação da cabeça, o avatar é posicionado para ter uma orientação correspondente, com base em uma orientação atual da cabeça da pessoa (operação 728).
Esta variação na orientação do avatar também muda a orientação das câmeras virtuais, o que, por sua vez, altera os pontos de vista das câmeras virtuais. Dessa maneira, as variações na cabeça da pessoa e nos olhos da pessoa podem ser refletidas pelo avatar e pelas câmeras virtuais nele.
Uma determinação é feita de se as informações recuperadas do dispositivo de vídeo montado na cabeça incluem informações sobre um local da cabeça (operação 730). Se as informações recuperadas incluírem informações sobre o local da cabeça, o avatar é movimentado para associar-se a um local atual da cabeça da pessoa (operação 732).
O gerador de meio físico virtual então representa o meio físico virtual da perspectiva da primeira câmera virtual (operação 736). Em outras palavras, o gerador de meio físico virtual gera informações gráficas de uma perspectiva particular. Esta representação resulta em uma primeira imagem 30 do meio físico virtual, que é gerada do ponto de vista da primeira câmera virtual. Em outras palavras, o gerador de meio físico virtual gera a primeira imagem do meio físico virtual, que é vista pela primeira câmera virtual. Em um modo similar, o gerador de meio físico virtual representa o meio físico virtual da perspectiva da segunda câmera virtual (operação 738). Esta representação resulta em uma segunda imagem, que é gerada do meio físico virtual do ponto de vista da segunda câmera virtual. Do mesmo modo que com 5 a primeira câmera virtual, o gerador de meio físico virtual gera a segunda imagem do meio físico virtual, que é vista pela segunda câmera virtual.
A primeira imagem e a segunda imagem resultantes, geradas na operação 736 e na operação 738, proporcionam duas vistas do meio físico virtual de pontos de vista ligeiramente diferentes. Em outras palavras, estas imagens proporcionam vistas de perspectivas ligeiramente diferentes, que correspondem à perspectiva dos olhos da pessoa.
Com as câmeras virtuais sendo posicionadas para que tenham orientações que correspondem aos olhos da pessoa, as imagens são ajustadas para uma primeira pessoa. Quando um dispositivo de vídeo montado na 15 cabeça é usado por uma segunda pessoa, o posicionamento das câmeras virtuais é diferente, para considerar as diferenças no posicionamento dos olhos da segunda pessoa, em comparação com os olhos da primeira pessoa.
A primeira imagem é enviada para o dispositivo de vídeo montado na cabeça, para exibição para o primeiro olho da pessoa (operação 740). 20 A segunda imagem é enviada para o dispositivo de vídeo montado na cabeça, para exibição para o segundo olho da pessoa (operação 742). Nestes exemplos ilustrativos, a operação 736 e a operação 738 são executadas substancialmente ao mesmo tempo. A operação 740 e a operação 742 são também executadas substancialmente ao mesmo tempo.
A pessoa vê a primeira imagem e a segunda imagem (operação
744). A pessoa então reconstrói uma imagem tridimensional da primeira imagem e da segunda imagem, usando processamento de visão binocular humana natural (operação 746). Uma determinação é feita de se continuar a interagir com o meio físico virtual (operação 748). Se a pessoa selecionar 30 não continuar a interagir com o meio físico virtual, o processo termina. De outro modo, o processo retorna para a operação 704.
Com referência de novo à operação 730, se as informações recuperadas não incluírem o local da cabeça, o processo segue para a operação 736 e a operação 738. Voltando à operação 726, se as informações recuperadas não incluírem uma orientação da cabeça, o processo também segue para a operação 736 e a operação 738.
Voltando à operação 716, se o gerador de meio físico virtual tiver
sido configurado para uso pela pessoa, o processo segue para a operação 736 e a operação 738, e não executa as operações para configurar ou calibrar o gerador de meio físico virtual ao dispositivo de vídeo montado na cabeça. Com referência de novo à operação 712, se as informações recuperadas não incluírem o local da cabeça, o processo segue para a operação 716.
O processo também segue para a operação 716 da operação 708, se as informações recuperadas não incluírem a orientação da cabeça.
Os fluxogramas e diagramas de blocos, nas diferentes concretizações descritas, ilustram as arquitetura, funcionalidade e operação de algumas possíveis implementações de aparelhos e processos em uma concretização ilustrativa. Nesse aspecto, cada bloco nos fluxogramas ou diagramas de blocos pode representar um módulo, um segmento, uma função e/ou uma parte de uma operação ou etapa. Por exemplo, um ou mais dos blocos podem ser implementados como código de programa, em hardware, ou uma combinação do código de programa e hardware. Quando implementado em hardware, o hardware pode, por exemplo, assumir a forma de circuitos integrados, que são fabricados ou configurados para executar uma ou mais operações nos fluxogramas ou diagramas de blocos. Em algumas implementações alternativas de uma concretização ilustrada, a função ou as funções observadas nos blocos podem ocorrer fora da ordem vista nas figuras. Por exemplo, em alguns casos, dois blocos mostrados sucessivamente podem ser executados substancialmente concorrentemente, ou os blocos podem ser algumas vezes executados na ordem inversa, dependendo da funcionalidade envolvida. Também, outros blocos podem ser adicionados, além dos blocos ilustrados em um fluxograma ou diagrama de blocos.
Por exemplo, as diferentes operações descrevem a recuperação de informações do dispositivo de vídeo montado na cabeça. Em alguns exemplos ilustrativos, o dispositivo de vídeo montado na cabeça pode enviar, automaticamente, as informações sem consultas do gerador de meio físico virtual, que recupera as informações. Ainda, em alguns exemplos ilustrativos, a operação 736 e a operação 738 podem ser executadas sequencial5 mente em vez de substancialmente ao mesmo tempo. Em mais outros exemplos ilustrativos, a operação 730 e a operação 732 podem ser omitidas. As informações sobre a posição dos olhos podem incluir tanto um local no espaço tridimensional quanto uma orientação.
Voltando agora para a Figura 8, uma ilustração de um diagrama de blocos de um sistema de processamento de dados é ilustrado de acordo com uma concretização ilustrativa. O sistema de processamento de dados 800 pode ser usado para implementar o computador 102 na Figura 1, o sistema computadorizado 212 na Figura 2 e o gerador de meio físico virtual 502 na Figura 5. Neste exemplo ilustrativo, o sistema de processamento de dados 800 inclui uma estrutura de comunicações 802, que proporciona comunicações entre a unidade de processamento 804, a memória 806, o armazenamento persistente 808, a unidade de comunicações 810, a unidade de entrada / saída (l/O) 812 e a unidade de processamento gráfico 814. Neste exemplo, a estrutura de comunicações pode assumir a forma de um sistema de barramento.
A unidade de processamento 804 serve para executar instruções para software, que podem ser carregadas na memória 806. A unidade de processamento 804 pode ser vários processadores, um núcleo multiprocessador ou algum outro tipo de processador, dependendo da implementação particular.
A memória 806 e o armazenamento persistente 808 são exemplos de dispositivos de armazenamento 816. Um dispositivo de armazenamento é qualquer parte de hardware, que é capaz de armazenar informações, tais como, por exemplo, sem limitação, dados, código de programa em 30 forma funcional, e/ou outras informações adequadas, em uma base temporária e/ou uma base permanente. Os dispositivos de armazenamento 816 podem ser também referidos como dispositivos de armazenamento legíveis por computador nestes exemplos ilustrativos. A memória 806 pode ser, nestes exemplos, uma memória de acesso aleatório ou qualquer outro dispositivo de armazenamento de memória volátil ou não volátil adequado. O armazenamento persistente 808 pode ocorrer em várias formas, dependendo da implementação particular.
Por exemplo, o armazenamento persistente 808 pode conter um ou mais componentes ou dispositivos. Por exemplo, o armazenamento persistente 808 pode ser uma unidade de disco rígido, uma memória instantânea, um disco óptico regravável, uma fita magnética regravável ou alguma 10 combinação dos mencionados acima. A mídia usada pelo armazenamento persistente 808 pode ser também removível. Por exemplo, uma unidade de disco rígido removível pode ser usada para o armazenamento persistente 808.
A unidade de comunicações 810, nestes exemplos ilustrativos, proporciona comunicações com outros sistemas ou dispositivos de processamento de dados. Nestes exemplos ilustrativos, a unidade de comunicações 810 é um cartão de interface de rede.
A unidade de entrada / saída 812 propicia a entrada e a saída de dados com outros dispositivos, que podem ser ligados ao sistema de pro20 cessamento de dados 800. Por exemplo, a unidade de entrada / saída 812 pode proporcionar uma conexão para entrada de usuário por meio de um teclado, um mouse e/ou algum outro dispositivo de entrada adequado. Ainda, a unidade de entrada / saída 812 pode enviar a saída a uma impressora. A unidade de processamento gráfico 814 proporciona um mecanismo para 25 gerar informações gráficas para exibição a um usuário.
As instruções para o sistema operacional, aplicações e/ou programas podem ser localizadas em dispositivos de armazenamento 816, que ficam em comunicação com a unidade de processamento 804 pela estrutura de comunicações 802. Os processos das diferentes concretizações podem 30 ser executados pela unidade de processamento 804 usando as instruções implementadas por computador, que podem ser localizadas em uma memória, tal como a memória 806. Essas instruções são referidas como um código de programa, um código de programa utilizável por computador, ou um código de programa legível por computador, que pode ser lido e executado por um processador na unidade de processamento 804. O código de programa nas diferentes 5 concretizações pode ser representado em diferentes meios de armazenamento legíveis por computador ou físicos 806 ou no armazenamento persistente 808.
O código de programa 818 é localizado em uma forma funcional em mídia legível por computador 820, que é seletivamente removível e pode 10 ser carregada em ou transferida a um sistema de processamento de dados 800, para execução pela unidade de processamento 804. O código de programa 818 e a mídia legível por computador 820 formam o produto programa de computador 822 nestes exemplos ilustrativos. Em um exemplo, a mídia legível por computador 820 pode ser a mídia de armazenamento legível 15 por computador 824 ou a mídia de sinal legível por computador 826.
Nestes exemplos ilustrativos, a mídia de armazenamento legível por computador 824 é um dispositivo de armazenamento tangível ou físico, usado para armazenar o código de programa 818 em vez de um meio que propague ou transmita o código de programa 818.
Alternativamente, o código de programa 818 pode ser transferido
para o sistema de processamento de dados 800 usando a mídia de sinal legível por computador 826. A mídia de sinal legível por computador 826 pode ser, por exemplo, um sinal de dados propagados contendo o código de programa 818. Por exemplo, a mídia de sinal legível por computador 826 25 pode ser um sinal eletromagnético, um sinal óptico e/ou qualquer outro tipo adequado de sinal. Estes sinais podem ser transmitidos por ligações de comunicações, tais como ligações de comunicações sem fio, cabo de fibra óptica, cabo coaxial, um fio e/ou qualquer outro tipo adequado de ligação de comunicações.
Os diferentes componentes para o sistema de processamento
de dados 800 não são mencionados para proporcionar limitações arquitetônicas na maneira na qual as diferentes concretizações podem ser implementadas. As diferentes concretizações ilustrativas podem ser implementadas em um sistema de processamento de dados, incluindo outros componentes além ou em lugar daqueles ilustrados para o sistema de processamento de dados 800. Outros componentes mostrados na Figura 8 podem ser variados 5 dos exemplos ilustrativos mostrados. As diferentes concretizações podem ser implementadas por uso de qualquer dispositivo ou sistema de hardware capaz de executar o código de programa 818.
Desse modo, as concretizações ilustrativas proporcionam uma experiência de visão mais natural para uma pessoa interagindo com um meio físico virtual. Em um exemplo ilustrativo, outros parâmetros além daqueles para rastreio da cabeça da pessoa são executados. O gerador de meio físico virtual considera as informações sobre os olhos da pessoa.
Por exemplo, a distância pupilar e a orientação dos olhos são consideradas além da localização e orientação da cabeça da pessoa. Por 15 conseguinte, as distâncias individuais entre as pessoas, que podem ser provocadas por diferentes distâncias pupilares ou distâncias de linhas de visão de diferenças de altura das pessoas, podem ser consideradas quando da geração de imagens para as pessoas. Por conseguinte, uma representação particularizada do meio físico virtual é gerada para cada pessoa.
Em um ou mais exemplos ilustrativos, a posição dos olhos é ras
treada para identificar um local e uma direção de visão no meio físico virtual. Em outras palavras, um ponto de vista é gerado para cada um dos olhos da pessoa. Estes pontos de vista são usados para gerar imagens no meio físico virtual para a pessoa. As câmeras virtuais são usadas nos exemplos ilustra25 tivos para recriar o ponto de vista correspondente da pessoa no meio físico virtual.
Por conseguinte, imagens bidimensionais podem ser vistas pela pessoa, com a esta reconstruindo a imagem tridimensional. Esta reconstrução pode ser executa por uso de processamento de visão binocular natural, 30 no qual a pessoa reconstrói uma imagem tridimensional das duas imagens bidimensionais, em que cada imagem bidimensional é gerada especificação para o olho particular da pessoa. Desse modo, com uma ou mais concretizações ilustrativas, uma pessoa pode ter uma visão mais realística de um meio físico virtual. Ainda, os efeitos indesejáveis da interação com um meio físico virtual também podem ser reduzidos.
Ainda, a invenção compreende as concretizações de acordo
com as cláusulas apresentadas a seguir.
Cláusula 1: Um aparelho, compreendendo: um processador de imagem configurado para receber informações de posição do primeiro olho, para um primeiro olho em uma cabeça de uma pessoa, e informações de posição do segundo olho, para um segundo olho na cabeça da pessoa;
gerar uma primeira imagem de um meio físico virtual para o primeiro olho, com base nas informações de posição do primeiro olho para o primeiro olho;
gerar uma segunda imagem do meio físico virtual para o segun
do olho, com base em informações de posição do segundo olho para o segundo olho; e
enviar a primeira imagem e a segunda imagem para exibição para a pessoa.
Cláusula 2: O aparelho de acordo com a cláusula 1, em que o
processador de imagem é configurado ainda para receber informações de posição da cabeça para uma posição de cabeça da cabeça da pessoa e gerar a primeira imagem do meio físico virtual para o primeiro olho, com base nas informações de posição do primeiro olho para o primeiro olho e nas in25 formações de posição da cabeça, e gerar a segunda imagem do meio físico virtual para o segundo olho, com base nas informações de posição do segundo olho para o segundo olho e nas informações de posição da cabeça.
Cláusula 3: O aparelho de acordo com a cláusula 1, em que o processador de imagem é configurado para identificar uma primeira posição de uma primeira câmera virtual no meio físico virtual, representando um primeiro ponto de vista do primeiro olho no meio físico virtual, e uma segunda posição de uma segunda câmera virtual no meio físico virtual, representando um segundo ponto de vista do segundo olho no meio físico virtual;
gerar a primeira imagem do meio físico virtual vista pela primeira câmera virtual; e
gerar a segunda imagem do meio físico virtual vista pela segunda câmera virtual.
Cláusula 4: O aparelho de acordo com a cláusula 1, compreendendo ainda:
um dispositivo de vídeo configurado para receber a primeira imagem e a segunda imagem, exibir a primeira imagem para o primeiro olho, e exibir a segunda imagem para o segundo olho.
Cláusula 5: O aparelho de acordo com a cláusula 4, em que o dispositivo de vídeo é selecionado de um sistema de exibição montado na cabeça, um sistema de exibição de obturador, um sistema de exibição de polarização, um sistema de exibição retinal e um sistema de exibição de Iente de contato.
Cláusula 6: O aparelho de acordo com a cláusula 4, em que o dispositivo de vídeo inclui:
um primeiro visor configurado para exibir a primeira imagem para o primeiro olho; e
um segundo visor configurado para exibir a segunda imagem pa
ra o segundo olho.
Cláusula 7: O aparelho de acordo com a cláusula 1, compreendendo ainda:
um sistema de rastreio de olho configurado para rastrear uma primeira posição do primeiro olho e rastrear uma segunda posição do segundo olho;
gerar as informações de posição do primeiro olho usando a primeira posição do primeiro olho; e
gerar as informações de posição do segundo olho usando a segunda posição do segundo olho.
Cláusula 8: O aparelho de acordo com a cláusula 2, compreendendo ainda: um rastreador de cabeça configurado para rastrear a posição de cabeça da cabeça e gerar as informações de posição da cabeça para a posição de cabeça da cabeça.
Cláusula 9: O aparelho de acordo com a cláusula 1, compreendendo ainda:
um controlador configurado para gerar o meio físico virtual. Cláusula 10: O aparelho de acordo com a cláusula 2, compreendendo ainda:
um avatar no meio físico virtual, em que o avatar representa a pessoa no meio físico virtual.
Cláusula 11:0 aparelho de acordo com a cláusula 10, compreendendo ainda:
um primeira câmera virtual associada com uma cabeça do avatar no meio físico virtual, em que a primeira câmera virtual é posicionada por uso das informações de posição do primeiro olho; e
um segunda câmera virtual associada com uma cabeça do avatar no meio físico virtual, em que a segunda câmera virtual é posicionada por uso das informações de posição do segundo olho.
Cláusula 12: O aparelho de acordo com a cláusula 11, em que a primeira câmera virtual e a segunda câmera virtual são posicionadas verticalmente usando as informações de posição da cabeça.
Cláusula 13: O aparelho de acordo com a cláusula 1, em que a primeira imagem proporciona um primeiro ponto de vista do meio físico virtual e a segunda imagem proporciona um segundo ponto de vista do meio físico virtual, em que o primeiro ponto de vista é diferente do segundo ponto de vista.
Cláusula 14: O aparelho de acordo com a cláusula 10, em que o avatar é movimentado dentro do meio físico virtual, para coincidir com uma posição da cabeça, usando as informações de posição da cabeça para a posição da cabeça.
Cláusula 15: O aparelho de acordo com a cláusula 1, em que as informações de posição do primeiro olho incluem um local do primeiro olho e uma orientação do primeiro olho, e as informações de posição do segundo olho incluem um local do segundo olho e uma orientação do segundo olho.
Cláusula 16: O aparelho de acordo com a cláusula 4, em que o dispositivo de vídeo é configurado para proporcionar uma vista de um meio físico virtual em torno da pessoa, além das primeira imagem e segunda imagem.
Cláusula 17: Um processo para exibir um meio físico virtual, o processo compreendendo:
receber as informações de posição do primeiro olho para um primeiro olho em uma cabeça de uma pessoa e as informações de posição do segundo olho para um segundo olho na cabeça da pessoa;
gerar uma primeira imagem do meio físico virtual para o primeiro olho, com base nas informações de posição do primeiro olho;
gerar uma segunda imagem do meio físico virtual para o segundo olho, com base nas informações de posição do segundo olho para o segundo olho; e
enviar a primeira imagem e a segunda imagem para exibição para a pessoa.
Cláusula 18: O processo de acordo com a cláusula 17, compreendendo ainda:
receber informações de posição da cabeça para uma posição de cabeça da cabeça da pessoa, em que gerar a primeira imagem compreende: gerar a primeira imagem do meio físico virtual para o primeiro oIho, com base nas informações de posição do primeiro olho para o primeiro olho e nas informações de posição da cabeça, em que gerar a segunda imagem compreende:
gerar a segunda imagem do meio físico virtual para o segundo olho, com base nas informações de posição do segundo olho para o segundo olho e nas informações de posição da cabeça.
Cláusula 19: O processo de acordo com a cláusula 17, compre
endendo ainda:
identificar uma primeira posição de uma primeira câmera virtual no meio físico virtual, representando um primeiro ponto de vista do primeiro olho no meio físico virtual, e uma segunda posição de uma segunda câmera virtual no meio físico virtual, representando um segundo ponto de vista do segundo olho no meio físico virtual, em que gerar a primeira imagem compreende:
gerar a primeira imagem do meio físico virtual vista pela primeira câmera virtual, em que gerar a segunda imagem compreende:
gerar a segunda imagem do meio físico virtual vista pela segunda câmera virtual.
Cláusula 20: O processo de acordo com a cláusula 17, compre
endendo ainda:
exibir a primeira imagem para o primeiro olho usando um dispositivo de vídeo; e
exibir a segunda imagem para o segundo olho usando o dispositivo de vídeo.
Cláusula 21: O processo de acordo com a cláusula 20, em que o dispositivo de vídeo é selecionado de um sistema de exibição montado na cabeça, um sistema de exibição de obturador, um sistema de exibição de polarização, um sistema de exibição retinal e um sistema de exibição de Iente de contato.
Cláusula 22: O processo de acordo com a cláusula 17, compreendendo ainda:
rastrear uma primeira posição do primeiro olho e uma segunda posição do segundo olho usando um sistema de rastreio de olho; e gerar as informações de posição do primeiro olho usando a pri
meira posição do primeiro olho e as informações de posição do segundo oIho do segundo olho.
Cláusula 23: O processo de acordo com a cláusula 20, em que o dispositivo de vídeo é configurado para proporcionar uma vista de um meio físico virtual em torno da pessoa, além da primeira imagem e segunda imagem.
A descrição das diferentes concretizações ilustrativas foi apresentada para fins de ilustração e descrição, e não se pretende que seja exaustiva ou limitada às concretizações na forma descrita. Muitas modificações e variações vão ser evidentes para aqueles versados na técnica. Ainda, diferentes concretizações ilustrativas podem proporcionar diferentes aspec5 tos, se comparadas com as outras concretizações ilustrativas. A concretização ou as concretizações selecionadas são escolhidas e descritas para melhor explicar os princípios das concretizações, a aplicação prática, e permitir que outras pessoas versadas na técnica entendam a descrição para as várias concretizações, com as várias modificações, como sendo adequadas 10 para o uso particular considerado.

Claims (15)

1. Aparelho, compreendendo: um processador de imagem (216) configurado para receber informações de posição (226) do primeiro olho (234), para um primeiro olho (234) em uma cabeça (236) de uma pessoa (206), e informações de posição do segundo olho (228), para um segundo olho (240) na cabeça (236) da pessoa (206); gerar uma primeira imagem (252) de um meio físico virtual (204) para o primeiro olho (234), com base nas informações de posição do primeiro olho (226) para o primeiro olho (234); gerar uma segunda imagem (254) do meio físico virtual (204) para o segundo olho (240), com base nas informações de posição do segundo olho (228) para o segundo olho (240); e enviar a primeira imagem (252) e a segunda imagem (254) para exibição para a pessoa (206).
2. Aparelho de acordo com a reivindicação 1, compreendendo ainda: um controlador (214) configurado para gerar o meio físico virtual (204); um rastreador de cabeça (405) configurado para rastrear a posição de cabeça (264) da cabeça (236) e gerar as informações de posição da cabeça (230) para a posição de cabeça da cabeça (236); e em que o processador de imagem (216) é configurado ainda para receber informações (230) de posição da cabeça (264) para uma posição de cabeça (264) da cabeça (236) da pessoa (206) e gerar a primeira imagem (252) do meio físico virtual (204) para o primeiro olho (234), com base nas informações de posição do primeiro olho (226) para o primeiro olho (234) e nas informações (230) de posição da cabeça (264), e gerar a segunda imagem (254) do meio físico virtual (204) para o segundo olho (240), com base nas informações de posição do segundo olho (228) para o segundo olho (240) e nas informações de posição da cabeça (230).
3. Aparelho de acordo com a reivindicação 1 ou 2, em que o dispositivo de vídeo é configurado para proporcionar uma vista de um meio físico (202) em torno da pessoa (206), além da primeira imagem (252) e da segunda imagem (254); e em que o processador de imagem (216) é configurado para: identificar uma primeira posição (256) de uma primeira câmera virtual (244) no meio físico virtual (204), representando um primeiro ponto de vista (258) do primeiro olho (234) no meio físico virtual (204), e uma segunda posição (260) de uma segunda câmera virtual (246) no meio físico virtual (204), representando um segundo ponto de vista (262) do segundo olho (240) no meio físico virtual (204); gerar a primeira imagem (252) do meio físico virtual (204) vista pela primeira câmera virtual (244); e gerar a segunda imagem (254) do meio físico virtual (204) vista pela segunda câmera virtual (246).
4. Aparelho de acordo com qualquer uma das reivindicações de 1 a 3, compreendendo ainda: um dispositivo de vídeo (220) configurado para receber a primeira imagem (252) e a segunda imagem (254), exibir a primeira imagem (252) para o primeiro olho (234), e exibir a segunda imagem (254) para o segundo olho (240); e em que o dispositivo de vídeo (220) inclui: um primeiro visor (512) configurado para exibir a primeira imagem (252) para o primeiro olho (234); e um segundo visor (514) configurado para exibir a segunda imagem (254) para o segundo olho (240).
5. Aparelho de acordo com qualquer uma das reivindicações de 1 a 4, compreendendo ainda: um sistema de rastreio de olho (402) configurado para rastrear uma primeira posição (256) do primeiro olho (234) e rastrear uma segunda posição (260) do segundo olho (240); g erar as informações de posição do primeiro olho (226) usando a primeira posição (256) do primeiro olho (234); e gerar as informações de posição do segundo olho (228) usando a segunda posição (260) do segundo olho (240).
6. Aparelho de acordo com qualquer uma das reivindicações de 2 a 5, compreendendo ainda: um avatar (248) no meio físico virtual (204), em que o avatar (248) representa a pessoa (206) no meio físico virtual (204); um primeira câmera virtual (244) associada com uma cabeça (250) do avatar (248) no meio físico virtual (204), em que a primeira câmera virtual (244) é posicionada por uso das informações de posição do primeiro olho (226); um segunda câmera virtual (246) associada com a cabeça (250) do avatar (248) no meio físico virtual (204), em que a segunda câmera virtual (246) é posicionada por uso das informações de posição do segundo olho (228); em que a primeira câmera virtual (244) e a segunda câmera virtual (246) são posicionadas verticalmente usando as informações de posição da cabeça (230); e em que o avatar (248) é movimentado dentro do meio físico virtual (204), para coincidir com uma posição da cabeça (236), usando as informações de posição da cabeça (230) para a posição da cabeça (250).
7. Aparelho de acordo com qualquer uma das reivindicações de 1 a 6, em que a primeira imagem (252) proporciona um primeiro ponto de vista (258) do meio físico virtual (204) e a segunda imagem (254) proporciona um segundo ponto de vista (262) do meio físico virtual (204), em que o primeiro ponto de vista (258) é diferente do segundo ponto de vista (262).
8. Aparelho de acordo com qualquer uma das reivindicações de 1 a 7, em que as informações de posição do primeiro olho (226) incluem um local do primeiro olho (226) e uma orientação do primeiro olho (234), e as informações de posição do segundo olho (228) incluem um local do segundo olho (240) e uma orientação do segundo olho (240).
9. Processo para exibir um meio físico virtual (204), o processo compreendendo: receber as informações de posição do primeiro olho (226) para um primeiro olho (234) em uma cabeça (236) de uma pessoa (206) e as informações de posição do segundo olho (228) para um segundo olho (240) na cabeça (236) da pessoa (206); gerar uma primeira imagem (252) do meio físico virtual (204) para o primeiro olho (234), com base nas informações de posição do primeiro olho (226); gerar uma segunda imagem (254) do meio físico virtual (204) para o segundo olho (240), com base nas informações de posição do segundo olho (228) para o segundo olho (240); e enviar a primeira imagem (252) e a segunda imagem (254) para exibição para a pessoa (206).
10. Processo de acordo com a reivindicação 9, compreendendo ainda: receber informações de posição da cabeça (230) para uma posição de cabeça (264) da cabeça (236) da pessoa (206), em que gerar a primeira imagem (252) compreende: gerar a primeira imagem (252) do meio físico virtual (204) para o primeiro olho (234), com base nas informações de posição do primeiro olho (226) para o primeiro olho (234) e nas informações de posição da cabeça (230), em que gerar a segunda imagem (254) compreende: gerar a segunda imagem do meio físico virtual (204) para o segundo olho (240), com base nas informações de posição do segundo olho (228) para o segundo olho (240) e nas informações de posição da cabeça (230).
11. Processo de acordo com a reivindicação 9 ou 10, compreendendo ainda: identificar uma primeira posição (256) de uma primeira câmera virtual (244) no meio físico virtual (204), representando um primeiro ponto de vista (258) do primeiro olho (234) no meio físico virtual (204), e uma segunda posição (260) de uma segunda câmera virtual (246) no meio físico virtual (204), representando um segundo ponto de vista (262) do segundo olho (240) no meio físico virtual (204), em que gerar a primeira imagem (252) compreende: gerar a primeira imagem (252) do meio físico virtual (204) vista pela primeira câmera virtual (244), em que gerar a segunda imagem (254) compreende: gerar a segunda imagem (254) do meio físico virtual (204) vista pela segunda câmera virtual (246).
12. Processo de acordo com qualquer uma das reivindicações de 9 a 11, compreendendo ainda: exibir a primeira imagem (252) para o primeiro olho (234) usando um dispositivo de vídeo (220); e exibir a segunda imagem (254) para o segundo olho (240) usando o dispositivo de vídeo (220).
13. Processo de acordo com a reivindicação 12, em que o dispositivo de vídeo (220) é selecionado de um sistema de exibição montado na cabeça (302), um sistema de exibição de obturador (304), um sistema de exibição de polarização (306), um sistema de exibição retinal (308) e um sistema de exibição de lente de contato (310).
14. Processo de acordo com qualquer uma das reivindicações de 9 a 13, compreendendo ainda: rastrear uma primeira posição (256) do primeiro olho (234) e uma segunda posição (260) do segundo olho (240) usando um sistema de rastreio de olho (402); e gerar as informações de posição do primeiro olho (226) usando a primeira posição (256) do primeiro olho (234) e as informações de posição do segundo olho (228) do segundo olho (240).
15. Processo de acordo com qualquer uma das reivindicações de 12 a 14, em que o dispositivo de vídeo (220) é configurado para proporcionar uma vista de um meio físico virtual (202) em torno da pessoa (206), além da primeira imagem (252) e segunda imagem (254).
BR102013027355-4A 2012-10-26 2013-10-24 Aparelho e processo para exibir um meio físico virtual BR102013027355B1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/661,971 2012-10-26
US13/661,971 US9058053B2 (en) 2012-10-26 2012-10-26 Virtual reality display system

Publications (2)

Publication Number Publication Date
BR102013027355A2 true BR102013027355A2 (pt) 2014-10-21
BR102013027355B1 BR102013027355B1 (pt) 2022-03-22

Family

ID=49552159

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102013027355-4A BR102013027355B1 (pt) 2012-10-26 2013-10-24 Aparelho e processo para exibir um meio físico virtual

Country Status (9)

Country Link
US (1) US9058053B2 (pt)
EP (1) EP2725457B1 (pt)
JP (1) JP6226697B2 (pt)
KR (1) KR102118749B1 (pt)
CN (1) CN103793049B (pt)
AU (1) AU2013224653B2 (pt)
BR (1) BR102013027355B1 (pt)
CA (1) CA2825563C (pt)
RU (1) RU2664397C2 (pt)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9264702B2 (en) * 2013-08-19 2016-02-16 Qualcomm Incorporated Automatic calibration of scene camera for optical see-through head mounted display
US9551873B2 (en) * 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
KR20150141461A (ko) * 2014-06-10 2015-12-18 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
CN104463956B (zh) * 2014-11-21 2017-05-10 中国科学院国家天文台 一种月表虚拟场景构建方法及装置
US9626783B2 (en) * 2015-02-02 2017-04-18 Kdh-Design Service Inc. Helmet-used device capable of automatically adjusting positions of displayed information and helmet thereof
US10176638B2 (en) * 2015-05-18 2019-01-08 Dreamworks Animation L.L.C. Method and system for calibrating a virtual reality system
JP5876607B1 (ja) * 2015-06-12 2016-03-02 株式会社コロプラ フローティング・グラフィカルユーザインターフェース
US10095306B2 (en) * 2015-06-15 2018-10-09 Harman International Industries, Incorporated Passive magnetic head tracker
JP2017027477A (ja) 2015-07-24 2017-02-02 株式会社オプティム 3次元出力サーバ、3次元出力方法及び3次元出力サーバ用プログラム。
KR101808852B1 (ko) * 2015-08-18 2017-12-13 권혁제 가상현실 헤드셋을 이용한 안경 렌즈 비교 시뮬레이션 시스템 및 그 방법
US10353219B1 (en) 2015-08-20 2019-07-16 Verily Life Sciences Llc Device, method and system to provide accommodation during a stereoscopic display
EP3148188A1 (en) * 2015-09-24 2017-03-29 Airbus Operations GmbH Virtual windows for airborne verhicles
EP3148186A1 (en) 2015-09-24 2017-03-29 Airbus Operations GmbH Virtual windows for airborne vehicles
WO2017062268A1 (en) * 2015-10-04 2017-04-13 Thika Holdings Llc Eye gaze responsive virtual reality headset
CN106681674A (zh) * 2015-11-05 2017-05-17 丰唐物联技术(深圳)有限公司 一种虚拟现实显示器的显示控制方法及系统
US10013055B2 (en) * 2015-11-06 2018-07-03 Oculus Vr, Llc Eye tracking using optical flow
EP3185535A1 (en) 2015-12-22 2017-06-28 Thomson Licensing Method and apparatus for controlling a discrepant aiming direction of a camera
WO2017114834A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
US10786319B2 (en) * 2015-12-29 2020-09-29 Koninklijke Philips N.V. System, control unit and method for control of a surgical robot
US10430988B2 (en) 2016-06-03 2019-10-01 Facebook Technologies, Llc Facial animation using facial sensors within a head-mounted display
JP6560463B1 (ja) * 2016-06-03 2019-08-14 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc ヘッドマウントディスプレイ内の顔センサを使用する顔および目のトラッキングおよび顔アニメーション
US9959678B2 (en) 2016-06-03 2018-05-01 Oculus Vr, Llc Face and eye tracking using facial sensors within a head-mounted display
CN109952550A (zh) * 2016-06-16 2019-06-28 弗伊德有限责任公司 组合的虚拟和物理环境中的重定向移动
US10773179B2 (en) 2016-09-08 2020-09-15 Blocks Rock Llc Method of and system for facilitating structured block play
US10649233B2 (en) 2016-11-28 2020-05-12 Tectus Corporation Unobtrusive eye mounted display
US11348475B2 (en) 2016-12-09 2022-05-31 The Boeing Company System and method for interactive cognitive task assistance
US10237537B2 (en) 2017-01-17 2019-03-19 Alexander Sextus Limited System and method for creating an interactive virtual reality (VR) movie having live action elements
US10438394B2 (en) 2017-03-02 2019-10-08 Colopl, Inc. Information processing method, virtual space delivering system and apparatus therefor
JP6212666B1 (ja) * 2017-03-02 2017-10-11 株式会社コロプラ 情報処理方法、プログラム、仮想空間配信システム及び装置
CN106959516A (zh) * 2017-05-02 2017-07-18 广州蜃境信息科技有限公司 一种基于双屏显示增强现实技术眼镜
JP6738308B2 (ja) * 2017-08-01 2020-08-12 株式会社コロプラ 情報処理方法、プログラム、仮想空間配信システム及び装置
CN107516335A (zh) * 2017-08-14 2017-12-26 歌尔股份有限公司 虚拟现实的图形渲染方法和装置
US10585277B2 (en) * 2017-08-31 2020-03-10 Tobii Ab Systems and methods for tracking a gaze of a user across a multi-display arrangement
US11303814B2 (en) * 2017-11-09 2022-04-12 Qualcomm Incorporated Systems and methods for controlling a field of view
US10673414B2 (en) 2018-02-05 2020-06-02 Tectus Corporation Adaptive tuning of a contact lens
US10580349B2 (en) 2018-02-09 2020-03-03 Tectus Corporation Backplane for eye-mounted display
US10505394B2 (en) 2018-04-21 2019-12-10 Tectus Corporation Power generation necklaces that mitigate energy absorption in the human body
US10838239B2 (en) 2018-04-30 2020-11-17 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10895762B2 (en) 2018-04-30 2021-01-19 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10790700B2 (en) 2018-05-18 2020-09-29 Tectus Corporation Power generation necklaces with field shaping systems
US11137622B2 (en) 2018-07-15 2021-10-05 Tectus Corporation Eye-mounted displays including embedded conductive coils
US10529107B1 (en) 2018-09-11 2020-01-07 Tectus Corporation Projector alignment in a contact lens
US10838232B2 (en) 2018-11-26 2020-11-17 Tectus Corporation Eye-mounted displays including embedded solenoids
US11089279B2 (en) * 2018-12-06 2021-08-10 Htc Corporation 3D image processing method, camera device, and non-transitory computer readable storage medium
US10644543B1 (en) 2018-12-20 2020-05-05 Tectus Corporation Eye-mounted display system including a head wearable object
US10499044B1 (en) 2019-05-13 2019-12-03 Athanos, Inc. Movable display for viewing and interacting with computer generated environments
US10944290B2 (en) 2019-08-02 2021-03-09 Tectus Corporation Headgear providing inductive coupling to a contact lens
CN110515461A (zh) * 2019-08-23 2019-11-29 Oppo广东移动通信有限公司 交互方法、头戴设备、交互系统和存储介质
CN113760085A (zh) * 2020-06-03 2021-12-07 李连波 虚拟环境构建和应用方法、vr设备及虚拟现实交互系统
CA3183360A1 (en) * 2020-06-22 2021-12-30 Nikolaus TROJE System and method for determining directionality of imagery using head tracking
CN112505917A (zh) * 2020-12-09 2021-03-16 Oppo广东移动通信有限公司 一种图像显示装置和近眼显示设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195131A (ja) * 1997-12-26 1999-07-21 Canon Inc 仮想現実方法及び装置並びに記憶媒体
JP3425402B2 (ja) * 2000-01-31 2003-07-14 独立行政法人通信総合研究所 立体画像を表示する装置および方法
US7091929B2 (en) 2001-03-16 2006-08-15 Hewlett-Packard Development Company, L.P. Method and apparatus for displaying images
US6529331B2 (en) * 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
GB2375188B (en) * 2001-04-30 2004-07-21 Samsung Electronics Co Ltd Wearable Display Apparatus with Waveguide Having Diagonally Cut End Face
US7084838B2 (en) * 2001-08-17 2006-08-01 Geo-Rae, Co., Ltd. Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse
US9030532B2 (en) * 2004-08-19 2015-05-12 Microsoft Technology Licensing, Llc Stereoscopic image display
US8130260B2 (en) * 2005-11-09 2012-03-06 Johns Hopkins University System and method for 3-dimensional display of image data
RU2326419C1 (ru) * 2006-09-05 2008-06-10 Олег Леонидович Головков Виртуальный шлем и устройство для его реализации
US9891435B2 (en) * 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
US20080106489A1 (en) * 2006-11-02 2008-05-08 Brown Lawrence G Systems and methods for a head-mounted display
US7948450B2 (en) * 2006-11-09 2011-05-24 D3 Led, Llc Apparatus and method for allowing display modules to communicate information about themselves to other display modules in the same display panel
JP4793451B2 (ja) * 2009-01-21 2011-10-12 ソニー株式会社 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
US8913056B2 (en) 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax

Also Published As

Publication number Publication date
JP6226697B2 (ja) 2017-11-08
AU2013224653B2 (en) 2019-05-02
KR20140053765A (ko) 2014-05-08
CN103793049A (zh) 2014-05-14
RU2664397C2 (ru) 2018-08-17
RU2013147677A (ru) 2015-04-27
US9058053B2 (en) 2015-06-16
BR102013027355B1 (pt) 2022-03-22
CN103793049B (zh) 2018-11-13
EP2725457A2 (en) 2014-04-30
AU2013224653A1 (en) 2014-05-15
CA2825563A1 (en) 2014-04-26
EP2725457B1 (en) 2019-07-03
EP2725457A3 (en) 2016-08-17
KR102118749B1 (ko) 2020-06-04
US20140118357A1 (en) 2014-05-01
CA2825563C (en) 2017-03-21
JP2014086091A (ja) 2014-05-12

Similar Documents

Publication Publication Date Title
BR102013027355A2 (pt) Sistema de exibição de realidade virtual
EP3631567B1 (en) Eye tracking calibration techniques
CN106575039B (zh) 具有确定用户眼镜特性的眼睛跟踪设备的平视显示器
CN106537261B (zh) 全息键盘显示
US11861062B2 (en) Blink-based calibration of an optical see-through head-mounted display
KR101789357B1 (ko) 증강 현실 시스템 및 개선된 초점 제공 방법
CN110169822A (zh) 用于与机器人外科手术系统一起使用的增强现实导航系统及其使用方法
US20170148215A1 (en) Eye Tracking for Mitigating Vergence and Accommodation Conflicts
CN115380264A (zh) 用于大规模环境的交叉现实系统
CN108136258A (zh) 基于跟踪眼部运动来调整图像帧
EP3732554B1 (en) Using tracking of display device to control image display
US20170123488A1 (en) Tracking of wearer's eyes relative to wearable device
CN109313495A (zh) 融合惯性手持控制器与手动跟踪的六自由度混合现实输入
ES2746448T3 (es) Realidad mediada
CN106415364A (zh) 立体渲染至眼睛位置
CN105850113A (zh) 虚拟现实系统的校准
CN103744518A (zh) 立体交互方法及其显示装置和系统
US20210183102A1 (en) Raycast calibration for artificial reality head-mounted displays
US20230185369A1 (en) Eye tracking using alternate sampling
Madritsch Correct spatial visualisation using optical tracking
Mennes et al. Design of fault-tolerant genetic algorithm for application placement in heterogeneous cloud environments Master Thesis
Rushton et al. Stereo depth and the control of locomotive heading

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 24/10/2013, OBSERVADAS AS CONDICOES LEGAIS.