BRPI1010413A2 - Sistema de visualização e métodos para otimização de visualização baseada no rastreamento ativo - Google Patents

Sistema de visualização e métodos para otimização de visualização baseada no rastreamento ativo Download PDF

Info

Publication number
BRPI1010413A2
BRPI1010413A2 BRPI1010413-5A2A BRPI1010413A BRPI1010413A2 BR PI1010413 A2 BRPI1010413 A2 BR PI1010413A2 BR PI1010413 A BRPI1010413 A BR PI1010413A BR PI1010413 A2 BRPI1010413 A2 BR PI1010413A2
Authority
BR
Brazil
Prior art keywords
frame
monitor
video
interfacing
user
Prior art date
Application number
BRPI1010413-5A2A
Other languages
English (en)
Inventor
Gary M Zalewski
Original Assignee
Sony Comp Entertainment Us
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Comp Entertainment Us filed Critical Sony Comp Entertainment Us
Publication of BRPI1010413A2 publication Critical patent/BRPI1010413A2/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/354Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying sequentially
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8088Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game involving concurrently several players in a non-networked game, e.g. on the same game console
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/403Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being monoscopic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Liquid Crystal (AREA)

Abstract

SISTEMA DE VISUALIZAÇÃO E MÉTODOS PARA OTIMIZAÇÃO DE VISUALIZAÇÃO BASEADA NO RASTREAMENTO ATIVO Foi desenvolvido um aparelho para fazer a interface com uma tela. O aparelho inclui uma armação. A armação inclui (a) um par de lentes obturadoras, (b) uma lâmpada acoplada á armação; e (b) um circuito integrado à armação para controlar o par de lentes obturadoras e controlar a lâmpada acoplada à armação. O circuito é configurado para comunicar-se com um dispositivo que permita a sincronização das lentes obturadoras e do monitor. A luz da lâmpada é analisada para determinar a posição da armação em relação ao monitor, e a posição é usada para provocar um ajuste na saida do monitor quando vista da perspectiva da posição da armação.

Description

Relatório Descritivo da Patente de Invenção para "SISTEMA DE VISUALIZAÇÃO E MÉTODOS PARA OTIMIZAÇÃO DE VISUALIZAÇÃO BASEADA NO RASTREAMENTO ATIVO"
A presente invenção refere-se a sistemas que incorporam uma tela, como os utilizados em monitores de televisão ou vídeo, monitores de computadores ou sistemas de videojogos.
Descrição do estado da técnica
Atualmente, a maioria dos monitores somente consegue exibir um tipo de informação, seja ela vídeo, programa de televisão, jogo, etc. para todas as pessoas que estiverem vendo esse monitor. Por exemplo, todos os jogadores de um dado videojogo vêem as mesmas imagens no monitor e, dessa forma, diferentes informações visuais não podem ser fornecidas aos diferentes jogadores, exceto se for usado um sistema mais complexo e caro, como um monitor instalado na cabeça dos jogadores.
Analogamente, os sistemas atuais que permitem a visualização de mais de um programa, jogo ou vídeo ao mesmo tempo requer que todas as pessoas vejam as imagens exibidas por cada um dos programas, jogos ou vídeos, seja por meio da divisão da imagem da tela ou pela inserção de uma imagem dentro da imagem. Adicionalmente, a parte do áudio de apenas um desses programas, jogos ou vídeos poderá ser apresentada por vez para que ela possa ser ouvida.
É, portanto, desejável proporcionar um sistema de "compartilhamento de telas" no qual duas ou mais pessoas que utilizam o mesmo monitor possam ver imagens diferentes, de tal forma que uma não precise ver as imagens destinadas à outra pessoa. Também é desejável proporcionar um sistema que possa ser configurado para que cada usuário que esteja "compartilhando" uma tela com outro, consiga receber a parte de áudio associada com as imagens ou conteúdo que estiver sendo visto por cada um dos usuários.
Objetivos e breve descrição da invenção
Foi desenvolvido um aparelho para interface com uma tela. O aparelho inclui uma armação. A armação inclui (a) um par de lentes obturadoras, (b) uma lâmpada acoplada à armação; e (b) um circuito integrado à armação para controlar o par de lentes obturadoras e controlar a lâmpada acoplada à armação. O circuito é configurado para comunicar-se com um dispositivo que permita a sincronização das lentes obturadoras e do monitor. A luz da lâmpada é analisada para determinar a posição da armação em relação ao monitor, e a posição é usada para provocar um ajuste na saída do monitor quando vista da perspectiva da posição da armação.
A presente invenção ainda proporciona um sistema no qual um monitor alternativamente exibe imagens de, pelo menos, dois sinais de vídeo onde, um dispositivo de filtragem sincronizada e obturada é usado para que somente sejam vistas as imagens de um dos sinais de vídeo. Um "sinal de vídeo" pode significar qualquer conteúdo ou fluxo de vídeo, canal, saída de jogo, TV a cabo, saída de vídeo de um equipamento eletrônico doméstico, reprodutor de DVR ou DVD, filme, vídeo de paralaxe esquerdo, vídeo de paralaxe direito, etc. Os "sinais de vídeo" podem ser oriundos de canais individuais ou múltiplos. Os sinais de vídeo podem ser transmitidos por um ou mais cabos físicos ou através de um ou mais barramentos internos, ou através de quaisquer meios conhecidos para a transmissão de imagens de vídeo, etc.
Foi desenvolvido um aparelho para fazer a interface com uma tela. O aparelho inclui uma armação. A armação inclui (a) um par de lentes obturadoras, (b) uma lâmpada acoplada à armação; e (b) um circuito integrado à armação para controlar o par de lentes obturadoras e controlar a lâmpada acoplada à armação. O circuito é configurado para comunicar-se com um dispositivo que permita a sincronização das lentes obturadoras e do monitor. A luz da lâmpada é analisada para determinar a posição da armação em relação ao monitor, e a posição é usada para provocar um ajuste na saída do monitor quando vista da perspectiva da posição da armação.
O "compartilhamento de telas" aqui descrito pode, geralmente, fazer referência a uma configuração de compartilhamento de tempo no qual um único usuário pode ver o conteúdo 3D ou múltiplos usuários podem, simultaneamente, ver a programação em um único televisor utilizando as dimensões de tela cheia e usando os óculos obturadores para coordenar a visão do usuário das seqüências de programação. De acordo com um aspecto da invenção, os respectivos sinais de vídeo são enviados a, pelo menos, dois telespectadores que usam um monitor comum. O monitor será controlado para, alternativamente, exibir uma imagem do primeiro sinal de vídeo e uma imagem do segundo sinal de vídeo. Um primeiro filtro obturado estará sincronizado com o monitor de tal forma que o primeiro filtro seja obturado quando a imagem do segundo sinal de vídeo for exibida, e um segundo filtro obturado estará sincronizado com o monitor de tal forma que o segundo filtro obturado quando a imagem do primeiro sinal de vídeo for exibida. Dessa forma, somente a imagem do primeiro sinal de vídeo será exibida para o primeiro telespectador que estiver usando o primeiro filtro obturado e somente a imagem do segundo sinal de vídeo será exibida para o segundo telespectador que estiver usando o segundo filtro obturado.
A presente invenção pode ser usada para resolver o problema da imagem dividida dos jogos com dois participantes quando as telas tradicionais são divididas em duas partes e os jogadores sentam-se lado-a-lado e jogam o jogo vendo uma única tela com ambas as perspectivas dos dois participantes, sendo que cada uma delas ocupa metade da tela. A presente invenção pode ser configurada para permitir que ambos os jogadores possam ver a dimensão de tela cheia a partir da sua perspectiva do jogo. Ela também proporciona menos distrações, uma vez que a presente invenção evita a necessidade de um jogador ver a perspectiva do outro jogador na tela. Assim sendo, de acordo com outro aspecto da invenção, um videojogo seria visualizado por pelo menos dois jogadores usando o mesmo monitor. O monitor será controlado para, alternativamente, exibir uma imagem de tela cheia de acordo com uma primeira perspective de um videojogo e uma imagem em tela cheia de acordo com uma segunda perspectiva do videojogo. Um par de óculos com obturador de LCD estará sincronizado com o monitor para que o primeiro jogador, que estiver usando o primeiro par de óculos com obturador de LCD, poderá jogar vendo apenas a primeira perspectiva. Um segundo par de óculos com_obturador de LCD estará sincronizado com o monitor para que o segundo jogador, que estiver usando o segundo par de óculos com obturador de LCD, poderá jogar vendo apenas a segunda perspectiva. Ainda de acordo com outro aspecto da invenção, um videojogo poderá ser exibido a um primeiro usuário enquanto que um programa em vídeo será simultaneamente exibido para um segundo usuário que estiver vendo o mesmo monitor. O monitor será controlado para, alternativamente, exibir uma imagem do videojogo e uma imagem do programa em vídeo. Um primeiro par de óculos com obturador de LCD estará sincronizado com o monitor para que o primeiro usuário, que estiver usando o primeiro par de óculos com obturador de LCD, possa jogar apenas o videojogo. Um segundo par de óculos com obturador de LGD estará sincronizado com o monitor para que o segundo usuário, que estiver usando o segundo par de óculos com obturador de LCD, possa ver o programa em vídeo, apenas.
Os aspectos, características e vantagens da presente invenção também serão discutidos em relação à seguinte descrição detalhada e respectivos desenhos.
Descrição resumida dos desenhos
A FIGURA 1 é um diagrama que ilustra um exemplo de monitor e respectivos pares de óculos com obturador de LCD que funcionam de acordo com um aspecto da invenção.
A FIGURA 2 é um diagrama que mostra a seqüência de quadros apresentados pelo monitor da FIGURA 1 e exibe os quadros vistos por cada um dos usuários dos pares de óculos com obturador de LCD, de acordo com um aspecto da invenção.
As FIGURAS 3A-3C são diagramas que ilustram as várias possibilidades de um sistema de acordo com um aspecto da invenção.
A FIGURA 4 é desenho esquemático de pessoas vendo diferentes conteúdos de áudio/vídeo na mesma tela, de acordo com um aspecto da invenção.
A FIGURA 5 é uma vista isométrica dos óculos e fones de ouvido, de acordo com um aspecto da invenção.
A FIGURA 6 é um diagrama de blocos dos óculos, de acordo com um aspecto da invenção. A FIGURA 7 é um diagrama de blocos do aparelho de compartilhamento de telas que se comunica com um televisor ou monitor e entradas múltiplas, de acordo com um aspecto da invenção.
As FIGURAS 8A e 8B são diagramas de blocos do aparelho de compartilhamento de telas contido em um componente sobre o aparelho e console de jogos, respectivamente.
A FIGURA 9 é um fluxograma do conteúdo de áudio/vídeo que é simultaneamente disponibilizado para múltiplos usuários, de acordo com um aspecto da invenção.
A FIGURA 10 é um fluxograma do conteúdo de áudio/vídeo que é
simultaneamente disponibilizado para múltiplos usuários, de acordo com um aspecto da invenção.
A FIGURA 11 é um fluxograma do conteúdo 3D disponibilizado para um usuário, de acordo com um aspecto da invenção.
A FIGURA 12 é um fluxograma dos diferentes conteúdos de jogos
disponibilizados para múltiplos usuários, de acordo com um aspecto da invenção.
A FIGURA 13 é um fluxograma dos diferentes canais de televisão disponibilizados para múltiplos usuários, de acordo com um aspecto da invenção.
A FIGURA 14 é um fluxograma dos diferentes conteúdos de áudio/vídeo disponibilizados para múltiplos usuários, de acordo com um aspecto da invenção.
A FIGURA 15 é um fluxograma dos diferentes conteúdos de áudio/vídeo disponibilizados para múltiplos usuários, de acordo com um aspecto da invenção.
A FIGURA 16 é um fluxograma dos conteúdos de áudio/vídeo de jogo e televisão disponibilizado para múltiplos usuários, de acordo com um aspecto da invenção.
A FIGURA 17 é um fluxograma do conteúdo do mesmo jogo, disponibilizado para os usuários em 3D e das perspectivas particulares de cada usuário, de acordo com um aspecto da invenção. A FIGURA 18 é um fluxograma do conteúdo de jogo disponibilizado para um usuário em 3D, e um filme (ou outro conteúdo de áudio/vídeo) disponibilizado para um diferente usuário em 3D, de acordo com um aspecto da invenção.
A FIGURA 19 é um fluxograma do conteúdo de jogo disponibilizado para um usuário em 3D, e um filme (ou outro conteúdo de áudio/vídeo) disponibilizado para outro usuário em 2D, de acordo com um aspecto da invenção.
As FIGURAS 20A-20F definem as possibilidades do equipamento e método de rastreamento, para utilização com os óculos com obturador de LCD.
As FIGURAS 21A-21C ilustram exemplos de óculos com lâmpadas para rastreamento.
As FIGURAS 22A-22B ilustram exemplos de rastreamento de óculos e câmaras integradas aos óculos para proporcionar dados adicionais de posição e orientação.
As FIGURAS 23A-23E ilustram configurações nas quais os óculos incluem lâmpadas e câmaras, de acordo com exemplos da presente invenção.
As FIGURAS 24 e 25 ilustram usuários em movimento enquanto as suas posições são detectadas para efetuar ajustes nas imagens exibidas, no ajuste de para Iaxe.
A FIGURA 26 ilustra o hardware e as interfaces de usuários que podem ser usados para determinar a posição do controlador, de acordo com uma configuração da presente invenção.
A FIGURA 27 ilustra hardware adicional que pode ser usado para processar instruções, de acordo com uma configuração da presente invenção.
A FIGURA 28 é uma representação, do cenário A ao E, com os respectivos usuários interagindo com os clientes dos jogos que estão conectados ao processamento do servidor via internet, de acordo com uma configuração da presente invenção.
Descrição detalhada das figuras
A presente invenção proporciona varias conriguraçoes, nas quais são usadas óculos com obturador de LCD. Essas configurações permitem o uso de um único monitor para apresentar os diferentes sinais de vídeo para dois ou mais usuários, de tal forma que cada telespectador somente veja as imagens do sinal de vídeo a ele destinadas. A invenção também permite que cada usuário ouça apenas os sons associados com o respectivo sinal de vídeo. As configurações também permitem o rastreamento de um usuário por meio do rastreamento dos óculos. Quando os óculos são rastreados, a informação de rastreamento poderá ser usada para efetuar ajustes e otimizações na paralaxe, de tal forma que a tela exibida seja otimizada para um usuário, com base na sua posição.
I. FILTRAGEM COM OBTURAÇÃO
A FIGURA 1 ilustra um exemplo da invenção no qual o primeiro sinal de vídeo, composto pelos quadros A, B, C,... e um segundo sinal de vídeo, formado pelos quadros 1, 2, 3,... são exibidos no mesmo monitor. O monitor exibe, alternadamente, uma imagem de cada sinal de vídeo, resultando na seqüência exibida das imagens A, 1, B, 2, C, 3,... conforme a parte superior da FIGURA 2.
Um primeiro filtro obturado, como o apresentado à esquerda dos dois pares de óculos com obturador de LCD, exibidos repetidamente na FIGURA 1, estará sincronizado com os quadros do primeiro sinal de vídeo. O primeiro filtro obturado abrirá quando os quadros do primeiro sinal de vídeo forem exibidos no monitor e será fechado quando os quadros do segundo sinal de vídeo forem exibidos no monitor. Uma visualização individual do monitor através do primeiro filtro obturado, por exemplo, usando o par de óculos com obturador de LCD à esquerda, somente enxergaria os quadros do primeiro sinal de vídeo e não veria os quadros do segundo sinal de vídeo, como mostra a parte inferior esquerda da FIGURA 2.
Um segundo filtro obturado, como o apresentado à direita dos dois pares de óculos com obturador de LCD, exibidos repetidamente na FIGURA 1, estará sincronizado com os quadros do segundo sinal de vídeo. O segundo filtro obturado abrirá quando os quadros do segundo sinal de vídeo forem exibidos no monitor e será fechado quando os quadros do primeiro sinal de vídeo forem exibidos no monitor. Assim sendo, uma visualização individual do monitor através do segundo filtro obturado, por exemplo, usando o par de óculos com obturador de LCD à direita, somente enxergaria os quadros do segundo sinal de vídeo e não veria os quadros do primeiro sinal de vídeo, como mostra a parte inferior direita da FIGURA 2.
As lentes de um par de óculos com obturador de LCD estarão simultaneamente abertas ou fechadas e estarão sincronizadas com as imagens de um dos sinais de vídeo exibidos, permitindo que o telespectador veja as imagens desse sinal de vídeo.
Cada telespectador também poderá ter um alto-falante que somente emitirá os sinais de áudio para o sinal de vídeo destinado a esse telespectador. Um primeiro sinal de áudio associado ao primeiro sinal de vídeo disponibilizado para o telespectador do primeiro sinal de vídeo, um segundo sinal de áudio associado ao segundo sinal de vídeo disponibilizado para o telespectador do segundo sinal de vídeo. Como exemplo, cada par de óculos com obturador de LCD mostrado nas FIGS. 1 e 2 poderá ser equipado com um fone de ouvido que permitirá ao usuário ouvir os sons do vídeo que estiver sendo visto pelo usuário sem interferência dos sons enviados para o telespectador de outro sinal de vídeo.
Os óculos 501, de acordo com um aspecto da presente invenção, são mostrados na FIGURA 5. Os óculos podem incluir uma armação 505 para sustentar a lente de LCD esquerda 510 e a lente de LCD direita 512. Como foi anteriormente indicado, cada lente 510 e 512 poderá ser rápida e seletivamente escurecida para evitar que o usuário possa ver através das lentes. Os fones de ouvido esquerdo e direito 530 e 532 também estão preferivelmente conectados à armação 505. Uma antena 520, para enviar e receber informações sem-fio também poderá estar incluída na armação 505. Os óculos poderão ser rastreados por quaisquer meios para determinar se os óculos estão voltados para a tela. Por exemplo, a parte frontal dos óculos também poderá incluir um ou mais foto-detectores 540 para detectar a orientação dos óculos na direção do monitor.
Alternar a exibição de imagens a partir de um sinal de vídeo pode ser feito utilizando-se várias técnicas conhecidas. É preferível que a tela 410 seja configurada para trabalhar em um modo de varredura progressiva para cada sinal de vídeo que será compartilhado na tela. Entretanto, a presente invenção também poderá ser configurada para trabalhar com vídeos entrelaçados, como foi descrito. Para um televisor convencional, como aqueles que usam um formato NTSC ou PAL entrelaçado, as imagens dos dois sinais de vídeo podem ser entrelaçadas e as linhas de uma imagem de um sinal de vídeo podem ser encadeadas com as linhas de uma imagem de outro sinal de vídeo. Por exemplo, as linhas ímpares tiradas de uma imagem do primeiro sinal de vídeo são exibidas, enquanto serão exibidas as linhas pares de uma imagem do segundo sinal de vídeo.
Para aplicações nas quais as imagens de um ou mais sinais de vídeo devem dar aparência de movimento continuo, a freqüência na quai as imagens de ambos os sinais de vídeo são exibidas deverá ser maior do que aquela que o olho humano pode percéber. Assim sendo, as imagens de sinais de vídeo que utilizam entrelaçamento/encadeamento podem estar sujeitas a lampejos ou baixa resolução. Como alternativa, as imagens dos dois sinais de vídeo podem ser alternadamente apresentadas no monitor mediante a passa. Adicionalmente, um monitor com varredura progressiva também poderá ser usado em conjunto com "page flipping".
Um fluxograma dos óculos, de acordo com um aspecto da invenção encontra-se na FIGURA 6. Os óculos podem incluir um processador 602 que executa as instruções do programa 608 armazenado na memória 604. A memória 604 também pode armazenar dados a serem disponibilizados ou enviados pelo processador 602 bem como por quaisquer outros elementos de recuperação/armazenagem de informação dos óculos. O processador 602, a memória 604 e os outros elementos dos óculos podem se comunicar entre si por meio do barramento 606. Esses outros elementos podem incluir um LCD Driver 610 que fornece um sinal de acionamento que seletivamente comuta a abertura e o fechamento das lentes de LCD esquerda e direita 612 e 614. O LCD Driver pode atuar na lente de LCD esquerda e direita individualmente, em momentos e com durações diferentes, ou simultaneamente, no mesmo momento e com a mesma duração.
A freqüência através da qual as lentes de LCD são obtüradas pode ser previamente armazenada nos óculos (p.ex.: baseada nas freqüências conhecidas da NTSC). Alternativamente, a freqüência pode ser escolhida por meio de entrada de dados pelo usuário 616 (p.ex.: por meio de botões ou teclas para ajustar ou inserir a freqüência desejada). Adicionalmente, a freqüência desejada, bem como o tempo inicial do obturador, ou outras informações que indiquem o período de tempo durante o qual as lentes de LCD deverão ser obturadas, ou não, independente se tais períodos de tempo constituem uma freqüência e duração pré-definida, poderão ser transmitidos para os óculos por meio do transmissor/receptor sem-fio 601 ou por qualquer outro elemento de entrada. O transmissor/receptor sem-fio 601 pode compreender qualquer transmissor sem- fio, incluindo um transmissor/receptor Bluetooth=
O amplificador de áudio 616 também pode receber informações do transmissor/receptor sem-fio 601, ou seja, os canais de áudio esquerdo e direito para o alto-falante esquerdo 622 ou alto-falante direito 624. Os óculos também podem incluir um microfone 630. O microfone 630 pode ser usado junto com jogos que permitam a comunicação por voz, os sinais de voz poderão ser transmitidos para um console de jogos ou para outro dispositivo através do transmissor/receptor sem-fio 601.
Os óculos também podem incluir um ou mais foto-detectores 634. Os foto- detectores podem ser usados para determinar se os óculos estão voltados para o monitor. Por exemplo, os foto-detectores podem detectar a intensidade da luz que atinge os foto-detectores e transmitir a informação ao processador 602. Se o processador detectar uma queda substancial na intensidade da luz, que poderá ser relacionada com o usuário ter desviado o olhar do monitor, o processador poderá interromper a obturação das lentes. Outros métodos para determinar se os óculos (e, portanto, o usuário) estão voltados para o monitor também podem ser usados. Por exemplo, uma ou mais câmaras, no lugar dos foto-detectores podem ser usadas e as imagens capturadas, examinadas pelo processador 602 para determinar se os óculos estão voltados para o monitor. Apenas algumas das possíveis opções de uso desse tipo de câmara podem incluir a verificação dos níveis de contraste para detector se a câmara está apontada para o monitor ou tentar detectar padrões de teste de brilho no monitor. O dispositivo que fornece sinais múltiplos ao monitor pode indicar a presença desses padrões de teste ao transmitir informações ao processador 602 através do transmissor/receptor sem-fio 601. Um fluxograma de um aspecto do aparelho de compartilhamento de telas 710, que disponibiliza o vídeo a ser exibido, encontra-se na FIGURA 7. Uma entrada de áudio/vídeo 720 aceita duas ou mais entradas de áudio e vídeo, tais como, mas não limitada a e, preferencialmente, em qualquer combinação de TV a cabo 790, console de jogos 792, reprodutor de DVD 794, VCR 796 e um microcomputador 798. Entretanto, deve-se reconhecer para os fins desta invenção e um fluxo individual de vídeo possa representar dois "sinais de vídeo" ou entradas de vídeo. Esse fluxo individual de vídeo pode ser uma seqüência mutiplexada com divisão de tempo de quadros de vídeo caracterizados por dois, ou mais sinais ou entradas de vídeo. Adicionalmente, as entradas de vídeo não precisam ser provenientes de vários equipamentos. Um só equipamento pode ser capaz de disponibilizar dois ou mais sinais ou entradas de vídeo.
Referente ao mesmo exemplo, o processador 730 recupera e armazena dados na memória 740 e disponibiliza sinais aos outros elementos do aparelho de compartilhamento de telas. A saída de áudio/vídeo 750 multiplexa uma quantidade selecionada de sinais de vídeo a partir das entradas de vídeo de tal forma que dois ou mais desses sinais de vídeo sejam transmitidos de forma intercalada e seqüencial e em sucessão rápida em uma única saída de vídeo para o televisor ou monitor 780 (entende-se que essa única saída de sinal de vídeo pode, na verdade, compreender múltiplos sinais, incluindo sinais compostos ou coloridos). Informações referentes aos sinais multiplexados podem ser transmitidas pelo transmissor/receptor sem-fio 760 to para os óculos. Essas informações podem incluir a quantidade de entradas de vídeo selecionadas para a multiplexação, a freqüência da multiplexação, o momento em que um determinado sinal de vídeo é enviado para o televisor ou monitor 780, um identificador de que o sinal de vídeo está sendo exibido em um determinado momento, e outras informações. O sinal de áudio das entradas de áudio/vídeo 790-798 também pode ser transmitido sem fio desde o aparelho de compartilhamento de telas 710 para os óculos.
Embora o aparelho de compartilhamento de telas 710 seja esquematicamente apresentado como um elemento separado do televisor 780 e das entradas de vídeo na FIGURA 7, o aparelho pode se encontrar em uma ampla gama de dispositivos. Por exemplo, e como apresenta a FIGURA 8A, o aparelho de compartilhamento de telas 710 pode ser inserido em um componente sobre o aparelho com múltiplas entradas. Como mostra a FIGURA 8B, o aparelho de compartilhamento de telas também pode estar presente em um console de jogos com fontes internas múltiplas de áudio/vídeo, tais como dois compartimentos de discos 861, 862 (cada um deles capaz de ler o conteúdo de um jogo ou DVD).
Embora apenas dois sinais de vídeo e dois filtros obturados sejam mostrados nas FIGS. 1 e 2, a invenção também se aplica às configurações nas quais o monitor exiba mais do que dois sinais de vídeo e nos quais mais de dois filtros obturados e sincronizados sejam usados para permitir a visualização de cada um dos sinais de vídeo.
A FIGURA 3A ilustra uma configuração da invenção usada em um sistema de videojogo. Uma unidade de jogos armazena o software necessário para usar o videojogo e também controla as imagens enviadas para 6 monitor de um televisor ou de um computador. A unidade de jogos disponibiliza dois sinais de vídeo para o monitor e controla o monitor para que ele alternadamente exiba as imagens desses dois sinais de vídeo, como foi anteriormente descrito para as FIGS. 1 e 2. A unidade de jogos também está conectada a dois ou mais pares de óculos com obturador de LCD e sincroniza a operação de obturação de cada par de óculos com um dos sinais de vídeo. A conexão entre a unidade de jogos e os pares de óculos com obturador de LCD pode ser por meio de uma conexão física ou por uma conexão sem-fio usando, por exemplo, um protocolo de comunicação Bluetooth.
A configuração apresentada na FIGURA 3A, e na FIGURA 9, permite que cada jogador de um videojogo participe do jogo segundo a sua própria perspectiva. Um dos sinais de vídeo proporciona, ao primeiro jogador, uma vista particular das atividades do jogo e pode incluir informações visuais não disponibilizadas para o outro jogador. Analogamente, o outro sinal de vídeo proporciona ao segundo jogador uma vista diferente do mesmo jogo, adequada a esse participante. Cada jogador usa um par de óculos com obturador de LCD que está sincronizado com as imagens de um dos sinais de vídeo e somente permitirá que o jogador veja as imagens desse sinal de vídeo. Adicionalmente, se fones de ouvido forem fornecidos para cada jogador, o primeiro e o segundo jogadores podem ouvir sons e/ou instruções de áudio que não são disponibilizados para o outro jogador.
Como uma variação deste exemplo e, conforme a FIGURA 10, um terceiro par de óculos com obturador de LCD é adicionado e ele é controlado pela unidade de jogos para disponibilizar ao usuário um modo de espectador do videojogo onde ambas as imagens ao jogo podem ser vistas. O terceiro par de óculos com obturador de LCD pode, por exemplo, receber um sinal de vídeo em uma das lentes, enquanto que a outra lente recebe o segundo sinal de vídeo, semelhante ao sistema usado em uma aplicação 3D, resultando na visão combinada das imagens dos dois sinais de vídeo.
Outro exemplo, conforme a FIGURA 12, os dois sinais de vídeo trazem imagens de dois videojogos. A unidade de jogos controla o monitor para exibir, alternadamente, as imagens de cada perspectiva dos dois videojogos e sincronizar os dois pares de óculos com obturador de LCD para que cada um dos óculos apenas disponibilize uma vista dos videojogos. Com essa configuração, os dois videojogos podem ser jogados simultaneamente por diferentes jogadores que usarem a mesma unidade de jogos e o mesmo monitor.
A FIGURA 3B e a FIGURA 13 mostram outra configuração da invenção na qual o componente sobre o aparelho recebe vários canais de televisão (por exemplo, três canais exibindo os programas "Seinfeld", "Jeopardy" e "Dragon Tales", respectivamente) e/ou vídeos e controla o monitor para, alternadamente, exibir as imagens de cada programa e/ou vídeos. O componente sobre o aparelho controla cada um dos óculos com obturador de LCD para permitir que o seu usuário veja apenas um dos programas e/ou vídeos. A inclusão dos fones de ouvido permite a cada usuário escutar exclusivamente o som de cada programa ou vídeo que estiver sendo visto. Com essa configuração, duas ou mais pessoas podem ver e ouvir diférentes programas e/ou vídeos simultaneamente e na mesma sala, usando o mesmo monitor.
A invenção pode ser usada com qualquer número de sinais de vídeo. Por exemplo, o componente sobre o aparelho mostrado na FIGURA 3B pode ser configurado para receber quatro ou mais sinais de vídeo que são ciclicamente exibidos no monitor e, cada um dos sinais de vídeo está associado com um dos quatro diferentes pares de óculos com obturador de LCD controlados pelo componente sobre o aparelho e sincronizados com a visualização dos respectivos sinais de vídeo.
A FIGURA 3C e a FIGURA 14 mostram outra configuração da invenção na qual o componente sobre o aparelho recebe vários canais de televisão e/ou vídeos e também sstá conectado a uma unidade de jogos da qual recebe um sinal de videojogo. O componente sobre o aparelho controla o monitor para, alternadamente, exibir imagens do videojogo e as imagens do programa de televisão ou vídeo. A unidade de controle também sincroniza a obturação de um dos pares de óculos com obturador de LCD para permitir que o seu usuário veja o programa de televisão ou vídeo, além de sincronizar a obturação do outro par de óculos com obturador de LCD que permitirá ao seu usuário jogar o videojogo simultaneamente. Com esta configuração, uma pessoa vê e ouve um programa de televisão ou um vídeo ao mesmo tempo em que outra pessoa joga um videojogo, sendo que ambas as pessoas estão usando o mesmo monitor.
Em uma configuração alternativa, como mostra a FIGURA 15, o arranjo mostrado na FIGURA 3C pode incluir um terceiro par de óculos com obturador de LCD para permitir que duas pessoas joguem videojogo enquanto que uma terceira pessoa assiste a um programa de televisão ou vídeo no mesmo monitor. Os dois jogadores podem ver o videojogo da mesma perspectiva, nesse caso o componente sobre o aparelho controla o monitor para exibir, alternadamente, as imagens do videojogo e as imagens do programa de televisão ou vídeo. O componente sobre o aparelho sincroniza a obturação dos dois pares de óculos com obturador de LCD usados pelos jogadores com intervalos durante os quais o videojogo é exibido, para que os jogadores somente possam ver o videojogo.
Outra alternativa é mostrada na FIGURA 16 utilizando a configuração apresentada na FIGURA 3C, cada um dos jogadores do videojogo usa o monitor para ver o jogo com uma perspectiva diferente do outro, e uma terceira pessoa vê e ouve um programa de televisão ou vídeo simultaneamente, usando o mesmo monitor. O componente sobre o aparelho controla o monitor para que ele ciclicamente exiba, por exemplo, uma imagem do videojogo segundo a primeira perspectiva, uma imagem do videojogo conforme a segunda perspectiva, e uma imagem do programa de televisão ou vídeo. O componente sobre o aparelho sincroniza, portanto, a obturação dos pares de óculos com obturador de LCD com as imagens exibidas no monitor para que um usuário de um par de óculos com obturador de LCD jogue o videojogo segundo a primeira perspectiva, o usuário de outro par de óculos com obturador de LCD jogue o videojogo conforme a segunda perspectiva, e o usuário do terceiro par de óculos com obturador de LCD veja o programa de televisão ou vídeo.
Como mostra a FIGURA 11, a presente invenção também pode proporcionar a um ou mais jogadores de um videojogo com uma visão em três dimensões (3D) e/ou permitir que um ou mais telespectadores vejam um programa de televisão e/ou vídeo em 3D. Como mostra a FIGURA 17, cada jogador de um videojogo pode ver o jogo em 3D além de poder ver o jogo desde uma perspectiva diferentes dos demais jogadores. Usando a configuração apresentada na FIGURA 3A, por exemplo, a unidade de jogos pode controlar o monitor para ciclicamente exibir, por exemplo, um quadro da imagem esquerda segundo a primeira perspectiva, um quadro da imagem direita segundo a primeira perspectiva, um quadro da imagem esquerda conforme a segunda perspectiva, e um quadro da imagem direita conforme a segunda perspectiva. Para se obter o efeito 3D, os obturadores esquerdo e direito de cada par de óculos com obturador de LCD são sincronizados com as diferentes imagens exibidas. Assim sendo, o obturador esquerdo de um dos pares de óculos com obturador de LCD está sincronizado para ver o quadro da imagem esquerda segundo a primeira perspectiva, enquanto que o obturador direito desse par de óculos com obturador de LCD está sincronizado para ver o quadro da imagem direita segundo a primeira perspectiva. Analogamente, o obturador esquerdo de outro dos pares de óculos com obturador de LCD está sincronizado para ver o quadro da imagem esquerda conforme a segunda perspectiva, enquanto que o obturador direito desse par de óculos com obturador de LCD está sincronizado para ver o quadro da imagem direita conforme a segunda perspectiva. Dessa forma, cada jogador do videojogo verá o jogo em 3D, além de ser na sua própria perspectiva. Em outro exemplo, dois telespectadores podem ver diferentes programas de televisão e/ou vídeo em 3D simultaneamente no mesmo monitor, como na configuração mostrada na FIGURA 3B, ou um pode ver o programa de televisão ou vídeo em 3D enquanto o outro joga um videojogo em 3D no mesmo monitor, usando a configuração mostrada na FIGURA 3C. O monitor é controlado para ciclicamente exibir, por exemplo, um quadro da imagem esquerda do programa de televisão ou vídeo, um quadro da imagem direita do programa de televisão ou vídeo, um quadro da imagem esquerda de outro programa de televi sao ou Video ou do videojogo, e um quadro da imagem direita de outro programa de televisão ou vídeo ou do videojogo. A lente esquerda e direita de cada par de óculos com obturador de LCD é, dessa forma, sincronizada para que cada usuário veja o seu próprio programa de televisão, vídeo ou videojogo em 3D. A FIGURA 18 mostra, esquematicamente, um usuário jogando um jogo 3D enquanto outro usuário assiste um filme em 3D na mesma tela.
Em outro exemplo, uma ou mais pessoas podem jogar um videojogo em 3D enquanto outra pessoa pode assistir imagens bidimensionais (2D) de um programa de televisão e/ou vídeo ao mesmo tempo e usando o mesmo monitor, conforme a configuração mostrada na FIGURA 3C. A FIGURA 19 também ilustra, esquematicamente, essa configuração. O monitor é controlado para ciclicamente exibir um quadro da imagem esquerda do sinal do videojogo, um quadro da imagem direita do sinal do videojogo, e um quadro do programa de televisão ou vídeo. A lente esquerda do par de óculos com obturador de LCD está sincronizada com a duração do quadro da imagem esquerda do sinal do videojogo enquanto que a lente direita do par de óculos com obturador de LCD está sincronizada com a duração do quadro da imagem direita do sinal do videojogo para que o usuário veja o videojogo em 3D. As lentes esquerda e direita do outro par de óculos com obturador de LCD estão sincronizadas com a duração do quadro do programa de televisão ou vídeo, permitindo que o usuário veja o programa de televisão ou vídeo em 2D no mesmo monitor usado para jogar o videojogo.
A FIGURA 4 ilustra três pessoas vendo três programas de entretenimento diferentes. Em um aspecto da invenção, as três pessoas 451 -453 estão usando óculos com fones de ouvido, de acordo com a presente invenção e vendo o mesmo televisor 410. O televisor Bravia® 410 inclui um aparelho de compartilhamento de telas descrito acima, e aceita três entradas diferentes de vídeo, a saber: dois consoles de jogos Sony Playstation 432, 433 e um reprodutor de DVD 431. O televisor multiplexa as três diferentes entradas de áudio/vídeo como foi descrito e transmite as informações, sem fio, relacionadas a cada entrada visual que está sendo exibida em um determinado momento aos óculos. Os óculos da primeira pessoa (451) são obturados para que o usuário somente possa ver através dos óculos quando o filme "Exterminador do Futuro" 461 (no reprodutor de DVD 431) estiver sendo exibido na tela do televisor 410. Os óculos da segunda pessoa (452) são obturados para que o usuário somente possa ver através dos óculos quando o jogo "MotorStorm" 462 (no console Playstation 432) estiver sendo exibido no mesmo televisor 410. Os óculos da terceira pessoa (453) são obturados para que o usuário somente possa ver através dos óculos quando o jogo "PacMan" 463 (no console Playstation 433) estiver sendo exibido na mesma tela. O áudio correspondente ao reprodutor de DVD 431, e aos consoles de jogos 432, 433 também é transmitido sem fio aos óculos das pessoas 451, 452 e 453, respectivamente. Dessa forma, cada pessoa 451-453 pode usar um único televisor para ver e ouvir três diferentes fontes de áudio/vídeo.
Além dos exemplos acima, a invenção também permite o uso de um monitor comum para proporcionar outras combinações de videojogos, programas de televisão, e vídeos junto com outras combinações de apresentações em 2D ou 3D e/ou diferentes perspectivas.
II. RASTREAMENTO, MIXAGEM, SINCRONISMO, OTIMIZAÇÃO DE PARALAXE
A Figura 20A a 20C ilustra exemplos de comunicação entre os óculos 900 e o console do computador 950. Na Figura 20A, o console do computador 950 comunica-se sem fio com os óculos 900. Os óculos" 900 incluem uma armação que possui várias lâmpadas 902. As lâmpadas 902 podem ser infravermelhas (IR), diodos emissores de luz (LEDs), ou outros tipos de lâmpadas que são capazes de iluminar a sua posição nas armações dos óculos 900. As armações dos óculos 900 também incluem fones de ouvido opcionais 530 e 532. Os óculos 900, conforme descrição acima, incluem lentes obturadoras 901, que são controladas pelo processamento nos óculos, no console do computador, ou uma combinação do processamento compartilhado entre o console do computador 950 e hardware/software nos óculos 900.
Quando o processamento é realizado nos óculos 900, os circuitos estão inseridos nas armações dos óculos 900, conforme o circuito 910. O circuito 910 pode ser integrado em qualquer ponto no interior da armação dos óculos 900, preso à armação dos óculos 900, integrado ou preso às lentes do obturador 901. Alternativamente, o circuito 910 pode ser acoplado às armações dos óculos 900 por meio de um link com ou sem fio. Os óculos 900 também incluirão uma fonte de alimentação (p.ex., bateria) (não ilustrada) que alimenta o circuito 910, as lâmpadas 902, os fones de ouvido 530, 532, e outros circuitos e/ou componentes eletrônicos do obturador. Os circuitos 910 podem ser acionados por meio de software, firmware, ou uma combinação de software e firmware, e pode ser executado nos óculos, ou no console do computador 950. Em uma configuração, uma maior quantidade de processamento é realizada no console do computador quando o processamento for intensivo, ou o processamento é realizado no circuito 910 (e/ou outros circuitos dos óculos 900) quando o processamento for mais eficiente dessa forma.
A Figura 20B ilustra outro exemplo de óculos 900 posto em comunicação com o console do computador 950. Nessa configuração, os óculos 900 também incluirão uma câmara 912 integrada à armação. A câmara 912 é mostrada integrada na posição central da armação dos óculos 900 entre as lentes obturadoras 901. Outras posições para a câmara 912 também podem ser possíveis enquanto a câmara for capaz de visualizar para frente a partir dos óculos 900, quando os óculos 900 forem colocados por um usuário.
A câmara 912 é usada para proporcionar informações adicionais ao circuito 910 para o processamento da posição do usuário "no espaço relativo ao monitor ou tela. À medida que o usuário se move na frente da tela, a câmara 912 pode tomar imagens das adjacências e objetos na frente do usuário para identificar a posição específica do usuário em relação à tela. Em uma configuração, a câmara pode focar em objetos específicos, tais como a tela, para identificar a posição particular do usuário durante o processamento, a interação com um videojogo, a interação com uma apresentação em vídeo, ou outras interfaces.
Em outras configurações, a câmara 912 é capaz de identificar a borda de
uma tela de vídeo (p.ex.: televisor, monitor de computador, monitor portátil, etc.) por meio da identificação da intensidade da luz emitida pela borda da tela de vídeo. Por meio da identificação da borda da teia de vídeo, o processamento realizado nos óculos pelo circuito 910 e pelo console do computador 950, a correlação da posição-do usuário (p.ex.: cabeça do usuário e sentido da visualização) em relação à tela pode ser rastreada. O rastreamento pode ser dinâmico, de tal forma que, à medida que o usuário se mover, o vídeo exibido na tela pode ser ajustado para proporcionar o ângulo de visão correto. Mais detalhes deste ajuste serão descritos a seguir, em relação à paralaxe e a correta visualização das imagens 3D, da perspectiva da separação dos óleos humanos e do tronco de cone natural definido entre os olhos e a tela que está sendo vista.
A Figura 20C ilustra outra configuração na qual os óculos 900 fazem interface com o console do computador 950. Nessa configuração, o console do computador 950 também inclui a câmara 952. A câmara 952 também pode incluir um filtro opcional 951. O filtro opcional 951 pode ser usado para filtrar toda a luz, exceto para a luz IR emitida pelas lâmpadas 902, nas configurações nas quais as lâmpadas 902 estão na forma de emissores IR. Em outras configurações, o filtro opcional 951 pode ser usado para configurações nas quais os LEDs estão presentes nos óculos 900, e o filtro é projetado para filtrar a luz ambiente, perturbações na luz, luz polarizada e/ou eliminar anomalias que possam interferir com a detecção exata das posições das lâmpadas 902.
Pelo exemplo, o filtro opcional 951 pode ser usado para habilitar a busca e detecção precisa das lâmpadas nos quadros de vídeo capturados, ao detectar as características Gaussianas brancas em um fundo preto ou semi-preto. Os quadros de vídeo capturados, em uma configuração, incluem a pluralidade dos quadros não-comprimidos ou comprimidos. Muitas técnicas de compressão podem ser usadas, incluindo compressão MPEG que utiliza os quadros I, Ρ, B. Como se sabe, os quadros I são quadros completos que incluem todos os dados de imagem e dados de pixels associados. Os quadros PeB tomam emprestados dados dos quadros anteriores ou posteriores para reconstruir a imagem naqueles casos em que os dados não mudam substancialmente. Nessas várias configurações, o processamento dos dados de imagens e pixels associados pode facilitar a identificação das lâmpadas 902 e o rastreamento dos óculos 900. Em ainda outra configuração, o filtro opcional 951 não está incluído como parte da câmara 952, e a câmara 952 pode simplesmente detectar a luz emanada das lâmpadas 902 para a detecção exata durante o uso.
Continuando com a configuração da Figura 20C, os óculos 900 têm a sua
própria faixa de visão 920, conforme a câmara 912. A câmara 952 terá a sua própria faixa de visão e é mostrada detectando a luz emanada das lâmpadas 902. As lâmpadas 902 podem então ser rastreadas pelo console do computador 950.
Ao rastrear a orientação da posição dos óculos 902, quando colocado no rosto do usuário, é possível ajustar dinamicamente as imagens exibidas em um monitor (mostrado) para proporcionar uma apresentação mais clara das imagens visualizadas pelos óculos 900. Em uma configuração, o vídeo exibido em uma tela é uma apresentação 3D. Para essa configuração, cada lente 901 alternará o fechamento do seu obturador (p.ex.: esquerdo/direito). Enquanto a alternância entre o lado esquerdo e direito está sendo processada, também é feita uma determinação referente à posição rastreada dos óculos 900. Se o usuário estiver diretamente na frente da tela, então os dados da imagem para uma visão correta da paralaxe poderão ser mantidos substancialmente normais. Entretanto, se o usuário for detectado ou rastreado junto à tela, por exemplo, em algum ângulo de separação junto à tela, a apresentação do fluxo de vídeo será ajustada para compensar o ângulo de separação. Ajustando o fluxo de vídeo baseado no ângulo de separação detectado, é possível apresentar ao usuário com uma visão correta de paralaxe, como ocorreria se o usuário estiver posicionado no centro da tela. Normalmente, nenhum ajuste será feito para a imagem apresentada, pois toda a otimização é feita para o usuário na posição central. Entretanto, esse não é o caso quando o usuário estiver se movendo de forma ativa na frente da tela ou um usuário que não esteja sentado diretamente na frente da tela. Por exemplo, em uma grande apresentação IMAX, os usuários podem estar sentados em um lado do cinema, junto ou longe da tela. Como a otimização está configurada para uma visualização no ponto central, sentar-se em assentos não-ótimos não proporcionarão a melhor visão.
No contexto de um ambiente doméstico menor, poucos usuários serão
envolvidos simultaneamente, e é possível ajustar a visão de cada usuário de forma independente, alternando-se a freqüência e dividindo-se a freqüência total por cada usuário. Para um exemplo com dois usuários, corno uma teia de 120 fps, dois usuários terão 60 fps alternadamente— o que é uma velocidade de continuidade muito boa. Ainda assim, para um télespectador 3U, o oino esquerdo/direito do usuário compartilhará visualizações com outra imagem, sincronizado com a velocidade de obturador dos óculos 900. Ainda com o exemplo, se o usuário 1 decidir sentar-se na frente e à esquerda, e o usuário 2 decidir sentar-se no fundo e à direita, o tronco de cone do ângulo de visualização de cada usuário será dinamicamente ajustado, para que a tela. emita dados otimizados de imagens para a localização dos usuários. Essa otimização é, contudo, dinâmica, e pode mudar à medida que os usuários decidam se mover durante o processo de visualização.
A otimização da saída de tela para cada usuário otimiza a visão de paralaxe esperada por um usuário. A paralaxe é um deslocamento aparente ou a diferença de orientação de um objeto visto ao longo de duas linhas diferentes de visão, e é medido pelo ângulo ou semi-ângulo (p.ex.: tronco do cone de visão) da inclinação entre as duas linhas. O termo é originado da palavra grega (parallaxis), que significa "alteração". Objetos próximos possuem uma paralaxe maior do que objetos mais distantes quando observados a partir de posições diferentes, assim a paralaxe pode ser usada para determinar distâncias.
Ajustando-se a imagem exibida, respondendo o movimento do usuário na posição, é possível manter a melhor paralaxe otimizada, que normalmente seria possível no meio de uma sala. Nos jogos interativos, onde os usuários se movimentam, poderá haver distorção. Dessa forma, os ajustes dinâmicos e automáticos feitos na tela com base na posição detectada do usuário proporcionam liberdade de movimentos que não é possível com os sistemas atuais de visualização 3D.
Dada a posição rastreada dos óculos 900, o sistema 952 ou circuito 910 (ou combinação) podem, freqüentemente, verificar efeitos estereoscópicos 3D e realizar a correção de erro de paralaxe durante o desenvolvimento do conteúdo 3D.
A Figura 20D ilustra um diagrama de blocos dos óculos 900, de acordo com uma configuração da presente invenção. Os óculos 900 são mostrados com uma armação 909 com hardware e software integrados para o processamento do rastreamento do usuário, de acordo com uma configuração da presente invenção. Conforme a figura, a armação 909 dos óculos 900 inclui as lâmpadas 902, que estão posicionadas em lados opostos dos óculos 900. As lâmpadas 902 estão preferencialmente separadas por uma distância que pode ser monitorada pela câmara 952 do console do computador 950, para determinar a orientação dos óculos 900, bem como a posição do usuário em relação à câmara 952. Nesse exemplo, uma pluralidade de módulos está integrada dentro da armação 901, que formam o circuito 910 discutido em relação à Figura 20B, e será discutida em relação à Figura 20E.
O circuito 910 é ampla definido como um circuito, embora o circuito possa incluir software, alimentação elétrica e lógica de comunicação. No exemplo da Figura 20D, o circuito 910 incluirá um processador de sinais digitais (DSP) 920, um módulo de alimentação elétrica 921, um sensor inercial 923 e um transmissor sem fio 976. O sensor inercial 923 existe para detectar o movimento do usuário enquanto estiver usando os óculos 900, e esse movimento da cabeça/corpo do usuário fornecerá dados inerciais que serão processados pelo processador de sinais digitais 920, e podem ser devolvidos para o console do computador 952 por meio do módulo sem fio 976. A câmara 912 também faz parte dos óculos s 900 da Figura 20D, e a câmara 912 é configurada para fornecer dados adicionais para o processador de sinais digitais 920, para o processamento e controle da obturação durante a operação 3D (p.ex.: obturação da lente 901R (direita) e da lente 901L (esquerda)). Como foi descrito acima, o controle de obturação também define o possível compartilhamento da mesma tela, para permitir a visualização simultânea de diferentes usuários. Quando vista ao mesmo tempo por diferentes usuários, os usuários podem ver o mesmo conteúdo, embora a comutação compartilhe a tela para proporcionar um controle diferente de separação ajustado para manter a visão de paralaxe precisa.
A Figura 20E ilustra um diagrama mais detalhado do circuito 910. É claro
que mais ou menos módulos podem fazer parte do circuito 910, dependendo da otimização. O circuito 910 pode incluir o processador de sinais digitais 920. O processador de sinais digitais 920 pode incluir um processador 931 para executar as instruções do programa e fazer interface com os vários módulos para controlar a interação entre as operações de obturação (3D e correção de paralaxe), bem como proporcionar feedback através do módulo sem fio 976 para o console do computador 950. O DSP 920 também inclui dados 932. Os dados 932 podem ser armazenados em um chip de memória, como uma memória flash, ou uma memória de armazenamento que guarda as instruções do programa, as instruções de operação, instruções do sistema operacional, inicializações e atualizações. Os dados também podem conter informações para executar as transações de entrada/saída e interface de cachê para o processador 931.
O DSP 920 também pode incluir um programa 933. O programa 933 pode ser atualizado com base em revisões no programa, melhorias em um programa e alterações no em um programa. O programa, em uma configuração, controla o processamento através do processador 931, e pode controlar, direcionar ou acionar a operação da lente do obturador direito e a lente do obturador esquerdo 901R e 901L, respectivamente. Em uma configuração, esse obturador e os ajustes de paralaxe podem se basear nos dados de posição obtidos por um módulo de rastreamento 935. Um módulo de sincronismo 934 também está incluído como parte do DSP, ou pode ser integrado em um programa 933, ou armazenado como parte dos dados 932. A informação de sincronismo é fornecida para alterar dinamicamente o processamento pelo programa 933, ou a execução pelo processador em um modo dinâmico e mutável com base na interatividade do usuário com um programa específico. O sincronismo também pode ser integrado com o programa 933 para proporcionar alterações de modo durante a operação, tais como mudanças de sincronismo baseadas dinamicamente na interatividade ou no feedback do usuário.
Como foi anteriormente mencionado, o módulo de rastreamento 935 processa informações relacionadas com os dados obtidos do console do computador 950, baseado no controle da posição detectada das lâmpadas 924, em sensores inerciais 923, e no rastreamento da posição dos óculos 900, usando lâmpadas 902 ou informações de rastreamento obtidas pelos óculos 900 sobre o ambiente usando a câmara 912. Essas informações são dinamicamente enviadas ao módulo de rastreamento que as envia ao DSP 920. O DSP 920 pode, então, comunicar-se com o controle do filtro obturador 975 para controlar a obturação dos óculos com base no ambiente, parâmetros de controle, efeitos de sincronismo, e outros parâmetros do programa. O controle da luz 924 pode incluir o hardware ou software destinado ao controle das lâmpadas 902 nos óculos. O controle de posição das lâmpadas 924 pode fazer com que as lâmpadas 902 funcionem no modo estroboscópico, com que as lâmpadas 902 modulem a intensidade, com que se mantenham acesas ou apagadas por períodos de tempo, ou com que as lâmpadas 902 se desliguem para interação sem rastreamento. O módulo de sincronização 972, anteriormente mencionado, serve para sincronizar a velocidade de obturação das lentes direita e esquerda do obturador 901 com a velocidade da tela e exibir as informações em uma tela, sincronizando-as com os diferentes canais de múltiplos usuários, ou para sincronizar a visão de múltiplos usuários que estão vendo o mesmo canal com ajustes de paralaxe.
Como foi aqui descrito, o sincronismo proporciona entradas, altera ou afeta as entradas ao interagir com um programa de computador. O sincronismo, em um sentido geral e mais amplo, pode ser definido como uma entrada que pode apresentar vários graus de magnitude e/ou tempo. O grau do sincronismo pode, então, ser comunicado a um sistema de computação. O grau de sincronismo pode ser aplicado a um processo executado pelo sistema de computação. Analogamente, um processo pode ser visto como um recipiente de fluído com uma entrada e uma saída. O recipiente de fluído é um processo que está sendo executado em um sistema, e o sincronismo controla um aspecto do processamento executado pelo sistema de computação. Em um exemplo, o sincronismo pode controlar a velocidade com a qual o fluído é esvaziado do recipiente em relação a um volume inserido no sistema, que pode ser pensado como as gotas de fluído que vão para o recipiente. Assim sendo, a velocidade de enchimento pode ser dinâmica, a velocidade de esgotamento pode ser dinâmica, e a velocidade de esgotamento pode ser influenciada pelo sincronismo. O sincronismo pode,' então, ser ajustado ou dosado para afinar um valor de modificação que esteja sendo enviado para um programa, como um programa de jogos. O sincronismo também pode afetar um contador, como o contador de dados móveis que controla uma ação por um processador ou, eventualmente, um elemento do jogo, objeto, jogador, caractere etc.
Levando esta analogia para um exemplo computacional mais tangível, a velocidade com que o fluído é esgotado pode ser a velocidade na qual o controle é passado ou executado por um recurso de um programa de computador, respondendo a alguma entrada mais o sincronismo. O recurso do programa de computador pode ser um objeto, um processo, uma variável, o tempo de um obturador, ou um algoritmo pré-definido/personalizado, caractere, jogador, mouse (2D ou 3D), etc. O resultado do processamento, que pode ter sido alterado pelo sincronismo, pode ser enviado a um observador ou afetar os ajustes da tela para proporcionar a correção da paralaxe para usuários específicos, com base nas suas posições e em quaisquer movimentos rastreados.
A entrada pode ser obtida pelo rastreamento executado por meio de: (1) uma análise de imagens, (2) uma análise inercial, (3) análise acústica, ou análise híbrida mista de (1), (2) ou (3). Vários exemplos são disponibilizados em relação à análise de imagens e sincronismo aplicado, mas deve-se compreender que o rastreamento não está limitado ao vídeo, mas pode ser obtido de várias formas e, em particular, por meio da análise inercial, análise acústica, misturas destas e outras análises adequadas.
Em várias configurações, um computador ou sistema de jogos com uma câmara de vídeo 952/912 (p.ex.: análise de imagens) podem processar dados de imagens e identificar várias ações que ocorram em uma zona de foco ou em função do volume que possa estar na frente da câmara de vídeo. Essas ações normalmente incluem movimento ou rotação do objeto em um espaço tridimensional ou o acionamento de um dentre uma variedade de controles, tais como usar óculos 901, apertar botões, mostradores, joysticks, etc. Além dessas técnicas, a presente tecnologia proporciona a funcionalidade adicional de ajustar um fator de escala, doravante denominado de sincronismo, para ajustar a sensibilidade da entrada em relação a uma ou mais ações correspondentes em uma tela ou no recurso de um programa. Por exemplo, as ações na tela podem ser de um objeto que possa ser o foco de um videojogo. O objeto também pode ser um recurso ds um programa, tais como uma variável, um multiplicador ou uma computação que resultará em som, vibração, imagens em uma tela, ou uma combinação destes e outras representações da saída sincronizada.
Em outra configuração, o sincronismo pode ser aplicado a um recurso de um programa de computador, e a detecção de um dispositivo de entrada pode ser baseada no processamento de um analisador inercial. O analisador inercial rastreará um dispositivo de entrada para a atividade inercial, e o analisador inercial pode, então, levar a informação para um programa nos óculos 900, console do computador 950, ou computação em nuvem na internet. O programa tomará, então, a saída do analisador inercial de tal forma que a quantidade de sincronismo possa ser aplicada à saída ou atividade das lentes de obturador 901 L/901 R. A quantidade de sincronismo então indicará um grau ou velocidade pelos quais um programa realizará uma operação. A operação pode assumir quaisquer números de formas e um exemplo da operação pode gerar um ruído, um ruído variável, vibração, um movimento por um objeto, ou computação por um programa que, então, produz um resultado visível e/ou audível. Se a saída for uma variável, a variável pode ser usada para concluir a execução de um processo, de tal forma que o processo levará em consideração a quantidade de sincronismo. A quantidade de sincronismo pode ser pré-definida, definida dinamicamente pelo usuário ou ajustado conforme a necessidade.
Vários tipos de sensores inerciais podem ser usados para proporcionar informações sobre os seis graus de liberdade (p.ex.: translação X, Y e Z (p.ex.: aceleração) e rotação nos eixos X, Y e Z). Exemplos de sensores inerciais adequados para proporcionar informações sobre os seis graus de liberdade incluem acelerômetros, acelerômetros com um ou mais eixos individuais, giroscópios mecânicos, giroscópios laser anelares ou combinações de dois ou mais destes.
Os sinais do(s) sensor(es) podem ser analisados para determinar o movimento e/ou orientação dos óculos 900 durante uma partida de videojogo ou a visualização de uma teia (qualquer conteúdo de filme, vídeo-clipe, jogo, PDA, telefone, tela de computador). Esse método pode ser implementado como uma série de instruções de códigos de programa executáveis em urrs processador armazenados em um meio de leitura para processador e executado em um processador digital. Por exemplo, um sistema de videojogo pode incluir um ou mais processadores. Cada processador pode ser qualquer unidade processadora digital adequada, por exemplo: um microprocessador de um tipo normalmente usado em consoles de videojogos ou núcleos de multiprocessadores' especificamente projetados. Em uma configuração, o processador pode implementar um analisador inercial através da execução de instruções de leitura para microprocessador. Uma parte das instruções pode ser armazenada na memória. Alternativamente, um analisador inercial pode ser implementado no hardware, por exemplo: como um circuito integrado específico para uma aplicação (ASIC) ou processador de sinais digitais (DSP). Esse hardware de analisador pode ser instalado nos óculos 900, console 950 ou em um servidor durante a computação em nuvem. Nas implementações de hardware, o analisador pode ser programado em resposta a sinais externos, por exemplo, de um processador ou de alguma fonte remota conectada, por exemplo, via cabo USB, Ethernet, uma rede, Internet, conexão sem fio de curto alcance, banda larga sem fio, Bluetooth, ou uma rede local.
O analisador inercial pode incluir ou implementar instruções que analisem os sinais gerados pelos sensores inerciais e utilizem informações relacionadas à posição e/ou orientação dos óculos 900. Os sinais dos sensores inerciais podem ser analisados para determinar as informações relacionadas à posição e/ou orientação dos óculos 900. A posição e/ou orientação pode ser utilizada durante a partida de um videojogo com o sistema. Em uma configuração, os óculos 900 podem incluir um ou mais sensores inerciais, que pode proporcionar informações sobre posição e/ou orientação para um processador via um sinal inercial. As informações de orientação podem incluir informações angulares tais como inclinação, rotação ou guinada do controlador.
Como indicado anteriormente, e na forma de exemplo, os sensores inerciais podem incluir qualquer número e/ou combinação de acelerômetros, giroscópios ou sensores de inclinação. Em uma configuração, os sensores inerciais incluem sensores de inclinação adaptados para perceber a orientação dos óculos 900 em relação aos eixos de inclinação e rotação, um primeiro acelerômetro adaptado para perceber a aceleração ao longo de um eixo de guinada e um segundo acelerômetro adaptado para perceber a aceleração angular em relação ao eixo de guinada. Um acelerômetro pode ser implementado, por exemplo, como um dispositivo MEMS, incluindo uma plataforma com uma ou mais molas com sensores para perceber o deslocamento da massa em relação a uma ou mais direções. Os sinais dos sensores que dependem do deslocamento de massa podem ser usados para determinar uma aceleração do controlador do joystick. Tais técnicas podem ser implementadas pelas instruções a partir do programa de jogos ou programa geral que poderá ser armazenado na memória e executado por um processador.
Como exemplo, um acelerômetro adequado como um sensor inercial pode
ser uma massa simples elasticamente acoplada a três ou quatro pontos de um suporte por meio de molas, por exemplo. Os eixos de inclinação e rotação estão em um plano que intercepta o suporte, que está instalado nos óculos 900. À medida que o suporte gira ao redor dos eixos de inclinação e rotação, a massa será deslocada sob a influência da gravidade e as molas alongarão ou comprimirão dependendo do ângulo de inclinação e/ou rotação. O deslocamento da massa pode ser detectado e convertido para um sinal que depende da quantidade de inclinação e/ou rotação. A aceleração angular sobre o eixo de guinada ou aceleração linear ao longo do eixo de guinada também poderá produzir padrões característicos de compressão e/òu alongamento das molas ou movimento da massa que pode ser detectado e convertido para sinais que dependem da quantidade de aceleração angular ou linear. Esse acelerômetro pode medir a inclinação, rotação ou aceleração angular sobre o eixo de guinada e aceleração linear ao longo do eixo de guinada ao rastrear o movimento da massa ou as forças de compressão e expansão das molas. Há uma quantidade de formas diferentes de rastrear a posição da massa e/ou as forças exercidas sobre ela, incluindo o material resistivo de "strain-gauge", sensores fotônicos, sensores magnéticos, dispositivos de efeito "hall", dispositivos piezelétricos, sensores capacitivos, e outros assemelhados.
Adicionalmente, sensores de lâmpadas podem proporcionar sinais de telemetria para o processador, por exemplo, no formato de código de puisos, amplitude moduiaaa ou freqüência modulada. Esses sinais de telemetria podem indicar a lòcálização posicionai dos óculos 900. Os sinais de telemetria podem ser codificados no sinal ótico, por exemplo, por codificação de pulsos, modulação da largura dos pulsos, freqüência modulada ou modulação de leve intensidade (amplitude modulada). O processador pode decodificar o sinal de telemetria do sinal ótico e executar um comando respondendo ao sinal de telemetria decodificado.
Um processador pode usar sinais inerciais do sensor inercial junto com os sinais óticos das fontes luminosas detectadas por uma unidade de captura de imagens e/ou localização da fonte sonora e informações de caracterização dos sinais acústicos detectados por um conjunto de microfones para deduzir informações sobre a posição e/ou orientação dos óculos 900 e/ou do seu usuário.
A Figura 20F ilustra uma configuração no qual a informação de entrada para mecanismos diferentes de detecção é encaminhada para um mixer 937. O mixer 937 pode ser executado no software ou hardware, ou processado pelo DSP 920. O mixer 937 é, em uma configuração, lógica que recebe entradas e constrói entradas seletivas para produzir uma saída. As entradas podem ser pesadas com base no processamento de corrente. A seleção e ênfase dada a cada entrada dependerão do processamento durante a aplicação interativa. Por exemplo, se o usuário estiver vendo uma imagem do Grand Canyon, Arizona, o mixer poderá dar mais ênfase à entrada de rastreamento do que á detecção inercial. Com ênfase no rastreamento, a visão na perspective do usuário através dos óculos 900 terá a prioridade, para permitir que o usuário veja os aspectos de profundidade 3D dos canyons, como se usuário estivesse sobrevoando o Grand Canyoη. Em outras condições, o mixer 937 ainda misturará as entradas para produzir um resultado misturado, otimizado para o conteúdo visualizado através dos óculos 900, e os ajustes de visão resultantes para compensação correta da para Iaxe.
Em uma configuração, o mixer 937 pode ser parcialmente processado no
console do computador 950, e os dados comunicados de volta para os óculos 900 para controlar o otimizador de paralaxe 977. O otimizador de paralaxe executa a otimização do ângulo de visualização ao ajustar o conteúdo no monitor (p.ex.: 960), para a posição do usuário. Assim, o otimizador de paralaxe 977 comunicará dados ao hardware e/ou software do display, para modificar o conteúdo apresentado para o usuário no canal do obturador que é dedicado ao usuário. Em outras configurações, o console do computador otimizará os dados da tela, e a tela 960 simplesmente apresentará a saída.
O mixer 937 é mostrado obtendo entradas do módulo de sincronismo 934, do módulo de rastreamento 935, do sensor inercial 935, e do feedback do programa 936. O feedback do programa pode incluir dados relacionados com o estado atual do programa durante a interação. Por exemplo, se o usuário estiver interagindo com o programa e obteve um determinado nível de sucesso no videojogo, o feedback do programa pode indicar que o nível de habilidade aumentou, e a complexidade do videojogo foi, portanto, aumentada. O feedback do programa proporciona, então, informações para o mixer 937, que também traz as informações referentes ao sensor inercial sobre o movimento da cabeça do usuário durante a interatividade, bem como rastreamento e sincronismo.
O rastreamento controla uma entrada para o mixer, informando o mixer 937 onde o usuário se encontra em relação à tela, a sua localização posicionai e o seu ângulo de visão para a tela. Assim sendo, as informações de rastreamento do módulo de rastreamento 935 permitirá que o mixer 937 envie dados adequadamente ao otimizador de paralaxe, para que a visualização seja ótima para o usuário, baseado na posição atual em relação à tela durante a interatividade com um videojogo, ou ao assistir uma apresentação específica de vídeo. Uma apresentação de vídeo pode ser feita por meio de um console de jogos, de uma conexão de internet, de um vídeo digital, um reprodutor, uma conexão de televisão ou qualquer outro vídeo-clipe ou apresentação de filme em uma tela, incluindo uma imagem parada (comprimida ou não). Embora o mixer 937 seja mostrado recebendo entradas múltiplas, algumas implementações somente receberão entradas de módulos em uma ocasião. Por exemplo, o mixer 937 pode apenas receber entradas de sincronismo durante um período específico de tempo, estado, estágio ou rastreamento durante um período específico de tempo, ou sensores inerciais durante um período específico de tempo, ou feedback de programa durante um período específico de tempo ou evento. Em outras configurações, entradas seletivas podem ser combinadas/misturadas ou entradas de módulos podem ser completamente eliminadas (ou adicionadas) com base no ambiente e na interatividade desejada pelo usuário ou pré-definida por um programa.
As Figuras 21A a 21C ilustram os exemplos de usuário 903a .que se
movimenta livremente usando óculos 900, de acordo com uma configuração da presente invenção. Na Figura 21 A, o usuário 903a, usando os óculos 900, é mostrado movendo-se livremente e girando 940A, conforme a Figura 21B. Na Figura 21C, o usuário inclina-se e se aproxima 940B de uma tela (não mostrada). Nesta configuração, o usuário 903a está usando os óculos 900 que incluem lâmpadas 902, bem como uma câmara 912. Em uma configuração, a câmara 912 é opcional. Neste exemplo, as lâmpadas 902 (que podem ser LEDs, IR, ou outras fontes luminosas (coloridas, ou não)), estão integradas ou acopladas à armação dos óculos 900, assim as vistas laterais dos óculos 900 ainda terão as lâmpadas 902. Em uma configuração, as lâmpadas 902 estarão na forma de um olho de peixe que permitirá à câmara ver as lâmpadas 902 quando o usuário estiver olhando diretamente para a tela, ou se o usuário se virar e apenas uma das lâmpadas 902 for mostrada, conforme a Figura 21B.
As Figuras 22A e 22B ilustram exemplos de usuário 903a usando óculos 900 e vendo uma tela 960. A tela 960, nesta configuração, está acoplada ao console do computador 950. O console do computador 950 também está conectado a uma câmara 952, que é colocada sobre a tela 960. A câmara 952 pode ser colocada em qualquer local ou integrada à tela. Essencialmente, a câmara 952 é preferencialmente projetada para visualizar a zona na frente da tela 960, que incluirá os usuários, tais como o usuário 903a. Neste exemplo, os óculos 900 também incluirão a câmara 912. A câmara 912 é mostrada capturando a cena que inclui a tela 960 e a câmara 952. As informações capturadas pela câmara 912 podem ser comunicadas de volta ao console do computador 950, e que permitirá aos programas rodar no console do computador 950 para executar alterações e responder às entradas do usuário. A entrada pelo usuário pode simplesmente ser uma alteração da posição do usuário.
O console do computador 950 também pode controlar a apresentação de
vídeo exibida na tela 960. A tela 960 então apresentará informações (vídeos de dados com pixels ou imagens paradas) que podem ser sincronizadas com a obturação dos óculos 900. Como discutido acima, o usuário 903a pode ser uma pessoa com uma visão particular da tela 960, enquanto que os outros usuários (não apresentados neste diagrama) podem receber diferentes fluxos de vídeos enquanto estiverem olhando para a mèsma tela 960. A obturação dos óculos 900 permitirá, então, que a tela 960 exiba dados destinados ao usuário 903a. As informações obtidas pela câmara 912, como anteriormente discutido, permitirão que o circuito 910 dos óculos 900 processe informações sobre a posição do usuário em relação à tela 960.
Neste exemplo, o usuário 903a é mostrado afastado da tela 960 segundo uma distância ζ. A distância ζ mudará dinamicamente à medida que o usuário assiste o conteúdo exibido na tela 960. A visão do conteúdo pode incluir o modo passivo, como assistir a um vídeo, ou a participação ativa ao interfacear com um programa interativo. O programa interativo pode ser um videojogo, a internet, programas técnicos, programas de projetos assistidos por computador (CAD), programas de criação de arte, programas de modelagem de arquitetura, e outros tipos de interfaces com programas interativos.
Os óculos 900 também são mostrados como interfaces para o console de computador 950 através de uma conexão sem fio. A conexão sem fio, como descrita acima, pode ser uma conexão Wi-Fi1 uma conexão Bluetooth, uma conexão por rádio, ou outra semelhante. Alternativamente, os óculos podem ser conectados ao console de computador 950 por um cabo. Em outra configuração, o console de computador 950 pode ser eliminado e a tela 960, conectada à internet. A tela 960 pode incluir um módulo de interface de rede que permite a interface com a internet para permitir a exibição de imagens na tela 960 e fazer a interface com os dados comunicados de e para os óculos 900.
A Figura 22B ilustra o usuário 903a em uma posição inclinada após o movimento 940B. Após o movimento 940B, as informações referentes aos dados inerciais gerados do movimento podem ser capturadas pelo sensor inerciai integrado nos óculos 900. Adicionalmente, a câmera 952 pode rastrear as lâmpadas 902 para determinar a profundidade e a posição do usuário em relação á tela 960. No exemplo, o usuário está, agora, a uma distância, em profundidade, de ζ menos delta z. Além de monitorar a profundidade, as lâmpadas 902 também podem monitorar informações referentes à inclinação, guinada e rotação nas coordenadas x, y e ζ mostradas na Figura 22B. Ao monitorar a profundidade e a inclinação, guinada e rotação, é possível enviar essas informações ao processamento nos óculos 900 para modificar e otimizar a visualização na tela 960, através dos óculos 900, proporcionando uma visualização com paralaxe otimizada da tela 960. Novamente, em uma configuração, a otimização da paralaxe será da imagem exibida na tela 960, baseada na posição do usuário. A Figura 24 e 25 mostram exemplos nos quais o usuário se movimenta na frente de uma tela (pequena e grande), e a posição detectada informa o sistema que controla a tela para otimizar o ângulo de visão para que a melhor paralaxe seja apresentada ao usuário, independente para onde ele esteja se movendo. Na Figura 24, o usuário 903c moveu-se da posição A para a posição B, como normalmente ocorre durante as sessões de visualização. Na Figura 25, três usuários têm vistas diferentes A, B e C, de uma tela grande. Embora a tela seja grande, o ângulo de visão afetará a paralaxe. Entretanto, com o uso dos óculos de rastreamento e a obturação seletiva para cada usuário, cada usuário terá uma visualização otimizada da tela. No exemplo da Figura 25, a velocidade de exibição dos quadros seria dividida por três para proporcionar a cada usuário a sua própria visualização ajustada, referente ao seu ângulo de visão. A Figura 23A ilustra um exemplo de um usuário 903b com os óculos 900A. Neste exemplo, os óculos 900A terão uma única lâmpada 902 localizada entre as lentes 901. O circuito 910 pode, assim, acionar a lâmpada 902 para obter as respectivas seqüências liga/desliga, de padrões e estroboscópica, para rastrear com precisão o usuário enquanto ele faz interface com um programa interativo ou assiste a um programa passivo exibido na tela.
A Figura 23B ilustra o usuário 903b com um par de óculos alternativo 900B. Os óculos 900B apresentam lâmpadas 902 posicionadas em cada lado, proporcionando dois pontos para rastreamento pela câmera 952 do console de computador 950. Õ circuito 910 também está integrado aos óculos 900B. Como há duas lâmpadas 902, é possível detectar inclinações, rotações, guinadas, bem como profundidade, pois a câmera 952 detecta as lâmpadas 902. Quando os usuários se aproximam da câmera 952, as lâmpadas 902 parecerão estar separadas, enquanto que, ao usuário 903b se afastar da tela e da câmara 952, as lâmpadas 902 parecerão se aproximar uma da outra nos dados capturados de pixel. Dessa forma, os dados de profundidade (ou seja, a posição dos óculos em relação à tela) podem ser mais precisamente detectados utilizando-se pelo menos duas lâmpadas 902 integradas em algum ponto, com uma separação mínima, nos óculos 900. A Figura 23C mostra um exemplo de três lâmpadas 902. A Figura 23D traz um exemplo de vários módulos integrados à armação dos óculos 901. A Figura 23E mostra um exemplo de um microfone e fones de ouvido conectados aos óculos.
Voltando à Figura 25, o exemplo mostra três usuários com as suas respectivas visualizações A, B, e C. Como foi explicado, à medida que houver mais usuários, a freqüência será dividida com base no número de usuários. Na Figura 25, quando todos os três usuários olham para a tela, a quantidade de quadros por segundo exibida para um determinado usuário diminuirá. Por exemplo, quando a velocidade for de 120 fps, os três usuários provocarão uma diminuição na velocidade para 40 fps, para cada um deles, Em outras configurações, certos usuários podem ter uma maior prioridade, e ter uma maior velocidade do que os outros usuários. Entretanto, em um modo compartilhado, cada um deles terá 40 fps. Quando a velocidade em fps cair, é possível que o brilho seja reduzido. Para contornar esse problema, a configuração do sistema pode intensificar o brilho.
A intensificação do brilho pode ser feita para simular que a tela esteja na velocidade de 120 fps, ou seja, como se apenas um usuário estivesse presente. Em outra configuração, a intensificação da velocidade dos quadros pode ocorrer de forma dinâmica tal que os usuários possam estar presentes ou não durante uma cena, e ao detectar se o usuário está assistindo/olhando para a tela, a velocidade de quadros pode ser dinamicamente ajustada. Por exemplo, se o usuário com a Visia C começar a desviar o olhar, as vistas AeB terão as suas velocidades intensificadas de 40 fps para 60 fps. Adicionalmente; a intensificação de brilho seria reduzida, pois a maior velocidade de 60 fps proporcionaria um maior brilho. Assim, ao rastrear os usuários e determinar, em tempo real, se os usuários estão olhando para a tela, a tela pode ajustar a velocidade de exposição de quadros para cada usuário, bem como o ajuste da intensificação de brilho durante as mudanças de modo. Em uma configuração, a mudança de modo é ativada pela multiplexação das vistas entre os usuários que entram ou saem de uma determinada sessão ou área de visualização, segundo o rastreamento dinâmico. A intensificação também pode ser ajustada a partir de um sincronismo dedicado, para que os usuários com privilégios especiais tenham maior velocidade de visualização dos quadros e mais brilho. Consequentemente, os ajustes podem ser feitos a partir de uma regra pré-determinada, da velocidade, disponibilidade ou classificação.
Em função do acima exposto, os óculos 900 com rastreamento e dados de feedback podem auxiliar na disponibilização de uma visualização mais dinâmica e na interação com apresentações em vídeo 2D ou 3D.
III. CONFIGURAÇÕES DE HARDWARE E SOFTWARE
A Figura 26 ilustra, esquematicamente, a arquitetura geral do sistema de entretenimento Sony® Playstation 3®, um console de jogos que pode ser compatível para implementar um controlador tridimensional de acordo com uma configuração da presente invenção. Há uma unidade de sistema 1000 com vários dispositivos periféricos conectáveis à unidade de sistema 1000. A unidade de sistema 1000 compreende: um processador Cell 1028; uma unidade de memória de acesso aleatório dinâmico (XDRAM) Rambus® 1026; uma unidade gráfica "Reality Synthesizer" 1030 com uma unidade de memória de acesso aleatório para vídeo (VRAM) 1032; e uma ponte de l/O 1034. A unidade de sistema 1000 também possui um leitor de discos óticos Blu Ray® Disk BD-ROM® 1040 para leitura a partir de um disco 1040a e um disco rígido removível (HDD) 1036, acessíveis através da ponte de l/O 1034. Opcionalmente, a unidade de sistema 1000 também compreende um leitor de cartões de memória 1038 para leitura de cartões de memória "compact flash", cartões de memória "Memory Stick®" e outros, que também são acessíveis através da ponte de l/O 1034.
A ponte de l/O 1034 também é conectada a seis portas Universal Serial
Bus (USB) 2.0 1024; uma porta Ethernet de gigabits 1022; uma porta para rede sem fio IEEE 802.11 b/g (Wi-Fi) 1020; e uma porta para link sem fio Bluetooth® 1018 capaz de suportar até sete conexões de Bluetooth.
Em operação, a ponte de l/O 1034 lida com todos os dados transmitidos
via rede sem fio, USB e Ethernet, incluindo dados de um ou mais controladores de jogos 1002 e 1003. Por exemplo, quando um usuário estiver jogando, a ponte de l/O 1034 recebe dados do controlador de jogos 1002 ou 1003 via um link de Bluetooth e o direciona para o processador Cell 1028, que atualiza o estado atual do jogo.
As portas da rede sem fio, USB e Ethernet também proporcionam
conectividade para outros dispositivos periféricos além dos controladores de jogos 1002 e 1003, tais como: um controle remoto 1004; um teclado 1006; um mouse 1008; um dispositivo de entretenimento portátil 1010, como um dispositivo de entretenimento Sony Playstation Portable®; uma câmera de vídeo como uma
EyeToy® 1012; um microfone 1014. Esses dispositivos periféricos podem, em princípio, estar conectados à unidade de sistema 1000, sem fio; por exemplo, o dispositivo de entretenimento portátil 1010 pode se comunicar através de uma conexão Wi-Fi ad-hoc, enquanto que o microfone 1014 pode se comunicar através de um link de Bluetooth.
A provisão dessas interfaces significa que o dispositivo Playstation 3
também é potencialmente compatível com outros dispositivos periféricos, tais como: gravadores de vídeos digitais (DVRs), decodificadores, câmeras digitais, reprodutores portáteis de mídia, telefones "Voice over IP" (VoIP)1 telefones celulares, impressoras e scanners.
Adicionalmente, um leitor de cartões de memória "legacy" 1016 pode ser conectado à unidade de sistema através de uma porta USB 1024, permitindo a leitura de cartões de memória do tipo utilizado nos dispositivos Playstation® ou Playstation 2®.
Na presente configuração, os controladores de jogos 1002 e 1003 comunicam-se sem fio com a unidade de sistema 1000 por meio de um link Bluetooth. Entretanto, os controladores de jogos 1002 e 1003 podem ser conectados a uma porta USB, que também fornecerá energia para recarregar a bateria dos controladores de jogos 1002 e 1003. Os controladores de jogos 1002 e 1003 também podem incluir memória, um processador, um leitor de cartão de memória, memória permanente como a memória "flash", emissores de luz, tais como LEDs ou luzes infravermelhas, microfone e alto-falante para comunicações ultrassônicas, uma câmara acústica, uma câmera digital, um relógio interno, uma forma reconhecível como a seção esférica voltada para o console de jogos, e comunicações sem fio que utilizam protocolos tais como Bluetooth®, Wi-Fi™ etc.
O controlador de jogos 1002 é um controlador projetado para ser usado com as duas mãos e o controlador de jogos 1003 é um controlador multi- posicionai, como foi anteriormente descrito. Além de um ou mais joysticks analógicos e botões de controle convencionais, o controlador de jogos é suscetível à determinação de posição tridimensional. Consequentemente, gestos e movimentos do usuário do controlador de jogos podem ser traduzidos como entradas para um jogo além ou em vez dos comandos dos botões convencionais ou do joystick. Opcionalmente, outros dispositivos periféricos sem fio habilitados, tais como o dispositivo Playstation™ Portable, podem ser usados como um controlador. No caso do dispositivo Playstation™ Portable, informações adicionais sobre o jogo ou controle (por exemplo: instruções de controle ou quantidade de vidas) podem ser exibidas na tela do dispositivo. Outros dispositivos de controle alternativos ou complementares também podem ser usados, tais como um tapete de dança (não mostrado), uma arma de luz (não mostrada), um volante e pedais (não mostrados) ou controladores personalizáveis com um ou vários botões para jogos de perguntas com respostas rápidas (também não mostrados).
O controle remoto 1004 também se comunica sem fios com a unidade de sistema 1000 por meio de um link de Bluetooth. O controle remoto 1004 compreende controles adequados para a operação do leitor Blu RayTM Disk BD- ROM 1040 e para a navegação no conteúdo do disco.
O leitor Blu RayTM Disk BD-ROM 1040 pode ler CD-ROMs compatíveis com os dispositivos Playstation e PIayStation 2, a!ém dos CDs convencionais pré- gravados e graváveis, e os chamados Super CDs de Áudio. O leitor 1040 também pode ler DVD-ROMs-compatíveis com os dispositivos Playstation 2 e PIayStation 3, além de DVDs convencionais pré-gravados e graváveis. O leitor 1040 também pode ler BD-ROMs compatíveis com o dispositivo Playstation 3, bem como os Discos de Blu-Ray convencionais pré-gravados e graváveis.
A unidade de sistema 1000 proporciona áudio e vídeo, gerados ou decodificados pelo dispositivo Playstation 3 através da unidade gráfica "Reality - Synthesizer" 1030, através de conectores de áudio e vídeo para um dispositivo de saída de áudio e vídeo 1042, como um monitor ou televisor com tela 1044 e um ou mais alto-falantes 1046. Os conectores de áudio podem incluir saídas convencionais analógicas e digitais, enquanto que os conectores de vídeo podem incluir saídas de vídeo componente, S-vídeo, vídeo composto e uma ou mais saídas da Interface Multimídia de Alta Definição (HDMI) ou saídas DispIayPort. Consequentemente, a saída de vídeo pode ser em formatos tais como PAL ou NTSC, ou em 720p, 1080Í ou 1080p alta definição.
O processamento de áudio (geração, decodificação etc.) é realizado pelo processador Cell 1028. O sistema operacional do dispositivo Playstation 3 comporta Dolby® 5.1 surround sound, Dolby® Theatre Surround (DTS), e a decodificação de 7.1 surround sound dos discos de Blu-Ray®.
Na presente configuração, a câmera de vídeo 1012 é formada por um dispositivo de carga acoplado (CCD), um indicador de LED, e compressão de dados em tempo real baseada em hardware e um aparelho codificador de tal forma que os dados comprimidos de vídeo possam ser transmitidos em um formato adequado, tais como um padrão MPEG (motion picture expert group) baseado em intra-imagem para ser decodificado pela unidade de sistema 1000. O indicador de LED da câmera está preparado para acender em resposta a um dado de controle específico da unidade de sistema 1000, por exemplo, significando condições adversas de iluminação. As configurações da câmera de vídeo 1012 podem, alternativamente, conectar-se à unidade de sistema 1000 por meio de uma porta de comunicação USB, Bluetooth ou Wi-Fi. Suas configurações podem incluir um ou mais microfones associados e também ser capazes de transmitir dados de áudio. Nsssas configurações, o CCD pode ter;uma.resolução adequada paraxaptura de vídeos em alta definição. Quando em uso, as imagens capturadas pela câmera de vídeo podem ser, por exemplo, incorporadas a um jogo ou interpretadas como entradas de controle de jogo. Em outra configuração, a câmera é um dispositivo capaz de detectar luz infravermelha.
Em geral, para que ocorra uma comunicação de dados bem-sucedida com um dispositivo periférico, como uma câmera de vídeo ou controle remoto através de uma das portas de comunicação da unidade de sistema 1000, deverá haver um software adequado como um driver do dispositivo. A tecnologia de drivers de dispositivos é bem conhecida e não será aqui detalhada, exceto para dizer que um especialista estará atento se um driver de dispositivo ou interface de software semelhante é necessário para a presente configuração descrita.
A Figura 27 ilustra hardware adicional que pode ser usado para processar instruções de acordo com uma configuração da presente invenção. O processador Cell 1028 possui uma arquitetura composta por quatro componentes básicos: estruturas de entrada e saída externas compreendendo um controlador de memória 1160 e um controlador de interface de barramento duplo 1170A, B; um processador principal chamado de Elemento de Processamento de Alimentação 1150; oito co-processadores chamados de Elementos de Processamento Sinergéticos (SPEs) 1110A-H; e um barramento circular de dados ligando os componentes anteriormente mencionados, chamado de Barramento de Interconexão de Elementos 1180. O desempenho total de ponto flutuante do processador Cell é de 218 GFLOPS, comparado com 6,2 GFLOPs do "Emotion Engine" do Playstation 2. O Elemento de Processamento de Alimentação (PPE) 1150 está baseado em um núcleo PowerPC (PPU) 1155, compatível com um processador de duas vias com múltiplas etapas simultâneas, trabalhando com um relógio interno de 3,2 GHz. Ele possui uma memória cache de 512 kB nível 2 (L2) e uma memória cache de 32 kB nível 1 (L1). O PPE 1150 é capaz de oito operações de posição individuais por ciclo de relógio, equivalente a 25,6 GFLOPs a 3,2 GHz. O papel básico do PPE 1150 é funcionar como um controlador para os Elementos de Processamento Sinergéticos 1110A-H, que realizam a maior parte do trabalho computacional. Em operação, o PPE 1150 mantém a fila de trabalhos, programando-os para os Elementos de Processamento Sinergéticos 1110A-H e monitorando o seu progresso. Consequentemente, cada Elemento de Processamento Sinergético 1110A-H roda um núcleo cuja função é procurar um trabalho, executá-lo e permanecer sincronizado com o PPE 1150.
Cada Elemento de Processamento Sinergético (SPE) 1110A-H compreende a sua própria Unidade de Processamento Sinergética (SPU) 1120A- H, e o seu próprio Controlador de Fluxo de Memória (MFC) 1140A-H, possuindo, por sua vez, um Controlador de Acesso Dinâmico à Memória (DMAC) 1142A-H, uma Unidade de Gestão de Memória (MMU) 1144A-H e uma interface de barramento (não mostrada). Cada SPU 1120A-H é um processador RISC que trabalha a 3,2 GHz e compreender uma memória local RAM de 256 kB 1150A-H, em princípio ampliável até 4 GB. Cada SPE dá 25,6 GFLOPS teóricos de desempenho de precisão simples. Um SPU pode trabalhar em quatro membros de ponto flutuante com precisão simples, quatro números de 32 bits, oito inteiros de 16 bits, ou dezesseis inteiros de 8 bits em um ciclo de relógio. No mesmo ciclo de relógio, ele pode realizar uma operação de memória. O SPU 1120A-H não acessa diretamente a memória do sistema XDRAM 1126; os endereços de 64 bits formados pelo SPU 1120A-H são passados para o MFC 1140A-H, que instrui o seu controlador DMA 1142A-H para acessar a memória através do Barramento de Interconexão de Elementos 1180 e o controlador de memória 1160.
O Barramento de Interconexão de Elementos (EIB) 1180 é um barramento de comunicação logicamente circular integrado ao processador Cell 1028 que conecta os elementos anteriormente descritos do processador - PPE 1150, o controlador de memória 1160, a interface de barramento duplo 1170A, B e os oito SPEs 1110A-H - totalizando 12 participantes. Os participantes podem simultaneamente ler e escrever em um barramento na velocidade de oito bytes por ciclo de relógio. Como indicado anteriormente, cada SPE 1110A-H possui um DMAC 1142A-H para agendar seqüências longas de leitura ou escrita. O EIB possui quatro canais: dois no sentido horário e dois no anti-horário. Consequentemente, para doze participantes, o mais longo fluxo de dados entre quaisquer dois participantes será de seis etapas na direção correta. A largura de banda teórica de pico instantânea do EIB para 12 soquetes é de 96B por relógio, no caso de uma utilização total mediante arbitragem entre os participantes. Isso eqüivale a uma largura de banda teórica de pico de 307,2 GB/s (gigabytes por segundo) na velocidade de 3,2GHz.
O controlador de memória 1160 compreende uma interface XDRAM 1162, desenvolvida pela Rambus lncorporated. O controlador de memória faz interface !ΐ> corri o Rambus XDRAM 1126 com uma largura de banda teórica de pico de 25,6
GB/s.
-</
A interface de barramento duplo 1170A, B compreende uma interface de sistema Rambus FlexIO® 1172A, Β. A interface está organizada em 12 canais, cada um com oito bits de largura, com cinco entradas e sete saídas. Isso proporciona uma largura de banda teórica de pico de 62,4 GB/s (36,4 GB/s saindo, 26 GB/s entrando) entre o processador Cell e a Ponte de l/O 1034 através do controlador 1170A e a unidade gráfica "Reality Simulator" 1030 através do controlador 1170B.
Os dados enviados pelo processador Cell 1028 à unidade gráfica "Reality
Simulator" 1030 normalmente compreenderá listas de exibição, sendo uma seqüência de comandos para desenhar vértices, aplicar texturas a polígonos, especificar condições de iluminação e assim por diante. Além disso, as configurações da presente invenção proporcionam experiências de jogos interativos em tempo real para os usuários. Por exemplo, os usuários podem interagir com vários objetos gerados por computador em tempo real. Adicionalmente, as cenas de vídeo podem ser alteradas para aumentar a experiência do jogo do usuário.
IV. PROCESSAMENTO DISTRIBUÍDO - COMPUTAÇÃO EM NUVEM
A Figura 28 é um exemplo de cenários de A até E com os respectivos usuários de A até E, interagindo com os clientes de jogos 1102 que estão conectados a um servidor processando através da internet, de acordo com uma configuração da presente invenção. Como foi anteriormente discutido, um cliente de jogos é um dispositivo que permite aos usuários conectar-se com aplicações e processamento de servidores através da internet. O cliente de jogos permite que os usuários acessem e usem conteúdo de entretenimento online como, mas não limitado a jogos, filmes, músicas e fotos. Adicionalmente, o cliente de jogos pode proporcionar acesso a aplicações de comunicações online, tais como VOIP, protocolos de conversas de texto e correio eletrônico.
Um usuário interage com um cliente de jogos através do controlador. Em algumas configurações, este é um controlador específico do cliente de jogos enquanto que em outras configurações, ele pode ser uma combinação de teclado e mouse. Em uma configuração, o cliente de jogos é um dispositivo independente capaz de dar saída a sinais de áudio e vídeo para criar um ambiente multimídia através de um monitor/televisor e equipamento de áudio associado. Por exemplo, o cliente de jogos pode ser, mas não está limitado a um cliente, uma placa interna PCI-express, uma placa externa PCI-express, um dispositivo ExpressCard, um dispositivo interno, externo, sem fio ou USB, ou um dispositivo Firewire etc. Em outras configurações, o cliente de jogos está integrado com um televisor ou outros dispositivos multimídia, tais como um DVR, reprodutor de Blu-Ray, reprodutor de DVD ou receptor multicanal.
No cenário A da Figura 28, o usuário A interage com uma aplicação cliente exibida em um monitor 106 usando um controlador 100 conectado a um cliente de jogos 1102A. Analogamente, no cenário Β, o usuário B interage com outra aplicação cliente que é exibida no monitor 106 usando um controlador 100 conectado ao cliente de jogos 11Ό2Β. O cenário C apresenta uma visão por trás do usuário C, que olha para um monitor que está exibindo um jogo e uma lista de participantes do cliente de jogos 1102C. Enquanto que a Figura 11 mostra um único módulo de processamento de servidor, em uma configuração, há múltiplos módulos de processamento de servidor em todo o mundo. Cada módulo de processamento de servidor inclui sub-módulos para controle das sessões dos usuários, lógica de compartilhamento/comunicação, geolocalização dos usuários e serviço de processamento do balanço da carga. Além disso, um módulo de processamento de servidor inclui processamento em rede e armazenamento distribuído.
Quando um cliente de jogos 1102 conecta-se a um móauio ae processamento de servidor, o controle da sessão de usuário pôde ser usado para autenticar o usuário. Um usuário autenticado pode ter associado um armazenamento distribuído virtual e um processamento em rede virtual. Os exemplos de itens que podem ser armazenados como parte de um armazenamento distribuído virtual do usuário incluem meios adquiridos, mas não limitados a jogos, vídeos e músicas etc. Adicionalmente, o armazenamento distribuído pode ser usado para salvar o estado de jogos para jogos múltiplos, configurações personalizadas para jogos individuais e configurações gerais para o cliente de jogos. Em uma configuração, o módulo de geolocalização do usuário do processamento de servidor é usado para determinar a localização geográfica de um usuário e o seu respectivo cliente de jogos. A localização geográfica do usuário pode ser usada pela lógica de compartilhamento/comunicação e pelo serviço de processamento do balanço de carga para otimizar o desempenho baseado na localização geográfica e nas demandas de processamento dos módulos de processamento de servidores múltiplos. A virtualização do processamento em rede e do armazenamento em redes permitiria o processamento de tarefas a partir de clientes de jogos para serem dinamicamente desviadas para módulo(s) subutilizado(s) de processamento de servidor. Assim sendo, o balanceamento de carga pode ser usado para minimizar a latência associada com o recolhimento de produtos a partir do armazenamento e com a transmissão de dados entre os módulos de processamejnto de servidores e clientes de jogos.
Como mostrado na Figura 28, o módulo de processamento de servidor possui exemplos de aplicação A e de aplicação B do servidor. O módulo de processamento de servidor é capaz de suportar múltiplas aplicações de servidores, indicadas como aplicação X1 e a aplicação X2 do servidor. Em uma configuração, o processamento de servidor está baseado na arquitetura de computação em grupo que permite que múltiplos processadores em um grupo processem as aplicações de servidores. Em outra configuração, um diferente tipo de esquema de processamento com multi-computadores é aplicado para processar as aplicações de servidores. Isso permite que o processamento de servidor seja ampliado para acomodar um grande número de clientes de jogos executando múltiplas aplicações de clientes e respectivas aplicações de servidores. Alternativamente,, o processamento de servidor pode ser ampliado para acomodar as crescentes demandas de computação necessárias pelos mais exigentes processamentos de gráficos ou jogos, compressão de vídeo, ou complexidade da aplicação. Em uma configuração, o módulo de processamento de servidor realiza a maioria do processamento através da aplicação do servidor. Isso permite que componentes relativamente caros, tais como processadores gráficos, RAM, e processadores gerais sejam centralmente localizados, reduzindo o custo do cliente de jogos. Os dados processados da aplicação de servidor são enviados de volta para que o respectivo cliente de jogos através da internet seja exibido em um monitor.
O cenário C apresenta um exemplo de aplicação que pode ser executado
pelo cliente de jogos e pelo módulo de processamento de servidor. Por exemplo, em uma configuração do cliente de jogos 1102C que permite o usuário C a criar e ver uma lista de participantes 1120 que inclui o usuário A, usuário B, usuário D e usuário E. Como mostra a figura, no cenário C, o usuário C é capaz de ver imagens em tempo real ou avatares do respectivo usuário no monitor 106C. O processamento de servidor executa as respectivas aplicações do cliente de jogos 1102C e com os respectivos clientes de jogos 1102 dos usuários A, usuário B, usuário D e usuário E. Como o processamento de servidor sabe quais são as aplicações executadas pelo cliente B, a lista de participantes para o usuário A " pode indicar qual jogo o usuário B está jogando. Adicionalmente, em uma configuração, o usuário A pode ver dados reais no videojogo diretamente do usuário B. Isso é habilitado ao se enviar para o cliente de jogos A os dados processados da aplicação de servidor para o usuário B1 além do cliente de jogos B.
Além de ser capaz de ver vídeos de colegas, a aplicação de comunicação pode permitir comunicações em tempo real entre colegas. Como aplicado no exemplo anterior, isso permite ao usuário A proporcionar encorajamento ou dar dicas enquanto assiste a um vídeo em tempo real do usuário B. Em uma configuração, a comunicação de voz bidirecional em tempo real é estabelecida por meio de uma aplicação cliente/servidor. Ern outra configuração, uma aplicação cliente/servidor permite a conversa por texto. Em outra configuração, uma aplicação cliente/servidor converte voz em texto para exibir na tela de um colega.
O cenário D e cenário E mostra o respectivo usuário D e usuário E interagindo com os consoles de jogos 1110D e 111OE, respectivamente. Cada console de jogos 1110D e 1110E está conectado ao módulo de processamento de servidor e mostra uma rede na qual os módulos de processamento de servidor coordena a ação do jogo para consoles de jogos e clientes de jogos.
Com a configuração acima em mente, deve-se entender que a invenção pode empregar várias operações implementadas por computador envolvendo dados armazenados em sistemas de computador. Essas operações incluem operações que requeiram a manipulação física de quantidades físicas. Normalmente, mas não necessariamente, essas quantidades assumem a forma de sinais elétricos ou magnéticos capazes de serem armazenados, transferidos, combinados, comparados e manipulados de outra forma. Adicionalmente, as manipulações realizadas são freqüentemente referidas em termos, tais como produção, identificação, determinação ou comparação.
A invenção acima descrita pode ser praticada com outras configurações de sistemas computacionais, incluindo dispositivos portáteis, sistemas de microprocessadores, elementos eletrônicos baseados em microprocessadores ou programáveis, minicomputadores, mainframes e outros. A invenção também pode ser praticada na distribuição de ambientes computacionais nos quais as tarefas são realizadas por dispositivos de processamento remoto que são ligados por meio de uma rede de comunicações. A invenção também pode ser integrada como um código lido por computador em um meio para leitura por computador. O meio para leitura por computador é qualquer dispositivo de armazenamento de dados que pode conter informações que podem ser lidas por um sistema de computador, incluindo uma portadora de onda eletromagnética. Exemplos de meios para leitura por computador incluem discos rígidos, armazenamento anexado a redes (NAS), memória apenas para leitura, memória de acesso aleatório, CD-ROMs, CD-Rs, CD-RWs, fitas magnéticas, e outros dispositivos de armazenamento de dados óticos e não-óticos. O meio para leitura por computador também pode ser distribuído sobre um sistema de computador acoplado à rede para que o código para leitura por computador seja armazenado e executado de forma distribuída.
Embora a invenção tenha sido descrita com algum grau de detalhe para fins de clareza de entendimento, é óbvio que determinadas alterações e modificações poderão ser realizadas no escopo dos pleitos anexos. Assim sendo, as presentes configurações são consideradas como meramente ilustrativas e não-restritivas, e a invenção não deverá limitar-se aos detalhes aqui apresentados, mas poderá ser modificada dentro do escopo, mantendo-se equivalente aos pleitos anexos.
Tendo sido descrito um exemplo de concretização preferido, deve ser entendido que o escopo da presente invenção abrange outras possíveis variações, sendo limitado tão somente pelo teor das reivindicações apensas, aí incluídos os possíveis equivalentes.

Claims (18)

1. Um aparelho para interface com uma tela, compreendendo: uma armação, que inclui, (a) um par de lentes obturadoras, (b) uma lâmpada acoplada à armação; (b) um circuito integrado à armação para controlar o par de lentes obturadoras e controlar a Íârnpaua acopiaaa à armação, sendo o circuito configurado para comunicar-se com um dispositivo que permita a sincronização das lentes obturadoras e do monitor, no qual a luz da lâmpada é analisada para determinar a posição da armação em relação ao monitor, e a posição é usada para provocar um ajuste na saída do monitor quando vista da perspectiva da posição da armação.
2. O aparelho para interface com uma tela, de acordo com a reivindicação1, caracterizado pelo fato de que a armação destina-se a óculos, e o par de lentes obturadoras é acoplado à armação.
3. O aparelho para interface com uma tela, de acordo com a reivindicação1, caracterizado pelo fato de que a luz é definida por duas lâmpadas acopladas à armação, em posições separadas.
4. O aparelho para interface com uma tela, de acordo com a reivindicação3, caracterizado pelo fato de que o ajuste na saída do monitor é realizado para otimizar uma vista paralaxe da posição, com base em um ângulo detectado das duas lâmpadas, que é analisado a partir da posição da armação.
5. O aparelho para interface com uma tela, de acordo com a reivindicação1, caracterizado pelo fato de que o circuito obtém dados para o movimento inércia! da armação.
6. O aparelho para interface com uma tela, de acordo com a reivindicação1, caracterizado pelo fato de que o circuito aplica uma relação de sincronismo para a análise da posição, sendo o sincronismo aplicado com base no estado de interação com o monitor.
7. O aparelho para interface com uma tela, de acordo com a reivindicação 1, caracterizado pelo fato de que o estado de interação inclui visão passiva, visão em movimento, visão durante interface e interatividade de jogos.
8. O aparelho para interface com uma tela, de acordo com a reivindicação 1, caracterizado pelo fato de que a armação inclui uma câmera.
9. O aparelho para interface com uma tela, de acordo com a reivindicação 1, caracterizado pelo fato de que a armação inclui um transmissor sem fio.
10. O aparelho para interface com uma tela, de acordo com a reivindicação 1, caracterizado pelo fato de que o circuito inclui um processador de sinais digitais que está acoplado a um módulo de rastreamento, a um controle de filtro obturador, a um sensor inercial, a um módulo de sincronização e ao controle da lâmpada.
11. O aparelho para interface com uma tela, de acordo com a reivindicação 4, caracterizado pelo fato de que o circuito inclui um mixer para modular as entradas, e o mixer fornece sinais para um otimizador de paralaxe. EMENDAS VOLUNTARIAS DAS REIVINDICAÇÕES 1. Um aparelho para interface com um monitor, compreendendo: uma armação que inclui, (a) um par de lentes obturadoras, (b) uma lâmpada acoplada à armação; (c) um circuito integrado à armação para controlar o par de lentes obturadoras e controlar a iâmpaaa acoplada à armação, o circuito sendo configurado para comunicar-se com um dispositivo que permita a sincronização das lentes obturadoras e do monitor, no qual a luz da lâmpada é analisada para determinar a posição da armação em relação ao monitor, e a posição sendo usada para provocar um ajuste em sua saída quando visto da perspectiva da posição da armação. 2. O aparelho para interface com uma tela, de acordo com a reivindicação1, caracterizado pelo fato de que a armação destina-se a óculos, e o par de lentes obturadoras é acoplado à armação. 3. O aparelho para interface com uma tela, de acordo com a reivindicação1, caracterizado pelo fato de que a luz é definida por uma ou duas lâmpadas acopladas à armação e, no caso de duas lâmpadas, estas se encontram em posições separadas. 4. O aparelho para interface com uma tela, de acordo com a reivindicação3, caracterizado pelo fato de que o ajuste na saída do monitor é realizado para otimizar uma vista paralaxe da posição, baseado em um ângulo detectado das duas lâmpadas que são analisadas a partir da armação. 5. O aparelho para interface com uma tela, de acordo com a reivindicação 1, caracterizado pelo fato de que o circuito aplica uma relação de sincronismo para a análise da posição, esse sincronismo sendo aplicado com base no estado de interação com o monitor, ou obtém dadòs pára o movimento inercial da armação. 6. O aparelho para interface com uma tela, de acordo com a reivindicação\ 1, caracterizado pelo fato de que um estado de interação inclui visão passiva, visão em movimento, visão durante interface ou durante interatividade de jogos. 7. O aparelho para interface com uma tela, de acordo com a reivindicação 1, caracterizado pelo fato de que a armação inclui uma câmera, ou a armação inclui um transmissor sem fio. 8. O aparelho para interface com uma tela, de acordo com a reivindicação 1, caracterizado peio fato de que o circuito inclui um ou mais processadores de sinais digitais acoplado a um módulo de rastreamento, um controle do filtro obturador, um sensor inercial, um módulo de sincronização e um controle da lâmpada. 9. O aparelho para interface com uma tela, de acordo com a reivindicação 4, caracterizado pelo fato de que o circuito inclui um mixer para modular entradas, e o mixer provê entrada para um otimizador de paralaxe. 10. Um método para interface com um monitor, compreendendo: detecção de uma luz proveniente de uma armação para determinar uma posição da armação relativa ao monitor, a posição sendo usada para executar um ajuste na saída do monitor quando visto de uma perspectiva da posição da armação, a armação inclui (a) um par de lentes obturadoras, (b) lâmpada acoplada à armação e (c) um circuito integrado à armação para controlar o par de lentes obturadoras e controlar a lâmpada acoplada à armação; o circuito se comunicando com o monitor para permitir sincronização das lentes obturadoras e o monitor. 11. O método, de acordo com a reivindicação 10, caracterizado pelo fato de que a armação destina-se a óculos, e o par de lentes obturadoras está acoplado à armação, e uma câmera interfaceada com o monitor é configurada para capturar uma imagem para detectar a luz proveniente da armação.
12. O método, de acordo com a reivindicação 10, caracterizado pelo fato de que a luz é definida por duas lâmpadas e cada lâmpada é acoplada à armação em posições separadas.
13. O método, de acordo com a reivindicação 12, caracterizado pelo fato de que o ajuste na saída do monitor é realizado para otimizar uma vista paralaxe da posição, com base em um ângulo detectado a partir das duas lâmpadas que são analisadas a partir da armação.
14. O método, de acordo com a reivindicação 10, caracterizado pelo fato de que o circuito: (a) obtém dados para movimento inercial da armação; ou (b) aplica uma relação de sincronismo à análise da posição, sendo esse sincronismo aplicado com base no„ estado de interação com o monitor.
15. O método, de acordo com a reivindicação 10, caracterizado pelo fato de que um estado de interação inclui visão passiva, visão em movimento, visão durante interface ou durante interatividade de jogos.
16. O método, de acordo com a reivindicação 10, caracterizado pelo fato de que a armação inclui uma câmera e/ou um transmissor sem fio.
17. O método, de acordo com a reivindicação 10, caracterizado pelo fato de que o circuito inclui um processador de sinal digital que está acoplado a um módulo de rastreamento, um controle do filtro obturador, um sensor inercial, um módulo de sincronização e um controle das lâmpadas.
18. Meio para leitura em computador para executar instruções de programa de interface com um monitor, o meio para leitura em computador incluindo qualquer uma das operações do método indicadas nas reivindicações 10a 17.
BRPI1010413-5A2A 2009-07-16 2010-07-16 Sistema de visualização e métodos para otimização de visualização baseada no rastreamento ativo BRPI1010413A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/503,846 US8269822B2 (en) 2007-04-03 2009-07-16 Display viewing system and methods for optimizing display view based on active tracking

Publications (1)

Publication Number Publication Date
BRPI1010413A2 true BRPI1010413A2 (pt) 2014-02-11

Family

ID=41504700

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1010413-5A2A BRPI1010413A2 (pt) 2009-07-16 2010-07-16 Sistema de visualização e métodos para otimização de visualização baseada no rastreamento ativo

Country Status (7)

Country Link
US (1) US8269822B2 (pt)
EP (1) EP2278818A3 (pt)
JP (1) JP5967343B2 (pt)
KR (1) KR101260033B1 (pt)
CN (1) CN101966393B (pt)
BR (1) BRPI1010413A2 (pt)
TW (1) TWI454129B (pt)

Families Citing this family (260)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9250703B2 (en) 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20120105439A1 (en) * 2008-12-18 2012-05-03 3D Fusion Inc. System and Method For Adaptive Scalable Dynamic Conversion, Quality and Processing Optimization, Enhancement, Correction, Mastering, And Other Advantageous Processing of Three Dimensional Media Content
KR101296900B1 (ko) * 2009-01-07 2013-08-14 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
US8436789B2 (en) * 2009-01-16 2013-05-07 Microsoft Corporation Surface puck
JP5573683B2 (ja) * 2009-01-22 2014-08-20 日本電気株式会社 立体映像鑑賞システム、表示システム、光シャッタおよび立体映像鑑賞方法
KR101324440B1 (ko) * 2009-02-11 2013-10-31 엘지디스플레이 주식회사 입체 영상의 뷰 제어방법과 이를 이용한 입체 영상표시장치
US20110165923A1 (en) 2010-01-04 2011-07-07 Davis Mark L Electronic circle game system
WO2010117129A2 (en) 2009-04-07 2010-10-14 Lg Electronics Inc. Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
GB2472438A (en) * 2009-08-06 2011-02-09 Sony Corp Multi-person 3D display system with several viewers watching different images on a single screen
KR20110044080A (ko) * 2009-10-22 2011-04-28 삼성전자주식회사 디스플레이장치 및 그 영상표시방법과 입체안경 및 그 구동방법
US8704932B2 (en) * 2009-10-23 2014-04-22 Broadcom Corporation Method and system for noise reduction for 3D video content
KR101627214B1 (ko) * 2009-11-12 2016-06-03 엘지전자 주식회사 영상표시장치 및 그 동작방법
WO2011061975A1 (ja) * 2009-11-19 2011-05-26 シャープ株式会社 画像表示システム
US9179136B2 (en) 2009-11-20 2015-11-03 Broadcom Corporation Method and system for synchronizing 3D shutter glasses to a television refresh rate
US9486701B2 (en) * 2009-12-30 2016-11-08 Crytek Gmbh Computer-controlled video entertainment system
US9247286B2 (en) 2009-12-31 2016-01-26 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication
US20110157322A1 (en) 2009-12-31 2011-06-30 Broadcom Corporation Controlling a pixel array to support an adaptable light manipulator
US8823782B2 (en) 2009-12-31 2014-09-02 Broadcom Corporation Remote control with integrated position, viewer identification and optical and audio test
US8854531B2 (en) * 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
IT1397295B1 (it) * 2010-01-07 2013-01-04 3Dswitch S R L Sistema e metodo per il controllo della visualizzazione di un flusso video stereoscopico.
KR100975128B1 (ko) 2010-01-11 2010-08-11 (주)올라웍스 뷰잉 프러스텀을 이용하여 객체에 대한 정보를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
JP2011166610A (ja) * 2010-02-12 2011-08-25 Canon Inc 立体映像制御装置及びその制御方法
US8797390B2 (en) * 2010-02-17 2014-08-05 Lg Electronics Inc. Image display device, 3D viewing device, and method for operating the same
JP5834177B2 (ja) * 2010-02-17 2015-12-16 パナソニックIpマネジメント株式会社 立体画像表示システム及び立体視メガネ
FR2956750B1 (fr) * 2010-02-24 2012-08-17 Activeyes Lunettes a cristaux liquides et dispositif de commande
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
DE102010009737A1 (de) * 2010-03-01 2011-09-01 Institut für Rundfunktechnik GmbH Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten
US20110216173A1 (en) * 2010-03-02 2011-09-08 Comcast Cable Communications, Llc Impairments To 3D Experiences
KR20110101944A (ko) * 2010-03-10 2011-09-16 삼성전자주식회사 3d 안경, 3d 안경의 구동방법 및 3d 영상 제공 시스템
US9456204B2 (en) * 2010-03-16 2016-09-27 Universal Electronics Inc. System and method for facilitating configuration of a controlling device via a 3D sync signal
US9424768B2 (en) * 2010-03-16 2016-08-23 Universal Electronics Inc. System and method for universal 3D viewing device
JP2011223558A (ja) * 2010-03-26 2011-11-04 Panasonic Corp 映像信号処理装置およびアクティブシャッターメガネ
JP2011215227A (ja) * 2010-03-31 2011-10-27 Sony Corp 映像表示装置、映像表示システム、映像提示方法、並びにコンピューター・プログラム
KR101677251B1 (ko) * 2010-04-13 2016-11-17 삼성전자주식회사 3d 디스플레이 장치 및 그의 gui 설정 방법, 그리고 3d 안경
US20110254829A1 (en) * 2010-04-16 2011-10-20 Sony Ericsson Mobile Communications Ab Wearable electronic device, viewing system and display device as well as method for operating a wearable electronic device and method for operating a viewing system
KR20110115806A (ko) * 2010-04-16 2011-10-24 삼성전자주식회사 디스플레이 장치 및 3d 안경, 그리고 이를 포함하는 디스플레이 시스템
CN102934008B (zh) * 2010-04-20 2016-06-29 索尼电脑娱乐公司 通用主动式3d立体快门眼镜
CN101986184A (zh) * 2010-05-06 2011-03-16 徐晗 动态视角液晶眼镜
KR20110128099A (ko) * 2010-05-20 2011-11-28 삼성전자주식회사 입체 영상 표시 장치 및 그 구동 방법
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US8373573B2 (en) * 2010-06-15 2013-02-12 Transcend Information, Inc. Display system adapting to 3D tilting adjustment
US8402502B2 (en) * 2010-06-16 2013-03-19 At&T Intellectual Property I, L.P. Method and apparatus for presenting media content
US8640182B2 (en) * 2010-06-30 2014-01-28 At&T Intellectual Property I, L.P. Method for detecting a viewing apparatus
JP5573426B2 (ja) * 2010-06-30 2014-08-20 ソニー株式会社 音声処理装置、音声処理方法、およびプログラム
US8593574B2 (en) 2010-06-30 2013-11-26 At&T Intellectual Property I, L.P. Apparatus and method for providing dimensional media content based on detected display capability
US9787974B2 (en) * 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8922631B1 (en) 2010-07-06 2014-12-30 Lucasfilm Entertainment Company Ltd. Presenting multiple viewer content on a single screen
US8918831B2 (en) * 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9159165B2 (en) * 2010-07-13 2015-10-13 Sony Computer Entertainment Inc. Position-dependent gaming, 3-D controller, and handheld as a remote
US9560406B2 (en) * 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
US9032470B2 (en) * 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
KR20130129174A (ko) * 2010-07-21 2013-11-27 소니 주식회사 다중 3d 디스플레이들/장치들을 위한 셔터 신호들의 동기화
US8624960B2 (en) 2010-07-30 2014-01-07 Silicon Image, Inc. Multi-view display system
US8994716B2 (en) 2010-08-02 2015-03-31 At&T Intellectual Property I, Lp Apparatus and method for providing media content
WO2012018669A2 (en) * 2010-08-03 2012-02-09 Bby Solutions, Inc. Multiple simultaneous programs on a display
TWI411293B (zh) * 2010-08-06 2013-10-01 Acer Inc 觀賞眼鏡、三維顯示系統及其影像光束調整方法
US20120038827A1 (en) * 2010-08-11 2012-02-16 Charles Davis System and methods for dual view viewing with targeted sound projection
TWI408948B (zh) * 2010-08-16 2013-09-11 Wistron Corp 根據不同視角播放相對應之立體影像之方法及其相關影像處理系統
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
JP5025772B2 (ja) * 2010-08-30 2012-09-12 株式会社東芝 立体視用眼鏡及び立体視映像表示システム
US9712811B2 (en) * 2010-09-01 2017-07-18 Jeramie J Keys Viewing of different full-screen television content by different viewers at the same time using configured glasses and a related display
US20120062551A1 (en) * 2010-09-13 2012-03-15 Lg Electronics Inc. Image display apparatus and method for operating image display apparatus
JP5364666B2 (ja) * 2010-09-13 2013-12-11 株式会社東芝 立体画像表示装置、方法およびプログラム
JP5511969B2 (ja) 2010-09-14 2014-06-04 パナソニック株式会社 立体映像視聴用眼鏡及びその制御方法
US8786685B1 (en) * 2010-09-15 2014-07-22 Rockwell Collins, Inc. Full-resolution single-LCD stereoscopic display
EP2432218B1 (en) * 2010-09-20 2016-04-20 EchoStar Technologies L.L.C. Methods of displaying an electronic program guide
JP2012090259A (ja) * 2010-09-21 2012-05-10 Panasonic Corp 撮像装置
KR20120031790A (ko) * 2010-09-27 2012-04-04 삼성전자주식회사 영상처리장치, 컨텐츠 제공서버 및 그들의 제어방법
JP5039194B2 (ja) * 2010-09-30 2012-10-03 株式会社東芝 表示装置及び録画方法
US8947511B2 (en) 2010-10-01 2015-02-03 At&T Intellectual Property I, L.P. Apparatus and method for presenting three-dimensional media content
US9001196B2 (en) * 2010-10-05 2015-04-07 Echostar Technologies L.L.C. Apparatus, systems and methods for synchronization of 3-D shutter glasses to one of a plurality of presentation devices
US8830329B2 (en) 2010-10-07 2014-09-09 Sony Computer Entertainment Inc. 3-D glasses with camera based head tracking
TWI408949B (zh) * 2010-10-11 2013-09-11 Danic Ind Co Ltd 單螢幕多頻同步2d及3d影音系統
KR20120039197A (ko) 2010-10-15 2012-04-25 삼성전자주식회사 리모트 컨트롤러, 디스플레이장치, 3d 안경 및 이들의 제어방법
US20120098931A1 (en) * 2010-10-26 2012-04-26 Sony Corporation 3d motion picture adaption system
KR20120046973A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 움직임 정보 생성 방법 및 장치
US20120113235A1 (en) * 2010-11-08 2012-05-10 Sony Corporation 3d glasses, systems, and methods for optimized viewing of 3d video content
KR101732131B1 (ko) 2010-11-12 2017-05-04 삼성전자주식회사 사용자 위치 기반의 영상 제공 장치 및 방법
US8608550B1 (en) * 2010-11-12 2013-12-17 Wms Gaming, Inc Coordinating three dimensional wagering game content presentations
US8836772B2 (en) 2010-11-17 2014-09-16 Sony Computer Entertainment, Inc. 3D shutter glasses with frame rate detector
KR20120053587A (ko) * 2010-11-18 2012-05-29 삼성전자주식회사 디스플레이장치 및 그 사운드 제어방법
JP5598281B2 (ja) * 2010-11-19 2014-10-01 ソニー株式会社 投射型表示システム
JP2012114825A (ja) * 2010-11-26 2012-06-14 Samsung Electronics Co Ltd 撮像装置、撮像システム及び撮像方法
JP5699566B2 (ja) * 2010-11-29 2015-04-15 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8698880B2 (en) * 2010-12-01 2014-04-15 Industrial Technology Research Institute System and method for time multiplexed stereo display and display apparatus
US8817080B2 (en) * 2010-12-02 2014-08-26 At&T Intellectual Property I, L.P. Location based media display
KR20120064557A (ko) * 2010-12-09 2012-06-19 한국전자통신연구원 증강형 3차원 입체 영상 제시를 위한 혼합현실 디스플레이 플랫폼 및 운영 방법
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
US20120154378A1 (en) * 2010-12-20 2012-06-21 Sony Ericsson Mobile Communications Ab Determining device movement and orientation for three dimensional views
US20120154559A1 (en) * 2010-12-21 2012-06-21 Voss Shane D Generate Media
CN102075776B (zh) * 2011-01-18 2014-03-26 青岛海信电器股份有限公司 一种立体显示的控制方法及装置
US20120194656A1 (en) * 2011-01-27 2012-08-02 Openpeak, Inc. System and method for displaying multiple exclusive video streams on one monitor
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
US20120212589A1 (en) * 2011-02-20 2012-08-23 Min-Hung Chien Playback methods and playback apparatuses for processing multi-view content
CN102647631B (zh) * 2011-02-21 2014-06-18 鸿富锦精密工业(深圳)有限公司 机顶盒、快闪眼镜及多个用户同时观看多套影音节目的方法
US20120218288A1 (en) * 2011-02-24 2012-08-30 Cheng Bruce C H Interactive program system
US20120218253A1 (en) * 2011-02-28 2012-08-30 Microsoft Corporation Adjusting 3d effects for wearable viewing devices
JP5431390B2 (ja) * 2011-02-28 2014-03-05 株式会社東芝 映像出力装置及び映像出力方法
US8188880B1 (en) 2011-03-14 2012-05-29 Google Inc. Methods and devices for augmenting a field of view
KR20120105199A (ko) * 2011-03-15 2012-09-25 엘지디스플레이 주식회사 다중 시청 가능한 입체영상 표시장치 및 그 구동방법
JP2012204852A (ja) * 2011-03-23 2012-10-22 Sony Corp 画像処理装置および方法、並びにプログラム
US9183199B2 (en) * 2011-03-25 2015-11-10 Ming-Yuan Wu Communication device for multiple language translation system
JP2012205267A (ja) * 2011-03-28 2012-10-22 Sony Corp 表示制御装置、表示制御方法、検出装置、検出方法、プログラム、及び表示システム
JP5307177B2 (ja) * 2011-03-30 2013-10-02 株式会社コナミデジタルエンタテインメント 立体画像生成装置、立体画像生成方法、ならびに、プログラム
JP2012222699A (ja) * 2011-04-12 2012-11-12 Sharp Corp 表示制御システム、姿勢検出用メガネ、制御プログラムおよび記録媒体
CN102736254B (zh) * 2011-04-12 2014-10-08 夏普株式会社 视认切换用眼镜及显示控制装置
CN102740015B (zh) * 2011-04-13 2015-03-11 鸿富锦精密工业(深圳)有限公司 同时播放不同频道的电视系统
US8784206B1 (en) 2011-04-15 2014-07-22 Wms Gaming, Inc. Modifying presentation of three-dimensional, wagering-game content
TWI470995B (zh) * 2011-05-02 2015-01-21 Mstar Semiconductor Inc 應用於三維顯示器的方法與相關裝置
JP2012235348A (ja) * 2011-05-02 2012-11-29 Funai Electric Co Ltd 立体画像鑑賞システム
US20130127838A1 (en) * 2011-05-17 2013-05-23 Kiz Studios Systems and methods for providing a three-dimensional display of a digital image
US8923686B2 (en) * 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
JP5914838B2 (ja) * 2011-05-23 2016-05-11 パナソニックIpマネジメント株式会社 画像表示装置
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
KR20120132240A (ko) * 2011-05-27 2012-12-05 삼성전자주식회사 복수의 사용자에게 복수의 영상을 제공하는 듀얼 뷰 디스플레이 방법 및 듀얼 뷰 안경 구동 방법, 이를 적용한 디스플레이 장치 및 듀얼 뷰 안경
US9578314B2 (en) * 2011-06-22 2017-02-21 Eyelementec Inc. Image/information display system and method based on temporal psycho-visual modulation
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US8947497B2 (en) 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
KR20130013248A (ko) * 2011-07-27 2013-02-06 삼성전자주식회사 3d 영상 재생 기기 및 그 3d 영상 제어 방법
US9465226B2 (en) * 2011-08-09 2016-10-11 Sony Computer Entertainment Inc. Automatic shutdown of 3D based on glasses orientation
JP5367031B2 (ja) 2011-08-11 2013-12-11 株式会社ソニー・コンピュータエンタテインメント 情報処理方法、および情報処理装置
KR101905090B1 (ko) * 2011-08-11 2018-10-08 삼성디스플레이 주식회사 다중 화상 표시 장치
US20130038685A1 (en) * 2011-08-12 2013-02-14 Alcatel-Lucent Usa Inc. 3d display apparatus, method and structures
US20130050573A1 (en) * 2011-08-25 2013-02-28 Comcast Cable Communications, Llc Transmission of video content
US20140063061A1 (en) * 2011-08-26 2014-03-06 Reincloud Corporation Determining a position of an item in a virtual augmented space
CN103002376B (zh) * 2011-09-09 2015-11-25 联想(北京)有限公司 声音定向发送的方法和电子设备
CN102394911B (zh) * 2011-09-14 2014-03-05 曹银锋 计算机辅助工程一体化云分析系统及方法
GB2508786B (en) * 2011-09-23 2015-08-19 Finch Company Pty Ltd Image Processing
US20130106990A1 (en) 2011-11-01 2013-05-02 Microsoft Corporation Planar panorama imagery generation
US9628843B2 (en) 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US9390537B2 (en) * 2011-12-09 2016-07-12 Thomson Licensing Disparity setting method and corresponding device
US9406153B2 (en) 2011-12-14 2016-08-02 Microsoft Technology Licensing, Llc Point of interest (POI) data positioning in image
US9324184B2 (en) 2011-12-14 2016-04-26 Microsoft Technology Licensing, Llc Image three-dimensional (3D) modeling
US10008021B2 (en) * 2011-12-14 2018-06-26 Microsoft Technology Licensing, Llc Parallax compensation
US20130155207A1 (en) * 2011-12-15 2013-06-20 Joseph M. Freund System and method for automatically controlling a video presentation
US20130169755A1 (en) * 2011-12-28 2013-07-04 Samsung Electronics Co., Ltd. Signal processing device for processing plurality of 3d content, display device for displaying the content, and methods thereof
EP2611178A3 (en) * 2011-12-29 2015-08-19 Samsung Electronics Co., Ltd. Display apparatus and method for controlling thereof
CN203015041U (zh) 2011-12-29 2013-06-19 三星电子株式会社 显示装置
FR2982110B3 (fr) * 2012-01-10 2014-03-14 Samsung Electronics Co Ltd Dispositif de lunettes pour visionner une image d'affichage
US9829715B2 (en) 2012-01-23 2017-11-28 Nvidia Corporation Eyewear device for transmitting signal and communication method thereof
WO2013131036A1 (en) * 2012-03-01 2013-09-06 H4 Engineering, Inc. Apparatus and method for automatic video recording
FR2989482B1 (fr) 2012-04-12 2022-12-23 Marc Massonneau Procede de determination de la direction du regard d'un utilisateur.
US20130300730A1 (en) * 2012-05-14 2013-11-14 Shenzhen China Star Optoelectronics Technology Co., Ltd. Lcd system and method for displaying image therein
KR102104898B1 (ko) 2012-06-05 2020-04-27 엘지전자 주식회사 3d 방송 서비스를 위한 방송 신호 처리 방법 및 장치
US9317109B2 (en) 2012-07-12 2016-04-19 Mep Tech, Inc. Interactive image projection accessory
EP2685732A1 (en) * 2012-07-12 2014-01-15 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Stereoscopic pictures generation
US9019415B2 (en) * 2012-07-26 2015-04-28 Qualcomm Incorporated Method and apparatus for dual camera shutter
CN103595997A (zh) * 2012-08-13 2014-02-19 辉达公司 3d显示系统和3d显示方法
US9571822B2 (en) * 2012-08-28 2017-02-14 Samsung Electronics Co., Ltd. Display system with display adjustment mechanism for viewing aide and method of operation thereof
CN104683790A (zh) * 2012-09-25 2015-06-03 青岛海信电器股份有限公司 一种图像处理方法及显示装置
KR20140040451A (ko) * 2012-09-26 2014-04-03 삼성전자주식회사 멀티뷰 디스플레이장치 및 그의 표시방법
CN103716616A (zh) * 2012-10-09 2014-04-09 瀚宇彩晶股份有限公司 可切换二维与裸眼立体显示模式的显示装置的显示方法
US20140118250A1 (en) * 2012-10-25 2014-05-01 University Of Seoul Industry Cooperation Foundation Pointing position determination
JP6178426B2 (ja) * 2012-11-16 2017-08-09 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 遠隔的に処理されるアプリケーションのストリーミングビデオフレーム上のコンテンツのクラウド処理およびオーバーレイのためのシステムおよび方法
KR101538659B1 (ko) * 2012-11-20 2015-07-22 삼성메디슨 주식회사 영상 출력 장치, 방법 이를 이용하는 영상 제공 시스템, 영상 제공 방법 및 기록 매체
KR101999180B1 (ko) * 2012-11-23 2019-10-01 삼성전자주식회사 디스플레이 장치, 그의 제어 방법, 안경 장치 및 그의 제어 방법
US9264749B2 (en) 2012-12-13 2016-02-16 Microsoft Technology Licensing, Llc Server GPU assistance for mobile GPU applications
KR20140082266A (ko) * 2012-12-24 2014-07-02 한국전자통신연구원 혼합현실 콘텐츠 시뮬레이션 시스템
US20140180695A1 (en) * 2012-12-25 2014-06-26 Microsoft Corporation Generation of conversation to achieve a goal
FR3001853B1 (fr) * 2013-02-01 2016-10-21 Inst Mines Telecom Systeme de visualisation pour le visionnement simultane d'une pluralite de flux multimedia, comprenant une pluralite de lunettes de visualisation et un support de visualisation
US9129515B2 (en) * 2013-03-15 2015-09-08 Qualcomm Incorporated Ultrasound mesh localization for interactive systems
WO2014178478A1 (ko) * 2013-04-30 2014-11-06 인텔렉추얼디스커버리 주식회사 헤드 마운트 디스플레이, 디지털 디바이스 및 이들의 제어 방법
US9129478B2 (en) * 2013-05-20 2015-09-08 Microsoft Corporation Attributing user action based on biometric identity
US9384013B2 (en) 2013-06-03 2016-07-05 Microsoft Technology Licensing, Llc Launch surface control
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
CN104244071A (zh) * 2013-06-18 2014-12-24 上海和辉光电有限公司 一种音频播放系统及控制方法
US9549224B2 (en) * 2013-08-07 2017-01-17 Rovi Guides, Inc. Methods and systems for presenting supplemental content in media assets
US9818379B2 (en) 2013-08-08 2017-11-14 Nvidia Corporation Pixel data transmission over multiple pixel interfaces
US9778546B2 (en) 2013-08-15 2017-10-03 Mep Tech, Inc. Projector for projecting visible and non-visible images
US20150049078A1 (en) * 2013-08-15 2015-02-19 Mep Tech, Inc. Multiple perspective interactive image projection
WO2015025185A1 (en) 2013-08-21 2015-02-26 Thomson Licensing Video display with pan function controlled by viewing direction
CN103475844B (zh) * 2013-09-13 2017-01-04 青岛歌尔声学科技有限公司 支持多节目模式的电视、液晶眼镜、电视系统及控制方法
US9881592B2 (en) 2013-10-08 2018-01-30 Nvidia Corporation Hardware overlay assignment
US9967546B2 (en) 2013-10-29 2018-05-08 Vefxi Corporation Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
US11343487B2 (en) * 2013-10-31 2022-05-24 David Woods Trackable glasses system for perspective views of a display
US10652525B2 (en) 2013-10-31 2020-05-12 3Di Llc Quad view display system
US9883173B2 (en) * 2013-12-25 2018-01-30 3Di Llc Stereoscopic display
US10116914B2 (en) * 2013-10-31 2018-10-30 3Di Llc Stereoscopic display
US9986228B2 (en) * 2016-03-24 2018-05-29 3Di Llc Trackable glasses system that provides multiple views of a shared display
KR20150052997A (ko) * 2013-11-07 2015-05-15 삼성디스플레이 주식회사 유기전계발광 표시장치 및 그의 구동방법
US20150156483A1 (en) * 2013-12-03 2015-06-04 Nvidia Corporation Providing a capability to simultaneously view and/or listen to multiple sets of data on one or more endpoint device(s) associated with a data processing device
US10298678B2 (en) 2014-02-17 2019-05-21 International Business Machines Corporation Omnichannel approach to application sharing across different devices
CN103997625A (zh) * 2014-05-29 2014-08-20 歌尔声学股份有限公司 头戴式集成摄像头的显示设备及其显示方法
US10158847B2 (en) 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
CN104147781B (zh) 2014-07-29 2017-11-07 京东方科技集团股份有限公司 电子装置、电子系统和电子装置控制方法
KR20160042277A (ko) * 2014-10-08 2016-04-19 삼성디스플레이 주식회사 3차원 안경 및 이의 구동 방법
KR102356599B1 (ko) * 2014-12-05 2022-01-28 삼성전자주식회사 이미지의 관심 영역 결정 방법 및 관심 영역 결정 장치
CN104869385B (zh) * 2015-04-07 2017-12-15 上海交通大学 基于心理视觉调制显示技术的影院多字幕系统
CN105987683B (zh) * 2015-04-16 2018-03-27 北京蚁视科技有限公司 一种基于高反光红外标识的视觉定位系统及方法
US9936194B2 (en) * 2015-05-29 2018-04-03 Google Llc Active shutter head mounted display
CN104851411B (zh) * 2015-06-04 2017-12-08 京东方科技集团股份有限公司 一种显示驱动方法、装置和显示系统
US10515482B2 (en) 2015-08-24 2019-12-24 Pcms Holdings, Inc. Systems and methods for enhancing augmented reality experience with dynamic output mapping
US9843766B2 (en) 2015-08-28 2017-12-12 Samsung Electronics Co., Ltd. Video communication device and operation thereof
US10545717B2 (en) 2015-10-08 2020-01-28 Pcms Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
KR102402048B1 (ko) * 2015-10-14 2022-05-26 삼성전자주식회사 전자 장치 및 그 제어 방법
CN105472425A (zh) * 2015-11-24 2016-04-06 深圳创维-Rgb电子有限公司 一种单屏多显系统及其单屏多显方法
US11163358B2 (en) * 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
US11181990B2 (en) * 2016-03-18 2021-11-23 Sony Interactive Entertainment Inc. Spectator view tracking of virtual reality (VR) user in VR environments
US9990775B2 (en) 2016-03-31 2018-06-05 Verizon Patent And Licensing Inc. Methods and systems for point-to-multipoint delivery of independently-controllable interactive media content
CN106021922A (zh) * 2016-05-18 2016-10-12 妙智科技(深圳)有限公司 三维医学影像控制设备、方法和系统
US10168976B2 (en) * 2016-05-20 2019-01-01 International Business Machines Corporation Dynamic display arrangement
CN105915990B (zh) * 2016-05-25 2022-11-15 歌尔光学科技有限公司 一种虚拟现实头盔及其使用方法
US20180061103A1 (en) * 2016-08-29 2018-03-01 Analogix Semiconductor, Inc. Systems and Methods for Generating Display Views Tracking User Head Movement for Head-Mounted Display Devices
EP3291566A1 (en) * 2016-08-30 2018-03-07 Advanced Digital Broadcast S.A. A device, method and system for providing a menu with multiple instantiations for a multi-stream display
US10448012B2 (en) * 2016-11-22 2019-10-15 Pixvana, Inc. System and method for data reduction based on scene content
KR102209200B1 (ko) * 2017-06-23 2021-01-29 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 디스플레이 상에서의 프라이버시 제어
JP6755843B2 (ja) 2017-09-14 2020-09-16 株式会社東芝 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム
GB201720062D0 (en) * 2017-12-01 2018-01-17 Holovis International Ltd Immersive three-dimensional environment
US10761343B2 (en) 2018-02-05 2020-09-01 Disney Enterprises, Inc. Floating image display system
US10657854B2 (en) 2018-02-13 2020-05-19 Disney Enterprises, Inc. Electrical charger for a spinning device
CN108444374B (zh) * 2018-03-01 2023-05-05 厦门精图信息技术有限公司 一种二维码智慧门牌安装质量检查系统
US11032345B2 (en) 2018-05-10 2021-06-08 Microsoft Technology Licensing, Llc Client side data stream processing
JP7159608B2 (ja) * 2018-05-14 2022-10-25 コニカミノルタ株式会社 操作画面の表示装置、画像処理装置及びプログラム
US11074838B2 (en) 2018-06-07 2021-07-27 Disney Enterprises, Inc. Image generation system including a spinning display
US10859872B2 (en) 2018-08-14 2020-12-08 Dell Products L.P. Method to utilize force sensors to adjust the LCD pattern or brightness on a display
US10924525B2 (en) 2018-10-01 2021-02-16 Microsoft Technology Licensing, Llc Inducing higher input latency in multiplayer programs
US11048099B2 (en) * 2018-11-20 2021-06-29 Disney Enterprises, Inc. Communication system generating a floating image of a remote venue
US10764564B2 (en) 2018-12-18 2020-09-01 Disney Enterprises Inc. User tracking stereoscopic image display system
CN113196139B (zh) 2018-12-20 2023-08-11 美国斯耐普公司 用于生成立体图像的具有双摄像头的柔性眼戴设备
DE202019101235U1 (de) 2019-03-05 2020-03-06 Christian P. Benzing Sehhilfevorrichtung
US11164489B2 (en) 2019-07-19 2021-11-02 Disney Enterprises, Inc. Rotational blur-free image generation
US11106053B2 (en) 2019-08-05 2021-08-31 Disney Enterprises, Inc. Image generation using a spinning display and blur screen
US10969666B1 (en) 2019-08-21 2021-04-06 Disney Enterprises, Inc. Methods and systems of displaying an image free of motion-blur using spinning projectors
US11048108B2 (en) 2019-09-17 2021-06-29 Disney Enterprises, Inc. Multi-perspective display of an image using illumination switching
CN114945947A (zh) 2019-11-18 2022-08-26 奇跃公司 可通行世界的映射和定位
US10965931B1 (en) 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
USD952673S1 (en) 2019-12-09 2022-05-24 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
US11711571B2 (en) * 2020-03-06 2023-07-25 Advanced Micro Devices, Inc. Client-side offload of graphics effects processing
CN113438524A (zh) * 2020-03-18 2021-09-24 上海三思电子工程有限公司 一种单屏多画面共享系统
CN112929650B (zh) * 2021-01-22 2022-11-25 上海曼恒数字技术股份有限公司 一种多视角虚拟显示信号处理方法、系统、计算机可读存储介质及电子设备
US11740322B2 (en) * 2021-09-10 2023-08-29 Htc Corporation Head mounted display device and position device thereof

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63310086A (ja) * 1987-06-12 1988-12-19 Nec Home Electronics Ltd 3次元像表示方法
US5821989A (en) * 1990-06-11 1998-10-13 Vrex, Inc. Stereoscopic 3-D viewing system and glasses having electrooptical shutters controlled by control signals produced using horizontal pulse detection within the vertical synchronization pulse period of computer generated video signals
JP3318680B2 (ja) * 1992-04-28 2002-08-26 サン・マイクロシステムズ・インコーポレーテッド 画像生成方法及び画像生成装置
DE19533767B4 (de) 1995-09-12 2006-04-27 Micronas Gmbh Anordnung zur Darstellung von mindestens zwei Bildfolgen
US5867210A (en) * 1996-02-09 1999-02-02 Rod; Samuel R. Stereoscopic on-screen surgical microscope systems
GB2317524A (en) * 1996-09-19 1998-03-25 Sharp Kk Three dimensional stereoscopic projection display
US6115177A (en) * 1999-04-06 2000-09-05 Gateway, Inc. Interactive 3-D viewing glasses
US6985290B2 (en) * 1999-12-08 2006-01-10 Neurok Llc Visualization of three dimensional images and multi aspect imaging
JP2001296501A (ja) 2000-04-12 2001-10-26 Nippon Hoso Kyokai <Nhk> 立体画像表示制御方法および装置
US6956576B1 (en) * 2000-05-16 2005-10-18 Sun Microsystems, Inc. Graphics system using sample masks for motion blur, depth of field, and transparency
JP4101434B2 (ja) 2000-05-18 2008-06-18 日本放送協会 透過制御装置
JP2002010300A (ja) * 2000-06-26 2002-01-11 Katsunori Okajima 多人数対応複数視点映像表示装置
US7190331B2 (en) * 2002-06-06 2007-03-13 Siemens Corporate Research, Inc. System and method for measuring the registration accuracy of an augmented reality system
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
WO2005119376A2 (en) * 2004-06-01 2005-12-15 Vesely Michael A Horizontal perspective display
US8159526B2 (en) 2004-09-17 2012-04-17 Seiko Epson Corporation Stereoscopic image display system
US20080246759A1 (en) * 2005-02-23 2008-10-09 Craig Summers Automatic Scene Modeling for the 3D Camera and 3D Video
CA2653815C (en) * 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US8144148B2 (en) * 2007-02-08 2012-03-27 Edge 3 Technologies Llc Method and system for vision-based interaction in a virtual environment
KR20100083776A (ko) 2007-09-07 2010-07-22 리얼 디 입체 영상 시청용 시스템 및 안경류

Also Published As

Publication number Publication date
KR101260033B1 (ko) 2013-05-06
TW201130290A (en) 2011-09-01
CN101966393A (zh) 2011-02-09
US20100007582A1 (en) 2010-01-14
TWI454129B (zh) 2014-09-21
CN101966393B (zh) 2014-06-11
US8269822B2 (en) 2012-09-18
JP5967343B2 (ja) 2016-08-10
EP2278818A3 (en) 2013-12-11
EP2278818A2 (en) 2011-01-26
JP2011019917A (ja) 2011-02-03
KR20110007592A (ko) 2011-01-24

Similar Documents

Publication Publication Date Title
BRPI1010413A2 (pt) Sistema de visualização e métodos para otimização de visualização baseada no rastreamento ativo
JP7132280B2 (ja) Vr観戦のための拡大された視野再レンダリング
CN105377117B (zh) 基于用户的光学处方的头戴式显示器
US9606363B2 (en) Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
JP6484340B2 (ja) ヘッドマウントディスプレイを用いた仮想または拡張現実シーン内のユーザ対話の方法及びシステム
US9465226B2 (en) Automatic shutdown of 3D based on glasses orientation
CN105392538B (zh) 响应于头戴式显示器中的用户动作的图像渲染
JP6377759B2 (ja) ヘッドマウントディスプレイ(hmd)の追跡及びhmdのヘッドバンドの調整のための校正方法及びシステム
JP6195664B2 (ja) ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法
US20120218253A1 (en) Adjusting 3d effects for wearable viewing devices
CN107076989A (zh) 根据眼睛追踪的实时透镜像差校正
TW201633104A (zh) 頭戴顯示器之追蹤系統
BR112016007009B1 (pt) Mecanismos de segurança baseados em câmera para usuários de telas tipo head-mounted display
KR102195450B1 (ko) 줌 장치 및 관련된 방법
WO2021231051A1 (en) Highly interactive display environment for gaming

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09B Patent application refused [chapter 9.2 patent gazette]
B12B Appeal against refusal [chapter 12.2 patent gazette]