BRPI0909883B1 - Determinação da posição tridimensional do controle empregando análise de imagens e comunicação ultrassónica - Google Patents
Determinação da posição tridimensional do controle empregando análise de imagens e comunicação ultrassónica Download PDFInfo
- Publication number
- BRPI0909883B1 BRPI0909883B1 BRPI0909883-6A BRPI0909883A BRPI0909883B1 BR PI0909883 B1 BRPI0909883 B1 BR PI0909883B1 BR PI0909883 A BRPI0909883 A BR PI0909883A BR PI0909883 B1 BRPI0909883 B1 BR PI0909883B1
- Authority
- BR
- Brazil
- Prior art keywords
- control
- sound
- controls
- communication
- capture
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/833—Hand-to-hand fighting, e.g. martial arts competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/843—Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1081—Input via voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8029—Fighting without shooting
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8088—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game involving concurrently several players in a non-networked game, e.g. on the same game console
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Processing Or Creating Images (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
DETERMINAÇÃO DA POSIÇÃO TRIDIMENSIONAL DO CONTROLE EMPREGANDO ANÁLISE DE IMAGENS E COMUNICAÇÃO ULTRASSÓNICA. A interface de jogos rastreia a posição de um ou mais controles de jogos em um espaço tridimensional empregando um sistema híbrido de captura de vídeo e de rastreamento ultrassónico. As informações de vídeo capturadas são usadas para identificar uma posição horizontal e vertical para cada controle na área de captura. O sistema de rastreamento ultrassónico analisa a comunicação sonora para determinar as distâncias entre o sistema de jogos e cada controle e para determinar as distâncias entre os controles. As distâncias são então analisadas pela interface de jogos para calcular as profundidades dentro da área de captura para cada controle.
Description
A presente invenção refere-se, em linhas gerais, às comunicações entre um dispositivo computacional e um controle na mão de um usuário e, mais especificamente, à utilização das comunicações entre o dispositivo computacional e o controle para determinar a posição do controle em um espaço tridimensional.
A indústria de vídeo games passou por muitas mudanças ao longo dos anos. À medida que o poder computacional cresceu os desenvolvedores de video games também criaram softwares de jogos que se beneficiam do aumento desse poder computacional. Para tanto, desenvolvedores de vídeo games produziram jogos que incorporam operações e aritmética sofisticadas para proporcionar uma experiência de jogos muito realista.
Plataformas de jogos para este exemplo podem ser o Sony Playstation®, Sony Playstation2® (PS2) e Sony Playstation3® (PS3), cada um vendido na forma de um console de jogos. Como é de conhecimento geral, o console de jogos foi concebido para ser conectado a um monitor (normalmente um televisor) e permitir a interação do usuário por meio de controles em suas mãos. O console de jogos foi projetado com um hardware especializado para processamento, incluindo uma CPU, um sintetizador gráfico para o processamento de operações gráficas intensivas, uma unidade vetorial para execução de transformações geométricas e outros elementos adicionais de hardware, firmware e software. O console de jogos também foi projetado com um leitor de discos óticos para receber CDs de jogos para uso local no console de jogos. Também é possível jogar on-line, quando um usuário pode jogar interativamente com ou contra outros usuários através da Internet.
À medida que a complexidade dos jogos continua a intrigar os jogadores, os fabricantes de jogos e hardware continuaram inovando para proporcionar interatividade e programas de computador adicionais.
Uma tendência crescente na indústria de jogos para computador é o desenvolvimento de jogos que aumentem a interação entre o usuário e o sistema de jogos. Uma forma de se obter uma maior experiência interativa é a utilização de controles de jogos sem-fio, cujo movimento é rastreado pelo sistema de jogos a fim de acompanhar os movimentos do jogador e usar esses movimentos como elementos de entrada para o jogo. De forma geral, a entrada gestual refere-se à existência de um dispositivo eletrônico como um sistema computacional, um console de vídeo games, um aplicativo inteligente, etc., que reaja a algum gesto capturado por uma câmara de vídeo que rastreia um objeto.
Entretanto, o rastreamento atual de objetos sofre em termos de precisão na captura. Este problema ocorre porque a análise convencional de imagens somente pode produzir algumas medidas confiáveis da posição do usuário em duas dimensões. A determinação da distância entre a câmara e o objeto que está sendo rastreado é difícil, uma vez que pequenas alterações na sua forma em função do movimento aproximando-se ou afastando-se da câmara não proporcionam informações suficientes para calcular, de forma confiável, as distâncias entre a câmara e o controle. Em condições de laboratório, alguns utilizaram um dispositivo de sensoriamento de profundidade. Esses dispositivos de sensoriamento de profundidade, contudo, utilizam um sistema de retorno bidirecional que tenta descrever os contornos de certas imagens a partir da luz que é refletida pelos objetos colocados na frente desses dispositivos. Embora esses dispositivos tenham algumas aplicações, a sua utilização em jogos é, de certa forma, limitada, devido ao custo, complexidade e processamento adicional necessário para combinar os dados de profundidade com os dados das imagens bidimensionais. Assim sendo, a integração de dados de profundidade com os controles interativos de jogos continua sendo limitada, produzindo resultados aquém dos esperados e não sendo amplamente aceita fora do ambiente de laboratório.
É, nesse contexto, que surgem as configurações da presente invenção.
Em linhas gerais, a presente invenção preenche a necessidade de se proporcionar métodos e sistemas para estabelecer a comunicação entre um programa de computador em um sistema computacional e um controle, utilizado por um usuário, para determinar a posição tridimensional desse controle. Deve-se considerar que a presente invenção pode ser implementada de inúmeras formas, tais como um processo, um aparelho, um sistema, um dispositivo ou um método em um meio de leitura para computador. Várias das configurações da presente invenção são descritas a seguir.
Em uma configuraçãos, é provido um método para estabelecer a comunicação entre um programa de computador em um sistema computacional e um controle, que está na mão de um usuário. O método exibe uma interface gráfica do usuário em uma tela e captura dados de imagem de uma área na frente da tela. A área na frente da tela também é conhecida como área de captura e abrange o espaço onde o usuário deverá interagir com o sistema computacional. Também é possível realizar ajustes na área de captura para aumentá-la ou reduzi-la. Os dados da imagem capturada, tais como os dados fornecidos por uma câmara digital de vídeo, são usados para identificar a posição bidimensional do controle em relação à área de captura. O método também captura a comunicação sonora unidirecional entre um ponto próximo à tela, como um microfone, e um ponto no controle. A informação obtida por meio da comunicação sonora é usada para calcular uma posição tridimensional do controle dentro da área de captura.
Outra configuração descreve um sistema para estabelecer a comunicação entre um programa de computador e um controle. O sistema inclui uma tela para exibir uma interface gráfica do usuário, um dispositivo de captura de imagens, um dispositivo de captura de sons e um sistema computacional para executar o programa. O dispositivo de captura de imagens captura dados de imagens em uma área na frente da tela, que será doravante denominada como área de captura. O dispositivo de captura de sons analogamente captura dados de sons na área de captura. O sistema computacional é conectado à tela, ao dispositivo de captura de imagens e ao dispositivo de captura de sons. O controle é configurado para ser usado pelo usuário com apenas uma mão e inclui um corpo com duas extremidades; uma área de empunhadura perto da primeira extremidade; um teclado de entrada entre as duas extremidades para inserir dados de entrada; uma seção esférica na segunda extremidade; e um dispositivo emissor de sons próximo da segunda extremidade. A seção esférica facilita o reconhecimento da imagem pelo dispositivo de captura de imagens, e o dispositivo emissor de sons, que está voltado para longe do usuário quando utilizado por este, proporciona a comunicação sonora unidirecional com o dispositivo de captura de sons. O programa de computador identifica a posição bidimensional do controle a partir dos dados de imagens capturadas e a posição tridimensional do controle é dada pelos dados de sons capturados.
Adicionalmente, em outra configuração é apresentado um sistema para estabelecer a comunicação entre um programa de computador e um controle. O sistema inclui uma tela, dois conjuntos de emissores de luz localizados junto à tela e voltados para a área de captura na frente da tela, um dispositivo de captura de sons como um microfone, e um sistema computacional para executar o programa O sistema computacional é conectado à tela e ao dispositivo de captura de sons. No sistema, o controle deverá ser utilizado pelo usuário, em uma das mãos; esse controle inclui um corpo com duas extremidades, uma área de empunhadura perto da primeira extremidade, um teclado de entrada entre as duas extremidades, um dispositivo de captura de imagens junto à segunda extremidade e um dispositivo emissor de sons próximo da segunda extremidade. O dispositivo emissor de sons, que está voltado para longe do usuário quando utilizado por este, está configurado para a comunicação sonora unidirecional com o dispositivo de captura de sons junto ao sistema computacional. Dentro desse sistema, o programa de computador identifica uma posição bidimensional do controle com base nos dados de imagens capturadas e a posição tridimensional do controle é dada pelos dados de sons capturados.
Outros aspectos da invenção ficarão aparentes a partir da descrição detalhada a seguir, juntamente com os desenhos que ilustram, de forma exemplificativa, os princípios da invenção.
A invenção pode ser mais bem compreendida mediante referência à seguinte descrição juntamente com os respectivos desenhos, nos quais:
Figura 1 mostra um ambiente interativo de jogo com jogadores múltiplos.
Figuras 2A-2D apresentam diagramas de um ambiente de jogadores múltiplos e a utilização de dados de sons e vídeos para determinar as posições dos diferentes controles dos jogadores, de acordo com uma configuração.
Figura 5 A-3B descrevem uma configuração de um controle para uma mão com uma seção esférica e recursos ultrassónicos.
Figura 6 ilustra uma representação esquemática de um controle com uma seção esférica iluminada por um ou mais emissores internos de luz, de acordo com uma configuração.
Figura 7 inclui um controle com emissores de luz no interior da seção esférica, onde os emissores de luz estão visíveis a partir da parte externa do controle, de acordo com uma configuração.
Figura 8 ilustra um controle com recursos ultrassónicos e uma seção esférica parcialmente coberta por um material retro reflexivo.
Figura 9 descreve uma configuração com um controle para uma mão com placas frontais intercambiáveis.
Figura 10 ilustra uma representação esquemática de dois controles unidos por uma placa encaixável para formar um controle para ser usado com ambas as mãos, de acordo com uma configuração.
Figura 11 -9B apresentam dois controles para uma mão unidos pela base para formar um único controle em uma configuração.
Figura 12 ilustra o rastreamento visual do controle e as características do usuário, de acordo com uma configuração.
Figura 13 exibe o rastreamento dos movimentos do controle em uma configuração.
Figuras 12A-12B mostram diferentes vistas de um controle para uma mão de um jogador.
Figura 13 apresenta uma representação esquemática de um jogador usando controles para uma mão para ilustrar o uso do ultrassom para determinar distâncias relativas, de acordo com uma configuração.
Figuras 14A-14B ilustram a determinação das posições tridimensionais de dois controles usando recursos de vídeo e ultrassom, de acordo com uma configuração.
Figura 15 descreve a determinação da posição de dois controles utilizando ultrassom para medir a distância entre os controles, de acordo com uma configuração da presente invenção.
Figura 16 ilustra a determinação da posição de um controle formado pela união de dois controles, como mostra a Figura 9a, utilizando informações relacionadas com cada controle, de acordo com uma configuração.
Figura 17 mostra a vista superior de uma configuração que inclui o controle 600 com câmara embutida 602 e comunicações ultrassónicas.
Figura 18 ilustra dois jogadores usando controles para uma mão com recursos de video e som, de acordo com uma configuração.
Figura 19 A-19D apresentam diferentes configurações dos controles para uma mão com recursos de vídeo e ultrassom.
Figura 20 é um diagrama de blocos dos diferentes elementos de um sistema de entretenimento.
Figura 21 apresenta uma configuração para jogos interativos com quatro controles, próximos às mãos e pés do jogador.
Figura 22 ilustra o hardware e as interfaces do usuário que podem ser usadas para determinar a posição do controle, de acordo com uma configuração da presente invenção.
Figura 23 mostra um hardware adicional que pode ser usado para processar instruções, de acordo com uma configuração da presente invenção.
Figura 24 apresenta um fluxograma que descreve um método de comunicação de um controle para uma mão com um sistema computacional para determinar a posição tridimensional do controle, de acordo com uma configuração.
São apresentados métodos e sistemas para estabelecer a comunicação entre um programa de computador em um sistema computacional e um controle na mão de um usuário, de maneira a determinar a posição tridimensional de um controle usado por um usuário. O método exibe uma interface gráfica do usuário em uma tela, capturando dados de imagem de uma área de captura localizada na frente da tela, onde se espera que o usuário interagindo com o sistema computacional esteja. Os dados das imagens capturadas são usados para identificar uma posição bidimensional do controle na área de captura. A posição bidimensional descreve a posição horizontal e vertical do controle. Adicionalmente, o método utiliza uma comunicação sonora unidirecional entre uma posição próxima à tela e a posição no controle para capturar dados de som. Os dados de som são usados para calcular a distância do controle até a área da tela. A posição bidimensional e a distância combinada definem um ponto na área de captura onde o controle está localizado.
Conforme aqui adotado, a comunicação sonora unidirecional refere-se à transmissão de informações de um emissor para um receptor mediante ondas sonoras. Em algumas configurações, as ondas sonoras são ondas ultrassónicas e, portanto, não detectadas pelo ouvido humano. Em algumas configurações, o emissor corresponde à primeira extremidade da comunicação sonora, e o receptor corresponde à segunda extremidade. Em outras configurações, as posições estão invertidas, a primeira extremidade corresponde ao receptor e, a segunda, ao emissor. Ainda assim, algumas configurações incluem comunicações bidirecionais entre a primeira e a segunda extremidade, sendo que a qualquer momento a primeira ou a segunda extremidade atuam como emissor ou receptor.
A comunicação sonora é usada para avaliar a distância de uma extremidade à outra, examinando as informações associadas com a comunicação sonora. Por exemplo, o emissor envia um pulso sonoro ao receptor e o tempo necessário para que o sinal sonoro vá de uma extremidade à outra é medido para confirmar a distância com base na velocidade do som. Em uma configuração, deve-se notar que o emissor e o receptor correspondem a diferentes entidades e não à mesma entidade ou, em outras palavras, o tempo para que um sinal retorne ao emissor não será considerado para os métodos e para o aparelho aqui descritos. Outras operações, além do uso de um pulso sonoro, podem ser usadas em conjunto com a comunicação sonora, contanto que seja obtida a medição da distância do emissor ao receptor. Exemplos de outras operações são: análise da coerência de fase, mudança de fase do sinal de onda, mudança de frequência do sinal de onda, mudança da amplitude do sinal de onda, etc.
Será óbvio, entretanto, para aquele técnico no assunto, que a presente invenção pode ser realizada sem alguns ou todos estes detalhes específicos. Em outros casos, operações bem conhecidas de processos não foram descritas em detalhes a fim de não eclipsar desnecessariamente a presente invenção.
A Figura 1 mostra um ambiente interativo de jogo com jogadores múltiplos. O sistema de entretenimento 100 inclui o sistema computacional 102 que executa um programa de computador com instruções para comunicação com os controles C1-C5 que são usados pelos jogadores A, B e C. O sistema computacional 100 comunica-se com o dispositivo de captura de imagens 106, com 0 dispositivo de captura de sons 108, com a tela 104 e os controles C1-C5. O sistema computacional 100 comunica-se com outras entidades do sistema de entretenimento 100 por meio de conexões com ou sem-fio, que incluem Bluetooth®, Wi-Fi™, 802.11, etc. Uma configuração típica inclui conexões diretas com fio entre 0 sistema computacional 102 e os elementos fixos próximos do sistema computacional, tais como 0 dispositivo de captura de imagens 106, a tela 104 e 0 dispositivo de captura de sons 108, enquanto que a comunicação com os controles são sem-fio, usando WiFi™. Embora o WiFi™ seja especificamente mencionado, deve-se compreender que outros padrões de comunicação também podem ser usados, incluindo protocolos e algoritmos de comunicação não padronizados, sem-fio.
A área de captura 118 é um espaço tridimensional onde se espera que os usuários do sistema estejam enquanto interagem com 0 sistema de entretenimento 100. O dispositivo de captura de imagens 106 toma imagens da área de captura e as envia ao sistema computacional 102. Em uma configuração, o dispositivo de captura de imagens 106 é uma câmara digital de vídeo. Outras configurações utilizam outros tipos de dispositivos de captura de imagens, tais como uma câmara digital colorida, um câmara digital monocromática, uma câmara infravermelha ou dispositivos especializados que se concentram na detecção de características particulares dos objetos que estão sendo detectados, por exemplo, uma cor pré-determinada.
Os dados das imagens capturadas podem ser manipulados e analisados em um formato comprimido ou em formato bruto. O formato bruto das imagens contém dados minimamente processados a partir do dispositivo de captura de imagens. Os dados de imagens processados ou comprimidos são criados por um conversor bruto com uma ampla gama interna de cores para realizar ajustes precisos antes da conversão para um formato de arquivo vermelho-verde-azul (RGB), como os formatos de arquivo Tagged Image File Format (TIFF), Joint Photographic Experts Group (JPEG), Portable Network Graphics (PNG), Graphics Interchange Format (GIF), bitmap do Windows (BMP), etc. A profundidade da cor da imagem processada pode variar de preto-e-branco, para uma escala de cinza, uma paleta de cores, para 24 bits por pixel, etc. Em uma configuração, os dados brutos das imagens são analisados para localizar o formato do controle dentro dos dados das imagens, e a posição do controle é então designada de acordo com o formato localizado nos dados das imagens. Em outra configuração, os dados processados das imagens são usados ao invés de localizar o controle na imagem capturada.
Os dados das imagens capturadas são usados para determinar uma posição bidimensional do controle. Esta posição é identificada por duas coordenadas x e y (x, y) que definem um ponto em um plano, ou uma linha em um espaço tridimensional como a área de captura. Algumas vezes, as posições horizontais e verticais são usadas para referenciar os valores x e y. Adicionalmente, outros tipos de coordenadas são usados, como um ângulo da origem e um vetor. Analogamente, dentro do espaço tridimensional, diferentes sistemas de coordenadas podem ser usados para identificar um ponto no espaço, como as coordenadas ortogonais x, y e z, as coordenadas x e y e um vetor da origem, ou dois ângulos e um vetor, etc.
O dispositivo de captura de sons 108 coleta dados de sons na área de captura. Em uma configuração, a comunicação unidirecional é usada quando o som proveniente dos controles for recebido pelo dispositivo de captura de sons 108. As comunicações ultrassónicas não interferem com a experiência do jogador. Em uma configuração, os controles possuem um alto-falante a partir do qual o som é gerado, e o dispositivo de captura de sons inclui um microfone voltado para a área de captura. Em uma configuração, o foco da área de captura pode ser refinado utilizando-se técnicas de filtragem para evitar a captura de ruídos estranhos fora da área de captura. Adicionalmente, o dispositivo de captura de sons pode filtrar frequências não empregadas na comunicação ultrassónica para reduzir, ainda mais, as interferências geradas por fontes sonoras indesejadas. Ainda assim, as comunicações sonoras podem apresentar falsas leituras devido ao som refletido por superfícies próximas à área de jogo. Em uma configuração, o sistema computacional 102 inclui mecanismos para evitar falsas leituras provocadas por reflexões sonoras, tais como filtros direcionais, análise de ondas sonoras, etc.
Em outra configuração, a comunicação entre o controle e o dispositivo de captura de imagens 106 é bidirecional, ou seja, tanto o controle quanto o dispositivo sonoro transmitem ou recebem mensagens ultrassónicas. Ainda assim, em outra configuração, a comunicação unidirecional ocorre no sentido oposto, com um microfone ultrassónico em cada controle e um dispositivo emissor de sons localizado próximo à tela.
A comunicação ultrassónica é usada para medir a distância entre o controle e o dispositivo de captura de sons, denominada dz, mediante a análise do tempo necessário para que o sinal sonoro chegue ao seu destino. Adicionalmente, a coerência de fase do sinal recebido também pode ser analisada para melhor determinar a distância. Quando é usada a comunicação ultrassónica unidirecional, é necessária uma sincronização de “clock” precisa para realizar medições exatas do tempo necessário para que o som vá da fonte até o destino. Aqueles versados na arte facilmente identificarão formas de obter a sincronização de “clock”. Por exemplo, um canal WiFi™ entre o controle e o dispositivo computacional pode ser usado para sincronizar os “clocks”. A Patente Norte-Americana US 5,991,693 concedida a Zalewski (aqui incorporada para fins de referência) apresenta um modo de rastreamento utilizado pela presente invenção.
O ponto (x, y) obtido a partir dos dados das imagens capturadas, juntamente com a distância dz definem um único ponto dentro da área de captura tridimensional. Algumas vezes, dz é chamada de terceira dimensão, pois dz pode ser traduzido como um valor no eixo z que é ortogonal aos eixos x e y anteriormente descritos. A medida z é identificada como sendo a profundidade na área de captura. Por exemplo, dz5 corresponde ao valor da profundidade de z5. Esta conversão geométrica é descrita mais detalhadamente abaixo em relação à Figura 2D.
Em uma configuração, a área de captura 118 é definida pelos limites da área de captura 114a e 114b, definidos pelo dispositivo de captura de imagens 106 e por uma linha limite posterior localizada a uma profundidade pré- determinada do campo. Valores normais para a profundidade máxima variam entre 3 e 10 pés, mas outros valores também são possíveis. Em outras configurações, a área de captura não precisa ter a forma de uma pirâmide e pode ter a forma de um cubo, uma esfera, um cone, ou qualquer outro formato, desde que os princípios da invenção sejam mantidos.
As Figuras 2A-2D apresentam esquemas de um ambiente para múltiplos jogadores e da utilização de dados de vídeo e som para determinar as posições dos diferentes controles dos jogadores, de acordo com uma configuração. A Figura 2A apresenta uma vista tridimensional do ambiente de jogo com dois jogadores. O dispositivo de captura de imagens é usado para obter as coordenadas x e y dos controles Ci, C2, C4 e Cs- As distâncias dzi, dZ2, dz4 e dZ5 são calculadas através das comunicações ultrassónicas recebidas pelo dispositivo de captura de sons 108. O sistema computacional 102, como mostra a Figura 1, utiliza as coordenadas e distâncias obtidas para produzir representações dos jogadores na tela, os avatares 112a e 112b, respectivamente.
A Figura 2B apresenta uma vista superior do ambiente de jogo correspondente ao Jogador A da Figura 2A. A área de captura 118 define os limites para a detecção do controle. Em uma configuração, os controles Ci e C2 estão configurados para comunicação ultrassónica bidirecional, permitindo que os controles meçam a distância entre si, dRsií OS controles possuem interfaces sonoras nas suas laterais para permitir a comunicação entre os controles. Em uma configuração, a distância dRsi corresponde a um valor de Intervalo Físico X, que é traduzido em uma distância de Intervalo na Tela X, exibida na tela. Em uma configuração, o componente vertical não é considerado para a representação do avatar 112a na tela. Em outra configuração, ambos os componentes x e y são calculados a partir de dRsi para que a representação na tela inclua uma vista em perspectiva de um campo de jogo 3D (não ilustrado).
A Figura 2C mostra o mesmo jogador da Figura 2B em outro instante, quando os controles Ci e C2 estão separados por uma distância dRs2, onde dRs2 é maior do que dRsi na Figura 2B. A distância dRs2 corresponde a uma nova separação horizontal igual a (x + Δx) A nova distância (x + Δx) é convertida em uma nova posição relativa dos controles na tela, que é alterada por um valor proporcional (x + Δx intervalo na tela).
A Figura 2D mostra a conversão de uma medida de distância para uma medida de profundidade absoluta (z). dz é a distância do controle 124 até o dispositivo de captura de sons 108 com as coordenadas (xo, yo, Zo). Utilizando dados de captura de imagens, as coordenadas horizontal (xi) e vertical (y^ do controle 124 são calculadas (não ilustrado). O cálculo do valor Zi do controle 124 envolve a interseção da linha definida por qualquer ponto com as coordenadas (x1 y1) no espaço tridimensional com uma esfera centrada no dispositivo de captura de sons com um raio dzi. A linha é definida pela seguinte equação: {x = x1;y = y1}
Essa equação supõe um espaço sem distorção de perspectiva. Outras configurações compensam possíveis distorções devido à vista em perspectiva do dispositivo de captura de imagens. A esfera é definida pela equação: (x – xo)2 + (y - yo)2 + (z - zo)2 = dz12
Substituindo-se x por Xi e y por yi na equação da esfera, teremos um valor de z correspondente ao valor da profundidade Zi. Deve-se observar que a equação apresentará dois valores de z, mas somente um deles estará dentro da área de captura.
As Figuras 3A-3B descrevem uma configuração com um controle para uma mão 130 com uma seção esférica 132 e recursos ultrassónicos. O formato da seção esférica 132 permite a detecção da posição do controle mediante a análise da imagem capturada por um dispositivo de captura de imagens.
Deve-se entender que no escopo desta invenção, o termo “esférico” não está limitado a uma esfera perfeita. Pelo contrário, o termo “esférico" também deve incluir qualquer forma que tenha uma aparência semelhante, como um formato oval, uma lateral esférica parcial, um formato elíptico, de globo, de bola, de balão, uma forma abaulada, protuberante, ampliada, estendida, etc., ou qualquer tipo de forma que possa ser facilmente detectada e que faça parte ou que esteja conectada ou adjacente ao controle de mão ou, simplesmente, um objeto físico básico.
Em outras configurações, descritas a seguir, recursos adicionais foram agregados à seção esférica para permitir uma melhor detecção do controle através dos dados das imagens. O controle 130 é configurado para comunicação ultrassónica bidirecional. A interface sonora 136 permite a comunicação ultrassónica para frente do controle, enquanto que a interface sonora 134 permite a comunicação ultrassónica para as laterais do controle. Como foi anteriormente descrito, a comunicação frontal é usada para determinar a distância dz do controle até o receptor de som na outra extremidade.
A interface sonora 134 é usada para se comunicar com um segundo controle que estiver na outra mão do mesmo jogador que está segurando o controle 130. A comunicação sonora lateral também é usada para se comunicar com outros controles usados pelos diferentes jogadores aumentando, assim, a precisão na determinação das posições dos diferentes jogadores e controles. Em uma configuração, uma câmara acústica no interior do controle disponibiliza um conduto para o som conforme descrito a seguir para a Figura 3B. Em outra configuração, a interface sonora 134 inclui uma porta deslizante que fecha a interface lateral 136 quando a comunicação lateral não for necessária aumentando, assim, a potência da comunicação sonora para a parte frontal do controle. A área do teclado de entrada 138 possui botões para receber os comandos do usuário durante o jogo. O controle 130 possui uma área de empunhadura 140 para acomodar a mão do usuário.
A Figura 3B apresenta o controle 130, como foi visto na Figura 3A, com uma câmara acústica interna 150. A câmara acústica interna encaminha o ultrassom de e para o emissor sonoro 154 e receptor sonoro 152 para a parte externa do controle. Em uma configuração, a câmara acústica 150 possui interfaces sonoras na parte frontal e nas laterais. A utilização da câmara acústica permite a comunicação sonora multidirecional usando-se apenas um emissor e um receptor. Em outra configuração, uma câmara acústica não é usada e um par de emissor e receptor encontra-se em cada lado do controle, onde ocorrem as comunicações sonoras. Em outra configuração, a comunicação sonora pode passar pela seção esférica, onde o som é disperso em várias direções permitindo a comunicação sonora mesmo quando o controle não estiver voltado para o dispositivo de captura de sons, na outra extremidade. Há uma pluralidade de interfaces sonoras ao longo da seção esférica e cada interface sonora está conectada à câmara acústica. As interfaces sonoras também podem incluir sensores sonoros que ajudam a identificar o sentido ou a interface sonora de onde vem o som, resultando em uma maior precisão.
A Figura 4 apresenta uma representação esquemática do controle 170 com uma seção esférica iluminada por um ou mais emissores de luz internos 172, de acordo com uma configuração. A luz dos emissores 172 ilumina a seção esférica 174, facilitando a detecção do controle durante a análise dos dados de imagens, pois o brilho adicional da seção esférica é usado pelo dispositivo computacional para diferenciar com mais facilidade os detalhes e os contornos da seção esférica contra as imagens de fundo. Em uma configuração, os emissores de luz 172 são diodos emissores de luz (LED). Em outra configuração, os emissores de luz 172 encontram-se no espectro infravermelho, fazendo com que a seção esférica brilhe com luz infravermelha, possibilitando a sua detecção por meio de uma câmara infravermelha.
Embora seja preferível que a câmara de rastreamento do controle opere nas frequências de IV (ou tenha a capacidade de operar no modo IV), a seção esférica do controle também poderá ter uma cor fluorescente laranja ou verde, para que uma câmara que opere no espectro visível possa rastrear a posição x, y.
A Figura 5 traz um controle com emissores de luz infravermelha 184 no interior da seção esférica 182, onde os emissores de luz são visíveis pela parte externa do controle, de acordo com uma configuração. A seção esférica permite a passagem da luz infravermelha com uma distorção mínima, possibilitando que uma câmara infravermelha detecte a posição do controle 180 ao detectar a luz infravermelha. Em outra configuração, as fontes de luz são LEDs que operam no espectro visível e que são detectados através da análise dos dados de imagens tiradas com uma câmara digital. Ainda em outra configuração, as frequências das fontes de luz são misturadas para que possam ser identificadas saídas visíveis e em IV.
A Figura 6 apresenta o controle 190 com recursos ultrassónicos e a seção esférica 192 parcialmente coberta por um material retro reflexivo 194. Um retro- refletor é um dispositivo ou superfície que reflete uma frente de onda ao longo de um vetor que é paralelo, mas tem o sentido oposto ao ângulo de incidência. É diferente de um espelho, que somente funciona dessa forma se estiver exatamente perpendicular à frente de onda. Se a seção esférica 192 for retro reflexiva ou parcialmente retro reflexiva, a luz proveniente de uma fonte próxima ao dispositivo remoto de captura de luz, será refletida de volta para o dispositivo de captura de luz, como mostra a Figura 14B. Isso aumentará a quantidade de luz refletida, comparada com elementos que não são retro-refletores, possibilitando um maior contraste de imagens e um melhor reconhecimento do controle na imagem capturada. Em outra configuração, a seção esférica 192 está totalmente coberta por material retro reflexivo para máxima reflexão de luz.
Deve-se compreender que cada característica de uma configuração pode ser combinada com outra característica de outra configuração da presente invenção para criar configurações híbridas. Por exemplo: uma seção esférica revestida com material retro reflexivo também pode conter uma fonte IV que permita à luz IV do interior da seção esférica passar através de áreas de transmissão da esfera onde não haja material retro reflexivo.
A Figura 7 apresenta uma configuração do controle 210 para uma mão com placas frontais intercambiáveis. As diferentes placas frontais, tais como 220a e 220b, permitem diferentes configurações do teclado e proporcionam maior flexibilidade ao usuário na escolha dos métodos de entrada de comandos para os diferentes jogos. Na configuração apresentada na Figura 7, o usuário tem a opção de usar a placa frontal A, 220a, que inclui um teclado direcional, ou a placa frontal B, 220b, que possui 4 botões.
A Figura 8 traz uma representação esquemática de dois controles para uma mão, 300a e 300b, unidos por meio de uma placa encaixável 302 para formar um controle para ser usado com ambas as mãos, de acordo com uma configuração. A placa de inserção adiciona opções de entrada de comandos para o usuário. Ao usar a placa frontal entre os controles, a distância entre eles será fixa e conhecida. Um sistema computacional remoto rastreia os movimentos de ambos os controles para maior precisão. Adicionalmente, considerando-se a distância fixa entre os controles, o sistema computacional pode ainda refinar a detecção da posição e orientação do controle, utilizando técnicas de triangulação.
As Figuras 9A-9B apresentam dois controles para uma mão unidos pela base para formar um único controle em uma configuração. O mecanismo de travamento 322 possibilita que os controles 320a e 320b sejam unidos pela base. Em uma configuração, a forma dos controles 320a e 320b é configurada para permitir o intertravamento dos controles. Em outra configuração, um adaptador é usado para conectar os controles. O adaptador pode formar uma estrutura rígida com os controles ou pode ser flexível, permitindo formas diferentes e flexíveis de combinação. Por exemplo, o adaptador pode incluir um mecanismo semelhante a uma corda mediante o qual a combinação dos dois controles poderia ser usada em um jogo como um “nunchaku”. Adicionalmente, em outra configuração, o adaptador pode se projetar na direção longitudinal, mediante um mecanismo telescópico, resultando em uma combinação que seria semelhante a uma espada longa ou lança. Em outra configuração, uma conexão elétrica seria feita entre os controles para que o sistema computacional possa detectar que os controles estão unidos, ou para permitir a comunicação diretamente entre os controles. Esta combinação pode ser denominada como uma configuração do tipo “espada” ou “varinha mágica”. Analogamente à combinação do controle apresentada na Figura 8, a configuração de “espada” permite que o dispositivo computacional remoto rastreie ambos os controles para uma maior precisão.
A Figura 9B apresenta um ambiente tridimensional de jogos que inclui um controle do tipo “espada”. A câmara 322 e o dispositivo de captura de sons 324 rastreiam ambos os controles. Por exemplo: a comunicação ultrassónica é usada para determinar as distâncias dzi e dz2 dos controles até o dispositivo de captura de sons 321. O sistema computacional detecta a posição no espaço e calcula a posição das extremidades de ambos os controles. Em uma configuração, a linha que une os dois controles é transformada para uma posição similar de uma ferramenta ou arma na tela.
A Figura 10 ilustra o rastreamento visual do controle 360 e das características do usuário, de acordo com uma configuração. Os dados da imagem capturada pela câmara 362 são analisados para calcular não só a posição (x, y) do controle, mas também detectar características humanas, considerando as posições do jogador e do controle como informações de entrada para o jogo. Em uma configuração, a área da cabeça 350 e do tórax 352 é rastreada. Em outra configuração, os olhos do jogador são rastreados (não exibido). A linha 354 mostra a direção no sentido do rosto do usuário, a linha 356 mostra a direção no sentido do tórax e a linha 358, a direção e a distância até o controle. Alterações nos ângulos 0i e 02 entre as diferentes linhas indicam alterações relativas na posição do jogador em relação ao controle.
A Figura 11 mostra o rastreamento do movimento do controle em uma configuração. Além da seção esférica e da comunicação ultrassónica, o controle 380 possui um analisador inercial 388 que rastreia a atividade inercial do controle 380. Os dados do analisador inercial 388 são transmitidos via WiFi 382 ao sistema computacional. Vários tipos de dispositivos de sensoriamento inercial podem ser usados para proporcionar informações sobre os 6 graus de liberdade (p.ex.: translação nos eixos x, y e z, e rotação nos eixos x, y e z). Exemplos de sensores inerciais adequados para fornecer informações sobre os 6 graus de liberdade são: acelerômetros, um ou mais acelerômetros de eixo único, giroscópios mecânicos, giroscópios a laser, ou combinações de dois ou mais desses dispositivos. Os sinais do analisador inercial 388 são analisados para determinar o movimento e a orientação do controle durante a ação em um vídeo game. Em uma configuração, os dados da análise inercial são comunicados ao sistema computacional através de uma comunicação sem-fio WiFi™ 382. Alternativamente, uma comunicação com fio ou uma combinação de ambas também é possível. Embora a comunicação WiFi™ seja especificamente identificada, outros modos e padrões de comunicação sem-fio também poderão ser empregados.
As Figuras 12A-12B apresentam diferentes vistas de um controle na mão de um jogador. A Figura 12A traz uma vista da perspectiva da câmara voltada para o jogador. Nessa configuração, o controle 400 possui material retro reflexivo 402 para refletir a luz de uma fonte próxima ao redor da câmara, fazendo com que a luz seja refletida na direção oposta para maximizar a quantidade de luz que volta para a câmara. Do ponto de vista da câmara, a interface sonora 404 também está visível.
A Figura 12B apresenta uma vista lateral do controle, mostrando a seção esférica 400 com material retro reflexivo 402 e as interfaces sonoras 404 e 406.
A Figura 13 traz uma representação esquemática de um jogador com os controles 420a e 420b para uma mão para ilustrar o uso do ultrassom para determinar distâncias relativas, de acordo com uma configuração. Ambos os controles suportam comunicação ultrassónica bidirecional para o receptor sonoro 422 e entre si. Em uma configuração, os controles 420a e 420b enviam e recebem informações sonoras. As informações de sons capturados são enviadas para um programa de computador para processamento a fim de calcular a distância entre os controles, dRs- Em outra configuração, um processador no interior de um dos controles mede o tempo gasto pelo som para ir de um controle ao outro para calcular a dRs que é, então, enviada ao programa do computador remoto que usa essa informação para calcular as posições dos controles na área de captura tridimensional. Como foi anteriormente descrito em relação à Figura 1, sincronização é necessária para utilizar medições ultrassónicas para calcular distâncias.
As Figuras 14A-14B ilustram a determinação das posições tridimensionais dos dois controles utilizando vídeo e ultrassom, de acordo com uma configuração, A Figura 14A apresenta o mesmo usuário da Figura 13 após algum tempo ter passado: as mãos do usuário se moveram e afastaram os controles com uma distância maior do que a dRs mostrada na Figura 13. Neste exemplo, o maior afastamento das mãos é refletido em uma maior distância entre as mãos do avatar na tela. Na configuração ilustrada pela Figura 14B, o controle 420b possui material retro reflexivo para refletir luz infravermelha dos emissores de luz infravermelha 433. A luz refletida é capturada pela câmara infravermelha 326 para produzir dados de imagens que serão analisados para determinar a posição do controle. Em outra configuração, a câmara 436 é uma câmara que opera no espectro infravermelho e no espectro visível. A câmara 436 alterna a tomada de dados de imagens entre o espectro infravermelho e o espectro visível. Ambos os tipos de medições são usados pelo sistema computacional para calcular a posição x, y. Utilizando-se dois métodos de posicionamento do controle, obtém-se uma maior precisão.
A Figura 15 descreve a determinação da posição dos dois controles 450a e 450b utilizando ultrassom para medir a distância entre os controles, de acordo com uma configuração da presente invenção.
A Figura 16 ilustra a determinação da posição de um controle formado pela união de dois controles, como mostra a Figura 9A, utilizando informações relacionadas com cada controle, de acordo com uma configuração. Os controles 500a e 500b foram unidos, como foi anteriormente discutido em relação às Figuras 9A e 9B. A posição de cada controle é calculada separadamente e, na sequência, a distância entre os controles, dRS, é inserida nos cálculos de posição para aumentar a precisão. Como dRS é conhecida, a distância medida entre os controles é comparada com a distância conhecida para que possam ser feitos ajustes nas posições dos controles.
Em uma configuração, um conjunto de várias medições consecutivas é rastreado para atenuar desvios ou falhas nas medições. A frequência de amostragem para as diferentes medições varia de acordo com a precisão necessária e a disponibilidade de recursos computacionais. Por exemplo: um jogo interativo de luta exigirá uma maior frequência de medições do que um jogo interativo de xadrez.
A Figura 17 exibe a vista superior de uma configuração que inclui o controle 600 com uma câmara embutida 602 e comunicação ultrassónica. Nesta configuração, a câmara está no controle, e não próxima à área da tela. Os emissores de luz 606a e 606b estão localizados aproximadamente nas extremidades opostas da tela. Os dados de imagens são capturados pela câmara 602, e a luz dos emissores de luz 606a e 606b ajuda na identificação da posição do controle. As posições dos emissores de luz 610a e 610b representam as posições dos emissores de luz nos eixos x e y. A comunicação ultrassónica entre o microfone 604 e o controle 600 é usada para calcular a distância dz do controle até o microfone.
Em uma configuração, a imagem capturada pela câmara 602 é transmitida ao dispositivo computacional PS3 que processará a imagem capturada para calcular as posições x e y do controle. Em outra configuração, um processador no controle 600 processa os dados de imagens e calcula a posição do controle que é, então, transmitida ao dispositivo computacional PS3. Em outra configuração, o controle 600 faz o processamento parcial dos dados de imagens e um subconjunto de dados é encaminhado ao dispositivo computacional PS3 para o processamento final.
Outra configuração na qual a câmara está instalada no controle é apresentada na Figura 18, que mostra dois jogadores com os controles 600a e 600b para uma mão com recursos de som e vídeo, de acordo com uma configuração.
Como a câmara está instalada no controle, não é necessário ter uma seção esférica, ou qualquer formato que seja facilmente reconhecível, na frente do controle, proporcionando um design mais delgado. As Figuras 19A-19D mostram diferentes configurações dos controles com recursos de vídeo e ultrassom. O controle 650 possui uma configuração básica com a câmara 652 e interface ultrassónica na parte frontal. Os controles 660 também possuem uma interface sonora lateral 662 que pode ser usada para comunicação com outros controles, ou com a interface de captura de sons próxima à tela do sistema, quando o controle estiver voltado para longe da tela durante o jogo.
O controle 670 da Figura 19C possui a empunhadura 676 configurada para acomodar a mão do jogador durante o uso do controle, além do joystick 674 e do teclado 672 para entrada de comandos. O controle 680 possui uma interface lateral 622, semelhante àquela do controle 660, da Figura 19B.
A Figura 20 é um diagrama de blocos dos diferentes elementos do sistema de entretenimento. O sistema computacional e seus componentes estão localizados no lado esquerdo da Figura 20 e o ambiente do jogador encontra-se do lado direito. O sistema computacional 700 inclui um processador, uma área de memória, um “clock"e as interfaces de comunicação. As interfaces de comunicação incluem uma interface de radiofrequência (RF) para a comunicação sem-fio com os controles como, por exemplo, através do protocolo WiFi™. Outros métodos de comunicação incluem captura de imagens, transmissão e recepção de sons (ultrassom nesta configuração) e emissores de luz.
Os diferentes dispositivos de comunicação conectados ao sistema computacional 700 conectam-se aos respectivos controles no interior do sistema computacional. A área de memória inclui os programas em execução, uma área de processamento de imagens, uma área de processamento de sons e uma área de sincronização de “clocks". Os programas em execução incluem um programa de jogo, programa de processamento de imagens, programa de processamento de sons, programa de sincronização de “clocks", etc. Esses programas usam as respectivas áreas de memória, tais como a área de processamento de imagens que contém os dados de imagens, a área de processamento de sons que contém os dados de comunicação ultrassónica e a área de sincronização de “clocks”, usada para a sincronização com dispositivos remotos.
Várias configurações de controles encontram-se na área do ambiente do jogador. O controle A representa um modelo “totalmente equipado” com muitas das características anteriormente descritas. O controle A possui um módulo de Sincronização de “Clock"(CS) para a sincronização de “clock” com o sistema computacional 700; um Receptor de Som (SRx) para receber dados ultrassónicos; um Transmissor de Som (SRx) para enviar dados ultrassónicos; um módulo WiFi (WF) para a comunicação WiFi com o sistema computacional 700; uma Câmara Acústica (AC) para conduzir o som de e para a frente e/ou as laterais do controle; um dispositivo de Captura de Imagens (IC), como uma câmara digital de vídeo para captura de dados de imagens; e um Emissor de Luz (LE) no espectro infravermelho ou visível para um reconhecimento mais fácil das imagens pelo módulo de processamento de imagens no sistema computacional 700.
Adicionalmente, o controle A possui uma seção esférica (não exibida), para melhorar o reconhecimento de imagem por um dispositivo de captura remoto. A seção esférica possui material retro reflexivo que aumenta a quantidade de luz, enviada por um emissor de luz junto ao dispositivo de captura de imagens, que é refletida de volta ao dispositivo de captura de imagens. A luz criada pelo emissor pode ser no espectro infravermelho ou visível, assim o dispositivo de captura de imagens trabalhará no mesmo espectro luminoso. Os diferentes componentes do controle A podem ser implementados como módulos ou dispositivos separados dentro do controle A. Em outra configuração, os diferentes componentes do controle A estão agrupados em uma quantidade menor de componentes integrados, possibilitando uma implementação mais compacta. Os vários controles também possuem uma ou mais portas USB para permitir a carga da bateria dos controles quando ligados ao console de jogo ou a um computador.
De acordo com a utilização prevista de um determinado controle, configurações mais simples podem ser usadas com menos recursos do que aqueles descritos para o controle A. Algumas configurações de dispositivos mais simples são apresentadas fazendo referência aos controles B-E, que utilizam um subconjunto dos recursos descritos para o controle A. Aquele versado na arte prontamente notará que configurações semelhantes são possíveis dentro do espírito da invenção, incorporando ou retirando componentes, desde que os princípios da invenção sejam mantidos.
O conceito de dois controles com recursos de localização tridimensional pode ser ampliado para vários controles colocados no ou próximo ao corpo do jogador ou para múltiplos sensores para triangulação e melhor visão do controle em todos os momentos. Em uma configuração, uma gama de microfones é colocada ao redor da área de captura para obter as diferentes leituras geométricas da posição do controle, possibilitando cálculos de triangulação para uma maior precisão. A Figura 21 apresenta uma configuração para jogo interativo usando quatro controles colocados junto às mãos e aos pés do jogador. Nesta configuração, dois controles estão presos nos braços ou nas mãos do jogador e dois controles adicionais estão presos às suas pernas ou pés. O exemplo mostra o jogador dando uma “bicicleta" que é traduzido no respectivo movimento do seu avatar no jogo do computador. Em uma configuração, as imagens da câmara que observa o jogador são mostradas na tela, mesclando com outros objetos virtuais adicionados ao jogo, fazendo com que o jogador se torne parte da cena do jogo. Nessa configuração, a bola, as traves, o campo, outros jogadores, o público, etc. são adicionados à imagem do jogador, e os seus movimentos para chutar uma bola imaginária são traduzidos no mundo do jogo em movimentos na tela para chutar a bola imaginária. Em um ambiente com múltiplos jogadores, outros jogadores são introduzidos no mundo virtual a partir dos dados de imagens capturadas mesclados com objetos virtuais. Os outros jogadores podem estar na mesma área de captura do jogador que está chutando a bola, ou podem estar remotamente conectados ao jogo, possibilitando uma atividade distribuída para múltiplos jogadores. Outras aplicações semelhantes incluem luta, corrida de automóveis, dança e jogos de exercícios, bem como vários outros esportes, tais como futebol americano, tênis, boxe, basebol, basquetebol, hockey, etc
A Figura 22 ilustra o hardware e as interfaces de usuário que podem ser usadas para determinar a posição do controle, de acordo com uma configuração da presente invenção. A Figura 22 mostra, esquematicamente, a arquitetura geral do dispositivo de entretenimento Sony® Playstation 3®, um console que pode ser compatível para implementar um sistema de localização tridimensional de controles de acordo com uma configuração da presente invenção Há uma unidade de sistema 1400 com vários periféricos que podem ser conectados à unidade de sistema 1400. A unidade de sistema 1400 é formada por: um processador celular 1428; uma unidade de memória de acesso aleatório dinâmico Rambus (XDRAM) 1426; uma unidade gráfica Sintetizadora de Realidade 1430 com uma unidade de memória de acesso aleatório de vídeo dedicada (VRAM) 1432; e uma ponte de I/O 1434. A unidade de sistema 1400 também compreende um leitor de disco ótico Blu Ray® Disk BD-ROM® 1440 para leitura de um disco 1440a e uma unidade de disco rígido removível (HDD) 1436, que podem ser acessados através da ponte de I/O 1434. Opcionalmente, a unidade de sistema 1400 também compreende um leitor de cartão de memória 1438 para leitura de cartões de memória "compact flash", cartões de memória Memory Stick® e outros, que também são acessados através da ponte de I/O 1434.
A ponte de I/O 1434 também está conectada a seis portas Universal Serial Bus (USB) 2.0 1424; a uma porta de Ethernet de gigabit 1422; a uma porta de rede sem-fio IEEE 802.11 b/g (Wi-Fi) 1420; e a uma porta de conexão sem-fio Bluetooth® 1418, capaz de suportar até sete conexões Bluetooth.
Quando em operação, a ponte de I/O 1434 processa todo o tráfego de dados sem-fio, via USB e Ethernet, incluindo dados de um ou mais controles de jogos 1402-1403. Por exemplo: quando um usuário estiver jogando, a ponte de I/O 1434 recebe dados do controle de jogos 1402-1403 através da conexão Bluetooth e os direciona para o processador celular 1428, que atualiza o estado atual do jogo.
As portas de comunicação sem-fio, USB e Ethernet também efetuam a conectividade para outros periféricos além dos controles de jogos 1402-1403, tais como: controle remoto 1404; teclado 1406; mouse 1408; dispositivo de entretenimento portátil 1410, como o dispositivo de entretenimento Sony Playstation Portable®; uma câmara de vídeo como uma câmara de vídeo EyeToy® 1412; um conjunto microfone-fone de ouvido 1414 e um microfone 1415. Tais periféricos podem, em princípio, ser conectados à unidade de sistema 1400 sem fio; por exemplo, o dispositivo de entretenimento portátil 1410 pode se comunicar por meio de uma conexão Wi-Fi ad-hoc, enquanto que o conjunto microfone-fone de ouvido 1414 pode se comunicar por meio de uma conexão Bluetooth.
A provisão dessas interfaces significa que o dispositivo Playstation 3 também é potencialmente compatível com outros periféricos, tais como gravadores digitais de vídeo (DVRs), caixas de conexão, câmaras digitais, tocadores portáteis de mídia, telefones VoIP, telefones celulares, impressoras e scanners.
Adicionalmente, um leitor de cartão de memória legado 1416 pode ser conectado à unidade do sistema através de uma porta USB 1424, permitindo a leitura de cartões de memória 1448 do tipo usado pelos dispositivos Playstation® CR) ou Playstation 2
Na presente configuração, os controles de jogos 1402-1403 podem se comunicar sem-fio com a unidade de sistema 1400 por meio de uma conexão Bluetooth. Entretanto, os controles de jogos 1402-1403 podem ser conectados através de uma porta USB que também pode recarregar a bateria dos controles de jogos 1402-1403. Os controles de jogos 1402-1403 também podem incluir memória, um processador, um leitor de cartão de memória, memória permanente tais como memória “flash", emissores de luz tais como LEDs ou luzes infravermelhas, microfone e alto-falante para comunicação ultrassónica, uma câmara acústica, uma câmara digital, um “clock” interno, um forma reconhecível como a seção esférica voltada para o console de jogos e comunicação sem-fio utilizando protocolos tais como Bluetooth®, WiFi™, etc.
O controle de jogos 1402 é um controle projetado para ser usado com as duas mãos e o controle de jogos 1403 é um controle para uma mão, como foi anteriormente descrito nas Figuras 1-21. Além de um ou mais joysticks analógicos e botões convencionais de controle, o controle de jogos é suscetível à determinação da posição tridimensional. Consequentemente, gestos e movimentos do usuário do controle de jogos podem ser traduzidos como comandos para um jogo, além ou no lugar de comandos por meio de botões ou joysticks convencionais. Opcionalmente, outros periféricos habilitados sem-fio, como o dispositivo Playstation™ Portable, podem ser usados como um controle. No caso do dispositivo Playstation™ Portable, informações adicionais do jogo ou do controle (por exemplo: instruções de controle ou quantidade de vidas) podem ser exibidas na tela do dispositivo. Outros dispositivos de controle alternativos ou complementares também podem ser usados, tais como um tapete de dança (não ilustrado), arma de luz (não exibida), volante com pedais (não exibido) ou controles de reserva, tais como um ou vários botões grandes para jogos de perguntas com respostas rápidas (também não ilustrado).
O controle remoto 1404 também pode se comunicar sem-fio com a unidade de sistema 1400 através de uma conexão Bluetooth. O controle remoto 1404 compreende controles adequados para a operação do leitor de discos Blu Ray™ BD-ROM 1440 e para a navegação do conteúdo do disco.
O leitor de discos Blu Ray™ BD-ROM 1440 pode ler CD-ROMs compatíveis com os dispositivos Playstation e Playstation 2, além de CDs pré- gravados e graváveis convencionais, e os chamados CDs Super Audio. O leitor 1440 também pode ler DVD-ROMs compatíveis com os dispositivos Playstation 2 e Playstation 3, além de DVDs pré-gravados e graváveis convencionais. O leitor 1440 também pode ler BD-ROMs compatíveis com o dispositivo Playstation 3, bem como Discos de Blu-Ray convencionais, pré-gravados e graváveis.
A unidade de sistema 1400 pode fornecer áudio e vídeo, sejam eles gerados ou decodificados pelo dispositivo Playstation 3 através da unidade gráfica Sintetizadora de Realidade 1430, através de conectores de áudio e vídeo para uma tela e do dispositivo de saída sonora 1442, tais como um monitor ou televisor com uma tela 1444 e um ou mais alto-falantes 1446. Os conectores de áudio 1450 podem incluir saídas convencionais analógicas e digitais, enquanto que os conectores de vídeo 1452 podem incluir saídas de vídeo componente, S- vídeo, vídeo composto e uma ou mais saídas HDMI (High Definition Multimedia Interface). Consequentemente, a saída de vídeo pode ser nos formatos PAL ou NTSC ou em 720p, 1080i ou 1080p em alta definição.
O processamento de áudio (geração, decodificação e outras) é realizado pelo processador celular 1428. O sistema operacional do dispositivo Playstation 3 suporta som “surround” Dolby® 5.1, Dolby® Theatre Surround (DTS) e a decodificação de som “surround” 7.1 dos discos de Blu-Ray®.
Na presente configuração, a câmara de vídeo 1412 compreende um dispositivo acoplado carregado (CCD) individual, um indicador de LED e um aparelho de compressão e codificação de dados em tempo real baseada em hardware para que os dados de vídeo comprimidos possam ser transmitidos em um formato adequado, tal como um padrão MPEG (motion picture expert group) baseado em intra-imagens para decodificação pela unidade de sistema 1400. O indicador de LED da câmara está configurado para acender reagindo a dados adequados de controle da unidade de sistema 1400; por exemplo, para indicar condições adversas de iluminação. As configurações da câmara de vídeo 1412 podem se conectar à unidade de sistema 1400 por meio de uma porta de comunicação USB, Bluetooth ou Wi-Fi. As configurações da câmara de vídeo podem incluir um ou mais microfones associados, além de ser capaz de transmitir dados de áudio. Nas configurações de câmara de vídeo, o CCD pode ter uma resolução adequada para a captura de vídeos em alta definição. Em uso, as imagens capturadas pela câmara de vídeo podem, por exemplo, ser incorporadas em um jogo ou interpretadas como comandos de controle de jogos. Em outra configuração, a câmara é uma câmara infravermelha adequada para detecção de luz infravermelha.
Em geral, para que ocorra uma comunicação bem-sucedida de dados com um periférico, como uma câmara de vídeo ou controle remoto através de uma das portas de comunicação da unidade de sistema 1400, deverá haver um software adequado, como um “driver” do dispositivo. A tecnologia de “driver” do dispositivo é bem-conhecida e não será detalhada aqui, exceto para dizer que o especialista estará ciente que um “driver” de dispositivo ou interface de software similar poderá ser necessário na configuração aqui descrita.
A Figura 23 ilustra o hardware adicional que pode ser usado para processar instruções, de acordo com uma configuração da presente invenção. O processador celular 1428 possui uma arquitetura formada por quatro componentes básicos: estruturas externas de entrada e saída que compreendem um controle de memória 1560 e um controle duplo da interface de barramento 1570A, B; um processador principal denominado Elemento de Processamento de Potência 1550; oito coprocessadores chamados de Elementos de Processamento Sinergéticos (SPEs) 1510 A-H; e um barramento circular de dados que conectam os componentes acima mencionados chamado de Barramento de Interconexão de Elementos 1580. O desempenho total de ponto flutuante do processador celular é de 218 GFLOPS, comparado com 6,2 GFLOPs do Emotion Engine do dispositivo Playstation 2.
O Elemento de Processamento de Potência (PPE) 1550 está baseado em um núcleo PowerPC bidirecional simultâneo múltiplo Power 1470 (PPU) 1555 com um “clock” interno de 3,2 GHz. Ele compreende um cachê nível 2 (L2) de 512 kB e um cachê nível 1 (L1) de 32 kB. O PPE 1550 é capaz de realizar oito operações de posição simples por ciclo de “clock”, traduzindo em 25,6 GFLOPs a 3,2 GHz. O papel primário do PPE 1550 é agir como um controle para os Elementos de Processamento Sinergéticos 1510 A-H que realizam a maior parte do trabalho computacional. Em operação, o PPE 1550 mantém uma fila de trabalhos, organizando-os para os Elementos de Processamento Sinergéticos 1510 A-H e monitorando o seu progresso. Consequentemente, cada Elemento de Processamento Sinergético 1510 A-H executa um núcleo cujo papel é tomar um trabalho, executá-lo e ficar sincronizado com o PPE 1550.
Cada Elemento de Processamento Sinergético (SPE) 1510 A-H compreende a sua respectiva Unidade de Processamento Sinergética (SPU) 1520 A-H e o seu respectivo Controle de Fluxo de Memória (MFC) 1540 A-H formado, por sua vez, pelo seu respectivo Controle de Acesso de Memória Dinâmico (DMAC) 1542 A-H, a sua respectiva Unidade de Gerenciamento de Memória (MMU) 1544 A-H e uma interface de barramento (não exibida). Cada SPU 1520 A-H é um processador RISC de 3,2 GHz com uma memória RAM local de 256 kB 1530 A-H, em princípio ampliável até 4 GB. Cada SPE proporciona um desempenho de precisão simples teórico de 25,6 GFLOPS. Uma SPU pode operar com 4 membros de ponto flutuante de precisão individual, 4 números de 32 bits, 8 números inteiros de 16 bits ou 16 números inteiros de 8 bits em um único ciclo de “clock". No mesmo ciclo de “clock”, também pode ser realizada uma operação de memória. A SPU 1520 A-H não acessa diretamente a memória XDRAM 1426 do sistema; os endereços de 64 bits formados pela SPU 1520 A-H são passados ao MFC 1540 A-H que instrui o seu controle DMA 1542 A-H para acessar a memória através do Barramento de Interconexão de Elementos 1580 e do controle de memória 1560.
O Barramento de Interconexão de Elementos (EIB) 1580 é um barramento de comunicação logicamente circular interno ao processador celular 1428 que conecta os elementos do processador acima, a saber: o PPE 1550, o controle de memória 1560, a interface de barramento duplo 1570 A, B e os 8 SPEs 1510 A-H, totalizando 12 participantes. Os participantes podem, simultaneamente, ler e gravar no barramento com uma velocidade de 8 bytes por ciclo de “clock”. Como foi indicado anteriormente, cada SPE 1510 A-H possui um DMAC 1542 A-H para agendar sequências longas de leitura e gravação. O EIB compreende quatro canais, dois no sentido horário e dois no anti-horário. Consequentemente, para doze participantes, o maior fluxo de dados entre dois participantes quaisquer é de seis passos no sentido adequado. A largura de banda instantânea de EIB de pico teórica para 12 soquetes é de 96B por "clock”, no caso de utilização total mediante a arbitragem entre os participantes. Isso corresponde a uma largura de banda de pico teórica de 307,2 GB/s (gigabytes por segundo) com uma velocidade de “clock” de 3,2 GHz.
O controle de memória 1560 compreende uma interface XDRAM 1562, desenvolvida pela Rambus Incorporated. O controle de memória faz interface com a XDRAM Rambus 1426 com uma largura de banda de pico teórica de 25,6 GB/s.
A interface de barramento duplo 1570 A, B compreende uma interface de sistema Rambus FlexIO® 1572 A, B. A interface está organizada em 12 canais, cada um com 8 bits de largura, sendo cinco de entrada e sete de saída. Isso proporciona uma largura de banda de pico teórica de 62,4 GB/s (36,4 GB/s de saída, 26 GB/s de entrada) entre o processador celular e a Ponte de I/O 700 através do controle 170A e a unidade gráfica Simuladora de Realidade 200 através do controle 170B.
Os dados enviados pelo processador celular 1428 à unidade gráfica Simuladora de Realidade 1430 normalmente compreendem listas de visualização, sendo uma sequência de comandos para desenhar vértices, aplicar texturas a polígonos, especificar condições de iluminação, etc.
A Figura 24 mostra um fluxograma para comunicação de um controle para uma mão com um sistema computacional para determinar a posição tridimensional do controle, de acordo com uma configuração. Na operação 902, uma interface gráfica do usuário é exibida na tela, por exemplo, de LCD. Na operação 904, os dados das imagens são capturados na área de captura na frente da tela. Por exemplo, o dispositivo de captura de imagens 106 da Figura 1 é usado para capturar dados de imagens na área de captura 118. Em uma configuração, o dispositivo de captura de imagens 106 é uma câmara digital de vídeo.
Na operação 906, a posição bidimensional do controle é identificada com base na imagem capturada. Por exemplo, os dados de imagens são mantidos no módulo de processamento de imagens do sistema computacional 700 da Figura 20, e um dos programas em execução determina a posição horizontal e vertical do controle como foi anteriormente descrito em relação à Figura 1.
Uma operação de sincronização de “clock"908 é realizada para sincronizar os “clocks” em cada extremidade da comunicação ultrassónica entre o sistema computacional e o controle. Na operação 910, a comunicação sonora unidirecional é capturada entre uma posição próxima da tela e uma posição do controle. Em uma configuração, o som originado no controle é recebido pelo receptor de sons no sistema computacional. Em outra configuração, o som é originado no sistema computacional e é recebido pelo controle.
Na operação 912, a comunicação sonora capturada é usada, juntamente com as informações de sincronização de “clock", para calcular a posição tridimensional do controle na área de captura. A posição tridimensional pode ser a distância do dispositivo de captura de sons até o controle, ou a profundidade do controle na área de captura, como foi anteriormente descrito em relação à Figura 2D.
As configurações podem incluir a captura de dados de profundidade para melhor identificar o usuário no mundo real e para controlar a atividade de um avatar ou cena. O objeto pode ser algo que a pessoa esteja segurando, ou a mão da pessoa. Adicionalmente, as configurações da presente invenção proporcionam experiências de jogos interativos em tempo real para os usuários. Por exemplo, os usuários podem interagir com vários objetos gerados por computador em tempo real. Adicionalmente, as cenas de vídeo podem ser alteradas em tempo real para aumentar a experiência de jogo do usuário. Por exemplo, as roupas geradas por computador podem ser inseridas sobre as roupas do usuário e as fontes de luz geradas por computador podem ser usadas para projetar sombras virtuais na cena de video. Assim, ao usar as configurações da presente invenção, os usuários poderão experimentar um ambiente interativo de jogos na sua própria sala de estar.
As configurações da presente invenção também contemplam configurações de processamento de imagens distribuídas. Por exemplo, a invenção não está limitada à imagem capturada e o processamento de imagens na tela ocorre em um, ou em até duas posições, como na CPU ou na CPU e em outro elemento. Por exemplo, o processamento da imagem de entrada pode rapidamente ocorrer em uma CPU, processador ou dispositivo associado que possa realizar o processamento; essencialmente todo o processamento de imagem pode ser distribuído através do sistema interconectado. Assim, a presente invenção não está limitada a qualquer software e/ou circuito de hardware específico para processamento de imagens. As configurações aqui descritas também não estão limitadas a qualquer combinação específica de software e/ou circuito geral de hardware ou a qualquer fonte particular para as instruções executadas pelos componentes de processamento.
Com as configurações anteriores em mente, deve-se compreender que a invenção pode empregar várias operações implementadas em computador envolvendo dados armazenados em sistemas computacionais. Essas operações incluem operações que requerem a manipulação física de quantidades físicas. Normalmente, mas não necessariamente, essas quantidades assumem a forma de sinais elétricos ou magnéticos que podem ser armazenados, transferidos, combinados, comparados ou manipulados. Adicionalmente, as manipulações executadas são normalmente designadas em termos como produção, identificação, determinação ou comparação.
A invenção acima descrita pode ser executada com outras configurações de sistemas computacionais, incluindo dispositivos portáteis, sistemas microprocessados, baseados em microprocessador ou equipamentos eletrônicos programáveis, minicomputadores, computadores de grande porte, etc. A invenção também pode ser executada em ambientes de computação distribuída no qual as tarefas são realizadas por dispositivos de processamento remotos conectados por meio de uma rede de comunicações.
A invenção também pode ser apresentada na forma de um código em um meio de leitura para computador. O meio de leitura para computador é qualquer dispositivo de armazenagem de dados capaz de armazenar dados que podem ser posteriormente lidos por um sistema computacional, incluindo uma onda portadora eletromagnética. Exemplos de meios de leitura para computador incluem discos rígidos, armazenagem em rede (NAS), memória apenas para leitura, memória de acesso aleatório, CD-ROMs, CD-Rs, CD-RWs, fitas magnéticas e outros dispositivos de armazenagem de dados óticos e não óticos. O meio de leitura para computador também pode ser distribuído em um sistema computacional conectado a uma rede, para que o código de leitura para computador seja armazenado e executado de forma distribuída.
Embora esta invenção tenha sido descrita com algum nível de detalhes para fins de clareza de entendimento, é aparente que certas alterações e modificações poderão ser realizadas no escopo das reivindicações anexas. Dessa forma, as presentes configurações devem ser consideradas como ilustrativas e não restritivas, e a invenção não deverá estar limitada aos detalhes aqui apresentados, mas poderá ser modificada dentro do escopo e equivalentes das reivindicações anexas.
Embora as operações dos métodos sejam descritas em uma ordem específica, deve-se compreender que outras operações de manutenção possam ser realizadas entre as operações, ou as operações podem ser ajustadas para que elas ocorram em momentos ligeiramente diferentes, ou podem ser distribuídas em um sistema que permita a ocorrência das operações de processamento em vários intervalos associados com o processamento, contanto que o processamento das operações de “overlay” seja executado da forma desejada
Embora esta invenção tenha sido descrita com algum nível de detalhes para fins de clareza de entendimento, é aparente que certas alterações e modificações podem ser realizadas no escopo das reivindicações anexas. Dessa forma, as presentes configurações devem ser consideradas como ilustrativas e não restritivas, e a invenção não deverá estar limitada aos detalhes aqui apresentados, mas poderá ser modificada dentro do escopo e equivalentes das reivindicações anexas.
Claims (11)
1. Método para estabelecer comunicação entre um programa de computador em um sistema computacional e um par de controles nas mãos de um usuário, o método caracterizado pelo fato de quecompreende: captura (904, 906) de dados de imagens em uma área de captura (118) na frente de uma tela (104), a captura configurada para identificar a posição bidimensional de cada controle (450a, 450b) na área de captura; captura (910) de comunicação sonora unidirecional entre uma posição próxima da tela e a posição de cada controle; receber informações de um ou de ambos os controles, as informações sendo indicativas da separação dos dois controles; e computar (912), utilizando a comunicação sonora e as informações recebidas, uma distância de cada controle a partir da posição próxima da tela na área de captura.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de quea identificação da posição bidimensional do controle compreende adicionalmente a detecção de uma forma esférica (132) nos dados de imagens, a forma esférica estando associada ao controle.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de queos dados das imagens capturadas correspondem a dados de imagens de pixels vermelho-verde-azul (RGB), dados de imagens de pixels preto-e-branco ou dados infravermelhos.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de quea comunicação sonora unidirecional inclui tanto um emissor da comunicação sonora no controle, quanto um emissor da comunicação sonora na posição próxima à tela.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de quecomputar uma distância compreende adicionalmente, calcular a distância entre a posição próxima da tela e a posição do controle, com base no tempo do deslocamento do som na comunicação sonora unidirecional, e calcular a profundidade na área de captura baseada na distância, no qual a profundidade é uma medida ortogonal para ambas as dimensões da posição bidimensional.
6. Memória legível por computador, caracterizada pelo fato de que compreende gravado na mesma, o método de acordo com qualquer uma das reivindicações de 1 a 5.
7. Sistema para estabelecer a comunicação entre um programa de computador e um par de controles, caracterizado pelo fato de quecompreende: um dispositivo de captura de imagens (106) para capturar dados de imagens em uma área de captura (118) na frente da tela (104); um dispositivo de captura de sons (108) para capturar os dados de sons na área de captura; e um sistema computacional (102) para execução do programa de computador, o sistema computacional sendo conectado à tela, ao dispositivo de captura de imagens e ao dispositivo de captura de sons; cada controle (130) a ser segurado por um usuário em uma mão, cada controle incluindo, um corpo com uma primeira e uma segunda extremidade; uma área de empunhadura (140) próxima à primeira extremidade; um teclado de entrada (138) definido entre a primeira e a segunda extremidade para inserir dados a serem transmitidos para o sistema computacional; uma seção esférica (132) definida na segunda extremidade para facilitar o reconhecimento de imagens pelo dispositivo de captura de imagens; um dispositivo emissor de sons (136) próximo à segunda extremidade, o dispositivo emissor de sons voltado para longe do usuário quando em uso e configurado para comunicação sonora unidirecional com o dispositivo de captura de sons; e uma pluralidade de interfaces de sons (404, 406) configuradas para comunicação bidirecional entre o par de controles, a comunicação sendo utilizada para identificar a separação dos dois controles, em que o programa de computador identifica uma posição bidimensional do controle baseada nos dados de imagens capturadas e uma distância de cada controle a partir do dispositivo de captura de sons baseada nos dados de sons capturados e informações indicativas da separação dos dois controles.
8. Sistema, de acordo com a reivindicação 7, caracterizado pelo fato de quea seção esférica compreende adicionalmente uma área retro reflexiva, ou a seção esférica possui uma cor pré-determinada para auxiliar na identificação da posição da seção esférica nos dados de imagens capturadas.
9. Sistema, de acordo com a reivindicação 7, caracterizado pelo fato de queo controle compreende adicionalmente uma fonte de luz (172) no interior da seção esférica, em que a seção esférica é translúcida, em que a fonte de luz ilumina a seção esférica para auxiliar na identificação da posição da seção esférica nos dados de imagens capturadas, em que a fonte de luz inclui uma fonte de luz infravermelha, em que o dispositivo de captura de imagens compreende adicionalmente uma câmera infravermelha, em que o dispositivo de captura de imagens compreende adicionalmente uma câmera para o espectro visível, em que os dados de imagens de ambas câmeras infravermelha e de espectro visível são utilizados na identificação da posição bidimensional.
10. Sistema, de acordo com a reivindicação 7, caracterizado pelo fato de quea identificação da posição tridimensional compreende adicionalmente, calcular o valor da profundidade da posição tridimensional, medindo-se o tempo e a coerência de fase da comunicação sonora unidirecional.
11. Sistema, de acordo com a reivindicação 7, caracterizado pelo fato de queo dispositivo emissor de sons compreende adicionalmente uma câmara acústica (150) dentro do controle, a câmara acústica definida para direcionar e receber o som em uma ou mais direções.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US5778308P | 2008-05-30 | 2008-05-30 | |
US61/057,783 | 2008-05-30 | ||
US12/145,455 US8323106B2 (en) | 2008-05-30 | 2008-06-24 | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US12/145,455 | 2008-06-24 | ||
PCT/US2009/042416 WO2009146234A1 (en) | 2008-05-30 | 2009-04-30 | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
Publications (2)
Publication Number | Publication Date |
---|---|
BRPI0909883A2 BRPI0909883A2 (pt) | 2019-03-06 |
BRPI0909883B1 true BRPI0909883B1 (pt) | 2020-07-07 |
Family
ID=39872780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BRPI0909883-6A BRPI0909883B1 (pt) | 2008-05-30 | 2009-04-30 | Determinação da posição tridimensional do controle empregando análise de imagens e comunicação ultrassónica |
Country Status (9)
Country | Link |
---|---|
US (2) | US8323106B2 (pt) |
EP (1) | EP2303422B1 (pt) |
JP (1) | JP5547720B2 (pt) |
KR (1) | KR101308642B1 (pt) |
CN (2) | CN104162274B (pt) |
BR (1) | BRPI0909883B1 (pt) |
MX (1) | MX2010012972A (pt) |
TW (1) | TWI388362B (pt) |
WO (1) | WO2009146234A1 (pt) |
Families Citing this family (390)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8062126B2 (en) * | 2004-01-16 | 2011-11-22 | Sony Computer Entertainment Inc. | System and method for interfacing with a computer program |
US9573056B2 (en) | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US10279254B2 (en) * | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
US7682237B2 (en) * | 2003-09-22 | 2010-03-23 | Ssd Company Limited | Music game with strike sounds changing in quality in the progress of music and entertainment music system |
US8888593B2 (en) * | 2005-10-26 | 2014-11-18 | Sony Computer Entertainment Inc. | Directional input for a video game |
US8730156B2 (en) | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
US9250703B2 (en) | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
EP3117768B1 (en) | 2006-05-19 | 2019-11-06 | The Queen's Medical Center | Motion tracking system and method for real time adaptive imaging and spectroscopy |
JP4187768B2 (ja) * | 2007-03-20 | 2008-11-26 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、進行制御方法、および、プログラム |
RU2472206C2 (ru) * | 2007-03-30 | 2013-01-10 | Конинклейке Филипс Электроникс Н.В. | Пространственная мышь - устройство связи |
JP5411425B2 (ja) * | 2007-12-25 | 2014-02-12 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 |
US8795077B1 (en) * | 2008-01-25 | 2014-08-05 | Ailive Inc. | Game controllers with full controlling mechanisms |
DE102008020772A1 (de) * | 2008-04-21 | 2009-10-22 | Carl Zeiss 3D Metrology Services Gmbh | Darstellung von Ergebnissen einer Vermessung von Werkstücken |
US8282485B1 (en) * | 2008-06-04 | 2012-10-09 | Zhang Evan Y W | Constant and shadowless light source |
US20090312100A1 (en) * | 2008-06-12 | 2009-12-17 | Harris Scott C | Face Simulation in Networking |
US8620213B2 (en) * | 2009-12-24 | 2013-12-31 | Sony Computer Entertainment Inc. | Wireless device pairing methods |
GB2463312A (en) * | 2008-09-09 | 2010-03-17 | Skype Ltd | Games system with bi-directional video communication |
CN102203695B (zh) * | 2008-10-27 | 2015-09-02 | 索尼电脑娱乐公司 | 用于传送视觉信息的控制设备 |
EP2356545B1 (en) | 2008-10-27 | 2016-09-14 | Sony Interactive Entertainment Inc. | Spherical ended controller with configurable modes |
US8221229B2 (en) * | 2008-10-27 | 2012-07-17 | Sony Computer Entertainment Inc. | Spherical ended controller with configurable modes |
US8092288B2 (en) * | 2008-10-31 | 2012-01-10 | International Business Machines Corporation | Managing multi-player video game input |
WO2010055737A1 (ja) * | 2008-11-14 | 2010-05-20 | 株式会社ソニー・コンピュータエンタテインメント | 操作デバイス |
WO2010065211A1 (en) * | 2008-12-05 | 2010-06-10 | Sony Computer Entertainment America Inc. | Three-dimensional control with a multi-positional controller |
US8961313B2 (en) | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
JP5368118B2 (ja) * | 2009-01-16 | 2013-12-18 | 任天堂株式会社 | 情報処理システム、情報処理装置、情報処理プログラム、および通信方法 |
US8306013B2 (en) * | 2009-01-23 | 2012-11-06 | Empire Technology Development Llc | Interactions among mobile devices in a wireless network |
FR2941805A1 (fr) | 2009-02-02 | 2010-08-06 | Laurent Philippe Nanot | Dispositif pour la visite guidee virtuelle interactive de sites/evenements historiques ou de projets de construction et scenarios d'entrainement |
US20100201808A1 (en) * | 2009-02-09 | 2010-08-12 | Microsoft Corporation | Camera based motion sensing system |
US9244525B2 (en) * | 2009-02-19 | 2016-01-26 | Disney Enterprises, Inc. | System and method for providing user interaction with projected three-dimensional environments |
US20120121128A1 (en) * | 2009-04-20 | 2012-05-17 | Bent 360: Medialab Inc. | Object tracking system |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US9015638B2 (en) * | 2009-05-01 | 2015-04-21 | Microsoft Technology Licensing, Llc | Binding users to a gesture based system and providing feedback to the users |
US8181123B2 (en) * | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
JP5486213B2 (ja) * | 2009-05-12 | 2014-05-07 | 任天堂株式会社 | ゲーム装置及びゲームプログラム |
US20100306685A1 (en) * | 2009-05-29 | 2010-12-02 | Microsoft Corporation | User movement feedback via on-screen avatars |
US10054444B2 (en) * | 2009-05-29 | 2018-08-21 | Qualcomm Incorporated | Method and apparatus for accurate acquisition of inertial sensor data |
JP2010277508A (ja) * | 2009-06-01 | 2010-12-09 | Sony Computer Entertainment Inc | 操作デバイス |
US8721444B2 (en) * | 2009-07-21 | 2014-05-13 | Sony Corporation | Game device for performing operation object control and non-operation object control |
CN102713931A (zh) * | 2009-08-04 | 2012-10-03 | 艾修视力科技有限公司 | 用于对象提取的系统和方法 |
US9595108B2 (en) | 2009-08-04 | 2017-03-14 | Eyecue Vision Technologies Ltd. | System and method for object extraction |
US8669935B2 (en) * | 2009-09-17 | 2014-03-11 | Sony Corporation | Operation device |
CN102022979A (zh) * | 2009-09-21 | 2011-04-20 | 鸿富锦精密工业(深圳)有限公司 | 三维光学感测系统 |
TWI459243B (zh) * | 2009-10-09 | 2014-11-01 | Hon Hai Prec Ind Co Ltd | 三維光學感測系統及遊戲機 |
EP2347809A1 (en) * | 2010-01-20 | 2011-07-27 | Blue Banana bvba | Crowd control system and method |
US8265341B2 (en) * | 2010-01-25 | 2012-09-11 | Microsoft Corporation | Voice-body identity correlation |
JP2013517838A (ja) * | 2010-01-25 | 2013-05-20 | ラムバス・インコーポレーテッド | 位置および動きを検出する指向性ビームステアリングシステムおよび方法 |
WO2011104709A2 (en) * | 2010-02-23 | 2011-09-01 | Rami Parham | A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith |
US9880619B2 (en) | 2010-02-23 | 2018-01-30 | Muy Interactive Ltd. | Virtual reality system with a finger-wearable control |
US8565909B2 (en) * | 2010-02-24 | 2013-10-22 | Disney Enterprises, Inc. | Fabrication of materials with desired characteristics from base materials having determined characteristics |
WO2011109126A1 (en) * | 2010-03-05 | 2011-09-09 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
JP5335723B2 (ja) * | 2010-03-26 | 2013-11-06 | 日本電信電話株式会社 | 制御システム、制御方法および制御プログラム |
EP2558176B1 (en) | 2010-04-13 | 2018-11-07 | Sony Computer Entertainment America LLC | Calibration of portable devices in a shared virtual space |
JP5147900B2 (ja) * | 2010-06-14 | 2013-02-20 | 株式会社ソニー・コンピュータエンタテインメント | ゲームコントローラに取り付けられるアタッチメント、及び、コントローラアッセンブリ |
CA2802862A1 (en) | 2010-06-14 | 2011-12-22 | Elwood G. Norris | Improved parametric signal processing and emitter systems and related methods |
US9089775B1 (en) * | 2010-06-24 | 2015-07-28 | Isaac S. Daniel | Interactive game system and methods for a television audience member to mimic physical movements occurring in television broadcast content |
US20120005591A1 (en) * | 2010-06-30 | 2012-01-05 | Nokia Corporation | Method and Apparatus for Presenting User Information Based on User Location Information |
WO2012023930A1 (en) * | 2010-08-17 | 2012-02-23 | Empire Technology Development Llc | Remote display control |
FR2964479B1 (fr) * | 2010-09-03 | 2014-01-03 | Epawn | Procede et dispositifs pour interfacer une pluralite d'elements mobiles avec un systeme informatique |
TW201216123A (en) * | 2010-10-08 | 2012-04-16 | Primax Electronics Ltd | Separatable game controller |
EP2671375A4 (en) | 2011-01-31 | 2015-06-10 | Cast Group Of Companies Inc | SYSTEM AND METHOD FOR PROVIDING 3D SOUND |
US20120200667A1 (en) * | 2011-02-08 | 2012-08-09 | Gay Michael F | Systems and methods to facilitate interactions with virtual content |
KR20120096778A (ko) * | 2011-02-23 | 2012-08-31 | 주식회사 두빅 | 온라인 1인칭 슈팅게임에서의 복수개의 팀 매치를 위한 시스템 및 방법 |
US8702507B2 (en) * | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
US10120438B2 (en) | 2011-05-25 | 2018-11-06 | Sony Interactive Entertainment Inc. | Eye gaze to alter device behavior |
US8964008B2 (en) * | 2011-06-17 | 2015-02-24 | Microsoft Technology Licensing, Llc | Volumetric video presentation |
DE102011051454A1 (de) * | 2011-06-29 | 2013-01-03 | DEON GmbH & Co. KG | System zur Steuerung eines Anzeigemittels |
US9207767B2 (en) * | 2011-06-29 | 2015-12-08 | International Business Machines Corporation | Guide mode for gesture spaces |
JP5754266B2 (ja) * | 2011-06-30 | 2015-07-29 | セイコーエプソン株式会社 | 指示部材、光学式位置検出装置、および入力機能付き表示システム |
JP5799627B2 (ja) * | 2011-07-15 | 2015-10-28 | セイコーエプソン株式会社 | 位置検出装置、位置検出システムおよび入力機能付き表示システム |
US8605205B2 (en) | 2011-08-15 | 2013-12-10 | Microsoft Corporation | Display as lighting for photos or video |
EP2747641A4 (en) | 2011-08-26 | 2015-04-01 | Kineticor Inc | METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION |
CN103002376B (zh) * | 2011-09-09 | 2015-11-25 | 联想(北京)有限公司 | 声音定向发送的方法和电子设备 |
US8951120B2 (en) * | 2011-09-19 | 2015-02-10 | Sony Computer Entertainment America Llc | Systems and methods for calibration and biasing for game controller |
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
US8740707B1 (en) | 2011-10-19 | 2014-06-03 | Brad Kaldahl | Video game controller for multiple users |
US8523674B2 (en) * | 2011-10-19 | 2013-09-03 | Brad Kaldahl | Video game controller for multiple users |
US8540572B2 (en) * | 2011-10-19 | 2013-09-24 | Brad Kaldahl | Video game controller for multiple users |
US20140324888A1 (en) * | 2011-12-09 | 2014-10-30 | Nokia Corporation | Method and Apparatus for Identifying a Gesture Based Upon Fusion of Multiple Sensor Signals |
WO2013106596A1 (en) | 2012-01-10 | 2013-07-18 | Parametric Sound Corporation | Amplification systems, carrier tracking systems and related methods for use in parametric sound systems |
WO2013109282A1 (en) * | 2012-01-20 | 2013-07-25 | Empire Technology Development Llc | Mirror array display system |
TW201335613A (zh) * | 2012-02-24 | 2013-09-01 | you-ming Liu | 局域追蹤定位系統 |
US8887373B2 (en) | 2012-02-24 | 2014-11-18 | Covidien Lp | Vessel sealing instrument with reduced thermal spread and method of manufacture therefor |
US8958580B2 (en) | 2012-04-18 | 2015-02-17 | Turtle Beach Corporation | Parametric transducers and related methods |
US10150028B2 (en) * | 2012-06-04 | 2018-12-11 | Sony Interactive Entertainment Inc. | Managing controller pairing in a multiplayer game |
US8934650B1 (en) | 2012-07-03 | 2015-01-13 | Turtle Beach Corporation | Low profile parametric transducers and related methods |
US9825674B1 (en) | 2014-05-23 | 2017-11-21 | Energous Corporation | Enhanced transmitter that selects configurations of antenna elements for performing wireless power transmission and receiving functions |
US9143000B2 (en) | 2012-07-06 | 2015-09-22 | Energous Corporation | Portable wireless charging pad |
US9793758B2 (en) | 2014-05-23 | 2017-10-17 | Energous Corporation | Enhanced transmitter using frequency control for wireless power transmission |
US9887584B1 (en) | 2014-08-21 | 2018-02-06 | Energous Corporation | Systems and methods for a configuration web service to provide configuration of a wireless power transmitter within a wireless power transmission system |
US9941754B2 (en) | 2012-07-06 | 2018-04-10 | Energous Corporation | Wireless power transmission with selective range |
US10124754B1 (en) | 2013-07-19 | 2018-11-13 | Energous Corporation | Wireless charging and powering of electronic sensors in a vehicle |
US10090699B1 (en) | 2013-11-01 | 2018-10-02 | Energous Corporation | Wireless powered house |
US11502551B2 (en) | 2012-07-06 | 2022-11-15 | Energous Corporation | Wirelessly charging multiple wireless-power receivers using different subsets of an antenna array to focus energy at different locations |
US9867062B1 (en) | 2014-07-21 | 2018-01-09 | Energous Corporation | System and methods for using a remote server to authorize a receiving device that has requested wireless power and to determine whether another receiving device should request wireless power in a wireless power transmission system |
US10050462B1 (en) | 2013-08-06 | 2018-08-14 | Energous Corporation | Social power sharing for mobile devices based on pocket-forming |
US9812890B1 (en) | 2013-07-11 | 2017-11-07 | Energous Corporation | Portable wireless charging pad |
US9787103B1 (en) | 2013-08-06 | 2017-10-10 | Energous Corporation | Systems and methods for wirelessly delivering power to electronic devices that are unable to communicate with a transmitter |
US9124125B2 (en) | 2013-05-10 | 2015-09-01 | Energous Corporation | Wireless power transmission with selective range |
US10211674B1 (en) | 2013-06-12 | 2019-02-19 | Energous Corporation | Wireless charging using selected reflectors |
US20150326070A1 (en) | 2014-05-07 | 2015-11-12 | Energous Corporation | Methods and Systems for Maximum Power Point Transfer in Receivers |
US9912199B2 (en) | 2012-07-06 | 2018-03-06 | Energous Corporation | Receivers for wireless power transmission |
US9859756B2 (en) | 2012-07-06 | 2018-01-02 | Energous Corporation | Transmittersand methods for adjusting wireless power transmission based on information from receivers |
US9923386B1 (en) | 2012-07-06 | 2018-03-20 | Energous Corporation | Systems and methods for wireless power transmission by modifying a number of antenna elements used to transmit power waves to a receiver |
US10148097B1 (en) | 2013-11-08 | 2018-12-04 | Energous Corporation | Systems and methods for using a predetermined number of communication channels of a wireless power transmitter to communicate with different wireless power receivers |
US9891669B2 (en) | 2014-08-21 | 2018-02-13 | Energous Corporation | Systems and methods for a configuration web service to provide configuration of a wireless power transmitter within a wireless power transmission system |
US9871398B1 (en) | 2013-07-01 | 2018-01-16 | Energous Corporation | Hybrid charging method for wireless power transmission based on pocket-forming |
US10199835B2 (en) | 2015-12-29 | 2019-02-05 | Energous Corporation | Radar motion detection using stepped frequency in wireless power transmission system |
US9831718B2 (en) | 2013-07-25 | 2017-11-28 | Energous Corporation | TV with integrated wireless power transmitter |
US9939864B1 (en) | 2014-08-21 | 2018-04-10 | Energous Corporation | System and method to control a wireless power transmission system by configuration of wireless power transmission control parameters |
US9847677B1 (en) | 2013-10-10 | 2017-12-19 | Energous Corporation | Wireless charging and powering of healthcare gadgets and sensors |
US9853458B1 (en) | 2014-05-07 | 2017-12-26 | Energous Corporation | Systems and methods for device and power receiver pairing |
US9893554B2 (en) | 2014-07-14 | 2018-02-13 | Energous Corporation | System and method for providing health safety in a wireless power transmission system |
US9899873B2 (en) | 2014-05-23 | 2018-02-20 | Energous Corporation | System and method for generating a power receiver identifier in a wireless power network |
US10063105B2 (en) | 2013-07-11 | 2018-08-28 | Energous Corporation | Proximity transmitters for wireless power charging systems |
US9893768B2 (en) | 2012-07-06 | 2018-02-13 | Energous Corporation | Methodology for multiple pocket-forming |
US9859757B1 (en) | 2013-07-25 | 2018-01-02 | Energous Corporation | Antenna tile arrangements in electronic device enclosures |
US10193396B1 (en) | 2014-05-07 | 2019-01-29 | Energous Corporation | Cluster management of transmitters in a wireless power transmission system |
US10224982B1 (en) | 2013-07-11 | 2019-03-05 | Energous Corporation | Wireless power transmitters for transmitting wireless power and tracking whether wireless power receivers are within authorized locations |
US10075008B1 (en) | 2014-07-14 | 2018-09-11 | Energous Corporation | Systems and methods for manually adjusting when receiving electronic devices are scheduled to receive wirelessly delivered power from a wireless power transmitter in a wireless power network |
US10206185B2 (en) | 2013-05-10 | 2019-02-12 | Energous Corporation | System and methods for wireless power transmission to an electronic device in accordance with user-defined restrictions |
US9806564B2 (en) | 2014-05-07 | 2017-10-31 | Energous Corporation | Integrated rectifier and boost converter for wireless power transmission |
US10128693B2 (en) | 2014-07-14 | 2018-11-13 | Energous Corporation | System and method for providing health safety in a wireless power transmission system |
US10186913B2 (en) | 2012-07-06 | 2019-01-22 | Energous Corporation | System and methods for pocket-forming based on constructive and destructive interferences to power one or more wireless power receivers using a wireless power transmitter including a plurality of antennas |
US9824815B2 (en) | 2013-05-10 | 2017-11-21 | Energous Corporation | Wireless charging and powering of healthcare gadgets and sensors |
US9948135B2 (en) | 2015-09-22 | 2018-04-17 | Energous Corporation | Systems and methods for identifying sensitive objects in a wireless charging transmission field |
US9954374B1 (en) | 2014-05-23 | 2018-04-24 | Energous Corporation | System and method for self-system analysis for detecting a fault in a wireless power transmission Network |
US10965164B2 (en) | 2012-07-06 | 2021-03-30 | Energous Corporation | Systems and methods of wirelessly delivering power to a receiver device |
US9887739B2 (en) | 2012-07-06 | 2018-02-06 | Energous Corporation | Systems and methods for wireless power transmission by comparing voltage levels associated with power waves transmitted by antennas of a plurality of antennas of a transmitter to determine appropriate phase adjustments for the power waves |
US9882430B1 (en) | 2014-05-07 | 2018-01-30 | Energous Corporation | Cluster management of transmitters in a wireless power transmission system |
US9252628B2 (en) | 2013-05-10 | 2016-02-02 | Energous Corporation | Laptop computer as a transmitter for wireless charging |
US9876394B1 (en) | 2014-05-07 | 2018-01-23 | Energous Corporation | Boost-charger-boost system for enhanced power delivery |
US10243414B1 (en) | 2014-05-07 | 2019-03-26 | Energous Corporation | Wearable device with wireless power and payload receiver |
US9843201B1 (en) | 2012-07-06 | 2017-12-12 | Energous Corporation | Wireless power transmitter that selects antenna sets for transmitting wireless power to a receiver based on location of the receiver, and methods of use thereof |
US9847679B2 (en) | 2014-05-07 | 2017-12-19 | Energous Corporation | System and method for controlling communication between wireless power transmitter managers |
US10263432B1 (en) | 2013-06-25 | 2019-04-16 | Energous Corporation | Multi-mode transmitter with an antenna array for delivering wireless power and providing Wi-Fi access |
US10211680B2 (en) | 2013-07-19 | 2019-02-19 | Energous Corporation | Method for 3 dimensional pocket-forming |
US10270261B2 (en) | 2015-09-16 | 2019-04-23 | Energous Corporation | Systems and methods of object detection in wireless power charging systems |
US10103582B2 (en) | 2012-07-06 | 2018-10-16 | Energous Corporation | Transmitters for wireless power transmission |
US9843213B2 (en) | 2013-08-06 | 2017-12-12 | Energous Corporation | Social power sharing for mobile devices based on pocket-forming |
US9941747B2 (en) | 2014-07-14 | 2018-04-10 | Energous Corporation | System and method for manually selecting and deselecting devices to charge in a wireless power network |
US10063106B2 (en) | 2014-05-23 | 2018-08-28 | Energous Corporation | System and method for a self-system analysis in a wireless power transmission network |
US10291066B1 (en) | 2014-05-07 | 2019-05-14 | Energous Corporation | Power transmission control systems and methods |
US10128699B2 (en) | 2014-07-14 | 2018-11-13 | Energous Corporation | Systems and methods of providing wireless power using receiver device sensor inputs |
US10291055B1 (en) | 2014-12-29 | 2019-05-14 | Energous Corporation | Systems and methods for controlling far-field wireless power transmission based on battery power levels of a receiving device |
US10256657B2 (en) | 2015-12-24 | 2019-04-09 | Energous Corporation | Antenna having coaxial structure for near field wireless power charging |
US10008889B2 (en) | 2014-08-21 | 2018-06-26 | Energous Corporation | Method for automatically testing the operational status of a wireless power receiver in a wireless power transmission system |
US10141768B2 (en) | 2013-06-03 | 2018-11-27 | Energous Corporation | Systems and methods for maximizing wireless power transfer efficiency by instructing a user to change a receiver device's position |
US9941707B1 (en) | 2013-07-19 | 2018-04-10 | Energous Corporation | Home base station for multiple room coverage with multiple transmitters |
US10063064B1 (en) | 2014-05-23 | 2018-08-28 | Energous Corporation | System and method for generating a power receiver identifier in a wireless power network |
US10312715B2 (en) | 2015-09-16 | 2019-06-04 | Energous Corporation | Systems and methods for wireless power charging |
US9893555B1 (en) | 2013-10-10 | 2018-02-13 | Energous Corporation | Wireless charging of tools using a toolbox transmitter |
US10439448B2 (en) | 2014-08-21 | 2019-10-08 | Energous Corporation | Systems and methods for automatically testing the communication between wireless power transmitter and wireless power receiver |
US10218227B2 (en) | 2014-05-07 | 2019-02-26 | Energous Corporation | Compact PIFA antenna |
US10205239B1 (en) | 2014-05-07 | 2019-02-12 | Energous Corporation | Compact PIFA antenna |
US9906065B2 (en) | 2012-07-06 | 2018-02-27 | Energous Corporation | Systems and methods of transmitting power transmission waves based on signals received at first and second subsets of a transmitter's antenna array |
US10992187B2 (en) | 2012-07-06 | 2021-04-27 | Energous Corporation | System and methods of using electromagnetic waves to wirelessly deliver power to electronic devices |
US10090886B1 (en) | 2014-07-14 | 2018-10-02 | Energous Corporation | System and method for enabling automatic charging schedules in a wireless power network to one or more devices |
US9882427B2 (en) | 2013-05-10 | 2018-01-30 | Energous Corporation | Wireless power delivery using a base station to control operations of a plurality of wireless power transmitters |
US9973021B2 (en) | 2012-07-06 | 2018-05-15 | Energous Corporation | Receivers for wireless power transmission |
US9900057B2 (en) | 2012-07-06 | 2018-02-20 | Energous Corporation | Systems and methods for assigning groups of antenas of a wireless power transmitter to different wireless power receivers, and determining effective phases to use for wirelessly transmitting power using the assigned groups of antennas |
US9966765B1 (en) | 2013-06-25 | 2018-05-08 | Energous Corporation | Multi-mode transmitter |
US10038337B1 (en) | 2013-09-16 | 2018-07-31 | Energous Corporation | Wireless power supply for rescue devices |
US10381880B2 (en) | 2014-07-21 | 2019-08-13 | Energous Corporation | Integrated antenna structure arrays for wireless power transmission |
US9859797B1 (en) | 2014-05-07 | 2018-01-02 | Energous Corporation | Synchronous rectifier design for wireless power receiver |
US9853692B1 (en) | 2014-05-23 | 2017-12-26 | Energous Corporation | Systems and methods for wireless power transmission |
US10224758B2 (en) | 2013-05-10 | 2019-03-05 | Energous Corporation | Wireless powering of electronic devices with selective delivery range |
US9991741B1 (en) | 2014-07-14 | 2018-06-05 | Energous Corporation | System for tracking and reporting status and usage information in a wireless power management system |
US10211682B2 (en) | 2014-05-07 | 2019-02-19 | Energous Corporation | Systems and methods for controlling operation of a transmitter of a wireless power network based on user instructions received from an authenticated computing device powered or charged by a receiver of the wireless power network |
US10992185B2 (en) | 2012-07-06 | 2021-04-27 | Energous Corporation | Systems and methods of using electromagnetic waves to wirelessly deliver power to game controllers |
US9838083B2 (en) | 2014-07-21 | 2017-12-05 | Energous Corporation | Systems and methods for communication with remote management systems |
US20140008993A1 (en) | 2012-07-06 | 2014-01-09 | DvineWave Inc. | Methodology for pocket-forming |
US10199849B1 (en) | 2014-08-21 | 2019-02-05 | Energous Corporation | Method for automatically testing the operational status of a wireless power receiver in a wireless power transmission system |
US10223717B1 (en) | 2014-05-23 | 2019-03-05 | Energous Corporation | Systems and methods for payment-based authorization of wireless power transmission service |
US9438045B1 (en) | 2013-05-10 | 2016-09-06 | Energous Corporation | Methods and systems for maximum power point transfer in receivers |
US10141791B2 (en) | 2014-05-07 | 2018-11-27 | Energous Corporation | Systems and methods for controlling communications during wireless transmission of power using application programming interfaces |
US9368020B1 (en) | 2013-05-10 | 2016-06-14 | Energous Corporation | Off-premises alert system and method for wireless power receivers in a wireless power network |
US9899861B1 (en) | 2013-10-10 | 2018-02-20 | Energous Corporation | Wireless charging methods and systems for game controllers, based on pocket-forming |
US10230266B1 (en) | 2014-02-06 | 2019-03-12 | Energous Corporation | Wireless power receivers that communicate status data indicating wireless power transmission effectiveness with a transmitter using a built-in communications component of a mobile device, and methods of use thereof |
US9876648B2 (en) | 2014-08-21 | 2018-01-23 | Energous Corporation | System and method to control a wireless power transmission system by configuration of wireless power transmission control parameters |
US9876379B1 (en) | 2013-07-11 | 2018-01-23 | Energous Corporation | Wireless charging and powering of electronic devices in a vehicle |
KR101374961B1 (ko) * | 2012-09-10 | 2014-03-18 | 김정헌 | 사운드 기반 인터페이스 장치 및 방법 |
US9690392B2 (en) | 2012-10-15 | 2017-06-27 | Sony Corporation | Operating device including a touch sensor |
KR102487893B1 (ko) * | 2012-10-15 | 2023-01-12 | 주식회사 소니 인터랙티브 엔터테인먼트 | 조작 디바이스 |
JP6178066B2 (ja) * | 2012-11-06 | 2017-08-09 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
US9571816B2 (en) * | 2012-11-16 | 2017-02-14 | Microsoft Technology Licensing, Llc | Associating an object with a subject |
US20140143451A1 (en) * | 2012-11-16 | 2014-05-22 | Microsoft Corporation | Binding control devices to a computing system |
US10735106B2 (en) | 2012-12-10 | 2020-08-04 | Apple Inc. | Mobile device with ultrasound ranging |
US8858335B2 (en) | 2013-01-18 | 2014-10-14 | Microsoft Corporation | Reconfigurable clip-on modules for mobile computing devices |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
US9782141B2 (en) | 2013-02-01 | 2017-10-10 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
US9251701B2 (en) | 2013-02-14 | 2016-02-02 | Microsoft Technology Licensing, Llc | Control device with passive reflector |
US10134267B2 (en) | 2013-02-22 | 2018-11-20 | Universal City Studios Llc | System and method for tracking a passive wand and actuating an effect based on a detected wand path |
WO2014140827A2 (en) * | 2013-03-14 | 2014-09-18 | Eyesight Mobile Technologies Ltd. | Systems and methods for proximity sensor and image sensor based gesture detection |
TWI565504B (zh) * | 2013-03-15 | 2017-01-11 | 新力電腦娛樂(美國)責任有限公司 | 遊戲控制器 |
US8903104B2 (en) * | 2013-04-16 | 2014-12-02 | Turtle Beach Corporation | Video gaming system with ultrasonic speakers |
KR101406855B1 (ko) * | 2013-04-17 | 2014-06-13 | 한국과학기술연구원 | 다차원 입력장치를 이용한 컴퓨터 시스템 |
US9538382B2 (en) | 2013-05-10 | 2017-01-03 | Energous Corporation | System and method for smart registration of wireless power receivers in a wireless power network |
US9819230B2 (en) | 2014-05-07 | 2017-11-14 | Energous Corporation | Enhanced receiver for wireless power transmission |
US9866279B2 (en) | 2013-05-10 | 2018-01-09 | Energous Corporation | Systems and methods for selecting which power transmitter should deliver wireless power to a receiving device in a wireless power delivery network |
US9419443B2 (en) | 2013-05-10 | 2016-08-16 | Energous Corporation | Transducer sound arrangement for pocket-forming |
US9537357B2 (en) | 2013-05-10 | 2017-01-03 | Energous Corporation | Wireless sound charging methods and systems for game controllers, based on pocket-forming |
US10103552B1 (en) | 2013-06-03 | 2018-10-16 | Energous Corporation | Protocols for authenticated wireless power transmission |
GB201310373D0 (en) | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-Mountable Apparatus and systems |
US8988911B2 (en) | 2013-06-13 | 2015-03-24 | Turtle Beach Corporation | Self-bias emitter circuit |
US9332344B2 (en) | 2013-06-13 | 2016-05-03 | Turtle Beach Corporation | Self-bias emitter circuit |
US10003211B1 (en) | 2013-06-17 | 2018-06-19 | Energous Corporation | Battery life of portable electronic devices |
US10021523B2 (en) | 2013-07-11 | 2018-07-10 | Energous Corporation | Proximity transmitters for wireless power charging systems |
CN103399634B (zh) * | 2013-07-22 | 2016-02-24 | 瑞声科技(南京)有限公司 | 手势识别系统及识别方法 |
US9979440B1 (en) | 2013-07-25 | 2018-05-22 | Energous Corporation | Antenna tile arrangements configured to operate as one functional unit |
US9935482B1 (en) | 2014-02-06 | 2018-04-03 | Energous Corporation | Wireless power transmitters that transmit at determined times based on power availability and consumption at a receiving mobile device |
US10075017B2 (en) | 2014-02-06 | 2018-09-11 | Energous Corporation | External or internal wireless power receiver with spaced-apart antenna elements for charging or powering mobile devices using wirelessly delivered power |
US9495759B2 (en) * | 2014-02-26 | 2016-11-15 | Apeiros, Llc | Mobile, wearable, automated target tracking system |
US9618618B2 (en) | 2014-03-10 | 2017-04-11 | Elwha Llc | Systems and methods for ultrasonic position and motion detection |
WO2015138396A1 (en) * | 2014-03-10 | 2015-09-17 | Elwha Llc | Systems and methods for a dual modality sensor system |
US9739883B2 (en) * | 2014-05-16 | 2017-08-22 | Elwha Llc | Systems and methods for ultrasonic velocity and acceleration detection |
US9437002B2 (en) * | 2014-09-25 | 2016-09-06 | Elwha Llc | Systems and methods for a dual modality sensor system |
USD744573S1 (en) * | 2014-03-19 | 2015-12-01 | Mitutoyo Corporation | Camera for remote coordinate measuring machine |
US10004462B2 (en) | 2014-03-24 | 2018-06-26 | Kineticor, Inc. | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
US10158257B2 (en) | 2014-05-01 | 2018-12-18 | Energous Corporation | System and methods for using sound waves to wirelessly deliver power to electronic devices |
US9966784B2 (en) | 2014-06-03 | 2018-05-08 | Energous Corporation | Systems and methods for extending battery life of portable electronic devices charged by sound |
US10153645B1 (en) | 2014-05-07 | 2018-12-11 | Energous Corporation | Systems and methods for designating a master power transmitter in a cluster of wireless power transmitters |
US10153653B1 (en) | 2014-05-07 | 2018-12-11 | Energous Corporation | Systems and methods for using application programming interfaces to control communications between a transmitter and a receiver |
US9973008B1 (en) | 2014-05-07 | 2018-05-15 | Energous Corporation | Wireless power receiver with boost converters directly coupled to a storage element |
US9800172B1 (en) | 2014-05-07 | 2017-10-24 | Energous Corporation | Integrated rectifier and boost converter for boosting voltage received from wireless power transmission waves |
US10170917B1 (en) | 2014-05-07 | 2019-01-01 | Energous Corporation | Systems and methods for managing and controlling a wireless power network by establishing time intervals during which receivers communicate with a transmitter |
US9876536B1 (en) | 2014-05-23 | 2018-01-23 | Energous Corporation | Systems and methods for assigning groups of antennas to transmit wireless power to different wireless power receivers |
KR101595957B1 (ko) * | 2014-06-12 | 2016-02-18 | 엘지전자 주식회사 | 이동 단말기 및 제어 시스템 |
US10068703B1 (en) | 2014-07-21 | 2018-09-04 | Energous Corporation | Integrated miniature PIFA with artificial magnetic conductor metamaterials |
US10116143B1 (en) | 2014-07-21 | 2018-10-30 | Energous Corporation | Integrated antenna arrays for wireless power transmission |
US9871301B2 (en) | 2014-07-21 | 2018-01-16 | Energous Corporation | Integrated miniature PIFA with artificial magnetic conductor metamaterials |
WO2016014718A1 (en) | 2014-07-23 | 2016-01-28 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9965009B1 (en) | 2014-08-21 | 2018-05-08 | Energous Corporation | Systems and methods for assigning a power receiver to individual power transmitters based on location of the power receiver |
US9917477B1 (en) | 2014-08-21 | 2018-03-13 | Energous Corporation | Systems and methods for automatically testing the communication between power transmitter and wireless receiver |
CN104258555B (zh) * | 2014-09-10 | 2016-05-11 | 北京理工大学 | 采用rgbd视觉传感的双拳击球健身交互系统 |
US9945946B2 (en) | 2014-09-11 | 2018-04-17 | Microsoft Technology Licensing, Llc | Ultrasonic depth imaging |
US10122415B2 (en) | 2014-12-27 | 2018-11-06 | Energous Corporation | Systems and methods for assigning a set of antennas of a wireless power transmitter to a wireless power receiver based on a location of the wireless power receiver |
CN104606882B (zh) * | 2014-12-31 | 2018-01-16 | 南宁九金娃娃动漫有限公司 | 一种体感游戏互动方法及系统 |
US9746921B2 (en) * | 2014-12-31 | 2017-08-29 | Sony Interactive Entertainment Inc. | Signal generation and detector systems and methods for determining positions of fingers of a user |
US9893535B2 (en) | 2015-02-13 | 2018-02-13 | Energous Corporation | Systems and methods for determining optimal charging positions to maximize efficiency of power received from wirelessly delivered sound wave energy |
CN104707331B (zh) * | 2015-03-31 | 2018-08-07 | 北京奇艺世纪科技有限公司 | 一种游戏体感产生方法及装置 |
US10178374B2 (en) | 2015-04-03 | 2019-01-08 | Microsoft Technology Licensing, Llc | Depth imaging of a surrounding environment |
US9898091B2 (en) | 2015-06-03 | 2018-02-20 | Oculus Vr, Llc | Virtual reality system with head-mounted display, camera and hand-held controllers |
US9833700B2 (en) * | 2015-06-11 | 2017-12-05 | Oculus Vr, Llc | Connectable hand-held controllers for virtual-reality systems |
USD772986S1 (en) | 2015-06-11 | 2016-11-29 | Oculus Vr, Llc | Wireless game controller |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
US9995823B2 (en) | 2015-07-31 | 2018-06-12 | Elwha Llc | Systems and methods for utilizing compressed sensing in an entertainment system |
US10523033B2 (en) | 2015-09-15 | 2019-12-31 | Energous Corporation | Receiver devices configured to determine location within a transmission field |
US9906275B2 (en) | 2015-09-15 | 2018-02-27 | Energous Corporation | Identifying receivers in a wireless charging transmission field |
US9893538B1 (en) | 2015-09-16 | 2018-02-13 | Energous Corporation | Systems and methods of object detection in wireless power charging systems |
US10008875B1 (en) | 2015-09-16 | 2018-06-26 | Energous Corporation | Wireless power transmitter configured to transmit power waves to a predicted location of a moving wireless power receiver |
US10158259B1 (en) | 2015-09-16 | 2018-12-18 | Energous Corporation | Systems and methods for identifying receivers in a transmission field by transmitting exploratory power waves towards different segments of a transmission field |
US10186893B2 (en) | 2015-09-16 | 2019-01-22 | Energous Corporation | Systems and methods for real time or near real time wireless communications between a wireless power transmitter and a wireless power receiver |
US10211685B2 (en) | 2015-09-16 | 2019-02-19 | Energous Corporation | Systems and methods for real or near real time wireless communications between a wireless power transmitter and a wireless power receiver |
US9871387B1 (en) | 2015-09-16 | 2018-01-16 | Energous Corporation | Systems and methods of object detection using one or more video cameras in wireless power charging systems |
US10778041B2 (en) | 2015-09-16 | 2020-09-15 | Energous Corporation | Systems and methods for generating power waves in a wireless power transmission system |
US10199850B2 (en) | 2015-09-16 | 2019-02-05 | Energous Corporation | Systems and methods for wirelessly transmitting power from a transmitter to a receiver by determining refined locations of the receiver in a segmented transmission field associated with the transmitter |
US11710321B2 (en) | 2015-09-16 | 2023-07-25 | Energous Corporation | Systems and methods of object detection in wireless power charging systems |
US9941752B2 (en) | 2015-09-16 | 2018-04-10 | Energous Corporation | Systems and methods of object detection in wireless power charging systems |
US10153660B1 (en) | 2015-09-22 | 2018-12-11 | Energous Corporation | Systems and methods for preconfiguring sensor data for wireless charging systems |
US10020678B1 (en) | 2015-09-22 | 2018-07-10 | Energous Corporation | Systems and methods for selecting antennas to generate and transmit power transmission waves |
US10033222B1 (en) | 2015-09-22 | 2018-07-24 | Energous Corporation | Systems and methods for determining and generating a waveform for wireless power transmission waves |
US10135295B2 (en) | 2015-09-22 | 2018-11-20 | Energous Corporation | Systems and methods for nullifying energy levels for wireless power transmission waves |
US10135294B1 (en) | 2015-09-22 | 2018-11-20 | Energous Corporation | Systems and methods for preconfiguring transmission devices for power wave transmissions based on location data of one or more receivers |
US10027168B2 (en) | 2015-09-22 | 2018-07-17 | Energous Corporation | Systems and methods for generating and transmitting wireless power transmission waves using antennas having a spacing that is selected by the transmitter |
US10128686B1 (en) | 2015-09-22 | 2018-11-13 | Energous Corporation | Systems and methods for identifying receiver locations using sensor technologies |
US10050470B1 (en) | 2015-09-22 | 2018-08-14 | Energous Corporation | Wireless power transmission device having antennas oriented in three dimensions |
CN105148513B (zh) | 2015-09-23 | 2017-06-06 | 腾讯科技(深圳)有限公司 | 智能硬件的操作方法及装置 |
US10734717B2 (en) | 2015-10-13 | 2020-08-04 | Energous Corporation | 3D ceramic mold antenna |
US10333332B1 (en) | 2015-10-13 | 2019-06-25 | Energous Corporation | Cross-polarized dipole antenna |
US9899744B1 (en) | 2015-10-28 | 2018-02-20 | Energous Corporation | Antenna for wireless charging systems |
US9853485B2 (en) | 2015-10-28 | 2017-12-26 | Energous Corporation | Antenna for wireless charging systems |
US10027180B1 (en) | 2015-11-02 | 2018-07-17 | Energous Corporation | 3D triple linear antenna that acts as heat sink |
US10135112B1 (en) | 2015-11-02 | 2018-11-20 | Energous Corporation | 3D antenna mount |
US10063108B1 (en) | 2015-11-02 | 2018-08-28 | Energous Corporation | Stamped three-dimensional antenna |
US10007339B2 (en) * | 2015-11-05 | 2018-06-26 | Oculus Vr, Llc | Controllers with asymmetric tracking patterns |
US9839840B2 (en) * | 2015-11-05 | 2017-12-12 | Oculus Vr, Llc | Interconnectable handheld controllers |
US9990045B2 (en) | 2015-11-12 | 2018-06-05 | Oculus Vr, Llc | Method and apparatus for detecting hand gestures with a handheld controller |
US10130875B2 (en) | 2015-11-12 | 2018-11-20 | Oculus Vr, Llc | Handheld controller with finger grip detection |
CN108697367A (zh) | 2015-11-23 | 2018-10-23 | 凯内蒂科尓股份有限公司 | 用于在医学成像扫描期间跟踪并补偿患者运动的系统、装置和方法 |
US9804693B2 (en) * | 2015-12-18 | 2017-10-31 | Oculus Vr, Llc | Handheld controller with activation sensors |
US10010788B2 (en) * | 2015-12-21 | 2018-07-03 | Sony Interactive Entertainment Inc. | Game controller with lights visible inside and outside the game controller |
US10135286B2 (en) | 2015-12-24 | 2018-11-20 | Energous Corporation | Near field transmitters for wireless power charging of an electronic device by leaking RF energy through an aperture offset from a patch antenna |
US10027159B2 (en) | 2015-12-24 | 2018-07-17 | Energous Corporation | Antenna for transmitting wireless power signals |
US10038332B1 (en) | 2015-12-24 | 2018-07-31 | Energous Corporation | Systems and methods of wireless power charging through multiple receiving devices |
US11863001B2 (en) | 2015-12-24 | 2024-01-02 | Energous Corporation | Near-field antenna for wireless power transmission with antenna elements that follow meandering patterns |
US10256677B2 (en) | 2016-12-12 | 2019-04-09 | Energous Corporation | Near-field RF charging pad with adaptive loading to efficiently charge an electronic device at any position on the pad |
US10079515B2 (en) | 2016-12-12 | 2018-09-18 | Energous Corporation | Near-field RF charging pad with multi-band antenna element with adaptive loading to efficiently charge an electronic device at any position on the pad |
US10320446B2 (en) | 2015-12-24 | 2019-06-11 | Energous Corporation | Miniaturized highly-efficient designs for near-field power transfer system |
US10008886B2 (en) | 2015-12-29 | 2018-06-26 | Energous Corporation | Modular antennas with heat sinks in wireless power transmission systems |
US9977494B2 (en) | 2015-12-30 | 2018-05-22 | Oculus Vr, Llc | Tracking constellation assembly for use in a virtual reality system |
US10343059B2 (en) | 2015-12-30 | 2019-07-09 | Facebook Technologies, Llc | Handheld controller with thumbstick guard |
US10441880B2 (en) | 2015-12-30 | 2019-10-15 | Facebook Technologies, Llc | Handheld controller with spring-biased third finger button assembly |
US10386922B2 (en) | 2015-12-30 | 2019-08-20 | Facebook Technologies, Llc | Handheld controller with trigger button and sensor retainer assembly |
US11857869B2 (en) | 2015-12-31 | 2024-01-02 | Meta Platforms Technologies, Llc | Handheld controller with hand detection sensors |
CN105653035B (zh) * | 2015-12-31 | 2019-01-11 | 上海摩软通讯技术有限公司 | 虚拟现实控制方法及系统 |
US20170209789A1 (en) * | 2016-01-21 | 2017-07-27 | Proxy42, Inc. | Laser Game System |
TWI729064B (zh) * | 2016-01-28 | 2021-06-01 | 日商日本鼎意股份有限公司 | 包括內置有感應器的球的系統、行動終端的程式及經由行動終端監控球的動向之方法 |
DE102016102402A1 (de) * | 2016-02-11 | 2017-08-17 | Rwe Effizienz Gmbh | Heimautomatisierungssystem |
US10534432B2 (en) | 2016-03-04 | 2020-01-14 | Sony Interactive Entertainment Inc. | Control apparatus |
KR101840929B1 (ko) * | 2016-05-24 | 2018-05-04 | 주식회사 에코로커스 | 가상 현실 구현을 위한 장치 |
JP1574198S (pt) * | 2016-06-09 | 2017-04-17 | ||
US10102423B2 (en) * | 2016-06-30 | 2018-10-16 | Snap Inc. | Object modeling and replacement in a video stream |
USD835104S1 (en) | 2016-09-27 | 2018-12-04 | Oculus Vr, Llc | Wireless game controller |
US10712835B2 (en) | 2016-10-06 | 2020-07-14 | Htc Corporation | System and method for detecting hand gesture |
US10691233B2 (en) | 2016-10-11 | 2020-06-23 | Valve Corporation | Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR) |
US10888773B2 (en) | 2016-10-11 | 2021-01-12 | Valve Corporation | Force sensing resistor (FSR) with polyimide substrate, systems, and methods thereof |
US10898797B2 (en) | 2016-10-11 | 2021-01-26 | Valve Corporation | Electronic controller with finger sensing and an adjustable hand retainer |
US11185763B2 (en) | 2016-10-11 | 2021-11-30 | Valve Corporation | Holding and releasing virtual objects |
US10549183B2 (en) | 2016-10-11 | 2020-02-04 | Valve Corporation | Electronic controller with a hand retainer, outer shell, and finger sensing |
US10987573B2 (en) | 2016-10-11 | 2021-04-27 | Valve Corporation | Virtual reality hand gesture generation |
US11625898B2 (en) | 2016-10-11 | 2023-04-11 | Valve Corporation | Holding and releasing virtual objects |
US10649583B1 (en) | 2016-10-11 | 2020-05-12 | Valve Corporation | Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR) |
US10307669B2 (en) | 2016-10-11 | 2019-06-04 | Valve Corporation | Electronic controller with finger sensing and an adjustable hand retainer |
US10391400B1 (en) | 2016-10-11 | 2019-08-27 | Valve Corporation | Electronic controller with hand retainer and finger motion sensing |
US10923954B2 (en) | 2016-11-03 | 2021-02-16 | Energous Corporation | Wireless power receiver with a synchronous rectifier |
JP6977991B2 (ja) * | 2016-11-24 | 2021-12-08 | 株式会社齋藤創造研究所 | 入力装置および画像表示システム |
EP3545385B1 (en) | 2016-11-25 | 2021-07-14 | Sensoryx AG | Wearable motion tracking system |
KR102185600B1 (ko) | 2016-12-12 | 2020-12-03 | 에너저스 코포레이션 | 전달되는 무선 전력을 최대화하기 위한 근접장 충전 패드의 안테나 존들을 선택적으로 활성화시키는 방법 |
CN108241142B (zh) * | 2016-12-26 | 2021-05-11 | 宏达国际电子股份有限公司 | 追踪系统及追踪方法 |
US10401500B2 (en) * | 2016-12-30 | 2019-09-03 | DeepMap Inc. | Encoding LiDAR scanned data for generating high definition maps for autonomous vehicles |
DE102018100122A1 (de) | 2017-01-04 | 2018-07-05 | Htc Corporation | Steuereinheit zur Fingergestenerkennung und Verfahren zum Erkennen einer Fingergeste |
US10579151B2 (en) | 2017-01-04 | 2020-03-03 | Htc Corporation | Controller for finger gesture recognition and method for recognizing finger gesture |
US10389161B2 (en) | 2017-03-15 | 2019-08-20 | Energous Corporation | Surface mount dielectric antennas for wireless power transmitters |
US10680319B2 (en) | 2017-01-06 | 2020-06-09 | Energous Corporation | Devices and methods for reducing mutual coupling effects in wireless power transmission systems |
US10439442B2 (en) | 2017-01-24 | 2019-10-08 | Energous Corporation | Microstrip antennas for wireless power transmitters |
US10528147B2 (en) | 2017-03-06 | 2020-01-07 | Microsoft Technology Licensing, Llc | Ultrasonic based gesture recognition |
US10276179B2 (en) | 2017-03-06 | 2019-04-30 | Microsoft Technology Licensing, Llc | Speech enhancement with low-order non-negative matrix factorization |
US11011942B2 (en) | 2017-03-30 | 2021-05-18 | Energous Corporation | Flat antennas having two or more resonant frequencies for use in wireless power transmission systems |
USD872792S1 (en) * | 2017-04-05 | 2020-01-14 | Hand Held Products, Inc | Imager device |
US11501552B2 (en) | 2017-04-27 | 2022-11-15 | Sony Interactive Entertainment Inc. | Control apparatus, information processing system, control method, and program |
US10984315B2 (en) | 2017-04-28 | 2021-04-20 | Microsoft Technology Licensing, Llc | Learning-based noise reduction in data produced by a network of sensors, such as one incorporated into loose-fitting clothing worn by a person |
US10496157B2 (en) | 2017-05-09 | 2019-12-03 | Microsoft Technology Licensing, Llc | Controlling handheld object light sources for tracking |
EP3428884B1 (en) * | 2017-05-12 | 2020-01-08 | HTC Corporation | Tracking system and tracking method thereof |
US10511097B2 (en) | 2017-05-12 | 2019-12-17 | Energous Corporation | Near-field antennas for accumulating energy at a near-field distance with minimal far-field gain |
US11462949B2 (en) | 2017-05-16 | 2022-10-04 | Wireless electrical Grid LAN, WiGL Inc | Wireless charging method and system |
WO2018231654A2 (en) * | 2017-06-12 | 2018-12-20 | Performance Designed Products Llc | Video game controller |
WO2018232375A1 (en) * | 2017-06-16 | 2018-12-20 | Valve Corporation | Electronic controller with finger motion sensing |
WO2018232616A1 (en) * | 2017-06-21 | 2018-12-27 | SZ DJI Technology Co., Ltd. | METHODS AND APPARATUSES FOR TRANSFORMABLE REMOTE CONTROL DEVICES |
US10848853B2 (en) | 2017-06-23 | 2020-11-24 | Energous Corporation | Systems, methods, and devices for utilizing a wire of a sound-producing device as an antenna for receipt of wirelessly delivered power |
US10449440B2 (en) * | 2017-06-30 | 2019-10-22 | Electronic Arts Inc. | Interactive voice-controlled companion application for a video game |
JP6755843B2 (ja) | 2017-09-14 | 2020-09-16 | 株式会社東芝 | 音響処理装置、音声認識装置、音響処理方法、音声認識方法、音響処理プログラム及び音声認識プログラム |
US10122219B1 (en) | 2017-10-10 | 2018-11-06 | Energous Corporation | Systems, methods, and devices for using a battery as a antenna for receiving wirelessly delivered power from radio frequency power waves |
TWI642903B (zh) * | 2017-10-13 | 2018-12-01 | 緯創資通股份有限公司 | 用於頭戴式顯示裝置的定位方法、定位器以及定位系統 |
JP6831475B2 (ja) | 2017-10-16 | 2021-02-17 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、コントローラデバイス、及び情報処理装置 |
GB2567634B (en) * | 2017-10-17 | 2021-08-25 | Sony Interactive Entertainment Inc | Input apparatus and method |
TWI636381B (zh) * | 2017-10-19 | 2018-09-21 | 財團法人工業技術研究院 | 互動顯示系統及互動顯示控制方法 |
US11342798B2 (en) | 2017-10-30 | 2022-05-24 | Energous Corporation | Systems and methods for managing coexistence of wireless-power signals and data signals operating in a same frequency band |
WO2019113245A1 (en) * | 2017-12-07 | 2019-06-13 | Valve Corporation | Electronic controller with a hand retainer, outer shell, and finger sensing |
GB2569544B (en) * | 2017-12-19 | 2022-07-20 | Displaylink Uk Ltd | Transmission of a reverse video feed |
US10615647B2 (en) | 2018-02-02 | 2020-04-07 | Energous Corporation | Systems and methods for detecting wireless power receivers and other objects at a near-field charging pad |
GB2571337B (en) * | 2018-02-26 | 2021-03-10 | Sony Interactive Entertainment Inc | Controlling data processing |
CN110193189B (zh) * | 2018-02-27 | 2022-09-13 | 宏达国际电子股份有限公司 | 可追踪光学装置 |
US11159057B2 (en) | 2018-03-14 | 2021-10-26 | Energous Corporation | Loop antennas with selectively-activated feeds to control propagation patterns of wireless power signals |
US11099158B2 (en) * | 2018-05-11 | 2021-08-24 | Gauss Design Inc | Three dimensional detection device, surface detection method and production line apparatus using the same |
US11515732B2 (en) | 2018-06-25 | 2022-11-29 | Energous Corporation | Power wave transmission techniques to focus wirelessly delivered power at a receiving device |
US20200004489A1 (en) * | 2018-06-29 | 2020-01-02 | Microsoft Technology Licensing, Llc | Ultrasonic discovery protocol for display devices |
WO2020079854A1 (ja) * | 2018-10-19 | 2020-04-23 | 株式会社ソニー・インタラクティブエンタテインメント | コントローラ装置、その制御方法、及びプログラム |
US10744406B2 (en) * | 2018-10-19 | 2020-08-18 | North Carolina State University | Temporal axial alignment adapter for VR hand controllers |
WO2020079853A1 (ja) | 2018-10-19 | 2020-04-23 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、コントローラ装置、情報処理装置、及びプログラム |
US11437735B2 (en) | 2018-11-14 | 2022-09-06 | Energous Corporation | Systems for receiving electromagnetic energy using antennas that are minimally affected by the presence of the human body |
US10866658B2 (en) * | 2018-12-20 | 2020-12-15 | Industrial Technology Research Institute | Indicator device, mixed reality device and operation method thereof |
WO2020160015A1 (en) | 2019-01-28 | 2020-08-06 | Energous Corporation | Systems and methods for miniaturized antenna for wireless power transmissions |
KR20210123329A (ko) | 2019-02-06 | 2021-10-13 | 에너저스 코포레이션 | 안테나 어레이에 있어서의 개별 안테나들에 이용하기 위해 최적 위상을 추정하는 시스템 및 방법 |
US11287505B2 (en) * | 2019-05-13 | 2022-03-29 | Cast Group Of Companies Inc. | Electronic tracking device and related system |
EP4032169A4 (en) | 2019-09-20 | 2023-12-06 | Energous Corporation | CLASSIFICATION AND DETECTION OF FOREIGN OBJECTS USING POWER AMPLIFIER CONTROLLER INTEGRATED CIRCUIT IN WIRELESS POWER TRANSMISSION SYSTEMS |
CN115104234A (zh) | 2019-09-20 | 2022-09-23 | 艾诺格思公司 | 使用多个整流器保护无线电力接收器以及使用多个整流器建立带内通信的系统和方法 |
US11381118B2 (en) | 2019-09-20 | 2022-07-05 | Energous Corporation | Systems and methods for machine learning based foreign object detection for wireless power transmission |
WO2021055898A1 (en) | 2019-09-20 | 2021-03-25 | Energous Corporation | Systems and methods for machine learning based foreign object detection for wireless power transmission |
US11273367B1 (en) * | 2019-09-24 | 2022-03-15 | Wayne Hughes Beckett | Non-CRT pointing device |
US11599257B2 (en) * | 2019-11-12 | 2023-03-07 | Cast Group Of Companies Inc. | Electronic tracking device and charging apparatus |
US11959997B2 (en) * | 2019-11-22 | 2024-04-16 | Magic Leap, Inc. | System and method for tracking a wearable device |
US20230005262A1 (en) * | 2019-11-25 | 2023-01-05 | Alon Melchner | System and method for dynamic synchronization between real and virtual environments |
US11355966B2 (en) | 2019-12-13 | 2022-06-07 | Energous Corporation | Charging pad with guiding contours to align an electronic device on the charging pad and efficiently transfer near-field radio-frequency energy to the electronic device |
US10985617B1 (en) | 2019-12-31 | 2021-04-20 | Energous Corporation | System for wirelessly transmitting energy at a near-field distance without using beam-forming control |
CN113138734A (zh) * | 2020-01-20 | 2021-07-20 | 北京芯海视界三维科技有限公司 | 用于显示的方法、装置和产品 |
US11799324B2 (en) | 2020-04-13 | 2023-10-24 | Energous Corporation | Wireless-power transmitting device for creating a uniform near-field charging area |
CN111939561B (zh) * | 2020-08-31 | 2023-09-19 | 聚好看科技股份有限公司 | 显示设备及交互方法 |
WO2022061114A1 (en) * | 2020-09-17 | 2022-03-24 | Bogie Inc. | System and method for an interactive controller |
CN113318435A (zh) * | 2021-04-27 | 2021-08-31 | 青岛小鸟看看科技有限公司 | 手柄控制追踪器的控制方法、装置及头戴式显示设备 |
CN113438548B (zh) * | 2021-08-30 | 2021-10-29 | 深圳佳力拓科技有限公司 | 基于视频数据包与音频数据包的数字电视展示方法与装置 |
US11916398B2 (en) | 2021-12-29 | 2024-02-27 | Energous Corporation | Small form-factor devices with integrated and modular harvesting receivers, and shelving-mounted wireless-power transmitters for use therewith |
US20230409113A1 (en) * | 2022-06-16 | 2023-12-21 | Neil Nelson | Extended reality interface |
WO2024029695A1 (ko) * | 2022-08-05 | 2024-02-08 | 삼성전자주식회사 | 모션 정보에 의한 제어 신호를 식별하는 전자 장치 및 그 제어 방법 |
KR102556447B1 (ko) | 2023-02-16 | 2023-07-18 | 주식회사 슈퍼스타트 | 패턴 분석을 통한 상황 판단 시스템 |
KR102576232B1 (ko) * | 2023-04-05 | 2023-09-08 | 퍼시픽 센츄리 주식회사 | Rf와 초음파를 이용한 헤드 트래킹 가능한 블루투스 게임머용 헤드셋 및 그 헤드셋의 구동방법 |
KR102590257B1 (ko) | 2023-05-03 | 2023-10-19 | (주)한성컴퓨터 | 와이-파이 위치 추적 기술을 이용한 스마트 인터랙티브 화이트보드 장치 및 그 제어방법 |
Family Cites Families (358)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3943277A (en) | 1969-02-20 | 1976-03-09 | The United States Of America As Represented By The Secretary Of The Navy | Digital memory area correlation tracker |
US4313227A (en) | 1979-01-29 | 1982-01-26 | Texas Instruments Incorporated | Light energy information transmission system |
US4263504A (en) | 1979-08-01 | 1981-04-21 | Ncr Corporation | High density matrix code |
US6772057B2 (en) | 1995-06-07 | 2004-08-03 | Automotive Technologies International, Inc. | Vehicular monitoring systems using image processing |
US4565999A (en) | 1983-04-01 | 1986-01-21 | Prime Computer, Inc. | Light pencil |
US4558864A (en) | 1984-06-13 | 1985-12-17 | Medwedeff Marion C | Handgrip exercising, computer game controller |
US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
US4787051A (en) | 1986-05-16 | 1988-11-22 | Tektronix, Inc. | Inertial mouse system |
JPS6347616A (ja) | 1986-08-15 | 1988-02-29 | Ricoh Co Ltd | 移動量測定方法 |
US4802227A (en) | 1987-04-03 | 1989-01-31 | American Telephone And Telegraph Company | Noise reduction processing arrangement for microphone arrays |
GB2206716A (en) | 1987-07-06 | 1989-01-11 | Gen Electric Plc | Apparatus for monitoring the presence or movement of an object |
US4963858A (en) | 1987-09-08 | 1990-10-16 | Chien Fong K | Changeable input ratio mouse |
IT1219405B (it) | 1988-06-27 | 1990-05-11 | Fiat Ricerche | Procedimento e dispositivo per la visione strumentale in condizioni di scarsa visibilita in particolare per la guida nella nebbia |
NZ231883A (en) | 1988-12-20 | 1993-04-28 | Australian Meat & Live Stock | Tag with machine-readable optical code |
US5034986A (en) | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
US5055840A (en) | 1990-01-16 | 1991-10-08 | Carroll Touch Incorporated | Infrared touch input device and light emitted activation circuit |
US5128671A (en) | 1990-04-12 | 1992-07-07 | Ltv Aerospace And Defense Company | Control device having multiple degrees of freedom |
CA2081910C (en) | 1990-05-01 | 2000-04-25 | Donald E. Drumm | Hands-free hardware keyboard |
US5111401A (en) | 1990-05-19 | 1992-05-05 | The United States Of America As Represented By The Secretary Of The Navy | Navigational control system for an autonomous vehicle |
US5662111A (en) | 1991-01-28 | 1997-09-02 | Cosman; Eric R. | Process of stereotactic optical navigation |
US5485273A (en) | 1991-04-22 | 1996-01-16 | Litton Systems, Inc. | Ring laser gyroscope enhanced resolution system |
US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
US5144594A (en) | 1991-05-29 | 1992-09-01 | Cyber Scientific | Acoustic mouse system |
US5455685A (en) | 1991-09-04 | 1995-10-03 | Fuji Photo Film Co., Ltd. | Video camera exposure control apparatus for controlling iris diaphragm and automatic gain control operating speed |
US5889670A (en) | 1991-10-24 | 1999-03-30 | Immersion Corporation | Method and apparatus for tactilely responsive user interface |
US5444462A (en) | 1991-12-16 | 1995-08-22 | Wambach; Mark L. | Computer mouse glove with remote communication |
US5453758A (en) | 1992-07-31 | 1995-09-26 | Sony Corporation | Input apparatus |
US5790834A (en) | 1992-08-31 | 1998-08-04 | Intel Corporation | Apparatus and method using an ID instruction to identify a computer microprocessor |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
US7098891B1 (en) | 1992-09-18 | 2006-08-29 | Pryor Timothy R | Method for providing human input to a computer |
US5317140A (en) | 1992-11-24 | 1994-05-31 | Dunthorn David I | Diffusion-assisted position location particularly for visual pen detection |
US5394168A (en) | 1993-01-06 | 1995-02-28 | Smith Engineering | Dual-mode hand-held game controller |
US5335011A (en) | 1993-01-12 | 1994-08-02 | Bell Communications Research, Inc. | Sound localization system for teleconferencing using self-steering microphone arrays |
EP0613294B1 (en) | 1993-02-24 | 1998-10-28 | Matsushita Electric Industrial Co., Ltd. | Gradation correction device and image sensing device therewith |
US5815411A (en) | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
JP3679426B2 (ja) | 1993-03-15 | 2005-08-03 | マサチューセッツ・インスティチュート・オブ・テクノロジー | 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム |
US5677710A (en) | 1993-05-10 | 1997-10-14 | Apple Computer, Inc. | Recognition keypad |
US5297061A (en) | 1993-05-19 | 1994-03-22 | University Of Maryland | Three dimensional pointing device monitored by computer vision |
US5959596A (en) | 1993-06-24 | 1999-09-28 | Nintendo Co., Ltd. | Airline-based video game and communications system |
US5581270A (en) | 1993-06-24 | 1996-12-03 | Nintendo Of America, Inc. | Hotel-based video game and communication system |
US5473701A (en) | 1993-11-05 | 1995-12-05 | At&T Corp. | Adaptive microphone array |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
FR2714502A1 (fr) | 1993-12-29 | 1995-06-30 | Philips Laboratoire Electroniq | Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective. |
US5611000A (en) | 1994-02-22 | 1997-03-11 | Digital Equipment Corporation | Spline-based image registration |
JPH086708A (ja) | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
US5543818A (en) | 1994-05-13 | 1996-08-06 | Sony Corporation | Method and apparatus for entering text using an input device having a small number of keys |
US5846086A (en) | 1994-07-01 | 1998-12-08 | Massachusetts Institute Of Technology | System for human trajectory learning in virtual environments |
US5528265A (en) | 1994-07-18 | 1996-06-18 | Harrison; Simon J. | Orientation-operated cursor control device |
US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US5641319A (en) | 1994-08-10 | 1997-06-24 | Lodgenet Entertainment Corporation | Entertainment system for providing interactive video game responses to the game interrogations to the video game engines without being processed by the host computer |
SE504846C2 (sv) | 1994-09-28 | 1997-05-12 | Jan G Faeger | Styrutrustning med ett rörligt styrorgan |
GB2301514B (en) | 1994-12-01 | 1999-06-09 | Namco Ltd | Apparatus and method for image synthesization |
JP3270643B2 (ja) | 1994-12-22 | 2002-04-02 | キヤノン株式会社 | 指示位置検出方法及び装置 |
US5929444A (en) | 1995-01-31 | 1999-07-27 | Hewlett-Packard Company | Aiming device using radiated energy |
US5568928A (en) | 1995-02-01 | 1996-10-29 | Exertron, Inc. | Video game controller for use with an exercise apparatus |
US5638228A (en) | 1995-02-14 | 1997-06-10 | Iomega Corporation | Retroreflective marker for data storage cartridge |
US5930741A (en) | 1995-02-28 | 1999-07-27 | Virtual Technologies, Inc. | Accurate, rapid, reliable position sensing using multiple sensing technologies |
US5583478A (en) | 1995-03-01 | 1996-12-10 | Renzi; Ronald | Virtual environment tactile system |
US5900863A (en) | 1995-03-16 | 1999-05-04 | Kabushiki Kaisha Toshiba | Method and apparatus for controlling computer without touching input device |
KR19990008158A (ko) | 1995-04-28 | 1999-01-25 | 모리시타요우이치 | 인터페이스 장치 |
US5706364A (en) | 1995-04-28 | 1998-01-06 | Xerox Corporation | Method of producing character templates using unsegmented samples |
US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
US5649021A (en) | 1995-06-07 | 1997-07-15 | David Sarnoff Research Center, Inc. | Method and system for object detection for instrument control |
DE69635891T2 (de) | 1995-06-22 | 2006-12-14 | 3Dv Systems Ltd. | Verbesserte optische kamera zur entfernungsmessung |
IL114278A (en) | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
WO1997005541A1 (en) | 1995-07-26 | 1997-02-13 | King Martin T | Reduced keyboard disambiguating system |
US6311214B1 (en) | 1995-07-27 | 2001-10-30 | Digimarc Corporation | Linking of computers based on optical sensing of digital data |
US5768415A (en) | 1995-09-08 | 1998-06-16 | Lucent Technologies Inc. | Apparatus and methods for performing electronic scene analysis and enhancement |
US5611731A (en) | 1995-09-08 | 1997-03-18 | Thrustmaster, Inc. | Video pinball machine controller having an optical accelerometer for detecting slide and tilt |
US5850222A (en) | 1995-09-13 | 1998-12-15 | Pixel Dust, Inc. | Method and system for displaying a graphic image of a person modeling a garment |
US5818424A (en) | 1995-10-19 | 1998-10-06 | International Business Machines Corporation | Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space |
US5963250A (en) | 1995-10-20 | 1999-10-05 | Parkervision, Inc. | System and method for controlling the field of view of a camera |
US6281930B1 (en) | 1995-10-20 | 2001-08-28 | Parkervision, Inc. | System and method for controlling the field of view of a camera |
US5719561A (en) | 1995-10-25 | 1998-02-17 | Gilbert R. Gonzales | Tactile communication device and method |
US6282362B1 (en) | 1995-11-07 | 2001-08-28 | Trimble Navigation Limited | Geographical position/image digital recording and display system |
US5870100A (en) | 1995-11-22 | 1999-02-09 | Compaq Computer Corporation | Filling of graphical regions |
EP0864145A4 (en) | 1995-11-30 | 1998-12-16 | Virtual Technologies Inc | TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE |
JP4079463B2 (ja) | 1996-01-26 | 2008-04-23 | ソニー株式会社 | 被写体検出装置および被写体検出方法 |
US6049619A (en) | 1996-02-12 | 2000-04-11 | Sarnoff Corporation | Method and apparatus for detecting moving objects in two- and three-dimensional scenes |
JP2891159B2 (ja) | 1996-02-14 | 1999-05-17 | 日本電気株式会社 | 多眼画像からの物体検出方式 |
RU2069885C1 (ru) | 1996-03-01 | 1996-11-27 | Йелстаун Корпорейшн Н.В. | Способ наблюдения объектов при пониженной освещенности и устройство для его осуществления |
JPH09244793A (ja) | 1996-03-04 | 1997-09-19 | Alps Electric Co Ltd | 入力装置 |
CN1177634C (zh) | 1996-03-05 | 2004-12-01 | 世嘉企业股份有限公司 | 控制器和电子装置 |
JP3257585B2 (ja) | 1996-03-29 | 2002-02-18 | 株式会社ビジュアルサイエンス研究所 | 空間マウスを用いた映像化装置 |
WO1997039416A2 (en) | 1996-04-02 | 1997-10-23 | Cognex Corporation | Image formation apparatus for viewing indicia on a planar specular substrate |
US5889505A (en) | 1996-04-04 | 1999-03-30 | Yale University | Vision-based six-degree-of-freedom computer input device |
US5937081A (en) | 1996-04-10 | 1999-08-10 | O'brill; Michael R. | Image composition system and method of using same |
US5923318A (en) | 1996-04-12 | 1999-07-13 | Zhai; Shumin | Finger manipulatable 6 degree-of-freedom input device |
US5917493A (en) | 1996-04-17 | 1999-06-29 | Hewlett-Packard Company | Method and apparatus for randomly generating information for subsequent correlating |
US5881366A (en) * | 1996-05-01 | 1999-03-09 | Logitech, Inc. | Wireless peripheral interface |
US6516466B1 (en) | 1996-05-02 | 2003-02-04 | Vincent C. Jackson | Method and apparatus for portable digital entertainment system |
US6151009A (en) | 1996-08-21 | 2000-11-21 | Carnegie Mellon University | Method and apparatus for merging real and synthetic images |
US6400374B2 (en) | 1996-09-18 | 2002-06-04 | Eyematic Interfaces, Inc. | Video superposition system and method |
US5930383A (en) | 1996-09-24 | 1999-07-27 | Netzer; Yishay | Depth sensing camera systems and methods |
US5832931A (en) | 1996-10-30 | 1998-11-10 | Photogen, Inc. | Method for improved selectivity in photo-activation and detection of molecular diagnostic agents |
NL1004648C2 (nl) | 1996-11-11 | 1998-05-14 | Johan Michiel Schaaij | Computerspelsysteem. |
US5914723A (en) | 1996-12-30 | 1999-06-22 | Sun Microsystems, Inc. | Method and system for converting images in computer systems |
US6243491B1 (en) | 1996-12-31 | 2001-06-05 | Lucent Technologies Inc. | Methods and apparatus for controlling a video system with visually recognized props |
US6021219A (en) | 1997-01-07 | 2000-02-01 | Lucent Technologies Inc. | Methods and apparatus for distinguishing among several visual patterns |
US5850473A (en) | 1997-01-07 | 1998-12-15 | Lucent Technologies Inc. | Method and apparatus for compensating for color variation in a video system |
US5796354A (en) | 1997-02-07 | 1998-08-18 | Reality Quest Corp. | Hand-attachable controller with direction sensing |
US5993314A (en) | 1997-02-10 | 1999-11-30 | Stadium Games, Ltd. | Method and apparatus for interactive audience participation by audio command |
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
JP2001515646A (ja) | 1997-03-07 | 2001-09-18 | スリーディーヴィー システムズ リミテッド | 光学式シャッタ |
US6061055A (en) | 1997-03-21 | 2000-05-09 | Autodesk, Inc. | Method of tracking objects with an imaging device |
US6144367A (en) | 1997-03-26 | 2000-11-07 | International Business Machines Corporation | Method and system for simultaneous operation of multiple handheld control devices in a data processing system |
US6587573B1 (en) | 2000-03-20 | 2003-07-01 | Gentex Corporation | System for controlling exterior vehicle lights |
US8120652B2 (en) | 1997-04-02 | 2012-02-21 | Gentex Corporation | System for controlling vehicle equipment |
JP3009633B2 (ja) | 1997-04-03 | 2000-02-14 | コナミ株式会社 | 画像装置、画像表示方法および記録媒体 |
US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
US6809776B1 (en) | 1997-04-23 | 2004-10-26 | Thomson Licensing S.A. | Control of video level by region and content of information displayed |
US6428411B1 (en) | 1997-05-02 | 2002-08-06 | Konami Co., Ltd. | Volleyball video game system |
NO304715B1 (no) | 1997-05-06 | 1999-02-01 | Dimensions As | FremgangsmÕte ved bildebehandling |
JP3183632B2 (ja) | 1997-06-13 | 2001-07-09 | 株式会社ナムコ | 情報記憶媒体及び画像生成装置 |
US6075895A (en) | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
US6094625A (en) | 1997-07-03 | 2000-07-25 | Trimble Navigation Limited | Augmented vision for survey work and machine control |
WO1999006956A1 (en) | 1997-07-29 | 1999-02-11 | Koninklijke Philips Electronics N.V. | Method of reconstruction of tridimensional scenes and corresponding reconstruction device and decoding system |
US6044181A (en) | 1997-08-01 | 2000-03-28 | Microsoft Corporation | Focal length estimation method and apparatus for construction of panoramic mosaic images |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
US6297838B1 (en) | 1997-08-29 | 2001-10-02 | Xerox Corporation | Spinning as a morpheme for a physical manipulatory grammar |
US6243074B1 (en) | 1997-08-29 | 2001-06-05 | Xerox Corporation | Handedness detection for a physical manipulatory grammar |
US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
US6031934A (en) | 1997-10-15 | 2000-02-29 | Electric Planet, Inc. | Computer vision system for subject characterization |
AU1099899A (en) | 1997-10-15 | 1999-05-03 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
JPH11154240A (ja) | 1997-11-20 | 1999-06-08 | Nintendo Co Ltd | 取込み画像を用いて画像を作成するための画像作成装置 |
US6166744A (en) | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
US6677987B1 (en) | 1997-12-03 | 2004-01-13 | 8×8, Inc. | Wireless user-interface arrangement and method |
US6762794B1 (en) | 1997-12-03 | 2004-07-13 | Canon Kabushiki Kaisha | Image pick-up apparatus for stereoscope |
US6195104B1 (en) | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6160540A (en) | 1998-01-12 | 2000-12-12 | Xerox Company | Zoomorphic computer user interface |
US6134346A (en) | 1998-01-16 | 2000-10-17 | Ultimatte Corp | Method for removing from an image the background surrounding a selected object |
DE69810968T2 (de) | 1998-02-08 | 2003-11-27 | 3Dv Systems Ltd | Optischer verschluss mit grosser blendenöffnung |
US6115052A (en) | 1998-02-12 | 2000-09-05 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | System for reconstructing the 3-dimensional motions of a human figure from a monocularly-viewed image sequence |
US6175343B1 (en) | 1998-02-24 | 2001-01-16 | Anivision, Inc. | Method and apparatus for operating the overlay of computer-generated effects onto a live image |
US6037942A (en) | 1998-03-10 | 2000-03-14 | Magellan Dis, Inc. | Navigation system character input device |
US6411392B1 (en) | 1998-04-15 | 2002-06-25 | Massachusetts Institute Of Technology | Method and apparatus for data hiding in printed images |
US6393142B1 (en) | 1998-04-22 | 2002-05-21 | At&T Corp. | Method and apparatus for adaptive stripe based patch matching for depth estimation |
US6173059B1 (en) | 1998-04-24 | 2001-01-09 | Gentner Communications Corporation | Teleconferencing system with visual feedback |
US6593956B1 (en) | 1998-05-15 | 2003-07-15 | Polycom, Inc. | Locating an audio source |
US6473516B1 (en) | 1998-05-22 | 2002-10-29 | Asa Systems, Inc. | Large capacity steganography |
JP3646969B2 (ja) | 1998-05-25 | 2005-05-11 | 富士通株式会社 | 3次元画像表示装置 |
JP3841132B2 (ja) | 1998-06-01 | 2006-11-01 | 株式会社ソニー・コンピュータエンタテインメント | 入力位置検出装置及びエンタテインメントシステム |
FR2780176B1 (fr) | 1998-06-17 | 2001-01-26 | Gabriel Guary | Pistolet de tir pour jeu video |
US6513160B2 (en) | 1998-06-17 | 2003-01-28 | Opentv, Inc. | System and method for promoting viewer interaction in a television system |
US6504535B1 (en) | 1998-06-30 | 2003-01-07 | Lucent Technologies Inc. | Display techniques for three-dimensional virtual reality |
JP2000020163A (ja) | 1998-06-30 | 2000-01-21 | Sony Corp | 情報処理装置 |
IL125221A0 (en) | 1998-07-06 | 1999-03-12 | Toy Control Ltd | Motion activation using passive sound source |
US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
US6256398B1 (en) | 1998-08-22 | 2001-07-03 | Kenneth H. P. Chang | Encoding and decoding a message within an image |
US6970183B1 (en) | 2000-06-14 | 2005-11-29 | E-Watch, Inc. | Multimedia surveillance and monitoring system including network configuration |
US6621938B1 (en) | 1998-09-18 | 2003-09-16 | Fuji Photo Film Co., Ltd. | Image capture apparatus and method |
US6184863B1 (en) | 1998-10-13 | 2001-02-06 | The George Washington University | Direct pointing apparatus and method therefor |
DE19849515C1 (de) | 1998-10-19 | 2000-12-28 | Gerhard Wergen | Verfahren zur Übergabe von Zeichen insbesondere an einen Computer und Eingabevorrichtung unter Einsatz dieses Verfahrens |
US6307568B1 (en) | 1998-10-28 | 2001-10-23 | Imaginarix Ltd. | Virtual dressing over the internet |
US6409602B1 (en) | 1998-11-06 | 2002-06-25 | New Millenium Gaming Limited | Slim terminal gaming system |
JP2000172431A (ja) | 1998-12-09 | 2000-06-23 | Sony Corp | 情報入力装置及びゲーム装置 |
US6533420B1 (en) | 1999-01-22 | 2003-03-18 | Dimension Technologies, Inc. | Apparatus and method for generating and projecting autostereoscopic images |
US6664946B1 (en) * | 1999-02-22 | 2003-12-16 | Microsoft Corporation | Dual axis articulated computer input device and method of operation |
JP2000261752A (ja) | 1999-03-05 | 2000-09-22 | Hewlett Packard Co <Hp> | 音声付き画像録画再生装置 |
US7139767B1 (en) | 1999-03-05 | 2006-11-21 | Canon Kabushiki Kaisha | Image processing apparatus and database |
JP2000259856A (ja) | 1999-03-09 | 2000-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 3次元コンピュータグラフィックス表示方法及び装置 |
US6323942B1 (en) | 1999-04-30 | 2001-11-27 | Canesta, Inc. | CMOS-compatible three-dimensional image sensor IC |
US7164413B2 (en) | 1999-05-19 | 2007-01-16 | Digimarc Corporation | Enhanced input peripheral |
US6791531B1 (en) | 1999-06-07 | 2004-09-14 | Dot On, Inc. | Device and method for cursor motion control calibration and object selection |
JP2000350865A (ja) | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体 |
JP2000350859A (ja) | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | マーカ配置方法及び複合現実感装置 |
JP2000356972A (ja) | 1999-06-15 | 2000-12-26 | Pioneer Electronic Corp | 発光パネルの駆動装置及び方法 |
US6952198B2 (en) | 1999-07-06 | 2005-10-04 | Hansen Karl C | System and method for communication with enhanced optical pointer |
US6819318B1 (en) | 1999-07-23 | 2004-11-16 | Z. Jason Geng | Method and apparatus for modeling via a three-dimensional image mosaic system |
US6545706B1 (en) | 1999-07-30 | 2003-04-08 | Electric Planet, Inc. | System, method and article of manufacture for tracking a head of a camera-generated image of a person |
US6417836B1 (en) | 1999-08-02 | 2002-07-09 | Lucent Technologies Inc. | Computer input device having six degrees of freedom for controlling movement of a three-dimensional object |
JP2001056742A (ja) | 1999-08-19 | 2001-02-27 | Alps Electric Co Ltd | 入力装置 |
US6556704B1 (en) | 1999-08-25 | 2003-04-29 | Eastman Kodak Company | Method for forming a depth image from digital image data |
JP4691754B2 (ja) | 1999-09-07 | 2011-06-01 | 株式会社セガ | ゲーム装置 |
ATE285079T1 (de) | 1999-09-08 | 2005-01-15 | 3Dv Systems Ltd | 3d- bilderzeugungssystem |
EP1220547A4 (en) | 1999-09-17 | 2005-09-21 | Nature Technology Co Ltd | IMAGE ENTRY SYSTEM, IMAGE PROCESSOR AND CAMERA THEREFOR |
US6441825B1 (en) | 1999-10-04 | 2002-08-27 | Intel Corporation | Video token tracking system for animation |
US6375572B1 (en) | 1999-10-04 | 2002-04-23 | Nintendo Co., Ltd. | Portable game apparatus with acceleration sensor and information storage medium storing a game progam |
JP3847058B2 (ja) | 1999-10-04 | 2006-11-15 | 任天堂株式会社 | ゲームシステム及びそれに用いられるゲーム情報記憶媒体 |
BR9904360A (pt) | 1999-10-05 | 2001-07-03 | Auto Viacao Abc Ltda | Sistema de operação de um veìculo hìbrido; veìculo hìbrido operado pelo sistema e dispositivo de suprimento e acumulação de energia para o veìculo hìbrido |
US6753849B1 (en) | 1999-10-27 | 2004-06-22 | Ken Curran & Associates | Universal remote TV mouse |
US20050037844A1 (en) | 2002-10-30 | 2005-02-17 | Nike, Inc. | Sigils for use with apparel |
US20020107947A1 (en) | 1999-12-09 | 2002-08-08 | Zephyr Media, Inc. | System and method for integration of a universally publicly accessible global network |
JP4403474B2 (ja) | 1999-12-09 | 2010-01-27 | ソニー株式会社 | 触覚提示機構及びこれを用いた力触覚提示装置 |
US6785329B1 (en) | 1999-12-21 | 2004-08-31 | Microsoft Corporation | Automatic video object extraction |
JP3345384B2 (ja) * | 2000-01-12 | 2002-11-18 | コナミ株式会社 | ゲームシステム及びその周辺装置、ゲームシステムの制御方法 |
KR100384406B1 (ko) | 2000-01-24 | 2003-05-22 | (주) 베스트소프트 | 컴퓨터 프로그램 구동조작장치 |
WO2001061519A1 (en) | 2000-02-15 | 2001-08-23 | Sorceron, Inc. | Method and system for distributing captured motion data over a network |
AU2001243285A1 (en) | 2000-03-02 | 2001-09-12 | Donnelly Corporation | Video mirror systems incorporating an accessory module |
JP2001265275A (ja) | 2000-03-16 | 2001-09-28 | Olympus Optical Co Ltd | 画像表示装置 |
US6565441B1 (en) | 2000-04-07 | 2003-05-20 | Arista Enterprises Inc. | Dedicated wireless digital video disc (DVD) controller for video game consoles |
US6676522B2 (en) | 2000-04-07 | 2004-01-13 | Igt | Gaming system including portable game devices |
US6924787B2 (en) | 2000-04-17 | 2005-08-02 | Immersion Corporation | Interface for controlling a graphical image |
AU2001264954A1 (en) | 2000-05-25 | 2001-12-03 | Realitybuy, Inc. | A real time, three-dimensional, configurable, interactive product display systemand method |
US20020056114A1 (en) | 2000-06-16 | 2002-05-09 | Fillebrown Lisa A. | Transmitter for a personal wireless network |
TW527518B (en) | 2000-07-14 | 2003-04-11 | Massachusetts Inst Technology | Method and system for high resolution, ultra fast, 3-D imaging |
US6795068B1 (en) | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
AUPQ896000A0 (en) | 2000-07-24 | 2000-08-17 | Seeing Machines Pty Ltd | Facial image processing system |
WO2002008849A2 (en) | 2000-07-24 | 2002-01-31 | Herman Ehrenburg | Computer-compatible, color-coded manual input system |
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US20020094189A1 (en) | 2000-07-26 | 2002-07-18 | Nassir Navab | Method and system for E-commerce video editing |
JP3561463B2 (ja) | 2000-08-11 | 2004-09-02 | コナミ株式会社 | 3dビデオゲームにおける擬似カメラ視点移動制御方法及び3dビデオゲーム装置 |
JP4815661B2 (ja) | 2000-08-24 | 2011-11-16 | ソニー株式会社 | 信号処理装置及び信号処理方法 |
US7071914B1 (en) | 2000-09-01 | 2006-07-04 | Sony Computer Entertainment Inc. | User input device and method for interaction with graphic images |
US20020072414A1 (en) | 2000-09-08 | 2002-06-13 | Donald Stylinski | Pilot internet practice system and methods |
US6884171B2 (en) | 2000-09-18 | 2005-04-26 | Nintendo Co., Ltd. | Video game distribution network |
FR2814965A1 (fr) | 2000-10-11 | 2002-04-12 | Janick Simeray | Ordinateur et jouets cooperants |
US7061507B1 (en) | 2000-11-12 | 2006-06-13 | Bitboys, Inc. | Antialiasing method and apparatus for video applications |
JP4027031B2 (ja) | 2000-11-16 | 2007-12-26 | 株式会社コナミデジタルエンタテインメント | 対戦式3dビデオゲーム装置 |
JP2002157607A (ja) | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
AU2002226956A1 (en) | 2000-11-22 | 2002-06-03 | Leap Wireless International, Inc. | Method and system for providing interactive services over a wireless communications network |
KR100385563B1 (ko) | 2000-12-01 | 2003-05-27 | 한국과학기술원 | 구동수단을 갖는 분광 광도계와 광도 측정방법 |
US6751338B1 (en) | 2000-12-15 | 2004-06-15 | Cognex Corporation | System and method of using range image data with machine vision tools |
US20020085097A1 (en) | 2000-12-22 | 2002-07-04 | Colmenarez Antonio J. | Computer vision-based wireless pointing system |
AU2002303082A1 (en) | 2001-01-26 | 2002-09-12 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
US6641480B2 (en) | 2001-01-29 | 2003-11-04 | Microsoft Corporation | Force feedback mechanism for gamepad device |
DE10103922A1 (de) | 2001-01-30 | 2002-08-01 | Physoptics Opto Electronic Gmb | Interaktives Datensicht- und Bediensystem |
US6741741B2 (en) | 2001-02-01 | 2004-05-25 | Xerox Corporation | System and method for automatically detecting edges of scanned documents |
US6789967B1 (en) | 2001-02-02 | 2004-09-14 | George Forester | Distal chording keyboard |
US20020134151A1 (en) | 2001-02-05 | 2002-09-26 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for measuring distances |
US6746124B2 (en) | 2001-02-06 | 2004-06-08 | Robert E. Fischer | Flashlight producing uniform high brightness |
US7116330B2 (en) | 2001-02-28 | 2006-10-03 | Intel Corporation | Approximating motion using a three-dimensional model |
US6931596B2 (en) | 2001-03-05 | 2005-08-16 | Koninklijke Philips Electronics N.V. | Automatic positioning of display depending upon the viewer's location |
GB2376397A (en) | 2001-06-04 | 2002-12-11 | Hewlett Packard Co | Virtual or augmented reality |
JP2002369969A (ja) | 2001-06-15 | 2002-12-24 | Sun Corp | 通信ゲーム用プログラム、アダプタおよびゲーム端末 |
JP2003018604A (ja) | 2001-07-04 | 2003-01-17 | Matsushita Electric Ind Co Ltd | 画像信号符号化方法、画像信号符号化装置および記録媒体 |
US6931125B2 (en) | 2001-07-10 | 2005-08-16 | Gregory N. Smallwood | Telephone equipment compatible, twelve button alphanumeric keypad |
US20030014212A1 (en) | 2001-07-12 | 2003-01-16 | Ralston Stuart E. | Augmented vision system using wireless communications |
JP3611807B2 (ja) | 2001-07-19 | 2005-01-19 | コナミ株式会社 | ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム |
US7039253B2 (en) | 2001-07-24 | 2006-05-02 | Casio Computer Co., Ltd. | Image display device, image display method, program, and projection system |
KR20030009919A (ko) | 2001-07-24 | 2003-02-05 | 삼성전자주식회사 | 관성 센서를 구비하는 컴퓨터 게임용 입력 장치 |
US7148922B2 (en) | 2001-08-02 | 2006-12-12 | Olympus Optical Co., Ltd. | Electronic camera which detects flash influence on an image and controls white balance in accordance with the flash influence |
JP3442754B2 (ja) | 2001-08-10 | 2003-09-02 | 株式会社コナミコンピュータエンタテインメント東京 | ガンシューティングゲーム装置、コンピュータの制御方法及びプログラム |
US6595642B2 (en) | 2001-08-31 | 2003-07-22 | Adaptive Optics Associates, Inc. | Ophthalmic instrument having Hartmann wavefront sensor with extended source |
KR100846761B1 (ko) | 2001-09-11 | 2008-07-16 | 삼성전자주식회사 | 포인터 표시방법, 그 포인팅 장치, 및 그 호스트 장치 |
JP2003114640A (ja) | 2001-10-04 | 2003-04-18 | Nec Corp | プラズマディスプレイパネル及びその駆動方法 |
JP4028708B2 (ja) | 2001-10-19 | 2007-12-26 | 株式会社コナミデジタルエンタテインメント | ゲーム装置及びゲームシステム |
US20030093591A1 (en) | 2001-11-09 | 2003-05-15 | David Hohl | System and method for fast data transfer to display driver |
FR2832892B1 (fr) | 2001-11-27 | 2004-04-02 | Thomson Licensing Sa | Camera video d'effets speciaux |
US20030100363A1 (en) | 2001-11-28 | 2003-05-29 | Ali Guiseppe C. | Method and apparatus for inputting appearance of computer operator into a computer program |
US20040070565A1 (en) | 2001-12-05 | 2004-04-15 | Nayar Shree K | Method and apparatus for displaying images |
KR20030048570A (ko) | 2001-12-12 | 2003-06-25 | 한국전자통신연구원 | 부가적 버튼을 장착한 키패드 및 그의 작동방법 |
US7106366B2 (en) | 2001-12-19 | 2006-09-12 | Eastman Kodak Company | Image capture system incorporating metadata to facilitate transcoding |
US7305114B2 (en) | 2001-12-26 | 2007-12-04 | Cognex Technology And Investment Corporation | Human/machine interface for a machine vision sensor and method for installing and operating the same |
US7436887B2 (en) | 2002-02-06 | 2008-10-14 | Playtex Products, Inc. | Method and apparatus for video frame sequence-based object tracking |
US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US20030160862A1 (en) | 2002-02-27 | 2003-08-28 | Charlier Michael L. | Apparatus having cooperating wide-angle digital camera system and microphone array |
GB2388418A (en) | 2002-03-28 | 2003-11-12 | Marcus James Eales | Input or pointing device with a camera |
US6847311B2 (en) | 2002-03-28 | 2005-01-25 | Motorola Inc. | Method and apparatus for character entry in a wireless communication device |
US7006009B2 (en) | 2002-04-01 | 2006-02-28 | Key Energy Services, Inc. | Servicing system for wells |
US20030199324A1 (en) | 2002-04-23 | 2003-10-23 | Xiaoling Wang | Apparatus and a method for more realistic shooting video games on computers or similar devices using visible or invisible light |
JP2004021345A (ja) | 2002-06-12 | 2004-01-22 | Toshiba Corp | 画像処理装置及びその方法 |
TW588258B (en) | 2002-06-18 | 2004-05-21 | Zeroplus Technology Co Ltd | Device for pointer positioning using photography method |
US20030232649A1 (en) | 2002-06-18 | 2003-12-18 | Gizis Alexander C.M. | Gaming system and method |
US20040001082A1 (en) | 2002-06-26 | 2004-01-01 | Amir Said | System and method of interaction with a computer controlled image display system using a projected light source |
JP5109221B2 (ja) | 2002-06-27 | 2012-12-26 | 新世代株式会社 | ストロボスコープを使った入力システムを備える情報処理装置 |
CA2390072C (en) | 2002-06-28 | 2018-02-27 | Adrian Gh Podoleanu | Optical mapping apparatus with adjustable depth resolution and multiple functionality |
US7227976B1 (en) | 2002-07-08 | 2007-06-05 | Videomining Corporation | Method and system for real-time facial image enhancement |
US7809145B2 (en) | 2006-05-04 | 2010-10-05 | Sony Computer Entertainment Inc. | Ultra small microphone array |
US7545926B2 (en) | 2006-05-04 | 2009-06-09 | Sony Computer Entertainment Inc. | Echo and noise cancellation |
US8073157B2 (en) | 2003-08-27 | 2011-12-06 | Sony Computer Entertainment Inc. | Methods and apparatus for targeted sound detection and characterization |
US7970147B2 (en) | 2004-04-07 | 2011-06-28 | Sony Computer Entertainment Inc. | Video game controller with noise canceling logic |
US7102615B2 (en) | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US7783061B2 (en) | 2003-08-27 | 2010-08-24 | Sony Computer Entertainment Inc. | Methods and apparatus for the targeted sound detection |
US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
US7623115B2 (en) | 2002-07-27 | 2009-11-24 | Sony Computer Entertainment Inc. | Method and apparatus for light input device |
US7613310B2 (en) | 2003-08-27 | 2009-11-03 | Sony Computer Entertainment Inc. | Audio input system |
US7697700B2 (en) | 2006-05-04 | 2010-04-13 | Sony Computer Entertainment Inc. | Noise removal for electronic device with far field microphone on console |
US20040017355A1 (en) | 2002-07-24 | 2004-01-29 | Youngtack Shim | Cursor control systems and methods |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US7850526B2 (en) | 2002-07-27 | 2010-12-14 | Sony Computer Entertainment America Inc. | System for tracking user manipulations within an environment |
US7918733B2 (en) | 2002-07-27 | 2011-04-05 | Sony Computer Entertainment America Inc. | Multi-input game control mixer |
US8160269B2 (en) | 2003-08-27 | 2012-04-17 | Sony Computer Entertainment Inc. | Methods and apparatuses for adjusting a listening area for capturing sounds |
US7352359B2 (en) | 2002-07-27 | 2008-04-01 | Sony Computer Entertainment America Inc. | Method and system for applying gearing effects to inertial tracking |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US20060264260A1 (en) | 2002-07-27 | 2006-11-23 | Sony Computer Entertainment Inc. | Detectable and trackable hand-held controller |
US20070015559A1 (en) | 2002-07-27 | 2007-01-18 | Sony Computer Entertainment America Inc. | Method and apparatus for use in determining lack of user activity in relation to a system |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US20060282873A1 (en) | 2002-07-27 | 2006-12-14 | Sony Computer Entertainment Inc. | Hand-held controller having detectable elements for tracking purposes |
US20070261077A1 (en) | 2006-05-08 | 2007-11-08 | Gary Zalewski | Using audio/visual environment to select ads on game platform |
US7803050B2 (en) | 2002-07-27 | 2010-09-28 | Sony Computer Entertainment Inc. | Tracking device with sound emitter for use in obtaining information for controlling game program execution |
US7391409B2 (en) | 2002-07-27 | 2008-06-24 | Sony Computer Entertainment America Inc. | Method and system for applying gearing effects to multi-channel mixed input |
US7627139B2 (en) * | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US8139793B2 (en) | 2003-08-27 | 2012-03-20 | Sony Computer Entertainment Inc. | Methods and apparatus for capturing audio signals based on a visual image |
US20070260517A1 (en) | 2006-05-08 | 2007-11-08 | Gary Zalewski | Profile detection |
US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US8233642B2 (en) | 2003-08-27 | 2012-07-31 | Sony Computer Entertainment Inc. | Methods and apparatuses for capturing an audio signal based on a location of the signal |
US7854655B2 (en) * | 2002-07-27 | 2010-12-21 | Sony Computer Entertainment America Inc. | Obtaining input for controlling execution of a game program |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US20060256081A1 (en) | 2002-07-27 | 2006-11-16 | Sony Computer Entertainment America Inc. | Scheme for detecting and tracking user manipulation of a game controller body |
US10086282B2 (en) | 2002-07-27 | 2018-10-02 | Sony Interactive Entertainment Inc. | Tracking device for use in obtaining information for controlling game program execution |
US20070061413A1 (en) | 2005-09-15 | 2007-03-15 | Larsen Eric J | System and method for obtaining user information from voices |
US7039199B2 (en) | 2002-08-26 | 2006-05-02 | Microsoft Corporation | System and process for locating a speaker using 360 degree sound source localization |
US20040048663A1 (en) | 2002-09-10 | 2004-03-11 | Zeroplus Technology Co., Ltd. | Photographic pointer positioning device |
US6917688B2 (en) | 2002-09-11 | 2005-07-12 | Nanyang Technological University | Adaptive noise cancelling microphone system |
US20040063480A1 (en) | 2002-09-30 | 2004-04-01 | Xiaoling Wang | Apparatus and a method for more realistic interactive video games on computers or similar devices |
EP1411461A1 (en) | 2002-10-14 | 2004-04-21 | STMicroelectronics S.r.l. | User controlled device for sending control signals to an electric appliance, in particular user controlled pointing device such as mouse or joystick, with 3D-motion detection |
US6995666B1 (en) | 2002-10-16 | 2006-02-07 | Luttrell Clyde K | Cellemetry-operated railroad switch heater |
JP2004145448A (ja) | 2002-10-22 | 2004-05-20 | Toshiba Corp | 端末装置、サーバ装置および画像加工方法 |
US8206219B2 (en) | 2002-10-30 | 2012-06-26 | Nike, Inc. | Interactive gaming apparel for interactive gaming |
WO2004041379A2 (en) | 2002-10-30 | 2004-05-21 | Nike Inc. | Clothes with tracking marks for computer games |
US20040095327A1 (en) | 2002-11-14 | 2004-05-20 | Lo Fook Loong | Alphanumeric data input system and method |
US8012025B2 (en) | 2002-12-13 | 2011-09-06 | Applied Minds, Llc | Video game controller hub with control input reduction and combination schemes |
US7212308B2 (en) | 2002-12-18 | 2007-05-01 | Morgan Carol L | Interactive photo kiosk |
US20040140955A1 (en) | 2003-01-21 | 2004-07-22 | Metz Kristofer Erik | Input device for a computer and method of operation |
JP2004261236A (ja) | 2003-02-20 | 2004-09-24 | Konami Co Ltd | ゲームシステム |
JP3849654B2 (ja) | 2003-02-21 | 2006-11-22 | 株式会社日立製作所 | 投射型表示装置 |
GB2398690B (en) | 2003-02-21 | 2006-05-10 | Sony Comp Entertainment Europe | Control of data processing |
GB2398691B (en) | 2003-02-21 | 2006-05-31 | Sony Comp Entertainment Europe | Control of data processing |
US7161634B2 (en) | 2003-03-06 | 2007-01-09 | Huaya Microelectronics, Ltd. | Encoding system for error diffusion dithering |
US20040212589A1 (en) | 2003-04-24 | 2004-10-28 | Hall Deirdre M. | System and method for fusing and displaying multiple degree of freedom positional input data from multiple input sources |
US7519186B2 (en) | 2003-04-25 | 2009-04-14 | Microsoft Corporation | Noise reduction systems and methods for voice applications |
US7379559B2 (en) | 2003-05-28 | 2008-05-27 | Trw Automotive U.S. Llc | Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system |
US6881147B2 (en) | 2003-06-06 | 2005-04-19 | Nyko Technologies, Inc. | Video game controller with integrated microphone and speaker |
TW571812U (en) | 2003-06-11 | 2004-01-11 | Vision Electronics Co Ltd | Audio device for TV game machine |
ATE339757T1 (de) | 2003-06-17 | 2006-10-15 | Sony Ericsson Mobile Comm Ab | Verfahren und vorrichtung zur sprachaktivitätsdetektion |
US7116342B2 (en) | 2003-07-03 | 2006-10-03 | Sportsmedia Technology Corporation | System and method for inserting content into an image sequence |
US20050009605A1 (en) | 2003-07-11 | 2005-01-13 | Rosenberg Steven T. | Image-based control of video games |
JP2005046422A (ja) | 2003-07-30 | 2005-02-24 | Samii Kk | ゲーム機用コントローラ |
US7874917B2 (en) * | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US8323106B2 (en) | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US8062126B2 (en) * | 2004-01-16 | 2011-11-22 | Sony Computer Entertainment Inc. | System and method for interfacing with a computer program |
US7489299B2 (en) | 2003-10-23 | 2009-02-10 | Hillcrest Laboratories, Inc. | User interface devices and methods employing accelerometers |
CA2544183A1 (en) | 2003-10-28 | 2005-05-19 | Welch Allyn, Inc. | Digital documenting ophthalmoscope |
US20050105777A1 (en) | 2003-11-18 | 2005-05-19 | Kozlowski William J.Jr. | Personalized multimedia summary |
US7734729B2 (en) | 2003-12-31 | 2010-06-08 | Amazon Technologies, Inc. | System and method for obtaining information relating to an item of commerce using a portable imaging device |
TW200531724A (en) * | 2004-03-17 | 2005-10-01 | Zeroplus Technology Co Ltd | Game controlling system with displacement detecting capability |
US7277526B2 (en) | 2004-04-09 | 2007-10-02 | Lyncean Technologies, Inc. | Apparatus, system, and method for high flux, compact compton x-ray source |
US20060084504A1 (en) | 2004-04-30 | 2006-04-20 | Chan Andy K | Wireless communication systems |
DE202005022038U1 (de) | 2004-04-30 | 2012-07-12 | Hillcrest Laboratories, Inc. | Freiraum-Zeigevorrichtungen mit Neigungskompensation und verbesserter Benutzbarkeit |
JP2007535773A (ja) | 2004-04-30 | 2007-12-06 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 自由空間ポインティングデバイスおよびポインティング方法 |
US7296007B1 (en) | 2004-07-06 | 2007-11-13 | Ailive, Inc. | Real time context learning by software agents |
US7263462B2 (en) | 2004-07-30 | 2007-08-28 | Ailive, Inc. | Non-disruptive embedding of specialized elements |
CN101124534A (zh) * | 2005-02-24 | 2008-02-13 | 诺基亚公司 | 用于计算终端的运动输入设备及其操作方法 |
US7613610B1 (en) | 2005-03-14 | 2009-11-03 | Escription, Inc. | Transcription data extraction |
KR100985694B1 (ko) | 2005-05-05 | 2010-10-05 | 소니 컴퓨터 엔터테인먼트 인코포레이티드 | 컴퓨터 상호 작용 프로세싱과 관련된 선택적 음원 청취 |
CN100339805C (zh) * | 2005-07-15 | 2007-09-26 | 中国海洋大学 | 一种计算机互动输入装置 |
US7927216B2 (en) * | 2005-09-15 | 2011-04-19 | Nintendo Co., Ltd. | Video game system with wireless modular handheld controller |
US7620316B2 (en) | 2005-11-28 | 2009-11-17 | Navisense | Method and device for touchless control of a camera |
US7414705B2 (en) | 2005-11-29 | 2008-08-19 | Navisense | Method and system for range measurement |
US7834850B2 (en) | 2005-11-29 | 2010-11-16 | Navisense | Method and system for object control |
WO2007095082A2 (en) * | 2006-02-10 | 2007-08-23 | Sternberg Aaron B | Configurable manual controller |
US7636645B1 (en) | 2007-06-18 | 2009-12-22 | Ailive Inc. | Self-contained inertial navigation system for interactive control using movable controllers |
JP4481280B2 (ja) | 2006-08-30 | 2010-06-16 | 富士フイルム株式会社 | 画像処理装置、及び画像処理方法 |
US8277316B2 (en) | 2006-09-14 | 2012-10-02 | Nintendo Co., Ltd. | Method and apparatus for using a common pointing input to control 3D viewpoint and object targeting |
US8310656B2 (en) * | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
US7636697B1 (en) | 2007-01-29 | 2009-12-22 | Ailive Inc. | Method and system for rapid evaluation of logical expressions |
TW200846060A (en) | 2007-05-21 | 2008-12-01 | Cheng Uei Prec Ind Co Ltd | Positioning system for an interactive gaming device and method using same |
US20080311990A1 (en) | 2007-06-13 | 2008-12-18 | Cheng Uei Precision Industry Co., Ltd. | Position system for interactive gaming device and method using the same |
JP4325707B2 (ja) | 2007-07-04 | 2009-09-02 | ソニー株式会社 | 入力装置、制御装置、制御システム及び制御方法 |
US7937243B2 (en) | 2007-08-03 | 2011-05-03 | Ailive, Inc. | Method and apparatus for non-disruptive embedding of specialized elements |
US20090221368A1 (en) | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
US8419545B2 (en) | 2007-11-28 | 2013-04-16 | Ailive, Inc. | Method and system for controlling movements of objects in a videogame |
US8696458B2 (en) | 2008-02-15 | 2014-04-15 | Thales Visionix, Inc. | Motion tracking system and method using camera and non-camera sensors |
US8368753B2 (en) * | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
US8655622B2 (en) | 2008-07-05 | 2014-02-18 | Ailive, Inc. | Method and apparatus for interpreting orientation invariant motion |
-
2008
- 2008-06-24 US US12/145,455 patent/US8323106B2/en active Active
-
2009
- 2009-04-30 JP JP2011511683A patent/JP5547720B2/ja active Active
- 2009-04-30 WO PCT/US2009/042416 patent/WO2009146234A1/en active Application Filing
- 2009-04-30 EP EP09755596.5A patent/EP2303422B1/en active Active
- 2009-04-30 KR KR1020107029778A patent/KR101308642B1/ko active IP Right Grant
- 2009-04-30 CN CN201410301563.4A patent/CN104162274B/zh active Active
- 2009-04-30 CN CN200980130723.0A patent/CN102149436B/zh active Active
- 2009-04-30 BR BRPI0909883-6A patent/BRPI0909883B1/pt active IP Right Grant
- 2009-04-30 MX MX2010012972A patent/MX2010012972A/es active IP Right Grant
- 2009-05-06 TW TW098114986A patent/TWI388362B/zh active
-
2012
- 2012-09-13 US US13/615,355 patent/US8784203B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2303422A1 (en) | 2011-04-06 |
TW201006529A (en) | 2010-02-16 |
US8784203B2 (en) | 2014-07-22 |
BRPI0909883A2 (pt) | 2019-03-06 |
CN102149436B (zh) | 2014-08-06 |
JP2011524048A (ja) | 2011-08-25 |
WO2009146234A1 (en) | 2009-12-03 |
CN102149436A (zh) | 2011-08-10 |
US8323106B2 (en) | 2012-12-04 |
MX2010012972A (es) | 2011-04-11 |
CN104162274A (zh) | 2014-11-26 |
US20080261693A1 (en) | 2008-10-23 |
TWI388362B (zh) | 2013-03-11 |
EP2303422A4 (en) | 2017-06-07 |
CN104162274B (zh) | 2018-09-25 |
JP5547720B2 (ja) | 2014-07-16 |
US20130002550A1 (en) | 2013-01-03 |
EP2303422B1 (en) | 2021-07-07 |
KR20110025674A (ko) | 2011-03-10 |
KR101308642B1 (ko) | 2013-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BRPI0909883B1 (pt) | Determinação da posição tridimensional do controle empregando análise de imagens e comunicação ultrassónica | |
EP2427811B1 (en) | Base station movement detection and compensation | |
KR101381628B1 (ko) | 볼 부착 제어기의 위치 및 동작 결정 | |
US8393964B2 (en) | Base station for position location | |
US20190077007A1 (en) | Robot as Personal Trainer | |
CN105073210B (zh) | 使用深度图像的用户身体角度、曲率和平均末端位置提取 | |
EP2359223B1 (en) | Correcting angle error in a tracking system | |
BRPI0924668B1 (pt) | método implementado por computador, método para calcular um campo de visualização de uma câmera, meio de armazenamento legível por computador, e, sistema de rastreamento | |
US20080001951A1 (en) | System and method for providing affective characteristics to computer generated avatar during gameplay | |
EP2118840A1 (en) | Interactive user controlled avatar animations | |
JP2011514232A (ja) | インタラクティブアプリケーションのインタフェースとなる一体型カメラを備えたコントローラおよびその方法 | |
WO2008106197A1 (en) | Interactive user controlled avatar animations | |
WO2010062521A1 (en) | Spherical ended controller with configurable modes | |
JP6788129B2 (ja) | ズーム装置及び関連する方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B15I | Others concerning applications: loss of priority |
Free format text: PERDA DAS PRIORIDADES 30/05/2008 US 61/057,783; 24/06/2008 US 12/145,455 , CONFORME AS DISPOSICOESPREVISTAS NA LEI 9.279 DE 14/05/1996 (LPI) ART. 16 7O E NO ART. 28 DO ATO NORMATIVO 128/1997,POR NAO ATENDER AO DISPOSTO NO ART. 27 DO ATO NORMATIVO 128/1997, POIS NAO FOI APRESENTADACESSAO DAS REFERIDAS PRIORIDADES, QUE POSSUEM DEPOSITANTE DIFERENTE DO DEPOSITANTE DA FASENACIONAL. |
|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B152 | Others concerning applications: decision cancelled [chapter 15.32 patent gazette] |
Free format text: ANULADA A PUBLICACAO CODIGO 15.9 NA RPI NO 2514 DE 12/03/2019 POR TER SIDO INDEVIDA. |
|
B06V | Preliminary requirement: patent application procedure suspended [chapter 6.22 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 07/07/2020, OBSERVADAS AS CONDICOES LEGAIS. |