BRPI0613165A2 - saìda de sinal sensìvel à orientação - Google Patents
saìda de sinal sensìvel à orientação Download PDFInfo
- Publication number
- BRPI0613165A2 BRPI0613165A2 BRPI0613165-4A BRPI0613165A BRPI0613165A2 BR PI0613165 A2 BRPI0613165 A2 BR PI0613165A2 BR PI0613165 A BRPI0613165 A BR PI0613165A BR PI0613165 A2 BRPI0613165 A2 BR PI0613165A2
- Authority
- BR
- Brazil
- Prior art keywords
- axis
- output
- region
- component
- angular displacement
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/70—Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Input From Keyboards Or The Like (AREA)
- Telephone Function (AREA)
- Mobile Radio Communication Systems (AREA)
- Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
SAìDA DE SINAL SENSìVEL à ORIENTAçãO. A presente invenção refere-se a uma seleção e a saída de um sinal, tal como um caractere alfanumérico, são providas dependendo da orientação de um dispositivo, tal como um telefone móvel. Em particular, uma posição neutra de um dispositivo é determinada em relação à pelo menos um primeiro eixo, o dispositivo incluindo pelo menos um primeiro controle associado com uma primeira pluralidade de sinais de saída e o deslocamento angular do dispositivo é medido ao redor de pelo menos o primeiro eixo. Uma seleção do primeiro controle é também recebida e um da primeira pluralidade de sinais de saída é fornecido como saída com base pelo menos na seleção e no deslocamento angular.
Description
Relatório Descritivo da Patente de Invenção para "SAÍDA DESINAL SENSÍVEL À ORIENTAÇÃO".
ANTECEDENTES
Campo
A presente descrição refere-se, de forma geral, à saída de sinalsensível ã orientação e, em particular, refere-se à seleção e saída de umsinal, tal como um caractere alfanumérico, com base na orientação de umdispositivo, tal como um telefone.
Descrição da Técnica Relacionada
Muitos dispositivos usam botões ou outros controles para inserircaracteres, tais como caracteres alfanuméricos e/ou símbolos. Um telefoneconvencional, por exemplo, usa uma base de teclas de dez botões para in-serir caracteres alfanuméricos representando um número de telefone ouuma mensagem de texto. Devido ao projeto do dispositivo e restrições delayout, o número de controles, ou teclas, em muitos dispositivos é freqüen-temente limitado, exigindo que cada controle corresponda a múltiplos carac-teres. Os telefones, por exemplo, freqüentemente indicam as ietras "J", "K" e"L", bem como o número "5" para o botão marcado "5".
Para inserir um dos múltiplos caracteres associados com umcontrole único, o controle é selecionado de maneira repetitiva até que o sinalcorrespondendo com o caractere desejado é produzido. Em um exemplo detelefonia, a seleção do botão "5" uma vez fará com que o caractere "J" sejaproduzido, a seleção do botão "5" duas vezes fará com que o caractere "K"seja produzido, a seleção do botão "5" três vezes fará com que o caractere"L" seja produzido e a seleção do botão "5" quatro vezes fará com que o ca-ractere "5" seja produzido.
Além dessas seleções de controle repetitivas, outros controlespodem também precisar ser selecionados para um caractere desejado apa-recer. Um caractere maiúsculo ou um símbolo, por exemplo, pode exigir queum controle especial seja selecionado ou que múltiplos controles sejam se-lecionados em uma seqüência confusa.
Pelo fato de que a seleção de controle repetitiva é necessáriapara causar a saída de um caractere único, a entrada de caracteres em umdispositivo freqüentemente ocorre vagarosamente. Além do mais, a saída deum caractere subseqüente que está também associado com o mesmo con-trole exige que uma duração de tempo predeterminada passe desde a sele-ção anterior do controle. Quando inserindo dois caracteres consecutivos u-sando o mesmo controle, por exemplo, para inserir "h" e "i" para formar apalavra "hi" (oi), a duração de tempo predeterminada deve passar depoisque o caractere "h" foi produzido antes que o "i" possa ser produzido, ouuma seleção de controle separado pode ser necessária para mover o cursorpara a próxima posição. Essa abordagem, entretanto, é frustrante e consu-midora de tempo.
Dessa maneira, é desejável prover a saída melhorada de sinais,tal como sinais correspondendo com caracteres, que supera as deficiênciasdas técnicas convencionais de saída de sinal.
SUMÁRIO
De acordo com um aspecto geral, um método é descrito. O mé-todo inclui determinar uma posição neutra de um dispositivo em relação àpelo menos um primeiro eixo, o dispositivo incluindo pelo menos um primeirocontrole associado com uma primeira pluralidade de sinais de saída e medirum deslocamento angular do dispositivo ao redor de pelo menos o primeiroeixo. O método também inclui receber uma seleção do primeiro controle efornecer como saída um da primeira pluralidade de sinais de saída com basepelo menos na seleção e no deslocamento angular.
Implementações podem incluir um ou mais dos aspectos seguin-tes. Por exemplo, a posição neutra do dispositivo pode ser determinada emrelação à pelo menos um segundo eixo, ortogonal ao primeiro eixo, onde odeslocamento angular pode incluir um componente do primeiro eixo e umcomponente do segundo eixo. Além do mais, a posição neutra do dispositivopode ser determinada em relação à pelo menos um terceiro eixo ortogonalao primeiro eixo e o segundo eixo, onde o deslocamento angular pode incluirum componente de terceiro eixo. O primeiro eixo, o segundo eixo e o terceiroeixo podem se interceptar dentro do dispositivo.O primeiro controle pode ser associado com pelo menos trêssinais de saída, ou pelo menos nove sinais de saída, onde cada um da plu-ralidade de sinais de saída pode corresponder a um caractere, tal como umcaractere alfanumérico. O método pode também incluir exibir o sinal de saí-da e/ou exibir uma indicação do deslocamento angular. O método pode tam-bém incluir definir uma pluralidade de regiões de inclinação ao redor do pri-meiro eixo, onde um da primeira pluralidade de sinais de saída é tambémfornecido como saída com base na pluralidade de regiões de inclinação. Odeslocamento angular do dispositivo ao redor do primeiro eixo pode ser me-dido como 0o, onde uma primeira região de inclinação abrange um desloca-mento angular de 0o, ou a primeira região de inclinação pode ser definidacomo uma região abrangendo -30° a O0 ao redor do primeiro eixo, onde asegunda região de inclinação é definida como uma região abrangendo apro-ximadamente 0o a +30° ao redor do primeiro eixo. Em um aspecto adicional,um primeiro sinal de saída pode ser fornecido como saída se o deslocamen-to angular está dentro da primeira região de inclinação quando a seleção érecebida, onde um segundo sinal de saída pode ser fornecido como saída seo deslocamento angular está dentro da segunda região de inclinação quandoa seleção é recebida. Um terceiro ou quarto sinal de saída pode ser forneci-do como saída se o deslocamento angular está dentro da terceira ou quartaregião de inclinação, respectivamente, quando a seleção é recebida.
O método pode também definir uma pluralidade de regiões deinclinação do primeiro eixo ao redor do primeiro eixo e uma pluralidade deregiões de inclinação do segundo eixo ao redor do segundo eixo, onde umda primeira pluralidade de sinais de saída pode também ser fornecido comosaída com base na pluralidade de regiões de inclinação do primeiro eixoe/ou na pluralidade de regiões de inclinação do segundo eixo. Quando a se-leção é recebida, um primeiro sinal de saída pode ser fornecido como saídase o componente do primeiro eixo está dentro de uma primeira região deinclinação do primeiro eixo e se o componente do segundo eixo está dentrode uma primeira região de inclinação do segundo eixo, um segundo sinal desaída pode ser fornecido como saída se o componente do primeiro eixo estádentro de uma segunda região de inclinação do primeiro eixo e se o compo-nente do segundo eixo está dentro da primeira região de inclinação do se-gundo eixo, um terceiro sinal de saída pode ser fornecido como saída se ocomponente do primeiro eixo está dentro da segunda região de inclinação doprimeiro eixo e se o componente do segundo eixo está dentro de uma se-gunda região de inclinação do segundo eixo e/ou um quarto sinal de saídapode ser fornecido como saída se o componente do primeiro eixo está den-tro da segunda região de inclinação do primeiro eixo e se o componente dosegundo eixo está dentro da segunda região de inclinação do segundo eixo.
Alternativamente, em um outro aspecto, quando a seleção é re-cebida, um primeiro sinal de saída pode ser fornecido como saída se o pri-meiro componente está dentro de uma primeira região de inclinação do pri-meiro eixo e se o componente do segundo eixo está dentro de uma primeiraregião de inclinação do segundo eixo, um segundo sinal de saída pode serfornecido como saída se o primeiro componente está dentro da primeira re-gião de inclinação do primeiro eixo e se o componente do segundo eixo estádentro de uma segunda região de inclinação do segundo eixo, um terceirosinal de saída pode ser fornecido como saída se o primeiro componente estádentro da primeira região de inclinação do primeiro eixo e se o componentedo segundo eixo está dentro de uma terceira região de inclinação do segun-do eixo, um quarto sinal de saída pode ser fornecido como saída se o primei-ro componente está dentro de uma segunda região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da primeira região deinclinação do segundo eixo, um quinto sinal de saída pode ser fornecido co-mo saída se o primeiro componente está dentro da segunda região de incli-nação do primeiro eixo e se o componente do segundo eixo está dentro dasegunda região de inclinação do segundo eixo, um sexto sinal de saída podeser fornecido como saída se o primeiro componente está dentro da segundaregião de inclinação do primeiro eixo e se o componente do segundo eixoestá dentro da terceira região de inclinação do segundo eixo, um sétimo si-nal de saída pode ser fornecido como saída se o primeiro componente estádentro de uma terceira região de inclinação do primeiro eixo e se o compo-nente do segundo eixo está dentro da primeira região de inclinação do se-gundo eixo, um oitavo sinal de saída pode ser fornecido como saída se oprimeiro componente está dentro da terceira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da segunda região deinclinação do segundo eixo, e/ou um nono sinal de saída pode ser fornecidocomo saída se o primeiro componente está dentro da terceira região de in-clinação do primeiro eixo e se o componente do segundo eixo está dentro daterceira região de inclinação do segundo eixo.
De acordo com um outro aspecto geral, um dispositivo é descri-to. O dispositivo inclui um sensor de inclinação configurado para determinaruma posição neutra de um dispositivo em relação à pelo menos um primeiroeixo e também configurado para medir o deslocamento angular do dispositi-vo ao redor de pelo menos o primeiro eixo. O dispositivo também inclui pelomenos um primeiro controle associado com.uma primeira pluralidade de si-nais de saída e um processador configurado para receber uma seleção doprimeiro controle e também configurado para fornecer como saída um daprimeira pluralidade de sinais de saída com base pelo menos na seleção eno deslocamento angular.
Implementações podem incluir um ou mais dos aspectos seguin-tes. Por exemplo, o primeiro eixo e o segundo eixo podem se interceptam nocentro do dispositivo, ou em uma porção de periferia do dispositivo. O dispo-sitivo pode também incluir pelo menos segundo até décimo controles, cadaum associado com segunda até décima pluralidades de sinais de saída, res-pectivamente. O primeiro controle pode ser um botão e/ou o dispositivo podeser um telefone. O sinal de deslocamento pode ser medido usando um sen-sor de inclinação, que pode ser um giroscópio. O dispositivo pode tambémincluir um mostrador configurado para exibir o sinal de saída e/ou configura-do para exibir uma indicação do deslocamento angular e o dispositivo podetambém incluir um teclado configurado para inserir a seleção.
De acordo com um outro aspecto geral, um produto de programade computador, armazenado de modo tangível em um meio legível por com-putador, é descrito. O produto de programa de computador é operável parafazer um computador executar operações incluindo determinar uma posiçãoneutra de um dispositivo em relação à pelo menos um primeiro eixo, o dis-positivo incluindo pelo menos um primeiro controle associado com uma pri-meira pluralidade de sinais de saída e medir o deslocamento angular do dis-positivo ao redor de pelo menos o primeiro eixo. O produto de programa decomputador é também operável para fazer com que um computador executeoperações incluindo receber uma seleção do primeiro controle e fornecercomo saída um da primeira pluralidade de sinais de saída com base pelomenos na seleção e no deslocamento angular.
De acordo com um outro aspecto geral, um dispositivo de telefo-ne é descrito. O dispositivo de telefone inclui um sensor de inclinação confi-gurado para determinar uma posição neutra do dispositivo de telefone emrelação à pelo menos um eixo de rolagem, e também configurado para mediro deslocamento angular do dispositivo de telefone ao redor do eixo de rola-gem. O dispositivo de telefone também inclui pelo menos primeiro até oitavobotões, cada um associado com pelo menos quatro caracteres alfanuméri-cos. Além do mais, o dispositivo de telefone inclui um processador configu-rado para receber uma seleção do primeiro botão e também configurado pa-ra fornecer como saída um do pelo menos quatro caracteres alfanuméricoscom base pelo menos na seleção e no deslocamento angular.
Os detalhes de uma ou mais implementações são apresentadosnos desenhos acompanhantes e na descrição abaixo. Outros aspectos serãoevidentes a partir da descrição e desenhos e a partir das reivindicações.
BREVE DESCRIÇÃO DOS DESENHOS
Com referência agora os desenhos, nos quais números de refe-rência semelhantes representam partes correspondentes por todos eles:
A figura 1 representa a aparência exterior de um dispositivo deacordo com uma implementação exemplar, em um estado onde o dispositivoestá na posição neutra,
A figura 2 representa um exemplo de uma arquitetura interna daimplementação da figura 1,
A figura 3 é um fluxograma ilustrando um método de acordo comuma outra implementação exemplar,
As figuras 4A a 4D representam exemplos de regiões de inclina-ção que são definidas ao redor de um eixo neutro,
A figura 5 inclui uma vista exterior superior de um dispositivoexemplar de acordo com uma outra implementação exemplar,
As figuras 6A a 6E ilustram indicadores exemplares de acordocom um aspecto exemplar,
As figuras 7A e 7B-ilustram vistas frontal e lateral, respectiva-mente, do dispositivo da figura 5, mostrado na posição neutra,
As figuras 8A e 8B ilustram vistas frontais do dispositivo da figu-ra 5, mostrado em um estado onde o dispositivo da figura 5 é manipuladoem uma orientação de rolagem negativa e uma orientação de rolagem posi-tiva, respectivamente,
As figuras 9A e 9B ilustram vistas laterais do dispositivo da figura5, mostrado em um estado onde o dispositivo da figura 5 é manipulado emuma orientação de declividade positiva e uma orientação de declividade ne-gativa, respectivamente,
A figura 10 é uma tabela mostrando um mapeamento possíveldas orientações do dispositivo usado para produzir sinais correspondendocom caracteres e caixas que são produzidos quando um controle é selecio-nado e
As figuras 11A e 11B ilustram um menu de símbolos que é exi-bido de acordo com uma outra implementação exemplar.
DESCRIÇÃO DETALHADA
A figura 1 representa a aparência exterior de um dispositivo deacordo com uma implementação exemplar, em um estado onde o dispositivoestá na posição neutra. O ambiente de hardware do dispositivo 100 incluiuma base de teclas incluindo pelo menos um primeiro controle 102 para in-serir dados de texto e comandos do usuário no dispositivo 100, um mostra-dor 105 para exibir texto e imagens para um usuário e um indicador, tal co-mo um indicador de inclinação 106 para exibir uma indicação do desloca-mento angular ou orientação de inclinação ao redor de pelo menos um eixo.O mostrador 105 exibe os gráficos, imagens e textos que com-preendem a interface do usuário para as aplicações de software usadas poressa implementação, bem como os programas do sistema operacional ne-cessários para operar o dispositivo 100. Um usuário do dispositivo 100 usa oprimeiro controle 102 para inserir comandos e dados para operar e controlaros programas do sistema operacional bem como os programas aplicativos.
O mostrador 105 é configurado para exibir a GUI para um usuá-rio do dispositivo 100. Um alto-falante pode estar também presente e tam-bém gerar dados de voz e som recebidos dos programas aplicativos operan-do no dispositivo 100, tal como a voz de um outro usuário gerada por umprograma aplicativo de telefone, ou um toque de campainha gerado de umprograma aplicativo de toque de campainha. Um microfone pode tambémser usado para capturar dados de som gerados pelo usuário, por exemplo,quando o usuário está falando com um outro usuário durante uma chamadade telefone através do dispositivo 100. Além do mais, o indicador de inclina-ção 106 é configurado para indicar o deslocamento angular ou orientação deinclinação do dispositivo 100, para prover o retorno visual para o usuário dodispositivo 100 e para tornar o usuário ciente da orientação de inclinaçãoque será usada para interpretar uma seleção de controle.
A operação do dispositivo 100 é baseada na sua orientação emdois estados: a posição "neutra" e uma posição de "seleção" corresponden-do com a posição do dispositivo antes de, no momento de, ou depois da se-leção do primeiro controle 102. Mais especificamente, e como descrito com-pletamente abaixo, a saída de um sinal de saída pelo dispositivo 100 é de-pendente do deslocamento angular entre a posição neutra e a posição deseleção, em relação à pelo menos um eixo, onde o deslocamento angulartem um componente de deslocamento angular para cada eixo de interesse.
A figura 1, por exemplo, representa o dispositivo 100 em umaposição neutra de três eixos considerada. Em particular, os eixos X, Y e Zortogonais se interceptam no centro do dispositivo 100, onde o eixo X seestende paralelo à direção longitudinal do dispositivo 100. De acordo comessa posição neutra exemplar, uma rotação ao redor do eixo X efetuaria ummovimento de rolagem, uma rotação ao redor do eixo Y efetuaria um movi-mento de declividade e uma rotação ao redor do eixo Z efetuaria um movi-mento de guinada. Esses movimentos de rolagem, declividade e guinadasão geralmente citados aqui como movimentos de "inclinação".
A determinação do número de eixos de interesse, e a localiza-ção e a orientação dos eixos com relação ao dispositivo 100 é uma determi-nação específica do dispositivo e específica da aplicação e nenhuma limita-ção de qualquer uma dessas características é pressuposta na descrição se-guinte. Por exemplo, onde é indesejável ou impossível manipular o dispositi-vo em um movimento de guinada, ou onde o número de sinais de saída po-de ser efetivamente controlado usando o movimento ao redor de um ou doiseixos, a posição neutra do dispositivo pode ser determinada com relação aesses um ou dois eixos somente. Além do mais, o pelo menos um eixo podenão interceptar o dispositivo 100 ou o pelo menos um eixo pode se estenderao longo da periferia ou porção de borda do dispositivo 100. Adicionalmente,um dos eixos pode se estender paralelo ao longo da direção longitudinal dodispositivo 100 ou ele pode se estender em um ângulo para a direção longi-tudinal do dispositivo 100. Em qualquer aspecto, a posição neutra fica ali-nhada com um eixo em relação a terra, tal como o eixo magnético ou norteverdadeiro ou um eixo apontando para o centro da terra, ou para o horizonte,com um eixo relativo ao usuário, o dispositivo ou outro eixo.
Com relação à telefonia, uma posição neutra de um eixo é provi-da no caso onde o deslocamento angular é para ser medido com relação àrotação de rolagem ao redor do eixo X, ou uma posição neutra de dois eixosé provida no caso onde o deslocamento angular é para ser medido com re-lação à rolagem e rotação de declividade ao redor do eixo X e eixo Y, res-pectivamente. Em qualquer caso, o eixo Xeo eixo Y se interceptam no cen-tro do dispositivo, com o eixo X se estendendo longitudinalmente paralelo àdireção longitudinal do dispositivo. Outras orientações de posição neutra sãoconsideradas também.
Quando inserindo caracteres em um dispositivo tal como um te-lefone, o usuário tipicamente mantém o dispositivo em um ângulo de declivi-dade positiva (para cima) enquanto olhando para o mostrador. Sob esse as-pecto, o eixo X do telefone na posição neutra pode ser definido em um ângu-lo ascendente similar, tal que o achatamento do ângulo do telefone com re-lação ao solo seria registrado como um movimento de inclinação adiantedecaído. Em outros casos, naturalmente, um eixo X que é paralelo ao solo éa posição do eixo X "neutra".
Embora o dispositivo 100 seja ilustrado na figura 1 como um te-lefone móvel, em aspectos adicionais, o dispositivo 100 pode incluir um PCde mesa, um laptop, uma estação de trabalho, um computador de médioporte, um computador de grande porte, um computador portátil ou de mesagráfica, um assistente de dados pessoal ("PDA") ou um outro tipo de sistemaembutido tal como um teclado de computador ou um controle remoto.
A figura 2 representa um exemplo de uma arquitetura interna daimplementação da figura 1. O ambiente de computação inclui o processador200 onde as instruções de computador que compreendem um sistema ope-racional ou um aplicativo são processadas; interface do mostrador 202 queprovê uma interface de comunicação e funções de processamento para ren-derizar gráficos, imagens e textos no mostrador 105; interface de base deteclas 204 que provê uma interface de comunicação para a base de teclas,incluindo o primeiro controle 102; sensor de inclinação 206 para medir o des-locamento angular do dispositivo 100 ao redor de pelo menos um primeiroeixo; interface do indicador 208 que provê uma interface de comunicaçãopara os indicadores, incluindo indicador de inclinação 106, memória de a-cesso aleatório ("RAM") 210 onde as instruções do computador e os dadossão armazenados em um dispositivo de memória volátil para processamentopelo processador 200; memória somente de leitura ("ROM") 211 onde o có-digo dos sistemas de baixo nível invariáveis ou dados para funções de sis-tema básico tal como entrada e saída ("l/O") básica, partida ou recepção detoques de tecla da base de teclas são armazenados em um dispositivo dememória não volátil, e opcionalmente um armazenamento 220 ou outro tipoadequado de memória (por exemplo, tal como memória de acesso aleatório("RAM"), memória somente de leitura ("ROM"), memória somente de leituraprogramável ("PROM"), memória somente de leitura programável apagável("EPROM"), memória somente de leitura programável eletricamente apagá-vel ("EEPROM"), discos magnéticos, discos óticos, discos flexíveis, discosrígidos, cartuchos removíveis, unidades flash), onde os arquivos que com-preendem o sistema operacional 230, programas aplicativos 240 e arquivosde dados 246 são armazenados. Os dispositivos constituintes e o processa-dor 200 se comunicam através do barramento 250.
A RAM 210 faz interface com o barramento 250 de modo a pro-ver rápido armazenamento RAM para o processador 200 durante a execu-ção dos programas de software tal como os programas aplicativos do siste-ma operacional e acionadores do dispositivo. Mais especificamente, o pro-cessador 200 carrega processos executáveis pelo computador dos meios dememória em um campo da RAM 210 a fim de executar os programas desoftware. Os dados são armazenados na RAM 210, onde os dados são a-cessados pelo processador 200 durante a execução.
Também mostrado na figura 2, o armazenamento 220 armazenacódigo executável pelo computador para um sistema operacional 230, pro-gramas aplicativos 240 tais como processamento de texto, planilha, apresen-tação, gráfico, treinamento de interpretação de imagem, jogos ou outros a-plicativos e arquivos de dados 246. Embora seja possível usar a implemen-tação acima descrita, também é possível implementar as funções de acordocom a presente descrição como uma biblioteca de ligação dinâmica ("DLL")ou como um programa auxiliar para outros programas aplicativos tal comoum navegador da web da Internet tal como o navegador da web Internet Ex-plorer da MICROSOFT®.
O processador 200 é um de uma série de processadores decomputador de alto desempenho, incluindo um processador INTEL® ouAMD®, um processador POWERPC®, um processador de computador dejogo de instrução reduzido ("RISC"), um processador SPARC®, um proces-sador ALPHASERVER® HP1 um processador de arquitetura de máquinaACORN® RISC ("ARM®") ou um processador de computador proprietáriopara um computador ou sistema embutido, sem se afastar do escopo dapresente descrição. Em um arranjo adicional, o processador 200 no disposi-tivo 100 é mais do que uma unidade de processamento, incluindo uma con-figuração de CPU múltipla encontrada em estações de trabalho e servidoresde alto desempenho, ou uma unidade de processamento escalável múltiplaencontrada em computadores de grande porte.
O sistema operacional 230 pode ser a estação de trabalho WIN-DOWS NT®/WINDOWS® 2OOO/WINDOWS® XP da MICROSOFT, servidor-WINDOWS N"1^/WINDOWS®-2O0O/WINDOWS® XP, uma variedade de sis-temas operacionais condicionados pelo UNIX®, incluindo estações de traba-lho e servidores AIX® para IBM®, estações de trabalho e servidores SUNOS®para SUN®, LINUX® para estações de trabalho e servidores com base emINTEL® CPU, HP UX WORKLOAD MANAGER® para estações de trabalho eservidores HP®, IRIX® para estações de trabalho e servidores SGI®,VAX/VMS para computadores de corporação de equipamento digital, Ο-PENVMS® para computadores com base em HP ALPHASERVER®, MACOS® X para estações de trabalho e servidores com base em POWERPC®,SYMBIAN OS®, WINDOWS MOBILE® ou WINDOWS CE®, PALM®, NOKIA®OS ("NOS"), OSE® ou EPOC® para dispositivos móveis ou um sistema ope-racional proprietário para computadores ou sistemas embutidos. A platafor-ma de desenvolvimento do aplicativo ou estrutura para o sistema operacio-nal 230 pode ser: BINARY RUNTIME ENVIRONMENT FOR WIRELESS®("BREW®"), plataforma Java, plataforma Micro Edition ("Java ME") ou Java2, Micro Edition ("J2ME®"), PYTHON®, FLASH LITE® ou MICROSOFT^.NETCompact.
O sensor de inclinação 206 detecta a orientação do dispositivo100, como descrito abaixo e é um giroscópio, um sensor ótico e/ou outro tipode sensor de inclinação. Um sensor ótico, por exemplo, pode ser usado paradetectar a orientação do dispositivo 100 usando um fluxo ótico de uma se-qüência de imagens de uma câmera embutida no dispositivo 100 para de-terminar o movimento e a orientação do dispositivo 100. O fluxo ótico des-creve a velocidade relativa aparente dos traços dentro de uma seqüência deimagens. Desde que o fluxo ótico é relativo à câmera, o movimento da câ-mera resultará em velocidades aparentes dos traços na visão da câmera. Omovimento da câmera é calculado a partir das velocidades aparentes dostraços na visão da câmera. A posição ou a orientação são também calcula-das em relação à posição neutra, através de um espaço estendido de tempo.
Embora o sensor de inclinação 206 tenha sido descrito como um sensor óti-co usando uma abordagem de fluxo ótico para acompanhar a inclinação oudisposição do dispositivo 100 usando a câmera, em outros aspectos a incli-nação ou disposição do dispositivo 100 é acompanhada sem usar a aborda-gem do fluxo ótico, tal como pelo uso de um acelerômetro.
Meios de memória legíveis por computador armazenam informa-ção dentro do dispositivo 100 e são voláteis ou não voláteis. A memória po-de ser capaz de prover armazenamento em massa para o dispositivo 100.Em várias implementações diferentes, a memória pode ser um dispositivo dedisco flexível, um dispositivo de disco rígido, um dispositivo de disco ótico ouum dispositivo de fita. Embora as figuras 1 e 2 ilustrem uma implementaçãopossível de um sistema de computação que executa código do programa, ouetapas do programa ou processo, outros tipos de computadores ou dispositi-vos podem também ser usados da mesma maneira.
A figura 3 é um fluxograma ilustrando um método de acordo comuma outra implementação exemplar. Brevemente, o método inclui determinaruma posição neutra de um dispositivo em relação à pelo menos um primeiroeixo, o dispositivo incluindo pelo menos um primeiro controle associado comuma primeira pluralidade de sinais de saída e medir o deslocamento angulardo dispositivo ao redor de pelo menos o primeiro eixo. O método tambéminclui receber uma seleção do primeiro controle e fornecer como saída umda primeira pluralidade de sinais de saída com base pelo menos na seleçãoe no deslocamento angular.
Em mais detalhes, o método 300 começa (etapa S301) e umapluralidade de regiões de inclinação é definida ao redor de um primeiro eixo(etapa S302). Como é descrito em mais detalhes abaixo, a saída de um sinalde saída é baseada pelo menos no deslocamento angular de um dispositivocom a seleção de um primeiro controle. De acordo com um aspecto, 'regi-ões' de inclinação são definidas tal que, com a seleção do controle, se odeslocamento angular se situa dentro de uma região de inclinação particularou faixa de ângulos, uma saída associada com a região de inclinação é pro-duzida.
As figuras 4A a 4D ilustram várias regiões de inclinação exem-plares com relação a um eixo neutro hipotético, marcado o "eixo N", onde oneutro representa os eixos X, Y e/ou Z neutros. Cada um dos eixos X, Y ouZ pode ter regiões de inclinação individualmente determinadas, uma defini-ção de região de inclinação comum pode ser aplicada em múltiplos eixos oueixos podem não ter regiões de inclinação definidas.
A figura 4A ilustra um exemplo de duas regiões de inclinaçãodefinidas ao redor do eixo neutro. Um deslocamento angular de aproxima-damente -90° a 0o ao redor do eixo neutro está dentro da região 401, e umdeslocamento angular de aproximadamente 0o a aproximadamente 90° aoredor do exemplo neutro está dentro da região 402. Um deslocamento angu-lar de aproximadamente 91° a -91° indicativo de um dispositivo que está decabeça para baixo, não corresponde a qualquer região, e um deslocamentoangular de exatamente 0o está em qualquer região 401 ou 402.
Onde o eixo neutro representa o eixo X, um deslocamento angu-lar na região 401 resultaria em uma rolagem negativa do dispositivo (para aesquerda), e um deslocamento angular na região 402 resultaria em uma ro-lagem positiva do dispositivo (para a direita). Onde o eixo neutro representao eixo Y, um deslocamento angular na região 401 resultaria em uma declivi-dade negativa (para frente) do dispositivo, e um deslocamento angular naregião 402 resultaria em uma declividade positiva (para trás) do dispositivo.Onde o eixo neutro representa o eixo Z, um deslocamento angular na região401 resultaria em uma guinada negativa (no sentido anti-horário), e um des-locamento angular na região 402 resultaria em uma guinada positiva (nosentido horário). Embora duas regiões de inclinação sejam representadas,qualquer número de regiões de inclinação pode ser definido, dependendoamplamente da sensibilidade do sensor de inclinação, do número de sinaisde saída associados com cada controle e da capacidade do usuário discri-minar entre pequenos ângulos quando manipulando o dispositivo.
Em qualquer caso, a saída do sinal pelo dispositivo é dependen-te do deslocamento angular e da região de inclinação. Por exemplo, o dispo-sitivo fornece como saída um primeiro de uma pluralidade de sinais se odeslocamento angular do dispositivo está dentro de uma primeira região, eum segundo de uma pluralidade de sinais se o deslocamento angular dodispositivo está dentro de uma segunda região, mesmo se o mesmo controleé selecionado em ambas as circunstâncias. Embora a figura 1 ilustre as re-giões 401 e 402 como abrangendo faixas de ± 90°, em um aspecto similar, aregião 401 define uma região abrangendo aproximadamente -30° a 0o aoredor do eixo neutro, e a região de inclinação 402 define uma região abran-gendo aproximadamente 0o a +30° ao redor do eixo neutro.
A figura 4B ilustra um exemplo de quatro regiões de inclinaçãodefinidas ao redor do eixo neutro, com um espaço morto entre as regiões em0o ao redor do eixo neutro. Devido à insensibilidade do sensor de inclinação,à incapacidade de um usuário discriminar, ou por outras razões, é freqüen-temente desejável definir um espaço morto entre duas regiões de outra ma-neira adjacentes. Onde o eixo neutro representa o eixo Y1 um deslocamentoangular entre aproximadamente 91° a -91°, indicativo de um dispositivo queestá de cabeça para baixo, ou um deslocamento angular de aproximada-mente 0o não corresponde a qualquer região de inclinação. Se um controle éselecionado quando o dispositivo não está orientado em uma região de incli-nação, uma saída padrão é produzida, a última saída é produzida, nenhumasaída é produzida, uma saída associada com a região de inclinação maispróxima ou uma região de inclinação complementar é produzida ou um outrotipo de saída é produzido.
Um deslocamento angular na região 404 resultaria em uma de-clividade negativa firme do dispositivo, embora um deslocamento angular naregião 405 também resultasse de uma declividade negativa que é menor emmagnitude do que uma declividade negativa da região 404. Um deslocamen-to angular na região 407 resultaria em uma declividade positiva firme do dis-positivo, embora um deslocamento angular na região 406 também resultassede uma declividade positiva que é menor em magnitude do que a declividadenegativa da região 407.
A figura 4C ilustra um exemplo de duas regiões de inclinaçãodefinidas ao redor do eixo neutro, onde a área ao redor de 0o em volta doeixo neutro fica substancialmente dentro de uma primeira região. Em particu-lar, onde o eixo neutro representa o eixo X, o dispositivo permaneceria naregião 409 se negativamente rolado, se não movido da posição neutra, ou semodestamente rolado na direção-positivarA fim de que o dispositivo sejaorientado na região 410, uma rolagem positiva firme teria que ocorrer. Asregiões de inclinação representadas na figura 4C seriam desejáveis, por e-xemplo, onde a região 409 representa uma saída desejada padrão, e ondeuma manipulação de alta magnitude afirmativa do dispositivo seria necessá-ria para colocar o dispositivo na região 410, assim anulando a saída deseja-da padrão. No exemplo da figura 4C, a região de inclinação 409 abrange umdeslocamento angular de 0o, onde o deslocamento angular do dispositivofica na região de inclinação 409 se o deslocamento angular ao redor do pri-meiro eixo é medido como 0o.
A figura 4D ilustra um exemplo de duas regiões de inclinaçãodefinidas ao redor do eixo neutro, onde uma região única ocupa as faixas dedeslocamento angular em ambos os lados do eixo neutro. Mais particular-mente, a região 412 é definida pela área que circunda 0o ao redor do eixoneutro, e a região 411 ocupa faixas angulares simétricas nas direções angu-lares positiva e negativa. Onde o eixo neutro representa o eixo Z, um deslo-camento angular na região 411 resultaria em uma guinada positiva ou nega-tiva de alta magnitude. Um deslocamento angular na região 412 resultariaem uma guinada positiva ou negativa mais modesta, ou da orientação dodispositivo permanecendo na posição neutra.
Em qualquer um dos exemplos acima descritos, o eixo neutropode representar o eixo X, Y e/ou Z, assim efetivamente multiplicando o nú-mero total de regiões de inclinação disponíveis. Por exemplo, se o eixo neu-tro no exemplo da figura 4A representa o eixo X, e o eixo neutro no exemploda figura 4B representa o eixo Y, um total de oito regiões de inclinação fica-ria disponível, desde que as quatro regiões de inclinação de declividade dafigura 4B seriam, cada uma, divididas nas duas regiões de inclinação de ro-lagem do exemplo da figura 4A. Assumindo que cada eixo tem um númeroigual de η regiões de inclinação, o número total de regiões de inclinação pa-ra uma disposição de dois eixos é n2 e o número total de regiões de inclina-ção para uma disposição de três eixos é n3.
Finalmente, é considerado que em alguns casos o próprio deslo-camento angularre não a região de inclinação, será determinativo do sinalde saída, e assim seria desnecessário definir as regiões de inclinação. Alémdo mais, as regiões de inclinação são também definidas implicitamente nocaso onde a faixa de movimento ao redor de um eixo desejado é divididaigualmente pelo número de sinais de saída, onde cada sinal de saída cor-responde a uma faixa de ângulos matematicamente determinada.
De volta para a figura 3, a posição neutra de um dispositivo édeterminada em relação à pelo menos um primeiro eixo, o dispositivo inclu-indo pelo menos um primeiro controle associado com uma primeira plurali-dade de sinais de saída (etapa S304).
A figura 5 ilustra uma vista exterior superior de um dispositivoexemplar de acordo com uma outra implementação exemplar. O dispositivo500, um telefone móvel, tem uma base de teclas incluindo pelo menos pri-meiro controle 502 associado com uma primeira pluralidade de sinais de sa-ída. No exemplo ilustrado, o primeiro controle 502 é uma tecla, ou botão, nabase de teclas ou teclado do dispositivo 500, onde cada controle individualrepresenta um múltiplo dos caracteres alfanuméricos ou símbolos. Especifi-camente, o primeiro controle 502 é marcado "9" e corresponde a quatro si-nais de saída indicativos dos caracteres "W", "Χ", Ύ" e "Z" ou doze sinais desaída indicativos dos caracteres sensíveis ao caso "W", "Χ", Ύ", "Z", "w", "x","y", "z' e os símbolos ",", ".", "/" e "'". Não existe limite para o número de si-nais de saída ou caracteres que podem corresponder com um único contro-le. Em aspectos particulares, o primeiro controle 502 é associado com umapluralidade de sinais de saída, tal como três sinais de saída ou nove sinaisde saída. Cada um da pluralidade de sinais de saída pode corresponder comum caractere, tal como um caractere alfanumérico ou um símbolo.
A posição neutra do dispositivo 500 é determinada, por exemplo,quando o dispositivo 500 é energizado, antes de ou depois de uma seleçãodo primeiro controle ou no local da fabricação. Em um aspecto, um armaze-namento temporário de memória armazena dados de saída do sensor deinclinação, e a posição neutra do dispositivo 500 é reconstruída a partir daorientação do dispositivo 500 quando um controle é selecionado e os dadosde saída. Em um outro aspecto, a posição neutra é uma condição pré-estabelecida na fábrica, tal como no caso onde o eixo neutro X é definidocomo se estendendo perpendicular ao centro da terra, tal que um desloca-mento angular é medido se o dispositivo 500 está virado para qualquer dire-ção exceto para cima. Em um aspecto adicional, um processador, um sensorde inclinação e a memória se comunicam para determinar uma posição neu-tra comum baseada na posição média do dispositivo 500 sempre que o con-trole é habitualmente selecionado. Além do mais, em um aspecto adicional,a posição neutra é selecionável pelo usuário. Em qualquer aspecto, a posi-ção neutra opera efetivamente para restaurar o sensor de inclinação para 0oatravés de cada eixo de interesse, onde qualquer movimento do dispositivo500 para longe da posição neutra serve para registrar um deslocamento an-guiar. Em relação ao usuário do dispositivo 500 ou a terra, a posição neutraé uma posição plana, uma posição ereta vertical ou uma posição chanfradaou inclinada.
Em um aspecto adicional, a posição neutra do dispositivo 500 édeterminada em relação à pelo menos um segundo eixo, ortogonal ao pri-meiro eixo, onde o deslocamento angular inclui um componente de primeiroeixo e um componente de segundo eixo. Em um aspecto adicional, a posi-ção neutra do dispositivo 500 é determinada em relação à pelo menos umterceiro eixo ortogonal ao primeiro eixo e o segundo eixo, onde o desloca-mento angular inclui um componente de terceiro eixo. O primeiro eixo, o se-gundo eixo e/ou o terceiro eixo se interceptam dentro do dispositivo 500, forado dispositivo 500 ou ao longo de uma porção periférica ou borda do disposi-tivo 500.Desde que o dispositivo 500 inclui um sensor de inclinação quedetecta a orientação do dispositivo, a entrada de texto no dispositivo é facili-tada. Por exemplo, o sensor de inclinação detecta o grau para o qual o dis-positivo foi rolado para a esquerda, para a direita ou inclinado para cima oupara baixo, onde a orientação de inclinação ou o deslocamento angular dodispositivo ao redor dos eixos de interesse indica como a seleção do contro-le 502 é interpretada e fornecida como saída. Por exemplo, se o controle 502corresponde a múltiplos caracteres, a orientação do dispositivo 502 identificaqual dos múltiplos caracteres é fornecido como saída quando o controle 502é selecionado ou identifica um caso no qual o caractere apropriado é forne-cido como saída.
O uso da orientação do dispositivo para identificar um caracterea ser fornecido como saída possibilita que um caractere seja fornecido comosaída toda vez que um controle único é selecionado, aumentando a veloci-dade da entrada de texto reduzindo o número de seleções de controle exigi-do para inserir o texto. Pelo fato de que um número fixo de seleções de con-troles representa a entrada de um caractere, um usuário pode especificar umcaractere subseqüente imediatamente depois que um caractere atual foi es-pecificado, eliminando a necessidade de aguardar uma duração de tempopredeterminada antes de especificar o caractere subseqüente, também au-mentando a velocidade da entrada do texto.
Como indicado acima, a posição neutra do dispositivo é umaorientação de referência da qual um deslocamento angular é medido ao re-dor de pelo menos um eixo, para a posição de seleção, a posição de seleçãocorrespondendo com a posição do dispositivo antes de, no momento de, oudepois da seleção de um controle tal como o primeiro controle. Em um as-pecto, a posição neutra do dispositivo é determinada em relação a um eixo ea posição neutra é determinada como uma posição "plana", onde o um eixoé paralelo ao solo. Em um outro aspecto, a posição neutra do dispositivo édeterminada em relação a dois eixos, e a posição neutra é determinada demaneira ergonômica como a orientação de um dispositivo como ele geral-mente seria mantido por um usuário do dispositivo. Em um aspecto adicio-nal, a posição neutra do dispositivo é determinada em relação a três eixos,onde um eixo é determinado como paralelo a um eixo norte-sul magnético,um eixo é determinado como paralelo a um eixo leste-oeste e o terceiro eixoé determinado como virado para perto e para longe do centro da terra.
De volta para a figura 3, um deslocamento angular do dispositivoé medido ao redor de pelo menos o primeiro eixo (etapa S305). Em particu-lar, um sensor de inclinação, tal como o sensor de inclinação 206 mede odeslocamento angular entre-a posição atual do dispositivo e a posição neu-tra, onde o deslocamento angular inclui um componente para cada eixo deinteresse. Em um aspecto, o sensor de inclinação 206 mede o deslocamentoangular do dispositivo no momento em que o controle é selecionado. Desdeque a seleção do próprio controle pode afetar a orientação do dispositivo, emum outro aspecto, o sensor de inclinação mede o deslocamento angular dodispositivo um momento antes ou depois que o controle é selecionado.
O sensor de inclinação detecta a orientação do dispositivo. Porexemplo, o sensor de inclinação detecta o grau para o qual o dispositivo foirolado para a esquerda ou direita, inclinado para cima ou para baixo ou gui-nado no sentido horário ou anti-horário. Em um aspecto, o sensor de inclina-ção mede pelo menos dois níveis discretos de inclinação de rolamento aoredor do eixo X, em cujo caso o dispositivo pode ser dito como sendo roladopara a esquerda, rolado para a direita ou não rolado para a esquerda ou di-reita. Além disso, o sensor de inclinação mede pelo menos dois níveis dis-cretos de inclinação de declividade ao redor do eixo Y na direção para frenteou para trás, em cujo caso o dispositivo pode ser dito como sendo inclinadopara cima, inclinado para baixo ou não inclinado para cima ou para baixo.
Além do que, o sensor de inclinação mede pelo menos dois níveis discretosde inclinação de guinada ao redor do eixo Z, em cujo caso o dispositivo podeser dito como sendo guinado no sentido horário, guinado no sentido anti-horário ou não guinado. Em uma tal implementação, o sensor de inclinaçãoindica que o dispositivo foi rolado para a esquerda quando o dispositivo foirolado entre 15° e 45° para a esquerda. Como um outro exemplo, o sensorde inclinação indica que o dispositivo não foi inclinado para frente ou paratrás quando o dispositivo foi inclinado por menos do que 15° para frente emenos do que 15° para trás. Em uma outra implementação, o sensor de in-clinação pode indicar mais do que três níveis de inclinação em cada umadas direções da esquerda para direita e para frente ou para trás. Em uma talimplementação, cada um dos níveis de inclinação em uma direção particularcorresponde a uma faixa de graus nos quais o dispositivo foi inclinado.
Uma indicação do deslocamento angular é exibida (etapa S306).
Como descrito acimaré-possível que a orientação da posição neutra possanão ser instintiva para um usuário. Além do mais, cada eixo pode ter duas oumais regiões de inclinação em cada direção ao redor de cada eixo. Por es-sas e outras razões, um indicador é provido para exibir uma indicação dodeslocamento angular, ou uma indicação da região de inclinação à qual odeslocamento angular corresponde, em tempo real ou próximo do temporeal. Se o deslocamento angular é medido em um momento antes ou depoisque o controle é selecionado, o indicador estima o deslocamento angularapropriado ou a indicação da região de inclinação no momento com base emtoda a informação disponível. Se a posição neutra é definida em relação amais do que um eixo, o usuário pode determinar qual eixo o indicador estáindicando, o indicador pode ter um eixo padrão ou preestabelecido de inte-resse, ou a determinação pode ser sensível ao contexto.
As figuras 6A a 6B ilustram indicadores exemplares de acordocom um aspecto exemplar. Na figura 6A, o indicador 600 indica a orientaçãodo dispositivo em um mostrador. O indicador provê um retorno visual de mo-do que o usuário fica ciente da orientação do dispositivo que será usado pa-ra interpretar uma seleção de controle.
O indicador 600 inclui indicador de inclinação positiva 601 e indi-cador de inclinação negativa 604, que apontam nas direções negativa (es-querda) e positiva (direita), respectivamente. Além disso, o indicador 600inclui o indicador de centro 602 que é visualmente distinto do indicador deinclinação positiva 601 e do indicador de inclinação negativa 604 quando odispositivo não está inclinado, tal como quando o dispositivo está na posiçãoneutra ou em uma posição que não é registrada pelo sensor de inclinação,tal como de cabeça para baixo. Um dos indicadores de inclinação é ilumina-do ou de outra maneira visualmente distinto do outro indicador de inclinaçãoe do indicador de centro 602 quando o dispositivo é inclinado na direção in-dicada. Além do mais, o indicador de centro 602 é iluminado ou de outramaneira visualmente distinto do indicador de inclinação positiva 601 e indi-cador de inclinação negativa 604 quando o dispositivo não é rolado para aesquerda ou a direita. O indicador de centro, por exemplo, seria iluminadoquando o dispositivo é-orientado-como-ilustrado na figura 1. O indicador deinclinação positiva 601 seria iluminado quando o dispositivo é orientado co-mo ilustrado na região 402 da figura 4A, e o indicador de inclinação negativa604 seria iluminado quando o dispositivo é orientado como ilustrado na regi-ão 401 da figura 4A.
Em uma outra implementação ilustrada nas figuras 6B e 6C, oindicador 605 também inclui dois indicadores de inclinação parcial 606 e 607que também apontam nas direções negativa e positiva, respectivamente.Cada um dos indicadores de inclinação parcial fica localizado entre o indica-dor de centro 604 e o indicador de inclinação negativa 604 ou o indicador deinclinação positiva 601. Os indicadores de inclinação parcial são iluminadosou de outra forma visualmente distintos dos outros componentes do indica-dor 605 quando o dispositivo é inclinado parcialmente na direção indicada.Em uma implementação, ambos o indicador de inclinação parcial e o indica-dor de centro são iluminados quando o dispositivo é parcialmente inclinadona direção correspondente. Por exemplo, o indicador de inclinação negativa604 seria iluminado quando o dispositivo fosse orientado na região de incli-nação 404 da figura 4B, o indicador de inclinação parcial negativa 606 e oindicador de centro 602 seriam iluminados quando o dispositivo fosse orien-tado na região de inclinação 405 da figura 4B, o indicador de centro 602 se-ria iluminado quando o dispositivo fosse orientado na posição neutra, comoilustrado na figura 1, o indicador de inclinação parcial positiva 607 e o indi-cador de centro 602 seriam iluminados quando o dispositivo fosse orientadona região de inclinação 406 da figura 4B, e o indicador de inclinação positiva601 seria iluminado quando o dispositivo fosse orientado na região de incli-nação 407 da figura 4B. Qualquer número de indicadores de inclinação ouindicadores de inclinação parcial é considerado para cada eixo. Para um ei-xo tendo várias dúzias de regiões de inclinação associadas, por exemplo, omesmo número, mais ou menos indicadores de inclinação podem ser usa-dos para prover um retorno visual.
A figura 6D ilustra um indicador de inclinação de dois eixos quepode ser apresentado no mostrador. Embora os eixos discutidos em conjun-to coma figura 6D sejam citados como os eixos de declividade (para frente epara trás) e rolagem (para a esquerda e direita), essas indicações são arbi-trárias, e um conjunto de indicadores poderia também ser o eixo da guinadaou um outro eixo. O indicador 609 opera similarmente ao indicador 605 comrelação a um eixo, entretanto, o indicador 609 também integra um indicadorde inclinação de declividade compreendendo o indicador de declividade ne-gativa 610, indicador de declividade negativa parcial 611, indicador de decli-vidade positiva parcial 612 e indicador de declividade positiva 614, para oindicador de um eixo previamente descrito 605, que foi descrito como umindicador de rolagem. Em um outro aspecto ilustrado na figura 6E, o indica-dor inclui um aspecto único 615 que indica o significado da orientação dodispositivo. Por exemplo, o indicador de aspecto único indica se númerospodem ser fornecidos como saída ou não por causa da medição do deslo-camento angular do dispositivo.
Embora o indicador seja representado nas figuras 1 e 6 comouma série de setas ou luzes intuitivas, em um aspecto, o indicador é incorpo-rado no mostrador, tal como mostrador 105, ou o indicador é um alto-falanteque toca sons ou arquivos de som que descrevem a inclinação do dispositivopara o usuário através de áudio. Além do mais, em um outro aspecto, ne-nhuma indicação do deslocamento angular ou da região de inclinação é exi-bida ou de outra forma gerada.
De volta para a figura 3, uma seleção do primeiro controle é re-cebida (etapa S307). Em um aspecto, o controle é um botão da base de te-clas e a seleção ocorre quando o usuário aperta o botão, dessa maneirapossibilitando que um sinal seja gerado e transmitido para o processadorindicando que uma seleção do botão da base de teclas ocorreu. Em um ou-tro aspecto, o controle não é um controle físico, mas ao invés disso um íconeem uma tela sensível ao toque. Nesse aspecto, a seleção ocorre quando ousuário toca uma área da tela sensível ao toque associada com o ícone, on-de uma aplicação de tela sensível ao toque lê as coordenadas do toque, cor-relaciona as coordenadas com a localização do ícone e transmite um sinalindicando que o controle foi selecionado. Outros tipos de seleções de contro-le são também considerados.
De acordo com a implementação da figura 5, o dispositivo 500inclui uma base de teclas, ou agrupamento de controles, que possibilita queo usuário insira texto de modo a interagir com a GUI apresentada no mos-trador 505. Cada controle corresponde a múltiplos sinais de saída, cada sinalde saída associado com um caractere. Em um aspecto, a base de teclasinclui oito controles, marcados "2" a "9" que correspondem, cada um, commúltiplas letras e um número. Por exemplo, o controle marcado "2" corres-ponde a as letras "A", "B" e "C" e o número "2". Além disso, outros controlesincluídos na base de teclas executam outras funções de entrada de texto.Por exemplo, o controle marcado "*" é usado para mudar a caixa de um pró-ximo caractere que é fornecido como saída. O controle marcado "0" é usadopara avançar para um caractere subseqüente depois que um caractere atualfoi especificado e o controle marcado "#" é usado para inserir um caracterede "espaço".
Um da primeira pluralidade de sinais de saída é fornecido comosaída com base pelo menos na seleção e no deslocamento angular (etapaS309), ou pelo menos na seleção, no deslocamento angular e na pluralidadede regiões de inclinação. Desde que o primeiro controle é associado comuma primeira pluralidade de sinais de saída, o deslocamento angular ou odeslocamento angular e a pluralidade de regiões de inclinação são usadospara determinar qual da primeira pluralidade de sinais de saída é fornecidocomo saída. Em um aspecto, a posição neutra do dispositivo é determinadaem relação a um eixo, onde três regiões de inclinação são definidas ao redordesse um eixo e onde o primeiro controle é associado com três regiões deinclinação. Nesse caso, se o deslocamento angular está na primeira regiãode inclinação, o primeiro sinal de saída é fornecido como saída, se o deslo-camento angular está na segunda região de inclinação, o segundo sinal desaída é fornecido como saída e se o deslocamento angular está na terceiraregião de inclinação, o terceiro sinal de saída é fornecido como saída. Emum aspecto alternativo, o sinal de saída é fornecido como saída com baseno deslocamento angular e no número de sinais de saída associados com oprimeiro controle, com base em uma fórmula ou um algoritmo.
As figuras 7 a 10 representam vistas frontal e lateral do dispositi-vo da figura 5 em estados diferentes de manipulação. Em particular, as figu-ras 7 A e 7B ilustram as vistas frontal e lateral, respectivamente, do dispositi-vo 500 na posição neutra. A figura 8A ilustra uma vista frontal do dispositivomanipulado em uma rolagem negativa ao redor do eixo Xea figura 8B ilus-tra uma vista frontal do dispositivo manipulado em uma rolagem positiva aoredor do eixo X. Similarmente, a figura 9A ilustra uma vista lateral do disposi-tivo manipulado em uma declividade positiva ao redor do eixo Yea figura 9Bilustra uma vista lateral do dispositivo manipulado em uma declividade nega-tiva ao redor do eixo Y. Nas figuras 8 e 9, o dispositivo foi inclinado por apro-ximadamente ±30° ao redor dos eixos respectivos a partir da posição neutra,mostrada na figura 7.
A orientação do dispositivo, como indicado pelo deslocamentoangular medido pelo sensor de inclinação, quando um controle da base deteclas é selecionado afeta a saída do sinal de saída pelo dispositivo, afetan-do, por exemplo, o caractere gerado pela seleção de controle. Cada um dosmúltiplos caracteres ou sinais de saída representados por um único controlede uma base de teclas corresponde a uma orientação diferente do dispositi-vo. Quando um dos controles da base de teclas é selecionado, o dispositivoidentifica a pluralidade de caracteres que correspondem ao controle selecio-nado e a orientação do dispositivo indicada pelo sensor de inclinação. Umdos múltiplos caracteres e uma caixa para o caractere são identificados combase na orientação identificada, e o caractere identificado é fornecido comosaída.O grau para o qual o dispositivo foi rolado para a esquerda oudireita quando um controle é selecionado afeta qual dos múltiplos caracteresrepresentado pelo controle é fornecido como saída. Em uma implementação,os controles que representam múltiplos caracteres representam três letras eas letras representadas pelo controle são listadas da esquerda para a direitano controle. O dispositivo é configurado para indicar que o dispositivo é rola-do para a esquerda, rolado para a direita ou não rolado para a esquerda oudireita; Em uma tal implementação, a rolagem do dispositivo para a esquer-da quando o controle é selecionado indica que o caractere listado mais àesquerda deve ser fornecido como saída. Similarmente, a rolagem do dispo-sitivo para a direita quando o controle é selecionado indica que o caracterelistado mais à direita deve ser fornecido como saída. Finalmente, manter odispositivo orientado na posição neutra quando o controle é selecionado in-dica que o caractere de centro deve ser fornecido como saída.
Em uma outra implementação, a rolagem do dispositivo para aesquerda quando o controle é selecionado indica que o caractere listadomais à direita deve ser fornecido como saída, a rolagem do dispositivo paraa direita quando o controle é selecionado indica que o caractere listado maisà esquerda deve ser fornecido como saída, e manter o dispositivo orientadona posição neutra quando o controle é selecionado indica que o caracterecentral deve ser fornecido como saída. Uma tal implementação pode ser u-sada, por exemplo, porque a rolagem do dispositivo para a esquerda faz ocaractere listado mais à direita aparecer acima e mais proeminentemente doque os outros caracteres listados, e a rolagem do dispositivo para a direitafaz com que o caractere listado mais à esquerda apareça acima e mais pro-eminentemente do que os outros caracteres listados.
Em outras implementações, os controles da base de teclas re-presentam mais do que três caracteres, tal como três letras e um número ouquatro letras e um número. Por exemplo, o controle em um telefone conven-cional marcado "7" corresponde a as letras "P", "Q", "R" e "S" e o número"7". Em um tal caso, o sensor de inclinação é configurado para identificarmais do que três posições de rolagem discretas da esquerda para a direitatal que um dos mais do que três caracteres representados por um controleselecionado pode ser identificado com base somente na orientação de rola-gem do dispositivo. Cada uma das posições de rolagem discreta correspon-de a um dos caracteres representado pelo controle selecionado. Por exem-pio, se o controle selecionado é a tecla marcada "7", o dispositivo sendo ro-lado como ilustrado na região 404 da figura 4B indicaria que a letra "P" deveser fornecida como saída, o dispositivo sendo rolado como ilustrado na regi-ão 405 da figura 4B-indicaria que a letra "Q" deve ser fornecida como saída,o dispositivo sendo rolado como ilustrado na região 406 da figura 4B indica-ria que a letra "R" deve ser fornecida como saída, o dispositivo sendo roladocomo ilustrado na região 407 da figura 4B indicaria que a letra "S" deve serfornecida como saída e o dispositivo sendo orientado na posição neutra,como ilustrado na figura 1, indicaria que o número "7" deve ser fornecidocomo saída.
Embora a orientação de rolagem do dispositivo seja usada paraidentificar um caractere a ser fornecido como saída, a orientação da declivi-dade do dispositivo é usada para identificar uma caixa para o caractere. Emuma implementação, o dispositivo sendo enviesado (ou inclinado) para fren-te quando um controle é selecionado faz com que um caractere que é identi-ficado pela orientação de rolagem (inclinação da esquerda para a direita) dodispositivo seja fornecido como saída em caixa alta. Similarmente, o disposi-tivo não sendo inclinado para frente ou para trás (em uma posição de decli-vidade neutra) quando um controle é selecionado faz com que um caractereque é identificado pela orientação de rolagem (inclinação da esquerda para adireita) do dispositivo seja fornecido como saída em caixa baixa.
Em algumas implementações, o dispositivo sendo enviesado (ouinclinado) para trás pode fazer com que um símbolo seja fornecido comosaída. O símbolo pode ser um símbolo correspondendo com o número re-presentado pelo controle selecionado em um teclado de computador con-vencional. Por exemplo, se o controle que representa o número "1" é sele-cionado enquanto o dispositivo está inclinado para trás, o símbolo "!" podeser fornecido como saída porque o símbolo "!" corresponde a o número "1"em um teclado de computador convencional (por exemplo, pressionando"Shift" e "1" em um teclado de computador fornece como saída o caractere
O sensor de inclinação é capaz de detectar mais posições deinclinação na direção de declividade do que é necessário para indicar a cai-xa do caractere a ser fornecido como saída. Como tal, as posições de decli-vidade que não são usadas para indicar a caixa do caractere podem ser u-sadas para selecionar o caractere. Por exemplo; um controle pode represen-tar três letras e um número e essas três posições de rolagem podem ser u-sadas para selecionar entre as três letras. Duas posições de declividade po-dem selecionar a caixa para letras e uma terceira posição de inclinação dedeclividade pode selecionar o número representado pela tecla.
Além do mais, o sensor de inclinação indica independentementese o dispositivo foi rolado para a esquerda, para o neutro ou para a direita ouse o dispositivo declinou para frente, para o neutro ou para trás, dessa ma-neira permitindo que o sensor de inclinação indique se o dispositivo está emuma das nove orientações. Cada uma das nove orientações pode corres-ponder com um caractere e uma caixa para o caractere.
A figura 10 é uma tabela mostrando um mapeamento possíveldas orientações do dispositivo para sinais de saída correspondendo comcaracteres e caixas que podem ser fornecidos como saída quando o controlemarcado "2" na base de teclas é selecionado. No mapeamento ilustrado, odispositivo sendo rolado para a esquerda e inclinado para frente faz com quea letra maiúscula "A" seja fornecida como saída, o dispositivo não sendo ro-lado ou inclinado em qualquer caixa de direção faz com que a letra em caixabaixa "b" seja fornecida como saída e o dispositivo sendo inclinado para trásfaz com que o número "2" seja fornecido como saída. Em outras implemen-tações nas quais o sensor de inclinação pode identificar mais do que trêsposições de rolagem ou mais do que três posições de declividade, mais ori-entações que podem ser mapeadas para caracteres e caixas ficam disponí-veis.
Sinais de saída correspondendo com caracteres são descritoscomo sendo selecionados com base em um primeiro deslocamento de eixoangular ou posição de inclinação do dispositivo, e sinais de saída correspon-dendo com caixas altas ou baixas para os caracteres são descritos em todaparte como sendo selecionados com base em um segundo deslocamentoangular de eixo ou posição do dispositivo. Em outras implementações, odeslocamento angular nos eixos diferentes pode efetuar a saída dos sinaiscorrespondendo com caracteres ou caixa alta e baixa dos caracteres. Emgeral, qualquer orientação do dispositivo pode ser mapeada para qualquercaractere e caixa para o caractere, a despeito de qual dos eixos foi usadopara selecionar o caractere ou a caixa.
Além de fornecer como saída um sinal correspondendo com umcaractere que é fornecido como saída em resposta à seleção de um contro-le, a orientação do dispositivo pode ser usada para indicar uma opção demenu que é para ser selecionada. Por exemplo, a seleção de um controleque não corresponde a quaisquer caracteres, tal como a tecla "1" em umtelefone, faz com que um menu seja apresentado no mostrador do telefone,onde cada opção do menu corresponde a uma orientação diferente do tele-fone. A orientação do dispositivo quando um controle indicando que umaseleção do menu deve ser feita (por exemplo, uma tecla "OK", uma tecla"Enter" ou a tecla "1" é selecionada) pode indicar qual das opções do menué selecionada. Em um aspecto, um menu de símbolos similar ao que é ilus-trado nas figuras 11A e 11B é exibido quando a tecla "1" é selecionada. Ainclinação do dispositivo e a seleção da tecla "1" novamente podem fazercom que um símbolo correspondente seja fornecido como saída. Depois queo símbolo foi fornecido como saída, letras e números podem ser fornecidoscomo saída, como descrito acima, até que a tecla "1" é selecionada nova-mente para exibir o menu de símbolos. A inversão total do dispositivo, a agi-tação do dispositivo ou de alguma forma o movimento do dispositivo em umamaneira que não é interpretada como uma inclinação do dispositivo gera umoutro menu.
Um primeiro sinal de saída é fornecido como saída se o deslo-camento angular está dentro da primeira região de inclinação quando a sele-ção é recebida, onde um segundo sinal de saída é fornecido como saída seo deslocamento angular está dentro da segunda região de inclinação quandoa seleção é recebida. Além do mais, um terceiro ou quarto sinal de saída éfornecido como saída se o deslocamento angular está dentro da terceira ouquarta região de inclinação, respectivamente, quando a seleção é recebida.
Se uma pluralidade de regiões de inclinação do primeiro eixo édefinida ao redor do primeiro eixo e uma pluralidade de regiões de inclinaçãodo segundo eixo é definida ao redor do segundo eixo, um da primeira plura-lidade de sinais de saída pode ser também fornecido como saída com basena pluralidade de regiões de inclinação do primeiro eixo e/ou na pluralidadede regiões de inclinação do segundo eixo. Quando a seleção é recebida, umprimeiro sinal de saída pode ser fornecido como saída se o componente doprimeiro eixo está dentro de uma primeira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro de uma primeira regiãode inclinação do segundo eixo, um segundo sinal de saída pode ser forneci-do como saída se o componente do primeiro eixo está dentro de uma se-gunda região de inclinação do primeiro eixo e se o componente do segundoeixo está dentro da primeira região de inclinação do segundo eixo, um tercei-ro sinal de saída pode ser fornecido como saída se o componente do primei-ro eixo está dentro da segunda região de inclinação do primeiro eixo e se ocomponente do segundo eixo está dentro de uma segunda região de inclina-ção do segundo eixo e/ou um quarto sinal de saída pode ser fornecido comosaída se o componente do primeiro eixo está dentro da segunda região deinclinação do primeiro eixo e se o componente do segundo eixo está dentroda segunda região de inclinação do segundo eixo.
Alternativamente, em um outro aspecto, quando a seleção é re-cebida, um primeiro sinal de saída pode ser fornecido como saída se o pri-meiro componente está dentro de uma primeira região de inclinação do pri-meiro eixo e se o componente do segundo eixo está dentro de uma primeiraregião de inclinação do segundo eixo, um segundo sinal de saída pode serfornecido como saída se o primeiro componente está dentro da primeira re-gião de inclinação do primeiro eixo e se o componente do segundo eixo estádentro de uma segunda região de inclinação do segundo eixo, um terceirosinal de saída pode ser fornecido como saída se o primeiro componente estádentro da primeira região de inclinação do primeiro eixo e se o componentedo segundo eixo está dentro de uma terceira região de inclinação do segun-do eixo, um quarto sinal de saída pode ser fornecido como saída se o primei-ro componente está dentro de uma segunda região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da primeira região de"inclinação~do segundo eixo, um quinto sinal de saída pode ser fornecido co-mo saída se o primeiro componente está dentro da segunda região de incli-nação do primeiro eixo e se o componente do segundo eixo está dentro dasegunda região de inclinação do segundo eixo, um sexto sinal de saída podeser fornecido como saída se o primeiro componente está dentro da segundaregião de inclinação do primeiro eixo e se o componente do segundo eixoestá dentro da terceira região de inclinação do segundo eixo, um sétimo si-nal de saída pode ser fornecido como saída se o primeiro componente estádentro de uma terceira região de inclinação do primeiro eixo e se o compo-nente do segundo eixo está dentro da primeira região de inclinação do se-gundo eixo, um oitavo sinal de saída pode ser fornecido como saída se oprimeiro componente está dentro da terceira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da segunda região deinclinação do segundo eixo e/ou um nono sinal de saída pode ser fornecidocomo saída se o primeiro componente está dentro da terceira região de in-clinação do primeiro eixo e se o componente do segundo eixo está dentro daterceira região de inclinação do segundo eixo.
O sinal de saída é exibido (etapa S310) e o método 300 termina(etapa S311). O sinal de saída é exibido em um mostrador, tal como mostra-dor 105. Em um aspecto alternado, o sinal de saída não é exibido.
Na implementação da figura 5, o dispositivo 500 também inclui omostrador 505, que é usado para apresentar uma interface gráfica do usuá-rio ("GUI") para um usuário do dispositivo 500. A GUI possibilita que um u-suário do dispositivo 500 execute funções que exigem que o usuário insiratexto no dispositivo 500. Por exemplo, o usuário pode identificar uma entradapara uma pessoa dentro de um caderno de telefone armazenado no disposi-tivo 500 inserindo o nome da pessoa. Como um outro exemplo, o usuáriopode adicionar uma entrada para uma pessoa no caderno de telefone inse-rindo informação descrevendo a pessoa, tal como o nome da pessoa e umou mais números de telefone usados pela pessoa. Além do mais, a GUI pos-sibilita que o usuário especifique uma mensagem de texto que é para serenviada do dispositivo 500 ou especifique uma outra nota textual que é paraser armazenada no dispositivo~5OOrO dispositivo 500 também exibe umaGUI que possibilita que um usuário especifique uma mensagem de texto.
A interpretação das seleções de controle com base nas orienta-ções do dispositivo quando as seleções de controle são feitas aumenta onúmero de operações que podem ser executadas com uma única seleção decontrole. Por exemplo, cada seleção de controle pode ser interpretada emuma série de maneiras que é igual ao número de orientações distintas dodispositivo que pode ser detectado. Além do mais, a orientação do dispositi-vo pode indicar como a seleção do controle que não corresponde a quais-quer caracteres pode ser interpretada. Portanto, um usuário pode ser habili-tado a executar rapidamente operações relativamente complexas simples-mente inclinando o dispositivo e selecionando os controles. Por exemplo, aseleção da tecla "*" enquanto o dispositivo é rolado para a esquerda podefazer com que um modo particular de entrada de texto (por exemplo, núme-ros somente, todas as letras maiúsculas) seja usado para a entrada de textoaté a próxima vez que a tecla "*" é selecionada quando o dispositivo é roladopara a esquerda. Em um outro aspecto, o sensor de inclinação efetua a rola-gem de inclinação, tal que, com a recepção da seleção de um controle, umainterface de usuário é rolada correspondendo com a direção da inclinação.Uma declividade para frente ocorrendo no momento da seleção do controle,por exemplo, resultaria na interface do usuário, ou um item de menu na inter-face do usuário, rolando para cima.
De acordo com um outro aspecto geral, um produto de programade computador, armazenado de maneira tangível em um meio legível porcomputador é recitado. O produto de programa de computador é operávelpara fazer com que um computador execute operações incluindo determinaruma posição neutra de um dispositivo em relação à pelo menos um primeiroeixo, o dispositivo incluindo pelo menos um primeiro controle associado comuma primeira pluralidade de sinais de saída e medir o deslocamento angulardo dispositivo ao redor de pelo menos o primeiro eixo. O produto de progra-ma de computador é também operável para fazer com que um computadorexecute operações incluindo receber uma seleção do primeiro controle efornecer como saída um da primeira pluralidade de sinais de saída com basepelo menos na seleção e no deslocamento angular.
Finalmente, embora uma série de implementações tenha sidodescrita ou exemplificada como um dispositivo de telefone, é consideradoque os conceitos relatados aqui não são, de maneira alguma, limitados àtelefonia, e são na realidade aplicáveis a uma ampla variedade de dispositi-vos, incluindo qualquer dispositivo no qual o número de controles é minimi-zado devido ao projeto do dispositivo e restrições de layout. Dispositivos e-xemplares incluem teclados de computador, controles remotos, relógios, bar-ras de direção ou controladores de jogo ou outros dispositivos eletrônicos deconsumidor ou de entrada no computador.
Dessa maneira, uma série de implementações foi descrita. Con-tudo, será entendido que várias modificações podem ser feitas. Por exemplo,elementos de implementações diferentes podem ser combinados, comple-mentados ou removidos para produzir outras implementações. Além do que,várias tecnologias podem ser usadas, combinadas e modificadas para pro-duzir uma implementação, tais tecnologias incluindo, por exemplo, uma vari-edade de conjunto de circuitos eletrônicos digital, hardware, software, firm-ware, componentes integrados, componentes discretos, dispositivos de pro-cessamento, dispositivos de memória ou armazenamento, dispositivos decomunicação, lentes, filtros, dispositivos de exibição e dispositivos de projeção.
Claims (32)
1. Método compreendendo:determinar uma posição neutra de um dispositivo em relação àpelo menos um primeiro eixo, o dispositivo incluindo pelo menos um primeirocontrole associado com uma primeira pluralidade de sinais de saída,medir um deslocamento angular do dispositivo ao redor de pelomenos o primeiro eixo,receber urna seleção do primeiro controle efornecer como saída um da primeira pluralidade de sinais de sa-ida com base pelo menos na seleção e no deslocamento angular.
2. Método de acordo com a reivindicação 1,no qual a posição neutra do dispositivo é determinada em rela-ção à pelo menos um segundo eixo, ortogonal ao primeiro eixo eonde o deslocamento angular inclui um componente do primeiroeixo e um componente do segundo eixo.
3. Método de acordo com a reivindicação 2, no qual o primeiroeixo e o segundo eixo se interceptam dentro do dispositivo.
4. Método de acordo com a reivindicação 1,no qual a posição neutra do dispositivo é determinada em rela-ção à pelo menos um terceiro eixo ortogonal ao primeiro eixo e ao segundoeixo eonde o deslocamento angular inclui um componente do terceiroeixo.
5. Método de acordo com a reivindicação 1, no qual o primeirocontrole é associado com pelo menos três sinais de saída.
6. Método de acordo com a reivindicação 5, no qual o primeirocontrole é associado com pelo menos nove sinais de saída.
7. Método de acordo com a reivindicação 1, no qual cada um dapluralidade de sinais de saída corresponde com um caractere.
8. Método de acordo com a reivindicação 7, no qual cada um dapluralidade de sinais de saída corresponde com um caractere alfanumérico.
9. Método de acordo com a reivindicação 1, também compreen-dendo exibir o sinal de saída.
10. Método de acordo com a reivindicação 1, também compre-endendo exibir uma indicação do deslocamento angular.
11. Método de acordo com a reivindicação 1, também compre-endendo definir uma pluralidade de regiões de inclinação ao redor do primei-ro eixo, onde um da primeira pluralidade de sinais de saída é também forne-cido como saída com base na pluralidade de regiões de inclinação.
12. Método de acordo com a reivindicação 12, no qual o deslo-camento angular do dispositivo ao redor do primeiro eixo é medido como 0o,e onde uma primeira região de inclinação abrange um deslocamento angularde 0o.
13. Método de acordo com a reivindicação 12, no qual uma pri-meira região de inclinação é definida como uma região abrangendo -30° a 0oao redor do primeiro eixo e no qual uma segunda região de inclinação é de-finida como uma região abrangendo 0o a +30° ao redor do primeiro eixo.
14. Método de acordo com a reivindicação 12,no qual um primeiro sinal de saída é fornecido como saída se odeslocamento angular está dentro da primeira região de inclinação quando aseleção é recebida eno qual um segundo sinal de saída é fornecido como saída se odeslocamento angular está dentro da segunda região de inclinação quando aseleção é recebida.
15. Método de acordo com a reivindicação 15, no qual um tercei-ro ou quarto sinal de saída é fornecido como saída se o deslocamento angu-lar está dentro da terceira ou quarta região de inclinação, respectivamente,quando a seleção é recebida.
16. Método de acordo com a reivindicação 2, também compre-endendo definir uma pluralidade de regiões de inclinação do primeiro eixo aoredor do primeiro eixo e uma pluralidade de regiões de inclinação do segun-do eixo ao redor do segundo eixo, onde o um da primeira pluralidade de si-nais de saída é também fornecido como saída com base na pluralidade deregiões de inclinação do primeiro eixo e/ou na pluralidade de regiões de in-clinação do segundo eixo.
17.
18. Método de acordo com a reivindicação 17,no qual quando a seleção é recebida:um primeiro sinal de saída é fornecido como saída se o compo-nente do primeiro eixo está dentro de uma primeira região de inclinação doprimeiro eixo e se o componente do segundo eixo está dentro de uma pri-meira região de inclinação do segundo eixo,- um segundo-sinal de saída é fornecido como saída se o com-ponente do primeiro eixo está dentro de uma segunda região de inclinaçãodo primeiro eixo e se o componente do segundo eixo está dentro da primeiraregião de inclinação do segundo eixo,um terceiro sinal de saída é fornecido como saída se o compo-nente do primeiro eixo está dentro da segunda região de inclinação do pri-meiro eixo e se o componente do segundo eixo está dentro de uma segundaregião de inclinação do segundo eixo e/ouum quarto sinal de saída é fornecido como saída se o compo-nente do primeiro eixo está dentro da segunda região de inclinação do pri-meiro eixo e se o componente do segundo eixo está dentro da segunda re-gião de inclinação o segundo eixo.
19. Método de acordo com a reivindicação 17,no qual quando a seleção é recebida:um primeiro sinal de saída é fornecido como saída se o primeirocomponente está dentro de uma primeira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro de uma primeira regiãode inclinação do segundo eixo,um segundo sinal de saída é fornecido como saída se o primeirocomponente está dentro da primeira região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro de uma segunda região deinclinação do segundo eixo,um terceiro sinal de saída é fornecido como saída se o primeirocomponente está dentro da primeira região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro de uma terceira região deinclinação do segundo eixo,um quarto sinal de saída é fornecido como saída se o primeirocomponente está dentro de uma segunda região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da primeira região deinclinação do segundo eixo,um quinto sinal de saída é fornecido como saída se o primeirocomponente está dentro da segunda região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro da segunda região de inclina-ção do segundo eixo,um sexto sinal de saída é fornecido como saída se o primeirocomponente está dentro da segunda região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro da terceira região de inclina-ção do segundo eixo,um sétimo sinal de saída é fornecido como saída se o primeirocomponente está dentro de uma terceira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da primeira região deinclinação do segundo eixo,um oitavo sinal de saída é fornecido como saída se o primeirocomponente está dentro da terceira região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro da segunda região de inclina-ção do segundo eixo, e/ouum nono sinal de saída é fornecido como saída se o primeirocomponente está dentro da terceira região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro da terceira região de inclina-ção do segundo eixo.
20. Dispositivo compreendendo:um sensor de inclinação configurado para determinar uma posi-ção neutra de um dispositivo em relação à pelo menos um primeiro eixo etambém configurado para medir o deslocamento angular do dispositivo aoredor de pelo menos o primeiro eixo,pelo menos um primeiro controle associado com uma primeirapluralidade de sinais de saída eum processador configurado para receber uma seleção do pri-meiro controle e também configurado para fornecer como saída um da pri-meira pluralidade de sinais de saída com base pelo menos na seleção e nodeslocamento angular.
21. Dispositivo de acordo com a reivindicação 20,no qual o sensor de inclinação determina a posição neutra dodispositivo em relação à pelo menos um segundo eixo, ortogonal ao primeiroeixo eno qual o deslocamento angular inclui um componente do pri-meiro eixo e um componente do segundo eixo.
22. Dispositivo de acordo com a reivindicação 21, no qual o pri-meiro eixo e o segundo eixo se interceptam no centro do dispositivo.
23. Dispositivo de acordo com a reivindicação 20, no qual o pri-meiro eixo e o segundo eixo se interceptam em uma porção de periferia dodispositivo.
24. Dispositivo de acordo com a reivindicação 20, no qual o dis-positivo também inclui pelo menos segundo até décimo controles, cada umassociado com segunda até décima pluralidades de sinais de saída, respec-tivamente.
25. Dispositivo de acordo com a reivindicação 20, no qual o pri-meiro controle é um botão.
26. Dispositivo de acordo com a reivindicação 20, no qual o dis-positivo é um telefone.
27. Dispositivo de acordo com a reivindicação 20, no qual o sen-sor de inclinação é um giroscópio.
28. Dispositivo de acordo com a reivindicação 20, também com-preendendo um mostrador configurado para exibir o sinal de saída.
29. Dispositivo de acordo com a reivindicação 20, também com-preendendo um mostrador configurado para exibir uma indicação do deslo-camento angular.
30. Dispositivo de acordo com a reivindicação 20, também com-preendendo um teclado configurado para inserir a seleção.
31. Produto de programa de computador, armazenado de modotangível em um meio legível por computador, o produto de programa decomputador sendo operável para fazer um computador executar operaçõescompreendendo:determinar uma posição neutra de um dispositivo em relação àpelo menos um primeiro eixo, o dispositivo incluindo pelo menos um primeirocontrole associado com uma primeira pluralidade de sinais de saída,medir o ~deslocamento~angülardo~dispositivo ao redor de pelomenos o primeiro eixo,receber uma seleção do primeiro controle efornecer como saída um da primeira pluralidade de sinais de sa-ída com base pelo menos na seleção e no deslocamento angular.
32. Dispositivo de telefone compreendendo:um sensor de inclinação configurado para determinar uma posi-ção neutra do dispositivo de telefone em relação à pelo menos um eixo derolagem, e também configurado para medir o deslocamento angular do dis-positivo de telefone ao redor do eixo de rolagem,pelo menos primeiro até oitavo botões, cada um associado compelo menos quatro caracteres alfanuméricos eum processador configurado para receber uma seleção do pri-meiro botão e também configurado para fornecer como saída um do pelomenos quatro caracteres alfanuméricos com base pelo menos na seleção eno deslocamento angular.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US68147805P | 2005-05-17 | 2005-05-17 | |
US60/681,478 | 2005-05-17 | ||
PCT/US2006/018980 WO2006124935A2 (en) | 2005-05-17 | 2006-05-17 | Orientation-sensitive signal output |
Publications (1)
Publication Number | Publication Date |
---|---|
BRPI0613165A2 true BRPI0613165A2 (pt) | 2010-12-21 |
Family
ID=37432062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BRPI0613165-4A BRPI0613165A2 (pt) | 2005-05-17 | 2006-05-17 | saìda de sinal sensìvel à orientação |
Country Status (8)
Country | Link |
---|---|
US (4) | US7389591B2 (pt) |
EP (1) | EP1886509B1 (pt) |
JP (3) | JP5038296B2 (pt) |
KR (2) | KR101403172B1 (pt) |
CN (2) | CN103257684B (pt) |
BR (1) | BRPI0613165A2 (pt) |
RU (1) | RU2007146172A (pt) |
WO (1) | WO2006124935A2 (pt) |
Families Citing this family (388)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
FI117488B (fi) | 2001-05-16 | 2006-10-31 | Myorigo Sarl | Informaation selaus näytöllä |
US7159194B2 (en) * | 2001-11-30 | 2007-01-02 | Palm, Inc. | Orientation dependent functionality of an electronic device |
US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
WO2004066615A1 (en) * | 2003-01-22 | 2004-08-05 | Nokia Corporation | Image control |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US9092190B2 (en) | 2010-10-01 | 2015-07-28 | Z124 | Smartpad split screen |
CA2531524A1 (en) * | 2003-10-31 | 2005-05-12 | Iota Wireless Llc | Concurrent data entry for a portable device |
US20080129552A1 (en) * | 2003-10-31 | 2008-06-05 | Iota Wireless Llc | Concurrent data entry for a portable device |
US7400316B2 (en) * | 2004-05-28 | 2008-07-15 | International Business Machines Corporation | Method and apparatus for dynamically modifying web page display for mobile devices |
CN101536494B (zh) * | 2005-02-08 | 2017-04-26 | 奥布隆工业有限公司 | 用于基于姿势的控制系统的系统和方法 |
US20090305727A1 (en) * | 2005-03-04 | 2009-12-10 | Heikki Pylkko | Mobile device with wide range-angle optics and a radiation sensor |
US20090297062A1 (en) * | 2005-03-04 | 2009-12-03 | Molne Anders L | Mobile device with wide-angle optics and a radiation sensor |
WO2006124935A2 (en) * | 2005-05-17 | 2006-11-23 | Gesturetek, Inc. | Orientation-sensitive signal output |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8537111B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US9823747B2 (en) | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US7533569B2 (en) * | 2006-03-15 | 2009-05-19 | Qualcomm, Incorporated | Sensor-based orientation system |
WO2008094458A1 (en) | 2007-01-26 | 2008-08-07 | F-Origin, Inc. | Viewing images with tilt control on a hand-held device |
US8005238B2 (en) | 2007-03-22 | 2011-08-23 | Microsoft Corporation | Robust adaptive beamforming with enhanced noise suppression |
EP2150893A4 (en) | 2007-04-24 | 2012-08-22 | Oblong Ind Inc | PROTEINS, POOLS AND SLAWX IN PROCESSING ENVIRONMENTS |
US10504317B2 (en) | 2007-04-30 | 2019-12-10 | Cfph, Llc | Game with player actuated control structure |
EP2153377A4 (en) * | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
US8005237B2 (en) | 2007-05-17 | 2011-08-23 | Microsoft Corp. | Sensor array beamformer post-processor |
US9317110B2 (en) | 2007-05-29 | 2016-04-19 | Cfph, Llc | Game with hand motion control |
US8629976B2 (en) | 2007-10-02 | 2014-01-14 | Microsoft Corporation | Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems |
TWI350466B (en) * | 2007-11-06 | 2011-10-11 | Htc Corp | Method for inputting character |
US8418083B1 (en) | 2007-11-26 | 2013-04-09 | Sprint Communications Company L.P. | Applying a navigational mode to a device |
WO2009072240A1 (ja) * | 2007-12-07 | 2009-06-11 | Panasonic Corporation | 電子機器 |
US9495013B2 (en) | 2008-04-24 | 2016-11-15 | Oblong Industries, Inc. | Multi-modal gestural interface |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US9740922B2 (en) | 2008-04-24 | 2017-08-22 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
JP5537044B2 (ja) * | 2008-05-30 | 2014-07-02 | キヤノン株式会社 | 画像表示装置及びその制御方法、コンピュータプログラム |
EP2304527A4 (en) * | 2008-06-18 | 2013-03-27 | Oblong Ind Inc | GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES |
US8385557B2 (en) | 2008-06-19 | 2013-02-26 | Microsoft Corporation | Multichannel acoustic echo reduction |
US8325909B2 (en) | 2008-06-25 | 2012-12-04 | Microsoft Corporation | Acoustic echo suppression |
US8203699B2 (en) | 2008-06-30 | 2012-06-19 | Microsoft Corporation | System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed |
US8146020B2 (en) * | 2008-07-24 | 2012-03-27 | Qualcomm Incorporated | Enhanced detection of circular engagement gesture |
CN102165396B (zh) * | 2008-07-25 | 2014-10-29 | 高通股份有限公司 | 挥动约定姿态的增强检测 |
US20100042954A1 (en) * | 2008-08-12 | 2010-02-18 | Apple Inc. | Motion based input selection |
US8385971B2 (en) * | 2008-08-19 | 2013-02-26 | Digimarc Corporation | Methods and systems for content processing |
WO2010024415A1 (ja) * | 2008-08-28 | 2010-03-04 | 京セラ株式会社 | 通信機器 |
KR101481556B1 (ko) * | 2008-09-10 | 2015-01-13 | 엘지전자 주식회사 | 이동 단말기 및 이를 이용한 객체 표시방법 |
US20100070913A1 (en) * | 2008-09-15 | 2010-03-18 | Apple Inc. | Selecting an item of content in a graphical user interface for a portable computing device |
US9201514B1 (en) * | 2008-10-16 | 2015-12-01 | Danfoss Power Solutions Inc. | Joystick grip with integrated display |
US20100100849A1 (en) | 2008-10-22 | 2010-04-22 | Dr Systems, Inc. | User interface systems and methods |
US10345996B2 (en) | 2008-10-22 | 2019-07-09 | Merge Healthcare Solutions Inc. | User interface systems and methods |
US10768785B2 (en) | 2008-10-22 | 2020-09-08 | Merge Healthcare Solutions Inc. | Pressure sensitive manipulation of medical image data |
US10086262B1 (en) | 2008-11-12 | 2018-10-02 | David G. Capper | Video motion capture for wireless gaming |
US9586135B1 (en) | 2008-11-12 | 2017-03-07 | David G. Capper | Video motion capture for wireless gaming |
US9383814B1 (en) | 2008-11-12 | 2016-07-05 | David G. Capper | Plug and play wireless video game |
US20110216004A1 (en) * | 2010-03-08 | 2011-09-08 | David Stephenson | Tilt and position command system for input peripherals |
US20160259433A1 (en) * | 2008-11-14 | 2016-09-08 | David Stephenson | Tilt and position command system for input peripherals |
US8717283B1 (en) * | 2008-11-25 | 2014-05-06 | Sprint Communications Company L.P. | Utilizing motion of a device to manipulate a display screen feature |
US8681321B2 (en) | 2009-01-04 | 2014-03-25 | Microsoft International Holdings B.V. | Gated 3D camera |
KR101521932B1 (ko) * | 2009-01-19 | 2015-05-20 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
US8682028B2 (en) | 2009-01-30 | 2014-03-25 | Microsoft Corporation | Visual target tracking |
US8565476B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8267781B2 (en) | 2009-01-30 | 2012-09-18 | Microsoft Corporation | Visual target tracking |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US8588465B2 (en) | 2009-01-30 | 2013-11-19 | Microsoft Corporation | Visual target tracking |
US8577084B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US20100199231A1 (en) | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Predictive determination |
US7996793B2 (en) | 2009-01-30 | 2011-08-09 | Microsoft Corporation | Gesture recognizer system architecture |
US8565477B2 (en) | 2009-01-30 | 2013-10-22 | Microsoft Corporation | Visual target tracking |
US8448094B2 (en) * | 2009-01-30 | 2013-05-21 | Microsoft Corporation | Mapping a natural input device to a legacy system |
US8577085B2 (en) | 2009-01-30 | 2013-11-05 | Microsoft Corporation | Visual target tracking |
US8487938B2 (en) | 2009-01-30 | 2013-07-16 | Microsoft Corporation | Standard Gestures |
US8294767B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Body scan |
US8624962B2 (en) * | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
GB2467577A (en) * | 2009-02-06 | 2010-08-11 | Sony Corp | Handheld electronic device configured to display location of another electronic device when tilted |
US8517834B2 (en) * | 2009-02-17 | 2013-08-27 | Softkinetic Studios Sa | Computer videogame system with body position detector that requires user to assume various body positions |
US8006397B2 (en) * | 2009-03-13 | 2011-08-30 | Schubert Dick S | Remote leveling and positioning system and method |
US9464895B2 (en) | 2009-03-13 | 2016-10-11 | Otl Dynamics Llc | Remote leveling and positioning system and method |
US10502565B2 (en) | 2009-03-13 | 2019-12-10 | Otl Dynamics Llc | Leveling and positioning system and method |
US9909867B2 (en) | 2009-03-13 | 2018-03-06 | Otl Dynamics Llc | Leveling and positioning system and method |
US10480940B2 (en) | 2009-03-13 | 2019-11-19 | Otl Dynamics Llc | Leveling and positioning system and method |
US8959784B2 (en) | 2009-03-13 | 2015-02-24 | Richard S. Schubert | Remote leveling and positioning system and method |
US8773355B2 (en) | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US9256282B2 (en) | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US8988437B2 (en) | 2009-03-20 | 2015-03-24 | Microsoft Technology Licensing, Llc | Chaining animations |
US9313376B1 (en) | 2009-04-01 | 2016-04-12 | Microsoft Technology Licensing, Llc | Dynamic depth power equalization |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9317128B2 (en) | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
KR101557678B1 (ko) * | 2009-04-22 | 2015-10-19 | 삼성전자주식회사 | 휴대 단말기의 캘리브레이션 방법 및 장치 |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US8503720B2 (en) | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US8340432B2 (en) | 2009-05-01 | 2012-12-25 | Microsoft Corporation | Systems and methods for detecting a tilt angle from a depth image |
US8253746B2 (en) | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US8649554B2 (en) | 2009-05-01 | 2014-02-11 | Microsoft Corporation | Method to control perspective for a camera-controlled computer |
US9377857B2 (en) | 2009-05-01 | 2016-06-28 | Microsoft Technology Licensing, Llc | Show body position |
US9498718B2 (en) | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US8181123B2 (en) | 2009-05-01 | 2012-05-15 | Microsoft Corporation | Managing virtual port associations to users in a gesture-based computing environment |
US8660303B2 (en) | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
US9015638B2 (en) | 2009-05-01 | 2015-04-21 | Microsoft Technology Licensing, Llc | Binding users to a gesture based system and providing feedback to the users |
US8638985B2 (en) * | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US8509479B2 (en) | 2009-05-29 | 2013-08-13 | Microsoft Corporation | Virtual object |
US8320619B2 (en) | 2009-05-29 | 2012-11-27 | Microsoft Corporation | Systems and methods for tracking a model |
US9182814B2 (en) | 2009-05-29 | 2015-11-10 | Microsoft Technology Licensing, Llc | Systems and methods for estimating a non-visible or occluded body part |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US9383823B2 (en) | 2009-05-29 | 2016-07-05 | Microsoft Technology Licensing, Llc | Combining gestures beyond skeletal |
US9400559B2 (en) | 2009-05-29 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture shortcuts |
US8693724B2 (en) | 2009-05-29 | 2014-04-08 | Microsoft Corporation | Method and system implementing user-centric gesture control |
US8418085B2 (en) | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8379101B2 (en) | 2009-05-29 | 2013-02-19 | Microsoft Corporation | Environment and/or target segmentation |
US8744121B2 (en) | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8625837B2 (en) | 2009-05-29 | 2014-01-07 | Microsoft Corporation | Protocol and format for communicating an image from a camera to a computing environment |
US8487871B2 (en) | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
CN101576954A (zh) * | 2009-06-10 | 2009-11-11 | 中兴通讯股份有限公司 | 书写笔画识别装置、移动终端及实现空间书写的方法 |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
US9159151B2 (en) | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
US8264536B2 (en) | 2009-08-25 | 2012-09-11 | Microsoft Corporation | Depth-sensitive imaging via polarization-state mapping |
US9141193B2 (en) | 2009-08-31 | 2015-09-22 | Microsoft Technology Licensing, Llc | Techniques for using human gestures to control gesture unaware programs |
US8330134B2 (en) | 2009-09-14 | 2012-12-11 | Microsoft Corporation | Optical fault monitoring |
US8508919B2 (en) | 2009-09-14 | 2013-08-13 | Microsoft Corporation | Separation of electrical and optical components |
US8760571B2 (en) | 2009-09-21 | 2014-06-24 | Microsoft Corporation | Alignment of lens and image sensor |
US8428340B2 (en) | 2009-09-21 | 2013-04-23 | Microsoft Corporation | Screen space plane identification |
US8976986B2 (en) | 2009-09-21 | 2015-03-10 | Microsoft Technology Licensing, Llc | Volume adjustment based on listener position |
US9014546B2 (en) | 2009-09-23 | 2015-04-21 | Rovi Guides, Inc. | Systems and methods for automatically detecting users within detection regions of media devices |
US8452087B2 (en) | 2009-09-30 | 2013-05-28 | Microsoft Corporation | Image selection techniques |
US8723118B2 (en) | 2009-10-01 | 2014-05-13 | Microsoft Corporation | Imager for constructing color and depth images |
US8867820B2 (en) | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US9933852B2 (en) | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9400548B2 (en) | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
US8988432B2 (en) | 2009-11-05 | 2015-03-24 | Microsoft Technology Licensing, Llc | Systems and methods for processing an image for target tracking |
US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
US9244533B2 (en) | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
US20110150271A1 (en) | 2009-12-18 | 2011-06-23 | Microsoft Corporation | Motion detection using depth images |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
CN102118491B (zh) * | 2010-01-04 | 2014-04-09 | 中国移动通信集团公司 | 一种基于电子罗盘的解锁方法和设备 |
US9268404B2 (en) | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US9019201B2 (en) | 2010-01-08 | 2015-04-28 | Microsoft Technology Licensing, Llc | Evolving universal gesture sets |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US8676581B2 (en) | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Speech recognition analysis via identification information |
US8265341B2 (en) | 2010-01-25 | 2012-09-11 | Microsoft Corporation | Voice-body identity correlation |
US8864581B2 (en) | 2010-01-29 | 2014-10-21 | Microsoft Corporation | Visual based identitiy tracking |
US8891067B2 (en) | 2010-02-01 | 2014-11-18 | Microsoft Corporation | Multiple synchronized optical sources for time-of-flight range finding systems |
US8619122B2 (en) | 2010-02-02 | 2013-12-31 | Microsoft Corporation | Depth camera compatibility |
US8687044B2 (en) | 2010-02-02 | 2014-04-01 | Microsoft Corporation | Depth camera compatibility |
US8339364B2 (en) | 2010-02-03 | 2012-12-25 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
US8717469B2 (en) | 2010-02-03 | 2014-05-06 | Microsoft Corporation | Fast gating photosurface |
WO2011096203A1 (ja) | 2010-02-03 | 2011-08-11 | 任天堂株式会社 | ゲームシステム、操作装置、およびゲーム処理方法 |
US8913009B2 (en) | 2010-02-03 | 2014-12-16 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
US8814686B2 (en) | 2010-02-03 | 2014-08-26 | Nintendo Co., Ltd. | Display device, game system, and game method |
US8499257B2 (en) | 2010-02-09 | 2013-07-30 | Microsoft Corporation | Handles interactions for human—computer interface |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8522308B2 (en) * | 2010-02-11 | 2013-08-27 | Verizon Patent And Licensing Inc. | Systems and methods for providing a spatial-input-based multi-user shared display experience |
US8633890B2 (en) | 2010-02-16 | 2014-01-21 | Microsoft Corporation | Gesture detection based on joint skipping |
US20110199302A1 (en) * | 2010-02-16 | 2011-08-18 | Microsoft Corporation | Capturing screen objects using a collision volume |
US8928579B2 (en) | 2010-02-22 | 2015-01-06 | Andrew David Wilson | Interacting with an omni-directionally projected display |
US8655069B2 (en) | 2010-03-05 | 2014-02-18 | Microsoft Corporation | Updating image segmentation following user input |
US8422769B2 (en) | 2010-03-05 | 2013-04-16 | Microsoft Corporation | Image segmentation using reduced foreground training data |
US8411948B2 (en) | 2010-03-05 | 2013-04-02 | Microsoft Corporation | Up-sampling binary images for segmentation |
US20110223995A1 (en) | 2010-03-12 | 2011-09-15 | Kevin Geisner | Interacting with a computer based application |
US8279418B2 (en) | 2010-03-17 | 2012-10-02 | Microsoft Corporation | Raster scanning for depth detection |
JP5754074B2 (ja) * | 2010-03-19 | 2015-07-22 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
US8213680B2 (en) | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US8514269B2 (en) | 2010-03-26 | 2013-08-20 | Microsoft Corporation | De-aliasing depth images |
US8523667B2 (en) | 2010-03-29 | 2013-09-03 | Microsoft Corporation | Parental control settings based on body dimensions |
US8605763B2 (en) | 2010-03-31 | 2013-12-10 | Microsoft Corporation | Temperature measurement and control for laser and light-emitting diodes |
US9098873B2 (en) | 2010-04-01 | 2015-08-04 | Microsoft Technology Licensing, Llc | Motion-based interactive shopping environment |
US9646340B2 (en) | 2010-04-01 | 2017-05-09 | Microsoft Technology Licensing, Llc | Avatar-based virtual dressing room |
WO2013189058A1 (en) | 2012-06-21 | 2013-12-27 | Microsoft Corporation | Avatar construction using depth camera |
JP6203634B2 (ja) | 2010-04-09 | 2017-09-27 | ゾール メディカル コーポレイションZOLL Medical Corporation | Ems装置通信インタフェースのシステム及び方法 |
US8351651B2 (en) | 2010-04-26 | 2013-01-08 | Microsoft Corporation | Hand-location post-process refinement in a tracking system |
US8379919B2 (en) | 2010-04-29 | 2013-02-19 | Microsoft Corporation | Multiple centroid condensation of probability distribution clouds |
JP2011233064A (ja) * | 2010-04-30 | 2011-11-17 | Sony Corp | 情報処理装置及び表示画面操作方法 |
US8593402B2 (en) | 2010-04-30 | 2013-11-26 | Verizon Patent And Licensing Inc. | Spatial-input-based cursor projection systems and methods |
US8284847B2 (en) | 2010-05-03 | 2012-10-09 | Microsoft Corporation | Detecting motion for a multifunction sensor device |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
US8498481B2 (en) | 2010-05-07 | 2013-07-30 | Microsoft Corporation | Image segmentation using star-convexity constraints |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
EP2577430A4 (en) * | 2010-05-24 | 2016-03-16 | Will John Temple | MULTIDIRECTIONAL BUTTON, KEY AND KEYBOARD |
US8803888B2 (en) | 2010-06-02 | 2014-08-12 | Microsoft Corporation | Recognition system for sharing information |
US9008355B2 (en) | 2010-06-04 | 2015-04-14 | Microsoft Technology Licensing, Llc | Automatic depth camera aiming |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US9557574B2 (en) | 2010-06-08 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth illumination and detection optics |
US8330822B2 (en) | 2010-06-09 | 2012-12-11 | Microsoft Corporation | Thermally-tuned depth camera light source |
US9384329B2 (en) | 2010-06-11 | 2016-07-05 | Microsoft Technology Licensing, Llc | Caloric burn determination from body movement |
US8675981B2 (en) | 2010-06-11 | 2014-03-18 | Microsoft Corporation | Multi-modal gender recognition including depth data |
US8749557B2 (en) | 2010-06-11 | 2014-06-10 | Microsoft Corporation | Interacting with user interface via avatar |
US8982151B2 (en) | 2010-06-14 | 2015-03-17 | Microsoft Technology Licensing, Llc | Independently processing planes of display data |
US8670029B2 (en) | 2010-06-16 | 2014-03-11 | Microsoft Corporation | Depth camera illuminator with superluminescent light-emitting diode |
US8558873B2 (en) | 2010-06-16 | 2013-10-15 | Microsoft Corporation | Use of wavefront coding to create a depth image |
US8296151B2 (en) | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8381108B2 (en) | 2010-06-21 | 2013-02-19 | Microsoft Corporation | Natural user input for driving interactive stories |
US8416187B2 (en) | 2010-06-22 | 2013-04-09 | Microsoft Corporation | Item navigation using motion-capture data |
JP6243586B2 (ja) | 2010-08-06 | 2017-12-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
US9075434B2 (en) | 2010-08-20 | 2015-07-07 | Microsoft Technology Licensing, Llc | Translating user motion into multiple object responses |
US10150033B2 (en) | 2010-08-20 | 2018-12-11 | Nintendo Co., Ltd. | Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method |
JP5840385B2 (ja) | 2010-08-30 | 2016-01-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
JP5840386B2 (ja) | 2010-08-30 | 2016-01-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
US8613666B2 (en) | 2010-08-31 | 2013-12-24 | Microsoft Corporation | User selection and navigation based on looped motions |
US9164542B2 (en) * | 2010-08-31 | 2015-10-20 | Symbol Technologies, Llc | Automated controls for sensor enabled user interface |
US9167289B2 (en) | 2010-09-02 | 2015-10-20 | Verizon Patent And Licensing Inc. | Perspective display systems and methods |
US20120058824A1 (en) | 2010-09-07 | 2012-03-08 | Microsoft Corporation | Scalable real-time motion recognition |
US8437506B2 (en) | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
US8988508B2 (en) | 2010-09-24 | 2015-03-24 | Microsoft Technology Licensing, Llc. | Wide angle field of view active illumination imaging system |
US8681255B2 (en) | 2010-09-28 | 2014-03-25 | Microsoft Corporation | Integrated low power depth camera and projection device |
US9405444B2 (en) | 2010-10-01 | 2016-08-02 | Z124 | User interface with independent drawer control |
US8548270B2 (en) | 2010-10-04 | 2013-10-01 | Microsoft Corporation | Time-of-flight depth imaging |
WO2012048252A1 (en) | 2010-10-07 | 2012-04-12 | Aria Glassworks, Inc. | System and method for transitioning between interface modes in virtual and augmented reality applications |
US9484065B2 (en) | 2010-10-15 | 2016-11-01 | Microsoft Technology Licensing, Llc | Intelligent determination of replays based on event identification |
US8957856B2 (en) | 2010-10-21 | 2015-02-17 | Verizon Patent And Licensing Inc. | Systems, methods, and apparatuses for spatial input associated with a display |
KR101364826B1 (ko) | 2010-11-01 | 2014-02-20 | 닌텐도가부시키가이샤 | 조작 장치 및 조작 시스템 |
US8592739B2 (en) | 2010-11-02 | 2013-11-26 | Microsoft Corporation | Detection of configuration changes of an optical element in an illumination system |
US8866889B2 (en) | 2010-11-03 | 2014-10-21 | Microsoft Corporation | In-home depth camera calibration |
US8667519B2 (en) | 2010-11-12 | 2014-03-04 | Microsoft Corporation | Automatic passive and anonymous feedback system |
US10726861B2 (en) | 2010-11-15 | 2020-07-28 | Microsoft Technology Licensing, Llc | Semi-private communication in open environments |
US9349040B2 (en) | 2010-11-19 | 2016-05-24 | Microsoft Technology Licensing, Llc | Bi-modal depth-image analysis |
US9041743B2 (en) | 2010-11-24 | 2015-05-26 | Aria Glassworks, Inc. | System and method for presenting virtual and augmented reality scenes to a user |
US9070219B2 (en) | 2010-11-24 | 2015-06-30 | Aria Glassworks, Inc. | System and method for presenting virtual and augmented reality scenes to a user |
WO2012071466A2 (en) | 2010-11-24 | 2012-05-31 | Aria Glassworks, Inc. | System and method for acquiring virtual and augmented reality scenes by a user |
US10234545B2 (en) | 2010-12-01 | 2019-03-19 | Microsoft Technology Licensing, Llc | Light source module |
US8553934B2 (en) | 2010-12-08 | 2013-10-08 | Microsoft Corporation | Orienting the position of a sensor |
US8618405B2 (en) | 2010-12-09 | 2013-12-31 | Microsoft Corp. | Free-space gesture musical instrument digital interface (MIDI) controller |
US8408706B2 (en) | 2010-12-13 | 2013-04-02 | Microsoft Corporation | 3D gaze tracker |
US8884968B2 (en) | 2010-12-15 | 2014-11-11 | Microsoft Corporation | Modeling an object from image data |
US8920241B2 (en) | 2010-12-15 | 2014-12-30 | Microsoft Corporation | Gesture controlled persistent handles for interface guides |
US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
US8448056B2 (en) | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
US8797350B2 (en) | 2010-12-20 | 2014-08-05 | Dr Systems, Inc. | Dynamic customizable human-computer interaction behavior |
US8803952B2 (en) | 2010-12-20 | 2014-08-12 | Microsoft Corporation | Plural detector time-of-flight depth mapping |
US9848106B2 (en) | 2010-12-21 | 2017-12-19 | Microsoft Technology Licensing, Llc | Intelligent gameplay photo capture |
US9823339B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Plural anode time-of-flight sensor |
US9821224B2 (en) | 2010-12-21 | 2017-11-21 | Microsoft Technology Licensing, Llc | Driving simulator control with virtual skeleton |
US8994718B2 (en) | 2010-12-21 | 2015-03-31 | Microsoft Technology Licensing, Llc | Skeletal control of three-dimensional virtual world |
US8385596B2 (en) | 2010-12-21 | 2013-02-26 | Microsoft Corporation | First person shooter control with virtual skeleton |
US9123316B2 (en) | 2010-12-27 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive content creation |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
US8953022B2 (en) | 2011-01-10 | 2015-02-10 | Aria Glassworks, Inc. | System and method for sharing virtual and augmented reality scenes between users and viewers |
US8587583B2 (en) | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US8401242B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Real-time camera tracking using depth maps |
US9247238B2 (en) | 2011-01-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Reducing interference between multiple infra-red depth cameras |
US8401225B2 (en) | 2011-01-31 | 2013-03-19 | Microsoft Corporation | Moving object segmentation using depth images |
US8724887B2 (en) | 2011-02-03 | 2014-05-13 | Microsoft Corporation | Environmental modifications to mitigate environmental factors |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8497838B2 (en) | 2011-02-16 | 2013-07-30 | Microsoft Corporation | Push actuation of interface controls |
US9118970B2 (en) | 2011-03-02 | 2015-08-25 | Aria Glassworks, Inc. | System and method for embedding and viewing media files within a virtual and augmented reality scene |
US9551914B2 (en) | 2011-03-07 | 2017-01-24 | Microsoft Technology Licensing, Llc | Illuminator with refractive optical element |
US9067136B2 (en) | 2011-03-10 | 2015-06-30 | Microsoft Technology Licensing, Llc | Push personalization of interface controls |
US8571263B2 (en) | 2011-03-17 | 2013-10-29 | Microsoft Corporation | Predicting joint positions |
US8340696B2 (en) * | 2011-03-25 | 2012-12-25 | Sony Mobile Communications Japan, Inc. | Mobile terminal device |
US9470778B2 (en) | 2011-03-29 | 2016-10-18 | Microsoft Technology Licensing, Llc | Learning from high quality depth measurements |
US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
JP4966421B1 (ja) * | 2011-03-31 | 2012-07-04 | 株式会社東芝 | 情報処理装置及び情報処理方法 |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
US8824749B2 (en) | 2011-04-05 | 2014-09-02 | Microsoft Corporation | Biometric recognition |
US8503494B2 (en) | 2011-04-05 | 2013-08-06 | Microsoft Corporation | Thermal management system |
JP5689014B2 (ja) | 2011-04-07 | 2015-03-25 | 任天堂株式会社 | 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法 |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US8702507B2 (en) | 2011-04-28 | 2014-04-22 | Microsoft Corporation | Manual and camera-based avatar control |
US9259643B2 (en) | 2011-04-28 | 2016-02-16 | Microsoft Technology Licensing, Llc | Control of separate computer game elements |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US8888331B2 (en) | 2011-05-09 | 2014-11-18 | Microsoft Corporation | Low inductance light source module |
US9137463B2 (en) | 2011-05-12 | 2015-09-15 | Microsoft Technology Licensing, Llc | Adaptive high dynamic range camera |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
CN102778946A (zh) * | 2011-05-13 | 2012-11-14 | 英华达(南京)科技有限公司 | 重力感测输入系统及其方法 |
US8788973B2 (en) | 2011-05-23 | 2014-07-22 | Microsoft Corporation | Three-dimensional gesture controlled avatar configuration interface |
KR101878141B1 (ko) * | 2011-05-30 | 2018-07-13 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US9594430B2 (en) | 2011-06-01 | 2017-03-14 | Microsoft Technology Licensing, Llc | Three-dimensional foreground selection for vision system |
US8526734B2 (en) | 2011-06-01 | 2013-09-03 | Microsoft Corporation | Three-dimensional background removal for vision system |
JP5869236B2 (ja) | 2011-06-03 | 2016-02-24 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
JP5937792B2 (ja) * | 2011-06-03 | 2016-06-22 | 任天堂株式会社 | ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法 |
US8597142B2 (en) | 2011-06-06 | 2013-12-03 | Microsoft Corporation | Dynamic camera based practice mode |
US8929612B2 (en) | 2011-06-06 | 2015-01-06 | Microsoft Corporation | System for recognizing an open or closed hand |
US9208571B2 (en) | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
US8897491B2 (en) | 2011-06-06 | 2014-11-25 | Microsoft Corporation | System for finger recognition and tracking |
US10796494B2 (en) | 2011-06-06 | 2020-10-06 | Microsoft Technology Licensing, Llc | Adding attributes to virtual representations of real-world objects |
US9098110B2 (en) | 2011-06-06 | 2015-08-04 | Microsoft Technology Licensing, Llc | Head rotation tracking from depth-based center of mass |
US9013489B2 (en) | 2011-06-06 | 2015-04-21 | Microsoft Technology Licensing, Llc | Generation of avatar reflecting player appearance |
US9724600B2 (en) | 2011-06-06 | 2017-08-08 | Microsoft Technology Licensing, Llc | Controlling objects in a virtual environment |
US9597587B2 (en) | 2011-06-08 | 2017-03-21 | Microsoft Technology Licensing, Llc | Locational node device |
US8786730B2 (en) | 2011-08-18 | 2014-07-22 | Microsoft Corporation | Image exposure using exclusion regions |
US20130076654A1 (en) | 2011-09-27 | 2013-03-28 | Imerj LLC | Handset states and state diagrams: open, closed transitional and easel |
US9557836B2 (en) | 2011-11-01 | 2017-01-31 | Microsoft Technology Licensing, Llc | Depth image compression |
US9117281B2 (en) | 2011-11-02 | 2015-08-25 | Microsoft Corporation | Surface segmentation from RGB and depth images |
US8854426B2 (en) | 2011-11-07 | 2014-10-07 | Microsoft Corporation | Time-of-flight camera with guided light |
US8724906B2 (en) | 2011-11-18 | 2014-05-13 | Microsoft Corporation | Computing pose and/or shape of modifiable entities |
US8509545B2 (en) | 2011-11-29 | 2013-08-13 | Microsoft Corporation | Foreground subject detection |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US8803800B2 (en) | 2011-12-02 | 2014-08-12 | Microsoft Corporation | User interface control based on head orientation |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US8971612B2 (en) | 2011-12-15 | 2015-03-03 | Microsoft Corporation | Learning image processing tasks from scene reconstructions |
US8879831B2 (en) | 2011-12-15 | 2014-11-04 | Microsoft Corporation | Using high-level attributes to guide image processing |
US8630457B2 (en) | 2011-12-15 | 2014-01-14 | Microsoft Corporation | Problem states for pose tracking pipeline |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
US9342139B2 (en) | 2011-12-19 | 2016-05-17 | Microsoft Technology Licensing, Llc | Pairing a computing device to a user |
US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
CN104185864B (zh) * | 2012-02-14 | 2017-04-12 | 许丕文 | 智能标识系统 |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
US9210401B2 (en) | 2012-05-03 | 2015-12-08 | Microsoft Technology Licensing, Llc | Projected visual cues for guiding physical movement |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
US8732974B2 (en) * | 2012-05-16 | 2014-05-27 | Symbol Technologies, Inc. | Dimensioning accessory for mobile device |
US9836590B2 (en) | 2012-06-22 | 2017-12-05 | Microsoft Technology Licensing, Llc | Enhanced accuracy of user presence status determination |
US8532675B1 (en) | 2012-06-27 | 2013-09-10 | Blackberry Limited | Mobile communication device user interface for manipulation of data items in a physical space |
US9696427B2 (en) | 2012-08-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Wide angle depth detection |
CN103631469B (zh) * | 2012-08-21 | 2016-10-05 | 联想(北京)有限公司 | 显示图标的处理方法、装置及电子设备 |
US9676073B2 (en) | 2012-09-20 | 2017-06-13 | Otl Dynamics Llc | Work-tool control system and method |
JP2015533248A (ja) | 2012-09-28 | 2015-11-19 | ゾール メディカル コーポレイションZOLL Medical Corporation | Ems環境内で三次元対話をモニタするためのシステム及び方法 |
US9626799B2 (en) | 2012-10-02 | 2017-04-18 | Aria Glassworks, Inc. | System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display |
US8774855B2 (en) * | 2012-11-09 | 2014-07-08 | Futurewei Technologies, Inc. | Method to estimate head relative handset location |
US8882310B2 (en) | 2012-12-10 | 2014-11-11 | Microsoft Corporation | Laser die light source module with low inductance |
US9857470B2 (en) | 2012-12-28 | 2018-01-02 | Microsoft Technology Licensing, Llc | Using photometric stereo for 3D environment modeling |
US9942387B2 (en) | 2013-01-04 | 2018-04-10 | Nokia Technologies Oy | Method and apparatus for sensing flexing of a device |
US9568713B2 (en) | 2013-01-05 | 2017-02-14 | Light Labs Inc. | Methods and apparatus for using multiple optical chains in parallel to support separate color-capture |
US8914986B1 (en) * | 2013-01-16 | 2014-12-23 | The Boeing Company | Inclinometer device and method of manufacture |
US9251590B2 (en) | 2013-01-24 | 2016-02-02 | Microsoft Technology Licensing, Llc | Camera pose estimation for 3D reconstruction |
US9052746B2 (en) | 2013-02-15 | 2015-06-09 | Microsoft Technology Licensing, Llc | User center-of-mass and mass distribution extraction using depth images |
US9940553B2 (en) | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
US9135516B2 (en) | 2013-03-08 | 2015-09-15 | Microsoft Technology Licensing, Llc | User body angle, curvature and average extremity positions extraction using depth images |
US9092657B2 (en) | 2013-03-13 | 2015-07-28 | Microsoft Technology Licensing, Llc | Depth image processing |
US10769852B2 (en) | 2013-03-14 | 2020-09-08 | Aria Glassworks, Inc. | Method for simulating natural perception in virtual and augmented reality scenes |
US9274606B2 (en) | 2013-03-14 | 2016-03-01 | Microsoft Technology Licensing, Llc | NUI video conference controls |
US9953213B2 (en) | 2013-03-27 | 2018-04-24 | Microsoft Technology Licensing, Llc | Self discovery of autonomous NUI devices |
US9442186B2 (en) | 2013-05-13 | 2016-09-13 | Microsoft Technology Licensing, Llc | Interference reduction for TOF systems |
US9459121B2 (en) * | 2013-05-21 | 2016-10-04 | DigiPas USA, LLC | Angle measuring device and methods for calibration |
US9829984B2 (en) | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
US9462253B2 (en) | 2013-09-23 | 2016-10-04 | Microsoft Technology Licensing, Llc | Optical modules that reduce speckle contrast and diffraction artifacts |
US9443310B2 (en) | 2013-10-09 | 2016-09-13 | Microsoft Technology Licensing, Llc | Illumination modules that emit structured light |
US9325906B2 (en) | 2013-10-18 | 2016-04-26 | The Lightco Inc. | Methods and apparatus relating to a thin camera device |
US9551854B2 (en) | 2013-10-18 | 2017-01-24 | Light Labs Inc. | Methods and apparatus for controlling sensors to capture images in a synchronized manner |
US9374514B2 (en) | 2013-10-18 | 2016-06-21 | The Lightco Inc. | Methods and apparatus relating to a camera including multiple optical chains |
US9736365B2 (en) | 2013-10-26 | 2017-08-15 | Light Labs Inc. | Zoom related methods and apparatus |
US9686471B2 (en) | 2013-11-01 | 2017-06-20 | Light Labs Inc. | Methods and apparatus relating to image stabilization |
US9674563B2 (en) | 2013-11-04 | 2017-06-06 | Rovi Guides, Inc. | Systems and methods for recommending content |
US9769459B2 (en) | 2013-11-12 | 2017-09-19 | Microsoft Technology Licensing, Llc | Power efficient laser diode driver circuit and method |
US9508385B2 (en) | 2013-11-21 | 2016-11-29 | Microsoft Technology Licensing, Llc | Audio-visual project generator |
US9383818B2 (en) * | 2013-12-27 | 2016-07-05 | Google Technology Holdings LLC | Method and system for tilt-based actuation |
US9607319B2 (en) | 2013-12-30 | 2017-03-28 | Adtile Technologies, Inc. | Motion and gesture-based mobile advertising activation |
US9554031B2 (en) | 2013-12-31 | 2017-01-24 | Light Labs Inc. | Camera focusing related methods and apparatus |
US10931866B2 (en) | 2014-01-05 | 2021-02-23 | Light Labs Inc. | Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture |
US9971491B2 (en) | 2014-01-09 | 2018-05-15 | Microsoft Technology Licensing, Llc | Gesture library for natural user input |
US9979878B2 (en) | 2014-02-21 | 2018-05-22 | Light Labs Inc. | Intuitive camera user interface methods and apparatus |
US10977864B2 (en) | 2014-02-21 | 2021-04-13 | Dropbox, Inc. | Techniques for capturing and displaying partial motion in virtual or augmented reality scenes |
US20150241713A1 (en) * | 2014-02-21 | 2015-08-27 | The Lightco Inc. | Camera holder methods and apparatus |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
EP3164831A4 (en) | 2014-07-04 | 2018-02-14 | Light Labs Inc. | Methods and apparatus relating to detection and/or indicating a dirty lens condition |
TWI584154B (zh) * | 2014-07-08 | 2017-05-21 | 拓連科技股份有限公司 | 以角度為基礎之項目決定方法及系統,及相關電腦程式產品 |
WO2016007799A1 (en) | 2014-07-09 | 2016-01-14 | The Lightco Inc. | Camera device including multiple optical chains and related methods |
WO2016061565A1 (en) | 2014-10-17 | 2016-04-21 | The Lightco Inc. | Methods and apparatus for using a camera device to support multiple modes of operation |
US20160138215A1 (en) * | 2014-11-18 | 2016-05-19 | O'Neill LLC | Method and material for improving the internal grip in gloves and clothing |
EP3235243A4 (en) | 2014-12-17 | 2018-06-20 | Light Labs Inc. | Methods and apparatus for implementing and using camera devices |
US9544503B2 (en) | 2014-12-30 | 2017-01-10 | Light Labs Inc. | Exposure control methods and apparatus |
KR20160109304A (ko) * | 2015-03-10 | 2016-09-21 | 삼성전자주식회사 | 원격 조정 장치 및 원격 조정 장치의 화면 제어방법 |
US9824427B2 (en) | 2015-04-15 | 2017-11-21 | Light Labs Inc. | Methods and apparatus for generating a sharp image |
US10075651B2 (en) | 2015-04-17 | 2018-09-11 | Light Labs Inc. | Methods and apparatus for capturing images using multiple camera modules in an efficient manner |
US9967535B2 (en) | 2015-04-17 | 2018-05-08 | Light Labs Inc. | Methods and apparatus for reducing noise in images |
US9857584B2 (en) | 2015-04-17 | 2018-01-02 | Light Labs Inc. | Camera device methods, apparatus and components |
US10091447B2 (en) | 2015-04-17 | 2018-10-02 | Light Labs Inc. | Methods and apparatus for synchronizing readout of multiple image sensors |
US9930233B2 (en) | 2015-04-22 | 2018-03-27 | Light Labs Inc. | Filter mounting methods and apparatus and related camera apparatus |
US10129483B2 (en) | 2015-06-23 | 2018-11-13 | Light Labs Inc. | Methods and apparatus for implementing zoom using one or more moveable camera modules |
US10491806B2 (en) | 2015-08-03 | 2019-11-26 | Light Labs Inc. | Camera device control related methods and apparatus |
US10365480B2 (en) | 2015-08-27 | 2019-07-30 | Light Labs Inc. | Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices |
US10051182B2 (en) | 2015-10-05 | 2018-08-14 | Light Labs Inc. | Methods and apparatus for compensating for motion and/or changing light conditions during image capture |
US9749549B2 (en) | 2015-10-06 | 2017-08-29 | Light Labs Inc. | Methods and apparatus for facilitating selective blurring of one or more image portions |
US10437463B2 (en) | 2015-10-16 | 2019-10-08 | Lumini Corporation | Motion-based graphical input system |
US10225445B2 (en) | 2015-12-18 | 2019-03-05 | Light Labs Inc. | Methods and apparatus for providing a camera lens or viewing point indicator |
US10003738B2 (en) | 2015-12-18 | 2018-06-19 | Light Labs Inc. | Methods and apparatus for detecting and/or indicating a blocked sensor or camera module |
US10412280B2 (en) | 2016-02-10 | 2019-09-10 | Microsoft Technology Licensing, Llc | Camera with light valve over sensor array |
US10257932B2 (en) | 2016-02-16 | 2019-04-09 | Microsoft Technology Licensing, Llc. | Laser diode chip on printed circuit board |
US10462452B2 (en) | 2016-03-16 | 2019-10-29 | Microsoft Technology Licensing, Llc | Synchronizing active illumination cameras |
US10306218B2 (en) | 2016-03-22 | 2019-05-28 | Light Labs Inc. | Camera calibration apparatus and methods |
US10529302B2 (en) | 2016-07-07 | 2020-01-07 | Oblong Industries, Inc. | Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold |
US9983687B1 (en) | 2017-01-06 | 2018-05-29 | Adtile Technologies Inc. | Gesture-controlled augmented reality experience using a mobile communications device |
US11068530B1 (en) * | 2018-11-02 | 2021-07-20 | Shutterstock, Inc. | Context-based image selection for electronic media |
Family Cites Families (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI88345C (fi) * | 1991-01-29 | 1993-04-26 | Nokia Mobile Phones Ltd | Belyst tastatur |
JPH06511340A (ja) | 1991-10-04 | 1994-12-15 | マイクロメッド・システムズ・インコーポレイテッド | ポケット大のコンピュータ入力装置および方法 |
EP0547742B1 (en) | 1991-12-19 | 1995-12-13 | Motorola, Inc. | Triaxial accelerometer |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US6906700B1 (en) | 1992-03-05 | 2005-06-14 | Anascape | 3D controller with vibration |
US5453758A (en) | 1992-07-31 | 1995-09-26 | Sony Corporation | Input apparatus |
USRE38420E1 (en) | 1992-08-12 | 2004-02-10 | British Broadcasting Corporation | Derivation of studio camera position and motion from the camera image |
US5435554A (en) | 1993-03-08 | 1995-07-25 | Atari Games Corporation | Baseball simulation system |
US5297061A (en) | 1993-05-19 | 1994-03-22 | University Of Maryland | Three dimensional pointing device monitored by computer vision |
JP3391841B2 (ja) | 1993-05-26 | 2003-03-31 | 松下電工株式会社 | 半導体加速度センサ |
US5612690A (en) * | 1993-06-03 | 1997-03-18 | Levy; David | Compact keypad system and method |
JP3727954B2 (ja) | 1993-11-10 | 2005-12-21 | キヤノン株式会社 | 撮像装置 |
DE4415167A1 (de) | 1994-04-29 | 1995-11-02 | Siemens Ag | Telekommunikationsanordnung zum Übertragen von Bildern |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US6127990A (en) | 1995-11-28 | 2000-10-03 | Vega Vista, Inc. | Wearable display and methods for controlling same |
US6624824B1 (en) | 1996-04-30 | 2003-09-23 | Sun Microsystems, Inc. | Tilt-scrolling on the sunpad |
US5758267A (en) | 1996-07-08 | 1998-05-26 | Motorola, Inc. | Method and apparatus for orientation controlled parameter selection |
US6075905A (en) | 1996-07-17 | 2000-06-13 | Sarnoff Corporation | Method and apparatus for mosaic image construction |
JPH1049290A (ja) | 1996-08-05 | 1998-02-20 | Sony Corp | 情報処理装置および方法 |
US6104840A (en) | 1996-11-08 | 2000-08-15 | Ricoh Company, Ltd. | Method and system for generating a composite image from partially overlapping adjacent images taken along a plurality of axes |
US6482795B1 (en) * | 1997-01-30 | 2002-11-19 | Myriad Genetics, Inc. | Tumor suppressor designated TS10q23.3 |
IL121005A (en) * | 1997-06-05 | 2000-02-17 | M V T Multi Vision Tech Ltd | Display units |
JP3120779B2 (ja) | 1998-04-24 | 2000-12-25 | 日本電気株式会社 | ディスプレイ表示のスクロール方式 |
GB9810399D0 (en) * | 1998-05-14 | 1998-07-15 | Rue De Int Ltd | Holographic security device |
JPH11345077A (ja) * | 1998-05-29 | 1999-12-14 | Brother Ind Ltd | データの選択入力装置 |
US6072496A (en) | 1998-06-08 | 2000-06-06 | Microsoft Corporation | Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects |
US6377700B1 (en) | 1998-06-30 | 2002-04-23 | Intel Corporation | Method and apparatus for capturing stereoscopic images using image sensors |
US6256021B1 (en) * | 1998-09-15 | 2001-07-03 | Ericsson Inc. | Apparatus and method of configuring target areas within a touchable item of a touchscreen |
US6628819B1 (en) | 1998-10-09 | 2003-09-30 | Ricoh Company, Ltd. | Estimation of 3-dimensional shape from image sequence |
US6259436B1 (en) * | 1998-12-22 | 2001-07-10 | Ericsson Inc. | Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch |
US6201554B1 (en) | 1999-01-12 | 2001-03-13 | Ericsson Inc. | Device control apparatus for hand-held data processing device |
US7015950B1 (en) | 1999-05-11 | 2006-03-21 | Pryor Timothy R | Picture taking method and apparatus |
JP3847058B2 (ja) | 1999-10-04 | 2006-11-15 | 任天堂株式会社 | ゲームシステム及びそれに用いられるゲーム情報記憶媒体 |
US6567101B1 (en) | 1999-10-13 | 2003-05-20 | Gateway, Inc. | System and method utilizing motion input for manipulating a display of data |
US7187412B1 (en) | 2000-01-18 | 2007-03-06 | Hewlett-Packard Development Company, L.P. | Pointing device for digital camera display |
US6535114B1 (en) | 2000-03-22 | 2003-03-18 | Toyota Jidosha Kabushiki Kaisha | Method and apparatus for environment recognition |
US6861946B2 (en) | 2000-05-17 | 2005-03-01 | Caveo Technology Llc. | Motion-based input system for handheld devices |
US6731227B2 (en) | 2000-06-06 | 2004-05-04 | Kenichi Horie | Qwerty type ten-key board based character input device |
JP2002016945A (ja) * | 2000-06-29 | 2002-01-18 | Toppan Printing Co Ltd | 画像軽量化手法を用いた三次元画像表現システム |
US7302280B2 (en) * | 2000-07-17 | 2007-11-27 | Microsoft Corporation | Mobile phone operation based upon context sensing |
US7289102B2 (en) * | 2000-07-17 | 2007-10-30 | Microsoft Corporation | Method and apparatus using multiple sensors in a device with a display |
US8120625B2 (en) * | 2000-07-17 | 2012-02-21 | Microsoft Corporation | Method and apparatus using multiple sensors in a device with a display |
US6529144B1 (en) | 2000-09-22 | 2003-03-04 | Motorola Inc. | Method and apparatus for motion activated control of an electronic device |
JP2002164990A (ja) * | 2000-11-28 | 2002-06-07 | Kyocera Corp | 携帯通信端末装置 |
US6690358B2 (en) * | 2000-11-30 | 2004-02-10 | Alan Edward Kaplan | Display control for hand-held devices |
JP2002169645A (ja) * | 2000-12-01 | 2002-06-14 | Toshiba Corp | 移動通信端末 |
US20020153188A1 (en) | 2000-12-08 | 2002-10-24 | Brandt Kenneth A. | Selectable control parameters on a power machine with four-wheel steering |
JP4635342B2 (ja) | 2001-01-10 | 2011-02-23 | ソニー株式会社 | 情報処理端末および方法 |
US7176440B2 (en) | 2001-01-19 | 2007-02-13 | Honeywell International Inc. | Method and apparatus for detecting objects using structured light patterns |
DE20221078U1 (de) | 2001-02-28 | 2004-12-23 | Beckmann, Jürgen, Dr. | Eingabevorrichtung, insbesondere für ein Mobiltelefon |
JP2002278671A (ja) * | 2001-03-16 | 2002-09-27 | Just Syst Corp | 文字列変換装置、文字列変換方法およびその方法をコンピュータに実行させるプログラム |
JP2002290793A (ja) | 2001-03-28 | 2002-10-04 | Mitsubishi Electric Corp | 撮像装置付携帯電話器 |
US6798429B2 (en) | 2001-03-29 | 2004-09-28 | Intel Corporation | Intuitive mobile device interface to virtual spaces |
US7061628B2 (en) | 2001-06-27 | 2006-06-13 | Southwest Research Institute | Non-contact apparatus and method for measuring surface profile |
GB2378878B (en) | 2001-06-28 | 2005-10-05 | Ubinetics Ltd | A handheld display device |
US6847351B2 (en) * | 2001-08-13 | 2005-01-25 | Siemens Information And Communication Mobile, Llc | Tilt-based pointing for hand-held devices |
JP2003114752A (ja) * | 2001-10-05 | 2003-04-18 | Toshiba Corp | 携帯情報端末装置及びその制御方法 |
US6816151B2 (en) | 2001-11-09 | 2004-11-09 | Terry L. Dellinger | Hand-held trackball computer pointing device |
US20030098841A1 (en) | 2001-11-26 | 2003-05-29 | Jessica Broussard | Powered, remotely controllable computer display device |
KR100415313B1 (ko) | 2001-12-24 | 2004-01-16 | 한국전자통신연구원 | 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치 |
US6805506B2 (en) | 2002-03-20 | 2004-10-19 | Lubartech Ltd. | Keyboard with multiple indicia sets |
DE10218543A1 (de) * | 2002-04-25 | 2003-11-20 | Siemens Ag | Eingabevorrichtung |
JP3902508B2 (ja) | 2002-05-20 | 2007-04-11 | 任天堂株式会社 | ゲームシステムおよびゲームプログラム |
USD470150S1 (en) * | 2002-06-21 | 2003-02-11 | Bsquare Corporation | Hand-held device keypad |
US20040001097A1 (en) * | 2002-07-01 | 2004-01-01 | Frank Zngf | Glove virtual keyboard for baseless typing |
DE10233608A1 (de) * | 2002-07-24 | 2004-02-12 | Siemens Ag | Eingabevorrichtung für ein Endgerät |
US8686939B2 (en) | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US7184020B2 (en) | 2002-10-30 | 2007-02-27 | Matsushita Electric Industrial Co., Ltd. | Operation instructing device, operation instructing method, and operation instructing program |
CN100504295C (zh) | 2002-11-05 | 2009-06-24 | 诺基亚有限公司 | 移动电子三维罗盘 |
WO2004066615A1 (en) | 2003-01-22 | 2004-08-05 | Nokia Corporation | Image control |
US7127101B2 (en) | 2003-03-10 | 2006-10-24 | Cranul Technologies, Inc. | Automatic selection of cranial remodeling device trim lines |
US7162075B2 (en) | 2003-03-10 | 2007-01-09 | Cranial Technologies, Inc. | Three-dimensional image capture system |
WO2004082248A1 (en) | 2003-03-11 | 2004-09-23 | Philips Intellectual Property & Standards Gmbh | Configurable control of a mobile device by means of movement patterns |
JP2004287871A (ja) * | 2003-03-24 | 2004-10-14 | Hitachi Ltd | 携帯端末 |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7333133B2 (en) | 2003-03-31 | 2008-02-19 | Spatial Integrated Systems, Inc. | Recursive least squares approach to calculate motion parameters for a moving camera |
JP3649242B2 (ja) * | 2003-04-04 | 2005-05-18 | 三菱電機株式会社 | 携帯電話装置および携帯電話装置の文字入力方法 |
US7027037B2 (en) * | 2003-04-08 | 2006-04-11 | Intermec Ip Corp. | Conditionally illuminated keypad legends |
US20040201595A1 (en) | 2003-04-11 | 2004-10-14 | Microsoft Corporation | Self-orienting display |
JP4803951B2 (ja) * | 2003-05-26 | 2011-10-26 | ソニー株式会社 | 文字入力装置およびその処理方法、記録媒体、並びにプログラム |
US7463280B2 (en) | 2003-06-03 | 2008-12-09 | Steuart Iii Leonard P | Digital 3D/360 degree camera system |
US6836971B1 (en) * | 2003-07-30 | 2005-01-04 | Honeywell International Inc. | System for using a 2-axis magnetic sensor for a 3-axis compass solution |
IL157877A0 (en) | 2003-09-11 | 2004-03-28 | Imagine It S Happening Ltd | Color edge based 3d scanner |
EP1665847B1 (en) | 2003-09-17 | 2011-11-09 | Nokia Corporation | A mobile cellular telephone with a display that is controlled partly by an incline sensor. |
WO2005039154A1 (ja) | 2003-10-16 | 2005-04-28 | Vodafone K.K. | 移動体通信端末及びアプリケーションプログラム |
US7181251B2 (en) | 2003-10-22 | 2007-02-20 | Nokia Corporation | Mobile communication terminal with multi orientation user interface |
CA2531524A1 (en) * | 2003-10-31 | 2005-05-12 | Iota Wireless Llc | Concurrent data entry for a portable device |
US20080129552A1 (en) * | 2003-10-31 | 2008-06-05 | Iota Wireless Llc | Concurrent data entry for a portable device |
US7312819B2 (en) | 2003-11-24 | 2007-12-25 | Microsoft Corporation | Robust camera motion analysis for home video |
KR100594971B1 (ko) | 2004-01-09 | 2006-06-30 | 삼성전자주식회사 | 지자기 센서를 이용한 입력장치 및 이를 이용한 입력신호생성방법 |
US7756323B2 (en) | 2004-01-15 | 2010-07-13 | Technion Research & Development Foundation Ltd. | Three-dimensional video scanner |
GB2412034A (en) * | 2004-03-10 | 2005-09-14 | Mitel Networks Corp | Optimising speakerphone performance based on tilt angle |
FI20045078A (fi) | 2004-03-16 | 2005-09-17 | Myorigo Oy | Laajakulmaoptiikalla ja säteilysensorilla varustettu mobiililaite |
KR100621401B1 (ko) | 2004-03-31 | 2006-09-08 | 삼성전자주식회사 | 회전상태를 인식하여 저장된 정보를 탐색하는이동통신기기 및 그 방법 |
EP2273484B1 (en) | 2004-04-30 | 2019-08-28 | Hillcrest Laboratories, Inc. | Methods and devices for removing unintentional movement in free space pointing devices |
KR101192514B1 (ko) | 2004-04-30 | 2012-10-17 | 힐크레스트 래보래토리스, 인크. | 틸트 보상과 향상된 사용성을 갖는 3d 포인팅 장치 |
CN102566751B (zh) | 2004-04-30 | 2016-08-03 | 希尔克瑞斯特实验室公司 | 自由空间定位装置和方法 |
US20050276164A1 (en) * | 2004-06-12 | 2005-12-15 | Scott Amron | Watch adapted to rotate a displayed image so as to appear in a substantially constant upright orientation |
JP4220943B2 (ja) * | 2004-07-15 | 2009-02-04 | ソフトバンクモバイル株式会社 | 電子機器 |
JP2006031515A (ja) | 2004-07-20 | 2006-02-02 | Vodafone Kk | 移動体通信端末、アプリケーションプログラム、画像表示制御装置及び画像表示制御方法 |
US7138979B2 (en) | 2004-08-27 | 2006-11-21 | Motorola, Inc. | Device orientation based input signal generation |
US20060060068A1 (en) | 2004-08-27 | 2006-03-23 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling music play in mobile communication terminal |
JP2006068027A (ja) | 2004-08-31 | 2006-03-16 | Nintendo Co Ltd | ゲーム装置およびゲームプログラム |
JPWO2006035505A1 (ja) * | 2004-09-29 | 2008-05-22 | 株式会社シーアンドエヌ | 磁気センサの制御方法、制御装置、および携帯端末装置 |
CN1303501C (zh) * | 2004-09-30 | 2007-03-07 | 清华大学 | 手机游戏的互动信息感知方法及嵌入手机的智能游戏平台 |
JP2006113859A (ja) * | 2004-10-15 | 2006-04-27 | Nec Corp | 携帯情報端末及びその表示制御方法 |
US7683883B2 (en) | 2004-11-02 | 2010-03-23 | Pierre Touma | 3D mouse and game controller based on spherical coordinates system and system for use |
KR100641182B1 (ko) * | 2004-12-30 | 2006-11-02 | 엘지전자 주식회사 | 휴대단말기에서의 가상화면 이동장치 및 방법 |
BRPI0606477A2 (pt) | 2005-01-07 | 2009-06-30 | Gesturetek Inc | sensor de inclinação baseado em fluxo ótico |
CN101536494B (zh) | 2005-02-08 | 2017-04-26 | 奥布隆工业有限公司 | 用于基于姿势的控制系统的系统和方法 |
WO2006084385A1 (en) | 2005-02-11 | 2006-08-17 | Macdonald Dettwiler & Associates Inc. | 3d imaging system |
JP4120648B2 (ja) * | 2005-02-23 | 2008-07-16 | ヤマハ株式会社 | 携帯端末、携帯端末の制御方法、プログラムおよび記録媒体 |
KR101002807B1 (ko) | 2005-02-23 | 2010-12-21 | 삼성전자주식회사 | 메뉴 화면을 표시하는 단말기에서 메뉴 네비게이션을 제어하는 장치 및 방법 |
US7519468B2 (en) | 2005-02-28 | 2009-04-14 | Research In Motion Limited | System and method for navigating a mobile device user interface with a directional sensing device |
WO2006124935A2 (en) * | 2005-05-17 | 2006-11-23 | Gesturetek, Inc. | Orientation-sensitive signal output |
US20070159456A1 (en) * | 2006-01-10 | 2007-07-12 | Unkrich Mark A | Navigation system |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US20100088532A1 (en) * | 2008-10-07 | 2010-04-08 | Research In Motion Limited | Method and handheld electronic device having a graphic user interface with efficient orientation sensor use |
-
2006
- 2006-05-17 WO PCT/US2006/018980 patent/WO2006124935A2/en active Application Filing
- 2006-05-17 EP EP06759963.9A patent/EP1886509B1/en active Active
- 2006-05-17 BR BRPI0613165-4A patent/BRPI0613165A2/pt not_active Application Discontinuation
- 2006-05-17 US US11/383,918 patent/US7389591B2/en active Active
- 2006-05-17 CN CN201310167436.5A patent/CN103257684B/zh active Active
- 2006-05-17 CN CN2006800261698A patent/CN101589354B/zh active Active
- 2006-05-17 RU RU2007146172/09A patent/RU2007146172A/ru not_active Application Discontinuation
- 2006-05-17 KR KR1020137008577A patent/KR101403172B1/ko active IP Right Grant
- 2006-05-17 JP JP2008512449A patent/JP5038296B2/ja active Active
- 2006-05-17 KR KR1020077029501A patent/KR101430761B1/ko active IP Right Grant
-
2008
- 2008-03-28 US US12/058,025 patent/US7827698B2/en active Active
-
2010
- 2010-11-08 US US12/941,965 patent/US8015718B2/en active Active
-
2011
- 2011-09-12 US US13/230,803 patent/US8230610B2/en active Active
- 2011-09-22 JP JP2011207725A patent/JP2012050102A/ja active Pending
-
2014
- 2014-07-17 JP JP2014147090A patent/JP5951694B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR101430761B1 (ko) | 2014-08-19 |
EP1886509A4 (en) | 2014-01-15 |
CN101589354A (zh) | 2009-11-25 |
CN101589354B (zh) | 2013-06-12 |
US7389591B2 (en) | 2008-06-24 |
US20110050570A1 (en) | 2011-03-03 |
US8015718B2 (en) | 2011-09-13 |
WO2006124935A3 (en) | 2009-05-14 |
EP1886509B1 (en) | 2017-01-18 |
US20060281453A1 (en) | 2006-12-14 |
JP2008546248A (ja) | 2008-12-18 |
WO2006124935A2 (en) | 2006-11-23 |
US8230610B2 (en) | 2012-07-31 |
KR20130055673A (ko) | 2013-05-28 |
US20080235965A1 (en) | 2008-10-02 |
JP2012050102A (ja) | 2012-03-08 |
JP2014207014A (ja) | 2014-10-30 |
CN103257684B (zh) | 2017-06-09 |
EP1886509A2 (en) | 2008-02-13 |
JP5038296B2 (ja) | 2012-10-03 |
KR20080063446A (ko) | 2008-07-04 |
US20120001722A1 (en) | 2012-01-05 |
CN103257684A (zh) | 2013-08-21 |
KR101403172B1 (ko) | 2014-06-03 |
JP5951694B2 (ja) | 2016-07-13 |
US7827698B2 (en) | 2010-11-09 |
RU2007146172A (ru) | 2009-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BRPI0613165A2 (pt) | saìda de sinal sensìvel à orientação | |
US11675476B2 (en) | User interfaces for widgets | |
US10379618B2 (en) | Systems and methods for using textures in graphical user interface widgets | |
US20210049321A1 (en) | Device, method, and graphical user interface for annotating text | |
EP2406705B1 (en) | System and method for using textures in graphical user interface widgets | |
US20160071241A1 (en) | Landscape Springboard | |
US20160077602A1 (en) | Method and Handheld Electronic Device for Displaying and Selecting Diacritics | |
US11249579B2 (en) | Devices, methods, and graphical user interfaces for manipulating embedded interactive content | |
KR20110038646A (ko) | 모바일 컴퓨팅 디바이스에서의 모션-컨트롤 뷰 | |
JPH1049337A (ja) | ハンドヘルド装置の傾斜による表示情報のスクロール方法 | |
US11669243B2 (en) | Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors | |
KR20210151192A (ko) | 아이템을 추적하고 찾기 위한 사용자 인터페이스 | |
US20170357568A1 (en) | Device, Method, and Graphical User Interface for Debugging Accessibility Information of an Application | |
JP2007122287A (ja) | 情報処理装置、階層情報出力方法及びプログラム | |
TWI515595B (zh) | 手持式電子裝置及其密碼輸入方法 | |
ES2956209T3 (es) | Técnicas para el tecleo de múltiples dedos en realidad mixta | |
JP2005149190A (ja) | 情報処理装置 | |
KR20040034915A (ko) | 펜 컴퓨팅 시스템에서의 동적 키보드 구현 장치 | |
KR20040017174A (ko) | 메뉴선택 및 문자입력이 용이한 모바일 전자기기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B11A | Dismissal acc. art.33 of ipl - examination not requested within 36 months of filing | ||
B11Y | Definitive dismissal - extension of time limit for request of examination expired [chapter 11.1.1 patent gazette] |