BRPI0613165A2 - saìda de sinal sensìvel à orientação - Google Patents

saìda de sinal sensìvel à orientação Download PDF

Info

Publication number
BRPI0613165A2
BRPI0613165A2 BRPI0613165-4A BRPI0613165A BRPI0613165A2 BR PI0613165 A2 BRPI0613165 A2 BR PI0613165A2 BR PI0613165 A BRPI0613165 A BR PI0613165A BR PI0613165 A2 BRPI0613165 A2 BR PI0613165A2
Authority
BR
Brazil
Prior art keywords
axis
output
region
component
angular displacement
Prior art date
Application number
BRPI0613165-4A
Other languages
English (en)
Inventor
Riten Jaiswal
Francis Macdougall
Original Assignee
Gesturetek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gesturetek Inc filed Critical Gesturetek Inc
Publication of BRPI0613165A2 publication Critical patent/BRPI0613165A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/70Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

SAìDA DE SINAL SENSìVEL à ORIENTAçãO. A presente invenção refere-se a uma seleção e a saída de um sinal, tal como um caractere alfanumérico, são providas dependendo da orientação de um dispositivo, tal como um telefone móvel. Em particular, uma posição neutra de um dispositivo é determinada em relação à pelo menos um primeiro eixo, o dispositivo incluindo pelo menos um primeiro controle associado com uma primeira pluralidade de sinais de saída e o deslocamento angular do dispositivo é medido ao redor de pelo menos o primeiro eixo. Uma seleção do primeiro controle é também recebida e um da primeira pluralidade de sinais de saída é fornecido como saída com base pelo menos na seleção e no deslocamento angular.

Description

Relatório Descritivo da Patente de Invenção para "SAÍDA DESINAL SENSÍVEL À ORIENTAÇÃO".
ANTECEDENTES
Campo
A presente descrição refere-se, de forma geral, à saída de sinalsensível ã orientação e, em particular, refere-se à seleção e saída de umsinal, tal como um caractere alfanumérico, com base na orientação de umdispositivo, tal como um telefone.
Descrição da Técnica Relacionada
Muitos dispositivos usam botões ou outros controles para inserircaracteres, tais como caracteres alfanuméricos e/ou símbolos. Um telefoneconvencional, por exemplo, usa uma base de teclas de dez botões para in-serir caracteres alfanuméricos representando um número de telefone ouuma mensagem de texto. Devido ao projeto do dispositivo e restrições delayout, o número de controles, ou teclas, em muitos dispositivos é freqüen-temente limitado, exigindo que cada controle corresponda a múltiplos carac-teres. Os telefones, por exemplo, freqüentemente indicam as ietras "J", "K" e"L", bem como o número "5" para o botão marcado "5".
Para inserir um dos múltiplos caracteres associados com umcontrole único, o controle é selecionado de maneira repetitiva até que o sinalcorrespondendo com o caractere desejado é produzido. Em um exemplo detelefonia, a seleção do botão "5" uma vez fará com que o caractere "J" sejaproduzido, a seleção do botão "5" duas vezes fará com que o caractere "K"seja produzido, a seleção do botão "5" três vezes fará com que o caractere"L" seja produzido e a seleção do botão "5" quatro vezes fará com que o ca-ractere "5" seja produzido.
Além dessas seleções de controle repetitivas, outros controlespodem também precisar ser selecionados para um caractere desejado apa-recer. Um caractere maiúsculo ou um símbolo, por exemplo, pode exigir queum controle especial seja selecionado ou que múltiplos controles sejam se-lecionados em uma seqüência confusa.
Pelo fato de que a seleção de controle repetitiva é necessáriapara causar a saída de um caractere único, a entrada de caracteres em umdispositivo freqüentemente ocorre vagarosamente. Além do mais, a saída deum caractere subseqüente que está também associado com o mesmo con-trole exige que uma duração de tempo predeterminada passe desde a sele-ção anterior do controle. Quando inserindo dois caracteres consecutivos u-sando o mesmo controle, por exemplo, para inserir "h" e "i" para formar apalavra "hi" (oi), a duração de tempo predeterminada deve passar depoisque o caractere "h" foi produzido antes que o "i" possa ser produzido, ouuma seleção de controle separado pode ser necessária para mover o cursorpara a próxima posição. Essa abordagem, entretanto, é frustrante e consu-midora de tempo.
Dessa maneira, é desejável prover a saída melhorada de sinais,tal como sinais correspondendo com caracteres, que supera as deficiênciasdas técnicas convencionais de saída de sinal.
SUMÁRIO
De acordo com um aspecto geral, um método é descrito. O mé-todo inclui determinar uma posição neutra de um dispositivo em relação àpelo menos um primeiro eixo, o dispositivo incluindo pelo menos um primeirocontrole associado com uma primeira pluralidade de sinais de saída e medirum deslocamento angular do dispositivo ao redor de pelo menos o primeiroeixo. O método também inclui receber uma seleção do primeiro controle efornecer como saída um da primeira pluralidade de sinais de saída com basepelo menos na seleção e no deslocamento angular.
Implementações podem incluir um ou mais dos aspectos seguin-tes. Por exemplo, a posição neutra do dispositivo pode ser determinada emrelação à pelo menos um segundo eixo, ortogonal ao primeiro eixo, onde odeslocamento angular pode incluir um componente do primeiro eixo e umcomponente do segundo eixo. Além do mais, a posição neutra do dispositivopode ser determinada em relação à pelo menos um terceiro eixo ortogonalao primeiro eixo e o segundo eixo, onde o deslocamento angular pode incluirum componente de terceiro eixo. O primeiro eixo, o segundo eixo e o terceiroeixo podem se interceptar dentro do dispositivo.O primeiro controle pode ser associado com pelo menos trêssinais de saída, ou pelo menos nove sinais de saída, onde cada um da plu-ralidade de sinais de saída pode corresponder a um caractere, tal como umcaractere alfanumérico. O método pode também incluir exibir o sinal de saí-da e/ou exibir uma indicação do deslocamento angular. O método pode tam-bém incluir definir uma pluralidade de regiões de inclinação ao redor do pri-meiro eixo, onde um da primeira pluralidade de sinais de saída é tambémfornecido como saída com base na pluralidade de regiões de inclinação. Odeslocamento angular do dispositivo ao redor do primeiro eixo pode ser me-dido como 0o, onde uma primeira região de inclinação abrange um desloca-mento angular de 0o, ou a primeira região de inclinação pode ser definidacomo uma região abrangendo -30° a O0 ao redor do primeiro eixo, onde asegunda região de inclinação é definida como uma região abrangendo apro-ximadamente 0o a +30° ao redor do primeiro eixo. Em um aspecto adicional,um primeiro sinal de saída pode ser fornecido como saída se o deslocamen-to angular está dentro da primeira região de inclinação quando a seleção érecebida, onde um segundo sinal de saída pode ser fornecido como saída seo deslocamento angular está dentro da segunda região de inclinação quandoa seleção é recebida. Um terceiro ou quarto sinal de saída pode ser forneci-do como saída se o deslocamento angular está dentro da terceira ou quartaregião de inclinação, respectivamente, quando a seleção é recebida.
O método pode também definir uma pluralidade de regiões deinclinação do primeiro eixo ao redor do primeiro eixo e uma pluralidade deregiões de inclinação do segundo eixo ao redor do segundo eixo, onde umda primeira pluralidade de sinais de saída pode também ser fornecido comosaída com base na pluralidade de regiões de inclinação do primeiro eixoe/ou na pluralidade de regiões de inclinação do segundo eixo. Quando a se-leção é recebida, um primeiro sinal de saída pode ser fornecido como saídase o componente do primeiro eixo está dentro de uma primeira região deinclinação do primeiro eixo e se o componente do segundo eixo está dentrode uma primeira região de inclinação do segundo eixo, um segundo sinal desaída pode ser fornecido como saída se o componente do primeiro eixo estádentro de uma segunda região de inclinação do primeiro eixo e se o compo-nente do segundo eixo está dentro da primeira região de inclinação do se-gundo eixo, um terceiro sinal de saída pode ser fornecido como saída se ocomponente do primeiro eixo está dentro da segunda região de inclinação doprimeiro eixo e se o componente do segundo eixo está dentro de uma se-gunda região de inclinação do segundo eixo e/ou um quarto sinal de saídapode ser fornecido como saída se o componente do primeiro eixo está den-tro da segunda região de inclinação do primeiro eixo e se o componente dosegundo eixo está dentro da segunda região de inclinação do segundo eixo.
Alternativamente, em um outro aspecto, quando a seleção é re-cebida, um primeiro sinal de saída pode ser fornecido como saída se o pri-meiro componente está dentro de uma primeira região de inclinação do pri-meiro eixo e se o componente do segundo eixo está dentro de uma primeiraregião de inclinação do segundo eixo, um segundo sinal de saída pode serfornecido como saída se o primeiro componente está dentro da primeira re-gião de inclinação do primeiro eixo e se o componente do segundo eixo estádentro de uma segunda região de inclinação do segundo eixo, um terceirosinal de saída pode ser fornecido como saída se o primeiro componente estádentro da primeira região de inclinação do primeiro eixo e se o componentedo segundo eixo está dentro de uma terceira região de inclinação do segun-do eixo, um quarto sinal de saída pode ser fornecido como saída se o primei-ro componente está dentro de uma segunda região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da primeira região deinclinação do segundo eixo, um quinto sinal de saída pode ser fornecido co-mo saída se o primeiro componente está dentro da segunda região de incli-nação do primeiro eixo e se o componente do segundo eixo está dentro dasegunda região de inclinação do segundo eixo, um sexto sinal de saída podeser fornecido como saída se o primeiro componente está dentro da segundaregião de inclinação do primeiro eixo e se o componente do segundo eixoestá dentro da terceira região de inclinação do segundo eixo, um sétimo si-nal de saída pode ser fornecido como saída se o primeiro componente estádentro de uma terceira região de inclinação do primeiro eixo e se o compo-nente do segundo eixo está dentro da primeira região de inclinação do se-gundo eixo, um oitavo sinal de saída pode ser fornecido como saída se oprimeiro componente está dentro da terceira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da segunda região deinclinação do segundo eixo, e/ou um nono sinal de saída pode ser fornecidocomo saída se o primeiro componente está dentro da terceira região de in-clinação do primeiro eixo e se o componente do segundo eixo está dentro daterceira região de inclinação do segundo eixo.
De acordo com um outro aspecto geral, um dispositivo é descri-to. O dispositivo inclui um sensor de inclinação configurado para determinaruma posição neutra de um dispositivo em relação à pelo menos um primeiroeixo e também configurado para medir o deslocamento angular do dispositi-vo ao redor de pelo menos o primeiro eixo. O dispositivo também inclui pelomenos um primeiro controle associado com.uma primeira pluralidade de si-nais de saída e um processador configurado para receber uma seleção doprimeiro controle e também configurado para fornecer como saída um daprimeira pluralidade de sinais de saída com base pelo menos na seleção eno deslocamento angular.
Implementações podem incluir um ou mais dos aspectos seguin-tes. Por exemplo, o primeiro eixo e o segundo eixo podem se interceptam nocentro do dispositivo, ou em uma porção de periferia do dispositivo. O dispo-sitivo pode também incluir pelo menos segundo até décimo controles, cadaum associado com segunda até décima pluralidades de sinais de saída, res-pectivamente. O primeiro controle pode ser um botão e/ou o dispositivo podeser um telefone. O sinal de deslocamento pode ser medido usando um sen-sor de inclinação, que pode ser um giroscópio. O dispositivo pode tambémincluir um mostrador configurado para exibir o sinal de saída e/ou configura-do para exibir uma indicação do deslocamento angular e o dispositivo podetambém incluir um teclado configurado para inserir a seleção.
De acordo com um outro aspecto geral, um produto de programade computador, armazenado de modo tangível em um meio legível por com-putador, é descrito. O produto de programa de computador é operável parafazer um computador executar operações incluindo determinar uma posiçãoneutra de um dispositivo em relação à pelo menos um primeiro eixo, o dis-positivo incluindo pelo menos um primeiro controle associado com uma pri-meira pluralidade de sinais de saída e medir o deslocamento angular do dis-positivo ao redor de pelo menos o primeiro eixo. O produto de programa decomputador é também operável para fazer com que um computador executeoperações incluindo receber uma seleção do primeiro controle e fornecercomo saída um da primeira pluralidade de sinais de saída com base pelomenos na seleção e no deslocamento angular.
De acordo com um outro aspecto geral, um dispositivo de telefo-ne é descrito. O dispositivo de telefone inclui um sensor de inclinação confi-gurado para determinar uma posição neutra do dispositivo de telefone emrelação à pelo menos um eixo de rolagem, e também configurado para mediro deslocamento angular do dispositivo de telefone ao redor do eixo de rola-gem. O dispositivo de telefone também inclui pelo menos primeiro até oitavobotões, cada um associado com pelo menos quatro caracteres alfanuméri-cos. Além do mais, o dispositivo de telefone inclui um processador configu-rado para receber uma seleção do primeiro botão e também configurado pa-ra fornecer como saída um do pelo menos quatro caracteres alfanuméricoscom base pelo menos na seleção e no deslocamento angular.
Os detalhes de uma ou mais implementações são apresentadosnos desenhos acompanhantes e na descrição abaixo. Outros aspectos serãoevidentes a partir da descrição e desenhos e a partir das reivindicações.
BREVE DESCRIÇÃO DOS DESENHOS
Com referência agora os desenhos, nos quais números de refe-rência semelhantes representam partes correspondentes por todos eles:
A figura 1 representa a aparência exterior de um dispositivo deacordo com uma implementação exemplar, em um estado onde o dispositivoestá na posição neutra,
A figura 2 representa um exemplo de uma arquitetura interna daimplementação da figura 1,
A figura 3 é um fluxograma ilustrando um método de acordo comuma outra implementação exemplar,
As figuras 4A a 4D representam exemplos de regiões de inclina-ção que são definidas ao redor de um eixo neutro,
A figura 5 inclui uma vista exterior superior de um dispositivoexemplar de acordo com uma outra implementação exemplar,
As figuras 6A a 6E ilustram indicadores exemplares de acordocom um aspecto exemplar,
As figuras 7A e 7B-ilustram vistas frontal e lateral, respectiva-mente, do dispositivo da figura 5, mostrado na posição neutra,
As figuras 8A e 8B ilustram vistas frontais do dispositivo da figu-ra 5, mostrado em um estado onde o dispositivo da figura 5 é manipuladoem uma orientação de rolagem negativa e uma orientação de rolagem posi-tiva, respectivamente,
As figuras 9A e 9B ilustram vistas laterais do dispositivo da figura5, mostrado em um estado onde o dispositivo da figura 5 é manipulado emuma orientação de declividade positiva e uma orientação de declividade ne-gativa, respectivamente,
A figura 10 é uma tabela mostrando um mapeamento possíveldas orientações do dispositivo usado para produzir sinais correspondendocom caracteres e caixas que são produzidos quando um controle é selecio-nado e
As figuras 11A e 11B ilustram um menu de símbolos que é exi-bido de acordo com uma outra implementação exemplar.
DESCRIÇÃO DETALHADA
A figura 1 representa a aparência exterior de um dispositivo deacordo com uma implementação exemplar, em um estado onde o dispositivoestá na posição neutra. O ambiente de hardware do dispositivo 100 incluiuma base de teclas incluindo pelo menos um primeiro controle 102 para in-serir dados de texto e comandos do usuário no dispositivo 100, um mostra-dor 105 para exibir texto e imagens para um usuário e um indicador, tal co-mo um indicador de inclinação 106 para exibir uma indicação do desloca-mento angular ou orientação de inclinação ao redor de pelo menos um eixo.O mostrador 105 exibe os gráficos, imagens e textos que com-preendem a interface do usuário para as aplicações de software usadas poressa implementação, bem como os programas do sistema operacional ne-cessários para operar o dispositivo 100. Um usuário do dispositivo 100 usa oprimeiro controle 102 para inserir comandos e dados para operar e controlaros programas do sistema operacional bem como os programas aplicativos.
O mostrador 105 é configurado para exibir a GUI para um usuá-rio do dispositivo 100. Um alto-falante pode estar também presente e tam-bém gerar dados de voz e som recebidos dos programas aplicativos operan-do no dispositivo 100, tal como a voz de um outro usuário gerada por umprograma aplicativo de telefone, ou um toque de campainha gerado de umprograma aplicativo de toque de campainha. Um microfone pode tambémser usado para capturar dados de som gerados pelo usuário, por exemplo,quando o usuário está falando com um outro usuário durante uma chamadade telefone através do dispositivo 100. Além do mais, o indicador de inclina-ção 106 é configurado para indicar o deslocamento angular ou orientação deinclinação do dispositivo 100, para prover o retorno visual para o usuário dodispositivo 100 e para tornar o usuário ciente da orientação de inclinaçãoque será usada para interpretar uma seleção de controle.
A operação do dispositivo 100 é baseada na sua orientação emdois estados: a posição "neutra" e uma posição de "seleção" corresponden-do com a posição do dispositivo antes de, no momento de, ou depois da se-leção do primeiro controle 102. Mais especificamente, e como descrito com-pletamente abaixo, a saída de um sinal de saída pelo dispositivo 100 é de-pendente do deslocamento angular entre a posição neutra e a posição deseleção, em relação à pelo menos um eixo, onde o deslocamento angulartem um componente de deslocamento angular para cada eixo de interesse.
A figura 1, por exemplo, representa o dispositivo 100 em umaposição neutra de três eixos considerada. Em particular, os eixos X, Y e Zortogonais se interceptam no centro do dispositivo 100, onde o eixo X seestende paralelo à direção longitudinal do dispositivo 100. De acordo comessa posição neutra exemplar, uma rotação ao redor do eixo X efetuaria ummovimento de rolagem, uma rotação ao redor do eixo Y efetuaria um movi-mento de declividade e uma rotação ao redor do eixo Z efetuaria um movi-mento de guinada. Esses movimentos de rolagem, declividade e guinadasão geralmente citados aqui como movimentos de "inclinação".
A determinação do número de eixos de interesse, e a localiza-ção e a orientação dos eixos com relação ao dispositivo 100 é uma determi-nação específica do dispositivo e específica da aplicação e nenhuma limita-ção de qualquer uma dessas características é pressuposta na descrição se-guinte. Por exemplo, onde é indesejável ou impossível manipular o dispositi-vo em um movimento de guinada, ou onde o número de sinais de saída po-de ser efetivamente controlado usando o movimento ao redor de um ou doiseixos, a posição neutra do dispositivo pode ser determinada com relação aesses um ou dois eixos somente. Além do mais, o pelo menos um eixo podenão interceptar o dispositivo 100 ou o pelo menos um eixo pode se estenderao longo da periferia ou porção de borda do dispositivo 100. Adicionalmente,um dos eixos pode se estender paralelo ao longo da direção longitudinal dodispositivo 100 ou ele pode se estender em um ângulo para a direção longi-tudinal do dispositivo 100. Em qualquer aspecto, a posição neutra fica ali-nhada com um eixo em relação a terra, tal como o eixo magnético ou norteverdadeiro ou um eixo apontando para o centro da terra, ou para o horizonte,com um eixo relativo ao usuário, o dispositivo ou outro eixo.
Com relação à telefonia, uma posição neutra de um eixo é provi-da no caso onde o deslocamento angular é para ser medido com relação àrotação de rolagem ao redor do eixo X, ou uma posição neutra de dois eixosé provida no caso onde o deslocamento angular é para ser medido com re-lação à rolagem e rotação de declividade ao redor do eixo X e eixo Y, res-pectivamente. Em qualquer caso, o eixo Xeo eixo Y se interceptam no cen-tro do dispositivo, com o eixo X se estendendo longitudinalmente paralelo àdireção longitudinal do dispositivo. Outras orientações de posição neutra sãoconsideradas também.
Quando inserindo caracteres em um dispositivo tal como um te-lefone, o usuário tipicamente mantém o dispositivo em um ângulo de declivi-dade positiva (para cima) enquanto olhando para o mostrador. Sob esse as-pecto, o eixo X do telefone na posição neutra pode ser definido em um ângu-lo ascendente similar, tal que o achatamento do ângulo do telefone com re-lação ao solo seria registrado como um movimento de inclinação adiantedecaído. Em outros casos, naturalmente, um eixo X que é paralelo ao solo éa posição do eixo X "neutra".
Embora o dispositivo 100 seja ilustrado na figura 1 como um te-lefone móvel, em aspectos adicionais, o dispositivo 100 pode incluir um PCde mesa, um laptop, uma estação de trabalho, um computador de médioporte, um computador de grande porte, um computador portátil ou de mesagráfica, um assistente de dados pessoal ("PDA") ou um outro tipo de sistemaembutido tal como um teclado de computador ou um controle remoto.
A figura 2 representa um exemplo de uma arquitetura interna daimplementação da figura 1. O ambiente de computação inclui o processador200 onde as instruções de computador que compreendem um sistema ope-racional ou um aplicativo são processadas; interface do mostrador 202 queprovê uma interface de comunicação e funções de processamento para ren-derizar gráficos, imagens e textos no mostrador 105; interface de base deteclas 204 que provê uma interface de comunicação para a base de teclas,incluindo o primeiro controle 102; sensor de inclinação 206 para medir o des-locamento angular do dispositivo 100 ao redor de pelo menos um primeiroeixo; interface do indicador 208 que provê uma interface de comunicaçãopara os indicadores, incluindo indicador de inclinação 106, memória de a-cesso aleatório ("RAM") 210 onde as instruções do computador e os dadossão armazenados em um dispositivo de memória volátil para processamentopelo processador 200; memória somente de leitura ("ROM") 211 onde o có-digo dos sistemas de baixo nível invariáveis ou dados para funções de sis-tema básico tal como entrada e saída ("l/O") básica, partida ou recepção detoques de tecla da base de teclas são armazenados em um dispositivo dememória não volátil, e opcionalmente um armazenamento 220 ou outro tipoadequado de memória (por exemplo, tal como memória de acesso aleatório("RAM"), memória somente de leitura ("ROM"), memória somente de leituraprogramável ("PROM"), memória somente de leitura programável apagável("EPROM"), memória somente de leitura programável eletricamente apagá-vel ("EEPROM"), discos magnéticos, discos óticos, discos flexíveis, discosrígidos, cartuchos removíveis, unidades flash), onde os arquivos que com-preendem o sistema operacional 230, programas aplicativos 240 e arquivosde dados 246 são armazenados. Os dispositivos constituintes e o processa-dor 200 se comunicam através do barramento 250.
A RAM 210 faz interface com o barramento 250 de modo a pro-ver rápido armazenamento RAM para o processador 200 durante a execu-ção dos programas de software tal como os programas aplicativos do siste-ma operacional e acionadores do dispositivo. Mais especificamente, o pro-cessador 200 carrega processos executáveis pelo computador dos meios dememória em um campo da RAM 210 a fim de executar os programas desoftware. Os dados são armazenados na RAM 210, onde os dados são a-cessados pelo processador 200 durante a execução.
Também mostrado na figura 2, o armazenamento 220 armazenacódigo executável pelo computador para um sistema operacional 230, pro-gramas aplicativos 240 tais como processamento de texto, planilha, apresen-tação, gráfico, treinamento de interpretação de imagem, jogos ou outros a-plicativos e arquivos de dados 246. Embora seja possível usar a implemen-tação acima descrita, também é possível implementar as funções de acordocom a presente descrição como uma biblioteca de ligação dinâmica ("DLL")ou como um programa auxiliar para outros programas aplicativos tal comoum navegador da web da Internet tal como o navegador da web Internet Ex-plorer da MICROSOFT®.
O processador 200 é um de uma série de processadores decomputador de alto desempenho, incluindo um processador INTEL® ouAMD®, um processador POWERPC®, um processador de computador dejogo de instrução reduzido ("RISC"), um processador SPARC®, um proces-sador ALPHASERVER® HP1 um processador de arquitetura de máquinaACORN® RISC ("ARM®") ou um processador de computador proprietáriopara um computador ou sistema embutido, sem se afastar do escopo dapresente descrição. Em um arranjo adicional, o processador 200 no disposi-tivo 100 é mais do que uma unidade de processamento, incluindo uma con-figuração de CPU múltipla encontrada em estações de trabalho e servidoresde alto desempenho, ou uma unidade de processamento escalável múltiplaencontrada em computadores de grande porte.
O sistema operacional 230 pode ser a estação de trabalho WIN-DOWS NT®/WINDOWS® 2OOO/WINDOWS® XP da MICROSOFT, servidor-WINDOWS N"1^/WINDOWS®-2O0O/WINDOWS® XP, uma variedade de sis-temas operacionais condicionados pelo UNIX®, incluindo estações de traba-lho e servidores AIX® para IBM®, estações de trabalho e servidores SUNOS®para SUN®, LINUX® para estações de trabalho e servidores com base emINTEL® CPU, HP UX WORKLOAD MANAGER® para estações de trabalho eservidores HP®, IRIX® para estações de trabalho e servidores SGI®,VAX/VMS para computadores de corporação de equipamento digital, Ο-PENVMS® para computadores com base em HP ALPHASERVER®, MACOS® X para estações de trabalho e servidores com base em POWERPC®,SYMBIAN OS®, WINDOWS MOBILE® ou WINDOWS CE®, PALM®, NOKIA®OS ("NOS"), OSE® ou EPOC® para dispositivos móveis ou um sistema ope-racional proprietário para computadores ou sistemas embutidos. A platafor-ma de desenvolvimento do aplicativo ou estrutura para o sistema operacio-nal 230 pode ser: BINARY RUNTIME ENVIRONMENT FOR WIRELESS®("BREW®"), plataforma Java, plataforma Micro Edition ("Java ME") ou Java2, Micro Edition ("J2ME®"), PYTHON®, FLASH LITE® ou MICROSOFT^.NETCompact.
O sensor de inclinação 206 detecta a orientação do dispositivo100, como descrito abaixo e é um giroscópio, um sensor ótico e/ou outro tipode sensor de inclinação. Um sensor ótico, por exemplo, pode ser usado paradetectar a orientação do dispositivo 100 usando um fluxo ótico de uma se-qüência de imagens de uma câmera embutida no dispositivo 100 para de-terminar o movimento e a orientação do dispositivo 100. O fluxo ótico des-creve a velocidade relativa aparente dos traços dentro de uma seqüência deimagens. Desde que o fluxo ótico é relativo à câmera, o movimento da câ-mera resultará em velocidades aparentes dos traços na visão da câmera. Omovimento da câmera é calculado a partir das velocidades aparentes dostraços na visão da câmera. A posição ou a orientação são também calcula-das em relação à posição neutra, através de um espaço estendido de tempo.
Embora o sensor de inclinação 206 tenha sido descrito como um sensor óti-co usando uma abordagem de fluxo ótico para acompanhar a inclinação oudisposição do dispositivo 100 usando a câmera, em outros aspectos a incli-nação ou disposição do dispositivo 100 é acompanhada sem usar a aborda-gem do fluxo ótico, tal como pelo uso de um acelerômetro.
Meios de memória legíveis por computador armazenam informa-ção dentro do dispositivo 100 e são voláteis ou não voláteis. A memória po-de ser capaz de prover armazenamento em massa para o dispositivo 100.Em várias implementações diferentes, a memória pode ser um dispositivo dedisco flexível, um dispositivo de disco rígido, um dispositivo de disco ótico ouum dispositivo de fita. Embora as figuras 1 e 2 ilustrem uma implementaçãopossível de um sistema de computação que executa código do programa, ouetapas do programa ou processo, outros tipos de computadores ou dispositi-vos podem também ser usados da mesma maneira.
A figura 3 é um fluxograma ilustrando um método de acordo comuma outra implementação exemplar. Brevemente, o método inclui determinaruma posição neutra de um dispositivo em relação à pelo menos um primeiroeixo, o dispositivo incluindo pelo menos um primeiro controle associado comuma primeira pluralidade de sinais de saída e medir o deslocamento angulardo dispositivo ao redor de pelo menos o primeiro eixo. O método tambéminclui receber uma seleção do primeiro controle e fornecer como saída umda primeira pluralidade de sinais de saída com base pelo menos na seleçãoe no deslocamento angular.
Em mais detalhes, o método 300 começa (etapa S301) e umapluralidade de regiões de inclinação é definida ao redor de um primeiro eixo(etapa S302). Como é descrito em mais detalhes abaixo, a saída de um sinalde saída é baseada pelo menos no deslocamento angular de um dispositivocom a seleção de um primeiro controle. De acordo com um aspecto, 'regi-ões' de inclinação são definidas tal que, com a seleção do controle, se odeslocamento angular se situa dentro de uma região de inclinação particularou faixa de ângulos, uma saída associada com a região de inclinação é pro-duzida.
As figuras 4A a 4D ilustram várias regiões de inclinação exem-plares com relação a um eixo neutro hipotético, marcado o "eixo N", onde oneutro representa os eixos X, Y e/ou Z neutros. Cada um dos eixos X, Y ouZ pode ter regiões de inclinação individualmente determinadas, uma defini-ção de região de inclinação comum pode ser aplicada em múltiplos eixos oueixos podem não ter regiões de inclinação definidas.
A figura 4A ilustra um exemplo de duas regiões de inclinaçãodefinidas ao redor do eixo neutro. Um deslocamento angular de aproxima-damente -90° a 0o ao redor do eixo neutro está dentro da região 401, e umdeslocamento angular de aproximadamente 0o a aproximadamente 90° aoredor do exemplo neutro está dentro da região 402. Um deslocamento angu-lar de aproximadamente 91° a -91° indicativo de um dispositivo que está decabeça para baixo, não corresponde a qualquer região, e um deslocamentoangular de exatamente 0o está em qualquer região 401 ou 402.
Onde o eixo neutro representa o eixo X, um deslocamento angu-lar na região 401 resultaria em uma rolagem negativa do dispositivo (para aesquerda), e um deslocamento angular na região 402 resultaria em uma ro-lagem positiva do dispositivo (para a direita). Onde o eixo neutro representao eixo Y, um deslocamento angular na região 401 resultaria em uma declivi-dade negativa (para frente) do dispositivo, e um deslocamento angular naregião 402 resultaria em uma declividade positiva (para trás) do dispositivo.Onde o eixo neutro representa o eixo Z, um deslocamento angular na região401 resultaria em uma guinada negativa (no sentido anti-horário), e um des-locamento angular na região 402 resultaria em uma guinada positiva (nosentido horário). Embora duas regiões de inclinação sejam representadas,qualquer número de regiões de inclinação pode ser definido, dependendoamplamente da sensibilidade do sensor de inclinação, do número de sinaisde saída associados com cada controle e da capacidade do usuário discri-minar entre pequenos ângulos quando manipulando o dispositivo.
Em qualquer caso, a saída do sinal pelo dispositivo é dependen-te do deslocamento angular e da região de inclinação. Por exemplo, o dispo-sitivo fornece como saída um primeiro de uma pluralidade de sinais se odeslocamento angular do dispositivo está dentro de uma primeira região, eum segundo de uma pluralidade de sinais se o deslocamento angular dodispositivo está dentro de uma segunda região, mesmo se o mesmo controleé selecionado em ambas as circunstâncias. Embora a figura 1 ilustre as re-giões 401 e 402 como abrangendo faixas de ± 90°, em um aspecto similar, aregião 401 define uma região abrangendo aproximadamente -30° a 0o aoredor do eixo neutro, e a região de inclinação 402 define uma região abran-gendo aproximadamente 0o a +30° ao redor do eixo neutro.
A figura 4B ilustra um exemplo de quatro regiões de inclinaçãodefinidas ao redor do eixo neutro, com um espaço morto entre as regiões em0o ao redor do eixo neutro. Devido à insensibilidade do sensor de inclinação,à incapacidade de um usuário discriminar, ou por outras razões, é freqüen-temente desejável definir um espaço morto entre duas regiões de outra ma-neira adjacentes. Onde o eixo neutro representa o eixo Y1 um deslocamentoangular entre aproximadamente 91° a -91°, indicativo de um dispositivo queestá de cabeça para baixo, ou um deslocamento angular de aproximada-mente 0o não corresponde a qualquer região de inclinação. Se um controle éselecionado quando o dispositivo não está orientado em uma região de incli-nação, uma saída padrão é produzida, a última saída é produzida, nenhumasaída é produzida, uma saída associada com a região de inclinação maispróxima ou uma região de inclinação complementar é produzida ou um outrotipo de saída é produzido.
Um deslocamento angular na região 404 resultaria em uma de-clividade negativa firme do dispositivo, embora um deslocamento angular naregião 405 também resultasse de uma declividade negativa que é menor emmagnitude do que uma declividade negativa da região 404. Um deslocamen-to angular na região 407 resultaria em uma declividade positiva firme do dis-positivo, embora um deslocamento angular na região 406 também resultassede uma declividade positiva que é menor em magnitude do que a declividadenegativa da região 407.
A figura 4C ilustra um exemplo de duas regiões de inclinaçãodefinidas ao redor do eixo neutro, onde a área ao redor de 0o em volta doeixo neutro fica substancialmente dentro de uma primeira região. Em particu-lar, onde o eixo neutro representa o eixo X, o dispositivo permaneceria naregião 409 se negativamente rolado, se não movido da posição neutra, ou semodestamente rolado na direção-positivarA fim de que o dispositivo sejaorientado na região 410, uma rolagem positiva firme teria que ocorrer. Asregiões de inclinação representadas na figura 4C seriam desejáveis, por e-xemplo, onde a região 409 representa uma saída desejada padrão, e ondeuma manipulação de alta magnitude afirmativa do dispositivo seria necessá-ria para colocar o dispositivo na região 410, assim anulando a saída deseja-da padrão. No exemplo da figura 4C, a região de inclinação 409 abrange umdeslocamento angular de 0o, onde o deslocamento angular do dispositivofica na região de inclinação 409 se o deslocamento angular ao redor do pri-meiro eixo é medido como 0o.
A figura 4D ilustra um exemplo de duas regiões de inclinaçãodefinidas ao redor do eixo neutro, onde uma região única ocupa as faixas dedeslocamento angular em ambos os lados do eixo neutro. Mais particular-mente, a região 412 é definida pela área que circunda 0o ao redor do eixoneutro, e a região 411 ocupa faixas angulares simétricas nas direções angu-lares positiva e negativa. Onde o eixo neutro representa o eixo Z, um deslo-camento angular na região 411 resultaria em uma guinada positiva ou nega-tiva de alta magnitude. Um deslocamento angular na região 412 resultariaem uma guinada positiva ou negativa mais modesta, ou da orientação dodispositivo permanecendo na posição neutra.
Em qualquer um dos exemplos acima descritos, o eixo neutropode representar o eixo X, Y e/ou Z, assim efetivamente multiplicando o nú-mero total de regiões de inclinação disponíveis. Por exemplo, se o eixo neu-tro no exemplo da figura 4A representa o eixo X, e o eixo neutro no exemploda figura 4B representa o eixo Y, um total de oito regiões de inclinação fica-ria disponível, desde que as quatro regiões de inclinação de declividade dafigura 4B seriam, cada uma, divididas nas duas regiões de inclinação de ro-lagem do exemplo da figura 4A. Assumindo que cada eixo tem um númeroigual de η regiões de inclinação, o número total de regiões de inclinação pa-ra uma disposição de dois eixos é n2 e o número total de regiões de inclina-ção para uma disposição de três eixos é n3.
Finalmente, é considerado que em alguns casos o próprio deslo-camento angularre não a região de inclinação, será determinativo do sinalde saída, e assim seria desnecessário definir as regiões de inclinação. Alémdo mais, as regiões de inclinação são também definidas implicitamente nocaso onde a faixa de movimento ao redor de um eixo desejado é divididaigualmente pelo número de sinais de saída, onde cada sinal de saída cor-responde a uma faixa de ângulos matematicamente determinada.
De volta para a figura 3, a posição neutra de um dispositivo édeterminada em relação à pelo menos um primeiro eixo, o dispositivo inclu-indo pelo menos um primeiro controle associado com uma primeira plurali-dade de sinais de saída (etapa S304).
A figura 5 ilustra uma vista exterior superior de um dispositivoexemplar de acordo com uma outra implementação exemplar. O dispositivo500, um telefone móvel, tem uma base de teclas incluindo pelo menos pri-meiro controle 502 associado com uma primeira pluralidade de sinais de sa-ída. No exemplo ilustrado, o primeiro controle 502 é uma tecla, ou botão, nabase de teclas ou teclado do dispositivo 500, onde cada controle individualrepresenta um múltiplo dos caracteres alfanuméricos ou símbolos. Especifi-camente, o primeiro controle 502 é marcado "9" e corresponde a quatro si-nais de saída indicativos dos caracteres "W", "Χ", Ύ" e "Z" ou doze sinais desaída indicativos dos caracteres sensíveis ao caso "W", "Χ", Ύ", "Z", "w", "x","y", "z' e os símbolos ",", ".", "/" e "'". Não existe limite para o número de si-nais de saída ou caracteres que podem corresponder com um único contro-le. Em aspectos particulares, o primeiro controle 502 é associado com umapluralidade de sinais de saída, tal como três sinais de saída ou nove sinaisde saída. Cada um da pluralidade de sinais de saída pode corresponder comum caractere, tal como um caractere alfanumérico ou um símbolo.
A posição neutra do dispositivo 500 é determinada, por exemplo,quando o dispositivo 500 é energizado, antes de ou depois de uma seleçãodo primeiro controle ou no local da fabricação. Em um aspecto, um armaze-namento temporário de memória armazena dados de saída do sensor deinclinação, e a posição neutra do dispositivo 500 é reconstruída a partir daorientação do dispositivo 500 quando um controle é selecionado e os dadosde saída. Em um outro aspecto, a posição neutra é uma condição pré-estabelecida na fábrica, tal como no caso onde o eixo neutro X é definidocomo se estendendo perpendicular ao centro da terra, tal que um desloca-mento angular é medido se o dispositivo 500 está virado para qualquer dire-ção exceto para cima. Em um aspecto adicional, um processador, um sensorde inclinação e a memória se comunicam para determinar uma posição neu-tra comum baseada na posição média do dispositivo 500 sempre que o con-trole é habitualmente selecionado. Além do mais, em um aspecto adicional,a posição neutra é selecionável pelo usuário. Em qualquer aspecto, a posi-ção neutra opera efetivamente para restaurar o sensor de inclinação para 0oatravés de cada eixo de interesse, onde qualquer movimento do dispositivo500 para longe da posição neutra serve para registrar um deslocamento an-guiar. Em relação ao usuário do dispositivo 500 ou a terra, a posição neutraé uma posição plana, uma posição ereta vertical ou uma posição chanfradaou inclinada.
Em um aspecto adicional, a posição neutra do dispositivo 500 édeterminada em relação à pelo menos um segundo eixo, ortogonal ao pri-meiro eixo, onde o deslocamento angular inclui um componente de primeiroeixo e um componente de segundo eixo. Em um aspecto adicional, a posi-ção neutra do dispositivo 500 é determinada em relação à pelo menos umterceiro eixo ortogonal ao primeiro eixo e o segundo eixo, onde o desloca-mento angular inclui um componente de terceiro eixo. O primeiro eixo, o se-gundo eixo e/ou o terceiro eixo se interceptam dentro do dispositivo 500, forado dispositivo 500 ou ao longo de uma porção periférica ou borda do disposi-tivo 500.Desde que o dispositivo 500 inclui um sensor de inclinação quedetecta a orientação do dispositivo, a entrada de texto no dispositivo é facili-tada. Por exemplo, o sensor de inclinação detecta o grau para o qual o dis-positivo foi rolado para a esquerda, para a direita ou inclinado para cima oupara baixo, onde a orientação de inclinação ou o deslocamento angular dodispositivo ao redor dos eixos de interesse indica como a seleção do contro-le 502 é interpretada e fornecida como saída. Por exemplo, se o controle 502corresponde a múltiplos caracteres, a orientação do dispositivo 502 identificaqual dos múltiplos caracteres é fornecido como saída quando o controle 502é selecionado ou identifica um caso no qual o caractere apropriado é forne-cido como saída.
O uso da orientação do dispositivo para identificar um caracterea ser fornecido como saída possibilita que um caractere seja fornecido comosaída toda vez que um controle único é selecionado, aumentando a veloci-dade da entrada de texto reduzindo o número de seleções de controle exigi-do para inserir o texto. Pelo fato de que um número fixo de seleções de con-troles representa a entrada de um caractere, um usuário pode especificar umcaractere subseqüente imediatamente depois que um caractere atual foi es-pecificado, eliminando a necessidade de aguardar uma duração de tempopredeterminada antes de especificar o caractere subseqüente, também au-mentando a velocidade da entrada do texto.
Como indicado acima, a posição neutra do dispositivo é umaorientação de referência da qual um deslocamento angular é medido ao re-dor de pelo menos um eixo, para a posição de seleção, a posição de seleçãocorrespondendo com a posição do dispositivo antes de, no momento de, oudepois da seleção de um controle tal como o primeiro controle. Em um as-pecto, a posição neutra do dispositivo é determinada em relação a um eixo ea posição neutra é determinada como uma posição "plana", onde o um eixoé paralelo ao solo. Em um outro aspecto, a posição neutra do dispositivo édeterminada em relação a dois eixos, e a posição neutra é determinada demaneira ergonômica como a orientação de um dispositivo como ele geral-mente seria mantido por um usuário do dispositivo. Em um aspecto adicio-nal, a posição neutra do dispositivo é determinada em relação a três eixos,onde um eixo é determinado como paralelo a um eixo norte-sul magnético,um eixo é determinado como paralelo a um eixo leste-oeste e o terceiro eixoé determinado como virado para perto e para longe do centro da terra.
De volta para a figura 3, um deslocamento angular do dispositivoé medido ao redor de pelo menos o primeiro eixo (etapa S305). Em particu-lar, um sensor de inclinação, tal como o sensor de inclinação 206 mede odeslocamento angular entre-a posição atual do dispositivo e a posição neu-tra, onde o deslocamento angular inclui um componente para cada eixo deinteresse. Em um aspecto, o sensor de inclinação 206 mede o deslocamentoangular do dispositivo no momento em que o controle é selecionado. Desdeque a seleção do próprio controle pode afetar a orientação do dispositivo, emum outro aspecto, o sensor de inclinação mede o deslocamento angular dodispositivo um momento antes ou depois que o controle é selecionado.
O sensor de inclinação detecta a orientação do dispositivo. Porexemplo, o sensor de inclinação detecta o grau para o qual o dispositivo foirolado para a esquerda ou direita, inclinado para cima ou para baixo ou gui-nado no sentido horário ou anti-horário. Em um aspecto, o sensor de inclina-ção mede pelo menos dois níveis discretos de inclinação de rolamento aoredor do eixo X, em cujo caso o dispositivo pode ser dito como sendo roladopara a esquerda, rolado para a direita ou não rolado para a esquerda ou di-reita. Além disso, o sensor de inclinação mede pelo menos dois níveis dis-cretos de inclinação de declividade ao redor do eixo Y na direção para frenteou para trás, em cujo caso o dispositivo pode ser dito como sendo inclinadopara cima, inclinado para baixo ou não inclinado para cima ou para baixo.
Além do que, o sensor de inclinação mede pelo menos dois níveis discretosde inclinação de guinada ao redor do eixo Z, em cujo caso o dispositivo podeser dito como sendo guinado no sentido horário, guinado no sentido anti-horário ou não guinado. Em uma tal implementação, o sensor de inclinaçãoindica que o dispositivo foi rolado para a esquerda quando o dispositivo foirolado entre 15° e 45° para a esquerda. Como um outro exemplo, o sensorde inclinação indica que o dispositivo não foi inclinado para frente ou paratrás quando o dispositivo foi inclinado por menos do que 15° para frente emenos do que 15° para trás. Em uma outra implementação, o sensor de in-clinação pode indicar mais do que três níveis de inclinação em cada umadas direções da esquerda para direita e para frente ou para trás. Em uma talimplementação, cada um dos níveis de inclinação em uma direção particularcorresponde a uma faixa de graus nos quais o dispositivo foi inclinado.
Uma indicação do deslocamento angular é exibida (etapa S306).
Como descrito acimaré-possível que a orientação da posição neutra possanão ser instintiva para um usuário. Além do mais, cada eixo pode ter duas oumais regiões de inclinação em cada direção ao redor de cada eixo. Por es-sas e outras razões, um indicador é provido para exibir uma indicação dodeslocamento angular, ou uma indicação da região de inclinação à qual odeslocamento angular corresponde, em tempo real ou próximo do temporeal. Se o deslocamento angular é medido em um momento antes ou depoisque o controle é selecionado, o indicador estima o deslocamento angularapropriado ou a indicação da região de inclinação no momento com base emtoda a informação disponível. Se a posição neutra é definida em relação amais do que um eixo, o usuário pode determinar qual eixo o indicador estáindicando, o indicador pode ter um eixo padrão ou preestabelecido de inte-resse, ou a determinação pode ser sensível ao contexto.
As figuras 6A a 6B ilustram indicadores exemplares de acordocom um aspecto exemplar. Na figura 6A, o indicador 600 indica a orientaçãodo dispositivo em um mostrador. O indicador provê um retorno visual de mo-do que o usuário fica ciente da orientação do dispositivo que será usado pa-ra interpretar uma seleção de controle.
O indicador 600 inclui indicador de inclinação positiva 601 e indi-cador de inclinação negativa 604, que apontam nas direções negativa (es-querda) e positiva (direita), respectivamente. Além disso, o indicador 600inclui o indicador de centro 602 que é visualmente distinto do indicador deinclinação positiva 601 e do indicador de inclinação negativa 604 quando odispositivo não está inclinado, tal como quando o dispositivo está na posiçãoneutra ou em uma posição que não é registrada pelo sensor de inclinação,tal como de cabeça para baixo. Um dos indicadores de inclinação é ilumina-do ou de outra maneira visualmente distinto do outro indicador de inclinaçãoe do indicador de centro 602 quando o dispositivo é inclinado na direção in-dicada. Além do mais, o indicador de centro 602 é iluminado ou de outramaneira visualmente distinto do indicador de inclinação positiva 601 e indi-cador de inclinação negativa 604 quando o dispositivo não é rolado para aesquerda ou a direita. O indicador de centro, por exemplo, seria iluminadoquando o dispositivo é-orientado-como-ilustrado na figura 1. O indicador deinclinação positiva 601 seria iluminado quando o dispositivo é orientado co-mo ilustrado na região 402 da figura 4A, e o indicador de inclinação negativa604 seria iluminado quando o dispositivo é orientado como ilustrado na regi-ão 401 da figura 4A.
Em uma outra implementação ilustrada nas figuras 6B e 6C, oindicador 605 também inclui dois indicadores de inclinação parcial 606 e 607que também apontam nas direções negativa e positiva, respectivamente.Cada um dos indicadores de inclinação parcial fica localizado entre o indica-dor de centro 604 e o indicador de inclinação negativa 604 ou o indicador deinclinação positiva 601. Os indicadores de inclinação parcial são iluminadosou de outra forma visualmente distintos dos outros componentes do indica-dor 605 quando o dispositivo é inclinado parcialmente na direção indicada.Em uma implementação, ambos o indicador de inclinação parcial e o indica-dor de centro são iluminados quando o dispositivo é parcialmente inclinadona direção correspondente. Por exemplo, o indicador de inclinação negativa604 seria iluminado quando o dispositivo fosse orientado na região de incli-nação 404 da figura 4B, o indicador de inclinação parcial negativa 606 e oindicador de centro 602 seriam iluminados quando o dispositivo fosse orien-tado na região de inclinação 405 da figura 4B, o indicador de centro 602 se-ria iluminado quando o dispositivo fosse orientado na posição neutra, comoilustrado na figura 1, o indicador de inclinação parcial positiva 607 e o indi-cador de centro 602 seriam iluminados quando o dispositivo fosse orientadona região de inclinação 406 da figura 4B, e o indicador de inclinação positiva601 seria iluminado quando o dispositivo fosse orientado na região de incli-nação 407 da figura 4B. Qualquer número de indicadores de inclinação ouindicadores de inclinação parcial é considerado para cada eixo. Para um ei-xo tendo várias dúzias de regiões de inclinação associadas, por exemplo, omesmo número, mais ou menos indicadores de inclinação podem ser usa-dos para prover um retorno visual.
A figura 6D ilustra um indicador de inclinação de dois eixos quepode ser apresentado no mostrador. Embora os eixos discutidos em conjun-to coma figura 6D sejam citados como os eixos de declividade (para frente epara trás) e rolagem (para a esquerda e direita), essas indicações são arbi-trárias, e um conjunto de indicadores poderia também ser o eixo da guinadaou um outro eixo. O indicador 609 opera similarmente ao indicador 605 comrelação a um eixo, entretanto, o indicador 609 também integra um indicadorde inclinação de declividade compreendendo o indicador de declividade ne-gativa 610, indicador de declividade negativa parcial 611, indicador de decli-vidade positiva parcial 612 e indicador de declividade positiva 614, para oindicador de um eixo previamente descrito 605, que foi descrito como umindicador de rolagem. Em um outro aspecto ilustrado na figura 6E, o indica-dor inclui um aspecto único 615 que indica o significado da orientação dodispositivo. Por exemplo, o indicador de aspecto único indica se númerospodem ser fornecidos como saída ou não por causa da medição do deslo-camento angular do dispositivo.
Embora o indicador seja representado nas figuras 1 e 6 comouma série de setas ou luzes intuitivas, em um aspecto, o indicador é incorpo-rado no mostrador, tal como mostrador 105, ou o indicador é um alto-falanteque toca sons ou arquivos de som que descrevem a inclinação do dispositivopara o usuário através de áudio. Além do mais, em um outro aspecto, ne-nhuma indicação do deslocamento angular ou da região de inclinação é exi-bida ou de outra forma gerada.
De volta para a figura 3, uma seleção do primeiro controle é re-cebida (etapa S307). Em um aspecto, o controle é um botão da base de te-clas e a seleção ocorre quando o usuário aperta o botão, dessa maneirapossibilitando que um sinal seja gerado e transmitido para o processadorindicando que uma seleção do botão da base de teclas ocorreu. Em um ou-tro aspecto, o controle não é um controle físico, mas ao invés disso um íconeem uma tela sensível ao toque. Nesse aspecto, a seleção ocorre quando ousuário toca uma área da tela sensível ao toque associada com o ícone, on-de uma aplicação de tela sensível ao toque lê as coordenadas do toque, cor-relaciona as coordenadas com a localização do ícone e transmite um sinalindicando que o controle foi selecionado. Outros tipos de seleções de contro-le são também considerados.
De acordo com a implementação da figura 5, o dispositivo 500inclui uma base de teclas, ou agrupamento de controles, que possibilita queo usuário insira texto de modo a interagir com a GUI apresentada no mos-trador 505. Cada controle corresponde a múltiplos sinais de saída, cada sinalde saída associado com um caractere. Em um aspecto, a base de teclasinclui oito controles, marcados "2" a "9" que correspondem, cada um, commúltiplas letras e um número. Por exemplo, o controle marcado "2" corres-ponde a as letras "A", "B" e "C" e o número "2". Além disso, outros controlesincluídos na base de teclas executam outras funções de entrada de texto.Por exemplo, o controle marcado "*" é usado para mudar a caixa de um pró-ximo caractere que é fornecido como saída. O controle marcado "0" é usadopara avançar para um caractere subseqüente depois que um caractere atualfoi especificado e o controle marcado "#" é usado para inserir um caracterede "espaço".
Um da primeira pluralidade de sinais de saída é fornecido comosaída com base pelo menos na seleção e no deslocamento angular (etapaS309), ou pelo menos na seleção, no deslocamento angular e na pluralidadede regiões de inclinação. Desde que o primeiro controle é associado comuma primeira pluralidade de sinais de saída, o deslocamento angular ou odeslocamento angular e a pluralidade de regiões de inclinação são usadospara determinar qual da primeira pluralidade de sinais de saída é fornecidocomo saída. Em um aspecto, a posição neutra do dispositivo é determinadaem relação a um eixo, onde três regiões de inclinação são definidas ao redordesse um eixo e onde o primeiro controle é associado com três regiões deinclinação. Nesse caso, se o deslocamento angular está na primeira regiãode inclinação, o primeiro sinal de saída é fornecido como saída, se o deslo-camento angular está na segunda região de inclinação, o segundo sinal desaída é fornecido como saída e se o deslocamento angular está na terceiraregião de inclinação, o terceiro sinal de saída é fornecido como saída. Emum aspecto alternativo, o sinal de saída é fornecido como saída com baseno deslocamento angular e no número de sinais de saída associados com oprimeiro controle, com base em uma fórmula ou um algoritmo.
As figuras 7 a 10 representam vistas frontal e lateral do dispositi-vo da figura 5 em estados diferentes de manipulação. Em particular, as figu-ras 7 A e 7B ilustram as vistas frontal e lateral, respectivamente, do dispositi-vo 500 na posição neutra. A figura 8A ilustra uma vista frontal do dispositivomanipulado em uma rolagem negativa ao redor do eixo Xea figura 8B ilus-tra uma vista frontal do dispositivo manipulado em uma rolagem positiva aoredor do eixo X. Similarmente, a figura 9A ilustra uma vista lateral do disposi-tivo manipulado em uma declividade positiva ao redor do eixo Yea figura 9Bilustra uma vista lateral do dispositivo manipulado em uma declividade nega-tiva ao redor do eixo Y. Nas figuras 8 e 9, o dispositivo foi inclinado por apro-ximadamente ±30° ao redor dos eixos respectivos a partir da posição neutra,mostrada na figura 7.
A orientação do dispositivo, como indicado pelo deslocamentoangular medido pelo sensor de inclinação, quando um controle da base deteclas é selecionado afeta a saída do sinal de saída pelo dispositivo, afetan-do, por exemplo, o caractere gerado pela seleção de controle. Cada um dosmúltiplos caracteres ou sinais de saída representados por um único controlede uma base de teclas corresponde a uma orientação diferente do dispositi-vo. Quando um dos controles da base de teclas é selecionado, o dispositivoidentifica a pluralidade de caracteres que correspondem ao controle selecio-nado e a orientação do dispositivo indicada pelo sensor de inclinação. Umdos múltiplos caracteres e uma caixa para o caractere são identificados combase na orientação identificada, e o caractere identificado é fornecido comosaída.O grau para o qual o dispositivo foi rolado para a esquerda oudireita quando um controle é selecionado afeta qual dos múltiplos caracteresrepresentado pelo controle é fornecido como saída. Em uma implementação,os controles que representam múltiplos caracteres representam três letras eas letras representadas pelo controle são listadas da esquerda para a direitano controle. O dispositivo é configurado para indicar que o dispositivo é rola-do para a esquerda, rolado para a direita ou não rolado para a esquerda oudireita; Em uma tal implementação, a rolagem do dispositivo para a esquer-da quando o controle é selecionado indica que o caractere listado mais àesquerda deve ser fornecido como saída. Similarmente, a rolagem do dispo-sitivo para a direita quando o controle é selecionado indica que o caracterelistado mais à direita deve ser fornecido como saída. Finalmente, manter odispositivo orientado na posição neutra quando o controle é selecionado in-dica que o caractere de centro deve ser fornecido como saída.
Em uma outra implementação, a rolagem do dispositivo para aesquerda quando o controle é selecionado indica que o caractere listadomais à direita deve ser fornecido como saída, a rolagem do dispositivo paraa direita quando o controle é selecionado indica que o caractere listado maisà esquerda deve ser fornecido como saída, e manter o dispositivo orientadona posição neutra quando o controle é selecionado indica que o caracterecentral deve ser fornecido como saída. Uma tal implementação pode ser u-sada, por exemplo, porque a rolagem do dispositivo para a esquerda faz ocaractere listado mais à direita aparecer acima e mais proeminentemente doque os outros caracteres listados, e a rolagem do dispositivo para a direitafaz com que o caractere listado mais à esquerda apareça acima e mais pro-eminentemente do que os outros caracteres listados.
Em outras implementações, os controles da base de teclas re-presentam mais do que três caracteres, tal como três letras e um número ouquatro letras e um número. Por exemplo, o controle em um telefone conven-cional marcado "7" corresponde a as letras "P", "Q", "R" e "S" e o número"7". Em um tal caso, o sensor de inclinação é configurado para identificarmais do que três posições de rolagem discretas da esquerda para a direitatal que um dos mais do que três caracteres representados por um controleselecionado pode ser identificado com base somente na orientação de rola-gem do dispositivo. Cada uma das posições de rolagem discreta correspon-de a um dos caracteres representado pelo controle selecionado. Por exem-pio, se o controle selecionado é a tecla marcada "7", o dispositivo sendo ro-lado como ilustrado na região 404 da figura 4B indicaria que a letra "P" deveser fornecida como saída, o dispositivo sendo rolado como ilustrado na regi-ão 405 da figura 4B-indicaria que a letra "Q" deve ser fornecida como saída,o dispositivo sendo rolado como ilustrado na região 406 da figura 4B indica-ria que a letra "R" deve ser fornecida como saída, o dispositivo sendo roladocomo ilustrado na região 407 da figura 4B indicaria que a letra "S" deve serfornecida como saída e o dispositivo sendo orientado na posição neutra,como ilustrado na figura 1, indicaria que o número "7" deve ser fornecidocomo saída.
Embora a orientação de rolagem do dispositivo seja usada paraidentificar um caractere a ser fornecido como saída, a orientação da declivi-dade do dispositivo é usada para identificar uma caixa para o caractere. Emuma implementação, o dispositivo sendo enviesado (ou inclinado) para fren-te quando um controle é selecionado faz com que um caractere que é identi-ficado pela orientação de rolagem (inclinação da esquerda para a direita) dodispositivo seja fornecido como saída em caixa alta. Similarmente, o disposi-tivo não sendo inclinado para frente ou para trás (em uma posição de decli-vidade neutra) quando um controle é selecionado faz com que um caractereque é identificado pela orientação de rolagem (inclinação da esquerda para adireita) do dispositivo seja fornecido como saída em caixa baixa.
Em algumas implementações, o dispositivo sendo enviesado (ouinclinado) para trás pode fazer com que um símbolo seja fornecido comosaída. O símbolo pode ser um símbolo correspondendo com o número re-presentado pelo controle selecionado em um teclado de computador con-vencional. Por exemplo, se o controle que representa o número "1" é sele-cionado enquanto o dispositivo está inclinado para trás, o símbolo "!" podeser fornecido como saída porque o símbolo "!" corresponde a o número "1"em um teclado de computador convencional (por exemplo, pressionando"Shift" e "1" em um teclado de computador fornece como saída o caractere
O sensor de inclinação é capaz de detectar mais posições deinclinação na direção de declividade do que é necessário para indicar a cai-xa do caractere a ser fornecido como saída. Como tal, as posições de decli-vidade que não são usadas para indicar a caixa do caractere podem ser u-sadas para selecionar o caractere. Por exemplo; um controle pode represen-tar três letras e um número e essas três posições de rolagem podem ser u-sadas para selecionar entre as três letras. Duas posições de declividade po-dem selecionar a caixa para letras e uma terceira posição de inclinação dedeclividade pode selecionar o número representado pela tecla.
Além do mais, o sensor de inclinação indica independentementese o dispositivo foi rolado para a esquerda, para o neutro ou para a direita ouse o dispositivo declinou para frente, para o neutro ou para trás, dessa ma-neira permitindo que o sensor de inclinação indique se o dispositivo está emuma das nove orientações. Cada uma das nove orientações pode corres-ponder com um caractere e uma caixa para o caractere.
A figura 10 é uma tabela mostrando um mapeamento possíveldas orientações do dispositivo para sinais de saída correspondendo comcaracteres e caixas que podem ser fornecidos como saída quando o controlemarcado "2" na base de teclas é selecionado. No mapeamento ilustrado, odispositivo sendo rolado para a esquerda e inclinado para frente faz com quea letra maiúscula "A" seja fornecida como saída, o dispositivo não sendo ro-lado ou inclinado em qualquer caixa de direção faz com que a letra em caixabaixa "b" seja fornecida como saída e o dispositivo sendo inclinado para trásfaz com que o número "2" seja fornecido como saída. Em outras implemen-tações nas quais o sensor de inclinação pode identificar mais do que trêsposições de rolagem ou mais do que três posições de declividade, mais ori-entações que podem ser mapeadas para caracteres e caixas ficam disponí-veis.
Sinais de saída correspondendo com caracteres são descritoscomo sendo selecionados com base em um primeiro deslocamento de eixoangular ou posição de inclinação do dispositivo, e sinais de saída correspon-dendo com caixas altas ou baixas para os caracteres são descritos em todaparte como sendo selecionados com base em um segundo deslocamentoangular de eixo ou posição do dispositivo. Em outras implementações, odeslocamento angular nos eixos diferentes pode efetuar a saída dos sinaiscorrespondendo com caracteres ou caixa alta e baixa dos caracteres. Emgeral, qualquer orientação do dispositivo pode ser mapeada para qualquercaractere e caixa para o caractere, a despeito de qual dos eixos foi usadopara selecionar o caractere ou a caixa.
Além de fornecer como saída um sinal correspondendo com umcaractere que é fornecido como saída em resposta à seleção de um contro-le, a orientação do dispositivo pode ser usada para indicar uma opção demenu que é para ser selecionada. Por exemplo, a seleção de um controleque não corresponde a quaisquer caracteres, tal como a tecla "1" em umtelefone, faz com que um menu seja apresentado no mostrador do telefone,onde cada opção do menu corresponde a uma orientação diferente do tele-fone. A orientação do dispositivo quando um controle indicando que umaseleção do menu deve ser feita (por exemplo, uma tecla "OK", uma tecla"Enter" ou a tecla "1" é selecionada) pode indicar qual das opções do menué selecionada. Em um aspecto, um menu de símbolos similar ao que é ilus-trado nas figuras 11A e 11B é exibido quando a tecla "1" é selecionada. Ainclinação do dispositivo e a seleção da tecla "1" novamente podem fazercom que um símbolo correspondente seja fornecido como saída. Depois queo símbolo foi fornecido como saída, letras e números podem ser fornecidoscomo saída, como descrito acima, até que a tecla "1" é selecionada nova-mente para exibir o menu de símbolos. A inversão total do dispositivo, a agi-tação do dispositivo ou de alguma forma o movimento do dispositivo em umamaneira que não é interpretada como uma inclinação do dispositivo gera umoutro menu.
Um primeiro sinal de saída é fornecido como saída se o deslo-camento angular está dentro da primeira região de inclinação quando a sele-ção é recebida, onde um segundo sinal de saída é fornecido como saída seo deslocamento angular está dentro da segunda região de inclinação quandoa seleção é recebida. Além do mais, um terceiro ou quarto sinal de saída éfornecido como saída se o deslocamento angular está dentro da terceira ouquarta região de inclinação, respectivamente, quando a seleção é recebida.
Se uma pluralidade de regiões de inclinação do primeiro eixo édefinida ao redor do primeiro eixo e uma pluralidade de regiões de inclinaçãodo segundo eixo é definida ao redor do segundo eixo, um da primeira plura-lidade de sinais de saída pode ser também fornecido como saída com basena pluralidade de regiões de inclinação do primeiro eixo e/ou na pluralidadede regiões de inclinação do segundo eixo. Quando a seleção é recebida, umprimeiro sinal de saída pode ser fornecido como saída se o componente doprimeiro eixo está dentro de uma primeira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro de uma primeira regiãode inclinação do segundo eixo, um segundo sinal de saída pode ser forneci-do como saída se o componente do primeiro eixo está dentro de uma se-gunda região de inclinação do primeiro eixo e se o componente do segundoeixo está dentro da primeira região de inclinação do segundo eixo, um tercei-ro sinal de saída pode ser fornecido como saída se o componente do primei-ro eixo está dentro da segunda região de inclinação do primeiro eixo e se ocomponente do segundo eixo está dentro de uma segunda região de inclina-ção do segundo eixo e/ou um quarto sinal de saída pode ser fornecido comosaída se o componente do primeiro eixo está dentro da segunda região deinclinação do primeiro eixo e se o componente do segundo eixo está dentroda segunda região de inclinação do segundo eixo.
Alternativamente, em um outro aspecto, quando a seleção é re-cebida, um primeiro sinal de saída pode ser fornecido como saída se o pri-meiro componente está dentro de uma primeira região de inclinação do pri-meiro eixo e se o componente do segundo eixo está dentro de uma primeiraregião de inclinação do segundo eixo, um segundo sinal de saída pode serfornecido como saída se o primeiro componente está dentro da primeira re-gião de inclinação do primeiro eixo e se o componente do segundo eixo estádentro de uma segunda região de inclinação do segundo eixo, um terceirosinal de saída pode ser fornecido como saída se o primeiro componente estádentro da primeira região de inclinação do primeiro eixo e se o componentedo segundo eixo está dentro de uma terceira região de inclinação do segun-do eixo, um quarto sinal de saída pode ser fornecido como saída se o primei-ro componente está dentro de uma segunda região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da primeira região de"inclinação~do segundo eixo, um quinto sinal de saída pode ser fornecido co-mo saída se o primeiro componente está dentro da segunda região de incli-nação do primeiro eixo e se o componente do segundo eixo está dentro dasegunda região de inclinação do segundo eixo, um sexto sinal de saída podeser fornecido como saída se o primeiro componente está dentro da segundaregião de inclinação do primeiro eixo e se o componente do segundo eixoestá dentro da terceira região de inclinação do segundo eixo, um sétimo si-nal de saída pode ser fornecido como saída se o primeiro componente estádentro de uma terceira região de inclinação do primeiro eixo e se o compo-nente do segundo eixo está dentro da primeira região de inclinação do se-gundo eixo, um oitavo sinal de saída pode ser fornecido como saída se oprimeiro componente está dentro da terceira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da segunda região deinclinação do segundo eixo e/ou um nono sinal de saída pode ser fornecidocomo saída se o primeiro componente está dentro da terceira região de in-clinação do primeiro eixo e se o componente do segundo eixo está dentro daterceira região de inclinação do segundo eixo.
O sinal de saída é exibido (etapa S310) e o método 300 termina(etapa S311). O sinal de saída é exibido em um mostrador, tal como mostra-dor 105. Em um aspecto alternado, o sinal de saída não é exibido.
Na implementação da figura 5, o dispositivo 500 também inclui omostrador 505, que é usado para apresentar uma interface gráfica do usuá-rio ("GUI") para um usuário do dispositivo 500. A GUI possibilita que um u-suário do dispositivo 500 execute funções que exigem que o usuário insiratexto no dispositivo 500. Por exemplo, o usuário pode identificar uma entradapara uma pessoa dentro de um caderno de telefone armazenado no disposi-tivo 500 inserindo o nome da pessoa. Como um outro exemplo, o usuáriopode adicionar uma entrada para uma pessoa no caderno de telefone inse-rindo informação descrevendo a pessoa, tal como o nome da pessoa e umou mais números de telefone usados pela pessoa. Além do mais, a GUI pos-sibilita que o usuário especifique uma mensagem de texto que é para serenviada do dispositivo 500 ou especifique uma outra nota textual que é paraser armazenada no dispositivo~5OOrO dispositivo 500 também exibe umaGUI que possibilita que um usuário especifique uma mensagem de texto.
A interpretação das seleções de controle com base nas orienta-ções do dispositivo quando as seleções de controle são feitas aumenta onúmero de operações que podem ser executadas com uma única seleção decontrole. Por exemplo, cada seleção de controle pode ser interpretada emuma série de maneiras que é igual ao número de orientações distintas dodispositivo que pode ser detectado. Além do mais, a orientação do dispositi-vo pode indicar como a seleção do controle que não corresponde a quais-quer caracteres pode ser interpretada. Portanto, um usuário pode ser habili-tado a executar rapidamente operações relativamente complexas simples-mente inclinando o dispositivo e selecionando os controles. Por exemplo, aseleção da tecla "*" enquanto o dispositivo é rolado para a esquerda podefazer com que um modo particular de entrada de texto (por exemplo, núme-ros somente, todas as letras maiúsculas) seja usado para a entrada de textoaté a próxima vez que a tecla "*" é selecionada quando o dispositivo é roladopara a esquerda. Em um outro aspecto, o sensor de inclinação efetua a rola-gem de inclinação, tal que, com a recepção da seleção de um controle, umainterface de usuário é rolada correspondendo com a direção da inclinação.Uma declividade para frente ocorrendo no momento da seleção do controle,por exemplo, resultaria na interface do usuário, ou um item de menu na inter-face do usuário, rolando para cima.
De acordo com um outro aspecto geral, um produto de programade computador, armazenado de maneira tangível em um meio legível porcomputador é recitado. O produto de programa de computador é operávelpara fazer com que um computador execute operações incluindo determinaruma posição neutra de um dispositivo em relação à pelo menos um primeiroeixo, o dispositivo incluindo pelo menos um primeiro controle associado comuma primeira pluralidade de sinais de saída e medir o deslocamento angulardo dispositivo ao redor de pelo menos o primeiro eixo. O produto de progra-ma de computador é também operável para fazer com que um computadorexecute operações incluindo receber uma seleção do primeiro controle efornecer como saída um da primeira pluralidade de sinais de saída com basepelo menos na seleção e no deslocamento angular.
Finalmente, embora uma série de implementações tenha sidodescrita ou exemplificada como um dispositivo de telefone, é consideradoque os conceitos relatados aqui não são, de maneira alguma, limitados àtelefonia, e são na realidade aplicáveis a uma ampla variedade de dispositi-vos, incluindo qualquer dispositivo no qual o número de controles é minimi-zado devido ao projeto do dispositivo e restrições de layout. Dispositivos e-xemplares incluem teclados de computador, controles remotos, relógios, bar-ras de direção ou controladores de jogo ou outros dispositivos eletrônicos deconsumidor ou de entrada no computador.
Dessa maneira, uma série de implementações foi descrita. Con-tudo, será entendido que várias modificações podem ser feitas. Por exemplo,elementos de implementações diferentes podem ser combinados, comple-mentados ou removidos para produzir outras implementações. Além do que,várias tecnologias podem ser usadas, combinadas e modificadas para pro-duzir uma implementação, tais tecnologias incluindo, por exemplo, uma vari-edade de conjunto de circuitos eletrônicos digital, hardware, software, firm-ware, componentes integrados, componentes discretos, dispositivos de pro-cessamento, dispositivos de memória ou armazenamento, dispositivos decomunicação, lentes, filtros, dispositivos de exibição e dispositivos de projeção.

Claims (32)

1. Método compreendendo:determinar uma posição neutra de um dispositivo em relação àpelo menos um primeiro eixo, o dispositivo incluindo pelo menos um primeirocontrole associado com uma primeira pluralidade de sinais de saída,medir um deslocamento angular do dispositivo ao redor de pelomenos o primeiro eixo,receber urna seleção do primeiro controle efornecer como saída um da primeira pluralidade de sinais de sa-ida com base pelo menos na seleção e no deslocamento angular.
2. Método de acordo com a reivindicação 1,no qual a posição neutra do dispositivo é determinada em rela-ção à pelo menos um segundo eixo, ortogonal ao primeiro eixo eonde o deslocamento angular inclui um componente do primeiroeixo e um componente do segundo eixo.
3. Método de acordo com a reivindicação 2, no qual o primeiroeixo e o segundo eixo se interceptam dentro do dispositivo.
4. Método de acordo com a reivindicação 1,no qual a posição neutra do dispositivo é determinada em rela-ção à pelo menos um terceiro eixo ortogonal ao primeiro eixo e ao segundoeixo eonde o deslocamento angular inclui um componente do terceiroeixo.
5. Método de acordo com a reivindicação 1, no qual o primeirocontrole é associado com pelo menos três sinais de saída.
6. Método de acordo com a reivindicação 5, no qual o primeirocontrole é associado com pelo menos nove sinais de saída.
7. Método de acordo com a reivindicação 1, no qual cada um dapluralidade de sinais de saída corresponde com um caractere.
8. Método de acordo com a reivindicação 7, no qual cada um dapluralidade de sinais de saída corresponde com um caractere alfanumérico.
9. Método de acordo com a reivindicação 1, também compreen-dendo exibir o sinal de saída.
10. Método de acordo com a reivindicação 1, também compre-endendo exibir uma indicação do deslocamento angular.
11. Método de acordo com a reivindicação 1, também compre-endendo definir uma pluralidade de regiões de inclinação ao redor do primei-ro eixo, onde um da primeira pluralidade de sinais de saída é também forne-cido como saída com base na pluralidade de regiões de inclinação.
12. Método de acordo com a reivindicação 12, no qual o deslo-camento angular do dispositivo ao redor do primeiro eixo é medido como 0o,e onde uma primeira região de inclinação abrange um deslocamento angularde 0o.
13. Método de acordo com a reivindicação 12, no qual uma pri-meira região de inclinação é definida como uma região abrangendo -30° a 0oao redor do primeiro eixo e no qual uma segunda região de inclinação é de-finida como uma região abrangendo 0o a +30° ao redor do primeiro eixo.
14. Método de acordo com a reivindicação 12,no qual um primeiro sinal de saída é fornecido como saída se odeslocamento angular está dentro da primeira região de inclinação quando aseleção é recebida eno qual um segundo sinal de saída é fornecido como saída se odeslocamento angular está dentro da segunda região de inclinação quando aseleção é recebida.
15. Método de acordo com a reivindicação 15, no qual um tercei-ro ou quarto sinal de saída é fornecido como saída se o deslocamento angu-lar está dentro da terceira ou quarta região de inclinação, respectivamente,quando a seleção é recebida.
16. Método de acordo com a reivindicação 2, também compre-endendo definir uma pluralidade de regiões de inclinação do primeiro eixo aoredor do primeiro eixo e uma pluralidade de regiões de inclinação do segun-do eixo ao redor do segundo eixo, onde o um da primeira pluralidade de si-nais de saída é também fornecido como saída com base na pluralidade deregiões de inclinação do primeiro eixo e/ou na pluralidade de regiões de in-clinação do segundo eixo.
17.
18. Método de acordo com a reivindicação 17,no qual quando a seleção é recebida:um primeiro sinal de saída é fornecido como saída se o compo-nente do primeiro eixo está dentro de uma primeira região de inclinação doprimeiro eixo e se o componente do segundo eixo está dentro de uma pri-meira região de inclinação do segundo eixo,- um segundo-sinal de saída é fornecido como saída se o com-ponente do primeiro eixo está dentro de uma segunda região de inclinaçãodo primeiro eixo e se o componente do segundo eixo está dentro da primeiraregião de inclinação do segundo eixo,um terceiro sinal de saída é fornecido como saída se o compo-nente do primeiro eixo está dentro da segunda região de inclinação do pri-meiro eixo e se o componente do segundo eixo está dentro de uma segundaregião de inclinação do segundo eixo e/ouum quarto sinal de saída é fornecido como saída se o compo-nente do primeiro eixo está dentro da segunda região de inclinação do pri-meiro eixo e se o componente do segundo eixo está dentro da segunda re-gião de inclinação o segundo eixo.
19. Método de acordo com a reivindicação 17,no qual quando a seleção é recebida:um primeiro sinal de saída é fornecido como saída se o primeirocomponente está dentro de uma primeira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro de uma primeira regiãode inclinação do segundo eixo,um segundo sinal de saída é fornecido como saída se o primeirocomponente está dentro da primeira região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro de uma segunda região deinclinação do segundo eixo,um terceiro sinal de saída é fornecido como saída se o primeirocomponente está dentro da primeira região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro de uma terceira região deinclinação do segundo eixo,um quarto sinal de saída é fornecido como saída se o primeirocomponente está dentro de uma segunda região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da primeira região deinclinação do segundo eixo,um quinto sinal de saída é fornecido como saída se o primeirocomponente está dentro da segunda região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro da segunda região de inclina-ção do segundo eixo,um sexto sinal de saída é fornecido como saída se o primeirocomponente está dentro da segunda região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro da terceira região de inclina-ção do segundo eixo,um sétimo sinal de saída é fornecido como saída se o primeirocomponente está dentro de uma terceira região de inclinação do primeiroeixo e se o componente do segundo eixo está dentro da primeira região deinclinação do segundo eixo,um oitavo sinal de saída é fornecido como saída se o primeirocomponente está dentro da terceira região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro da segunda região de inclina-ção do segundo eixo, e/ouum nono sinal de saída é fornecido como saída se o primeirocomponente está dentro da terceira região de inclinação do primeiro eixo ese o componente do segundo eixo está dentro da terceira região de inclina-ção do segundo eixo.
20. Dispositivo compreendendo:um sensor de inclinação configurado para determinar uma posi-ção neutra de um dispositivo em relação à pelo menos um primeiro eixo etambém configurado para medir o deslocamento angular do dispositivo aoredor de pelo menos o primeiro eixo,pelo menos um primeiro controle associado com uma primeirapluralidade de sinais de saída eum processador configurado para receber uma seleção do pri-meiro controle e também configurado para fornecer como saída um da pri-meira pluralidade de sinais de saída com base pelo menos na seleção e nodeslocamento angular.
21. Dispositivo de acordo com a reivindicação 20,no qual o sensor de inclinação determina a posição neutra dodispositivo em relação à pelo menos um segundo eixo, ortogonal ao primeiroeixo eno qual o deslocamento angular inclui um componente do pri-meiro eixo e um componente do segundo eixo.
22. Dispositivo de acordo com a reivindicação 21, no qual o pri-meiro eixo e o segundo eixo se interceptam no centro do dispositivo.
23. Dispositivo de acordo com a reivindicação 20, no qual o pri-meiro eixo e o segundo eixo se interceptam em uma porção de periferia dodispositivo.
24. Dispositivo de acordo com a reivindicação 20, no qual o dis-positivo também inclui pelo menos segundo até décimo controles, cada umassociado com segunda até décima pluralidades de sinais de saída, respec-tivamente.
25. Dispositivo de acordo com a reivindicação 20, no qual o pri-meiro controle é um botão.
26. Dispositivo de acordo com a reivindicação 20, no qual o dis-positivo é um telefone.
27. Dispositivo de acordo com a reivindicação 20, no qual o sen-sor de inclinação é um giroscópio.
28. Dispositivo de acordo com a reivindicação 20, também com-preendendo um mostrador configurado para exibir o sinal de saída.
29. Dispositivo de acordo com a reivindicação 20, também com-preendendo um mostrador configurado para exibir uma indicação do deslo-camento angular.
30. Dispositivo de acordo com a reivindicação 20, também com-preendendo um teclado configurado para inserir a seleção.
31. Produto de programa de computador, armazenado de modotangível em um meio legível por computador, o produto de programa decomputador sendo operável para fazer um computador executar operaçõescompreendendo:determinar uma posição neutra de um dispositivo em relação àpelo menos um primeiro eixo, o dispositivo incluindo pelo menos um primeirocontrole associado com uma primeira pluralidade de sinais de saída,medir o ~deslocamento~angülardo~dispositivo ao redor de pelomenos o primeiro eixo,receber uma seleção do primeiro controle efornecer como saída um da primeira pluralidade de sinais de sa-ída com base pelo menos na seleção e no deslocamento angular.
32. Dispositivo de telefone compreendendo:um sensor de inclinação configurado para determinar uma posi-ção neutra do dispositivo de telefone em relação à pelo menos um eixo derolagem, e também configurado para medir o deslocamento angular do dis-positivo de telefone ao redor do eixo de rolagem,pelo menos primeiro até oitavo botões, cada um associado compelo menos quatro caracteres alfanuméricos eum processador configurado para receber uma seleção do pri-meiro botão e também configurado para fornecer como saída um do pelomenos quatro caracteres alfanuméricos com base pelo menos na seleção eno deslocamento angular.
BRPI0613165-4A 2005-05-17 2006-05-17 saìda de sinal sensìvel à orientação BRPI0613165A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US68147805P 2005-05-17 2005-05-17
US60/681,478 2005-05-17
PCT/US2006/018980 WO2006124935A2 (en) 2005-05-17 2006-05-17 Orientation-sensitive signal output

Publications (1)

Publication Number Publication Date
BRPI0613165A2 true BRPI0613165A2 (pt) 2010-12-21

Family

ID=37432062

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0613165-4A BRPI0613165A2 (pt) 2005-05-17 2006-05-17 saìda de sinal sensìvel à orientação

Country Status (8)

Country Link
US (4) US7389591B2 (pt)
EP (1) EP1886509B1 (pt)
JP (3) JP5038296B2 (pt)
KR (2) KR101403172B1 (pt)
CN (2) CN103257684B (pt)
BR (1) BRPI0613165A2 (pt)
RU (1) RU2007146172A (pt)
WO (1) WO2006124935A2 (pt)

Families Citing this family (388)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
FI117488B (fi) 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US7159194B2 (en) * 2001-11-30 2007-01-02 Palm, Inc. Orientation dependent functionality of an electronic device
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
WO2004066615A1 (en) * 2003-01-22 2004-08-05 Nokia Corporation Image control
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US9092190B2 (en) 2010-10-01 2015-07-28 Z124 Smartpad split screen
CA2531524A1 (en) * 2003-10-31 2005-05-12 Iota Wireless Llc Concurrent data entry for a portable device
US20080129552A1 (en) * 2003-10-31 2008-06-05 Iota Wireless Llc Concurrent data entry for a portable device
US7400316B2 (en) * 2004-05-28 2008-07-15 International Business Machines Corporation Method and apparatus for dynamically modifying web page display for mobile devices
CN101536494B (zh) * 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US20090305727A1 (en) * 2005-03-04 2009-12-10 Heikki Pylkko Mobile device with wide range-angle optics and a radiation sensor
US20090297062A1 (en) * 2005-03-04 2009-12-03 Molne Anders L Mobile device with wide-angle optics and a radiation sensor
WO2006124935A2 (en) * 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US7533569B2 (en) * 2006-03-15 2009-05-19 Qualcomm, Incorporated Sensor-based orientation system
WO2008094458A1 (en) 2007-01-26 2008-08-07 F-Origin, Inc. Viewing images with tilt control on a hand-held device
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
EP2150893A4 (en) 2007-04-24 2012-08-22 Oblong Ind Inc PROTEINS, POOLS AND SLAWX IN PROCESSING ENVIRONMENTS
US10504317B2 (en) 2007-04-30 2019-12-10 Cfph, Llc Game with player actuated control structure
EP2153377A4 (en) * 2007-05-04 2017-05-31 Qualcomm Incorporated Camera-based user input for compact devices
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US9317110B2 (en) 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
TWI350466B (en) * 2007-11-06 2011-10-11 Htc Corp Method for inputting character
US8418083B1 (en) 2007-11-26 2013-04-09 Sprint Communications Company L.P. Applying a navigational mode to a device
WO2009072240A1 (ja) * 2007-12-07 2009-06-11 Panasonic Corporation 電子機器
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
JP5537044B2 (ja) * 2008-05-30 2014-07-02 キヤノン株式会社 画像表示装置及びその制御方法、コンピュータプログラム
EP2304527A4 (en) * 2008-06-18 2013-03-27 Oblong Ind Inc GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US8146020B2 (en) * 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
CN102165396B (zh) * 2008-07-25 2014-10-29 高通股份有限公司 挥动约定姿态的增强检测
US20100042954A1 (en) * 2008-08-12 2010-02-18 Apple Inc. Motion based input selection
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
WO2010024415A1 (ja) * 2008-08-28 2010-03-04 京セラ株式会社 通信機器
KR101481556B1 (ko) * 2008-09-10 2015-01-13 엘지전자 주식회사 이동 단말기 및 이를 이용한 객체 표시방법
US20100070913A1 (en) * 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
US9201514B1 (en) * 2008-10-16 2015-12-01 Danfoss Power Solutions Inc. Joystick grip with integrated display
US20100100849A1 (en) 2008-10-22 2010-04-22 Dr Systems, Inc. User interface systems and methods
US10345996B2 (en) 2008-10-22 2019-07-09 Merge Healthcare Solutions Inc. User interface systems and methods
US10768785B2 (en) 2008-10-22 2020-09-08 Merge Healthcare Solutions Inc. Pressure sensitive manipulation of medical image data
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US20110216004A1 (en) * 2010-03-08 2011-09-08 David Stephenson Tilt and position command system for input peripherals
US20160259433A1 (en) * 2008-11-14 2016-09-08 David Stephenson Tilt and position command system for input peripherals
US8717283B1 (en) * 2008-11-25 2014-05-06 Sprint Communications Company L.P. Utilizing motion of a device to manipulate a display screen feature
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
KR101521932B1 (ko) * 2009-01-19 2015-05-20 엘지전자 주식회사 단말기 및 그 제어 방법
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8448094B2 (en) * 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
GB2467577A (en) * 2009-02-06 2010-08-11 Sony Corp Handheld electronic device configured to display location of another electronic device when tilted
US8517834B2 (en) * 2009-02-17 2013-08-27 Softkinetic Studios Sa Computer videogame system with body position detector that requires user to assume various body positions
US8006397B2 (en) * 2009-03-13 2011-08-30 Schubert Dick S Remote leveling and positioning system and method
US9464895B2 (en) 2009-03-13 2016-10-11 Otl Dynamics Llc Remote leveling and positioning system and method
US10502565B2 (en) 2009-03-13 2019-12-10 Otl Dynamics Llc Leveling and positioning system and method
US9909867B2 (en) 2009-03-13 2018-03-06 Otl Dynamics Llc Leveling and positioning system and method
US10480940B2 (en) 2009-03-13 2019-11-19 Otl Dynamics Llc Leveling and positioning system and method
US8959784B2 (en) 2009-03-13 2015-02-24 Richard S. Schubert Remote leveling and positioning system and method
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
KR101557678B1 (ko) * 2009-04-22 2015-10-19 삼성전자주식회사 휴대 단말기의 캘리브레이션 방법 및 장치
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
CN101576954A (zh) * 2009-06-10 2009-11-11 中兴通讯股份有限公司 书写笔画识别装置、移动终端及实现空间书写的方法
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
CN102118491B (zh) * 2010-01-04 2014-04-09 中国移动通信集团公司 一种基于电子罗盘的解锁方法和设备
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
WO2011096203A1 (ja) 2010-02-03 2011-08-11 任天堂株式会社 ゲームシステム、操作装置、およびゲーム処理方法
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US20110199302A1 (en) * 2010-02-16 2011-08-18 Microsoft Corporation Capturing screen objects using a collision volume
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
JP5754074B2 (ja) * 2010-03-19 2015-07-22 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
WO2013189058A1 (en) 2012-06-21 2013-12-27 Microsoft Corporation Avatar construction using depth camera
JP6203634B2 (ja) 2010-04-09 2017-09-27 ゾール メディカル コーポレイションZOLL Medical Corporation Ems装置通信インタフェースのシステム及び方法
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
JP2011233064A (ja) * 2010-04-30 2011-11-17 Sony Corp 情報処理装置及び表示画面操作方法
US8593402B2 (en) 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
EP2577430A4 (en) * 2010-05-24 2016-03-16 Will John Temple MULTIDIRECTIONAL BUTTON, KEY AND KEYBOARD
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US9164542B2 (en) * 2010-08-31 2015-10-20 Symbol Technologies, Llc Automated controls for sensor enabled user interface
US9167289B2 (en) 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US9405444B2 (en) 2010-10-01 2016-08-02 Z124 User interface with independent drawer control
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
WO2012048252A1 (en) 2010-10-07 2012-04-12 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8957856B2 (en) 2010-10-21 2015-02-17 Verizon Patent And Licensing Inc. Systems, methods, and apparatuses for spatial input associated with a display
KR101364826B1 (ko) 2010-11-01 2014-02-20 닌텐도가부시키가이샤 조작 장치 및 조작 시스템
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US9041743B2 (en) 2010-11-24 2015-05-26 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
US9070219B2 (en) 2010-11-24 2015-06-30 Aria Glassworks, Inc. System and method for presenting virtual and augmented reality scenes to a user
WO2012071466A2 (en) 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for acquiring virtual and augmented reality scenes by a user
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8797350B2 (en) 2010-12-20 2014-08-05 Dr Systems, Inc. Dynamic customizable human-computer interaction behavior
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8953022B2 (en) 2011-01-10 2015-02-10 Aria Glassworks, Inc. System and method for sharing virtual and augmented reality scenes between users and viewers
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9118970B2 (en) 2011-03-02 2015-08-25 Aria Glassworks, Inc. System and method for embedding and viewing media files within a virtual and augmented reality scene
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US8340696B2 (en) * 2011-03-25 2012-12-25 Sony Mobile Communications Japan, Inc. Mobile terminal device
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
JP4966421B1 (ja) * 2011-03-31 2012-07-04 株式会社東芝 情報処理装置及び情報処理方法
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
CN102778946A (zh) * 2011-05-13 2012-11-14 英华达(南京)科技有限公司 重力感测输入系统及其方法
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
KR101878141B1 (ko) * 2011-05-30 2018-07-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
JP5869236B2 (ja) 2011-06-03 2016-02-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5937792B2 (ja) * 2011-06-03 2016-06-22 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US20130076654A1 (en) 2011-09-27 2013-03-28 Imerj LLC Handset states and state diagrams: open, closed transitional and easel
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
CN104185864B (zh) * 2012-02-14 2017-04-12 许丕文 智能标识系统
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US8732974B2 (en) * 2012-05-16 2014-05-27 Symbol Technologies, Inc. Dimensioning accessory for mobile device
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
US8532675B1 (en) 2012-06-27 2013-09-10 Blackberry Limited Mobile communication device user interface for manipulation of data items in a physical space
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
CN103631469B (zh) * 2012-08-21 2016-10-05 联想(北京)有限公司 显示图标的处理方法、装置及电子设备
US9676073B2 (en) 2012-09-20 2017-06-13 Otl Dynamics Llc Work-tool control system and method
JP2015533248A (ja) 2012-09-28 2015-11-19 ゾール メディカル コーポレイションZOLL Medical Corporation Ems環境内で三次元対話をモニタするためのシステム及び方法
US9626799B2 (en) 2012-10-02 2017-04-18 Aria Glassworks, Inc. System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display
US8774855B2 (en) * 2012-11-09 2014-07-08 Futurewei Technologies, Inc. Method to estimate head relative handset location
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9942387B2 (en) 2013-01-04 2018-04-10 Nokia Technologies Oy Method and apparatus for sensing flexing of a device
US9568713B2 (en) 2013-01-05 2017-02-14 Light Labs Inc. Methods and apparatus for using multiple optical chains in parallel to support separate color-capture
US8914986B1 (en) * 2013-01-16 2014-12-23 The Boeing Company Inclinometer device and method of manufacture
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US10769852B2 (en) 2013-03-14 2020-09-08 Aria Glassworks, Inc. Method for simulating natural perception in virtual and augmented reality scenes
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9459121B2 (en) * 2013-05-21 2016-10-04 DigiPas USA, LLC Angle measuring device and methods for calibration
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US9325906B2 (en) 2013-10-18 2016-04-26 The Lightco Inc. Methods and apparatus relating to a thin camera device
US9551854B2 (en) 2013-10-18 2017-01-24 Light Labs Inc. Methods and apparatus for controlling sensors to capture images in a synchronized manner
US9374514B2 (en) 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
US9686471B2 (en) 2013-11-01 2017-06-20 Light Labs Inc. Methods and apparatus relating to image stabilization
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9383818B2 (en) * 2013-12-27 2016-07-05 Google Technology Holdings LLC Method and system for tilt-based actuation
US9607319B2 (en) 2013-12-30 2017-03-28 Adtile Technologies, Inc. Motion and gesture-based mobile advertising activation
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
US10931866B2 (en) 2014-01-05 2021-02-23 Light Labs Inc. Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
US10977864B2 (en) 2014-02-21 2021-04-13 Dropbox, Inc. Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
US20150241713A1 (en) * 2014-02-21 2015-08-27 The Lightco Inc. Camera holder methods and apparatus
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
EP3164831A4 (en) 2014-07-04 2018-02-14 Light Labs Inc. Methods and apparatus relating to detection and/or indicating a dirty lens condition
TWI584154B (zh) * 2014-07-08 2017-05-21 拓連科技股份有限公司 以角度為基礎之項目決定方法及系統,及相關電腦程式產品
WO2016007799A1 (en) 2014-07-09 2016-01-14 The Lightco Inc. Camera device including multiple optical chains and related methods
WO2016061565A1 (en) 2014-10-17 2016-04-21 The Lightco Inc. Methods and apparatus for using a camera device to support multiple modes of operation
US20160138215A1 (en) * 2014-11-18 2016-05-19 O'Neill LLC Method and material for improving the internal grip in gloves and clothing
EP3235243A4 (en) 2014-12-17 2018-06-20 Light Labs Inc. Methods and apparatus for implementing and using camera devices
US9544503B2 (en) 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
KR20160109304A (ko) * 2015-03-10 2016-09-21 삼성전자주식회사 원격 조정 장치 및 원격 조정 장치의 화면 제어방법
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
US9967535B2 (en) 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
US9930233B2 (en) 2015-04-22 2018-03-27 Light Labs Inc. Filter mounting methods and apparatus and related camera apparatus
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
US10051182B2 (en) 2015-10-05 2018-08-14 Light Labs Inc. Methods and apparatus for compensating for motion and/or changing light conditions during image capture
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
US10437463B2 (en) 2015-10-16 2019-10-08 Lumini Corporation Motion-based graphical input system
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
US9983687B1 (en) 2017-01-06 2018-05-29 Adtile Technologies Inc. Gesture-controlled augmented reality experience using a mobile communications device
US11068530B1 (en) * 2018-11-02 2021-07-20 Shutterstock, Inc. Context-based image selection for electronic media

Family Cites Families (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI88345C (fi) * 1991-01-29 1993-04-26 Nokia Mobile Phones Ltd Belyst tastatur
JPH06511340A (ja) 1991-10-04 1994-12-15 マイクロメッド・システムズ・インコーポレイテッド ポケット大のコンピュータ入力装置および方法
EP0547742B1 (en) 1991-12-19 1995-12-13 Motorola, Inc. Triaxial accelerometer
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US6906700B1 (en) 1992-03-05 2005-06-14 Anascape 3D controller with vibration
US5453758A (en) 1992-07-31 1995-09-26 Sony Corporation Input apparatus
USRE38420E1 (en) 1992-08-12 2004-02-10 British Broadcasting Corporation Derivation of studio camera position and motion from the camera image
US5435554A (en) 1993-03-08 1995-07-25 Atari Games Corporation Baseball simulation system
US5297061A (en) 1993-05-19 1994-03-22 University Of Maryland Three dimensional pointing device monitored by computer vision
JP3391841B2 (ja) 1993-05-26 2003-03-31 松下電工株式会社 半導体加速度センサ
US5612690A (en) * 1993-06-03 1997-03-18 Levy; David Compact keypad system and method
JP3727954B2 (ja) 1993-11-10 2005-12-21 キヤノン株式会社 撮像装置
DE4415167A1 (de) 1994-04-29 1995-11-02 Siemens Ag Telekommunikationsanordnung zum Übertragen von Bildern
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US6127990A (en) 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US6624824B1 (en) 1996-04-30 2003-09-23 Sun Microsystems, Inc. Tilt-scrolling on the sunpad
US5758267A (en) 1996-07-08 1998-05-26 Motorola, Inc. Method and apparatus for orientation controlled parameter selection
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
JPH1049290A (ja) 1996-08-05 1998-02-20 Sony Corp 情報処理装置および方法
US6104840A (en) 1996-11-08 2000-08-15 Ricoh Company, Ltd. Method and system for generating a composite image from partially overlapping adjacent images taken along a plurality of axes
US6482795B1 (en) * 1997-01-30 2002-11-19 Myriad Genetics, Inc. Tumor suppressor designated TS10q23.3
IL121005A (en) * 1997-06-05 2000-02-17 M V T Multi Vision Tech Ltd Display units
JP3120779B2 (ja) 1998-04-24 2000-12-25 日本電気株式会社 ディスプレイ表示のスクロール方式
GB9810399D0 (en) * 1998-05-14 1998-07-15 Rue De Int Ltd Holographic security device
JPH11345077A (ja) * 1998-05-29 1999-12-14 Brother Ind Ltd データの選択入力装置
US6072496A (en) 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US6377700B1 (en) 1998-06-30 2002-04-23 Intel Corporation Method and apparatus for capturing stereoscopic images using image sensors
US6256021B1 (en) * 1998-09-15 2001-07-03 Ericsson Inc. Apparatus and method of configuring target areas within a touchable item of a touchscreen
US6628819B1 (en) 1998-10-09 2003-09-30 Ricoh Company, Ltd. Estimation of 3-dimensional shape from image sequence
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6201554B1 (en) 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
JP3847058B2 (ja) 1999-10-04 2006-11-15 任天堂株式会社 ゲームシステム及びそれに用いられるゲーム情報記憶媒体
US6567101B1 (en) 1999-10-13 2003-05-20 Gateway, Inc. System and method utilizing motion input for manipulating a display of data
US7187412B1 (en) 2000-01-18 2007-03-06 Hewlett-Packard Development Company, L.P. Pointing device for digital camera display
US6535114B1 (en) 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
US6861946B2 (en) 2000-05-17 2005-03-01 Caveo Technology Llc. Motion-based input system for handheld devices
US6731227B2 (en) 2000-06-06 2004-05-04 Kenichi Horie Qwerty type ten-key board based character input device
JP2002016945A (ja) * 2000-06-29 2002-01-18 Toppan Printing Co Ltd 画像軽量化手法を用いた三次元画像表現システム
US7302280B2 (en) * 2000-07-17 2007-11-27 Microsoft Corporation Mobile phone operation based upon context sensing
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US8120625B2 (en) * 2000-07-17 2012-02-21 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US6529144B1 (en) 2000-09-22 2003-03-04 Motorola Inc. Method and apparatus for motion activated control of an electronic device
JP2002164990A (ja) * 2000-11-28 2002-06-07 Kyocera Corp 携帯通信端末装置
US6690358B2 (en) * 2000-11-30 2004-02-10 Alan Edward Kaplan Display control for hand-held devices
JP2002169645A (ja) * 2000-12-01 2002-06-14 Toshiba Corp 移動通信端末
US20020153188A1 (en) 2000-12-08 2002-10-24 Brandt Kenneth A. Selectable control parameters on a power machine with four-wheel steering
JP4635342B2 (ja) 2001-01-10 2011-02-23 ソニー株式会社 情報処理端末および方法
US7176440B2 (en) 2001-01-19 2007-02-13 Honeywell International Inc. Method and apparatus for detecting objects using structured light patterns
DE20221078U1 (de) 2001-02-28 2004-12-23 Beckmann, Jürgen, Dr. Eingabevorrichtung, insbesondere für ein Mobiltelefon
JP2002278671A (ja) * 2001-03-16 2002-09-27 Just Syst Corp 文字列変換装置、文字列変換方法およびその方法をコンピュータに実行させるプログラム
JP2002290793A (ja) 2001-03-28 2002-10-04 Mitsubishi Electric Corp 撮像装置付携帯電話器
US6798429B2 (en) 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
US7061628B2 (en) 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
GB2378878B (en) 2001-06-28 2005-10-05 Ubinetics Ltd A handheld display device
US6847351B2 (en) * 2001-08-13 2005-01-25 Siemens Information And Communication Mobile, Llc Tilt-based pointing for hand-held devices
JP2003114752A (ja) * 2001-10-05 2003-04-18 Toshiba Corp 携帯情報端末装置及びその制御方法
US6816151B2 (en) 2001-11-09 2004-11-09 Terry L. Dellinger Hand-held trackball computer pointing device
US20030098841A1 (en) 2001-11-26 2003-05-29 Jessica Broussard Powered, remotely controllable computer display device
KR100415313B1 (ko) 2001-12-24 2004-01-16 한국전자통신연구원 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치
US6805506B2 (en) 2002-03-20 2004-10-19 Lubartech Ltd. Keyboard with multiple indicia sets
DE10218543A1 (de) * 2002-04-25 2003-11-20 Siemens Ag Eingabevorrichtung
JP3902508B2 (ja) 2002-05-20 2007-04-11 任天堂株式会社 ゲームシステムおよびゲームプログラム
USD470150S1 (en) * 2002-06-21 2003-02-11 Bsquare Corporation Hand-held device keypad
US20040001097A1 (en) * 2002-07-01 2004-01-01 Frank Zngf Glove virtual keyboard for baseless typing
DE10233608A1 (de) * 2002-07-24 2004-02-12 Siemens Ag Eingabevorrichtung für ein Endgerät
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7184020B2 (en) 2002-10-30 2007-02-27 Matsushita Electric Industrial Co., Ltd. Operation instructing device, operation instructing method, and operation instructing program
CN100504295C (zh) 2002-11-05 2009-06-24 诺基亚有限公司 移动电子三维罗盘
WO2004066615A1 (en) 2003-01-22 2004-08-05 Nokia Corporation Image control
US7127101B2 (en) 2003-03-10 2006-10-24 Cranul Technologies, Inc. Automatic selection of cranial remodeling device trim lines
US7162075B2 (en) 2003-03-10 2007-01-09 Cranial Technologies, Inc. Three-dimensional image capture system
WO2004082248A1 (en) 2003-03-11 2004-09-23 Philips Intellectual Property & Standards Gmbh Configurable control of a mobile device by means of movement patterns
JP2004287871A (ja) * 2003-03-24 2004-10-14 Hitachi Ltd 携帯端末
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7333133B2 (en) 2003-03-31 2008-02-19 Spatial Integrated Systems, Inc. Recursive least squares approach to calculate motion parameters for a moving camera
JP3649242B2 (ja) * 2003-04-04 2005-05-18 三菱電機株式会社 携帯電話装置および携帯電話装置の文字入力方法
US7027037B2 (en) * 2003-04-08 2006-04-11 Intermec Ip Corp. Conditionally illuminated keypad legends
US20040201595A1 (en) 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
JP4803951B2 (ja) * 2003-05-26 2011-10-26 ソニー株式会社 文字入力装置およびその処理方法、記録媒体、並びにプログラム
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
US6836971B1 (en) * 2003-07-30 2005-01-04 Honeywell International Inc. System for using a 2-axis magnetic sensor for a 3-axis compass solution
IL157877A0 (en) 2003-09-11 2004-03-28 Imagine It S Happening Ltd Color edge based 3d scanner
EP1665847B1 (en) 2003-09-17 2011-11-09 Nokia Corporation A mobile cellular telephone with a display that is controlled partly by an incline sensor.
WO2005039154A1 (ja) 2003-10-16 2005-04-28 Vodafone K.K. 移動体通信端末及びアプリケーションプログラム
US7181251B2 (en) 2003-10-22 2007-02-20 Nokia Corporation Mobile communication terminal with multi orientation user interface
CA2531524A1 (en) * 2003-10-31 2005-05-12 Iota Wireless Llc Concurrent data entry for a portable device
US20080129552A1 (en) * 2003-10-31 2008-06-05 Iota Wireless Llc Concurrent data entry for a portable device
US7312819B2 (en) 2003-11-24 2007-12-25 Microsoft Corporation Robust camera motion analysis for home video
KR100594971B1 (ko) 2004-01-09 2006-06-30 삼성전자주식회사 지자기 센서를 이용한 입력장치 및 이를 이용한 입력신호생성방법
US7756323B2 (en) 2004-01-15 2010-07-13 Technion Research & Development Foundation Ltd. Three-dimensional video scanner
GB2412034A (en) * 2004-03-10 2005-09-14 Mitel Networks Corp Optimising speakerphone performance based on tilt angle
FI20045078A (fi) 2004-03-16 2005-09-17 Myorigo Oy Laajakulmaoptiikalla ja säteilysensorilla varustettu mobiililaite
KR100621401B1 (ko) 2004-03-31 2006-09-08 삼성전자주식회사 회전상태를 인식하여 저장된 정보를 탐색하는이동통신기기 및 그 방법
EP2273484B1 (en) 2004-04-30 2019-08-28 Hillcrest Laboratories, Inc. Methods and devices for removing unintentional movement in free space pointing devices
KR101192514B1 (ko) 2004-04-30 2012-10-17 힐크레스트 래보래토리스, 인크. 틸트 보상과 향상된 사용성을 갖는 3d 포인팅 장치
CN102566751B (zh) 2004-04-30 2016-08-03 希尔克瑞斯特实验室公司 自由空间定位装置和方法
US20050276164A1 (en) * 2004-06-12 2005-12-15 Scott Amron Watch adapted to rotate a displayed image so as to appear in a substantially constant upright orientation
JP4220943B2 (ja) * 2004-07-15 2009-02-04 ソフトバンクモバイル株式会社 電子機器
JP2006031515A (ja) 2004-07-20 2006-02-02 Vodafone Kk 移動体通信端末、アプリケーションプログラム、画像表示制御装置及び画像表示制御方法
US7138979B2 (en) 2004-08-27 2006-11-21 Motorola, Inc. Device orientation based input signal generation
US20060060068A1 (en) 2004-08-27 2006-03-23 Samsung Electronics Co., Ltd. Apparatus and method for controlling music play in mobile communication terminal
JP2006068027A (ja) 2004-08-31 2006-03-16 Nintendo Co Ltd ゲーム装置およびゲームプログラム
JPWO2006035505A1 (ja) * 2004-09-29 2008-05-22 株式会社シーアンドエヌ 磁気センサの制御方法、制御装置、および携帯端末装置
CN1303501C (zh) * 2004-09-30 2007-03-07 清华大学 手机游戏的互动信息感知方法及嵌入手机的智能游戏平台
JP2006113859A (ja) * 2004-10-15 2006-04-27 Nec Corp 携帯情報端末及びその表示制御方法
US7683883B2 (en) 2004-11-02 2010-03-23 Pierre Touma 3D mouse and game controller based on spherical coordinates system and system for use
KR100641182B1 (ko) * 2004-12-30 2006-11-02 엘지전자 주식회사 휴대단말기에서의 가상화면 이동장치 및 방법
BRPI0606477A2 (pt) 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
WO2006084385A1 (en) 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
JP4120648B2 (ja) * 2005-02-23 2008-07-16 ヤマハ株式会社 携帯端末、携帯端末の制御方法、プログラムおよび記録媒体
KR101002807B1 (ko) 2005-02-23 2010-12-21 삼성전자주식회사 메뉴 화면을 표시하는 단말기에서 메뉴 네비게이션을 제어하는 장치 및 방법
US7519468B2 (en) 2005-02-28 2009-04-14 Research In Motion Limited System and method for navigating a mobile device user interface with a directional sensing device
WO2006124935A2 (en) * 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
US20070159456A1 (en) * 2006-01-10 2007-07-12 Unkrich Mark A Navigation system
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20100088532A1 (en) * 2008-10-07 2010-04-08 Research In Motion Limited Method and handheld electronic device having a graphic user interface with efficient orientation sensor use

Also Published As

Publication number Publication date
KR101430761B1 (ko) 2014-08-19
EP1886509A4 (en) 2014-01-15
CN101589354A (zh) 2009-11-25
CN101589354B (zh) 2013-06-12
US7389591B2 (en) 2008-06-24
US20110050570A1 (en) 2011-03-03
US8015718B2 (en) 2011-09-13
WO2006124935A3 (en) 2009-05-14
EP1886509B1 (en) 2017-01-18
US20060281453A1 (en) 2006-12-14
JP2008546248A (ja) 2008-12-18
WO2006124935A2 (en) 2006-11-23
US8230610B2 (en) 2012-07-31
KR20130055673A (ko) 2013-05-28
US20080235965A1 (en) 2008-10-02
JP2012050102A (ja) 2012-03-08
JP2014207014A (ja) 2014-10-30
CN103257684B (zh) 2017-06-09
EP1886509A2 (en) 2008-02-13
JP5038296B2 (ja) 2012-10-03
KR20080063446A (ko) 2008-07-04
US20120001722A1 (en) 2012-01-05
CN103257684A (zh) 2013-08-21
KR101403172B1 (ko) 2014-06-03
JP5951694B2 (ja) 2016-07-13
US7827698B2 (en) 2010-11-09
RU2007146172A (ru) 2009-06-27

Similar Documents

Publication Publication Date Title
BRPI0613165A2 (pt) saìda de sinal sensìvel à orientação
US11675476B2 (en) User interfaces for widgets
US10379618B2 (en) Systems and methods for using textures in graphical user interface widgets
US20210049321A1 (en) Device, method, and graphical user interface for annotating text
EP2406705B1 (en) System and method for using textures in graphical user interface widgets
US20160071241A1 (en) Landscape Springboard
US20160077602A1 (en) Method and Handheld Electronic Device for Displaying and Selecting Diacritics
US11249579B2 (en) Devices, methods, and graphical user interfaces for manipulating embedded interactive content
KR20110038646A (ko) 모바일 컴퓨팅 디바이스에서의 모션-컨트롤 뷰
JPH1049337A (ja) ハンドヘルド装置の傾斜による表示情報のスクロール方法
US11669243B2 (en) Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors
KR20210151192A (ko) 아이템을 추적하고 찾기 위한 사용자 인터페이스
US20170357568A1 (en) Device, Method, and Graphical User Interface for Debugging Accessibility Information of an Application
JP2007122287A (ja) 情報処理装置、階層情報出力方法及びプログラム
TWI515595B (zh) 手持式電子裝置及其密碼輸入方法
ES2956209T3 (es) Técnicas para el tecleo de múltiples dedos en realidad mixta
JP2005149190A (ja) 情報処理装置
KR20040034915A (ko) 펜 컴퓨팅 시스템에서의 동적 키보드 구현 장치
KR20040017174A (ko) 메뉴선택 및 문자입력이 용이한 모바일 전자기기

Legal Events

Date Code Title Description
B11A Dismissal acc. art.33 of ipl - examination not requested within 36 months of filing
B11Y Definitive dismissal - extension of time limit for request of examination expired [chapter 11.1.1 patent gazette]