BR112012004844B1 - método para usar um dispositivo eletrônico portátil - Google Patents

método para usar um dispositivo eletrônico portátil Download PDF

Info

Publication number
BR112012004844B1
BR112012004844B1 BR112012004844-9A BR112012004844A BR112012004844B1 BR 112012004844 B1 BR112012004844 B1 BR 112012004844B1 BR 112012004844 A BR112012004844 A BR 112012004844A BR 112012004844 B1 BR112012004844 B1 BR 112012004844B1
Authority
BR
Brazil
Prior art keywords
electronic device
portable electronic
input
gesture
fact
Prior art date
Application number
BR112012004844-9A
Other languages
English (en)
Other versions
BR112012004844A2 (pt
Inventor
Arsham Hatambeiki
Jeffrey Kohanek
Pamela Eichler Keiles
Patrick H. Hayes
Original Assignee
Universal Electronics Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal Electronics Inc. filed Critical Universal Electronics Inc.
Publication of BR112012004844A2 publication Critical patent/BR112012004844A2/pt
Publication of BR112012004844B1 publication Critical patent/BR112012004844B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42221Transmission circuitry, e.g. infrared [IR] or radio frequency [RF]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

MÉTODO PARA USAR UM DISPOSITIVO ELETRÔNICO PORTÁTIL Um dispositivo eletrônico portátil tendo um dispositivo de entrada para receber uma entrada baseada em gesto de um usuário é usado para controlar uma operação de navegação de um aparelho. O dispositivo eletrônico portátil recebe via o dispositivo de entrada, a entrada baseada em gesto e usa um ou mais parâmetros armazenados em uma memória do dispositivo eletrônico portátil e uma ou mais características associadas com a entrada baseada em gesto para fazer com que o dispositivo eletrônico portátil para transmitir um comando de etapa de navegação e por meio disso, controlar a operação de navegação do aparelho.

Description

MÉTODO PARA USAR UM DISPOSITIVO ELETRÔNICO PORTÁTIL
[0001] Dispositivos de controle, por exemplo, controles remotos, para uso na emissão de comandos para entretenimento e outros aparelhos, e os recursos e funcionalidade fornecida por tais dispositivos de controle são bem conhecidos na arte. Tradicionalmente, meios de entrada do usuário em tais dispositivos de controle compreendeu uma série de botões cada um dos quais pode resultar na transmissão de um comando específico quando ativado. Cada vez mais nos ambientes de hoje, tais dispositivos de controle precisam ser usados para interagir com os sistemas de menu exibidos, navegar em páginas da web, manipular apontadores, e efetuar outras atividades similares que podem requerer movimento, por ex., rolar a informação exibida em uma tela, mover um apontador, para controlar uma atividade de jogo ou avatar, para aproximar / para afastar, para controlar funções tais como avanço rápido ou movimento lento, ou o similar (tais atividades coletivamente referidas daqui em diante como "navegação"). Embora controle das funções de navegação seja possível usando mecanismos de entrada de dispositivo de controle convencional, tal como um grupo de teclas de seta para cima, para baixo, para à esquerda e para à direita, em muitas circunstâncias a experiência do usuário pode ser melhorada pelo aprovisionamento de um mecanismo de entrada que é melhor adequado a este tipo de atividade. Adicionalmente, em alguns casos a experiência do usuário pode ser ainda aprimorada fornecendo ajuste de vários aspectos do sistema de entrada de navegação, tal como sensitividade, velocidade, etc., de acordo com preferência pessoal.
SUMÁRIO DA INVENÇÃO
[0002] De acordo com esta e outras necessidades, o discutido a seguir em geral descreve um sistema e método para fornecer funcionalidade de entrada de navegação melhorada em um dispositivo de controle. Para este fim, em adição a uma matriz de tecla convencional para receber entradas de botão como é bem conhecido na arte, um dispositivo de controle pode ser fornecido com meios de entrada específicos de navegação tal como, por exemplo, uma roda de rolagem mecânica, sensor de toque resistivo ou capacitivo, etc., e por meio disso, movimento e / ou pressão por um dedo do usuário pode ser traduzido em uma série repetitiva de comandos de etapa transmitidos para um dispositivo controlado alvo. Esses comandos podem ser aplicados no dispositivo alvo para controlar operações relacionadas à navegação, tal como a rolagem de um menu, o movimento de um cursor na tela, o movimento de um objeto de jogo, etc., conforme apropriado para uma particular aplicação. Uma saída de taxa repetitiva de step pelo dispositivo de controle pode ser variável dependente da velocidade de movimento e / ou intensidade de pressão, e pode ainda incluir fatores de resposta não linear tal como aceleração / desaceleração assim como sensoriamento de botão virtual. Os parâmetros controlando tais fatores de resposta podem ser ajustáveis por usuário para coincidir com preferência individuais.
[0003] Um melhor entendimento de objetos, vantagens, recursos, propriedades e relações da invenção serão obtidos a partir da seguinte descrição detalhada e desenhos anexos que estabelecem modalidades ilustrativas e que indicativas das várias maneiras nas quais os princípios da invenção podem ser empregados.
DESCRIÇÃO BREVE DOS DESENHOS
[0004] Para um melhor entendimento dos vários aspectos da invenção, referência pode ser tida para as modalidades preferidas conforme mostradas nos desenhos anexos nos quais:
Figura 1 ilustra um sistema exemplar na qual um dispositivo de controle exemplar de acordo com a presente invenção pode ser usado;
Figura 2 ilustra um diagrama em bloco dos componentes exemplares do dispositivo de controle exemplar da Figura 1;
Figura 3 ainda ilustra o dispositivo de controle exemplar da Figura 1;
Figura 4 ilustra métodos exemplares para reportar funções da etapa de navegação de um dispositivo de controle para um aparelho alvo; e
Figura 5 ilustra a definição de uma zona de pressão de botão virtual exemplar para a área de sensoriamento de entrada de navegação de um dispositivo de controle exemplar.
DESCRIÇÃO DETALHADA
[0005] Voltando agora à Figura 1, é ilustrado um sistema exemplar no qual um dispositivo de controle 100 é configurado para controlar vários aparelhos controláveis, tal como uma televisão 102 e um caixa de console ("STB") 104. Como é conhecido na arte, o dispositivo de controle 100 é capaz de transmitir comandos para os aparelhos, usando qualquer conveniente protocolo de IR, RF, Ponto a Ponto, ou em rede, para fazer com que os aparelhos efetuem funções operacionais. Enquanto ilustrado no contexto de uma televisão 102 e STB 104, é para ser entendido que aparelhos controláveis podem incluir, mas não necessitam ser limitados à, televisões, VCRs, DVRs, tocadores de DVD, caixas consoles de conversor de cabo ou satélite ("STBs"), amplificadores, tocadores de CD, consoles de jogo, iluminação de casa, drapery, ventiladores, sistemas de HVAC, termostatos, computadores pessoais, etc. Em uma particular modalidade ilustrativa, em adição a funcionalidade de controle de convencional como é bem conhecido na arte, o dispositivo de controle 100 pode ainda incluir uma área de entrada 106 para geração de comandos de navegação para transmissão a partir do dispositivo de controle 100 para um ou mais aparelhos em resposta à interação do usuário com aquela área, usada por exemplo para rolar uma exibição de menu de guia de programa 108 na TV 102 emitindo uma série de comandos de etapa para a caixa de console 104 conforme será descrito em detalhes adicionais daqui em diante.
[0006] Com referência à Figura 2, para uso em comandar as operações funcionais de um ou mais aparelhos, o dispositivo de controle 100 pode incluir, como necessário para uma particular aplicação, um processador 200 acoplado a uma memória ROM 204; uma memória RAM 202; uma matriz de tecla 216 (por ex., teclas hard, teclas soft tal como uma superfície sensível de toque sobreposto em um cristal líquido (LCD), e / ou um mostrador eletroluminescente (EL)); uns meios de entrada de função de rolagem e / ou navegação 218 tal como um sensor de toque capacitivo ou resistivo, roda de rolagem, etc.; circuito(s) de transmissão e / ou circuito(s) de transceptor 210 (por ex., IR e / ou RF); uma memória de leitura / escrita não volátil 206; uns meios 220 para fornecer realimentação visual para o usuário (por ex., um ou mais LEDs, monitor, e / ou o similar); uns meios 222 para fornecer realimentação audível para um usuário (por ex., um alto-falante, sirene piezo-elétrico, etc.); uma fonte de energia 208; uma porta de entrada / saída 224 tal como uma interface serial, porta de USB, modem, Zigbee, WiFi, ou transceptor Bluetooth, etc.; um dispositivo de entrada biométrico 226 tal uma almofada de reconhecimento de impressão digital, detector de tremor de mão, etc.; e relógio e contador de tempo lógico 212 com cristal ou dispositivo ressonante associado 214.
[0007] Como será entendido por aqueles com qualificação na arte, algumas ou todas as memórias 202, 204, 206 podem incluir instruções executáveis (coletivamente, a memória do programa) que são pretendidas para serem executadas pelo processador 200 para controlar a operação do controle remoto 100, assim como dados que servem para definir para um software operacional os protocolos de controle necessários e valores de comando para uso na transmissão de sinais de comando para aparelhos controláveis (coletivamente, os dados de comando). Nesta maneira, o processador 200 pode ser programado para controlar os vários componentes eletrônicos dentro do controle remoto 100, por ex., para monitorar a matriz de tecla 216, para causar a transmissão de sinais, etc. A memória de leitura / escrita de não volátil 206, por exemplo uma EEPROM, RAM suportada por bateria, FLASH, Cartão Inteligente, bastão de memória, ou o similar, podem adicionalmente ser fornecidos para armazenar dados e parâmetros de configuração conforme necessário. Enquanto a memória 204 é ilustrada e descrita como uma memória ROM, memória 204 também pode ser compreendida de qualquer tipo de mídia legível, tal como ROM, FLASH, EEPROM, ou o similar. Preferencialmente, as memórias 204 e 206 são não voláteis ou suportadas por bateria tal que dados não são requeridos para serem re-carregados após trocas de bateria. Em adição, as memórias 202, 204 e 206 pode tomar a forma de um chip, um disco rígido, um disco magnético, um disco óptico, e / ou o similar. Ainda adicionalmente, será apreciado que algum ou todos os dispositivos de memória ilustrados podem ser fisicamente combinados (por exemplo, uma única memória flash pode ser logicamente dividida em diferentes porções para suportar a funcionalidade de memórias 204 e 206 respectivamente), e / ou pode ser fisicamente incorporado dentro do mesmo chip de IC que o microprocessador 200 (um assim chamado "microcontrolador") e, como tal, eles são mostrados separadamente na Fig. 2 somente para os motivos de clareza.
[0008] Para fazer com que o dispositivo de controle 100 efetue uma ação, o dispositivo de controle 100 é adaptado para ser responsivo aos eventos, tal como uma interação de usuário percebida com a matriz de tecla 216, etc. Em resposta a um evento, instruções apropriadas dentro da memória de programa (daqui em diante o "programa de operação") podem ser executadas. Por exemplo, quando uma tecla de função é acionada no dispositivo de controle 100, o dispositivo de controle 100 pode recuperar a partir dos dados de comando armazenados na memória 202, 204, 206 um valor de comando e protocolo de controle correspondendo à tecla de função acionada e, onde necessário, modo do dispositivo corrente e vai usar os dados de comando recuperados para transmitir para um aparelho alvo pretendido, por ex., STB 104, um comando em um formato reconhecível através do qual o aparelho e por meio disso, controlar um ou mais operações funcionais daquele aparelho. Será apreciado que o programa de operação pode ser usado não somente para causar a transmissão de comandos e / ou dados para os aparelhos, mas também para efetuar operações locais. Enquanto não limitando, as operações locais que podem ser efetuadas pelo dispositivo de controle 100 podem incluir informação / dados de exibição, configuração do canal favorito, configuração de tecla macro, re-alocação de tecla de função, etc. Exemplos de operações locais podem ser encontrados Nas Patentes dos U.S. de Nrs. 5.481.256, 5.959.751, e 6.014.092.
[0009] Em algumas modalidades, dispositivo de controle 100 pode ser do tipo universal, que é aprovisionado com uma biblioteca, compreendendo uma multiplicidade de códigos de comando e protocolos adequado para controlar vários aparelhos. Em tais casos, para selecionar conjuntos de dados de comando a serem associadas com os aparelhos específicos a serem controlados (daqui em diante referido como um procedimento de configuração), dados podem ser entrados no dispositivo de controle 100 que serve para identificar cada aparelho alvo pretendido através de sua marca, e / ou modelos, e / ou tipo. Os dados podem tipicamente ser entrados via ativação daquelas teclas que são também usados para causar a transmissão de comandos para um aparelho, preferencialmente as teclas que são etiquetadas com numerais. Tais dados permitem ao dispositivo de controle 100 identificar o conjunto de dados de comando apropriado dentro da biblioteca de dados de comando que é para ser usado para transmitir comandos reconhecíveis em formatos apropriados para tais aparelhos identificados. A biblioteca de dados de comando pode representar uma grande quantidade de aparelhos controláveis de diferentes tipos e fabricantes, uma grande quantidade de aparelhos controláveis do mesmo tipo mas de diferentes fabricantes, uma grande quantidade de aparelhos do mesmo fabricante mas de diferentes tipos ou modelos, etc., ou qualquer combinação do mesmo conforme apropriado para uma dada modalidade. Na prática convencional como é bem conhecido na arte, tais dados usados para identificar um conjunto de dados de comando apropriado podem tomar a forma de um código de configuração numérica (obtido, por exemplo, a partir de uma lista impressa de nomes e / ou modelos de fabricantes com números de códigos correspondentes, a partir de um sítio de web de suporte, etc.). Procedimentos de configuração alternativos conhecidos na arte incluem leitura de códigos de barra, sequencialmente transmitir um pré-determinado comando em diferentes formatos até uma resposta de aparelho alvo ser detectada, interação com um sítio da web culminando na baixa de dados de comando e / ou códigos de configuração para o dispositivo de controle, etc. Já que tais métodos para configurar um dispositivo de controle para comandar a operação de aparelhos domésticos específicos são bem conhecidos, ele não serão descritos em maiores detalhes aqui. Todavia, para informação adicional pertencendo ao procedimento de configuração, a leitor pode se referenciar, por exemplo, para as Patentes dos U.S. de Nrs. 4.959.810, 5.614.906, ou 6.225.938 todas como cessionárias e incorporadas aqui para referência em sua totalidade.
[0010] Em mantendo os ensinamentos desta invenção, o dispositivo de controle 100 pode também incluir um dispositivo de entrada para aceitar entrada de toque do usuário a ser traduzida em comandos de navegação. Em uma modalidade exemplar, o dispositivo de entrada 218 pode tomar a forma de um sensor de toque capacitivo de múltiplos eletrodos de dois eixos como ilustrado na Figuras 3 e 5. Nesta forma, o dispositivo de entrada 218 pode aceitar gestos deslizando o dedo em ambos os eixos para tradução em comandos de etapa de navegação em uma direção X ou Y, assim como batidas de leve com o dedo nos pontos cardinais e área central para tradução em comandos discretos, por exemplo, equivalente à teclas das quatro setas do teclado convencional e uma tecla de seleção, todas como serão descritas em detalhas adicionais daqui em diante. Contudo será apreciado que qualquer outra adequada tecnologia, elétrica, mecânica ou uma combinação do mesmo pode ser usada para implementar os ensinamentos desta invenção, e consequentemente os métodos descritos podem ser aplicados independente dos meios de entrada físicos empregados por uma particular modalidade.
[0011] Comandos de etapa de navegação resultando de gestos deslizando o dedo podem ser reportados para um aparelho alvo usando qualquer protocolo de transmissão conveniente, IR ou RF, como conhecido na arte. Em geral, tais reportes podem incluir informação representativa de ambas direção e velocidade do gesto de entrada. À título de exemplo, sem limitação, dois possíveis métodos de formatar tal uma transmissão de reporte são ilustrados na figura 4 para um gesto exemplar 400, em uma direção para cima no eixo y de uma área de entrada de navegação 106 de um dispositivo de controle exemplar 100 e com um perfil de velocidade / tempo como ilustrado pela curva 402. Em uma modalidade exemplar, comandos de etapa de navegação podem ser reportados como ilustrado na 404, caracterizado pelo fato de compreender a transmissão de uma seqüência de comandos de direção de navegação (por exemplo um "comando para cima" 406) onde o comando de direção de navegação é repetido um número variável de vezes em uma taxa variável (Tl, T2, T3, T4, etc.) que é determinado como uma função, por exemplo, da velocidade corrente do gesto 400 e uma ou mais dos parâmetros armazenados. Em uma outra modalidade exemplar, comandos de etapa de navegação podem ser reportados como ilustrado em 408, caracterizado pelo fato de compreender a transmissão de uma seqüência de valores delta de direção variáveis 410 (por exemplo, "delta Y" = 1, 2, 3, 4 etc.) onde os valores delta de direção são transmitidos em intervalos fixos Tf e caracterizado pelo fato de que os valores delta são determinados como uma função, por exemplo, da corrente velocidade do gesto 400 e um ou mais dos parâmetros armazenados. Em geral, qualquer protocolo de transmissão adequado e método de reporte pode ser usado conforme apropriado para o aparelho alvo a ser controlado. Será ainda apreciado que em determinadas modalidades onde dispositivo de controle 100 é do tipo universal, mais do que um método de reportar comandos de etapa de navegação pode ser suportado pelo dispositivo de controle 100 e selecionado dependente do dispositivo alvo correntemente configurado. Já que os métodos para formatar e codificar pacotes de transmissão de comando são bem conhecidos na arte, por razões de simplicidade eles não serão descritos aqui. Contudo, para informação adicional considerando formatos e esquemas de codificação, o leitor interessado pode se referir, por exemplo, à Patentes dos U.S. 7.167.913 ou 5.640.160 ambas são incorporadas aqui para referência em sua totalidade.
[0012] Para adaptar as características do dispositivo de entrada de navegação 218 usada para os requisitos do aparelho a ser controlado, na maioria das modalidades uma tradução é requerida a partir dos parâmetros de entrada físicos recebido a partir do dispositivo de entrada de navegação 218 para um número de etapas lógico a ser transmitido para o dispositivo alvo, por exemplo STB 104. Este valor de etapa lógica pode ser dependente ambos de um valor de distância acumulativo de um gesto de entrada e da velocidade daquele gesto. Por meio de exemplo adicional, diferentes dispositivos de entrada de navegação podem ter diferentes resoluções físicas; i.e., um completo caminho tal como uma pressão do dedo fim a fim, completa rotação de roda, máxima oscilação de impedância elétrica, etc., pode ser traduzida em um diferente número de etapas físicas. Esta resolução física precisa ser mapeada para um número de etapas lógicas que correspondem a uma gama desejada de comandos a serem emitidos para um dispositivo alvo. À título de exemplo, se um dispositivo de entrada de navegação tal como 218 reporta 256 incrementos fim a fim em seu eixo x e a entrada deslizando no eixo x é para ser mapeada em 8 etapas lógicas, então cada 32 etapas de movimento físico no deslizamento ilustrativo pode ser traduzida para uma 1 etapa lógica a ser reportada para o alvo. Em geral para comportamento linear e não acelerado isto pode ser representado como:
STEP-D = int ( PHY-D * STEP-M AX / PHY-MAX)
onde
  • • STEP-D: número de etapas lógicas a ser reportado para o alvo para um movimento PHY-D
  • • PHY-D: movimento físico delta bruto reportado pelo dispositivo de entrada
  • • PHY-MAX: resolução máxima do dispositivo de entrada.
  • • STEP-MAX: número de etapas lógicas a ser reportado para um movimento físico máximo.
[0013] Em determinadas modalidades os movimentos físicos podem ser calculados acumulativamente; i.e., em algumas taxas de amostragem um movimento pode não ser o bastante para gerar um reporte de etapa lógica para o alvo, contudo através de períodos de mais amostra, a distância acumulativa pode atingir o limite de uma etapa lógica e ser reportado para o alvo naquele momento. Também em algumas circunstâncias um comportamento "redundante" pode ser requerido para assegurar tradução natural de movimentos físicos para as etapas lógicas. Em tal casos um parâmetro PHY-CR, representativo de movimento físico redundante das etapas anteriores não ainda aplicado em direção a etapa lógica pode ser adicionado como a seguir:
STEP-D = int ( (PHY-CR + PHY-D) / (PHY-MAX / STEP-MAX) )
onde PHY-CR = (PHY-CR + PHY-D) mod (PHY-MAX / STEP-MAX)
[0014] Em adição, em determinadas modalidades um coeficiente de aceleração coeficiente pode ser aplicado aos dados brutos fornecidos pelo dispositivo de entrada, com base em uma velocidade de interação. Tal um coeficiente de aceleração pode ser derivado, por exemplo, como a seguir:
ACC-COEFF = (PHY-D * T-MAX) / (T-D * PHY-MAX)
If(ACC-COEFF ˂ 1 Acceleration = Disabled) then ACC-COEFF = 1
onde
  • • T-MAX: Um número de referência de períodos de amostragem para viajar a distância PHY-MAX no dispositivo de entrada, i.e., a taxa mais alta de entrada de usuário que deve resultar ma saída de dados da etapa linear com nenhuma aceleração.
  • • T-D: períodos de amostragem passados para viajar PHY-D.
  • • ACC-COEFF: O coeficiente de aceleração a ser aplicado para dados físicos brutos para uma experiência não linear. O valor deste coeficiente é sempre ˃=1. (Quando igual a 1, aceleração é desabilitada)
[0015] Este parâmetro de coeficiente de aceleração pode então ser usado para ajustar o valor de PHY-D apresentado nas equações anteriores, por exemplo:
STEP-D = (PHY-CR + PHY-D * ACC-COEFF) / (PHY-MAX STEPMAX)
PHY-CR = (PHY-CR + PHY-D * ACC-COEFF) mod (PHY -MAX / STEP -MAX)
[0016] Em determinadas modalidades, uma opção do usuário pode ser fornecida para permanentemente configurar o coeficiente de aceleração para unidade, i.e., sempre fornecer uma resposta de saída linear resposta independente da velocidade do gesto do usuário.
[0017] Tal comportamento de navegação acelerado pode somente permanecer em efeito enquanto um dedo do usuário está presente no dispositivo de entrada. Após levantar o dedo do dispositivo de entrada, saída de comando pode ir para uma parada imediatamente com nenhuns comandos de etapa transmitidos para o alvo, ou saída de comando pode naturalmente desacelerar ao longo do tempo, i.e., simulando uma "roda virtual" de rotação livre com base na velocidade no ponto quando o dedo foi levantado da interface e de um coeficiente de desaceleração. Em determinadas modalidades, o tipo de comportamento e / ou o coeficiente de desaceleração a ser aplicado pode ter opções configuráveis pelo usuário. Por meio de ainda exemplo, em uma modalidade exemplar um parâmetro configurável DEC-COEFF pode ser definido para ser aplicado a uma velocidade da roda virtual para lentamente diminuir e finalmente traze-la para uma parada natural. Em uma modalidade, a variação do DECCOEFF pode ser 0 à 0,99, onde 0 vai resultar em uma parada imediata. Após levantamento do dedo, este coeficiente de desaceleração pode ser iterativamente aplicado como a seguir para produzir uma queda graduada no valor de PHY-D ao longo do tempo:
PHY-A VE = DEC-COEFF * PHY-A VE
PHY-D = PHY-A VE
onde o valor inicial de PHY-A VE é o movimento médio físico na últimos n períodos de amostra antes do dedo ter sido levantado do dispositivo de entrada; onde n será ˃ =1.
[0018] O número efetivo de períodos DEC- n a ser usado pode ser ajustado como uma etapa de otimização adicional para assegurar uma experiência realística. Adicionalmente, em determinadas modalidades o comportamento natural de uma roda virtual é levado em consideração na implementação deste recurso de rotação livre. Por exemplo, a roda virtual pode ser trazida para uma parada forçada assim que um dedo é colocado de volta no dispositivo de entrada, imediatamente simulando um estado de "DEC-COEFF=0" se este evento ocorre. Outros comportamentos são também contemplados em várias modalidades desta invenção, por exemplo um curta batida de leve do dedo no dispositivo de entrada pode resultar em uma diminuição temporária no coeficiente de desaceleração DEC-COEFF assim sendo fazendo com que uma mais rápida desaceleração da saída.
[0019] Será apreciado que em determinadas modalidades, o dispositivo de entrada de rolagem e navegação selecionado para uso pode já incluir aprovisionamento embutido para suportar aprovisionamento de balística não linear ou resposta inercial tal como aceleração, taxa de declínio de rotação de livre, etc., tal como por exemplo o módulo de sensor SO3G2010 disponível na Synaptics Inc. de Santa Clara, California, e em tais circunstâncias aqueles recursos podem ser usados no lugar ou em conjunto com alguns ou todos os métodos descritos acima. Consequentemente, é para ser entendido que os métodos descritos acima são apresentados aqui por meio de ilustração somente e não possuem intenção de serem limitantes.
[0020] Em algumas modalidades, o dispositivo de entrada de navegação também pode ser requerido para decodificar batidas de leve de dedo por um usuário como pressões de botão virtual para a geração de comandos individuais. Para este fim, o ponto de cruzamento central e as extremidades distantes de cada um dos eixos podem ser designados como áreas de botão nas quais o tipo de interação do usuário vai determinar da entrada é para ser interpretado como parte de um deslizamento de dedo ou como uma pressão de botão. Como ilustrado na Figura 5, a porção de cada eixo assim designado pode ser definido por um par de parâmetros. HotZonaMin 502 e HotZonaMax 504, aplicados conforme descritos daqui em diante. Será apreciado que em geral as áreas definidas por esses parâmetros estão presentes em todos os quatro pontos cardinais e a porção central do dispositivo de entrada de navegação, contudo para clareza somente uma tal área é ilustrada na figura 5. Para evitar reportar pressões de botão não pretendidas sem introduzir incômodos retardos nos modelos de interação, um conjunto exemplar de regras de interpretação pode compreender:
1. No modo de rotação livre (i.e., quando processamento PHY-D declina de acordo com a corrente DEC-COEFF), qualquer toque em uma interface é interpretado como uma parada forçada, independente da localização, e avaliado daí em diante como um possível início de uma ação de deslizar.
2. Se não em modo de rotação de livre, qualquer contato inicial dentro de uma HotZoneMin definida será avaliado como um candidato para uma pressão de botão.
3. De modo a ser interpretado como uma pressão de botão, um dos seguintes eventos deve ocorrer após o contato inicial dentro de uma área de HotZoneMin:
  • • O dedo não é movido para fora da HotZoneMax (que em uma modalidade preferida pode ser ligeiramente maior do que HotZonaMin) dentro de uma quantidade de tempo especificado por um parâmetro VirtualButtonDelay; ou
  • • O dedo é levantado da interface sem mover para fora da HotZoneMax.
4. Se o dedo é movido para fora da HotZoneMax antes VirtualButtonDelay ter passado, a entrada pode ser processada como o início de um deslizamento de dedo.
[0021] Para fornecer realimentação ao usuário durante entrada, vários sinais visíveis ou audíveis podem ser usados, por exemplo piscar dispositivo de realimentação visual 220 tal como um LED ou fornecer sons de clique ou sirene usando o dispositivo de realimentação audível 222. Em algumas modalidades, a taxa de realimentação pode ser proporcional à taxa naqueles comandos de etapa que estão sendo emitido para o dispositivo alvo. Adicionalmente, em algumas modalidades tais realimentações podem ser uma opção passível de ser selecionada pelo usuário.
[0022] Como foi apreciado, o comportamento percebido do usuário, capacidade de resposta, etc., de tais dispositivos de navegação de entrada baseada em gesto pode ser dependente em múltiplos parâmetros tal como, por exemplo, com referência as precedentes modalidades ilustrativas:
  • • Tempo de passagem de referência abaixo do qual aceleração não é acionada (T-MAX).
  • • Coeficiente de desaceleração e (DEC-COEFF)
  • • Janela de medição de desaceleração (DEC-n)
  • • Área de pressão de botão virtual (HotZoneMin, HotZoneMax)
  • • Sensitividade de pressão de botão virtual {VirtualButtonDelay)
[0023] Adicionalmente, determinados recursos podem ser habilitados / desabilitados de acordo com preferências pessoais, por exemplo, aceleração, rotação livre, realimentação visual / audível, etc. Como será apreciado, para uma determinada modalidade os valores ótimos desses parâmetros podem variar de usuário à usuário. Por exemplo, um "usuário potencial" experimentado pode preferir um sistema de entrada altamente sensitivo caracterizado, por exemplo, por uma baixa linha de referência para acionar aceleração e / ou um coeficiente de alta desaceleração (lento declínio de rotação livre) junto com alta sensitividade de pressão de botão; enquanto um usuário iniciante pode estar mais confortável com uma pequena ou nenhuma aceleração acoplado com desaceleração rápida e baixa sensitividade de pressão de botão.
[0024] Consequentemente, em uma modalidade preferida alguns ou todos desses parâmetros podem ser ajustáveis e armazenados na memória não volátil 206 do dispositivo de controle 100. Nesta maneira, cada dispositivo de controle individual pode ser adequado para coincidir com preferências do usuário primário daquele dispositivo. Para atender múltiplos usuários de uma única configuração de equipamento 102, 104, por exemplo ocupantes de uma casa, múltiplos dispositivo de controles 100 podem ser aprovisionados tal que cada um pode ser configurado para as particulares preferências individuais. Em uma modalidade alternativa, um único dispositivo de controle pode ser adaptado para armazenar múltiplos conjuntos de parâmetros selecionáveis pelo usuário. Em tais circunstâncias, o usuário corrente pode por exemplo, identificar a si próprio para controlar o dispositivo via acionamento de um conjunto de botões do usuário 304. Alternativamente, nas modalidades onde dispositivo de controle 100 é equipado com um sensor biométrico 226, identificação do usuário pode ser efetuado automaticamente. À título de exemplo, o dispositivo sensor biométrico 226 pode compreender uma almofada de entrada de impressão digital como contemplado na Patente dos U.S 6.906.696 "Method of controlling multiuser access to the functionality of consumer devices", ou um acelerômetro para reconhecimento de características de tremor de mão do usuário individual como contemplado na Patente dos U.S. 7.236.156 "Methods and devices for identifying users based on tremor", ambos dos quais são incorporadas aqui para referência em sua totalidade.
[0025] Por meio de ainda um exemplo, um dispositivo de controle exemplar pode suportar parâmetros de entrada de navegação configuráveis pelo usuário e do tipo e variação mostrados na tabela 1 abaixo. Inicialmente definido para os valores padrões mostrados, cada um desses parâmetros pode ser ajustado por um usuário para sua preferência pessoal, por exemplo, iniciando um modo de configuração de parâmetro via, forma simultânea, mantendo pressionada a tecla "enter" 302 junto com uma tecla numérica 306 correspondendo ao número de item a ser ajustado até um bip audível indicar que o modo de configuração de parâmetro foi iniciado. Uma vez no modo de configuração de parâmetro, um valor numérico entre um e quatro dígitos (dependendo do parâmetro sendo ajustado) pode ser entrado para armazenagem na memória não volátil 206, após o que aquele valor ser usado em toda decodificação e cálculos de entrada de navegação futuros. Será apreciado que nas modalidades que suportam múltiplos usuários, os valores ajustados podem ser armazenados em uma área de memória não volátil atribuída para o corrente usuário como anteriormente identificado, por exemplo, pela ativação de um dos botões de seleção do usuário 304.
Figure img0001
[0026] Será apreciado que enquanto a modalidade exemplar apresentada acima utiliza entradas de teclado do usuário para realizar configurações de parâmetros, vários outros métodos podem ser usados igualmente de modo eficaz onde apropriado. Por exemplo, um usuário pode configurar os parâmetros usando uma aplicação de PC, local ou baseada na internet, e então baixar os valores resultantes no dispositivo de controle usando conhecidos métodos tal como descritos por exemplo Na Patentes dos U.S. 5.953.144 ou 5.537.463 ambos como cessionárias e incorporadas para referência aqui em sua totalidade. Alternativamente, nas modalidades onde um dispositivo de controle é equipado para IR de dois sentidos ou comunicação de RF com, por exemplo, a caixa de console 104, ajustes de parâmetro podem ser realizados usando uma aplicação STB interativa e transferida para o dispositivo de controle via a comunicação mencionado no elo de comunicação de dois sentidos. Adicionalmente, em ambos os casos acima, seleção de valores de parâmetros pode ser realizada interativamente via experimentação – por exemplo, uma aplicação de STB ou PC especialmente designada pode permitir ao usuário interagir com uma exibição de tela exemplar em um modo de calibração com os parâmetros de dispositivo de controle todos em seus valores padrões, e automaticamente determinar os ajustes ótimos para aquele usuário com base nas métricas observadas, tal como tempo de reação, precisão de posicionamento, velocidade dos gestos de entrada, etc.
[0027] Em determinadas modalidades nas quais o dispositivo de controle 100 é adaptado para suportar comunicação em dois sentidos com um aparelho alvo tal como STB 104, refinamentos adicionais para valores de parâmetro podem ser implementados. Por exemplo, no lugar de ou como um suplemento para o modo de calibração mencionado, um aparelho alvo pode monitorar as interações do usuário e fazer ajustes dinâmicos e adaptativos para os parâmetros armazenados no dispositivo de controle via o elo de comunicação nos dois sentidos. À título de exemplo, se um usuário é observado para consistentemente ultrapassar quando fazendo a rolagem de uma exibição de guia de programa, os coeficientes de aceleração e / ou desaceleração podem ser automaticamente ajustados pela aplicação de STB para melhorar a experiência do usuário. Em ainda uma outra modalidade, um dispositivo de controle pode armazenar múltiplos conjuntos de parâmetro correspondendo às várias atividades, por exemplo um conjunto otimizado para navegação de menu e um outro conjunto otimizado para jogar jogo, com o conjunto de parâmetro correntemente em uso sendo selecionado pelo STB com base na atividade corrente sendo efetuada. Alternativamente, somente um único conjunto de parâmetros básicos pode ser armazenado, e um fator de escala relacionada a atividade fornecido pelo STB.
[0028] Em algumas modalidades contempladas, não todos os parâmetros podem necessariamente ser revelados a um usuário do dispositivo de controle e tornados disponíveis para ajuste. Por exemplo, para os motivos de simplicidade determinados valores de parâmetro podem ser definidos pelo fabricante ou fornecedor do dispositivo de controle, com base, por exemplo, na aplicação e / ou aparelho alvo com o qual o dispositivo de controle é pretendido ser usado, e pré-configurado em tempo de fabricação ou instalação.
[0029] Enquanto vários conceitos foram descritos em detalhes, será apreciado por aqueles com qualificação na arte que, várias modificações e alternativas para aqueles conceitos poderiam ser desenvolvidas à luz dos ensinamentos gerais da divulgação.
[0030] Adicionalmente, enquanto descrito no contexto de módulos funcionais e ilustrado usando formato de diagrama em bloco, é para ser entendido que, ao menos que de outra forma colocado ao contrário, uma ou mais das funções e / ou recursos descritos podem ser integrados em um único dispositivo físico e / ou um módulo de software, ou uma ou mais funções e / ou recursos podem ser implementados em dispositivos físicos ou módulos de software separados. Também será apreciado que uma discussão detalhada da implementação efetiva de cada módulo não é necessária para um entendimento permitido da invenção. Mais propriamente, a implementação efetiva de tais módulos estaria bem dentro da habilidade rotineira de um engenheiro, dada a divulgação aqui dos atributos, funcionalidade, e inter-relação dos vários módulos funcionais no sistema. Por conseguinte, uma pessoa com qualificação na arte, aplicando habilidade simples, será capaz de praticar a invenção estabelecia nas reivindicações sem experimentação indevida. Será adicionalmente apreciado que os particulares conceitos divulgados são significativos para serem ilustrativos somente e não limitantes quanto ao escopo da invenção o qual é para ser dada a abrangência total das reivindicações anexas e quaisquer equivalentes do mesmo.
[0031] Todas as patentes citadas dentro deste documento são aqui incorporadas para referência em sua totalidade.

Claims (15)

  1. Método para usar um dispositivo eletrônico portátil (100), tendo um dispositivo de entrada (106) para receber uma entrada baseada em gesto de um usuário, para controlar uma operação de navegação de um aparelho (102, 104), compreendendo:
    • - receber via o dispositivo de entrada (106) do dispositivo eletrônico portátil a entrada baseada em gesto; e
    • - fazer com que o dispositivo eletrônico portátil (100) transmita um comando de etapa de navegação (404) para, por meio disso, controlar a operação de navegação do aparelho;
    caracterizado pelo fato de que o comando de etapa de navegação (404) transmitido pelo dispositivo eletrônico portátil compreende um comando de direção (406) que é transmitido a partir do dispositivo eletrônico portátil (100), em que a transmissão do comando de direção (406) é repetida um número variável de vezes a uma taxa variável, e em que o número variável de vezes e a taxa variável são determinados como uma função de uma ou mais características associadas a entrada baseada em gesto e de um ou mais parâmetros armazenados na memória (202, 204, 206) do dispositivo eletrônico portátil (100).
  2. Método de acordo com a reivindicação 1, caracterizado pelo fato de que o dispositivo de entrada (106) compreende uma superfície sensível ao toque.
  3. Método de acordo com a reivindicação 2, caracterizado pelo fato de que a superfície sensível ao toque compreende um sensor de toque capacitivo em dois eixos.
  4. Método de acordo com a reivindicação 1, caracterizado pelo fato de que compreende fornecer realimentação de usuário via o dispositivo eletrônico portátil representativa da entrada baseada em gesto
  5. Método de acordo com a reivindicação 1, caracterizado pelo fato de que compreende estabelecer os parâmetros no dispositivo eletrônico portátil usando entrada de usuário recebida no dispositivo eletrônico portátil.
  6. Método de acordo com a reivindicação 1, caracterizado pelo fato de que compreende estabelecer os parâmetros em um dispositivo remoto a partir do dispositivo eletrônico portátil e carregar os parâmetros a partir do dispositivo remoto do dispositivo eletrônico portátil para o dispositivo eletrônico portátil para armazenar na memória do dispositivo eletrônico portátil.
  7. Método de acordo com a reivindicação 6, caracterizado pelo fato de que os parâmetros são estabelecidos no dispositivo remoto a partir do dispositivo portátil via uso do dispositivo eletrônico portátil para controlar operações de navegação do dispositivo remoto a partir do dispositivo eletrônico portátil.
  8. Método de acordo com a reivindicação 1, caracterizado pelo fato de que os parâmetros são carregados a partir do aparelho para o dispositivo eletrônico portátil para armazenar na memória do dispositivo eletrônico portátil.
  9. Método de acordo com a reivindicação 1, caracterizado pelo fato de que parâmetros armazenados na memória do dispositivo eletrônico portátil são feitos para serem dinamicamente trocados via comunicações recebidas a partir do aparelho.
  10. Método de acordo com a reivindicação 1, caracterizado pelo fato de compreender fazer com que o dispositivo eletrônico portátil transmita para o aparelho, um comando discreto em resposta a entrada baseada em gesto incluindo um gesto de batida de leve percebido no dispositivo de entrada.
  11. Método de acordo com a reivindicação 10, caracterizado pelo fato de que parâmetros armazenados na memória do dispositivo eletrônico portátil ainda funcionam para definir uma ou mais regiões do dispositivo de entrada para receber o gesto de batida de leve.
  12. Método de acordo com a reivindicação 1, caracterizado pelo fato de que parâmetros armazenados na memória do dispositivo eletrônico portátil compreendem pelo menos um entre um tempo de passagem de referência abaixo do qual aceleração não é acionada, um coeficiente de desaceleração e uma janela de medição de desaceleração.
  13. Método de acordo com a reivindicação 1, caracterizado pelo fato de que características associadas com a entrada baseada em gesto compreendem pelo menos uma entre uma característica de aceleração associada com a entrada baseada em gesto, uma característica de duração associada com a entrada baseada em gesto, e uma característica de localização associada com a entrada baseada em gesto.
  14. Método de acordo com a reivindicação 1, caracterizado pelo fato de que o dispositivo eletrônico portátil inclui uma biblioteca de parâmetros e entrada é recebida no dispositivo eletrônico portátil para selecionar parâmetros a partir da biblioteca de parâmetros para usar na etapa de fazer com que o dispositivo eletrônico portátil transmita um comando de etapa de navegação para, por meio disso, controlar a operação de navegação do aparelho.
  15. Método de acordo com a reivindicação 14, caracterizado pelo fato de que a entrada recebida no dispositivo eletrônico portátil para selecionar parâmetros a partir da biblioteca de parâmetros compreende entrada recebida via um sensor de em entrada biométrica do dispositivo eletrônico portátil e uma transmissão recebida do aparelho.
BR112012004844-9A 2009-09-02 2010-08-31 método para usar um dispositivo eletrônico portátil BR112012004844B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US12/552761 2009-09-02
US12/552,761 US8438503B2 (en) 2009-09-02 2009-09-02 System and method for enhanced command input
US12/552,761 2009-09-02
PCT/US2010/047268 WO2011028692A1 (en) 2009-09-02 2010-08-31 System and method for enhanced command input

Publications (2)

Publication Number Publication Date
BR112012004844A2 BR112012004844A2 (pt) 2020-10-06
BR112012004844B1 true BR112012004844B1 (pt) 2021-02-17

Family

ID=43626716

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112012004844-9A BR112012004844B1 (pt) 2009-09-02 2010-08-31 método para usar um dispositivo eletrônico portátil

Country Status (5)

Country Link
US (11) US8438503B2 (pt)
EP (2) EP3062307B1 (pt)
CN (1) CN102598110B (pt)
BR (1) BR112012004844B1 (pt)
WO (1) WO2011028692A1 (pt)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
US9520056B2 (en) 2010-05-11 2016-12-13 Universal Electronics Inc. System and methods for enhanced remote control functionality
US20120095575A1 (en) * 2010-10-14 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) human machine interface (hmi)
US20120124500A1 (en) * 2010-11-16 2012-05-17 Motorola Mobility, Inc. Use of discrete input to control controllable device
US20120242514A1 (en) * 2011-03-24 2012-09-27 Smile Technology Co., Ltd. Hybrid keyboard
TW201322294A (zh) * 2011-11-29 2013-06-01 Darfon Electronics Corp 鍵盤
KR101237472B1 (ko) * 2011-12-30 2013-02-28 삼성전자주식회사 전자 장치 및 그의 제어 방법
US9497509B2 (en) * 2012-11-29 2016-11-15 Echostar Uk Holdings Limited Navigation techniques for electronic programming guides and video
JP5821895B2 (ja) * 2013-05-22 2015-11-24 トヨタ自動車株式会社 地図表示制御装置
EP2827332B1 (en) * 2013-07-19 2020-09-09 Nxp B.V. Navigating within a media item
US20150160779A1 (en) * 2013-12-09 2015-06-11 Microsoft Corporation Controlling interactions based on touch screen contact area
JP1525112S (pt) * 2014-11-14 2015-06-01
TWD180105S (zh) * 2014-11-14 2016-12-11 愛斯佩克股份有限公司 顯示面板之操作介面之部分
DE102014117544A1 (de) * 2014-11-28 2016-06-02 Claas Saulgau Gmbh Mensch-Maschine-Schnittstelle für ein landwirtschaftliches Arbeitsgerät, Steuerungssystem und landwirtschaftliches Arbeitsgerät
CN104867311A (zh) * 2015-05-14 2015-08-26 连宁 通过第三方终端配置无线遥控终端的方法和装置
US9977887B2 (en) * 2015-09-17 2018-05-22 Sony Mobile Communications Inc. Electronic device and method for validation of a trusted user
GB2552274A (en) * 2015-11-09 2018-01-17 Sky Cp Ltd Television user interface
US20180275837A1 (en) * 2017-03-23 2018-09-27 RideOn Ltd. Graphical user interface (gui) controls
EP3396968B1 (en) * 2017-04-28 2021-05-05 Samsung Electronics Co., Ltd. Display apparatus and method of operating the same
US11323763B2 (en) 2017-04-28 2022-05-03 Samsung Electronics Co., Ltd. Display apparatus and method of operating the same
CN110825300A (zh) * 2018-08-07 2020-02-21 华硕电脑股份有限公司 触控感测方法、电子装置及非暂态电脑可读记录媒体装置
CN110636357A (zh) * 2019-10-15 2019-12-31 东莞市安瑞创智能科技有限公司 一种指纹快速识别解锁家用遥控器

Family Cites Families (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3699522A (en) * 1966-09-20 1972-10-17 Gen Signal Corp Locomotive radio control system with address and command signals
DE1763685A1 (de) * 1968-07-18 1971-11-25 Messerschmitt Boelkow Blohm Verfahren zur Kommandouebertragung
CH534446A (de) * 1971-07-26 1973-02-28 Landis & Gyr Ag Rundsteuerempfänger
US4090201A (en) * 1976-09-08 1978-05-16 Harris Corporation Rate augmented step track system
US4623887A (en) * 1984-05-15 1986-11-18 General Electric Company Reconfigurable remote control
US5872562A (en) * 1985-05-30 1999-02-16 U.S. Philips Corporation Universal remote control transmitter with simplified device identification
US4774511A (en) * 1985-05-30 1988-09-27 Nap Consumer Electronics Corp. Universal remote control unit
US4703359A (en) * 1985-05-30 1987-10-27 Nap Consumer Electronics Corp. Universal remote control unit with model identification capability
US4855730A (en) * 1987-05-08 1989-08-08 Rca Licensing Corporation Component audio/video system with timed control of plural peripheral devices
US6014092A (en) * 1987-10-14 2000-01-11 Universal Electronics Inc. Key mover
US4959810A (en) * 1987-10-14 1990-09-25 Universal Electronics, Inc. Universal remote control device
US5481256A (en) 1987-10-14 1996-01-02 Universal Electronics Inc. Direct entry remote control with channel scan
US5537463A (en) * 1987-10-14 1996-07-16 Universal Electronics Inc. Magnetic modem in a remote control
US5606443A (en) * 1993-07-28 1997-02-25 Sony Corporation Control circuit for entertainment system demonstration
US5481258A (en) * 1993-08-11 1996-01-02 Glenayre Electronics, Inc. Method and apparatus for coordinating clocks in a simulcast network
US5570113A (en) * 1994-06-29 1996-10-29 International Business Machines Corporation Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system
KR0170326B1 (ko) * 1994-07-27 1999-03-30 김광호 원격제어방법 및 그 장치
US5592604A (en) * 1994-08-31 1997-01-07 International Business Machines Corporation Method and system for indicating boundaries of connected data subsets
US5460160A (en) * 1994-09-29 1995-10-24 Parrott; William T. Portable golf ball warming device
US5777614A (en) * 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
JP3153084B2 (ja) * 1994-11-15 2001-04-03 エスエムケイ株式会社 パルス変調方法
JPH08286807A (ja) * 1995-04-18 1996-11-01 Canon Inc データ処理装置及びそのジェスチャ認識方法
US5614906A (en) * 1996-04-23 1997-03-25 Universal Electronics Inc. Method for selecting a remote control command set
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6127941A (en) * 1998-02-03 2000-10-03 Sony Corporation Remote control device with a graphical user interface
US6151208A (en) * 1998-06-24 2000-11-21 Digital Equipment Corporation Wearable computing device mounted on superior dorsal aspect of a hand
US6157319A (en) * 1998-07-23 2000-12-05 Universal Electronics Inc. Universal remote control system with device activated setup
US7586398B2 (en) * 1998-07-23 2009-09-08 Universal Electronics, Inc. System and method for setting up a universal remote control
US6437836B1 (en) * 1998-09-21 2002-08-20 Navispace, Inc. Extended functionally remote control system and method therefore
US6678891B1 (en) * 1998-11-19 2004-01-13 Prasara Technologies, Inc. Navigational user interface for interactive television
US6225938B1 (en) * 1999-01-14 2001-05-01 Universal Electronics Inc. Universal remote control system with bar code setup
US20060061551A1 (en) * 1999-02-12 2006-03-23 Vega Vista, Inc. Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection
US6256019B1 (en) * 1999-03-30 2001-07-03 Eremote, Inc. Methods of using a controller for controlling multi-user access to the functionality of consumer devices
US6639584B1 (en) * 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6473135B1 (en) * 2000-02-16 2002-10-29 Sony Corporation Signal input selector for television set and method of implementing same
WO2001071478A2 (en) * 2000-03-22 2001-09-27 Sony Electronics Inc Data entry user interface
US6765557B1 (en) * 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
SE0002472L (sv) * 2000-06-30 2001-12-31 Nokia Corp Method and apparatus for selection control
US6629077B1 (en) * 2000-11-22 2003-09-30 Universal Electronics Inc. Universal remote control adapted to receive voice input
DE60117676T2 (de) * 2000-12-29 2006-11-16 Stmicroelectronics S.R.L., Agrate Brianza Verfahren zur einfachen Ausdehnung der Funktionalität eines tragbaren elektronischen Geräts und zugehöriges, tragbares elektronisches Gerät
EP1364362A1 (en) * 2001-01-24 2003-11-26 Interlink Electronics, Inc. Game and home entertainment device remote control
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US6914551B2 (en) * 2002-04-12 2005-07-05 Apple Computer, Inc. Apparatus and method to facilitate universal remote control
JP4109902B2 (ja) * 2002-05-27 2008-07-02 キヤノン株式会社 表示装置
US7167913B2 (en) * 2002-06-05 2007-01-23 Universal Electronics Inc. System and method for managing communication links
JP3891143B2 (ja) * 2002-06-14 2007-03-14 ヤマハ株式会社 状態設定装置及びプログラム
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7362313B2 (en) * 2003-01-17 2008-04-22 3M Innovative Properties Company Touch simulation system and method
KR100514191B1 (ko) * 2003-01-23 2005-09-13 삼성전자주식회사 통합 리모트 컨트롤러 및 그 통합 리모트 컨트롤러용셋톱박스
US8042049B2 (en) * 2003-11-03 2011-10-18 Openpeak Inc. User interface for multi-device control
CN1857025B (zh) * 2003-08-07 2010-06-23 三星电子株式会社 可用于集成控制的音频/视频系统以及控制其的方法
US20050068307A1 (en) * 2003-09-30 2005-03-31 Microsoft Corporation System, method and apparatus for a media computing device remote control
US7155305B2 (en) * 2003-11-04 2006-12-26 Universal Electronics Inc. System and methods for home appliance identification and control in a networked environment
KR100814192B1 (ko) * 2003-12-26 2008-03-17 마츠시타 덴끼 산교 가부시키가이샤 제어 신호 수신 장치
CN1333539C (zh) * 2003-12-29 2007-08-22 明基电通股份有限公司 远程遥控电子装置的方法
US7421656B2 (en) * 2004-01-05 2008-09-02 Microsoft Corporation Systems and methods for interacting with a user interface of a media player
US7706616B2 (en) * 2004-02-27 2010-04-27 International Business Machines Corporation System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout
US7173604B2 (en) * 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US8320708B2 (en) * 2004-04-02 2012-11-27 K-Nfb Reading Technology, Inc. Tilt adjustment for optical character recognition in portable reading machine
DK2337016T3 (en) * 2004-04-30 2018-04-23 Idhl Holdings Inc Free space pointing device with slope compensation and improved applicability
JP4685095B2 (ja) * 2004-04-30 2011-05-18 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 微動に基づいてユーザを識別するための方法およびデバイス
US7295904B2 (en) * 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
US20060095596A1 (en) * 2004-11-03 2006-05-04 Yung Lin C Solution for consumer electronics control
US7631278B2 (en) * 2004-11-19 2009-12-08 Microsoft Corporation System and method for directional focus navigation
CN101133385B (zh) * 2005-03-04 2014-05-07 苹果公司 手持电子设备、手持设备及其操作方法
US20060227117A1 (en) * 2005-04-07 2006-10-12 Microsoft Corporation Circular touch sensor
US7577925B2 (en) * 2005-04-08 2009-08-18 Microsoft Corporation Processing for distinguishing pen gestures and dynamic self-calibration of pen-based computing systems
DE102006018238A1 (de) * 2005-04-20 2007-03-29 Logitech Europe S.A. System und Verfahren zur adaptiven Programmierung einer Fernbedienung
US7487461B2 (en) * 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
JP4427486B2 (ja) * 2005-05-16 2010-03-10 株式会社東芝 機器操作装置
US7301464B2 (en) * 2005-05-24 2007-11-27 Electronic Data Systems Corporation Process and method for safer vehicle navigation through facial gesture recognition and operator condition monitoring
WO2007013652A1 (ja) * 2005-07-29 2007-02-01 Pioneer Corporation 画像表示制御装置、画像表示装置、遠隔操作器、画像表示システム
US7907222B2 (en) * 2005-09-08 2011-03-15 Universal Electronics Inc. System and method for simplified setup of a universal remote control
JP2007081685A (ja) * 2005-09-13 2007-03-29 Sony Corp 画像信号処理装置、画像信号処理方法及び画像信号処理システム
US9201507B2 (en) * 2005-11-15 2015-12-01 Carefusion 303, Inc. System and method for rapid input of data
US20070136778A1 (en) * 2005-12-09 2007-06-14 Ari Birger Controller and control method for media retrieval, routing and playback
TWI348639B (en) * 2005-12-16 2011-09-11 Ind Tech Res Inst Motion recognition system and method for controlling electronic device
US8054294B2 (en) * 2006-03-31 2011-11-08 Sony Corporation Touch screen remote control system for use in controlling one or more devices
US7523439B2 (en) 2006-07-11 2009-04-21 Tokyo Electron Limited Determining position accuracy of double exposure lithography using optical metrology
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
JP4979314B2 (ja) * 2006-09-13 2012-07-18 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20080104547A1 (en) * 2006-10-25 2008-05-01 General Electric Company Gesture-based communications
TWI324304B (en) * 2006-12-15 2010-05-01 Inventec Corp Method for reading data of input/output port
US20080143681A1 (en) * 2006-12-18 2008-06-19 Xiaoping Jiang Circular slider with center button
KR100720335B1 (ko) * 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
US8977255B2 (en) * 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
EP2153377A4 (en) * 2007-05-04 2017-05-31 Qualcomm Incorporated Camera-based user input for compact devices
EP2003556A1 (fr) * 2007-05-25 2008-12-17 Axalto SA Procédé de traitement par un dispositif électronique portable de commandes applicatives issues de canaux physiques, dispositif et système correspondants
US20090096606A1 (en) * 2007-10-11 2009-04-16 Remote Logics, Inc. Remote obstruction sensing device
US8350971B2 (en) * 2007-10-23 2013-01-08 Sling Media, Inc. Systems and methods for controlling media devices
US20090125811A1 (en) * 2007-11-12 2009-05-14 Microsoft Corporation User interface providing auditory feedback
US9503562B2 (en) * 2008-03-19 2016-11-22 Universal Electronics Inc. System and method for appliance control via a personal communication or entertainment device
US8264381B2 (en) * 2008-08-22 2012-09-11 Microsoft Corporation Continuous automatic key control
US20100171635A1 (en) * 2009-01-02 2010-07-08 Ewig Industries Macao Commerical Offshore, Ltd. System And Method For Motion-Sensitive Remote Control For Audio-Visual Entertainment System
US8547326B2 (en) * 2009-02-24 2013-10-01 Blackberry Limited Handheld electronic device having gesture-based control and a method of using same
US8742885B2 (en) * 2009-05-01 2014-06-03 Apple Inc. Directional touch remote
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
US9520056B2 (en) * 2010-05-11 2016-12-13 Universal Electronics Inc. System and methods for enhanced remote control functionality

Also Published As

Publication number Publication date
US20130246978A1 (en) 2013-09-19
US9323453B2 (en) 2016-04-26
US20130241876A1 (en) 2013-09-19
US20130241825A1 (en) 2013-09-19
US20110055772A1 (en) 2011-03-03
BR112012004844A2 (pt) 2020-10-06
US20130246979A1 (en) 2013-09-19
US10031664B2 (en) 2018-07-24
US8438503B2 (en) 2013-05-07
EP2473991A4 (en) 2012-11-07
US9477402B2 (en) 2016-10-25
US20160110039A1 (en) 2016-04-21
EP3062307B1 (en) 2017-01-04
US9134815B2 (en) 2015-09-15
US20180129412A1 (en) 2018-05-10
US9261976B2 (en) 2016-02-16
CN102598110B (zh) 2015-04-22
US20150346999A1 (en) 2015-12-03
EP2473991A1 (en) 2012-07-11
EP3062307A1 (en) 2016-08-31
WO2011028692A1 (en) 2011-03-10
CN102598110A (zh) 2012-07-18
US20130241715A1 (en) 2013-09-19
US9335923B2 (en) 2016-05-10
US9086739B2 (en) 2015-07-21
EP2473991B1 (en) 2016-04-27
US20130254722A1 (en) 2013-09-26
US9250715B2 (en) 2016-02-02
US10089008B2 (en) 2018-10-02
US20130254721A1 (en) 2013-09-26
US9927972B2 (en) 2018-03-27

Similar Documents

Publication Publication Date Title
BR112012004844B1 (pt) método para usar um dispositivo eletrônico portátil
JP5669393B2 (ja) プログラマブル・マルチメディア・コントローラのリモート・コントロール・ユニット
JP6083072B2 (ja) スマートエアマウス
EP3367186B1 (en) System and method for interactive appliance control
CN102473040B (zh) 多维控制设备
BR112012028953B1 (pt) Sistema para funcionalidade de controle remoto aprimorado.
CN102460367A (zh) 定向触摸遥控器
BR112012015405B1 (pt) dispositivo de controle e método para utilizar um dispositivo de controle
CN107172471A (zh) 实现在显示设备上运行触摸屏应用的装置和显示设备
EP1904912A1 (en) Methods and apparatus for computer interface
Murata et al. A gesture-based remote control for finger disabled people
Altinki̇li̇t Design and Construction of Mimic and Speech Operated TV Control System for Disabled Person

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 17/02/2021, OBSERVADAS AS CONDICOES LEGAIS.