BR112012004844B1 - método para usar um dispositivo eletrônico portátil - Google Patents
método para usar um dispositivo eletrônico portátil Download PDFInfo
- Publication number
- BR112012004844B1 BR112012004844B1 BR112012004844-9A BR112012004844A BR112012004844B1 BR 112012004844 B1 BR112012004844 B1 BR 112012004844B1 BR 112012004844 A BR112012004844 A BR 112012004844A BR 112012004844 B1 BR112012004844 B1 BR 112012004844B1
- Authority
- BR
- Brazil
- Prior art keywords
- electronic device
- portable electronic
- input
- gesture
- fact
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42221—Transmission circuitry, e.g. infrared [IR] or radio frequency [RF]
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
MÉTODO PARA USAR UM DISPOSITIVO ELETRÔNICO PORTÁTIL Um dispositivo eletrônico portátil tendo um dispositivo de entrada para receber uma entrada baseada em gesto de um usuário é usado para controlar uma operação de navegação de um aparelho. O dispositivo eletrônico portátil recebe via o dispositivo de entrada, a entrada baseada em gesto e usa um ou mais parâmetros armazenados em uma memória do dispositivo eletrônico portátil e uma ou mais características associadas com a entrada baseada em gesto para fazer com que o dispositivo eletrônico portátil para transmitir um comando de etapa de navegação e por meio disso, controlar a operação de navegação do aparelho.
Description
[0001] Dispositivos de controle, por exemplo, controles remotos, para uso na emissão de comandos para entretenimento e outros aparelhos, e os recursos e funcionalidade fornecida por tais dispositivos de controle são bem conhecidos na arte. Tradicionalmente, meios de entrada do usuário em tais dispositivos de controle compreendeu uma série de botões cada um dos quais pode resultar na transmissão de um comando específico quando ativado. Cada vez mais nos ambientes de hoje, tais dispositivos de controle precisam ser usados para interagir com os sistemas de menu exibidos, navegar em páginas da web, manipular apontadores, e efetuar outras atividades similares que podem requerer movimento, por ex., rolar a informação exibida em uma tela, mover um apontador, para controlar uma atividade de jogo ou avatar, para aproximar / para afastar, para controlar funções tais como avanço rápido ou movimento lento, ou o similar (tais atividades coletivamente referidas daqui em diante como "navegação"). Embora controle das funções de navegação seja possível usando mecanismos de entrada de dispositivo de controle convencional, tal como um grupo de teclas de seta para cima, para baixo, para à esquerda e para à direita, em muitas circunstâncias a experiência do usuário pode ser melhorada pelo aprovisionamento de um mecanismo de entrada que é melhor adequado a este tipo de atividade. Adicionalmente, em alguns casos a experiência do usuário pode ser ainda aprimorada fornecendo ajuste de vários aspectos do sistema de entrada de navegação, tal como sensitividade, velocidade, etc., de acordo com preferência pessoal.
[0002] De acordo com esta e outras necessidades, o discutido a seguir em geral descreve um sistema e método para fornecer funcionalidade de entrada de navegação melhorada em um dispositivo de controle. Para este fim, em adição a uma matriz de tecla convencional para receber entradas de botão como é bem conhecido na arte, um dispositivo de controle pode ser fornecido com meios de entrada específicos de navegação tal como, por exemplo, uma roda de rolagem mecânica, sensor de toque resistivo ou capacitivo, etc., e por meio disso, movimento e / ou pressão por um dedo do usuário pode ser traduzido em uma série repetitiva de comandos de etapa transmitidos para um dispositivo controlado alvo. Esses comandos podem ser aplicados no dispositivo alvo para controlar operações relacionadas à navegação, tal como a rolagem de um menu, o movimento de um cursor na tela, o movimento de um objeto de jogo, etc., conforme apropriado para uma particular aplicação. Uma saída de taxa repetitiva de step pelo dispositivo de controle pode ser variável dependente da velocidade de movimento e / ou intensidade de pressão, e pode ainda incluir fatores de resposta não linear tal como aceleração / desaceleração assim como sensoriamento de botão virtual. Os parâmetros controlando tais fatores de resposta podem ser ajustáveis por usuário para coincidir com preferência individuais.
[0003] Um melhor entendimento de objetos, vantagens, recursos, propriedades e relações da invenção serão obtidos a partir da seguinte descrição detalhada e desenhos anexos que estabelecem modalidades ilustrativas e que indicativas das várias maneiras nas quais os princípios da invenção podem ser empregados.
[0004] Para um melhor entendimento dos vários aspectos da invenção, referência pode ser tida para as modalidades preferidas conforme mostradas nos desenhos anexos nos quais:
Figura 1 ilustra um sistema exemplar na qual um dispositivo de controle exemplar de acordo com a presente invenção pode ser usado;
Figura 2 ilustra um diagrama em bloco dos componentes exemplares do dispositivo de controle exemplar da Figura 1;
Figura 3 ainda ilustra o dispositivo de controle exemplar da Figura 1;
Figura 4 ilustra métodos exemplares para reportar funções da etapa de navegação de um dispositivo de controle para um aparelho alvo; e
Figura 5 ilustra a definição de uma zona de pressão de botão virtual exemplar para a área de sensoriamento de entrada de navegação de um dispositivo de controle exemplar.
Figura 1 ilustra um sistema exemplar na qual um dispositivo de controle exemplar de acordo com a presente invenção pode ser usado;
Figura 2 ilustra um diagrama em bloco dos componentes exemplares do dispositivo de controle exemplar da Figura 1;
Figura 3 ainda ilustra o dispositivo de controle exemplar da Figura 1;
Figura 4 ilustra métodos exemplares para reportar funções da etapa de navegação de um dispositivo de controle para um aparelho alvo; e
Figura 5 ilustra a definição de uma zona de pressão de botão virtual exemplar para a área de sensoriamento de entrada de navegação de um dispositivo de controle exemplar.
[0005] Voltando agora à Figura 1, é ilustrado um sistema exemplar no qual um dispositivo de controle 100 é configurado para controlar vários aparelhos controláveis, tal como uma televisão 102 e um caixa de console ("STB") 104. Como é conhecido na arte, o dispositivo de controle 100 é capaz de transmitir comandos para os aparelhos, usando qualquer conveniente protocolo de IR, RF, Ponto a Ponto, ou em rede, para fazer com que os aparelhos efetuem funções operacionais. Enquanto ilustrado no contexto de uma televisão 102 e STB 104, é para ser entendido que aparelhos controláveis podem incluir, mas não necessitam ser limitados à, televisões, VCRs, DVRs, tocadores de DVD, caixas consoles de conversor de cabo ou satélite ("STBs"), amplificadores, tocadores de CD, consoles de jogo, iluminação de casa, drapery, ventiladores, sistemas de HVAC, termostatos, computadores pessoais, etc. Em uma particular modalidade ilustrativa, em adição a funcionalidade de controle de convencional como é bem conhecido na arte, o dispositivo de controle 100 pode ainda incluir uma área de entrada 106 para geração de comandos de navegação para transmissão a partir do dispositivo de controle 100 para um ou mais aparelhos em resposta à interação do usuário com aquela área, usada por exemplo para rolar uma exibição de menu de guia de programa 108 na TV 102 emitindo uma série de comandos de etapa para a caixa de console 104 conforme será descrito em detalhes adicionais daqui em diante.
[0006] Com referência à Figura 2, para uso em comandar as operações funcionais de um ou mais aparelhos, o dispositivo de controle 100 pode incluir, como necessário para uma particular aplicação, um processador 200 acoplado a uma memória ROM 204; uma memória RAM 202; uma matriz de tecla 216 (por ex., teclas hard, teclas soft tal como uma superfície sensível de toque sobreposto em um cristal líquido (LCD), e / ou um mostrador eletroluminescente (EL)); uns meios de entrada de função de rolagem e / ou navegação 218 tal como um sensor de toque capacitivo ou resistivo, roda de rolagem, etc.; circuito(s) de transmissão e / ou circuito(s) de transceptor 210 (por ex., IR e / ou RF); uma memória de leitura / escrita não volátil 206; uns meios 220 para fornecer realimentação visual para o usuário (por ex., um ou mais LEDs, monitor, e / ou o similar); uns meios 222 para fornecer realimentação audível para um usuário (por ex., um alto-falante, sirene piezo-elétrico, etc.); uma fonte de energia 208; uma porta de entrada / saída 224 tal como uma interface serial, porta de USB, modem, Zigbee, WiFi, ou transceptor Bluetooth, etc.; um dispositivo de entrada biométrico 226 tal uma almofada de reconhecimento de impressão digital, detector de tremor de mão, etc.; e relógio e contador de tempo lógico 212 com cristal ou dispositivo ressonante associado 214.
[0007] Como será entendido por aqueles com qualificação na arte, algumas ou todas as memórias 202, 204, 206 podem incluir instruções executáveis (coletivamente, a memória do programa) que são pretendidas para serem executadas pelo processador 200 para controlar a operação do controle remoto 100, assim como dados que servem para definir para um software operacional os protocolos de controle necessários e valores de comando para uso na transmissão de sinais de comando para aparelhos controláveis (coletivamente, os dados de comando). Nesta maneira, o processador 200 pode ser programado para controlar os vários componentes eletrônicos dentro do controle remoto 100, por ex., para monitorar a matriz de tecla 216, para causar a transmissão de sinais, etc. A memória de leitura / escrita de não volátil 206, por exemplo uma EEPROM, RAM suportada por bateria, FLASH, Cartão Inteligente, bastão de memória, ou o similar, podem adicionalmente ser fornecidos para armazenar dados e parâmetros de configuração conforme necessário. Enquanto a memória 204 é ilustrada e descrita como uma memória ROM, memória 204 também pode ser compreendida de qualquer tipo de mídia legível, tal como ROM, FLASH, EEPROM, ou o similar. Preferencialmente, as memórias 204 e 206 são não voláteis ou suportadas por bateria tal que dados não são requeridos para serem re-carregados após trocas de bateria. Em adição, as memórias 202, 204 e 206 pode tomar a forma de um chip, um disco rígido, um disco magnético, um disco óptico, e / ou o similar. Ainda adicionalmente, será apreciado que algum ou todos os dispositivos de memória ilustrados podem ser fisicamente combinados (por exemplo, uma única memória flash pode ser logicamente dividida em diferentes porções para suportar a funcionalidade de memórias 204 e 206 respectivamente), e / ou pode ser fisicamente incorporado dentro do mesmo chip de IC que o microprocessador 200 (um assim chamado "microcontrolador") e, como tal, eles são mostrados separadamente na Fig. 2 somente para os motivos de clareza.
[0008] Para fazer com que o dispositivo de controle 100 efetue uma ação, o dispositivo de controle 100 é adaptado para ser responsivo aos eventos, tal como uma interação de usuário percebida com a matriz de tecla 216, etc. Em resposta a um evento, instruções apropriadas dentro da memória de programa (daqui em diante o "programa de operação") podem ser executadas. Por exemplo, quando uma tecla de função é acionada no dispositivo de controle 100, o dispositivo de controle 100 pode recuperar a partir dos dados de comando armazenados na memória 202, 204, 206 um valor de comando e protocolo de controle correspondendo à tecla de função acionada e, onde necessário, modo do dispositivo corrente e vai usar os dados de comando recuperados para transmitir para um aparelho alvo pretendido, por ex., STB 104, um comando em um formato reconhecível através do qual o aparelho e por meio disso, controlar um ou mais operações funcionais daquele aparelho. Será apreciado que o programa de operação pode ser usado não somente para causar a transmissão de comandos e / ou dados para os aparelhos, mas também para efetuar operações locais. Enquanto não limitando, as operações locais que podem ser efetuadas pelo dispositivo de controle 100 podem incluir informação / dados de exibição, configuração do canal favorito, configuração de tecla macro, re-alocação de tecla de função, etc. Exemplos de operações locais podem ser encontrados Nas Patentes dos U.S. de Nrs. 5.481.256, 5.959.751, e 6.014.092.
[0009] Em algumas modalidades, dispositivo de controle 100 pode ser do tipo universal, que é aprovisionado com uma biblioteca, compreendendo uma multiplicidade de códigos de comando e protocolos adequado para controlar vários aparelhos. Em tais casos, para selecionar conjuntos de dados de comando a serem associadas com os aparelhos específicos a serem controlados (daqui em diante referido como um procedimento de configuração), dados podem ser entrados no dispositivo de controle 100 que serve para identificar cada aparelho alvo pretendido através de sua marca, e / ou modelos, e / ou tipo. Os dados podem tipicamente ser entrados via ativação daquelas teclas que são também usados para causar a transmissão de comandos para um aparelho, preferencialmente as teclas que são etiquetadas com numerais. Tais dados permitem ao dispositivo de controle 100 identificar o conjunto de dados de comando apropriado dentro da biblioteca de dados de comando que é para ser usado para transmitir comandos reconhecíveis em formatos apropriados para tais aparelhos identificados. A biblioteca de dados de comando pode representar uma grande quantidade de aparelhos controláveis de diferentes tipos e fabricantes, uma grande quantidade de aparelhos controláveis do mesmo tipo mas de diferentes fabricantes, uma grande quantidade de aparelhos do mesmo fabricante mas de diferentes tipos ou modelos, etc., ou qualquer combinação do mesmo conforme apropriado para uma dada modalidade. Na prática convencional como é bem conhecido na arte, tais dados usados para identificar um conjunto de dados de comando apropriado podem tomar a forma de um código de configuração numérica (obtido, por exemplo, a partir de uma lista impressa de nomes e / ou modelos de fabricantes com números de códigos correspondentes, a partir de um sítio de web de suporte, etc.). Procedimentos de configuração alternativos conhecidos na arte incluem leitura de códigos de barra, sequencialmente transmitir um pré-determinado comando em diferentes formatos até uma resposta de aparelho alvo ser detectada, interação com um sítio da web culminando na baixa de dados de comando e / ou códigos de configuração para o dispositivo de controle, etc. Já que tais métodos para configurar um dispositivo de controle para comandar a operação de aparelhos domésticos específicos são bem conhecidos, ele não serão descritos em maiores detalhes aqui. Todavia, para informação adicional pertencendo ao procedimento de configuração, a leitor pode se referenciar, por exemplo, para as Patentes dos U.S. de Nrs. 4.959.810, 5.614.906, ou 6.225.938 todas como cessionárias e incorporadas aqui para referência em sua totalidade.
[0010] Em mantendo os ensinamentos desta invenção, o dispositivo de controle 100 pode também incluir um dispositivo de entrada para aceitar entrada de toque do usuário a ser traduzida em comandos de navegação. Em uma modalidade exemplar, o dispositivo de entrada 218 pode tomar a forma de um sensor de toque capacitivo de múltiplos eletrodos de dois eixos como ilustrado na Figuras 3 e 5. Nesta forma, o dispositivo de entrada 218 pode aceitar gestos deslizando o dedo em ambos os eixos para tradução em comandos de etapa de navegação em uma direção X ou Y, assim como batidas de leve com o dedo nos pontos cardinais e área central para tradução em comandos discretos, por exemplo, equivalente à teclas das quatro setas do teclado convencional e uma tecla de seleção, todas como serão descritas em detalhas adicionais daqui em diante. Contudo será apreciado que qualquer outra adequada tecnologia, elétrica, mecânica ou uma combinação do mesmo pode ser usada para implementar os ensinamentos desta invenção, e consequentemente os métodos descritos podem ser aplicados independente dos meios de entrada físicos empregados por uma particular modalidade.
[0011] Comandos de etapa de navegação resultando de gestos deslizando o dedo podem ser reportados para um aparelho alvo usando qualquer protocolo de transmissão conveniente, IR ou RF, como conhecido na arte. Em geral, tais reportes podem incluir informação representativa de ambas direção e velocidade do gesto de entrada. À título de exemplo, sem limitação, dois possíveis métodos de formatar tal uma transmissão de reporte são ilustrados na figura 4 para um gesto exemplar 400, em uma direção para cima no eixo y de uma área de entrada de navegação 106 de um dispositivo de controle exemplar 100 e com um perfil de velocidade / tempo como ilustrado pela curva 402. Em uma modalidade exemplar, comandos de etapa de navegação podem ser reportados como ilustrado na 404, caracterizado pelo fato de compreender a transmissão de uma seqüência de comandos de direção de navegação (por exemplo um "comando para cima" 406) onde o comando de direção de navegação é repetido um número variável de vezes em uma taxa variável (Tl, T2, T3, T4, etc.) que é determinado como uma função, por exemplo, da velocidade corrente do gesto 400 e uma ou mais dos parâmetros armazenados. Em uma outra modalidade exemplar, comandos de etapa de navegação podem ser reportados como ilustrado em 408, caracterizado pelo fato de compreender a transmissão de uma seqüência de valores delta de direção variáveis 410 (por exemplo, "delta Y" = 1, 2, 3, 4 etc.) onde os valores delta de direção são transmitidos em intervalos fixos Tf e caracterizado pelo fato de que os valores delta são determinados como uma função, por exemplo, da corrente velocidade do gesto 400 e um ou mais dos parâmetros armazenados. Em geral, qualquer protocolo de transmissão adequado e método de reporte pode ser usado conforme apropriado para o aparelho alvo a ser controlado. Será ainda apreciado que em determinadas modalidades onde dispositivo de controle 100 é do tipo universal, mais do que um método de reportar comandos de etapa de navegação pode ser suportado pelo dispositivo de controle 100 e selecionado dependente do dispositivo alvo correntemente configurado. Já que os métodos para formatar e codificar pacotes de transmissão de comando são bem conhecidos na arte, por razões de simplicidade eles não serão descritos aqui. Contudo, para informação adicional considerando formatos e esquemas de codificação, o leitor interessado pode se referir, por exemplo, à Patentes dos U.S. 7.167.913 ou 5.640.160 ambas são incorporadas aqui para referência em sua totalidade.
[0012] Para adaptar as características do dispositivo de entrada de navegação 218 usada para os requisitos do aparelho a ser controlado, na maioria das modalidades uma tradução é requerida a partir dos parâmetros de entrada físicos recebido a partir do dispositivo de entrada de navegação 218 para um número de etapas lógico a ser transmitido para o dispositivo alvo, por exemplo STB 104. Este valor de etapa lógica pode ser dependente ambos de um valor de distância acumulativo de um gesto de entrada e da velocidade daquele gesto. Por meio de exemplo adicional, diferentes dispositivos de entrada de navegação podem ter diferentes resoluções físicas; i.e., um completo caminho tal como uma pressão do dedo fim a fim, completa rotação de roda, máxima oscilação de impedância elétrica, etc., pode ser traduzida em um diferente número de etapas físicas. Esta resolução física precisa ser mapeada para um número de etapas lógicas que correspondem a uma gama desejada de comandos a serem emitidos para um dispositivo alvo. À título de exemplo, se um dispositivo de entrada de navegação tal como 218 reporta 256 incrementos fim a fim em seu eixo x e a entrada deslizando no eixo x é para ser mapeada em 8 etapas lógicas, então cada 32 etapas de movimento físico no deslizamento ilustrativo pode ser traduzida para uma 1 etapa lógica a ser reportada para o alvo. Em geral para comportamento linear e não acelerado isto pode ser representado como:
STEP-D = int ( PHY-D * STEP-M AX / PHY-MAX)
onde
STEP-D = int ( PHY-D * STEP-M AX / PHY-MAX)
onde
- • STEP-D: número de etapas lógicas a ser reportado para o alvo para um movimento PHY-D
- • PHY-D: movimento físico delta bruto reportado pelo dispositivo de entrada
- • PHY-MAX: resolução máxima do dispositivo de entrada.
- • STEP-MAX: número de etapas lógicas a ser reportado para um movimento físico máximo.
[0013] Em determinadas modalidades os movimentos físicos podem ser calculados acumulativamente; i.e., em algumas taxas de amostragem um movimento pode não ser o bastante para gerar um reporte de etapa lógica para o alvo, contudo através de períodos de mais amostra, a distância acumulativa pode atingir o limite de uma etapa lógica e ser reportado para o alvo naquele momento. Também em algumas circunstâncias um comportamento "redundante" pode ser requerido para assegurar tradução natural de movimentos físicos para as etapas lógicas. Em tal casos um parâmetro PHY-CR, representativo de movimento físico redundante das etapas anteriores não ainda aplicado em direção a etapa lógica pode ser adicionado como a seguir:
STEP-D = int ( (PHY-CR + PHY-D) / (PHY-MAX / STEP-MAX) )
onde PHY-CR = (PHY-CR + PHY-D) mod (PHY-MAX / STEP-MAX)
STEP-D = int ( (PHY-CR + PHY-D) / (PHY-MAX / STEP-MAX) )
onde PHY-CR = (PHY-CR + PHY-D) mod (PHY-MAX / STEP-MAX)
[0014] Em adição, em determinadas modalidades um coeficiente de aceleração coeficiente pode ser aplicado aos dados brutos fornecidos pelo dispositivo de entrada, com base em uma velocidade de interação. Tal um coeficiente de aceleração pode ser derivado, por exemplo, como a seguir:
ACC-COEFF = (PHY-D * T-MAX) / (T-D * PHY-MAX)
If(ACC-COEFF ˂ 1 Acceleration = Disabled) then ACC-COEFF = 1
onde
ACC-COEFF = (PHY-D * T-MAX) / (T-D * PHY-MAX)
If(ACC-COEFF ˂ 1 Acceleration = Disabled) then ACC-COEFF = 1
onde
- • T-MAX: Um número de referência de períodos de amostragem para viajar a distância PHY-MAX no dispositivo de entrada, i.e., a taxa mais alta de entrada de usuário que deve resultar ma saída de dados da etapa linear com nenhuma aceleração.
- • T-D: períodos de amostragem passados para viajar PHY-D.
- • ACC-COEFF: O coeficiente de aceleração a ser aplicado para dados físicos brutos para uma experiência não linear. O valor deste coeficiente é sempre ˃=1. (Quando igual a 1, aceleração é desabilitada)
[0015] Este parâmetro de coeficiente de aceleração pode então ser usado para ajustar o valor de PHY-D apresentado nas equações anteriores, por exemplo:
STEP-D = (PHY-CR + PHY-D * ACC-COEFF) / (PHY-MAX STEPMAX)
PHY-CR = (PHY-CR + PHY-D * ACC-COEFF) mod (PHY -MAX / STEP -MAX)
STEP-D = (PHY-CR + PHY-D * ACC-COEFF) / (PHY-MAX STEPMAX)
PHY-CR = (PHY-CR + PHY-D * ACC-COEFF) mod (PHY -MAX / STEP -MAX)
[0016] Em determinadas modalidades, uma opção do usuário pode ser fornecida para permanentemente configurar o coeficiente de aceleração para unidade, i.e., sempre fornecer uma resposta de saída linear resposta independente da velocidade do gesto do usuário.
[0017] Tal comportamento de navegação acelerado pode somente permanecer em efeito enquanto um dedo do usuário está presente no dispositivo de entrada. Após levantar o dedo do dispositivo de entrada, saída de comando pode ir para uma parada imediatamente com nenhuns comandos de etapa transmitidos para o alvo, ou saída de comando pode naturalmente desacelerar ao longo do tempo, i.e., simulando uma "roda virtual" de rotação livre com base na velocidade no ponto quando o dedo foi levantado da interface e de um coeficiente de desaceleração. Em determinadas modalidades, o tipo de comportamento e / ou o coeficiente de desaceleração a ser aplicado pode ter opções configuráveis pelo usuário. Por meio de ainda exemplo, em uma modalidade exemplar um parâmetro configurável DEC-COEFF pode ser definido para ser aplicado a uma velocidade da roda virtual para lentamente diminuir e finalmente traze-la para uma parada natural. Em uma modalidade, a variação do DECCOEFF pode ser 0 à 0,99, onde 0 vai resultar em uma parada imediata. Após levantamento do dedo, este coeficiente de desaceleração pode ser iterativamente aplicado como a seguir para produzir uma queda graduada no valor de PHY-D ao longo do tempo:
PHY-A VE = DEC-COEFF * PHY-A VE
PHY-D = PHY-A VE
onde o valor inicial de PHY-A VE é o movimento médio físico na últimos n períodos de amostra antes do dedo ter sido levantado do dispositivo de entrada; onde n será ˃ =1.
PHY-A VE = DEC-COEFF * PHY-A VE
PHY-D = PHY-A VE
onde o valor inicial de PHY-A VE é o movimento médio físico na últimos n períodos de amostra antes do dedo ter sido levantado do dispositivo de entrada; onde n será ˃ =1.
[0018] O número efetivo de períodos DEC- n a ser usado pode ser ajustado como uma etapa de otimização adicional para assegurar uma experiência realística. Adicionalmente, em determinadas modalidades o comportamento natural de uma roda virtual é levado em consideração na implementação deste recurso de rotação livre. Por exemplo, a roda virtual pode ser trazida para uma parada forçada assim que um dedo é colocado de volta no dispositivo de entrada, imediatamente simulando um estado de "DEC-COEFF=0" se este evento ocorre. Outros comportamentos são também contemplados em várias modalidades desta invenção, por exemplo um curta batida de leve do dedo no dispositivo de entrada pode resultar em uma diminuição temporária no coeficiente de desaceleração DEC-COEFF assim sendo fazendo com que uma mais rápida desaceleração da saída.
[0019] Será apreciado que em determinadas modalidades, o dispositivo de entrada de rolagem e navegação selecionado para uso pode já incluir aprovisionamento embutido para suportar aprovisionamento de balística não linear ou resposta inercial tal como aceleração, taxa de declínio de rotação de livre, etc., tal como por exemplo o módulo de sensor SO3G2010 disponível na Synaptics Inc. de Santa Clara, California, e em tais circunstâncias aqueles recursos podem ser usados no lugar ou em conjunto com alguns ou todos os métodos descritos acima. Consequentemente, é para ser entendido que os métodos descritos acima são apresentados aqui por meio de ilustração somente e não possuem intenção de serem limitantes.
[0020] Em algumas modalidades, o dispositivo de entrada de navegação também pode ser requerido para decodificar batidas de leve de dedo por um usuário como pressões de botão virtual para a geração de comandos individuais. Para este fim, o ponto de cruzamento central e as extremidades distantes de cada um dos eixos podem ser designados como áreas de botão nas quais o tipo de interação do usuário vai determinar da entrada é para ser interpretado como parte de um deslizamento de dedo ou como uma pressão de botão. Como ilustrado na Figura 5, a porção de cada eixo assim designado pode ser definido por um par de parâmetros. HotZonaMin 502 e HotZonaMax 504, aplicados conforme descritos daqui em diante. Será apreciado que em geral as áreas definidas por esses parâmetros estão presentes em todos os quatro pontos cardinais e a porção central do dispositivo de entrada de navegação, contudo para clareza somente uma tal área é ilustrada na figura 5. Para evitar reportar pressões de botão não pretendidas sem introduzir incômodos retardos nos modelos de interação, um conjunto exemplar de regras de interpretação pode compreender:
1. No modo de rotação livre (i.e., quando processamento PHY-D declina de acordo com a corrente DEC-COEFF), qualquer toque em uma interface é interpretado como uma parada forçada, independente da localização, e avaliado daí em diante como um possível início de uma ação de deslizar.
2. Se não em modo de rotação de livre, qualquer contato inicial dentro de uma HotZoneMin definida será avaliado como um candidato para uma pressão de botão.
3. De modo a ser interpretado como uma pressão de botão, um dos seguintes eventos deve ocorrer após o contato inicial dentro de uma área de HotZoneMin:
1. No modo de rotação livre (i.e., quando processamento PHY-D declina de acordo com a corrente DEC-COEFF), qualquer toque em uma interface é interpretado como uma parada forçada, independente da localização, e avaliado daí em diante como um possível início de uma ação de deslizar.
2. Se não em modo de rotação de livre, qualquer contato inicial dentro de uma HotZoneMin definida será avaliado como um candidato para uma pressão de botão.
3. De modo a ser interpretado como uma pressão de botão, um dos seguintes eventos deve ocorrer após o contato inicial dentro de uma área de HotZoneMin:
- • O dedo não é movido para fora da HotZoneMax (que em uma modalidade preferida pode ser ligeiramente maior do que HotZonaMin) dentro de uma quantidade de tempo especificado por um parâmetro VirtualButtonDelay; ou
- • O dedo é levantado da interface sem mover para fora da HotZoneMax.
[0021] Para fornecer realimentação ao usuário durante entrada, vários sinais visíveis ou audíveis podem ser usados, por exemplo piscar dispositivo de realimentação visual 220 tal como um LED ou fornecer sons de clique ou sirene usando o dispositivo de realimentação audível 222. Em algumas modalidades, a taxa de realimentação pode ser proporcional à taxa naqueles comandos de etapa que estão sendo emitido para o dispositivo alvo. Adicionalmente, em algumas modalidades tais realimentações podem ser uma opção passível de ser selecionada pelo usuário.
[0022] Como foi apreciado, o comportamento percebido do usuário, capacidade de resposta, etc., de tais dispositivos de navegação de entrada baseada em gesto pode ser dependente em múltiplos parâmetros tal como, por exemplo, com referência as precedentes modalidades ilustrativas:
- • Tempo de passagem de referência abaixo do qual aceleração não é acionada (T-MAX).
- • Coeficiente de desaceleração e (DEC-COEFF)
- • Janela de medição de desaceleração (DEC-n)
- • Área de pressão de botão virtual (HotZoneMin, HotZoneMax)
- • Sensitividade de pressão de botão virtual {VirtualButtonDelay)
[0023] Adicionalmente, determinados recursos podem ser habilitados / desabilitados de acordo com preferências pessoais, por exemplo, aceleração, rotação livre, realimentação visual / audível, etc. Como será apreciado, para uma determinada modalidade os valores ótimos desses parâmetros podem variar de usuário à usuário. Por exemplo, um "usuário potencial" experimentado pode preferir um sistema de entrada altamente sensitivo caracterizado, por exemplo, por uma baixa linha de referência para acionar aceleração e / ou um coeficiente de alta desaceleração (lento declínio de rotação livre) junto com alta sensitividade de pressão de botão; enquanto um usuário iniciante pode estar mais confortável com uma pequena ou nenhuma aceleração acoplado com desaceleração rápida e baixa sensitividade de pressão de botão.
[0024] Consequentemente, em uma modalidade preferida alguns ou todos desses parâmetros podem ser ajustáveis e armazenados na memória não volátil 206 do dispositivo de controle 100. Nesta maneira, cada dispositivo de controle individual pode ser adequado para coincidir com preferências do usuário primário daquele dispositivo. Para atender múltiplos usuários de uma única configuração de equipamento 102, 104, por exemplo ocupantes de uma casa, múltiplos dispositivo de controles 100 podem ser aprovisionados tal que cada um pode ser configurado para as particulares preferências individuais. Em uma modalidade alternativa, um único dispositivo de controle pode ser adaptado para armazenar múltiplos conjuntos de parâmetros selecionáveis pelo usuário. Em tais circunstâncias, o usuário corrente pode por exemplo, identificar a si próprio para controlar o dispositivo via acionamento de um conjunto de botões do usuário 304. Alternativamente, nas modalidades onde dispositivo de controle 100 é equipado com um sensor biométrico 226, identificação do usuário pode ser efetuado automaticamente. À título de exemplo, o dispositivo sensor biométrico 226 pode compreender uma almofada de entrada de impressão digital como contemplado na Patente dos U.S 6.906.696 "Method of controlling multiuser access to the functionality of consumer devices", ou um acelerômetro para reconhecimento de características de tremor de mão do usuário individual como contemplado na Patente dos U.S. 7.236.156 "Methods and devices for identifying users based on tremor", ambos dos quais são incorporadas aqui para referência em sua totalidade.
[0025] Por meio de ainda um exemplo, um dispositivo de controle exemplar pode suportar parâmetros de entrada de navegação configuráveis pelo usuário e do tipo e variação mostrados na tabela 1 abaixo. Inicialmente definido para os valores padrões mostrados, cada um desses parâmetros pode ser ajustado por um usuário para sua preferência pessoal, por exemplo, iniciando um modo de configuração de parâmetro via, forma simultânea, mantendo pressionada a tecla "enter" 302 junto com uma tecla numérica 306 correspondendo ao número de item a ser ajustado até um bip audível indicar que o modo de configuração de parâmetro foi iniciado. Uma vez no modo de configuração de parâmetro, um valor numérico entre um e quatro dígitos (dependendo do parâmetro sendo ajustado) pode ser entrado para armazenagem na memória não volátil 206, após o que aquele valor ser usado em toda decodificação e cálculos de entrada de navegação futuros. Será apreciado que nas modalidades que suportam múltiplos usuários, os valores ajustados podem ser armazenados em uma área de memória não volátil atribuída para o corrente usuário como anteriormente identificado, por exemplo, pela ativação de um dos botões de seleção do usuário 304.
[0026] Será apreciado que enquanto a modalidade exemplar apresentada acima utiliza entradas de teclado do usuário para realizar configurações de parâmetros, vários outros métodos podem ser usados igualmente de modo eficaz onde apropriado. Por exemplo, um usuário pode configurar os parâmetros usando uma aplicação de PC, local ou baseada na internet, e então baixar os valores resultantes no dispositivo de controle usando conhecidos métodos tal como descritos por exemplo Na Patentes dos U.S. 5.953.144 ou 5.537.463 ambos como cessionárias e incorporadas para referência aqui em sua totalidade. Alternativamente, nas modalidades onde um dispositivo de controle é equipado para IR de dois sentidos ou comunicação de RF com, por exemplo, a caixa de console 104, ajustes de parâmetro podem ser realizados usando uma aplicação STB interativa e transferida para o dispositivo de controle via a comunicação mencionado no elo de comunicação de dois sentidos. Adicionalmente, em ambos os casos acima, seleção de valores de parâmetros pode ser realizada interativamente via experimentação – por exemplo, uma aplicação de STB ou PC especialmente designada pode permitir ao usuário interagir com uma exibição de tela exemplar em um modo de calibração com os parâmetros de dispositivo de controle todos em seus valores padrões, e automaticamente determinar os ajustes ótimos para aquele usuário com base nas métricas observadas, tal como tempo de reação, precisão de posicionamento, velocidade dos gestos de entrada, etc.
[0027] Em determinadas modalidades nas quais o dispositivo de controle 100 é adaptado para suportar comunicação em dois sentidos com um aparelho alvo tal como STB 104, refinamentos adicionais para valores de parâmetro podem ser implementados. Por exemplo, no lugar de ou como um suplemento para o modo de calibração mencionado, um aparelho alvo pode monitorar as interações do usuário e fazer ajustes dinâmicos e adaptativos para os parâmetros armazenados no dispositivo de controle via o elo de comunicação nos dois sentidos. À título de exemplo, se um usuário é observado para consistentemente ultrapassar quando fazendo a rolagem de uma exibição de guia de programa, os coeficientes de aceleração e / ou desaceleração podem ser automaticamente ajustados pela aplicação de STB para melhorar a experiência do usuário. Em ainda uma outra modalidade, um dispositivo de controle pode armazenar múltiplos conjuntos de parâmetro correspondendo às várias atividades, por exemplo um conjunto otimizado para navegação de menu e um outro conjunto otimizado para jogar jogo, com o conjunto de parâmetro correntemente em uso sendo selecionado pelo STB com base na atividade corrente sendo efetuada. Alternativamente, somente um único conjunto de parâmetros básicos pode ser armazenado, e um fator de escala relacionada a atividade fornecido pelo STB.
[0028] Em algumas modalidades contempladas, não todos os parâmetros podem necessariamente ser revelados a um usuário do dispositivo de controle e tornados disponíveis para ajuste. Por exemplo, para os motivos de simplicidade determinados valores de parâmetro podem ser definidos pelo fabricante ou fornecedor do dispositivo de controle, com base, por exemplo, na aplicação e / ou aparelho alvo com o qual o dispositivo de controle é pretendido ser usado, e pré-configurado em tempo de fabricação ou instalação.
[0029] Enquanto vários conceitos foram descritos em detalhes, será apreciado por aqueles com qualificação na arte que, várias modificações e alternativas para aqueles conceitos poderiam ser desenvolvidas à luz dos ensinamentos gerais da divulgação.
[0030] Adicionalmente, enquanto descrito no contexto de módulos funcionais e ilustrado usando formato de diagrama em bloco, é para ser entendido que, ao menos que de outra forma colocado ao contrário, uma ou mais das funções e / ou recursos descritos podem ser integrados em um único dispositivo físico e / ou um módulo de software, ou uma ou mais funções e / ou recursos podem ser implementados em dispositivos físicos ou módulos de software separados. Também será apreciado que uma discussão detalhada da implementação efetiva de cada módulo não é necessária para um entendimento permitido da invenção. Mais propriamente, a implementação efetiva de tais módulos estaria bem dentro da habilidade rotineira de um engenheiro, dada a divulgação aqui dos atributos, funcionalidade, e inter-relação dos vários módulos funcionais no sistema. Por conseguinte, uma pessoa com qualificação na arte, aplicando habilidade simples, será capaz de praticar a invenção estabelecia nas reivindicações sem experimentação indevida. Será adicionalmente apreciado que os particulares conceitos divulgados são significativos para serem ilustrativos somente e não limitantes quanto ao escopo da invenção o qual é para ser dada a abrangência total das reivindicações anexas e quaisquer equivalentes do mesmo.
[0031] Todas as patentes citadas dentro deste documento são aqui incorporadas para referência em sua totalidade.
Claims (15)
- Método para usar um dispositivo eletrônico portátil (100), tendo um dispositivo de entrada (106) para receber uma entrada baseada em gesto de um usuário, para controlar uma operação de navegação de um aparelho (102, 104), compreendendo:
- - receber via o dispositivo de entrada (106) do dispositivo eletrônico portátil a entrada baseada em gesto; e
- - fazer com que o dispositivo eletrônico portátil (100) transmita um comando de etapa de navegação (404) para, por meio disso, controlar a operação de navegação do aparelho;
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que o dispositivo de entrada (106) compreende uma superfície sensível ao toque.
- Método de acordo com a reivindicação 2, caracterizado pelo fato de que a superfície sensível ao toque compreende um sensor de toque capacitivo em dois eixos.
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que compreende fornecer realimentação de usuário via o dispositivo eletrônico portátil representativa da entrada baseada em gesto
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que compreende estabelecer os parâmetros no dispositivo eletrônico portátil usando entrada de usuário recebida no dispositivo eletrônico portátil.
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que compreende estabelecer os parâmetros em um dispositivo remoto a partir do dispositivo eletrônico portátil e carregar os parâmetros a partir do dispositivo remoto do dispositivo eletrônico portátil para o dispositivo eletrônico portátil para armazenar na memória do dispositivo eletrônico portátil.
- Método de acordo com a reivindicação 6, caracterizado pelo fato de que os parâmetros são estabelecidos no dispositivo remoto a partir do dispositivo portátil via uso do dispositivo eletrônico portátil para controlar operações de navegação do dispositivo remoto a partir do dispositivo eletrônico portátil.
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que os parâmetros são carregados a partir do aparelho para o dispositivo eletrônico portátil para armazenar na memória do dispositivo eletrônico portátil.
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que parâmetros armazenados na memória do dispositivo eletrônico portátil são feitos para serem dinamicamente trocados via comunicações recebidas a partir do aparelho.
- Método de acordo com a reivindicação 1, caracterizado pelo fato de compreender fazer com que o dispositivo eletrônico portátil transmita para o aparelho, um comando discreto em resposta a entrada baseada em gesto incluindo um gesto de batida de leve percebido no dispositivo de entrada.
- Método de acordo com a reivindicação 10, caracterizado pelo fato de que parâmetros armazenados na memória do dispositivo eletrônico portátil ainda funcionam para definir uma ou mais regiões do dispositivo de entrada para receber o gesto de batida de leve.
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que parâmetros armazenados na memória do dispositivo eletrônico portátil compreendem pelo menos um entre um tempo de passagem de referência abaixo do qual aceleração não é acionada, um coeficiente de desaceleração e uma janela de medição de desaceleração.
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que características associadas com a entrada baseada em gesto compreendem pelo menos uma entre uma característica de aceleração associada com a entrada baseada em gesto, uma característica de duração associada com a entrada baseada em gesto, e uma característica de localização associada com a entrada baseada em gesto.
- Método de acordo com a reivindicação 1, caracterizado pelo fato de que o dispositivo eletrônico portátil inclui uma biblioteca de parâmetros e entrada é recebida no dispositivo eletrônico portátil para selecionar parâmetros a partir da biblioteca de parâmetros para usar na etapa de fazer com que o dispositivo eletrônico portátil transmita um comando de etapa de navegação para, por meio disso, controlar a operação de navegação do aparelho.
- Método de acordo com a reivindicação 14, caracterizado pelo fato de que a entrada recebida no dispositivo eletrônico portátil para selecionar parâmetros a partir da biblioteca de parâmetros compreende entrada recebida via um sensor de em entrada biométrica do dispositivo eletrônico portátil e uma transmissão recebida do aparelho.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/552761 | 2009-09-02 | ||
US12/552,761 US8438503B2 (en) | 2009-09-02 | 2009-09-02 | System and method for enhanced command input |
US12/552,761 | 2009-09-02 | ||
PCT/US2010/047268 WO2011028692A1 (en) | 2009-09-02 | 2010-08-31 | System and method for enhanced command input |
Publications (2)
Publication Number | Publication Date |
---|---|
BR112012004844A2 BR112012004844A2 (pt) | 2020-10-06 |
BR112012004844B1 true BR112012004844B1 (pt) | 2021-02-17 |
Family
ID=43626716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112012004844-9A BR112012004844B1 (pt) | 2009-09-02 | 2010-08-31 | método para usar um dispositivo eletrônico portátil |
Country Status (5)
Country | Link |
---|---|
US (11) | US8438503B2 (pt) |
EP (2) | EP3062307B1 (pt) |
CN (1) | CN102598110B (pt) |
BR (1) | BR112012004844B1 (pt) |
WO (1) | WO2011028692A1 (pt) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8438503B2 (en) * | 2009-09-02 | 2013-05-07 | Universal Electronics Inc. | System and method for enhanced command input |
US9520056B2 (en) | 2010-05-11 | 2016-12-13 | Universal Electronics Inc. | System and methods for enhanced remote control functionality |
US20120095575A1 (en) * | 2010-10-14 | 2012-04-19 | Cedes Safety & Automation Ag | Time of flight (tof) human machine interface (hmi) |
US20120124500A1 (en) * | 2010-11-16 | 2012-05-17 | Motorola Mobility, Inc. | Use of discrete input to control controllable device |
US20120242514A1 (en) * | 2011-03-24 | 2012-09-27 | Smile Technology Co., Ltd. | Hybrid keyboard |
TW201322294A (zh) * | 2011-11-29 | 2013-06-01 | Darfon Electronics Corp | 鍵盤 |
KR101237472B1 (ko) * | 2011-12-30 | 2013-02-28 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
US9497509B2 (en) * | 2012-11-29 | 2016-11-15 | Echostar Uk Holdings Limited | Navigation techniques for electronic programming guides and video |
JP5821895B2 (ja) * | 2013-05-22 | 2015-11-24 | トヨタ自動車株式会社 | 地図表示制御装置 |
EP2827332B1 (en) * | 2013-07-19 | 2020-09-09 | Nxp B.V. | Navigating within a media item |
US20150160779A1 (en) * | 2013-12-09 | 2015-06-11 | Microsoft Corporation | Controlling interactions based on touch screen contact area |
JP1525112S (pt) * | 2014-11-14 | 2015-06-01 | ||
TWD180105S (zh) * | 2014-11-14 | 2016-12-11 | 愛斯佩克股份有限公司 | 顯示面板之操作介面之部分 |
DE102014117544A1 (de) * | 2014-11-28 | 2016-06-02 | Claas Saulgau Gmbh | Mensch-Maschine-Schnittstelle für ein landwirtschaftliches Arbeitsgerät, Steuerungssystem und landwirtschaftliches Arbeitsgerät |
CN104867311A (zh) * | 2015-05-14 | 2015-08-26 | 连宁 | 通过第三方终端配置无线遥控终端的方法和装置 |
US9977887B2 (en) * | 2015-09-17 | 2018-05-22 | Sony Mobile Communications Inc. | Electronic device and method for validation of a trusted user |
GB2552274A (en) * | 2015-11-09 | 2018-01-17 | Sky Cp Ltd | Television user interface |
US20180275837A1 (en) * | 2017-03-23 | 2018-09-27 | RideOn Ltd. | Graphical user interface (gui) controls |
EP3396968B1 (en) * | 2017-04-28 | 2021-05-05 | Samsung Electronics Co., Ltd. | Display apparatus and method of operating the same |
US11323763B2 (en) | 2017-04-28 | 2022-05-03 | Samsung Electronics Co., Ltd. | Display apparatus and method of operating the same |
CN110825300A (zh) * | 2018-08-07 | 2020-02-21 | 华硕电脑股份有限公司 | 触控感测方法、电子装置及非暂态电脑可读记录媒体装置 |
CN110636357A (zh) * | 2019-10-15 | 2019-12-31 | 东莞市安瑞创智能科技有限公司 | 一种指纹快速识别解锁家用遥控器 |
Family Cites Families (101)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3699522A (en) * | 1966-09-20 | 1972-10-17 | Gen Signal Corp | Locomotive radio control system with address and command signals |
DE1763685A1 (de) * | 1968-07-18 | 1971-11-25 | Messerschmitt Boelkow Blohm | Verfahren zur Kommandouebertragung |
CH534446A (de) * | 1971-07-26 | 1973-02-28 | Landis & Gyr Ag | Rundsteuerempfänger |
US4090201A (en) * | 1976-09-08 | 1978-05-16 | Harris Corporation | Rate augmented step track system |
US4623887A (en) * | 1984-05-15 | 1986-11-18 | General Electric Company | Reconfigurable remote control |
US5872562A (en) * | 1985-05-30 | 1999-02-16 | U.S. Philips Corporation | Universal remote control transmitter with simplified device identification |
US4774511A (en) * | 1985-05-30 | 1988-09-27 | Nap Consumer Electronics Corp. | Universal remote control unit |
US4703359A (en) * | 1985-05-30 | 1987-10-27 | Nap Consumer Electronics Corp. | Universal remote control unit with model identification capability |
US4855730A (en) * | 1987-05-08 | 1989-08-08 | Rca Licensing Corporation | Component audio/video system with timed control of plural peripheral devices |
US6014092A (en) * | 1987-10-14 | 2000-01-11 | Universal Electronics Inc. | Key mover |
US4959810A (en) * | 1987-10-14 | 1990-09-25 | Universal Electronics, Inc. | Universal remote control device |
US5481256A (en) | 1987-10-14 | 1996-01-02 | Universal Electronics Inc. | Direct entry remote control with channel scan |
US5537463A (en) * | 1987-10-14 | 1996-07-16 | Universal Electronics Inc. | Magnetic modem in a remote control |
US5606443A (en) * | 1993-07-28 | 1997-02-25 | Sony Corporation | Control circuit for entertainment system demonstration |
US5481258A (en) * | 1993-08-11 | 1996-01-02 | Glenayre Electronics, Inc. | Method and apparatus for coordinating clocks in a simulcast network |
US5570113A (en) * | 1994-06-29 | 1996-10-29 | International Business Machines Corporation | Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system |
KR0170326B1 (ko) * | 1994-07-27 | 1999-03-30 | 김광호 | 원격제어방법 및 그 장치 |
US5592604A (en) * | 1994-08-31 | 1997-01-07 | International Business Machines Corporation | Method and system for indicating boundaries of connected data subsets |
US5460160A (en) * | 1994-09-29 | 1995-10-24 | Parrott; William T. | Portable golf ball warming device |
US5777614A (en) * | 1994-10-14 | 1998-07-07 | Hitachi, Ltd. | Editing support system including an interactive interface |
JP3153084B2 (ja) * | 1994-11-15 | 2001-04-03 | エスエムケイ株式会社 | パルス変調方法 |
JPH08286807A (ja) * | 1995-04-18 | 1996-11-01 | Canon Inc | データ処理装置及びそのジェスチャ認識方法 |
US5614906A (en) * | 1996-04-23 | 1997-03-25 | Universal Electronics Inc. | Method for selecting a remote control command set |
US20070177804A1 (en) * | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US6127941A (en) * | 1998-02-03 | 2000-10-03 | Sony Corporation | Remote control device with a graphical user interface |
US6151208A (en) * | 1998-06-24 | 2000-11-21 | Digital Equipment Corporation | Wearable computing device mounted on superior dorsal aspect of a hand |
US6157319A (en) * | 1998-07-23 | 2000-12-05 | Universal Electronics Inc. | Universal remote control system with device activated setup |
US7586398B2 (en) * | 1998-07-23 | 2009-09-08 | Universal Electronics, Inc. | System and method for setting up a universal remote control |
US6437836B1 (en) * | 1998-09-21 | 2002-08-20 | Navispace, Inc. | Extended functionally remote control system and method therefore |
US6678891B1 (en) * | 1998-11-19 | 2004-01-13 | Prasara Technologies, Inc. | Navigational user interface for interactive television |
US6225938B1 (en) * | 1999-01-14 | 2001-05-01 | Universal Electronics Inc. | Universal remote control system with bar code setup |
US20060061551A1 (en) * | 1999-02-12 | 2006-03-23 | Vega Vista, Inc. | Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection |
US6256019B1 (en) * | 1999-03-30 | 2001-07-03 | Eremote, Inc. | Methods of using a controller for controlling multi-user access to the functionality of consumer devices |
US6639584B1 (en) * | 1999-07-06 | 2003-10-28 | Chuang Li | Methods and apparatus for controlling a portable electronic device using a touchpad |
US6396523B1 (en) | 1999-07-29 | 2002-05-28 | Interlink Electronics, Inc. | Home entertainment device remote control |
US6473135B1 (en) * | 2000-02-16 | 2002-10-29 | Sony Corporation | Signal input selector for television set and method of implementing same |
WO2001071478A2 (en) * | 2000-03-22 | 2001-09-27 | Sony Electronics Inc | Data entry user interface |
US6765557B1 (en) * | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
SE0002472L (sv) * | 2000-06-30 | 2001-12-31 | Nokia Corp | Method and apparatus for selection control |
US6629077B1 (en) * | 2000-11-22 | 2003-09-30 | Universal Electronics Inc. | Universal remote control adapted to receive voice input |
DE60117676T2 (de) * | 2000-12-29 | 2006-11-16 | Stmicroelectronics S.R.L., Agrate Brianza | Verfahren zur einfachen Ausdehnung der Funktionalität eines tragbaren elektronischen Geräts und zugehöriges, tragbares elektronisches Gerät |
EP1364362A1 (en) * | 2001-01-24 | 2003-11-26 | Interlink Electronics, Inc. | Game and home entertainment device remote control |
US20050134578A1 (en) * | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
US6914551B2 (en) * | 2002-04-12 | 2005-07-05 | Apple Computer, Inc. | Apparatus and method to facilitate universal remote control |
JP4109902B2 (ja) * | 2002-05-27 | 2008-07-02 | キヤノン株式会社 | 表示装置 |
US7167913B2 (en) * | 2002-06-05 | 2007-01-23 | Universal Electronics Inc. | System and method for managing communication links |
JP3891143B2 (ja) * | 2002-06-14 | 2007-03-14 | ヤマハ株式会社 | 状態設定装置及びプログラム |
US7646372B2 (en) * | 2003-09-15 | 2010-01-12 | Sony Computer Entertainment Inc. | Methods and systems for enabling direction detection when interfacing with a computer program |
US7362313B2 (en) * | 2003-01-17 | 2008-04-22 | 3M Innovative Properties Company | Touch simulation system and method |
KR100514191B1 (ko) * | 2003-01-23 | 2005-09-13 | 삼성전자주식회사 | 통합 리모트 컨트롤러 및 그 통합 리모트 컨트롤러용셋톱박스 |
US8042049B2 (en) * | 2003-11-03 | 2011-10-18 | Openpeak Inc. | User interface for multi-device control |
CN1857025B (zh) * | 2003-08-07 | 2010-06-23 | 三星电子株式会社 | 可用于集成控制的音频/视频系统以及控制其的方法 |
US20050068307A1 (en) * | 2003-09-30 | 2005-03-31 | Microsoft Corporation | System, method and apparatus for a media computing device remote control |
US7155305B2 (en) * | 2003-11-04 | 2006-12-26 | Universal Electronics Inc. | System and methods for home appliance identification and control in a networked environment |
KR100814192B1 (ko) * | 2003-12-26 | 2008-03-17 | 마츠시타 덴끼 산교 가부시키가이샤 | 제어 신호 수신 장치 |
CN1333539C (zh) * | 2003-12-29 | 2007-08-22 | 明基电通股份有限公司 | 远程遥控电子装置的方法 |
US7421656B2 (en) * | 2004-01-05 | 2008-09-02 | Microsoft Corporation | Systems and methods for interacting with a user interface of a media player |
US7706616B2 (en) * | 2004-02-27 | 2010-04-27 | International Business Machines Corporation | System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout |
US7173604B2 (en) * | 2004-03-23 | 2007-02-06 | Fujitsu Limited | Gesture identification of controlled devices |
US8320708B2 (en) * | 2004-04-02 | 2012-11-27 | K-Nfb Reading Technology, Inc. | Tilt adjustment for optical character recognition in portable reading machine |
DK2337016T3 (en) * | 2004-04-30 | 2018-04-23 | Idhl Holdings Inc | Free space pointing device with slope compensation and improved applicability |
JP4685095B2 (ja) * | 2004-04-30 | 2011-05-18 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 微動に基づいてユーザを識別するための方法およびデバイス |
US7295904B2 (en) * | 2004-08-31 | 2007-11-13 | International Business Machines Corporation | Touch gesture based interface for motor vehicle |
US20060095596A1 (en) * | 2004-11-03 | 2006-05-04 | Yung Lin C | Solution for consumer electronics control |
US7631278B2 (en) * | 2004-11-19 | 2009-12-08 | Microsoft Corporation | System and method for directional focus navigation |
CN101133385B (zh) * | 2005-03-04 | 2014-05-07 | 苹果公司 | 手持电子设备、手持设备及其操作方法 |
US20060227117A1 (en) * | 2005-04-07 | 2006-10-12 | Microsoft Corporation | Circular touch sensor |
US7577925B2 (en) * | 2005-04-08 | 2009-08-18 | Microsoft Corporation | Processing for distinguishing pen gestures and dynamic self-calibration of pen-based computing systems |
DE102006018238A1 (de) * | 2005-04-20 | 2007-03-29 | Logitech Europe S.A. | System und Verfahren zur adaptiven Programmierung einer Fernbedienung |
US7487461B2 (en) * | 2005-05-04 | 2009-02-03 | International Business Machines Corporation | System and method for issuing commands based on pen motions on a graphical keyboard |
JP4427486B2 (ja) * | 2005-05-16 | 2010-03-10 | 株式会社東芝 | 機器操作装置 |
US7301464B2 (en) * | 2005-05-24 | 2007-11-27 | Electronic Data Systems Corporation | Process and method for safer vehicle navigation through facial gesture recognition and operator condition monitoring |
WO2007013652A1 (ja) * | 2005-07-29 | 2007-02-01 | Pioneer Corporation | 画像表示制御装置、画像表示装置、遠隔操作器、画像表示システム |
US7907222B2 (en) * | 2005-09-08 | 2011-03-15 | Universal Electronics Inc. | System and method for simplified setup of a universal remote control |
JP2007081685A (ja) * | 2005-09-13 | 2007-03-29 | Sony Corp | 画像信号処理装置、画像信号処理方法及び画像信号処理システム |
US9201507B2 (en) * | 2005-11-15 | 2015-12-01 | Carefusion 303, Inc. | System and method for rapid input of data |
US20070136778A1 (en) * | 2005-12-09 | 2007-06-14 | Ari Birger | Controller and control method for media retrieval, routing and playback |
TWI348639B (en) * | 2005-12-16 | 2011-09-11 | Ind Tech Res Inst | Motion recognition system and method for controlling electronic device |
US8054294B2 (en) * | 2006-03-31 | 2011-11-08 | Sony Corporation | Touch screen remote control system for use in controlling one or more devices |
US7523439B2 (en) | 2006-07-11 | 2009-04-21 | Tokyo Electron Limited | Determining position accuracy of double exposure lithography using optical metrology |
US7907117B2 (en) * | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
US8564543B2 (en) * | 2006-09-11 | 2013-10-22 | Apple Inc. | Media player with imaged based browsing |
JP4979314B2 (ja) * | 2006-09-13 | 2012-07-18 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
US20080104547A1 (en) * | 2006-10-25 | 2008-05-01 | General Electric Company | Gesture-based communications |
TWI324304B (en) * | 2006-12-15 | 2010-05-01 | Inventec Corp | Method for reading data of input/output port |
US20080143681A1 (en) * | 2006-12-18 | 2008-06-19 | Xiaoping Jiang | Circular slider with center button |
KR100720335B1 (ko) * | 2006-12-20 | 2007-05-23 | 최경순 | 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법 |
US8977255B2 (en) * | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
EP2153377A4 (en) * | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
EP2003556A1 (fr) * | 2007-05-25 | 2008-12-17 | Axalto SA | Procédé de traitement par un dispositif électronique portable de commandes applicatives issues de canaux physiques, dispositif et système correspondants |
US20090096606A1 (en) * | 2007-10-11 | 2009-04-16 | Remote Logics, Inc. | Remote obstruction sensing device |
US8350971B2 (en) * | 2007-10-23 | 2013-01-08 | Sling Media, Inc. | Systems and methods for controlling media devices |
US20090125811A1 (en) * | 2007-11-12 | 2009-05-14 | Microsoft Corporation | User interface providing auditory feedback |
US9503562B2 (en) * | 2008-03-19 | 2016-11-22 | Universal Electronics Inc. | System and method for appliance control via a personal communication or entertainment device |
US8264381B2 (en) * | 2008-08-22 | 2012-09-11 | Microsoft Corporation | Continuous automatic key control |
US20100171635A1 (en) * | 2009-01-02 | 2010-07-08 | Ewig Industries Macao Commerical Offshore, Ltd. | System And Method For Motion-Sensitive Remote Control For Audio-Visual Entertainment System |
US8547326B2 (en) * | 2009-02-24 | 2013-10-01 | Blackberry Limited | Handheld electronic device having gesture-based control and a method of using same |
US8742885B2 (en) * | 2009-05-01 | 2014-06-03 | Apple Inc. | Directional touch remote |
US8438503B2 (en) * | 2009-09-02 | 2013-05-07 | Universal Electronics Inc. | System and method for enhanced command input |
US9520056B2 (en) * | 2010-05-11 | 2016-12-13 | Universal Electronics Inc. | System and methods for enhanced remote control functionality |
-
2009
- 2009-09-02 US US12/552,761 patent/US8438503B2/en active Active
-
2010
- 2010-08-31 BR BR112012004844-9A patent/BR112012004844B1/pt active IP Right Grant
- 2010-08-31 WO PCT/US2010/047268 patent/WO2011028692A1/en active Application Filing
- 2010-08-31 CN CN201080039211.6A patent/CN102598110B/zh active Active
- 2010-08-31 EP EP16166009.7A patent/EP3062307B1/en active Active
- 2010-08-31 EP EP10814351.2A patent/EP2473991B1/en active Active
-
2013
- 2013-05-06 US US13/887,811 patent/US9134815B2/en active Active
- 2013-05-06 US US13/887,934 patent/US9250715B2/en active Active
- 2013-05-06 US US13/887,743 patent/US9335923B2/en active Active
- 2013-05-06 US US13/887,964 patent/US9323453B2/en active Active
- 2013-05-06 US US13/887,784 patent/US9086739B2/en active Active
- 2013-05-06 US US13/887,725 patent/US9261976B2/en active Active
- 2013-05-06 US US13/887,992 patent/US9477402B2/en active Active
-
2015
- 2015-06-11 US US14/736,844 patent/US10031664B2/en active Active
- 2015-12-22 US US14/978,861 patent/US9927972B2/en active Active
-
2018
- 2018-01-09 US US15/865,385 patent/US10089008B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20130246978A1 (en) | 2013-09-19 |
US9323453B2 (en) | 2016-04-26 |
US20130241876A1 (en) | 2013-09-19 |
US20130241825A1 (en) | 2013-09-19 |
US20110055772A1 (en) | 2011-03-03 |
BR112012004844A2 (pt) | 2020-10-06 |
US20130246979A1 (en) | 2013-09-19 |
US10031664B2 (en) | 2018-07-24 |
US8438503B2 (en) | 2013-05-07 |
EP2473991A4 (en) | 2012-11-07 |
US9477402B2 (en) | 2016-10-25 |
US20160110039A1 (en) | 2016-04-21 |
EP3062307B1 (en) | 2017-01-04 |
US9134815B2 (en) | 2015-09-15 |
US20180129412A1 (en) | 2018-05-10 |
US9261976B2 (en) | 2016-02-16 |
CN102598110B (zh) | 2015-04-22 |
US20150346999A1 (en) | 2015-12-03 |
EP2473991A1 (en) | 2012-07-11 |
EP3062307A1 (en) | 2016-08-31 |
WO2011028692A1 (en) | 2011-03-10 |
CN102598110A (zh) | 2012-07-18 |
US20130241715A1 (en) | 2013-09-19 |
US9335923B2 (en) | 2016-05-10 |
US9086739B2 (en) | 2015-07-21 |
EP2473991B1 (en) | 2016-04-27 |
US20130254722A1 (en) | 2013-09-26 |
US9250715B2 (en) | 2016-02-02 |
US10089008B2 (en) | 2018-10-02 |
US20130254721A1 (en) | 2013-09-26 |
US9927972B2 (en) | 2018-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112012004844B1 (pt) | método para usar um dispositivo eletrônico portátil | |
JP5669393B2 (ja) | プログラマブル・マルチメディア・コントローラのリモート・コントロール・ユニット | |
JP6083072B2 (ja) | スマートエアマウス | |
EP3367186B1 (en) | System and method for interactive appliance control | |
CN102473040B (zh) | 多维控制设备 | |
BR112012028953B1 (pt) | Sistema para funcionalidade de controle remoto aprimorado. | |
CN102460367A (zh) | 定向触摸遥控器 | |
BR112012015405B1 (pt) | dispositivo de controle e método para utilizar um dispositivo de controle | |
CN107172471A (zh) | 实现在显示设备上运行触摸屏应用的装置和显示设备 | |
EP1904912A1 (en) | Methods and apparatus for computer interface | |
Murata et al. | A gesture-based remote control for finger disabled people | |
Altinki̇li̇t | Design and Construction of Mimic and Speech Operated TV Control System for Disabled Person |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 17/02/2021, OBSERVADAS AS CONDICOES LEGAIS. |