BRPI0717968A2 - Operando interfaces de tela sensível ao toque. - Google Patents

Operando interfaces de tela sensível ao toque. Download PDF

Info

Publication number
BRPI0717968A2
BRPI0717968A2 BRPI0717968-5A BRPI0717968A BRPI0717968A2 BR PI0717968 A2 BRPI0717968 A2 BR PI0717968A2 BR PI0717968 A BRPI0717968 A BR PI0717968A BR PI0717968 A2 BRPI0717968 A2 BR PI0717968A2
Authority
BR
Brazil
Prior art keywords
screen
target
area
selection entity
indicator
Prior art date
Application number
BRPI0717968-5A
Other languages
English (en)
Inventor
Patrick Baudisch
Kenneth P Hinckley
Raman Sarin
Edward B Cutrell
Andrew D Wilson
Daniel Vogel
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of BRPI0717968A2 publication Critical patent/BRPI0717968A2/pt
Publication of BRPI0717968A8 publication Critical patent/BRPI0717968A8/pt
Publication of BRPI0717968B1 publication Critical patent/BRPI0717968B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

OPERANDO INTERFACES DE TELA SENSÍVEL AO TOQUE" ANTECEDENTES
Muitos dispositivos, tais como os assistentes pessoais digitais (PDAs) híbridos de telefone móvel-PDA, e computadores pessoais ultramóveis (UMPCs), utilizam entrada baseada em caneta para ajudar o usuário a claramente definir um ponto de seleção em uma tela ainda assim eles também suportam entrada de toque. A caneta ou caneta gráfica é normalmente fina, e também ajuda a criar um deslocamento vertical entre a mão do usuário e a tela de modo que os alvos aparecendo na tela não são ocluídos pelo dedo ou mão do usuário. Contudo, recuperar a caneta demora e pode ser inconveniente, por exemplo, no contexto de operação com uma as mãos, ou pode ser ineficiente, por exemplo, no contexto de interações curtas/intermitentes.
Quando o uso de uma caneta é ineficiente ou inconveniente, os usuários algumas vezes utilizam seus dedos ou outra "entrada de toque" para selecionar os objetos exibidos na tela do dispositivo. Por exemplo, esse é freqüentemente o caso, para interações intermitentes ou curtas tal como verificar uma hora de reunião, navegar um mapa, ou controlar um tocador de mídia.
BREVE SUMÁRIO
Uma técnica de apontar de deslocamento é provida a qual é projetada para permitir que os usuários operem uma interface de usuário com uma entidade de seleção tal como os seus dedos mediante prevenção de oclusão e definindo um ponto de seleção claro quando o usuário utiliza o toque para operar um dispositivo de tela sensível ao toque. Quando um usuário tenta selecionar um alvo pequeno exibido em uma tela de um dispositivo de exibição sensível ao toque, uma técnica de indicação de deslocamento cria e apresenta um detalhamento mostrando uma representação da área de tela ocluída e coloca a representação da área de tela ocluída em um local de tela não ocluído. A área ocluída é a área de uma tela sensível ao toque ocluída pelo dedo do usuário ou outra entidade de seleção. O detalhamento também mostra um indicador representando um ponto de seleção atual do dedo do usuário ou outra entidade de seleção. Utilizando retorno visual provido pelo detalhamento, o usuário pode guiar o indicador para o alvo através da ação de mover (por exemplo, arrasto ou rolamento) seus dedos ou outra entidade de seleção na superfície da tela. O usuário então pode empreender a aquisição de alvo (por exemplo, selecionar o alvo pequeno) mediante ação de levantar o seu dedo ou outra entidade de seleção afastando-o da tela do dispositivo. Ao contrário, quando um usuário tenta selecionar um alvo maior da tela do dispositivo de tela sensível ao toque, nenhum detalhamento é criado e o usuário desfruta da performance total de uma tela sensível ao toque não alterado.
Desse modo, além de deslocar o ponteiro, a técnica de indicação de deslocamento desloca o conteúdo da tela para prover performance de visada significativamente melhor. Essas técnicas podem permitir que os usuários selecionem pequenos alvos com taxas de erros muito inferiores do que uma tela sensível ao toque não provida de meio auxiliar, e pode reduzir os erros causados pela oclusão do alvo por um dedo do usuário (ou outra entidade de seleção) e ambigüidade sobre qual parte do dedo (ou outra entidade de seleção) define o ponto de seleção no display ou tela. Como tal, as taxas de erro podem ser reduzidas ao se utilizar entrada de toque com um dispositivo de tela sensível ao toque.
Esse sumário é provido para introduzir uma seleção de conceitos em uma forma simplificada os quais são descritos adicionalmente abaixo na descrição detalhada. Esse sumário não pretende identificar características fundamentais ou características essenciais da matéria em estudo reivindicada, nem pretende ser usado como um meio auxiliar na determinação do escopo da matéria em estudo reivindicada.
DESCRIÇÃO RESUMIDA DOS DESENHOS
Um entendimento mais completo de uma modalidade exemplar pode ser derivado mediante referência à descrição detalhada e reivindicações quando consideradas em conjunto com as figuras a seguir, em que numerais de referência semelhantes se referem aos elementos similares do princípio ao fim das figuras.
A Figura 1 é uma representação esquemática simplificada de um sistema de computador exemplar de acordo com uma implementação exemplar;
A Figura 2 é uma representação esquemática simplificada de uma vista frontal de um dispositivo de tela sensível ao toque de acordo com uma implementação exemplar;
A Figura 3 é um diagrama de fluxo exemplar de técnicas para selecionar um alvo desejado exibido em uma tela de um dispositivo de tela sensível ao toque utilizando entrada de toque de acordo com uma implementação exemplar;
As Figuras 4(a)-4(e) constituem uma série de diagramas exemplares ilustrando uma técnica de incremento gradativo ou de "indicação de deslocamento" para selecionar um alvo relativamente pequeno exibido em uma tela de um dispositivo de tela sensível ao toque utilizando entrada de toque de acordo com uma implementação exemplar;
As Figuras 5(a)-5(b) constituem uma série de diagramas exemplares mostrando uma técnica regular para selecionar um alvo maior exibido em uma tela de um dispositivo de tela sensível ao toque utilizando entrada de toque de acordo com outra implementação exemplar;
A Figura 6(a) é um diagrama que ilustra uma área de contato do dedo de um usuário quando o usuário tenta selecionar um alvo;
A Figura 6(b) é um gráfico mostrando como a relação SF/ST pode ser mapeada para um tempo de espera de interrupção utilizando uma função logística;
As Figuras 7(a)-(d) são diagramas que ilustram o posicionamento exemplar de um detalhamento e indicador em relação aos diferentes locais do dedo de um usuário em uma tela de um dispositivo de tela sensível ao toque;
A Figura 8(a) é um diagrama mostrando um alvo, o dedo de um usuário e um ponto de entrada a partir da perspectiva do usuário;
A Figura 8(b) é um diagrama mostrando um alvo, uma área de contato do dedo do usuário e um ponto de entrada da perspectiva do hardware; e
A Figura 9 é um diagrama mostrando uma otimização de zooming que pode ser empregada para um detalhamento quando o usuário tenta selecionar um alvo pequeno.
DESCRIÇÃO DETALHADA
A descrição detalhada seguinte é apenas de natureza exemplar e não pretende limitar a invenção ou a aplicação e usos da invenção. Como aqui usado, o termo "exemplar" significa "servir como um exemplo, ocorrência, ou ilustração". Qualquer implementação aqui descrita como "exemplar" não deve ser considerada como preferida ou vantajosa em relação a outras implementações. Todas as implementações descritas abaixo são implementações exemplares providas para permitir que aqueles versados na técnica realizem ou utilizem a invenção e não pretendem limitar o escopo da invenção o qual é definido pelas reivindicações.
Modalidades exemplares podem ser aqui descritas em termos de componentes de blocos funcionais e/ou lógicos e várias etapas de processamento. Deve ser considerado que tais componentes de bloco podem ser realizados por intermédio de qualquer número de hardware, software, e/ou componentes de firmware configurados para realizar as funções especificadas. Por exemplo, uma modalidade pode empregar vários componentes de circuitos integrados, por exemplo, elementos de memória, elementos de processamento de sinal digital, elementos lógicos, tabelas de consulta, ou semelhante, os quais podem realizar uma variedade de funções sob o controle de um ou mais microprocessadores ou outros dispositivos de controle. Além disso, aqueles versados na técnica considerarão que modalidades práticas podem ser praticadas em conjunto com qualquer número de protocolos de transmissão de dados e que o sistema aqui descrito é apenas uma modalidade exemplar.
Com a finalidade de brevidade, técnicas convencionais relacionadas à operação de dispositivo de computação, operação de tela sensível ao toque, a renderização de gráficos em um elemento de exibição, e outros aspectos funcionais dos sistemas (e os componentes operacionais individuais dos sistemas) podem não ser descritos aqui em detalhe. Além disso, as linhas de conexão, mostradas nas várias figuras aqui contidas, pretendem representar relações funcionais exemplares e/ou conexões físicas entre os vários elementos. Deve ser observado que muitas relações funcionais alternativas ou adicionais ou conexões físicas podem ser representadas em uma modalidade exemplar.
A Figura 1 é uma representação esquemática simplificada de um sistema de computador exemplar 100 para implementar um dispositivo de tela sensível ao toque. O sistema de computador 100 é apenas um exemplo de um ambiente de operação adequado e não pretende sugerir qualquer limitação em relação ao escopo de uso ou funcionalidade das implementações aqui descritas. Outros sistemas de computação conhecidos, ambientes, e/ou configurações que possam ser adequados para uso com tais implementações incluem, mas não são limitados aos: computadores pessoais, computadores servidores, dispositivos de mão ou laptop, assistentes pessoais digitais, telefones móveis, computadores baseados em quiosques, tais como Caixas Automatizadas (ATMs) e sistemas de entretenimento em voo, sistemas de informação de produto de varejo, dispositivos de navegação de Sistema de Posicionamento Global (GPS), mapas de localização, diretórios de elaboração, tocadores de mídia portáteis, livros eletrônicos, quiosques de trânsito, displays de informação de museu, sistemas de multiprocessadores, sistemas baseados em microprocessadores, meios eletrônicos de consumidor programáveis, PCs de rede, minicomputadores, computadores de grande porte, ambientes de computação distribuída que incluem qualquer um dos sistemas ou dispositivos mencionados acima, e semelhantes.
O sistema de computador 100 pode ser descrito no contexto geral de instruções executáveis pode computador, tais como módulos de programa, executados por um ou mais computadores ou outros dispositivos. Geralmente, os módulos de programa incluem rotinas, programas, objetos, componentes, estruturas de dados, e/ou outros elementos que realizam tarefas específicas ou implementam tipos de dados abstratos específicos. Tipicamente, a funcionalidade dos módulos de programa pode ser combinada ou distribuída conforme desejado em várias implementações.
O sistema de computador 100 inclui tipicamente ao menos alguma forma de meios legíveis por computador. Os meios legíveis por computador podem ser quaisquer meios que possam ser acessados pelo sistema de computador 100, e/ou pelas aplicações executadas pelo sistema de computação 100. Como exemplo, e não como limitação, meios legíveis por computador podem compreender meios de armazenamento de computador e meios de comunicação. Meios de armazenamento de computador incluem meios voláteis, não- voláteis, removíveis, e não-removíveis implementados em qualquer método ou tecnologia para armazenamento de informação tais como instruções legíveis por computador, estruturas de dados, módulos de programa ou outros dados. Meios de armazenamento de computador incluem, mas não são limitados a RAM, ROM, EEPROM, memória flash ou outra tecnologia de memória, CD-ROM, discos digitais versáteis (DVD) ou outro meio de armazenamento ótico, cassetes magnéticos, fita magnética, meio de armazenamento de disco magnético ou outros dispositivos de armazenamento magnético, ou qualquer outro meio que possa ser usado para armazenar a informação desejada e que possa ser acessado pelo sistema de computador 100. Os meios de comunicação incorporam tipicamente instruções legíveis por computador, estruturas de dados, módulos de programa ou outros dados em um sinal modulado de dados tal como uma onda portadora ou outro mecanismo de transporte e inclui quaisquer meios de fornecimento de informação. O termo "sinal modulado de dados" significa um sinal que tem uma ou mais de suas características definida ou alterada de tal modo a codificar informação no sinal. Como exemplo, e não como limitação, meios de comunicação incluem meios cabeados tal como uma rede cabeada ou conexão direta cabeada, e meios sem fio tais como meios acústicos, de RF, de infravermelho e outros meios sem fio. Combinações de quaisquer dos citados acima também devem ser incluídas no escopo de meios legíveis por computador.
Com referência outra vez à Figura 1, em sua configuração mais básica, o sistema de computador 100 inclui tipicamente ao menos uma unidade de processamento 102 e uma quantidade adequada de memória 104. Dependendo da configuração exata e do tipo de sistema de computação 100, a memória 104 pode ser volátil (tal como RAM), não-volátil (tal como ROM, memória flash, etc.) ou alguma combinação das duas. Essa configuração mais básica é identificada na Figura 1 pelo numerai de referência 106. Adicionalmente, o sistema de computador 100 também pode ter características/funcionalidade adicionais. Por exemplo, o sistema de computador 100 pode incluir também meio de armazenamento adicional (removível e/ou não-removível) incluindo, mas não limitado aos discos ou fitas magnéticos ou óticos. Tal meio de armazenamento adicional é ilustrado na Figura 1 por intermédio do meio de armazenamento removível 108 e meio de armazenamento não-removível 110. A memória 104, meio de armazenamento removível 108 e meio de armazenamento não- removível 110 são todos exemplos de meios de armazenamento de computador conforme definido acima.
O sistema de computador 100 também pode conter conexão(ões) de comunicação
112 que permite que o sistema se comunique com outros dispositivos. A conexão(ões) de comunicação 112 pode ser associada ao manejo dos meios de comunicação conforme definidos acima.
O sistema de computador 100 também pode incluir ou se comunicar com o dispositivo(s) de entrada 114 tal como um teclado, mouse ou outro dispositivo indicador, dispositivo de entrada de voz, uma caneta, uma caneta gráfica ou outro dispositivo de entrada, etc. Na modalidade exemplar descrita abaixo com referência à Figura 2, o sistema de computador 100 inclui uma tela, display ou outra interface de usuário (UI) que pode aceitar uma entrada de toque e permitir que um usuário selecione certos objetos exibidos na tela. Embora a modalidade exemplar aqui descrita utilize uma entrada de toque, modalidades aqui descritas podem ser equivalentemente configuradas para também suportar qualquer entrada baseada em toque equivalente, tal como aquela ocorrendo com o uso de uma caneta ou caneta gráfica. O sistema de computador 100 também pode incluir ou se comunicar com dispositivo(s) de saída 116 tal como um display, alto-falantes, impressora, ou semelhante. Todos esses dispositivos são conhecidos na técnica e não precisam ser discutidos aqui, detalhadamente.
Visão Geral
Embora conveniente, o uso de entrada de toque pode aumentar os tempos de visada e taxas de erro. Infelizmente, as interfaces de usuário projetadas para entrada de caneta ou caneta gráfica freqüentemente contêm alvos pequenos, e em tais casos a seleção com um dedo pode se tornar lenta e com tendência a erro. Por exemplo, utilizar um dedo ou outra forma de "entrada de toque" oclui pequenos alvos forçando que a seleção de alvo e a aquisição sejam feitas sem retorno visual. Isso faz com que a seleção e a aquisição tenham tendência ao erro.
Embora os dedos sejam de alguma forma menos precisos do que uma caneta gráfica em termos de controle exato, a precisão não é a única razão para as elevadas taxas de erro associadas à entrada de toque. Outras razões para as elevadas taxas de erro associadas à entrada de toque se devem ao ponto de seleção ambíguo criado pela área de contato do dedo em combinação com a oclusão do alvo. Por exemplo, os usuários têm dificuldade em determinar se eles adquiriram o alvo ao selecionar alvos menores do que o tamanho da área de contato do dedo. Infelizmente, o dedo do usuário também oclui alvos menores do que a área de contato do dedo desse modo impedindo que os usuários vejam o retorno visual.
Em geral, técnicas e tecnologias são providas as quais podem aperfeiçoar a operação de um dispositivo de tela sensível ao toque ou baseado em caneta, tal como um PDA ou UMPC. Essas técnicas e tecnologias podem permitir entrada de toque quando o dedo do usuário ou outra entidade de seleção (por exemplo, outra parte do corpo) toca uma tela de um dispositivo de tela sensível ao toque para tentar selecionar um objeto exibido em uma tela. Quando um usuário tenta selecionar o alvo, um detalhamento pode ser renderizada em uma área de tela não-ocluída da tela. O detalhamento inclui uma representação da área da tela que é ocluída pelo dedo do usuário (ou outra entidade de seleção). Em algumas implementações, a "representação da área da tela que está ocluída" pode compreender uma cópia da área da tela que está ocluída pelo dedo do usuário (ou outra entidade de seleção).
Na descrição a seguir, técnicas de incremento gradativo ou de "indicação de deslocamento" serão descritas com referência aos cenários nos quais um usuário tenta selecionar um alvo utilizando seus dedos. Contudo, será considerado que as técnicas de incremento gradativo ou "indicação de deslocamento" também podem ser aplicadas geralmente sempre que um usuário tentar selecionar um alvo utilizando qualquer "entidade de seleção". Como aqui usado, o termo "entidade de seleção" pode abranger uma parte do corpo tal como um dedo ou unha, ou outro instrumento de seleção que bloqueia ou oclui uma área do dispositivo de tela sensível ao toque quando o usuário tenta selecionar um alvo que é exibido na tela ocluída utilizando a entidade de seleção.
A Figura 2 é uma representação esquemática simplificada de uma vista frontal de
um dispositivo de tela sensível ao toque 200. O dispositivo de tela sensível ao toque 200 pode ser implementado dentro de qualquer dispositivo ou sistema de computação adequadamente configurado, por exemplo, o sistema de computador 100.
O dispositivo de tela sensível ao toque 200 compreende uma tela sensível ao toque 202 para exibir informação incluindo um alvo desejado que um usuário pretenda selecionar. Como aqui usado, o termo "tela sensível ao toque" se refere a uma tela, display ou outra Ul que é configurada ou projetada para permitir entrada de toque mediante pressão sobre uma área da tela, display ou outra Ul para selecionar um objeto exibido na tela, display ou outra Ul. Por exemplo, um usuário pode pressionar a tela com um dispositivo, tal como uma caneta ou caneta gráfica, ou tocar a tela com o dedo ou outro membro. Um dispositivo de tela sensível ao toque pode ser implementado em qualquer um de um número de dispositivos eletrônicos, incluindo, por exemplo, aparelhos portáteis tais como telefones celulares, PDAs, computadores laptop, jogos de vídeo, brinquedos eletrônicos, elementos de controle eletrônico para qualquer número de diferentes aplicações; quiosques fixos para distribuição de informação, tal como os ATMs.
Quando um usuário tenta selecionar um alvo desejado (não mostrado na Figura 2) exibido na tela sensível ao toque 202, o usuário pode colocar seu dedo sobre o alvo desejado na tela sensível ao toque 202. A área da tela sensível ao toque 202 que é coberta pelo dedo do usuário pode ser referida como uma área de tela ocluída 204 da tela sensível ao toque 202. Essa área de tela ocluída 204 compreende uma área da tela 202 que é coberta pelo dedo do usuário e que inclui o alvo desejado que o usuário está tentando selecionar. O alvo desejado ocupa uma primeira área na tela 202 que está dentro da área de tela ocluída 204.
Quando o dedo do usuário toca uma superfície da tela de toque 202 para tentar selecionar um alvo desejado exibido na tela 202, um módulo, ou módulos, dentro do dispositivo de tela sensível ao toque 200 opera em cooperação com uma unidade de processamento 102 para determinar se a oclusão é um problema para o alvo desejado (sob o dedo do usuário).
Quando for determinado que a oclusão provavelmente é um problema com relação ao alvo desejado sob o dedo do usuário, um detalhamento 206 e um indicador 208 podem ser exibidos ou renderizados. A decisão de exibir ou renderizar o detalhamento 206 e indicador 208 pode ser referida como "incremento gradativo". Técnicas exemplares de determinar se exibe ou renderiza ou não o detalhamento 206 e o indicador 208 (ou "incrementar gradativamente") pode incluir, mas não são limitadas, por exemplo, a um acionador baseado em entrada de usuário, um acionador baseado em regulador de tempo de permanência, um acionador baseado no tamanho do alvo. Essas técnicas para determinar se deve incrementar gradativamente serão descritas em detalhe adicional abaixo.
Como aqui usado, o termo "detalhamento" se refere a uma representação deslocada da área de tela ocluída (que inclui tipicamente uma representação do alvo desejado). Em algumas implementações, a "representação da área da tela que está ocluída" pode compreender uma cópia da área de tela que está ocluída pelo dedo do usuário (ou outra entidade de seleção). Em algumas implementações, o detalhamento pode se mover em resposta ao movimento de entrada, atualizações de exibição, ou por outras razões, e desse modo não precisa necessariamente ser colocada estaticamente. Um detalhamento geralmente pode ser de qualquer tamanho adequado e de qualquer formato adequado. No exemplo específico, mostrado na Figura 2, a porção de cópia do detalhamento 206 é mostrada tendo um formato ou quadro circular, contudo, a porção de cópia pode ter um formato ou quadro retangular, um formato ou quadro quadrado, um formato ou quadro elíptico, um formato ou quadro de bolha de desenho animado, ou qualquer combinação dos mesmos. O detalhamento 206 também pode ser localizado ou colocado (ou transladado para) em qualquer local adequado na área de tela não-ocluída (mostrada com tracejado cruzado na Figura 2). Exemplos de colocação de detalhamento serão providos abaixo com relação à Figura 7. Além disso, o detalhamento 206 pode ser do mesmo tamanho que a área ocluída, menor do que a área ocluída ou maior do que a área ocluída dependendo da implementação. Em uma implementação de "zoom" exemplar, descrita abaixo com referência à Figura 9, o detalhamento 206 é maior do que a área ocluída. Essa implementação é particularmente útil em situações onde o alvo desejado é particularmente pequeno e difícil de selecionar.
Conforme aqui usado, o termo "indicador" se refere à coordenada de entrada de sistema atual especificada por um dispositivo de entrada, tal como o dedo de um usuário, e representa um ponto de seleção ou contato real na tela. Em uma implementação, o indicador deslocado 208 e o ponto de contato efetivo sob o dedo são conectados com uma linha tracejada conforme mostrado na Figura 2. O ponto de contato efetivo representa um ponto de seleção ou de contato atual efetivo do dedo do usuário dentro da área de tela ocluída 204. Desse modo, além do deslocamento do indicador 208, o detalhamento 206 desloca uma representação do conteúdo de tela ocluído o qual pode levar à performance de visada significativamente melhor.
Quando é tomada uma decisão de incrementar gradativamente, um módulo, ou módulos, dentro do dispositivo de tela sensível ao toque 200 opera em cooperação com uma unidade de processamento 102 para executar instruções de computador para exibir ou renderizar o detalhamento 206 e o indicador 208 na área de tela não-ocluída (mostrada com tracejado cruzado na Figura 2) da tela sensível ao toque 202.
O indicador 208 é móvel quando o usuário tenta selecionar o alvo desejado de tal
modo que o indicador 208 pode ser movido mediante deslocamento do dedo sobre a superfície da tela 202. Retorno visual provido ao usuário pelo detalhamento 206 permite que o usuário desloque o indicador 208 sobre a representação do alvo desejado exibido no detalhamento 206. Por exemplo, o usuário pode guiar o indicador 208 sobre a representação do alvo desejado exibido no detalhamento 206 através da ação de manter seu dedo sobre a área de tela ocluída 204 da tela sensível ao toque 202, e guiar o indicador 208 mediante ação de mover ou rolar o dedo sobre a superfície da tela sensível ao toque 202 (na área de tela ocluída 204) até que o indicador 208 esteja sobre a representação do alvo desejado.
Para selecionar o alvo desejado, o usuário se empenha na aquisição do alvo
mediante ação de levantar o seu dedo da superfície da tela 202 quando o indicador 208 estiver sobre a representação do alvo desejado exibido no detalhamento 206. Em uma implementação, aquisição de alvo bem-sucedida pode ser confirmada com um som de clique, enquanto as tentativas de aquisição de alvo mal-sucedídas podem resultar em um som de erro. Um módulo, ou módulos, dentro do dispositivo de tela sensível ao toque 200 opera em cooperação com uma unidade de processamento 102 para remover o detalhamento 206 e indicador 208 quando o usuário levanta o seu dedo da superfície da tela sensível ao toque 202.
A Figura 3 é um diagrama de fluxo exemplar 300 das técnicas para selecionar um alvo desejado exibido em uma tela de um dispositivo de tela sensível ao toque utilizando entrada de toque de acordo com uma implementação exemplar. A Figura 3 será descrita com referência às Figuras 4(a)-4(e) e à Figura 5(a)-5(b) para ilustrar como as técnicas da Figura 3 podem ser aplicadas em uma implementação exemplar. As Figuras 4(a)-4(e) constituem uma série de diagramas exemplares 400 ilustrando uma técnica de incremento gradativo ou de "indicação de deslocamento" para selecionar um alvo relativamente pequeno exibido em uma tela de um dispositivo de tela sensível ao toque utilizando entrada de toque de acordo com uma implementação exemplar. A Figura 5(a)-5(b) constituem uma série de diagramas exemplares 500 mostrando uma técnica regular para selecionar um alvo maior exibido em uma tela de um dispositivo de tela sensível ao toque utilizando entrada de toque de acordo com outra implementação exemplar.
Na etapa 310, um usuário tenta adquirir ou selecionar um alvo desejado exibido em um display ou tela do dispositivo de tela sensível ao toque mediante ação de tocar a superfície de exibição do dispositivo (por exemplo, a superfície do dispositivo) com um de seus dedos. Por exemplo, conforme mostrado na Figura 4(a) e na Figura 5(a), o usuário pressiona uma superfície da tela com seu dedo 401, 501 (ou outro objeto incluindo outras partes do corpo ou dispositivos) para tentar selecionar o alvo desejado 410, 510. Na Figura 4(a), o alvo desejado 410 ocupa uma primeira área pequena exibida na tela sob o dedo do usuário 401. O alvo desejado 410 está próximo de um número de outros possíveis alvos (mostrados como pequenos retângulos). A área da tela que é coberta pelo dedo do usuário 401 (e inclui o alvo desejado 410 e outros possíveis alvos) é referida abaixo como uma área "ocluída" a qual o usuário não pode ver. Na Figura 5(a), o alvo desejado 510 ocupa uma área relativamente maior exibida na tela a qual não está completamente coberta pelo dedo do usuário 501. Em outras palavras, na Figura 5(a), o alvo desejado 510 é apenar parcialmente ocluído uma vez que algumas porções do alvo desejado 510 ainda estão visíveis.
O incremento gradativo condicional supera os problemas de oclusão e permite que os usuários selecionem de forma segura pequenos alvos. A técnica de incremento gradativo ou de indicação de deslocamento ajuda a garantir que o overhead de interação seja limitado à situação na qual ele é realmente necessário (por exemplo, pequenos alvos) o que pode economizar uma quantidade significativa de tempo. Na etapa 320, um processador ou outro módulo no dispositivo de tela sensível ao toque determina se o "incremento gradativo" é necessário com relação ao alvo desejado específico. Em geral, um processador ou outro módulo no dispositivo de tela sensível ao toque determina se a oclusão é um problema dados os possíveis alvos exibidos na área de tela ocluída sob o dedo do usuário. Qualquer uma de diferentes técnicas pode ser usada para determinar se o incremento gradativo deve ou não ser realizado (por exemplo, para determinar se exibe ou renderiza ou não o detalhamento e o indicador). Essas técnicas podem incluir, mas não são limitadas, por exemplo, a um acionador baseado em entrada de usuário, um acionador baseado em regulador de tempo de permanência, ou um acionador baseado em tamanho do alvo. Essas técnicas serão descritas abaixo.
Se for determinado que o incremento gradativo não é necessário (por exemplo, a oclusão não é um problema para o alvo desejado sob o dedo do usuário), então na etapa 325, o dispositivo de tela sensível ao toque continua a operar em sua forma normal ou regular como uma tela sensível ao toque não modificada (por exemplo, sem invocar incremento gradativo). O processo 300 espera pelo próximo alvo desejado, e retorna à etapa 310. No cenário exemplar ilustrado nas Figuras 5(a) e 5(b), o detalhamento não é criado ou exibido quando o usuário tenta selecionar uma área maior na tela do dispositivo de tela sensível ao toque. Através da ação de levantar imediatamente seu dedo, o usuário faz a seleção como se utilizando uma tela sensível ao toque não provida de meio auxiliar. Aqui, a simplicidade de uma entrada de tela sensível ao toque não provida de meio auxiliar torna a mesma adequada para o alvo de tamanho maior.
A técnica de incremento gradativo ou de indicação de deslocamento também se comporta como os usuários de tela sensível ao toque esperam em que ela permite que os usuários visem o próprio alvo real. Ao permitir que os usuários visem o alvo efetivo, a técnica de incremento gradativo ou de indicação de deslocamento permanece compatível com entrada de toque e de caneta regular. Essa compatibilidade mantém a interação consistente ao se comutar para frente e para trás entre entrada de toque e entrada de caneta. Isso também facilita o emprego da técnica de incremento gradativo ou de indicação de deslocamento em cenários sem reserva ou para adaptação retroativa de sistemas existentes.
Se for determinado que o incremento gradativo é necessário (por exemplo, a oclusão é um problema para o alvo desejado sob o dedo do usuário), então na etapa 330, um detalhamento e indicador podem ser renderizados ou exibidos na área não-ocluída da tela.
A técnica de incremento gradativo ou de indicação de deslocamento também procede como esperado pelos usuários da tela sensível ao toque em que ela permite que os usuários visem o próprio alvo real. Ao permitir que os usuários visem o alvo real, a técnica de incremento gradativo ou de indicação de deslocamento permanece compatível com a entrada de toque e de caneta regular. Essa compatibilidade mantém a interação consistente ao se mudar para frente e para trás entre entrada de toque e entrada de caneta. Isso também facilita o emprego da técnica de incremento gradativo ou de indicação de deslocamento em cenários sem reserva ou para adaptação retroativa de sistemas existentes.
O detalhamento e o indicador podem ajudar a eliminar os problemas associados à
oclusão, e também podem ajudar a reduzir os problemas associados à ambigüidade de ponto de seleção e contato atual. Por exemplo, conforme mostrado na Figura 4(b), um detalhamento 406 e indicador 408 podem ser providos ou exibidos em uma área não-ocluída da tela. O detalhamento 406 exibe uma representação da área de tela ocluída (por exemplo, a área coberta pelo dedo do usuário 410) na área não-ocluída da tela. Essa representação da área de tela ocluída pode incluir, por exemplo, uma cópia 401' do alvo desejado 401. O indicador 408 representa um ponto de seleção ou de contato real do dedo do usuário sobre a tela. A partir da exibição inicial do indicador 408, o indicador 408 não coincide com a cópia 401' do alvo desejado 401. Além disso, deve ser considerado que embora a posição do detalhamento 406 seja
mostrada como sendo exibida acima do alvo e do dedo do usuário, conforme será descrito abaixo com relação à Figura 6, o detalhamento 406 pode ser posicionada em qualquer local conveniente dentro da área não-ocluída da tela em relação ao alvo ou ao dedo do usuário. A colocação do detalhamento e indicador deve ser feita de uma forma que possa ajudar a minimizar a oclusão e maximizar a propriedade de predição para acelerar a reorientação visual.
Na etapa 340, o usuário guia o indicador sobre a representação do alvo desejado
para selecionar o alvo desejado. Por exemplo, conforme mostrado na Figura 4(c), enquanto mantendo seu dedo 410 em contato com a tela, o usuário pode guiar a posição do indicador 408 com base no retorno visual provido pelo detalhamento 406. O usuário pode fazer movimentos corretivos e sintonizar exatamente a posição do indicador mediante deslocamento de seu dedo sobre a superfície da tela até que o indicador 408 esteja sobre a cópia 401' do alvo desejado 401, exibido na área de tela não-ocluída da tela.
Quando o indicador estiver sobre a representação do alvo desejado, na etapa 350, o usuário se empenha na aquisição de alvo do alvo desejado. Por exemplo, conforme mostrado na Figura 4(d), para selecionar o alvo desejado o usuário se empenha na aquisição de alvo do alvo desejado 401 mediante ação de levantar o seu dedo 410 da superfície da tela (por exemplo, seleção de ponto de partida) enquanto o indicador 408 está sobre a cópia 401' do alvo desejado 401 que é exibida na área de tela não-ocluída. Em uma implementação, a aquisição de alvo bem-sucedida pode ser confirmada com um som de clique, enquanto que tentativas de aquisição de alvo mal-sucedidas podem resultar em um som de erro. Em outra implementação, quando a posição correta é visualmente verificada, a ação de levantar o dedo 410 seleciona o alvo 401, causando um breve brilho avermelhado e conclui a seleção.
Na etapa 360, o detalhamento e o indicador são removidos quando o usuário levanta o seu dedo da superfície da tela. Por exemplo, conforme mostrado na Figura 4(e), o detalhamento 406 e o indicador 408 são removidos quando o usuário levanta seu dedo 9 (não mostrado) da superfície da tela, e o alvo desejado é selecionado.
Técnicas para Determinar se o Incremento gradativo deve ser Realizado
Em uma implementação, um acionador baseado em entrada de usuário pode ser usado para acionar o incremento gradativo ou a "técnica de indicação de deslocamento". Por exemplo, o usuário pode apertar um botão ou selecionar outro dispositivo de entrada pra acionar o incremento gradativo.
Em outra implementação, um acionador baseado em tamanho do alvo pode ser usado para acionar o incremento gradativo ou a "técnica de indicação de deslocamento". Um processador ou outro módulo pode determinar se a oclusão é um problema para o alvo desejado com base no tamanho do alvo desejado em relação à área de contato da entidade de seleção (por exemplo, o dedo do usuário). Por exemplo, como a oclusão pode ser um problema quando a menor dimensão do alvo desejado é menor do que um diâmetro de contato de dedo típico, o processador ou outro módulo pode determinar se os alvos que estão presentes são pequenos suficientemente para serem ocluídos pelo dedo (por exemplo, o alvo desejado compreende um pequeno alvo em relação à área de contato da entidade de seleção (por exemplo, o dedo do usuário)). Em uma implementação, há um "limite de oclusão" ou tamanho limite aproximado onde a oclusão faz com que a seleção de alvos menores tenha maior probabilidade de erro. Quando um usuário pressiona uma superfície da tela utilizando seu dedo para tentar selecionar um alvo desejado (por exemplo, toca ou aplica pressão sobre a área de tela ocluída), um processador ou outro módulo no dispositivo de tela de toque determina se o alvo desejado é menor do que o limite de oclusão. Se o alvo desejado for menor do que o limite de oclusão, o incremento gradativo, ou a técnica de indicação de deslocamento, é implementado. Ao contrário, a oclusão geralmente não será um problema quando o usuário tenta selecionar um alvo maior na tela. Como tal, para alvos maiores do que o limite de oclusão, a técnica de indicação de deslocamento ou incremento gradativo não renderiza ou exibe um detalhamento na tela, mas, em vez disso funciona como uma tela de toque não modificada.
Em ainda outra implementação, um acionador baseado em regulador de tempo de permanência pode ser usado para acionar o incremento gradativo ou a "técnica de indicação de deslocamento". Por exemplo, o processador ou outro módulo determina se o dedo do usuário estava em contato com o display por um período de tempo superior a um tempo de espera. Se o dedo do usuário estava em contato com o display por um período de tempo superior ao tempo de espera, então o processador ou outro módulo determina que o incremento gradativo ou a indicação de deslocamento deve ser implementado. Se o dedo do usuário esteve em contato com o display por um período de tempo menor ou igual ao tempo de espera, então o processador ou outro módulo determina que o incremento gradativo ou a indicação de deslocamento não deve ser implementado, e que uma tela de toque não provida de meio auxiliar, regular deve ser implementada.
Incremento gradativo Baseado em Hesitação e Ambigüidade de Seleção Em ainda outra implementação, em vez de basear a decisão de se incrementa gradativamente ou não com base apenas no acionador baseado em tamanho do alvo ou apenas no acionador baseado no regulador de tempo de permanência, conceitos a partir de ambas as implementações podem ser combinados ao se decidir se incrementa gradativamente ou não e utiliza as técnicas de "indicação de deslocamento" em uma próxima tentativa de visada.
Mediante utilização do tempo de permanência, a decisão final sobre incrementar gradativamente ou não é deixada para o usuário. Por exemplo, na ausência completa de conhecimento adiciona sobre tamanho do alvo e localizações, um tempo de espera de interrupção, fixo (por exemplo, 300 milissegundos) pode ser usado. Quando o limite de tempo de permanência fixo esgota, incremento gradativo ou indicação de deslocamento pode ser implementado. Contudo, quando o dispositivo de tela sensível ao toque proporciona informação com relação aos tamanhos do alvo e localizações, a técnica de indicação de deslocamento pode determinar ou calcular o tempo de espera de interrupção com base na "ambigüidade de seleção". Em uma modalidade, descrita abaixo com referência às Figuras 6(a) e 6(b), um tempo de espera de interrupção entre contato com a tela e incremento gradativo pode ser definido. A duração do tempo de espera de interrupção pode variar de acordo com o tamanho dos alvos sob o dedo do usuário, e a ambigüidade de seleção pode ser determinada ou estimada mediante comparação do menor tamanho de alvo encontrado sob o dedo do usuário com um limite de oclusão.
Quando o alvo é pequeno em comparação com o limite de oclusão, a ambigüidade de seleção é relativamente alta, e o tempo de espera de interrupção pode ser ajustado para ter uma duração muito curta e incremento gradativo ocorre quase imediatamente. Contudo, se o alvo for muito maior do que o limite de oclusão, então a oclusão não é um problema. Nesse caso, o incremento gradativo não é necessário de modo que o limite de tempo de permanência pode ser ajustado para um tempo mais longo permitindo que os usuários tirem proveito do toque simples, direto. Como tal, para alvos relativamente maiores, o tempo de espera de interrupção é relativamente longo e o usuário pode adquirir o alvo, sem incremento gradativo, resultando na mesma performance como em uma tela de toque não modificada.
Para os alvos de aproximadamente o mesmo tamanho que o limite de oclusão, o grau de ambigüidade de seleção é ele próprio ambíguo (o usuário pode ou não precisar de incremento gradativo dependendo da sua confiança na seleção). Nesse caso, o tempo de espera de interrupção ocorre após um curto retardo longo o suficiente para controlar a invocação de incremento gradativo com hesitação. Se o usuário deseja incrementar gradativamente ou invocar a técnica de indicação de deslocamento, então o usuário pode hesitar mediante manutenção de seu dedo sobre a superfície da tela por um período de tempo. Para evitar o incremento gradativo, o usuário pode imediatamente levantar seu dedo da superfície da tela.
A Figura 6(a) é um diagrama que ilustra uma área de contato 605 do dedo de um
usuário 610 quando o usuário tenta selecionar um alvo 601. A Figura 6(a) mostra também um limite de oclusão (Sf) e a menor dimensão (St) do alvo menor 601 encontrado sob o dedo do usuário 610. Em uma implementação, o limite de oclusão (Sf) é a maior dimensão da área de contato 605 do dedo do usuário 610. O limite de oclusão (Sf) e a menor dimensão (St) do menor alvo 601 podem ser usados para computar uma razão do limite de oclusão (Sf) para a menor dimensão do menor alvo encontrado sob o dedo (ST).
A Figura 6(b) é um gráfico mostrando como a razão SF/ST pode ser mapeada para um tempo de espera de interrupção utilizando uma função logística. Uma função logística é definida pela fórmula matemática:
1-f né7
para parâmetros reais a, m, n, e τ.
A razão do limite de oclusão (Sf) para a menor dimensão do menor alvo encontrado
sob o dedo (St) pode ser mapeada para um tempo de permanência usando a função logística. Em uma implementação, os parâmetros reais podem ser ajustados para a=1, m=0, n=4, e τ=3. Conforme mostrado na Figura 6B, quando esses parâmetros reais são usados na função logística, isso produz uma curva suave mapeando os pequenos alvos para ~0ms, alvos grandes para ~1500ms, e alvos próximos do limite de oclusão para aproximadamente 300ms. Em outras palavras, a curva atinge um tempo de retardo mínimo aproximadamente em Oms para alvos muito pequenos; ela atinge um tempo de retardo máximo em torno de 1500ms, para alvos grandes; e para alvos quase do tamanho do limite de oclusão ela atinge um tempo de retardo de aproximadamente 300ms. Estimando o Limite de Oclusão
O limite de oclusão (Sf) é aproximadamente relacionado à área de contato do dedo, porém as telas sensíveis ao toque comumente usadas em PDAs e UMPCs apenas informam um único ponto de entrada e não a área de contato do dedo. Uma estimativa do limite de oclusão (Sf) em relação ao tempo pode ser determinada com base nos tamanhos dos alvos para os quais o incremento gradativo é usado e com base os tamanhos dos alvos para os quais o incremento gradativo não é usado. Começamos com uma suposição inicial (SF), então aumentamos o limite de oclusão (Sf) em s se o usuário incrementar gradativamente quando Sf < St e diminuímos o limite de oclusão (Sf) em s se o usuário não incrementar gradativamente e Sf > ST, onde s = w|SF - ST|, e onde w é um peso sintonizado manualmente para suavizar a estimativa em relação ao tempo. Em uma implementação um peso (w) igual a 0,125 pode ser usado para prover um bom equilíbrio entre suavidade e taxa de aprendizado.
Um potencial benefício desse esquema é que se o usuário preferir utilizar a sua unha (ao contrário de seu dedo ou ponta do dedo) para selecionar um alvo, o limite de oclusão (Sf) encolherá de modo que o incremento gradativo é instantâneo apenas para alvos muito pequenos. Para dispositivos que podem detectar se a caneta gráfica está no suporte do dispositivo, essa abordagem permite o aprendizado de valores de limite de oclusão (Sf) independentes para uma entrada de dedo e uma entrada de caneta, respectivamente. Na ausência desses dados de sensor, ajustar o peso (w) em um valor relativamente elevado permite o aprendizado de um novo limite de oclusão (Sf) rapidamente para responder às mudanças no tipo de entrada do usuário. As Figuras 7(a)-(d) são diagramas que ilustram o posicionamento exemplar de um detalhamento 706 e indicador 708 em relação a diferentes locais de um dedo de usuário 710 em uma tela de um dispositivo de tela sensível ao toque. As Figuras 7(a)-(d) ilustram que o incremento gradativo ou técnica de indicação de deslocamento não resulta em quaisquer áreas de tela não-acessíveis. A posição do detalhamento pode ser exibida em qualquer local dentro da área não-ocluída da tela em relação ao alvo desejado 701 e/ou o dedo do usuário 710. Por exemplo, no diagrama mostrado na Figura 7(a), o detalhamento 706A é deslocado diretamente acima do dedo do usuário 71OA e o alvo desejado 701A dentro da área não- ocluída da tela. Na Figura 7(b), para evitar corte nas bordas da tela, o detalhamento 706B é deslocada para a direita e acima do dedo de usuário 71OB e o alvo desejado 701B dentro da área não-ocluída da tela. Posicionamento do detalhamento 706B adicionalmente em direção ao meio da tela pode ajudar a evitar o corte próximo às bordas. Na Figura 7(c), para evitar o corte na borda superior da tela, o alvo desejado 701C está próximo à borda superior do display. Como tal, para evitar corte, o detalhamento 706C pode ser deslocada para a esquerda do dedo do usuário 71OC e ligeiramente abaixo do alvo desejado 701C dentro da área não-ocluída da tela. Será considerado que se não fosse possível deslocar o detalhamento 706 para a esquerda, então o detalhamento 706C poderia ser deslocada para a direita conforme mostrado na Figura 7(d), onde o detalhamento 706D pode ser deslocado para a direita do dedo de usuário 71OD e ligeiramente abaixo do alvo desejado 701D dentro da área não-ocluída da tela. Mediante ajuste do local relativo de detalhamento 706, a técnica de indicação de deslocamento ou incremento gradativo lida com os alvos 701 em qualquer local na tela, e pode impedir problemas de corte que de outro modo podem ocorrer nas bordas da tela. Além disso, será considerado que "detecção de destreza" pode ser usada para inverter a colocação ou o posicionamento de um detalhamento 706 para usuários canhotos.
Corrigindo para Ponto de Entrada Percebido pelo Usuário
A Figura 8(a) é um diagrama mostrando um alvo 801, um dedo de usuário 810 e um ponto de entrada 807 da perspectiva do usuário. Em muitos dispositivos de tela sensível ao toque, um único ponto de seleção é computado e é colocado aproximadamente na área de contato média do dedo. A Figura 8(b) é um diagrama mostrando o alvo 801, uma área de contato 809 do dedo do usuário e um ponto de entrada 807' a partir da perspectiva do hardware. Com alguns usuários, os pontos de contato estão freqüentemente ligeiramente abaixo do alvo pretendido. A técnica de indicação de deslocamento mostra a posição do indicador em relação ao ponto de contato inicial. Em algumas implementações, o local do indicador em relação ao ponto de contato inicial pode ser ajustado para refletir o ponto de contato percebido pelo usuário.
Por exemplo, em uma implementação, a técnica de indicação de deslocamento pode ajustar a posição de entrada com base em um único ponto de contato. Uma estimativa de um vetor de correção (V) que mapeia o ponto de entrada de hardware 807' para o ponto de entrada percebido pelo usuário 807 pode ser calculada em uma base regular. Por exemplo, em uma implementação, a estimativa de um vetor de correção (V) pode ser atualizada mediante adição de um vetor ponderado entre o ponto de levantamento final corrigido (P2) e o ponto de contato inicial (Pi): Vt+1 = Vt + w(P2 - ΡΊ), onde w é um peso manualmente sintonizado. Em uma implementação, o peso manualmente sintonizado (w) pode ser ajustado aproximadamente igual a 0,33 para suavizar a estimativa sem tornar o refinamento iterativo muito lento. Isso reduz o tempo de sintonia fina após a estimativa de V convergir, permitindo que os usuários simplesmente verifiquem o alvo selecionado sem ajuste adicional. Porém, ao contrário do dedo, a forma de contato do polegar tende a mudar dependendo do local de contato no display. Isso torna um único vetor de ajuste insuficiente. Uma interpolação linear entre vetores de ajuste de local específico pode aliviar esse problema.
Ampliação ou "Zooming" de Detalhamento
Um propósito do incremento gradativo ou da técnica de indicação de deslocamento é o de permitir que os usuários adquiram alvos mediante evitação de oclusão do alvo. Em alguns casos de uso, o alvo pode ser particularmente pequeno. Por exemplo, embora as técnicas de indicação de deslocamento descritas acima funcionem bem para aquisição de alvos que são de 6 pixels ou mais (aproximadamente 2,6 mm), em alguns casos, o usuário pode desejar adquirir alvos menores do que 6 pixels. Em algumas implementações, a técnica de indicação de deslocamento pode ser otimizada com zooming e manipulação de ganho da relação de display de controle (CD) para otimizar a exatidão de visada e permitir exatidão de indicação de elevada precisão. A Figura 9 é um diagrama mostrando uma otimização de zooming a qual pode ser
aplicada a um detalhamento 906 produzida pela técnica de indicação de deslocamento ou incremento gradativo quando o usuário tenta selecionar um alvo pequeno. Para alvos particularmente pequenos, as técnicas descritas acima podem implementar adicionalmente a funcionalidade de zooming mediante ampliação do detalhamento 906 e aumentando a relação de display do detalhamento 906 para a área de tela ocluída que o detalhamento 906 reproduz. Quando a funcionalidade de zooming é implementada, a reprodução da área de tela ocluída a qual é exibida no detalhamento 906 é maior em tamanho do que a área efetiva ocluída pelo dedo do usuário de modo que o detalhamento 906 apresenta uma versão ampliada da área de tela ocluída. Em algumas implementações, o detalhamento 906 pode ser modificado de modo
que ela agora se desloca com o dedo, similar a um menu de rastreio, de modo que os usuários podem alcançar o conteúdo além daquele. Como o dedo não mais é mapeado diretamente com a posição do indicador 908, o detalhamento 906 é deslocado de modo que ela não se torna ocluída durante a fase corretiva. A posição inicial do detalhamento 906 pode ser colocada em relação ao ponto de contato inicial. Se o ponto de contato se deslocar além de um diâmetro limite, o detalhamento 906 se desloca junto com o dedo 906, similar a um menu de rastreio. Isso permite sintonia fina além da área inicial coberta pelo quadro se o ponto de contato inicial estivesse muito distante do alvo desejado dado o espaço de zoom aumentado (ou espaço motor aumentado com elevadas relações de CD).
No exemplo específico, o incremento gradativo é realizado e a representação da área de tela ocluída que é exibida dentro do detalhamento 906 foi ampliada. Será considerado que qualquer fator de ampliação adequado pode ser usado dependendo do tamanho do display, tamanho da área ocluída ou o tamanho do alvo específico. Quando maior for a ampliação do detalhamento, menos conteúdo o detalhamento apresentará. Embora tal ampliação garanta visibilidade de um alvo do tamanho de pixel, ela pode não ser suficiente para permitir aquisição confiável do alvo. Em algumas implementações, zooming pode ser adicionalmente complementado com uma otimização na relação de Display de Controle (CD).
Otimização da Relação de Controle-Display (CD)
A relação de Controle-Display (CD) é o mapeamento entre movimento de dedo real (o "Controle") para movimento do indicador de sistema no display (o "Display"). Mediante aumento da relação CD acima de 1, o dedo precisa se deslocar mais além do que o indicador para cobrir certa distância de indicador. Mediante diminuição da relação CD abaixo de 1, o dedo pode se deslocar por uma distância mais curta do que o indicador para cobrir certa distância de indicador. Essa manipulação também é referida como "ganho" a qual é o inverso da relação CD. O ganho aumenta ou diminui o movimento de indicador resultante, dado algum movimento de controle. Se o ganho for baixo, então o movimento de indicador é inferior a certo movimento de controle.
Para permitir que os usuários visem um alvo, muitos dispositivos de tela sensível ao toque são operados com uma relação CD de 1. Por exemplo, a posição do indicador pode ser mapeada 1:1 com a posição de entrada de dedo. Contudo, quando o dedo do usuário está em contato com a tela, um indicador pode ser exibido fornecendo aos usuários retorno visual. Então, o movimento do dedo pode controlar o indicador de uma maneira relativa, com o indicador se deslocando mais rápido ou mais lento do que o dedo dirigindo o mesmo. Para resolver isso, em uma versão otimizada da técnica de indicação de deslocamento, as relações CD podem ser ajustadas para até 8:1 quando incrementadas gradativamente. O movimento do indicador através da tela é tornado mais lento expandindo um alvo de 1 pixel para 8 pixels no espaço motor. Em implementações alternativas, a relação CD pode ser ajustada com um instrumento semelhante a pantógrafo ou com base na distância a partir do ponto de toque inicial com a finalidade de estabilização.
Conforme discutido acima, independente da posição original do alvo, o detalhamento é posicionada para evitar oclusão pelo dedo. Em alguns casos mover o dedo faz com que a posição original do alvo não mais seja ocluída. Como o display sensível ao toque tem uma área de entrada finita, aumentar a relação CD acima de 1 reduz a faixa de "espaço motor" para 1/CD do espaço de display. O movimento de dedo no espaço de controle pode ser referido como movimento de "espaço motor" porque as pessoas controlam esse movimento com seus processos motores cognitivos. Isso pode ser um problema se o ponto de contato inicial estiver a X pixels de distância da borda do display e a mais do que X/CD pixels mais distantes a partir do alvo. Como a técnica de indicação de deslocamento emprega seleção de levantamento, não existe uma forma de o usuário selecionar o alvo. Para tratar desse problema, a técnica de indicação de deslocamento pode ser modificada para deslocamento brusco para um ponto mais próximo da borda onde todos os pixels intermediários eram selecionáveis ou utilizando aceleração de indicador de modo que uma rápida sucessão de movimentos Iongos-Ientos e curtos-rápidos poderia estimular o acoplamento.
Embora ao menos uma modalidade exemplar tenha sido apresentada na descrição detalhada anterior, deve ser considerado que existe um grande número de variações. Também deve ser considerado que a modalidade ou modalidades exemplares aqui descritas não pretendem limitar o escopo, aplicabilidade, ou configuração dos sistemas, métodos, ou dispositivos de forma alguma. Mais propriamente, a descrição detalhada anterior proverá àqueles versados na técnica um esquema conveniente para implementar a modalidade ou modalidades descritas. Deve ser entendido que várias alterações podem ser feitas na função e arranjo dos elementos sem se afastar do escopo definido pelas reivindicações, o qual inclui equivalentes conhecidos e equivalentes previsíveis no momento do depósito desse pedido de patente.

Claims (20)

1. Dispositivo de tela sensível ao toque compreendendo uma tela, um método para entrada de toque CARACTERIZADO por compreender: exibir um alvo na tela; e renderizar um detalhamento na tela em resposta a uma tentativa de selecionar o alvo, em que o detalhamento compreende uma representação de uma área ocluída da tela em uma área não-ocluída da tela.
2. Método, de acordo com a reivindicação 1, CARACTERIZADO por compreender ainda: renderizar um indicador representando um ponto de contato efetivo na tela.
3. Método, de acordo com a reivindicação 2, CARACTERIZADO por compreender ainda: guiar o indicador sobre uma representação do alvo exibido na área não-ocluída da tela.
4. Método, de acordo com a reivindicação 3, CARACTERIZADO por compreender ainda: empreender a aquisição de alvo quando o indicador estiver sobre a representação do alvo exibido na área não-ocluída da tela.
5. Método, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que a tentativa de selecionar o alvo compreende: contatar a área ocluída da tela com uma entidade de seleção para tentar selecionar o alvo exibido na tela sob a entidade de seleção; e compreendendo adicionalmente: determinar se a oclusão é um problema para o alvo sob a entidade de seleção, em que o detalhamento é renderizada se a oclusão for um problema para o alvo sob a entidade de seleção, e em que o detalhamento não é renderizada se a oclusão não for um problema para o alvo sob a entidade de seleção.
6. Método, de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que determinar se a oclusão é um problema para o alvo sob a entidade de seleção, compreende: determinar se a oclusão é um problema para o alvo sob a entidade de seleção com base no tamanho do alvo.
7. Método, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que a oclusão é um problema para os alvos os quais são relativamente pequenos com relação à área ocluída, em que a oclusão não é um problema para os alvos os quais são relativamente grandes, com relação à área ocluída, e em que o detalhamento não é renderizado quando o alvo compreende um alvo que é relativamente grande com relação à área ocluída.
8. Método, de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que determinar se a oclusão é um problema para o alvo sob a entidade de seleção, compreende: determinar se a oclusão é um problema para o alvo sob a entidade de seleção com base em um período de tempo de espera de interrupção.
9. Método, de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que determinar se a oclusão é um problema para o alvo sob a entidade de seleção, compreende: determinar se a oclusão é um problema para o alvo sob a entidade de seleção com base em um comando recebido a partir de um usuário.
10. Método, de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que o ponto de contato efetivo é um ponto de seleção atual da entidade de seleção na tela, e em que renderizar um detalhamento compreende: exibir o detalhamento na área não ocluída em resposta ao contato com a área ocluída da tela, em que o detalhamento compreende a representação da área ocluída da tela na área não ocluída da tela.
11. Método, de acordo com a reivindicação 10, CARACTERIZADO pelo fato de que guiar o indicador através de uma representação do alvo exibido na área não ocluída da tela compreende: manter a entidade de seleção na tela; e guiar o indicador, com base no retorno visual provido pelo detalhamento, sobre a representação do alvo exibido na área não-ocluída da tela mediante deslocamento da entidade de seleção sobre a superfície da tela.
12. Método, de acordo com a reivindicação 11, CARACTERIZADO pelo fato de empreender a aquisição de alvo quando o indicador estiver sobre a representação do alvo exibido na área não ocluída da tela compreende: levantar a entidade de seleção a partir da superfície da tela para definir o ponto de seleção quando o indicador estiver sobre a representação do alvo exibido na área não- ocluída para selecionar o alvo; e remover o detalhamento quando a entidade de seleção for levantada da tela.
13. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a área ocluída compreende uma área da tela que inclui o alvo e a qual é coberta por uma entidade de seleção.
14. Meio legível por computador, CARACTERIZADO por ter instruções executáveis por computador para realizar as etapas de acordo com a reivindicação 1.
15. Dispositivo de tela sensível ao toque, CARACTERIZADO por compreender: uma tela sensível ao toque para exibir informação compreendendo um alvo; um meio legível por computador tendo instruções executáveis por computador para renderizar um detalhamento em uma área não ocluída da tela sensível ao toque em resposta a uma tentativa de selecionar um alvo exibido na tela sensível ao toque, em que a tela inclui uma área ocluída que inclui o alvo e que é coberta por uma entidade de seleção, e em que o detalhamento compreende uma representação da área ocluída da tela na área não-ocluída da tela.
16. Dispositivo de tela sensível ao toque, de acordo com a reivindicação 15, CARACTERIZADO por compreender adicionalmente: um meio legível por computador tendo instruções executáveis por computador para renderizar um indicador na área não-ocluída da tela sensível ao toque em resposta à tentativa de selecionar o alvo exibido na tela sensível ao toque, em que o indicador representa um ponto de contato efetivo da entidade de seleção na tela e em que o indicador é móvel sobre a representação do alvo exibido na área não ocluída da tela sensível ao toque.
17. Dispositivo de tela sensível ao toque, de acordo com a reivindicação 16, CARACTERIZADO pelo fato de que o alvo é selecionado mediante ação de levantar a entidade de seleção a partir da superfície da tela enquanto o indicador estiver sobre a representação do alvo exibido na área não ocluída, e compreendendo ainda: um meio legível por computador tendo instruções executáveis por computador para determinar se a oclusão é um problema para o alvo sob a entidade de seleção quando a entidade de seleção realiza pressão sobre uma superfície da tela sensível ao toque para tentar selecionar o alvo exibido na tela; e um meio legível por computador tendo instruções executáveis por computador para remover o detalhamento quando a entidade de seleção é levantada da tela sensível ao toque.
18. Dispositivo de exibição compreendendo uma tela projetada para exibir ao menos um alvo o qual pode ser selecionado mediante realização de pressão sobre uma superfície da tela utilizando uma entidade de seleção, o dispositivo de exibição sendo CARACTERIZADO por compreender: um detalhamento, renderizado em uma área não-ocluída da tela responsiva a uma tentativa de selecionar o alvo utilizando uma entidade de seleção, em que o detalhamento compreende uma representação de uma área ocluída da tela que inclui o alvo e que é coberta pela entidade de seleção, em que a representação da área ocluída compreende uma representação do alvo.
19. Dispositivo de exibição, de acordo com a reivindicação 18, CARACTERIZADO por compreender ainda: um indicador representando um ponto de contato efetivo da entidade de seleção sobre a tela, em que o indicador é exibido na área não ocluída, e em que o ponto de contato efetivo representa um ponto de contato efetivo atual dentro da área ocluída, e em que o indicador é móvel mediante deslocamento da entidade de seleção sobre a superfície da tela, e em que retorno visual provido ao usuário pelo detalhamento permite que um usuário mova o indicador sobre a representação do alvo exibido na área não-ocluída da tela.
20. Dispositivo de exibição, de acordo com a reivindicação 19, CARACTERIZADO pelo fato de que o detalhamento é exibido apenas quando oclusão for um problema para o alvo sob a entidade de seleção, e em que o detalhamento não é exibido quando o usuário tenta selecionar um alvo maior na tela do dispositivo de exibição.
BRPI0717968A 2006-12-07 2007-12-07 método para entrada de toque em um dispositivo de tela sensível ao toque e dispositivo de tela sensível ao toque BRPI0717968B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/635.730 2006-12-07
US11/635,730 US7692629B2 (en) 2006-12-07 2006-12-07 Operating touch screen interfaces
PCT/US2007/086707 WO2008070815A1 (en) 2006-12-07 2007-12-07 Operating touch screen interfaces

Publications (3)

Publication Number Publication Date
BRPI0717968A2 true BRPI0717968A2 (pt) 2013-11-05
BRPI0717968A8 BRPI0717968A8 (pt) 2018-07-31
BRPI0717968B1 BRPI0717968B1 (pt) 2019-08-13

Family

ID=39492631

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0717968A BRPI0717968B1 (pt) 2006-12-07 2007-12-07 método para entrada de toque em um dispositivo de tela sensível ao toque e dispositivo de tela sensível ao toque

Country Status (16)

Country Link
US (1) US7692629B2 (pt)
EP (1) EP2126672B1 (pt)
JP (1) JP4790847B2 (pt)
KR (2) KR101486688B1 (pt)
CN (2) CN101553775B (pt)
AU (1) AU2007329261B2 (pt)
BR (1) BRPI0717968B1 (pt)
CA (1) CA2668207C (pt)
IL (1) IL198055A (pt)
MX (1) MX2009004905A (pt)
MY (1) MY151816A (pt)
NO (1) NO20092538L (pt)
RU (2) RU2464624C2 (pt)
TW (2) TWI506504B (pt)
WO (1) WO2008070815A1 (pt)
ZA (1) ZA200900784B (pt)

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
KR100830467B1 (ko) 2006-07-13 2008-05-20 엘지전자 주식회사 터치 패널을 갖는 영상기기 및 이 영상기기에서 줌 기능을수행하는 방법
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US20090077459A1 (en) * 2007-09-19 2009-03-19 Morris Robert P Method And System For Presenting A Hotspot In A Hypervideo Stream
JP2009193423A (ja) * 2008-02-15 2009-08-27 Panasonic Corp 電子機器の入力装置
US8323026B2 (en) * 2008-04-15 2012-12-04 International Business Machines Corporation Interactive recipe preparation using instructive device with integrated actuators to provide tactile feedback
US8342847B2 (en) * 2008-04-15 2013-01-01 International Business Machines Corporation Interactive recipe preparation instruction delivery to disabled indiviuals
US8419434B2 (en) * 2008-04-15 2013-04-16 International Business Machines Corporation Interactive recipe preparation using interactive cooking device to communicate with kitchen appliances
US8419433B2 (en) * 2008-04-15 2013-04-16 International Business Machines Corporation Monitoring recipe preparation using interactive cooking device
US8992225B2 (en) * 2008-04-15 2015-03-31 International Business Machines Corporation Monitoring recipe preparation using instructive device and generating an alert to provide feedback
JP4650549B2 (ja) * 2008-10-06 2011-03-16 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP2228668A1 (en) * 2009-03-09 2010-09-15 Agfa HealthCare Method of eliminating the effect of afterglow on a radiation image read out of a photostimulable phosphor screen.
US8434003B2 (en) 2009-05-21 2013-04-30 Sony Computer Entertainment Inc. Touch control with dynamically determined buffer region and active perimeter
JP5218293B2 (ja) * 2009-06-22 2013-06-26 ソニー株式会社 情報処理装置、表示制御方法、およびプログラム
US9372614B2 (en) 2009-07-09 2016-06-21 Qualcomm Incorporated Automatic enlargement of viewing area with selectable objects
US8531410B2 (en) * 2009-08-18 2013-09-10 Fuji Xerox Co., Ltd. Finger occlusion avoidance on touch display devices
TWI416369B (zh) * 2009-09-18 2013-11-21 Htc Corp 資料選取方法及系統,及其電腦程式產品
KR101630754B1 (ko) * 2009-10-16 2016-06-24 삼성전자주식회사 디스플레이 장치 및 인터페이스 방법
TW201115454A (en) * 2009-10-29 2011-05-01 Htc Corp Data selection and display methods and systems, and computer program products thereof
JP2011134273A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
TWI410842B (zh) * 2009-12-31 2013-10-01 Acer Inc 觸控顯示系統
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US20110221684A1 (en) * 2010-03-11 2011-09-15 Sony Ericsson Mobile Communications Ab Touch-sensitive input device, mobile device and method for operating a touch-sensitive input device
US8881061B2 (en) 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US8799815B2 (en) 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US8826164B2 (en) 2010-08-03 2014-09-02 Apple Inc. Device, method, and graphical user interface for creating a new folder
JP5614173B2 (ja) * 2010-08-25 2014-10-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5732783B2 (ja) * 2010-09-02 2015-06-10 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
JP5703873B2 (ja) * 2011-03-17 2015-04-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20120238254A1 (en) * 2011-03-17 2012-09-20 Ebay Inc. Video processing system for identifying items in video frames
FR2973899B1 (fr) * 2011-04-07 2013-04-26 Archos Procede de selection d'un element d'une interface utilisateur et dispositif mettant en oeuvre un tel procede.
US9519369B2 (en) 2011-04-19 2016-12-13 Hewlett-Packard Development Company, L.P. Touch screen selection
US9389764B2 (en) * 2011-05-27 2016-07-12 Microsoft Technology Licensing, Llc Target disambiguation and correction
US9990003B2 (en) 2011-06-03 2018-06-05 Microsoft Technology Licensing, Llc Motion effect reduction for displays and touch input
WO2012169106A1 (ja) * 2011-06-10 2012-12-13 Necカシオモバイルコミュニケーションズ株式会社 入力装置およびタッチパネルの制御方法
US9404767B2 (en) * 2011-06-10 2016-08-02 The Boeing Company Methods and systems for performing charting tasks
US8832588B1 (en) * 2011-06-30 2014-09-09 Microstrategy Incorporated Context-inclusive magnifying area
KR20130017241A (ko) * 2011-08-10 2013-02-20 삼성전자주식회사 터치 스크린 단말기에서 입출력 방법 및 장치
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9612670B2 (en) 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
US9939888B2 (en) 2011-09-15 2018-04-10 Microsoft Technology Licensing Llc Correlating movement information received from different sources
CN102508601B (zh) * 2011-10-12 2018-01-16 李锐 控制电子终端中的菜单导航的设备和方法
US8490008B2 (en) 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
RU2658790C2 (ru) 2011-11-21 2018-06-22 Никон Корпорейшн Устройство отображения и программа управления отображением
US9524097B2 (en) * 2011-12-22 2016-12-20 International Business Machines Corporation Touchscreen gestures for selecting a graphical object
TWI480768B (zh) * 2012-01-04 2015-04-11 Aver Information Inc 具調校功能之顯示方法與系統
TWI518580B (zh) 2012-01-15 2016-01-21 仁寶電腦工業股份有限公司 可攜式裝置與其操作方法
EP2631758B1 (en) 2012-02-24 2016-11-02 BlackBerry Limited Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters
US9977876B2 (en) 2012-02-24 2018-05-22 Perkinelmer Informatics, Inc. Systems, methods, and apparatus for drawing chemical structures using touch and gestures
WO2013128935A1 (ja) * 2012-03-01 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、操作状況通知方法及び非一時的なコンピュータ可読媒体
JP5754410B2 (ja) 2012-04-13 2015-07-29 トヨタ自動車株式会社 表示装置
CN102681779A (zh) * 2012-04-25 2012-09-19 中兴通讯股份有限公司南京分公司 触摸屏操作方法及装置
US10025487B2 (en) * 2012-04-30 2018-07-17 Blackberry Limited Method and apparatus for text selection
CN103425311A (zh) * 2012-05-25 2013-12-04 捷达世软件(深圳)有限公司 移动对象点选定位方法及系统
US11073959B2 (en) * 2012-06-08 2021-07-27 Apple Inc. Simulating physical materials and light interaction in a user interface of a resource-constrained device
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
US9032335B2 (en) * 2012-08-14 2015-05-12 Christopher V. Beckman User interface techniques reducing the impact of movements
CN103631506B (zh) * 2012-08-24 2018-09-04 腾讯科技(深圳)有限公司 基于终端的阅读方法及相应的终端
JP2014044605A (ja) * 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
CN103677594B (zh) * 2012-09-04 2018-04-27 中兴通讯股份有限公司 文本处理方法和装置
TWI467458B (zh) * 2012-09-21 2015-01-01 Touchplus Information Corp 電容式觸控裝置
US10114445B2 (en) * 2012-10-29 2018-10-30 Facebook, Inc. Screen timeout duration
US20140118268A1 (en) * 2012-11-01 2014-05-01 Google Inc. Touch screen operation using additional inputs
US9535583B2 (en) * 2012-12-13 2017-01-03 Perkinelmer Informatics, Inc. Draw-ahead feature for chemical structure drawing applications
KR20140105689A (ko) * 2013-02-23 2014-09-02 삼성전자주식회사 사용자의 입력에 응답하여 피드백을 제공하는 방법 및 이를 구현하는 단말
US9436357B2 (en) * 2013-03-08 2016-09-06 Nook Digital, Llc System and method for creating and viewing comic book electronic publications
CA2895567C (en) 2013-03-13 2023-10-10 Perkinelmer Informatics, Inc. Systems and methods for gesture-based sharing of data between separate electronic devices
US8854361B1 (en) 2013-03-13 2014-10-07 Cambridgesoft Corporation Visually augmenting a graphical rendering of a chemical structure representation or biological sequence representation with multi-dimensional information
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
US8812995B1 (en) 2013-04-10 2014-08-19 Google Inc. System and method for disambiguating item selection
US9430127B2 (en) * 2013-05-08 2016-08-30 Cambridgesoft Corporation Systems and methods for providing feedback cues for touch screen interface interaction with chemical and biological structure drawing applications
US9751294B2 (en) 2013-05-09 2017-09-05 Perkinelmer Informatics, Inc. Systems and methods for translating three dimensional graphic molecular models to computer aided design format
WO2014185920A1 (en) * 2013-05-16 2014-11-20 Empire Technology Development, Llc Three dimensional user interface in augmented reality
CN104423863A (zh) * 2013-08-30 2015-03-18 宏碁股份有限公司 被遮蔽画面投影方法及应用该方法的可携式电子装置
CN104461312A (zh) * 2013-09-17 2015-03-25 联想(北京)有限公司 一种显示控制方法及电子设备
US10250735B2 (en) 2013-10-30 2019-04-02 Apple Inc. Displaying relevant user interface objects
US9239648B2 (en) * 2014-03-17 2016-01-19 Google Inc. Determining user handedness and orientation using a touchscreen device
JP2015191259A (ja) * 2014-03-27 2015-11-02 日本電気株式会社 入力インターフェイスおよびその制御方法およびその制御プログラム、および入力インターフェイスを有する情報端末およびその制御方法およびその制御プログラム
KR102281133B1 (ko) * 2014-06-12 2021-07-26 엘지전자 주식회사 와치 타입 단말기 및 그것의 제어 방법
KR102422417B1 (ko) 2014-07-07 2022-07-18 브레빌 유에스에이 인코포레이티드 맞춤식 요리 지도 제공 시스템, 물품, 및 방법
CN105677193A (zh) * 2014-11-18 2016-06-15 夏普株式会社 对象操作方法和电子设备
WO2016106127A1 (en) 2014-12-22 2016-06-30 ChefSteps, Inc. Food preparation guidance system
JP6385272B2 (ja) * 2014-12-26 2018-09-05 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
CN104598112B (zh) * 2015-01-23 2019-01-18 小米科技有限责任公司 按钮交互方法和装置
US10194770B2 (en) 2015-01-30 2019-02-05 ChefSteps, Inc. Food preparation control system
CN106293444B (zh) * 2015-06-25 2020-07-03 小米科技有限责任公司 移动终端、显示控制方法及装置
WO2017015270A1 (en) * 2015-07-21 2017-01-26 ChefSteps, Inc. Food preparation control system
EP3378028A4 (en) 2015-11-16 2019-04-03 Chefsteps Inc. AGGREGATION AND PERSONALIZATION OF DATA FOR REMOTE CONTROL COOKING DEVICES
US9791833B1 (en) 2016-04-13 2017-10-17 Google Inc. Physical watch hands for a computerized watch
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US10572054B2 (en) * 2016-10-28 2020-02-25 Nanning Fugui Precision Industrial Co., Ltd. Interface control method for operation with one hand and electronic device thereof
CN106527948A (zh) * 2016-11-14 2017-03-22 珠海市魅族科技有限公司 一种屏幕触控方法以及装置
US10409480B2 (en) 2016-12-28 2019-09-10 Amazon Technologies, Inc. Interruption and resumption of feedback animation for touch-based interactions
US10289300B2 (en) * 2016-12-28 2019-05-14 Amazon Technologies, Inc. Feedback animation for touch-based interactions
US10521854B1 (en) 2017-01-04 2019-12-31 Amazon Technologies, Inc. Selection and display of custom user interface controls
US10922743B1 (en) 2017-01-04 2021-02-16 Amazon Technologies, Inc. Adaptive performance of actions associated with custom user interface controls
KR101920332B1 (ko) * 2017-01-06 2018-11-20 김찬기 터치스크린을 포함하는 스마트 디바이스 상에서의 문자 편집 방법 및 이를 구현한 스마트 디바이스
WO2018160205A1 (en) 2017-03-03 2018-09-07 Perkinelmer Informatics, Inc. Systems and methods for searching and indexing documents comprising chemical information
WO2018195730A1 (zh) 2017-04-24 2018-11-01 北京小米移动软件有限公司 屏幕控制方法及装置
CN107783747B (zh) * 2017-10-19 2020-04-28 维沃移动通信有限公司 一种界面显示处理方法及移动终端
US11442591B2 (en) * 2018-04-09 2022-09-13 Lockheed Martin Corporation System, method, computer readable medium, and viewer-interface for prioritized selection of mutually occluding objects in a virtual environment
US11440767B2 (en) 2018-07-30 2022-09-13 Otis Elevator Company Dynamic assignment of selection buttons on a destination entry system of an elevator
US11213158B2 (en) 2018-08-29 2022-01-04 Breville USA, Inc. Cooking system
JP6717901B2 (ja) * 2018-09-12 2020-07-08 株式会社メルカリ プログラム、表示方法および情報処理装置
JP6876086B2 (ja) * 2019-04-01 2021-05-26 日精樹脂工業株式会社 動作設定装置を備えた射出成形機
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
US11554323B2 (en) * 2020-09-11 2023-01-17 Riot Games, Inc. System and method for precise positioning with touchscreen gestures
CN115779424B (zh) * 2023-02-08 2023-04-28 广州三七极耀网络科技有限公司 一种导航网格寻路方法、装置、设备及介质
CN116166165B (zh) * 2023-04-25 2023-06-27 福昕鲲鹏(北京)信息科技有限公司 可视化的文本选择方法、装置及存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994029788A1 (en) 1993-06-15 1994-12-22 Honeywell Inc. A method for utilizing a low resolution touch screen system in a high resolution graphics environment
JP2001525096A (ja) * 1998-02-26 2001-12-04 モネック・モービル・ネットワーク・コンピューティング・リミテッド 電子デバイス、好ましくは電子ブック
WO2000075766A1 (en) 1999-06-02 2000-12-14 Ncr International, Inc. Self-service terminal
US7075512B1 (en) * 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
DE10209087A1 (de) * 2002-03-01 2003-09-11 Siemens Ag Verfahren zur optischen Hervorhebung von Informationen eines Bereichs der Benutzeroberfläche einer Computer-Anwenderstation
CN101673181A (zh) * 2002-11-29 2010-03-17 皇家飞利浦电子股份有限公司 具有触摸区域的移动表示的用户界面
CN100432912C (zh) * 2004-05-07 2008-11-12 索尼株式会社 便携式电子设备及其显示方法和图形用户接口装置
RU44200U1 (ru) * 2004-09-08 2005-02-27 Моисеев Борис Викторович Устройство для управления отображением данных на экране дисплея

Also Published As

Publication number Publication date
NO20092538L (no) 2009-07-06
RU2623181C2 (ru) 2017-06-27
MY151816A (en) 2014-07-14
RU2012130086A (ru) 2014-01-27
AU2007329261B2 (en) 2011-09-01
KR20130098431A (ko) 2013-09-04
JP2010512587A (ja) 2010-04-22
ZA200900784B (en) 2010-05-26
IL198055A (en) 2014-03-31
CN102999290A (zh) 2013-03-27
CA2668207A1 (en) 2008-06-12
CN101553775A (zh) 2009-10-07
CN102999290B (zh) 2017-12-05
KR101311018B1 (ko) 2013-09-24
KR20090094360A (ko) 2009-09-04
TW201403424A (zh) 2014-01-16
US7692629B2 (en) 2010-04-06
KR101486688B1 (ko) 2015-01-29
CN101553775B (zh) 2012-11-14
RU2009121545A (ru) 2010-12-10
BRPI0717968B1 (pt) 2019-08-13
EP2126672B1 (en) 2019-10-16
MX2009004905A (es) 2009-05-19
US20080136785A1 (en) 2008-06-12
TWI506504B (zh) 2015-11-01
BRPI0717968A8 (pt) 2018-07-31
AU2007329261A1 (en) 2008-06-12
RU2464624C2 (ru) 2012-10-20
IL198055A0 (en) 2009-12-24
EP2126672A1 (en) 2009-12-02
EP2126672A4 (en) 2016-01-06
CA2668207C (en) 2013-10-08
TW200834397A (en) 2008-08-16
TWI450136B (zh) 2014-08-21
WO2008070815A1 (en) 2008-06-12
JP4790847B2 (ja) 2011-10-12

Similar Documents

Publication Publication Date Title
BRPI0717968A2 (pt) Operando interfaces de tela sensível ao toque.
US8751955B2 (en) Scrollbar user interface for multitouch devices
US9684412B2 (en) Method and apparatus for generating a three-dimensional user interface
US10318152B2 (en) Modifying key size on a touch screen based on fingertip location
US9575578B2 (en) Methods, devices, and computer readable storage device for touchscreen navigation
US10509563B2 (en) Dynamic modification of displayed elements of obstructed region
WO2018176843A1 (zh) 一种焦点越界搜索方法、装置、智能设备及可读存储介质
US9146666B2 (en) Touch sensor navigation
JP5780823B2 (ja) 表示装置、表示装置の制御方法及びプログラム
KR20180115831A (ko) 터치 오기 교정 방법 및 시스템
US20090237357A1 (en) Method And Cursor-Generating Device For Generating A Cursor Extension On A Screen Of An Electronic Device
CN110032323B (zh) 电子设备及手势导航方法
AU2016203054B2 (en) Operating touch screen interfaces
US20230070059A1 (en) False touch rejection method, terminal device, and storage medium
AU2011253778B2 (en) Operating touch screen interfaces
KR101367622B1 (ko) 스크롤 속도 가변제어 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
JP2010182114A (ja) タッチセンサ式座標入力装置

Legal Events

Date Code Title Description
B25A Requested transfer of rights approved

Owner name: MICROSOFT TECHNOLOGY LICENSING, LLC (US)

B15K Others concerning applications: alteration of classification

Ipc: G06F 3/0488 (2013.01)

B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 13/08/2019, OBSERVADAS AS CONDICOES LEGAIS. (CO) 10 (DEZ) ANOS CONTADOS A PARTIR DE 13/08/2019, OBSERVADAS AS CONDICOES LEGAIS