BR102013016792A2 - Método de controle baseado em entrada de toque e gesto e terminal para isso - Google Patents
Método de controle baseado em entrada de toque e gesto e terminal para isso Download PDFInfo
- Publication number
- BR102013016792A2 BR102013016792A2 BRBR102013016792-4A BR102013016792A BR102013016792A2 BR 102013016792 A2 BR102013016792 A2 BR 102013016792A2 BR 102013016792 A BR102013016792 A BR 102013016792A BR 102013016792 A2 BR102013016792 A2 BR 102013016792A2
- Authority
- BR
- Brazil
- Prior art keywords
- touch
- input
- terminal
- switching
- touch input
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000006855 networking Effects 0.000 claims 2
- 230000004044 response Effects 0.000 abstract description 8
- 230000033001 locomotion Effects 0.000 description 16
- 238000001514 detection method Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000000670 limiting effect Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 235000015927 pasta Nutrition 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Abstract
Método de controle baseado em entrada de toque e gesto e terminal para isso. Um método de controle baseado em entrada de toque e gesto para um terminal móvel ou um visor portátil é provido, para facilitar a operação de comutação entre um objeto em resposta a uma entrada de gesto subsequente a uma entrada de toque. O método inclui a detecção de uma entrada de toque; a seleção de pelo menos um objeto correspondente à entrada de toque; a detecção de uma entrada de gesto; e a execução de uma comutação correspondente à entrada de gesto em um estado em que o objeto é mantido em uma posição da entrada de toque. A invenção permite uma paginação através de listas de documentos ou icones, etc., enquanto retém a exibiçâo do objeto mantido na tela de toque.
Description
MÉTODO DE CONTROLE BASEADO EM ENTRADA DE TOQUE E GESTO E
TERMINAL PARA ISSO
ANTECEDENTES DA INVENÇÃO
Campo da Invenção A presente invenção se refere a um método de controle baseado em entrada de toque e gesto e a um terminal portátil configurado para realizar o método de controle. Mais particularmente, a presente invenção está relacionada a um método de controle baseado em entrada de toque e gesto para a execução de uma operação de comutação utilizando uma entrada de gesto subsequentemente a uma entrada de toque. Descrição da Técnica Relacionada Com o avanço da tecnologia de comunicação e da tecnologia de exibição interativa, dispositivos elétricos inteligentes, tais como smartphones e terminais portáteis, tais como tablets, etc., empregam vários meios de entrada para controle do smartphone, tal como uma tela de toque, de modo que o usuário controle o dispositivo mais convenientemente. Assim sendo, estudos estão sendo conduzidos para reconhecimento de entradas de toque, movimento e gesto com a assistência de sensores que podem reduzir a necessidade de digitação de comandos na tela de exibição relativamente pequena e ter rapidamente comandos comumente requisitados realizados pelas entradas de gesto.
Os avanços tecnológicos tornaram possível que os terminais portáteis sejam configurados para o reconhecimento de vários tipos de entradas, as requisições de usuário para uma manipulação de terminal simplificada crescendo.
Contudo, apesar da capacidade de detecção de vários tipos de entradas, os terminais convencionais atuais são limitados na utilização de sua capacidade de detecção de entrada para controle de operações de terminal, resultando em uma falha de adequação às necessidades dos usuários.
SUMÁRIO DA INVENÇÃO A presente invenção foi feita, em parte, em um esforço para resolução de alguns dos inconvenientes na técnica, e é um objetivo da presente invenção prover um método de controle baseado em entrada de toque e gesto e um terminal que execute uma operação em resposta a uma série de entradas de toque e de gesto. É um outro objetivo da presente invenção prover um método de controle baseado em entrada de toque e gesto e um terminal que comute entre objetos em resposta a uma entrada de gesto subsequentemente a uma entrada de toque em andamento.
De acordo com um aspecto de exemplo da presente invenção, um método para controle de um terminal preferencialmente inclui a detecção de uma entrada de toque; a seleção de pelo menos um objeto correspondente a uma entrada de toque; a detecção de uma entrada de gesto; e a execução de uma comutação correspondente à entrada de gesto em um estado em que o objeto é mantido em uma posição da entrada de toque.
Preferencialmente, o objeto que é mantido em uma posição da entrada de toque inclui pelo menos um dentre um icone, um texto, uma imagem, um arquivo, uma pasta, um conteúdo de um navegador da web, um endereço da web e um link da web.
Preferencialmente, a seleção de pelo menos um objeto correspondente à entrada de toque inclui a apresentação do objeto em um dentre estados ativado,, aumentado, retraído, sombreado.
Preferencialmente, a detecção de uma entrada de gesto compreende a detecção da entrada de gesto em um estado em que a entrada de toque é mantida.
Preferencialmente, a comutação correspondente à entrada de gesto compreende uma dentre uma comutação de página, uma comutação de pasta, uma comutação de aba, uma comutação de aplicativo e uma comutação de tarefa.
Preferencialmente, a execução inclui a manutenção do objeto selecionado correspondente à entrada de toque; e a comutação dentre uma pluralidade de páginas tendo pelo menos um objeto no estado em que o objeto selecionado é mantido na tela.
Preferencialmente, a execução também pode incluir a manutenção do objeto selecionado correspondente à entrada de toque; e a comutação dentre pastas mais altas e mais baixas ao longo de um percurso de arquivo ou entre as pastas em uma lista de pasta.
Preferencialmente, a execução também pode incluir a manutenção do objeto selecionado correspondente à entrada de toque; e a comutação dentre uma pluralidade de batidas providas por um navegador da web.
Preferencialmente, a execução também pode incluir a manutenção do objeto selecionado correspondente à entrada de toque; e uma comutação dentre aplicativos ou tarefas listadas em uma lista predeterminada ou uma lista de aplicativos ou tarefas rodando atualmente.
Preferencialmente, uma comutação dentre aplicativos ou tarefas inclui a exibição do objeto selecionado em um formato disposto de forma ótima para o aplicativo ou a tarefa.
Preferencialmente, o método de acordo com a presente invenção ainda inclui a detecção de uma liberação da entrada de toque; e a execução de uma operação correspondente à liberação da entrada de toque para o objeto selecionado.
Preferencialmente, de acordo com a presente invenção, a operação correspondente à liberação da entrada de toque é uma dentre a disposição do objeto em uma posição almejada pela entrada de toque, a execução de um link do objeto selecionado em uma aba do navegador da web, e a colagem do objeto na e a execução na tela do aplicativo ou da tarefa.
De acordo com um outro aspecto de exemplo da presente invenção, um terminal inclui uma unidade de entrada a qual detecta entradas de toque e de gesto; uma unidade de controle configurada para a detecção da seleção de pelo menos um objeto correspondente à entrada de toque no visor de tela de toque, e a execução de uma comutação das imagens mostradas no visor, correspondente à entrada de gesto, em um estado em que o objeto é mantido em uma posição da entrada de toque; e uma unidade de exibição a qual exibe uma tela sob o controle da unidade de controle.
Preferencialmente, a comutação é uma dentre uma comutação de página, uma comutação de pasta, uma comutação de aba, uma comutação de aplicativo e uma comutação de tarefa.
Preferencialmente, a unidade de controle é configurada para "manter" o objeto selecionado correspondente à entrada de toque e comuta dentre uma pluralidade de páginas tendo pelo menos um objeto no estado em que o objeto selecionado é mantido na tela.
Preferencialmente, a unidade de controle é configurada para "manter" o objeto selecionado correspondente à entrada de toque e comutar dentre pastas mais altas e mais baixas ao longo de um caminho de arquivo ou entre pastas em uma lista de pastas.
Preferencialmente, a unidade de controle é configurada para "manter" o objeto selecionado correspondente à entrada de toque e comutar dentre uma pluralidade de abas providas por um navegador da web.
Preferencialmente, a unidade de controle é configurada para "manter" o objeto selecionado correspondente à entrada de toque e comutar dentre aplicativos ou tarefas listadas em uma lista predeterminada ou uma lista de aplicativos ou tarefas rodando atualmente.
Preferencialmente, a unidade de controle é configurada para exibir o objeto selecionado em um formato disposto de forma ótima para o aplicativo ou a'tarefa.
Preferencialmente, a unidade de entrada detecta uma liberação da entrada de toque, e a unidade de controle executa um dentre o arranjo do objeto em uma posição almejada pela entrada de toque, a execução do link do objeto selecionado em uma aba do navegador da web, e a colagem do objeto em uma tela de execução do aplicativo ou da tarefa.
Além disso, um método para controle de um terminal preferencialmente compreende: a detecção de uma entrada de toque por um sensor (111- 116) em um visor de tela de toque (140); a detecção por uma unidade de controle (120) do terminal de uma seleção de pelo menos um objeto de uma pluralidade de objetos correspondentes à entrada de toque no visor de tela de toque; a detecção de uma entrada de gesto em um estado em que a entrada de toque é mantida por pelo menos uma superposição temporal parcial com a detecção do gesto; e a execução de uma comutação de uma exibição de um ou mais da pluralidade de outros objetos além de pelo menos um objeto (141), o qual está sendo mantido na mesma posição no visor de tela de toque (140) e correspondente a uma direção associada à entrada de gesto em um estado em que pelo menos um objeto (141) o qual está sendo mantido em uma posição da entrada de toque durante a detecção da entrada de gesto no visor de tela de toque (140). BREVE DESCRIÇÃO DOS DESENHOS A figura 1 é um diagrama de blocos que ilustra uma configuração do terminal de acordo com uma modalidade de exemplo da presente invenção; a figura 2 é uma vista dianteira de um terminal equipado com um sensor de câmera e um sensor de infravermelho; a figura 3 é um fluxograma que ilustra o método para controle do terminal de acordo com uma modalidade de exemplo da presente invenção; a figura 4 é um diagrama que ilustra uma ação de entrada de toque de exemplo para uso em uma modalidade de exemplo da presente invenção; a figura 5 é um diagrama que ilustra uma combinação de entradas de toque e de gesto para uso em uma modalidade de exemplo da presente invenção; a figura 6 é um diagrama que ilustra uma operação de comutação de página de exemplo com base na combinação das entradas de toque e de gesto de acordo com uma modalidade de exemplo da presente invenção; a figura 7 é um diagrama que ilustra uma operação de comutação de pasta de exemplo baseada na combinação das entradas de toque e de gesto de acordo com uma modalidade de exemplo da presente invenção; a figura 8 é um diagrama que ilustra uma operação de ■ comutação de aba de exemplo baseada na combinação das entradas de toque e de gesto de acordo com uma modalidade de exemplo da presente invenção; e a figura 9 é um diagrama que ilustra uma operação de comutação de aplicativo ou tarefa de exemplo baseada na combinação das entradas de toque e de gesto de acordo com uma modalidade de exemplo da presente invenção.
DESCRIÇÃO DETALHADA A presente invenção é adequada para muitos usos, um dos quais incluindo o controle de um terminal habilitado para entradas de toque e de gesto. A presente invenção é aplicável a todos os tipos de terminais habilitados para' entradas de toque e de gesto, incluindo um smartphone, um terminal portátil, um terminal móvel, um assistente digital pessoal (PDA), um tocador de multimídia portátil (PMP), um laptop, um notepad, um terminal Wibro, um PC tablet, uma TV inteligente, um refrigerador inteligente, e seus equivalentes, apenas para denominar uns poucos exemplos não limitantes. A terminologia usada aqui é para fins de ilustração para uma pessoa versada na técnica de modalidades de exemplo em particular apenas e não é limitante para a invenção reivindicada. A menos que definidos de outra forma, todos os termos usados aqui têm o mesmo significado que comumente entendido por alguém de conhecimento comum na técnica à qual esta invenção se refere, e não devem ser interpretados como tendo um significado excessivamente compreensivo, nem como tendo um significado excessivamente contraído. Nem definições de dicionário a partir de dicionários de assunto geral devem contradizer o entendimento de quaisquer termos conforme conhecido na técnica para pessoas de conhecimento comum.
Conforme usado aqui, as formas singulares "um", "uma" e "o(a)" são entendidas como incluindo as formas plurais da mesma forma, a menos que o contexto claramente indique de outra forma. Deve ser adicionalmente entendido que os termos "compreende", "compreendendo", "inclui" e/ou "incluindo", quando usados aqui, especificam a presença de recursos, integrantes, etapas, operações, elementos e/ou componentes declarados, mas não impedem a presença ou a adição de um ou mais outros recursos, etapas, operações, elementos, componentes e/ou grupos dos mesmos.
Mais ainda, o termo "toque", conforme usado aqui, inclui uma parte do corpo do usuário (por exemplo, mão, dedo) e/ou um objeto fisico, tal como uma caneta apontadora chegando a uma distância predeterminada da tela de toque, sem a feitura de contato físico.
Além disso, os termos "mantido(a)" e "manter" devem ser interpretados amplamente e não requerem que uma parte do corpo do usuário (tal com um dedo ou dedos) ou a caneta permaneça em contato ou quase em contato com um objeto na tela, enquanto um gesto é executado para causar a comutação de páginas, aplicativos, abas, etc. Por exemplo, uma batida única ou dupla de um objeto pode designar que o objeto seja "mantido", e, então, um movimento de gesto ou movimentos podem mudar páginas ou aplicativos enquanto o objeto permanece "mantido" em uma posição designada. Nesse caso, onde o objeto selecionado não está sendo mantido por um dedo ou uma caneta, então, uma "liberação" pode incluir um movimento ou um toque subsequente para indicar que o objeto está liberado.
As modalidades de exemplo da presente invenção são descritas, agora, com resfriamento aos desenhos associados em detalhes. A figura 1 é um diagrama de blocos que ilustra uma configuração do terminal de acordo com uma modalidade de exemplo da presente invenção.
Conforme mostrado na figura 1, o terminal 100 preferencialmente inclui uma unidade de entrada 110, uma unidade de controle 120, uma unidade de armazenamento 130 e uma unidade de exibição 140. A unidade de entrada 110 pode gerar uma manipulação em resposta a uma entrada de usuário. A unidade de entrada 110 preferencialmente pode incluir um ou mais dentre um sensor de toque 111, um sensor de proximidade, um sensor eletromagnético 113, um sensor de câmera 114 e um sensor de infravermelho. O sensor de toque 111 detecta uma entrada de toque feita pelo usuário. O sensor de toque 111 pode ser implementado com um dentre um filme de toque, uma folha de toque e um touchpad. 0 sensor de toque 111 pode detectar uma entrada de toque e gerar um sinal de toque correspondente, que é extraído para a unidade de controle 120. A unidade de controle 120 pode analisar o sinal de toque para executar uma função correspondente a ele. O sensor de toque 111 pode ser implementado para a detecção da entrada de toque feita pelo usuário através do uso de vários meios de entrada. Por exemplo, a entrada de toque pode constituir a detecção de uma parte do corpo do usuário (por exemplo, a mão) e/ou um objeto físico, tal como uma caneta apontadora e um botão de manipulação equivalente. O sensor de toque 111 preferencialmente pode detectar a aproximação de um objeto em uma faixa predeterminada, bem como um toque direto de acordo com a implementação.
Com referência continuada à figura 1, o sensor de proximidade 113 é configurado para detectar a presença / ausência, a aproximação, o movimento, a direção de movimento, a velocidade de movimento e o formato de um objeto usando a intensidade do campo eletromagnético sem contato físico. O sensor de proximidade 113 preferencialmente é implementado com pelo menos um dentre um fotossensor do tipo de transmissão, um fotossensor do tipo de reflexão direta, um fotossensor do tipo de reflexão espelhada, um sensor de proximidade do tipo de oscilação de frequência alta, um sensor de proximidade capacitivo, um sensor de proximidade do tipo magnético e um sensor de proximidade de infravermelho. O sensor eletromagnético 114 detecta um toque ou uma aproximação de um objeto com base na variação da intensidade do campo eletromagnético, e pode ser implementado na forma de um calço de entrada de ressonância eletromagnética (EMR) ou interferência eletromagnética (EMI) . 0 sensor eletromagnético 114 preferencialmente é implementado com uma bobina induzindo um campo magnético e detecta a aproximação de um objeto tendo um circuito de ressonância que causa uma variação de energia do campo magnético gerado pelo sensor eletromagnético 114. O sensor eletromagnético 114 pode detectar a entrada, por exemplo, por meio de uma caneta apontadora como um objeto tendo o circuito de ressonância. O sensor eletromagnético 114 também pode detectar a entrada de proximidade ou pairando feita proximamente em torno do terminal 100. O sensor de câmera 115 converte uma entrada de imagem (luz) através de uma lente em um sinal digital por meio de dispositivos de carga acoplado (CCD) ou semicondutor de óxido de metal complementar (CMOS). O sensor de câmera 115 é capaz de armazenar o sinal digital na unidade de armazenamento 130 de forma temporária ou permanente. O sensor de câmera 115 é capaz de localizar e rastrear um ponto especifico em uma imagem reconhecida para detectar uma entrada de gesto.
Com referência, agora, à figura 2, o sensor de câmera 115 pode incluir lentes combinadas voltadas para sua superfície dianteira e/ou traseira para a captura e a conversão de uma imagem através das lentes.
Um sensor de infravermelho 116, o qual também é referido como um sensor de IR ou um sensor de LED, e pode incluir uma fonte de luz para emissão da luz de infravermelho para um objeto e um receptor de luz para recebimento da luz refletida pelo objeto (por exemplo, a mão) se aproximando do terminal 100. 0 sensor de infravermelho 116 pode detectar a quantidade de variação da luz recebida pelo receptor de luz, de modo a checar o movimento de a e a distância a partir do objeto. Com referência de novo à figura 2, o sensor de infravermelho 116 é disposto na frente e/ou no lado traseiro do terminal 100, de modo a receber a luz de infravermelho emitida a partir do exterior do terminal 100 e/ou refletida por uma parte do corpo do usuário (por exemplo, pela mão).
De acordo com uma modalidade de exemplo da presente invenção, a unidade de entrada 110 pode detectar as entradas de toque e de gesto pelo sensor. A unidade de entrada 110 pode detectar as entradas de toque e de gesto feitas simultaneamente ou de forma sequencial, e a entrada de gesto subsequente à entrada de toque em andamento. A unidade de controle 120, a qual é compreendida por um hardware, tal como um processador ou microprocessador configurado para controlar algumas ou todas as operações gerais do terminal com os componentes. Por exemplo, a unidade de controle 120 preferencialmente controla a operação e as funções do terminal 100 de acordo com a entrada feita através da unidade de entrada 110.
De acordo com uma modalidade de exemplo da presente invenção, a unidade de controle 120 é configurada para controlar a comutação com base na detecção de entradas de toque e de gesto de um ou mais sensores. Por exemplo, a comutação pode compreender qualquer uma dentre uma comutação de página, uma comutação de pasta, uma comutação de aba, uma comutação de aplicativo e uma comutação de tarefa .
As operações detalhadas da unidade de controle 120 são descritas, agora, em maiores detalhes aqui adiante, com referência aos desenhos associados. A unidade de armazenamento 130 preferencialmente é usada para o armazenamento de programas e comandos para o terminal 100. A unidade de controle 120 é configurada para executar os programas e comandos que podem ser armazenados na unidade de armazenamento 130. A unidade de armazenamento 130 pode compreender pelo menos um dentre uma memória flash, um disco rigido, um microcartão de multimídia, uma memória do tipo de cartão (por exemplo, uma memória SD ou XD), uma memória de acesso randômico (RAM), uma RAM estática (SRAM), uma memória apenas de leitura (ROM), uma ROM eletricamente apagável programável (EEPROM), uma ROM programável (PROM), uma memória magnética, um disco magnético, e um disco ótico.
De acordo com uma modalidade de exemplo da presente invenção, a unidade de armazenamento 130 pode ser utilizada para o armazenamento de pelo menos um dentre um ícone, um texto, uma imagem, um arquivo, uma pasta e várias formas de conteúdo incluindo objetos, aplicativo e funções de serviço.
De acordo com uma modalidade de exemplo da presente invenção, a unidade de armazenamento pode armazenar a informação sobre a operação correspondente à entrada feita através da unidade de entrada 110. Por exemplo, a unidade de armazenamento 130 pode ser usada para o armazenamento da informação sobre as operações de comutação correspondentes às entradas de toque e de gesto.
Com referência continuada à figura 1, a unidade de exibição 140 exibe (extrai) certa informação processada no terminal 100. Por exemplo, a unidade de exibição 140 pode exibir a interface de usuário (UI) ou uma interface gráfica de usuário (GUI) relacionada à detecção de voz, ao reconhecimento de estado e ao controle de função. A unidade de exibição pode ser implementada com pelo menos um dentre um visor de cristal liquido (LCD) , um LCD de transistor de filme fino (TFT LCD), um diodo de emissão de luz orgânico (OLED) , um visor flexivel, e um visor tridimensional (3D). A unidade de exibição 140 forma uma tela de toque com o sensor de toque como parte da unidade de entrada 110. A unidade de exibição habilitada para tela de toque 140 pode operar como um dispositivo de entrada e como um dispositivo de saida.
De acordo com uma modalidade de exemplo da presente invenção, a unidade de exibição 140 preferencialmente pode exibir qualquer um dentre icones, textos, imagens, listas de arquivo e listas de pastas. A unidade de exibição 140 pode exibir pelo menos um dentre um navegador da web e conteúdos, endereço de website e link de website.
De acordo com uma modalidade de exemplo da presente invenção, a unidade de exibição 140 pode exibir pelo menos um objeto dinamicamente, de acordo com a operação de comutação sob o controle da unidade de controle 120. Por exemplo, a unidade de exibição 140 pode exibir pelo menos um objeto se movendo em certa direção na tela, de acordo com uma operação de comutação de página.
Embora a presente descrição seja dirigida a um terminal descrito na figura 1, o terminal ainda pode incluir outros componentes além dos mostrados, e/ou alguns dos componentes constituindo o terminal podem ser apagados. A figura 3 é um fluxograma que ilustra o método para controle do terminal de acordo com uma modalidade de exemplo da presente invenção.
Com referência, agora, à figura 3, um método de exemplo para controle do terminal de acordo com a invenção presentemente reivindicada será discutido aqui abaixo.
Na etapa 210, o terminal 100 determina se uma entrada de toque é ou não detectada. O terminal 100 pode detectar mais de uma entrada de toque feita sequencialmente ou de forma simultânea. De acordo com a implementação, o terminal 100 pode ser configurado para detectar diferentes tipos de toque, tal como uma entrada baseada em proximidade ou uma entrada baseada em pressão, bem como a entrada baseada em toque. Portanto, o termo toque é amplo, já que a detecção de um contato relativamente próximo por um dedo ou um apontador detectável que pode ser detectado por um sensor de proximidade pode ser considerada constituindo um toque.
Se um toque for detectado na etapa 210, então, na etapa 220, o terminal 100 selecionará um objeto. O terminal 100 pode ser configurado para determinar a posição em que no visor o toque é feito. Por exemplo, o terminal 100 pode determinar coordenadas bidimensionais ou tridimensionais da posição em que o toque é feito na tela. Mais ainda, o terminal 100 pode ser configurado para checar a pressão, a duração e o movimento do toque (por exemplo, arrasto, variação da distância entre múltiplos pontos de toque e padrão de movimento do toque).
Além disso, o terminal 100 pode selecionar pelo menos um objeto correspondente à entrada de toque. O terminal 100 pode ser configurado para detectar pelo menos um objeto (141) localizado na posição em que a entrada de toque é feita. 0 objeto pode ser qualquer um dentre um icone, um texto, uma imagem, um arquivo, uma pasta, um conteúdo da web, um endereço da web e um link da web. O terminal 100 pode exibir o objeto selecionado na forma de ativado, aumentado, contraído ou sombreado. O terminal 100 pode exibir o objeto selecionado como ativado, aumentado, retraído ou sombreado de acordo com a duração de tempo pela qual a entrada de toque foi mantida.
Com referência, agora, ao caso de exemplo da figura 4, o terminal 100 é operado para a seleção de um ícone de acordo com a entrada de toque detectada na tela em modo inativo. 0 terminal 100 pode exibir o icone selecionado (141) na forma sombreada.
No caso em que um toque é feito e, então, movido, o terminal 100 exibe o movimento do objeto selecionado (141) de acordo com o movimento. Por exemplo, se um toque for detectado e movido em uma certa direção, o terminal 100 poderá exibir o movimento do objeto selecionado na mesma \ direção. O terminal 100 pode expressar / exibir o estado de movimento do objeto selecionado. Por exemplo, o terminal 100 pode exibir o objeto selecionado com um indicador adicional ou um efeito visual, tal como uma vibração, um aumento, uma retração ou sombreamento para expressar que o objeto está no estado móvel.
Em seguida, com referência ao fluxograma da figura 3, na etapa 230, o terminal 100 determina se uma entrada de gesto é detectada. 0 terminal 100 pode detectar um gesto de varredura em uma certa direção, um gesto de desenho para um certo formato e um gesto de conformação para a formação de um certo formato. O terminal 100 pode detectar uma direção de entrada de gesto, uma velocidade, um formato e uma distância a partir do terminal 100. De acordo com uma implementação em particular, o terminal 100 pode detectar uma entrada de aproximação ou uma entrada de pressão, ao invés da entrada de gesto. O terminal 100 detecta a entrada de gesto no estado em que a entrada de toque é mantida. Com referência ao caso de exemplo da figura 5, o terminal 100 detecta uma entrada de toque e uma entrada de gesto subsequente feita no estado em que a entrada de toque é mantida.
Se, na etapa 230, a entrada de gesto for detectada, então, na etapa 240, o terminal 100 realizará uma operação de comutação.
Mais particularmente, o terminal 100 executa a operação de comutação correspondente à entrada de gesto detectada. 0 terminal 100 busca pela operação de comutação combinada com a entrada de gesto e, se a comutação for recuperada, executará a operação de comutação correspondente. A operação de comutação pode compreender qualquer uma dentre uma operação de comutação de página, uma operação de comutação de pasta, uma operação de comutação de aba, uma operação de comutação de aplicativo, e uma operação de comutação de tarefa, apenas para denominar umas poucas possibilidades não limitantes. A operação de comutação de página pode ser realizada de modo que a página atual seja comutada para uma outra página com exceção do objeto selecionado (141), A operação de comutação de página pode ser realizada através da tela do visor no qual uma pluralidade de páginas, cada uma tendo pelo menos um objeto, é virada uma a uma em resposta a uma requisição de usuário. Por exemplo, a operação de comutação de página pode ser realizada na tela em modo inativo, na tela de lista de arquivos ou de pastas, uma tela de lista de menu selecionável, uma tela de documento, uma tela de e-book, uma tela de agenda telefônica, etc., apena para denominar umas poucas possibilidades não limitantes. O terminal 100 pode executar uma comutação de página de forma tal que, quando a página atual tiver uma pluralidade de objetos, com exceção do objeto selecionado, a exibição seja comutada para uma outra página no estado em que o objeto selecionado é fixado pela entrada de toque. Em outras palavras, o terminal 100 vira a página atual com os objetos não selecionados (os quais podem incluir a imagem de fundo) para a próxima página na tela em uma direção horizontal ou uma vertical na tela, enquanto o objeto selecionado pela entrada de toque permanece em uma posição fixa no visor. Neste momento, a direção de virada de página e o número de viradas de página podem ser determinados de acordo com a direção do gesto (por exemplo, horizontal ou vertical) ou o formato do gesto (por exemplo, o formato da mão expressando um certo número). De acordo com a operação de comutação de página, os objetos da página previamente exibida desaparecem, exceto pelo objeto sendo mantido, e os objetos da nova página aparecem na tela. No caso em que não há outras páginas correspondentes à entrada de gesto, o terminal 100 pode se desviar de virar a página ou exibir uma mensagem, um icone ou uma imagem notificando que não há outras páginas.
Com referência ao caso de exemplo da figura 6, o terminal 100 seleciona um icone na tela de modo inativo em resposta a uma entrada de toque. Neste momento, o terminal 100 exibe o icone selecionado na forma sombreada. 0 terminal 100 pode detectar uma entrada de gesto subsequente.. A entrada de gesto pode compreender qualquer movimento detectável, mas, neste exemplo, compreende uma varredura na direção da direita para a esquerda. O terminal 100 pode executar a operação de comutação de página enquanto fixa o icone selecionado em resposta à entrada de toque. Em outras palavras, o terminal. 100 vira a página na direção correspondente à direção do gesto. Conforme o terminal 100 move os objetos para a esquerda, com exceção do objeto selecionado, essa outra página aparece a partir do lado direito.
Conforme mostrado na figura 6, pelo menos um objeto 141 está sendo mantido em uma posição da entrada de toque durante uma detecção da entrada de gesto. Um técnico deve entender e apreciar que o termo "durante" pode constituir uma superposição temporal (isto é, um periodo de tempo de superposição) entre o toque do objeto e a detecção da entrada de gesto, e não é uma exigência absoluta em algumas modalidades que o objeto seja mantido enquanto um gesto reconhecido é feito para mudanças de páginas, por exemplo. A operação de comutação de pasta compreende a navegação entre pastas com base no caminho de arquivo do objeto selecionado. Ά operação de comutação de pasta pode ser realizada dentre arquivos ou pastas. Por exemplo, a comutação de pasta pode ser realizada entre pastas incluindo documentos, imagens, fotos, e-books, arquivos de música, arquivos de execução de aplicativo ou icones de atalho, arquivos de execução de programa ou icones de atalho, arquivos de execução de serviço ou atalhos.
Por exemplo, pode-se manter ou designar uma foto e, então, com um gesto reconhecido comutar entre aplicativos, de modo que a foto possa ser inserida em um e-mail, um texto, no Facebook, virtualmente em qualquer tipo de aplicativo de comunicação que permita a transmissão de imagens. O terminal determina o caminho de arquivo do objeto selecionado mantido correspondente à entrada de toque. O terminal 100 pode mover uma pasta para uma pasta de nivel mais alto ou mais baixo ao longo do caminho de arquivo, ou uma pasta prévia ou uma seguinte em uma lista de pastas. Neste momento, uma decisão quanto a se é para mover a pasta de nivel de pasta mais alto ou mais baixo ou se para uma pasta prévia ou seguinte na próxima pasta no mesmo nivel pode ser determinada de acordo com a direção (horizontal ou vertical) do gesto ou o formato do gesto (por exemplo, o formato da mão indicando um certo número). De acordo com a comutação de pasta, os objetos da pasta antiga desaparecem e os objetos da nova pasta aparecem na tela. No caso em que não há uma outra pasta correspondente à entrada de gesto, o terminal 100 desvia da operação de comutação de pasta ou exibe uma mensagem, um icone ou uma imagem notificando que não há outra pasta.
Com referência, agora, ao caso de exemplo da figura 7, o terminal 100 seleciona uma foto na pasta Álbum 1 correspondente a uma entrada de toque. Neste momento, o terminal 100 exibe a pasta selecionada na forma sombreada. O terminal 100 pode detectar uma entrada de gesto subsequente. O terminal 100 também pode detectar a entrada de gesto subsequente enquanto a entrada de toque é mantida. A entrada de gesto pode ser, por exemplo, uma entrada de gesto de varredura feita em uma direção a partir da direita para a esquerda. O terminal 100 pode realizar a operação de comutação de pasta enquanto mantém a foto selecionada na posição correspondente à entrada de toque. Em outras palavras, o terminal 100 pode mover a pasta para a direção correspondente à entrada de gesto. 0 terminal 100 controla a operação de modo que os objetos incluídos na pasta Álbum 1, com exceção do objeto selecionado, a partir da tela e, então, uma lista as fotos incluídas na próxima pasta, isto é, a pasta Álbum 2, apareçam tela. A operação de comutação de aba compreende a navegação entre abas representando respectivos aplicativos ou programas. A operação de comutação de aba pode ser realizada dentre abas do navegador da web, uma janela de menu, um e-book e/ou aplicativos ou programas de visualizador de documento. O terminal 100 pode manter um objeto correspondente a uma entrada de toque e realizar a operação de comutação de aba. Em outras palavras, o terminal 100 pode mover a aba atual ou pelo menos um objeto incluído na aba atual em uma direção horizontal ou vertical em relação a uma outra aba ou ser colocada em uma outra aba. Neste momento, a direção de comutação de aba e o número de operações de comutação podem ser determinados de acordo com a direção (horizontal ou vertical) ou o formato do gesto. De acordo com a operação de comutação de aba, os objetos de uma aba desaparecem e os outros objetos de uma outra aba aparecem na tela. No caso em que não há outras abas correspondentes à entrada de gesto, o terminal 100 desvia da operação de comutação de aba e exibe uma mensagem, um icone, ou uma imagem notificando que não há uma aba alvo.
Com referência ao caso de exemplo da figura 8, o terminal 100 pode selecionar pelo menos um dos objetos apresentados na aba atual da tela de navegador da web correspondente a uma entrada de toque. O objeto pode compreender um endereço de página da web, ou um texto, uma imagem, um icone ou um flash incluindo um link para uma certa página da web. Neste momento, o terminal 100 apresenta o objeto selecionado, o qual muda de cor, fonte, espessura de linha, tamanho e efeito de sombra. O terminal pode detectar uma entrada de gesto subsequente à entrada de toque em andamento. A entrada de gesto pode compreender uma entrada de gesto de varredura feita em uma direção da esquerda para a direita. O terminal executa a operação de comutação de aba enquanto o objeto selecionado é mantido em uma posição do visor de acordo com a entrada de toque. Em outras palavras, o terminal move a aba na direção correspondente à direção de entrada de gesto. 0 terminal 100 controla de modo que os objetos da aba antiga, com exceção do objeto selecionado, desapareçam e os objetos pertencentes a uma outra aba na tela de navegador da web aparecem juntamente com o objeto selecionado. A. operação de comutação de aplicativo ou tarefa compreende uma comutação entre telas de execução do aplicativo ou tarefas para movimento de um objeto selecionado. A comutação de aplicativo ou tarefa pode ser realizada dentre os diferentes aplicativos ou tarefas predeterminados pelo usuário ou fabricante de terminal, ou dentre os aplicativos ou as tarefas que estejam rodando atualmente. O terminal 100 recebe e armazena uma lista dos aplicativos ou das tarefas disponíveis para comutação que são providos pelo usuário ou pelo fabricante de terminal. O terminal 100 identifica os aplicativos ou as tarefas rodando atualmente e realiza a operação de comutação com base nas preferências, nas frequências de uso e nos tempos de operação dos respectivos aplicativos ou tarefas. O aplicativo ou tarefa pode ser qualquer um dentre envio de mensagem, SMS, e-mail, memorando e aplicativo ou tarefa de chamada, apenas para denominar algumas possibilidades não limitantes.
De acordo com este aspecto da presente invenção, o terminal 100 executa a operação de comutação de aplicativo ou tarefa com os objetos, exceto pelo objeto selecionado na tela, enquanto mantém o objeto selecionado pela entrada de toque. Em outras palavras, o terminal 100 move os objetos (os quais podem incluir a imagem de fundo) em uma direção horizontal ou vertical para a exibição de uma outra janela de aplicativo ou tarefa na tela, enquanto mantém o objeto selecionado na posição correspondente à entrada de toque. Neste momento, a direção de comutação e o número de vezes de comutação podem ser determinados de acordo com a direção (horizontal ou vertical) ou o formato (por exemplo, o formato da mão simbolizando um certo número) da entrada de gesto. De acordo com a operação de comutação de aplicativo ou tarefa, o aplicativo ou a tarefa e os objetos pertencentes a ele desaparecem e um outro aplicativo ou tarefa e os objetos pertencentes a ele aparecem na tela. No caso em que nenhum outro aplicativo ou tarefa é almejado pela entrada de gesto, o terminal 100 exibe uma mensagem, um ícone ou uma imagem notificando que não há aplicativo ou tarefa alvo para exibição.
Com referência, agora, ao caso de exemplo da figura 9, o terminal 100 seleciona uma imagem almejada por uma entrada de toque. Neste momento, o terminal processa que a imagem é apresentada com uma forma aumentada, retraída, sombreada ou vibrando. 0 terminal 100 detecta uma entrada de gesto. 0 terminal 100 é capaz da entrada de gesto subsequente à entrada de toque em andamento. A entrada de gesto pode ser uma entrada de gesto de varredura feita na direção da direita para a esquerda. 0 terminal 100 executa a operação de comutação de aplicativo ou tarefa enquanto mantém a imagem selecionada em uma posição da entrada de toque. O terminal 100 executa a operação de comutação na direção da entrada de gesto. O terminal 100 controla de modo que os objetos com exceção da imagem selecionada se movam para a esquerda para desaparecerem e, então, os objetos pertencentes à tarefa prévia ou próxima aprecem na tela . O terminal 100 exibe o objeto selecionado, em associação com a comutação de aplicativo ou tarefa, no formato otimizado para o aplicativo ou a tarefa alvo. O terminal 100 apresenta uma imagem de visualização prévia do objeto selecionado no formato otimizado para adição, inserção, colagem e anexação ao aplicativo ou tarefa alvo. O terminal 100 exibe o objeto aumentado, retraido, rodado ou mudado na extensão no na resolução ou juntamente com um texto, uma imagem, ou um icone indicando adição, inserção, colagem ou anexação.
Com referência, agora, ao caso de exemplo da figura 9, se uma comutação de aplicativo para o aplicativo de envio de mensagem de texto for realizada, o terminal 100 exibirá a imagem selecionada em um formato anexado na janela de entrada de mensagem. Neste momento, o terminal 100 exibe um icone para aviso da anexação da imagem à mensagem de texto. Se a operação de comutação de aplicativo for realizada para o aplicativo de e-mail, o terminal 100 exibirá a imagem selecionada no formato anexado na janela de composição de correio. 0 terminal 100 exibe, a imagem no formato anexado ao correio juntamente com o código para a anexação da imagem, tal como html e xml. Neste momento, o terminal 100 exibe pelo menos um dentre o nome de arquivo, um icone, um menu de anexação de arquivo para notificação da anexação do arquivo de imagem ao e-mail.
Em seguida, o terminal 100 determina na etapa 250 se a entrada de toque é realizada.
Após a execução da operação de comutação ou se nenhuma entrada de gesto for detectada, o terminal 100 determina se uma entrada de toque está terminada. É determinado que a entrada de toque é terminada quando a entrada de toque detecta que o usuário libera o contato de um dispositivo de entrada da tela de toque do terminai 100.
Se a entrada de toque não estiver terminada, o terminal repetirá a operação de comutação correspondente à detecção de entrada de gesto. Se o usuário liberar o contato do dispositivo de entrada do terminal 100, a operação de comutação de terminal 100, então, será terminada.
Se a entrada de toque não estiver terminada, o terminal 100 repetirá a operação de comutação correspondente à detecção de entrada de gesto.
Caso contrário, se a entrada de toque estiver terminada, o terminal 100 terminará o procedimento na etapa 260 .
As operações de terminação podem compreender qualquer um dentre alinhamento do objeto selecionado em uma posição alvo pela entrada de toque, execução do link do objeto selecionado na aba do navegador da web, e colagem do objeto na tela de execução de aplicativo ou tarefa.
Na modalidade de exemplo da figura 6, se a entrada de toque estiver terminada, o terminal 100 disporá o icone selecionado na posição em que o toque foi liberado. De modo a colocar o icone na posição almejada pela entrada de toque, o terminal pode almejar mover ou rearranjar os ícones na página. O terminal 100 também pode armazenar a informação sobre a página rearranjada. No caso em que um ícone ou outro item é designado por uma batida ou um apontamento sem contato, por exemplo, que é reconhecido pela tela de toque como designando o ícone em particular ou outro item para permanecer estacionário enquanto um gesto, tal como um movimento de varredura move-se através de aplicativos, telas, etc., uma vez que um ícone ou item como esse, neste exemplo, não está sendo mantido, um outro ato reconhecido, tal como uma batida dupla ou uma outra batida, ou um movimento, pode sinalizar que o ícone ou outro item não é mais designado.
Na modalidade de exemplo mostrada na figura 7, se a entrada de toque for terminada, o terminal 100 arranjará a página pela colocação da imagem selecionada na posição em que o toque foi liberado. O terminal 100 rearranja a lista de imagens na pasta navegada para a inserção da imagem. O terminal 100 move e armazena a imagem selecionada na pasta ou endereço correspondente e atualiza a informação na pasta ou imagem.
Na modalidade de exemplo da figura 8, se a entrada de toque for terminada, o terminal 100 adicionará, inserirá, colará ou anexará o objeto selecionado na tela de execução do aplicativo ou da tarefa em que a entrada de toque foi terminada. O terminal 100 anexa a imagem selecionada a uma mensagem de texto e insere a imagem selecionada na janela de composição de mensagem. O terminal 100 também executa um modo de composição de texto e anexa a imagem selecionada à janela de composição de texto para postar a imagem selecionada em um sítio de SNS. Ά configuração do terminal 100 não está limitada às modalidades de exemplo descritas acima, mas pode ser modificada para a execução de várias operações em resposta à detecção da terminação da entrada de toque, sem que se desvie do alcance da presente invenção. O método de controle baseado em entrada de toque e gesto e o terminal para isso de acordo com a presente invenção facilitam o controle das operações do terminal com a combinação das entradas de toque e de gesto intuitivas feitas na interface de entrada melhorada.
Os métodos descritos acima de acordo com a presente invenção podem ser implementados em hardware, firmware ou como um software ou um código de computador carregado em hardware, tal como um processador ou microprocessador e executados, o código executável em máquina sendo armazenado em um meio de gravação, tal como um CD-ROM, uma RAM, um disco flexivel, um disco rigido ou um disco magnético-ótico ou um código de computador transferido (via download) por uma rede originalmente armazenada em um meio de gravação remoto ou um meio que pode ser lido em máquina não transitório e a ser armazenado em um meio não transitório de gravação local, de modo que os métodos descritos aqui possam ser apresentados nesse software que é armazenado no meio de gravação, usando-se um computador de finalidade geral, ou um processador especial ou em um hardware programável ou dedicado, tal como um ASIC ou um FPGA. Conforme seria entendido na técnica, o computador, o processador, um controlador de microprocessador ou o hardware programável inclui componentes de memória, por exemplo, uma RAM, uma ROM, um flash, uma miniatura, etc., que pode armazenar ou receber um software ou um código de computador, que, quando acessado e executado pelo computador, processador ou hardware implementam os métodos de processamento descritos aqui. Além disso, seria reconhecido que, quando um computador de finalidade geral acessasse um código para a implementação do processamento mostrado aqui, a execução do código transformaria o computador de finalidade geral em um computador de finalidade especial para execução do processamento mostrado i aqui .
Embora modalidades de exemplo da presente invenção tenham sido descritas em detalhes aqui acima com uma terminologia especifica, isto é para fins de descrição de modalidades de exemplo em particular apenas e não pretendidas para serem limitantes para a invenção. Embora modalidades de exemplo em particular da presente invenção tenham sido ilustradas e descritas, seria óbvio para aqueles versados na técnica que várias outras mudanças e modificações podem ser feitas, sem que se desvie do espirito e do escopo da invenção.
Claims (15)
1. Método para controle de um terminal, caracterizado pelo fato de compreender: a detecção de uma entrada de toque em um visor de tela de toque; a detecção de uma seleção de pelo menos um objeto de uma pluralidade de objetos correspondendo à entrada de toque do visor de tela de toque; a detecção de uma entrada de gesto por um sensor em um estado em que a entrada de toque de pelo menos um objeto é mantida na tela de toque por pelo menos um período de tempo de superposição quando o gesto é detectado; e a execução de uma comutação de uma exibição de um ou mais da pluralidade de outros objetos além de pelo menos um objeto o qual é mantido no visor de tela de toque e correspondendo à entrada de gesto em um estado em que o objeto é mantido em. uma posição da entrada de toque.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de pelo menos um objeto mantido no visor de tela de toque compreender pelo menos um dentre um icone, um texto, uma imagem, um arquivo, uma pasta, um conteúdo de um navegador da web, um endereço da web e um link da web.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de a comutação de objetos sendo exibidos enquanto pelo menos um objeto está sendo mantido compreender pelo menos uma dentre uma comutação de página, uma comutação de pasta, uma comutação de aba, uma comutação de aplicativo e uma comutação de tarefa.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de a execução de uma comutação compreender: a detecção de pelo menos um objeto correspondendo à entrada de toque; e a comutação dentre uma exibição de uma pluralidade de páginas tendo pelo menos um objeto no estado de ser mantido no visor de tela de toque.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de ainda compreender: a detecção pelo sensor de toque de uma liberação da entrada de toque do objeto selecionado sendo mantido no visor de tela de toque; e a execução pela unidade de controle de uma operação correspondente à liberação da entrada de toque para o objeto selecionado.
6. Método, de acordo com a reivindicação 5, caracterizado pelo fato de a operação correspondente à liberação da entrada de toque compreender pelo menos a execução de uma dentre a disposição do objeto em uma posição correspondente à liberação da entrada de toque, a execução de um link do objeto selecionado em uma aba do navegador da web, e a colagem do objeto em uma tela de execução do aplicativo ou da tarefa.
7. Método, de acordo com a reivindicação 5, caracterizado pelo fato de o objeto compreender pelo menos uma imagem que é colada em ou anexada a uma mensagem de texto ou a uma mensagem de e-mail.
8. Método, de acordo com a reivindicação 5, caracterizado pelo fato de o objeto compreender pelo menos uma imagem que é colada em ou anexada a um aplicativo de rede social.
9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de o gesto incluir o formato de uma das mãos.
10. Terminal, caracterizado pelo fato de compreender: uma unidade de entrada a qual detecta entradas de toque e de gesto; uma unidade de controle a qual detecta uma seleção de pelo menos um objeto de uma pluralidade de objetos correspondendo a uma entrada de toque e executa uma comutação de uma exibição de um ou mais da pluralidade de outros objetos além de pelo menos um objeto, correspondente à entrada de gesto, em um estado em que o objeto selecionado é mantido em uma posição da entrada de toque da unidade de entrada; e uma unidade de exibição a qual exibe uma tela sob o controle da unidade de controle.
11. Terminal, de acordo com a reivindicação 10, caracterizado pelo fato de a comutação realizada ser uma dentre uma comutação de página, uma comutação de pasta, uma comutação de aba, uma comutação de aplicativo e uma comutação de tarefa.
12. Terminal, de acordo com a reivindicação 10, caracterizado pelo fato de a unidade de entrada detectar uma liberação da entrada de toque, e a unidade de controle executar uma dentre a disposição do objeto selecionado em uma posição correspondente à liberação da entrada de toque, a execução de um link do objeto selecionado em uma aba do navegador da web, e a colagem do objeto selecionado em uma tela de execução do aplicativo ou da tarefa.
13. Terminal, de acordo com a reivindicação 12, caracterizado pelo fato de o objeto selecionado compreender pelo menos uma imagem que é colada em ou anexada a uma mensagem de texto ou a uma mensagem de e-mail.
14. Terminal, de acordo com a reivindicação 12, caracterizado pelo fato de o objeto selecionado compreender pelo menos uma imagem que é colada em ou anexada a um aplicativo de rede social.
15. Terminal, de acordo com a reivindicação 10, caracterizado pelo fato de o gesto incluir o formato de uma das mãos.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0077021 | 2012-07-16 | ||
KR1020120077021A KR101984154B1 (ko) | 2012-07-16 | 2012-07-16 | 터치 및 제스처 입력을 이용한 단말의 제어 방법 및 그 단말 |
Publications (2)
Publication Number | Publication Date |
---|---|
BR102013016792A2 true BR102013016792A2 (pt) | 2015-08-25 |
BR102013016792B1 BR102013016792B1 (pt) | 2021-02-23 |
Family
ID=48832759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR102013016792-4A BR102013016792B1 (pt) | 2012-07-16 | 2013-06-28 | Método de controle baseado em entrada de toque e gesto e terminalpara isso |
Country Status (10)
Country | Link |
---|---|
US (2) | US20140019910A1 (pt) |
EP (1) | EP2687971A3 (pt) |
JP (1) | JP6230836B2 (pt) |
KR (1) | KR101984154B1 (pt) |
CN (1) | CN103543943B (pt) |
AU (1) | AU2013206192B2 (pt) |
BR (1) | BR102013016792B1 (pt) |
CA (1) | CA2818248A1 (pt) |
RU (1) | RU2013129862A (pt) |
TW (1) | TWI594178B (pt) |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
CN105373313A (zh) * | 2012-07-18 | 2016-03-02 | 华为终端有限公司 | 一种用户界面的图标管理方法及触控设备 |
KR102117450B1 (ko) * | 2013-03-26 | 2020-06-01 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
US10043172B2 (en) * | 2013-05-29 | 2018-08-07 | Ebay Inc. | Tap and hold |
USD731553S1 (en) * | 2013-07-31 | 2015-06-09 | Sears Brands, L.L.C. | Display screen or portion thereof with an icon |
USD734345S1 (en) * | 2013-08-01 | 2015-07-14 | Sears Brands, L.L.C. | Display screen or portion thereof with an icon |
USD731551S1 (en) * | 2013-08-01 | 2015-06-09 | Sears Brands, L.L.C. | Display screen or portion thereof with an icon |
WO2015022498A1 (en) * | 2013-08-15 | 2015-02-19 | Elliptic Laboratories As | Touchless user interfaces |
CN104423789B (zh) * | 2013-09-09 | 2018-07-06 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US9531722B1 (en) | 2013-10-31 | 2016-12-27 | Google Inc. | Methods for generating an activity stream |
US9542457B1 (en) | 2013-11-07 | 2017-01-10 | Google Inc. | Methods for displaying object history information |
US9614880B1 (en) | 2013-11-12 | 2017-04-04 | Google Inc. | Methods for real-time notifications in an activity stream |
US10156976B2 (en) * | 2014-01-30 | 2018-12-18 | Samsung Display Co., Ltd. | System and method in managing low-latency direct control feedback |
US9509772B1 (en) | 2014-02-13 | 2016-11-29 | Google Inc. | Visualization and control of ongoing ingress actions |
CN104914982B (zh) * | 2014-03-12 | 2017-12-26 | 联想(北京)有限公司 | 一种电子设备的控制方法和装置 |
CN103902156B (zh) * | 2014-03-17 | 2017-09-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
DE102014004177A1 (de) * | 2014-03-22 | 2015-09-24 | Audi Ag | Verfahren und Vorrichtung zum Bereitstellen einer Auswahlmöglichkeit während eines Aufbaus eines Anzeigeinhalts |
WO2015160948A1 (en) * | 2014-04-16 | 2015-10-22 | Microchip Technology Incorporated | Determining touch locations and forces thereto on a touch and force sensing surface |
DE102014208502A1 (de) * | 2014-05-07 | 2015-11-12 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und Verfahren zum Wechseln zwischen Bildschirmansichten einer Anwenderschnittstelle |
US9536199B1 (en) | 2014-06-09 | 2017-01-03 | Google Inc. | Recommendations based on device usage |
US9507791B2 (en) | 2014-06-12 | 2016-11-29 | Google Inc. | Storage system user interface with floating file collection |
US10078781B2 (en) | 2014-06-13 | 2018-09-18 | Google Llc | Automatically organizing images |
CN105335043A (zh) * | 2014-08-08 | 2016-02-17 | 宏碁股份有限公司 | 窗口切换方法及执行该方法的电子装置 |
US9787812B2 (en) | 2014-08-28 | 2017-10-10 | Honda Motor Co., Ltd. | Privacy management |
JP6388203B2 (ja) * | 2014-09-08 | 2018-09-12 | 任天堂株式会社 | 電子機器 |
TWI511031B (zh) * | 2014-10-23 | 2015-12-01 | Qisda Corp | 電子裝置運作方法以及電子裝置 |
US20160139662A1 (en) * | 2014-11-14 | 2016-05-19 | Sachin Dabhade | Controlling a visual device based on a proximity between a user and the visual device |
US9870420B2 (en) | 2015-01-19 | 2018-01-16 | Google Llc | Classification and storage of documents |
CN104598113B (zh) * | 2015-01-23 | 2018-02-27 | 联想(北京)有限公司 | 一种信息处理的方法及电子设备 |
KR20160099399A (ko) * | 2015-02-12 | 2016-08-22 | 엘지전자 주식회사 | 와치 타입 단말기 |
CN104715026A (zh) * | 2015-03-03 | 2015-06-17 | 青岛海信移动通信技术股份有限公司 | 一种文件夹管理方法和智能终端 |
JP6534292B2 (ja) * | 2015-04-24 | 2019-06-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | ヘッドマウントディスプレイ、及び、ヘッドマウントディスプレイの制御方法 |
USD763898S1 (en) * | 2015-07-28 | 2016-08-16 | Microsoft Corporation | Display screen with animated graphical user interface |
CN105718768B (zh) * | 2016-01-12 | 2019-06-11 | Oppo广东移动通信有限公司 | 一种预防图标误操作的方法和装置 |
TWI609314B (zh) * | 2016-03-17 | 2017-12-21 | 鴻海精密工業股份有限公司 | 介面操作控制系統及其方法 |
CN107203319A (zh) * | 2016-03-17 | 2017-09-26 | 南宁富桂精密工业有限公司 | 界面操作控制方法及应用该方法的系统 |
US10642484B1 (en) * | 2016-03-31 | 2020-05-05 | Kyocera Document Solutions Inc. | Display device |
KR20180062832A (ko) * | 2016-12-01 | 2018-06-11 | 주식회사 하이딥 | 사용자 인터페이스 제공을 위한 터치 입력 방법 및 장치 |
JP6946857B2 (ja) * | 2017-08-24 | 2021-10-13 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
KR20190054397A (ko) * | 2017-11-13 | 2019-05-22 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
CN108446062A (zh) * | 2018-02-13 | 2018-08-24 | 广州视源电子科技股份有限公司 | 一种对象固定方法、装置、终端设备及存储介质 |
CN108491139B (zh) * | 2018-02-13 | 2020-12-25 | 广州视源电子科技股份有限公司 | 一种对象固定方法、装置、终端设备及存储介质 |
CN109539486A (zh) * | 2018-07-16 | 2019-03-29 | 珠海磐磊智能科技有限公司 | 调控系统的控制方法及系统 |
JP2020052681A (ja) * | 2018-09-26 | 2020-04-02 | シュナイダーエレクトリックホールディングス株式会社 | 操作処理装置 |
CN109743445B (zh) * | 2018-12-20 | 2020-07-17 | 惠州Tcl移动通信有限公司 | 一种应用图标的调整方法、装置、存储介质及电子设备 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0876926A (ja) * | 1994-09-02 | 1996-03-22 | Brother Ind Ltd | 画像表示装置 |
US8139028B2 (en) * | 2006-02-01 | 2012-03-20 | Synaptics Incorporated | Proximity sensor and method for indicating extended interface results |
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
JP4171770B1 (ja) * | 2008-04-24 | 2008-10-29 | 任天堂株式会社 | オブジェクト表示順変更プログラム及び装置 |
US8631340B2 (en) * | 2008-06-25 | 2014-01-14 | Microsoft Corporation | Tab management in a user interface window |
US8762879B1 (en) * | 2008-09-01 | 2014-06-24 | Google Inc. | Tab management in a browser |
JP5279646B2 (ja) * | 2008-09-03 | 2013-09-04 | キヤノン株式会社 | 情報処理装置、その動作方法及びプログラム |
US8756519B2 (en) * | 2008-09-12 | 2014-06-17 | Google Inc. | Techniques for sharing content on a web page |
JP2010157189A (ja) * | 2009-01-05 | 2010-07-15 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
TW201101198A (en) * | 2009-06-17 | 2011-01-01 | Sonix Technology Co Ltd | Command input method |
US8471824B2 (en) * | 2009-09-02 | 2013-06-25 | Amazon Technologies, Inc. | Touch-screen user interface |
CN102023784A (zh) * | 2009-09-16 | 2011-04-20 | 创新科技有限公司 | 非接触式输入字符的方法和设备 |
US9268466B2 (en) * | 2009-12-09 | 2016-02-23 | Citrix Systems, Inc. | Methods and systems for updating a dock with a user interface element representative of a remote application |
US10007393B2 (en) * | 2010-01-19 | 2018-06-26 | Apple Inc. | 3D view of file structure |
US8707174B2 (en) * | 2010-02-25 | 2014-04-22 | Microsoft Corporation | Multi-screen hold and page-flip gesture |
CN102200830A (zh) * | 2010-03-25 | 2011-09-28 | 夏普株式会社 | 基于静态手势识别的非接触控制系统和控制方法 |
US20110252349A1 (en) * | 2010-04-07 | 2011-10-13 | Imran Chaudhri | Device, Method, and Graphical User Interface for Managing Folders |
CN102033710B (zh) * | 2010-04-07 | 2015-03-11 | 苹果公司 | 用于管理文件夹的方法和相关设备 |
KR20110127853A (ko) * | 2010-05-20 | 2011-11-28 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
JP5556515B2 (ja) * | 2010-09-07 | 2014-07-23 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
TW201216090A (en) * | 2010-10-13 | 2012-04-16 | Sunwave Technology Corp | Gesture input method of remote control |
JP2012108800A (ja) * | 2010-11-18 | 2012-06-07 | Ntt Docomo Inc | 表示装置、表示装置の制御方法及びプログラム |
KR101932688B1 (ko) * | 2010-11-29 | 2018-12-28 | 삼성전자주식회사 | 휴대기기 및 이에 적용되는 ui 모드 제공 방법 |
CN102043583A (zh) * | 2010-11-30 | 2011-05-04 | 汉王科技股份有限公司 | 页面跳转方法、页面跳转装置及电子阅读装置 |
TW201224843A (en) * | 2010-12-03 | 2012-06-16 | Microlink Comm Inc | Paging method for electronic book reading device |
KR101892630B1 (ko) | 2011-01-10 | 2018-08-28 | 삼성전자주식회사 | 터치 디스플레이 장치 및 그 디스플레이 방법 |
EP2666070A4 (en) * | 2011-01-19 | 2016-10-12 | Hewlett Packard Development Co | METHOD AND SYSTEM FOR MULTIMODAL CONTROL AND GESTURE CONTROL |
US20120218203A1 (en) * | 2011-02-10 | 2012-08-30 | Kanki Noriyoshi | Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus |
US20120304059A1 (en) * | 2011-05-24 | 2012-11-29 | Microsoft Corporation | Interactive Build Instructions |
US20130067392A1 (en) * | 2011-09-12 | 2013-03-14 | Microsoft Corporation | Multi-Input Rearrange |
KR101381484B1 (ko) * | 2012-02-29 | 2014-04-07 | 주식회사 팬택 | 그래픽 오브젝트 플로팅 기능을 갖는 모바일 디바이스 및 그 실행 방법 |
US20130268837A1 (en) * | 2012-04-10 | 2013-10-10 | Google Inc. | Method and system to manage interactive content display panels |
US9740393B2 (en) * | 2012-05-18 | 2017-08-22 | Google Inc. | Processing a hover event on a touchscreen device |
-
2012
- 2012-07-16 KR KR1020120077021A patent/KR101984154B1/ko active IP Right Grant
-
2013
- 2013-05-30 US US13/905,663 patent/US20140019910A1/en not_active Abandoned
- 2013-06-05 AU AU2013206192A patent/AU2013206192B2/en active Active
- 2013-06-07 CA CA2818248A patent/CA2818248A1/en not_active Abandoned
- 2013-06-17 TW TW102121397A patent/TWI594178B/zh active
- 2013-06-28 RU RU2013129862/08A patent/RU2013129862A/ru unknown
- 2013-06-28 BR BR102013016792-4A patent/BR102013016792B1/pt not_active IP Right Cessation
- 2013-07-16 JP JP2013147767A patent/JP6230836B2/ja active Active
- 2013-07-16 EP EP13176737.8A patent/EP2687971A3/en not_active Ceased
- 2013-07-16 CN CN201310297975.0A patent/CN103543943B/zh active Active
-
2018
- 2018-01-11 US US15/868,366 patent/US20180136812A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CA2818248A1 (en) | 2014-01-16 |
CN103543943A (zh) | 2014-01-29 |
US20140019910A1 (en) | 2014-01-16 |
TWI594178B (zh) | 2017-08-01 |
JP2014021983A (ja) | 2014-02-03 |
CN103543943B (zh) | 2018-11-23 |
AU2013206192B2 (en) | 2018-08-30 |
JP6230836B2 (ja) | 2017-11-15 |
EP2687971A2 (en) | 2014-01-22 |
RU2013129862A (ru) | 2015-01-10 |
US20180136812A1 (en) | 2018-05-17 |
BR102013016792B1 (pt) | 2021-02-23 |
KR101984154B1 (ko) | 2019-05-30 |
TW201411469A (zh) | 2014-03-16 |
EP2687971A3 (en) | 2017-04-19 |
AU2013206192A1 (en) | 2014-01-30 |
KR20140010596A (ko) | 2014-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR102013016792A2 (pt) | Método de controle baseado em entrada de toque e gesto e terminal para isso | |
KR102462856B1 (ko) | 디스플레이의 확장 영역에 대한 사용 알림 제공 방법 및 이를 지원하는 전자 장치 | |
US9367161B2 (en) | Touch sensitive device with stylus-based grab and paste functionality | |
US20230065161A1 (en) | Device, Method, and Graphical User Interface for Handling Data Encoded in Machine-Readable Format | |
KR102311221B1 (ko) | 오브젝트 운용 방법 및 이를 지원하는 전자 장치 | |
EP3093755B1 (en) | Mobile terminal and control method thereof | |
KR102330829B1 (ko) | 전자 장치에서 증강현실 기능 제공 방법 및 장치 | |
US9152321B2 (en) | Touch sensitive UI technique for duplicating content | |
US20160071241A1 (en) | Landscape Springboard | |
US20130167090A1 (en) | Device, method, and storage medium storing program | |
US9891813B2 (en) | Moving an image displayed on a touchscreen of a device | |
WO2014197745A1 (en) | One handed gestures for navigating ui using touchscreen hover events | |
US20140223382A1 (en) | Z-shaped gesture for touch sensitive ui undo, delete, and clear functions | |
BR112013006616B1 (pt) | aparelho e método para detectar objeto com base em proximidade da superfície de entrada, item de informação associado e de distância do objeto | |
JP2015041271A (ja) | 情報処理装置、記憶媒体、および制御方法 | |
US9864514B2 (en) | Method and electronic device for displaying virtual keypad | |
US20130111382A1 (en) | Data collection interaction using customized layouts | |
US20160004406A1 (en) | Electronic device and method of displaying a screen in the electronic device | |
TW201344525A (zh) | 觸控式電子裝置及其頁面內容存儲方法 | |
CN105260114A (zh) | 电子设备及显示控制方法 | |
US20150149894A1 (en) | Electronic device, method and storage medium | |
KR20150012010A (ko) | 사용자 단말에 표시되는 아이콘 그룹핑 수행장치, 수행방법 및 그 기록매체 | |
US9377945B2 (en) | Method and apparatus for managing file using thumbnail | |
KR101325535B1 (ko) | 화면 출력을 제어하는 방법, 단말기 및 기록매체 | |
GB2535755A (en) | Method and apparatus for managing graphical user interface items |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B03A | Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette] | ||
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 28/06/2013, OBSERVADAS AS CONDICOES LEGAIS. |
|
B21F | Lapse acc. art. 78, item iv - on non-payment of the annual fees in time |
Free format text: REFERENTE A 11A ANUIDADE. |