BR112013009161B1 - Aparelho e metodo para controlar interface de usuario baseada em movimento - Google Patents

Aparelho e metodo para controlar interface de usuario baseada em movimento Download PDF

Info

Publication number
BR112013009161B1
BR112013009161B1 BR112013009161-4A BR112013009161A BR112013009161B1 BR 112013009161 B1 BR112013009161 B1 BR 112013009161B1 BR 112013009161 A BR112013009161 A BR 112013009161A BR 112013009161 B1 BR112013009161 B1 BR 112013009161B1
Authority
BR
Brazil
Prior art keywords
image
movement
touched
points
touchscreen
Prior art date
Application number
BR112013009161-4A
Other languages
English (en)
Other versions
BR112013009161A2 (pt
Inventor
Hyun-Su Hong
Yung-Keun Jung
Jae-Myeon Lee
Il-hwan Kim
Original Assignee
Samsung Electronics Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co., Ltd filed Critical Samsung Electronics Co., Ltd
Publication of BR112013009161A2 publication Critical patent/BR112013009161A2/pt
Publication of BR112013009161B1 publication Critical patent/BR112013009161B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

APARELHO E MÉTODO PARA CONTROLAR INTERFACE DE USUÁRIO BASEADA EM MOVIMENTO. Um método e um aparelho para controlar uma interface de usuário baseada em movimento são fornecidos, em que uma tela sensível ao toque exibe uma imagem e recebe entrada de um toque de usuário em pelo menos um ponto, uma unidade de sensor detecta um movimento do aparelho, um calculador de movimento calcula um grau do movimento do aparelho, ao detectar o movimento do aparelho no sensor, e quando o pelo menos um ponto é tocado na tela sensível ao toque, um controlador determina o número de pontos tocados, recebe informação sobre o grau do movimento do aparelho a partir do calculador de movimento, e determina se altera o tamanho da imagem ou a posição da imagem de acordo com o número de pontos tocados.

Description

CAMPO TÉCNICO
A presente invenção refere-se a uma interface de usuário, e, mais particularmente, a um aparelho e método para controlar uma interface de acordo com um movimento que um terminal móvel fez.
ANTECEDENTES DA TÉCNICA
Atualmente, dispositivos eletrônicos, tais como televisores, tocadores MP3, tocadores multimídia portáteis (PMPs), telefones inteligentes, etc são equipados com uma variedade de dispositivos de entrada / saída, a fim de permitir um usuário controlar convenientemente o dispositivo eletrônico.
Entre os dispositivos de entrada / saída, a utilização de telefones inteligentes, recentemente, aumentou exponencialmente. Especialmente, a proporção do uso de painéis sensíveis ao toque está aumentando gradualmente no mercado de terminais móveis incluindo um telefone portátil, um telefone inteligente, e um laptop. Como os painéis de tela sensível ao toque são esperados para ganhar mais popularidade na maioria dos telefones inteligentes, o mercado de telas sensíveis ao toque para os terminais móveis será rapidamente aumentado. Painéis de tela sensível ao toque também são amplamente utilizados em aparelhos eletrônicos, como TVs ou refrigeradores. 0 mercado de aparelhos eletrônicos será o segundo na classificação na adoção de painéis de tela sensível ao toque, seguindo o mercado de terminal móvel.
Recentemente, uma extensa pesquisa foi feita emreconhecimento de intenção e ação do usuário com base na informação visual, para interação natural entre um usuário e uma tela sensível ao toque. Particularmente, uma interface de usuário amigável está configurada para reconhecer uma entrada de gesto por um dedo ou uma caneta de toque. A tendência de interfaces de usuário agora está mudando de uma interface que opera de acordo com uma entrada de toque único baseada em dedo único em uma tela sensível ao toque a uma interface que opera de acordo com uma entrada de múltiplos toques baseada em múltiplos dedos em uma tela sensível ao toque.
A tela sensível ao toque é uma pilha de um plano para a detecção de uma entrada e um plano servindo como um monitor. Portanto, a intenção do usuário pode ser analisada e percebida a partir de uma entrada de múltiplos toques na tela sensível ao toque e resultados de análise e percepção podem ser emitidos na tela sensível ao toque. Especialmente uma interface de usuário baseada em múltiplos toques é projetada de tal forma que o número de toques de dedo / toques de caneta na tela sensível ao toque e uma operação associada são reconhecidos e um comando associado é executado. A estrutura interior de um terminal móvel suportando entrada de múltiplos toques será descrita a seguir.
A Figura 1 é um diagrama de blocos de um terminal móvel convencional suportando entrada de múltiplos toques.Na Figura 1, o terminal móvel inclui uma unidade de saída 101, um controlador 103, uma memória 105, e uma unidade de entrada 107.
Referindo à Figura 1, a unidade de saida 101 emite umaimagem como um desenho ou uma página da internet em uma tela sensível ao toque. A imagem, tais como um desenho ou uma página da internet é armazenada na memória 105. Quando a imagem é emitida na tela sensível ao toque, o usuário pode ampliar ou diminuir a imagem usando a unidade de entrada 107 de acordo com a seleção de usuário. Uma parte destinada da imagem exibida na tela sensível ao toque pode ser ampliada ou contraída por tocá-la com dois dedos simultaneamente. Em vez dos dedos, uma caneta de toque pode ser usada. Após a entrada de toques múltiplos através da unidade de entrada 107, o controlador 103 controla a unidade de saída 101 para exibir a área multitocada ampliada ou reduzida na tela sensível ao toque.
Uma operação exemplar realizada mediante entrada de toques múltiplos no terminal móvel tendo a configuração ilustrada na Figura 1 será descrita abaixo.
As Figuras 2A e 2B ilustram uma operação convencional exemplar realizada mediante a entrada de toques múltiplos. A operação é especificamente para ampliar uma área específica por múltiplos toques em uma tela sensível ao toque.
Referindo à Figura 2A, um usuário toca a tela sensível ao coque 201 com dois dedós 205 em um movimento de compressão para ampliar uma imagem de carro 203 exibida em uma tela sensível ao toque 201 . A área ampliada pode ser diferente dependendo de uma posição na qual os dois dedos 205 tocam. Referindo à Figura 2B, a imagem de carro 203 é ampliada por espalhar os dois dedos 205 na tela sensível ao toque 201. O grau em que a imagem de carro 203 é ampliada pode depender da distância entre os dois dedos 205espalhados uns dos outros.
Embora somente a operação de alargamento de uma imagem seja ilustrada nas Figuras 2A e 2B, a imagem ampliada pode também ser diminuída utilizando os dois dedos 205.
Convencionalmente, a relação de mais zoom ou menos zoom de uma parte predeterminada da tela sensível ao toque pode ser ajustada apenas pressionando uma tecla de mais zoom ou menos zoom predefinida ou fazer toques múltiplos. Quando um usuário deseja ir de uma página para outra página ou de uma parte para outra parte na mesma página, o usuário deve pressionar uma tecla de movimento predefinida ou tocar e arrastar uma área da tela sensível ao toque. Isto significa que para mais zoom e menos zoom contínuo, o usuário deve fazer consecutivas entradas de tecla ou contínuos toques múltiplos. Além disso, para se deslocar de Uma parte especifica para outra parte na mesma página, o usuário deve inconvenientemente entrar teclas sucessivamente ou fazer contínuos toque-e-arrasta. Por isso, é difícil executar rápida e precisamente uma operação pretendida por usuário simplesmente com uma entrada na tela sensível ao toque ou um gesto desenhado na tela sensível ao toque.
DIVULGAÇÃO DA INVENÇÃO PROBLEMA TÉCNICO
Um aspecto das modalidades da presente invenção é o de resolver pelo menos os problemas e/ou desvantagens e proporcionar pelo menos as vantagens descritas a seguir. Por conseguinte, um aspecto das modalidades da presente invenção é o de proporcionar um aparelho e um método para controlar uma interface de Usuário de modo que uma imagempode ser ampliada, encolhida, e movida com base em um movimento.
SOLUÇÃO PARA O PROBLEMA
De acordo com uma modalidade da presente invenção, e fornecido um aparelho para controlar uma interface de usuário baseada em movimento, em que uma tela sensivel ao toque exibe uma imagem e recebe a entrada de um toque de usuário em pelo menos um ponto, uma unidade de sensor detecta um movimento do aparelho, um calculador de movimento calcula um grau do movimento do aparelho, ao detectar o movimento do aparelho na unidade de sensor, e quando o pelo menos um ponto é tocado na tela sensível ao toque, um controlador determina o número de pontos tocados, recebe informação sobre o grau do movimento do aparelho a partir do calculador de movimento, e determina se altera o tamanho da imagem ou a posição da imagem de acordo com o número de pontos tocados.
De acordo com outra modalidade da presente invenção, é fornecido um método para controlar uma interface de usuário baseada em movimento, em que uma imagem é exibida na tela sensível ao toque, o número de pontos tocados é determinado, quando pelo menos um ponto é tocado na tela sensível ao toque, determina-se se alterar o tamanho da imagem ôu a posição da imagem de acordo com o número de pontos tocados, e o tamanho da imagem ou a posição da imagem é alterada de acorde com o movimento de um aparelho incluindo á tela sensível ao toque.
EFEITOS VANTAJOSOS DA INVENÇÃO
De acordo com o aparelho e método da presente invenção, o usuário pode facilmente ampliar, diminuir, emover uma imagem através de um movimento.
BREVE DESCRIÇÃO DOS DESENHOS
Os objetos, características e vantagens acima e outros das determinadas modalidades da presente invenção serão mais evidentes a partir da seguinte descrição detalhada tomada em conjunto com os desenhos anexos, em que:
A Figura 1 é um diagrama de blocos de um terminal móvel convencional suportando entrada de múltiplos toques
As Figuras 2A e 2B ilustram uma operação convencional exemplar que é realizada com base em uma entrada de múltiplos toques
A Figura 3 é um diagrama de blocos de um terminal móvel para controlar uma interface de usuário baseada em movimento de acordo com uma modalidade da presente invenção,
As Figuras 4A a 5C são vistas exemplares ilustrando movimentos do terminal móvel de acordo com a modalidade da presente invenção,
As Figuras 6A e 6B são vistas exemplares ilustrando uma operação para alargar ou encolher uma imagem de acordo com uma modalidade da presente invenção;
As Figuras 7A e 7B são vistas exemplares ilustrando uma operação para mover uma imagem de acordo com uma modalidade da presente invenção;
As Figuras 8A e 8B são vistas exemplares ilustrando operações para controlar uma interface de usuário baseada em movimento utilizando as teclas predeterminadas de acordo com uma modalidade da presente invenção; e
A Figura 9 é um fluxograma ilustrando uma operação para controlar uma interface de usuário baseada emmovimento de acordo com uma modalidade da presente invenção.
Ao longo dos desenhos, os mesmos numerais de referência de desenho serão entendidos para se referir aos mesmos elementos, características e estruturas.
MODO PARA A INVENÇÃO
Referência será feita agora em detalhe às modalidades preferidas da presente invenção, com referência aos desenhos anexos. Embora os detalhes específicos tais como os componentes são descritos na descrição que segue, eles são fornecidos para ajudar a compreensão completa da presente invenção e está claramente entendido pelos peritos na arte que variações e modificações podem ser feitas nos detalhes dentro do âmbito e do espírito da presente invenção.
A Figura 3 é um diagrama de blocos de um terminal móvel para controlar uma interface de usuário baseada em movimento de acordo com uma modalidade da presente invenção. Na Figura 3, o terminal móvel inclui uma unidade de saída 301, um controlador 303, uma memória 305, uma unidade de entrada 307, um calculador de movimento 309, e uma unidade de sensor 311.
Referindo à Figura 3, a unidade de saída 301 emite uma imagem, como uma foto ou uma página da internet em uma tela sensível ao toque. A imagem, como uma foto ou uma página da internet, é armazenada na memória 305. Quando necessário, uma outra imagem armazenada na memória 305 pode ser usada ou um foto pretendida pode ser capturada usando um módulo de câmara equipado no terminal móvel.
A unidade de entrada 307 recebe informação sobre onúmero de pontos tocados na tela sensível ao toque, um arraste feito na tela sensível ao toque, etc. 0 calculador de movimento 309 calcula a direção do movimento ou ângulo do terminal móvel e transmite informação sobre a direção de movimento calculada ou ângulo para o controlador 303. O terminal móvel pode, basicamente, mover para cima, para baixo, para a esquerda e para a direita. Além disso, o terminai móvel pode mover para frente na direção horizontal aproximando do usuário ou para trás na direção horizontal afastando do usuário. 0 ângulo em que o terminal móvel moveu é calculado para ser um ângulo em que o terminal móvel é inclinado em relação a uma posição atual definida como 0 graus. O calculador de movimento 309 utiliza a unidade de sensor 3.11 para calcular a direção de movimento ou o ângulo do terminal móvel. Mais especificamentè, o calculador de movimento 309 calcula uma direção ou ângulo em que o terminal móvel moveu através de um sensor de giroscópio entre um ou mais sensores da unidade de sensor 311. O sensor de giroscópio é um sensor adaptado para detectar rotações além das funções de um sensor de aceleração e, portanto, acompanhar os movimentos em seis eixos. Portanto, em comparação com o sensor de aceleração, o sensor de giroscópio pode detectar movimentos mais precisos. 0 sensor de giroscópio detecta altura e inclinação de rotação bem como aceleração e desaceleração.
O controlador 303 recebe informação sobre o número de pontos tocados e informação sobre um toque e arraste na tela sensível ao toque a partir da unidade de entrada 307, recebe informação sobre um movimento calculado do terminal móvel a partir do calculador de movimento 309, e controlaumã imagem exibida na tela sensível ao toque de uma forma diferente de acordo com o número de pontos tocados.
Se dois ou mais pontos sâo tocados em qualquer área da tela sensível ao toque, o controlador 303 determina a entrada de múltiplos toques para ser um comando para ampliar ou diminuir uma imagem exibida na tela sensível ao toque e aumenta ou diminui a imagem de acordo com a informação sobre uma alteração no movimento do terminal móvel recebida a partir do calculador de movimento 309. Por exemplo, quando dois pontos são tocados em qualquer área da tela sensível ao toque e o terminal móvel é trazido para perto do usuário em um ângulo inalterado ou a tela sensível ao toque do terminal móvel está inclinada para frente com respeito ao usuário, a imagem é ampliada. Por outro lado, quando o terminal móvel se afasta do usuário em um ângulo inalterado ou a tela sensível ao toque do terminal móvel é reclinada para trás a partir do usuário, a imagem é encolhida. Este método tem os mesmos efeitos obtidos no esquema de múltiplos toques convencional em qüe uma imagem é ampliada ou reduzida com dois dedos, o que será evidente a partir da descrição das Figuras 4A, 4B e 4C.
As Figuras 4A, 4B e 4C são vistas exemplares ilustrando movimentos do terminal móvel de acordo com uma modalidade da presente invenção. Nas Figuras 4A, 4B e 4C, é assumido que um usuário toca dois pontos na tela sensível ao toque.
Referindo à Figura 4A, quando o usuário puxa o terminal móvel na direção de eixo Z com o ângulo atual do terminal móvel inalterada, de frente para a tela sensível ao toque do terminal móvel, ao tocar quaisquer dois pontosna tela sensível ao toque do terminal móvel, uma imagem exibida é ampliada. Pelo contrário, quando o usuário empurra o terminal móvel na direção do eixo Z, de frente para a tela sensível ao toque do terminal móvel, a imagem exibida é reduzida. A Figura 4B é uma vista lateral do terminal móvel, que ilustra um percurso em que o terminal móvel é movido. Note-se a partir da Figura 4B que o terminal móvel é movido apenas na direção de eixo Z ou eixo — Z sem uma alteração no seu ângulo. A Figura 4C ilustra uma variação na inclinação do terminal móvel, com os eixos Y e -Y definidos como um eixo de rotação. Uma imagem exibida na tela sensível ao toque pode ser aumentada ou diminuída, inclinando o terminal móvel para frente ou para trás em relação ao usuário.
Se o usuário toca um ponto em qualquer área da tela sensível ao toque, o controlador 303 determina a entrada de um único toque para ser um comando para mover uma imagem exibida na tela sensível ao toque e move a imagem para cima, para baixo, para a esquerda, ou para a direita de acordo com a informação a respeito de uma alteração do movimento do terminal móvel recebida do calculador de movimento 309. Por exemplo, se o usuário move o terminal móvel para a esquerda ou gira o terminal móvel para a esquerda, enquanto toca um ponto em qualquer área da tela sensível ao toque, uma imagem exibida é movida para á esquerda. Isto é, o mesmo efeito que com um esquema para mover uma image» em uma direção destinada ao tocar e arrastar uma área da tela sensível ao toque é alcançado, o que será evidente a partir da Figura 5.
As Figuras 5A, 5B e 5C ilustram movimentos do terminalmóvel de acordo com uma modalidade da presente invenção. Nas Figuras 5A, 5B e 5C, é assumido que o usuário toca um ponto na tela sensível ao toque.
Referindo à Figura 5A, quando o usuário move o terminal móvel na direção de eixo X, eixo -X, eixo Y ou eixo -Y, ao tocar um ponto na tela sensível ao toque do terminal móvel com o ângulo atual do terminal móvel inalterado, uma imagem exibida na tela sensível ao toque move na direção em que o terminal móvel é movido. Figura 5B ilustra alterações na rotação do terminal móvel, com os Eixos Z e -2 definidos como um eixo de rotação e Figura 5C ilustra as alterações na rotação do terminal móvel, com eixos Y e -Y definidos como um eixo de rotação. Se a eixos Z e -Z são definidos como um eixo de rotação e o terminal móvel é girado para a direita ou para a esquerda nos Eixos Y e -Y, a imagem exibida pode mover lateralmente. Por outro lado, se os eixos Y e -Y são definidos como um eixo de rotação e a tela sensível ao toque do terminal móvel está inclinada ou reclinada nos eixos Y e -Y, a imagem exibida pode mover para cima ou para baixo.
Se os eixos Y e *-Y são definidos um eixo de rotação, a imagem exibida pode ser transformada de forma diferente de acordo com o número de pontos tocados na tela sensível ao toque. Na Figura 4C, a imagem é ampliada ou reduzida, enquanto que na Figura 5C, a imagem é deslocada para cima ou para baixo.
Tal como é feito convencionalmente, o controlador 303 pode também controlar uma imagem exibida na tela sensível ao toque em correspondência com um gesto tal como um arraste que pode ocorrer após um toque de pelo menos umponto em qualquer área da tela sensível ao toque. Por exemplo, se um ponto é tocado em qualquer área da tela sensível ao toque e o ponto tocado é arrastado para a esquerda, a imagem da tela pode ser movida para a esquerda ou a próxima imagem pode ser exibida. Se ciois pontos são tocados na tela sensível ao toque, a imagem pode ser ampliada ou reduzida de acordo com um esquema de múltiplos toques convencional.
Agora, uma descrição será dada de uma operação para controlar uma imagem exibida, com referência à Figura 3.
As Figuras 6A e 6B são vistas exemplares ilustrando Uma operação para aumentar ou diminuir uma imagem de acordo com uma moda?idade da presente invenção.
Referindo à Figura 6A, o usuário puxa o terminal móvel, agarrando a tela sensível ao toque para que dois pontos em qualquer área da tela sensível ao toque sejam tocados, durante a visualização da tela sensível ao toque. A imagem apresentada é ampliada em correspondência com o movimento de puxar. A Figura 6B é uma vista lateral ilustrando o usuário puxando o terminal móvel. Note-se que a imagem é aumentada simplesmente por trazer o terminal móvel para mais perto do usuário, como ilustrado nas Figuras 4A e 4B, sem inclinar o terminal móvel para frente em relação ao usuário.
Embora não mostrado nas Figuras 6A e 6B, quando o usuário empurrar o terminal móvel para trás, agarrando a tela sensível ao toque para que dois pontos em qualquer área da tela sensível ao toque sejam tocados, durante a visualização da tela sensível ao toque, a imagem exibida pode ser reduzida. A função de ampliação de uma imagem porpuxar o terminal móvel e encolher uma imagem por empurrar o terminal móvel pode ser modificada por uma configuração de usuário. Por exemplo, a função pode ser alterada de tal modo que uma imagem é reduzida ao puxar o terminal móvel e aumentada ao empurrar o terminal móvel,
A relação de mais zoom ou menos zoom de uma imagem pode ser configurada para ser proporcional a uma medição de ângulo de rotação em cada direção de eixo ilustrada na Figura 4A a 5C, usando o sensor de giroscópio incluído na unidade de sensor 311 do terminal móvel deslocado de acordo com um movimento de usuário. Na situação em que esta função de mais zoom ou menos zoom de imagem está disponível, o usuário pode ampliar ou reduzir uma imagem de acordo com o esquema de múltiplos toques convencional. Durante a função de mais zoom ou menos zoom baseada em múltiplos roques convencional em curso, a função de mais zoom ou menos zoom de imagem baseada em movimento pode ser desativada para evitar interferência mútua entre as função de mais zoom ou menos zoom convencional e proposta.
Se apenas um ponto é tocado ou nenhum toque é feito na tela sensível ao toque, a operação de mais zoom ou menos zoom de imagem é desativada na invenção.
As Fiquras 7A e 7B são vistas exemplares ilustrando uma operação para mover uma imagem de acordo com uma modalidade da presente invenção.
Referindo à Figura 7A, o usuário move o terminal móvel a partir da esquerda para a direita, visualizando a tela sensível ao toque, enquanto agarrando o terminal móvel para que um ponto seja tocado em qualquer área da tela sensível ao toque. Uma imagem exibidana tela sensível ao toque movea partir da dáreita para a esquerda eπi. correspondência com o movimento do terminal móvel.
Referindo à Figura 7B focalizando na tela sensível ao toque, a tela sensível ao toque da esquerda apresenta uma imagem antes do movimento, e a tela sensível ao toque da direita mostra uma saída de imagem quando o terminal móvel move a partir da esquerda para a direita. À medida que a imagem move, uma imagem escondida no lado direito fora da tela aparece na tela. No caso em que uma pluralidade de imagens estão dispostas, as imagens podem mostrar-se sequencialmente na tela por mover o terminal móvel.
A distância para a qual uma imagem move pode ser configurada para ser proporcional à medida de ângulo de rotação em cada direção de eixo ilustrada nas Figuras 4A a 5C, utilizando o sensor de giroscópio incluído na unidade de sensor 311 do terminal móvel deslocado de acordo com um movimento do usuário. Na situação em que esta função de deslocamento de imagem está disponível, o usuário pode mover uma imagem tocando em um ponto e arrastando o toque na tela sensível ao toque. Durante a função de arrastar em progresso, a função de deslocamento baseada em movimento da imagem pode ser desativada para evitar interferências mútuas entre a função de arrastar e a função de deslocamento de imagem da presente invenção.
Se apenas um ponto é locado ou nenhum toque é feito na tela sensível ao toque, a operação de deslocamento de imagem é desativada na invenção.
Enquanto é descrito de acordo com a presente invenção que uma imagem exibida pode ser controlada de uma forma diferente de acordo com o número de pontos tocados emqualquer área da tela sensível ao toque, o mesmo pode ser alcançado através da atribuição de teclas especificas e controlando a imagem exibida de acordo com o número de teclas pressionadas, o que será descrito a seguir.
As Figuras 8A e 8B são vistas exemplares ilustrando uma operação para controlar uma interface de usuário baseada em movimento utilizando teclas específicas atribuídas de acordo com uma modalidade da presente invenção.
Referindo à Figura 8A, quando o usuário pressiona botões de dígitos 1 e 3 ao mesmo tempo ou em um intervalo predeterminado em um teclado durante a execução de um visualizador de imagem, o terminal móvel pode ser configurado para reconhecer o movimento como um comando para aumentar ou diminuir uma imagem exibida. De acordo com um movimento subsequente do terminal móvel, a imagem exibida pode ser ampliada ou reduzida.
Referindo à Figura 8B, quando o usuário pressiona um dos botões de dígitos 1 e 3 do teclado durante a execução do visualizador de imagens, o terminal móvel pode ser configurado para reconhecer o movimento como um comando para o deslocamento de uma imagem exibida. Enquanto isso, o teclado pode ser substituído com botões que operam a partir de toques de usuário.
A Figura 9 é um fluxograma ilustrando uma operação para concrolar uma interface de usuário baseada em movimento de acordo com uma modalidade da presente invenção.
Referindo à Figura 9, após o recebimento de uma entrada de usuário, o terminal móvel executa umvisualizador de imagens para exibir uma imagem, como uma foto ou página da internet na etapa 901. A imagem é armazenada na memória 305. Se o terminal móvel é habilitado com Internet sem fio, ele pode exibir uma página da internet sem executar o visualizador de imagem. Em 903, o terminal móvel determina se uma entrada de toque foi detectada através da unidade de entrada 307.Se uma entrada de toque não foi detectada, o terminal móvel continua executando o visualizador de imagens no passo 901.Após a detecção de.uma entrada de toque, o terminal móvel passa para a etapa 905.
No passo 905, o terminal móvel conta o número de pontos tocados na tela sensível ao toque e controla uma imagem exibida de maneira diferente de acordo com o número de pontos tocados. Se dois ou mais pontos foram tocados, o terminal móvel determina ampliar ou diminuir a imagem e começa a detectar um movimento do terminal móvel. No passo 907, se o terminal movei move para frente ou para trás ou é inclinado para frente em relação ao usuário ou reclinado para trás conforme ilustrado nas Figuras 4A, 4B e 4C, o terminal móvel calcula um grau em que o terminal móvel move para cima, para baixo, para a esquerda, para a direita, para trás, ou para frente ou um grau em que o aparelho está inclinado para frente, reclinado para trás, girado para a esquerda, ou girado para a direita, utilizando um sensor de giroscópio incluído na unidade de sensor e aumenta ou diminui a imagem em correspondência com o grau calculado. 0 movimento do terminal móvel é detectado pelo sensor de giroscópio da unidade de sensor 311 e a distância para a qual o terminal móvel moveu ou o grau para o qual oterminal móvel foi inclinado é calculado pelo calculador de movimento 309. Além disso, dois ou mais botões podem ser atribuídos e pressionados em vez de dois pontos, de modo a ampliar ou reduzir a imagem.
Se um ún:iço ponto foi tocado, o terminal móvel determina deslocar a imagem e começa a detectar um movimento do terminal móvel. Quando o terminal móvel move para cima, para baixo, para a esquerda ou para a direita, ou é inclinado para frente, reclinado para trás, girado para a esquerda, ou girado para a direita, como ilustrado nas Figuras 5A, 5B e 5C, a distância movida ou inclinação ou grau de rotação do terminal móvel é calculado e a imagem é deslocada em uma direção correspondente ao grau calculado. Como indicado acima, o movimento do terminal móvel é detectado pelo sensor de giroscópio da unidade de sensor 311 e a distância para a qual o terminal móvel moveu ou o grau para o qual o terminal móvel foi inclinado é calculado pelo calculador de movimento 309. Além disso, um botão específico pode ser atribuído e pressionado em vez de um ponto de modo a deslocar a imagem.
Embora a presente invenção tenha sido particularmente mostrada e descrita com referência a modalidades da mesma, deverá ser entendido por aqueles peritos na arte que várias alterações na forma e detalhes podem ser feitas sem afastamento do espírito e do âmbito da presente invenção,conforme definido pelas reivindicações que seguem.

Claims (6)

1.Aparelho para controlar uma interface de usuário baseada em movimento, o aparelho caracterizado pelo fato de que compreende: uma tela sensivel ao toque (307) configurada para exibir uma imagem e receber entrada de um toque de usuário em pelo menos um ponto; uma unidade de sensor (311) configurado para detecção de um movimento do aparelho; e um controlador (303) configurado para: quando o pelo menos um ponto é tocado na tela sensivel ao toque, determina um número de pontos tocados; e obter informação correspondendo ao movimento do aparelho, em que o controlador (303) é ainda configurado para determinar se o número de pontos tocados são dois ou mais, se os pontos tocados se movimentam, e se o movimento do aparelho é detectado, em que se número de pontos tocados são dois ou mais, os pontos tocados não se movimentam, e o movimento do aparelho é detectado, o controlador (303) é ainda configurado para: exibir uma imagem na tela sensivel ao toque diminuindo o zoom da imagem baseada na determinação de que a informação indica que o aparelho de movimentou se afastando do usuário; ou exibir a imagem na tela sensivel ao toque aumentando o zoom na imagem baseada na determinação de que a informação indica que o aparelho se movimentou se aproximando do usuário, e em que se o número de pontos tocados são dois ou mais e os pontos tocados se movimentam, o controlador é ainda configurado para desativar a função de aumentar e diminuiro zoom baseado na movimentação, e exibir uma imagem na tela sensivel ao toque aumentando ou diminuindo o zoom da imagem baseado na movimentação dos pontos tocados.
2.Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que se o número de pontos tocados é 1, o controlador (303) é configurado para reconhecer o toque do usuário correspondendo aos pontos tocados como um comando para o deslocamento da imagem, obter informações relacionadas ao movimento do aparelho para deslocamento da imagem na tela sensivel ao toque, e deslocar a imagem baseado nas informações obtidas para o deslocamento da imagem.
3.Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que ainda compreende: um calculador de movimento (309) que é configurado para calcular: um grau de movimento do aparelho incluindo um grau em que o aparelho move para cima, para baixo, para a esquerda, para a direita, para trás, ou para frente usando um sensor de aceleração incluido na unidade sensor (311); ou um grau em que o aparelho está inclinado para frente, reclinado para trás, girado para a esquerda, ou girado para a direita utilizando um sensor de giroscópio incluido na unidade de sensor, em que o controlador (303) é configurado para determinar a informação relacionada ao movimento do aparelho baseado no grau do movimento do aparelho recebido do calculador de movimento (309).
4.Método para controlar uma interface de usuário baseada em movimento, o método caracterizado pelo fato de que compreende: exibir uma imagem em um tela sensivel ao toque (901); detectar um movimento do aparelho em uma unidade de sensor (903); determinar um número de pontos tocados, quando pelo menos um ponto é tocado na tela sensivel ao toque (905); e determinar se os pontos tocados se movimentam, em que se o número de pontos de toque são dois ou mais, os pontos de toque não se movimentam, e o movimento do aparelho é detectado, o método ainda compreende: exibir um imagem na tela sensivel ao toque diminuindo o zoom da imagem baseado em uma determinação que a informação correspondente ao movimento do aparelho indica que o aparelho se movimenta se afastando do usuário; ou exibir a imagem na tela sensivel ao toque aumentando o zoom da imagem baseado em uma determinação que a informação correspondente ao movimento do aparelho indica que o aparelho se movimenta se aproximando do usuário (907), e em que se o número de pontos tocados são dois ou mais e os pontos tocados se movimentam, o método ainda compreende em desativar a função de aumentar e diminuir o zoom baseado na movimentação, e exibir uma imagem na tela sensivel ao toque aumentando ou diminuindo o zoom da imagem baseado no movimento dos pontos tocados.
5.Método, de acordo com a reivindicação 4, caracterizado pelo fato de que ainda compreende: se o número de pontos tocados é um, reconhece o toque do usuário correspondendo aos pontos tocados como um comando para desclocar a imagem; obter informações relacionadas ao movimento do aparelho para deslocar a imagem na tela sensivel ao toque; e deslocar a imagem baseada na informação obtida para deslocar a imagem.
6.Método, de acordo com a reivindicação 4, caracterizado pelo fato de que a informação relacionada ao movimento do aparelho ser determinada baseada em um grau do movimento do aparelho que é medido pelo cálculo de um grau em que o 5 aparelho se move para cima, para baixo, para a esquerda, para a direita, para trás, ou para frente ou um grau em que o aparelho é inclinado para frente, para trás, para a esquerda ou para a direita.
BR112013009161-4A 2010-10-14 2011-10-13 Aparelho e metodo para controlar interface de usuario baseada em movimento BR112013009161B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2010-0100435 2010-10-14
KR1020100100435A KR101915615B1 (ko) 2010-10-14 2010-10-14 모션 기반 사용자 인터페이스 제어 장치 및 방법
PCT/KR2011/007628 WO2012050377A2 (en) 2010-10-14 2011-10-13 Apparatus and method for controlling motion-based user interface

Publications (2)

Publication Number Publication Date
BR112013009161A2 BR112013009161A2 (pt) 2016-07-26
BR112013009161B1 true BR112013009161B1 (pt) 2020-11-24

Family

ID=45938811

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112013009161-4A BR112013009161B1 (pt) 2010-10-14 2011-10-13 Aparelho e metodo para controlar interface de usuario baseada em movimento

Country Status (9)

Country Link
US (2) US9588613B2 (pt)
EP (2) EP3543832B1 (pt)
JP (2) JP5828000B2 (pt)
KR (1) KR101915615B1 (pt)
CN (2) CN107066045A (pt)
AU (1) AU2011314532B2 (pt)
BR (1) BR112013009161B1 (pt)
RU (1) RU2541852C2 (pt)
WO (1) WO2012050377A2 (pt)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068049B2 (en) * 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
CN103389849B (zh) * 2012-05-07 2018-10-16 腾讯科技(北京)有限公司 一种基于移动终端的图像展示方法、系统和移动终端
JP2014078823A (ja) * 2012-10-10 2014-05-01 Nec Saitama Ltd 携帯電子機器、その制御方法及びプログラム
KR101990036B1 (ko) 2012-10-31 2019-06-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9110561B2 (en) 2013-08-12 2015-08-18 Apple Inc. Context sensitive actions
CN110413054B (zh) * 2013-08-12 2023-04-28 苹果公司 响应于触摸输入的上下文敏感动作
JP6195361B2 (ja) * 2013-08-21 2017-09-13 キヤノン株式会社 画像処理装置、制御方法及びプログラム
CN103455257A (zh) * 2013-08-30 2013-12-18 华为技术有限公司 一种电子放大镜的实现方法及用户终端
CN103699322A (zh) * 2013-12-19 2014-04-02 北京百纳威尔科技有限公司 图像缩放处理方法和装置
CN104951218B (zh) * 2014-03-25 2019-03-05 宏碁股份有限公司 行动装置及调整视窗大小的方法
IN2014DE00899A (pt) 2014-03-28 2015-10-02 Samsung Electronics Co Ltd
EP3130994A4 (en) * 2014-04-07 2018-01-03 Sony Corporation Display control device, display control method, and program
KR20150124710A (ko) * 2014-04-29 2015-11-06 엘지전자 주식회사 폴리오 케이스 및 이동 단말기
CN104216634A (zh) * 2014-08-27 2014-12-17 小米科技有限责任公司 一种显示稿件的方法和装置
US9746930B2 (en) 2015-03-26 2017-08-29 General Electric Company Detection and usability of personal electronic devices for field engineers
JP6841647B2 (ja) * 2016-12-20 2021-03-10 シャープ株式会社 表示装置、表示方法及びプログラム
CN107256127A (zh) * 2017-06-08 2017-10-17 深圳睿尚教育科技有限公司 一种手写输入识别方法
US20190282213A1 (en) * 2018-03-16 2019-09-19 EchoNous, Inc. Systems and methods for motion-based control of ultrasound images
US10852853B2 (en) * 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3234633B2 (ja) * 1992-06-19 2001-12-04 シャープ株式会社 情報処理装置
JPH07271505A (ja) * 1994-03-29 1995-10-20 Toshiba Corp 画像表示制御装置
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6317114B1 (en) * 1999-01-29 2001-11-13 International Business Machines Corporation Method and apparatus for image stabilization in display device
GB0004351D0 (en) * 2000-02-25 2000-04-12 Secr Defence Illumination and imaging devices and methods
US6861946B2 (en) 2000-05-17 2005-03-01 Caveo Technology Llc. Motion-based input system for handheld devices
US7466843B2 (en) * 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
JP4635342B2 (ja) 2001-01-10 2011-02-23 ソニー株式会社 情報処理端末および方法
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
US6834249B2 (en) * 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
GB2416702B (en) * 2004-04-20 2008-08-13 Robert James Clements Team sport apparatus
TW200622893A (en) * 2004-07-09 2006-07-01 Nokia Corp Cute user interface
DE202005021427U1 (de) * 2004-07-30 2008-02-14 Apple Inc., Cupertino Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
EP1805579A1 (en) 2004-09-14 2007-07-11 Nokia Corporation A method for using a pointing device
JP2006203463A (ja) * 2005-01-19 2006-08-03 Matsushita Electric Ind Co Ltd 画像表示方法、画像撮像方法、及び画像合成方法
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
KR100753397B1 (ko) * 2006-04-04 2007-08-30 삼성전자주식회사 이동 단말기에서 화면 자동 온/오프 제어 장치 및 방법
US20070279755A1 (en) * 2006-06-01 2007-12-06 3M Innovative Properties Company Head-Up Display System
US8514066B2 (en) * 2006-11-25 2013-08-20 Trimble Navigation Limited Accelerometer based extended display
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
JP4341680B2 (ja) * 2007-01-22 2009-10-07 セイコーエプソン株式会社 プロジェクタ
US7946744B2 (en) * 2007-02-02 2011-05-24 Denso Corporation Projector and image pickup apparatus
US7573382B2 (en) * 2007-04-02 2009-08-11 General Electric Company System and method to manage movement of assets
US20080280642A1 (en) 2007-05-11 2008-11-13 Sony Ericsson Mobile Communications Ab Intelligent control of user interface according to movement
US20080284739A1 (en) 2007-05-17 2008-11-20 Microsoft Corporation Human Interface Device
KR101008361B1 (ko) * 2007-09-06 2011-01-14 (주)마이크로인피니티 조절 장치 및 방법
US8942764B2 (en) * 2007-10-01 2015-01-27 Apple Inc. Personal media device controlled via user initiated movements utilizing movement based interfaces
US20090138800A1 (en) * 2007-11-23 2009-05-28 Mckesson Financial Holdings Limited Apparatus, method and computer-readable storage medium for directing operation of a software application via a touch-sensitive surface
JP4557058B2 (ja) 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
KR20090093766A (ko) 2008-02-28 2009-09-02 황재엽 모바일 가상 기타의 지판 표시 장치 및 방법
KR101445607B1 (ko) 2008-06-10 2014-09-29 삼성전자주식회사 가속 센서를 이용한 디지털 영상처리장치 및 이를 이용한이미지 재생방법
KR101505198B1 (ko) * 2008-08-18 2015-03-23 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
JP4720879B2 (ja) * 2008-08-29 2011-07-13 ソニー株式会社 情報処理装置及び情報処理方法
JP5279646B2 (ja) * 2008-09-03 2013-09-04 キヤノン株式会社 情報処理装置、その動作方法及びプログラム
US8866840B2 (en) * 2008-09-08 2014-10-21 Qualcomm Incorporated Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server
KR101503835B1 (ko) 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US8558803B2 (en) 2008-11-28 2013-10-15 Samsung Electronics Co., Ltd. Input device for portable terminal and method thereof
US8159465B2 (en) * 2008-12-19 2012-04-17 Verizon Patent And Licensing Inc. Zooming techniques for touch screens
CN102362251B (zh) * 2008-12-30 2016-02-10 法国电信公司 用于提供对应用程序的增强控制的用户界面
US9069398B1 (en) * 2009-01-30 2015-06-30 Cellco Partnership Electronic device having a touch panel display and a method for operating the same
JP5058187B2 (ja) 2009-02-05 2012-10-24 シャープ株式会社 携帯情報端末
US8698736B2 (en) 2009-03-24 2014-04-15 Immersion Corporation Handheld computer interface with haptic feedback
JP2011028635A (ja) 2009-07-28 2011-02-10 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
US20110087988A1 (en) * 2009-10-12 2011-04-14 Johnson Controls Technology Company Graphical control elements for building management systems
JP5602618B2 (ja) * 2010-06-10 2014-10-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US8977987B1 (en) * 2010-06-14 2015-03-10 Google Inc. Motion-based interface control on computing device
US8542218B2 (en) * 2010-08-19 2013-09-24 Hyundai Motor Company Electronic switch apparatus for vehicle
KR101705119B1 (ko) * 2010-09-15 2017-02-10 삼성전자 주식회사 전자 기기에서 2차원 이미지로 3차원 화면을 구성하는 방법 및 그 전자 기기
US8872854B1 (en) * 2011-03-24 2014-10-28 David A. Levitt Methods for real-time navigation and display of virtual worlds
US9595083B1 (en) * 2013-04-16 2017-03-14 Lockheed Martin Corporation Method and apparatus for image producing with predictions of future positions

Also Published As

Publication number Publication date
AU2011314532B2 (en) 2015-08-20
RU2541852C2 (ru) 2015-02-20
JP2015215907A (ja) 2015-12-03
WO2012050377A2 (en) 2012-04-19
EP2628067A4 (en) 2016-08-31
CN107066045A (zh) 2017-08-18
EP2628067B1 (en) 2019-04-17
US10360655B2 (en) 2019-07-23
EP3543832A1 (en) 2019-09-25
JP2013541104A (ja) 2013-11-07
US9588613B2 (en) 2017-03-07
CN103168282A (zh) 2013-06-19
KR20120038788A (ko) 2012-04-24
EP3543832B1 (en) 2021-10-06
JP5828000B2 (ja) 2015-12-02
BR112013009161A2 (pt) 2016-07-26
US20130194222A1 (en) 2013-08-01
RU2013121805A (ru) 2014-11-20
EP2628067A2 (en) 2013-08-21
KR101915615B1 (ko) 2019-01-07
WO2012050377A3 (en) 2012-06-14
US20170178284A1 (en) 2017-06-22
AU2011314532A1 (en) 2013-04-18

Similar Documents

Publication Publication Date Title
BR112013009161B1 (pt) Aparelho e metodo para controlar interface de usuario baseada em movimento
US9519350B2 (en) Interface controlling apparatus and method using force
US8350822B2 (en) Touch pad operable with multi-objects and method of operating same
KR101948665B1 (ko) 플렉서블 장치 및 그 제어 방법
US20140375574A1 (en) Portable device and control method thereof
EP4058868B1 (en) Rolling gesture and mistouch prevention on rolling devices
TW201019179A (en) Touch panel and quick scrolling method thereof
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
KR20170012628A (ko) 롤러블 디스플레이 장치 및 그 제어 방법
KR20230007515A (ko) 접이식 디바이스의 디스플레이 스크린 상에서 검출된 제스처들을 처리하기 위한 방법 및 시스템
US20130328934A1 (en) Display device and control method thereof
KR20130124139A (ko) 공간상의 상호 작용을 이용한 단말의 제어 방법 및 그 단말
CN104063046B (zh) 输入装置及切换输入方式的方法
KR101436587B1 (ko) 투 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
JP6119291B2 (ja) 表示装置、電子機器、表示方法及びプログラム
AU2017210607B2 (en) Apparatus and method for controlling motion-based user interface
KR102049259B1 (ko) 모션 기반 사용자 인터페이스 제어 장치 및 방법
JP5681013B2 (ja) 電子機器及びその制御方法
KR20140083301A (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 13/10/2011, OBSERVADAS AS CONDICOES LEGAIS.

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 12A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2744 DE 08-08-2023 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.