BR102013030675A2 - equipamento e método de gerenciamento de uma pluralidade de objetos exibidos em tela sensível ao toque - Google Patents

equipamento e método de gerenciamento de uma pluralidade de objetos exibidos em tela sensível ao toque Download PDF

Info

Publication number
BR102013030675A2
BR102013030675A2 BR102013030675A BR102013030675A BR102013030675A2 BR 102013030675 A2 BR102013030675 A2 BR 102013030675A2 BR 102013030675 A BR102013030675 A BR 102013030675A BR 102013030675 A BR102013030675 A BR 102013030675A BR 102013030675 A2 BR102013030675 A2 BR 102013030675A2
Authority
BR
Brazil
Prior art keywords
objects
touchscreen
touched
controller
displayed
Prior art date
Application number
BR102013030675A
Other languages
English (en)
Inventor
Seung-Myung Lee
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of BR102013030675A2 publication Critical patent/BR102013030675A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

equipamento e método de gerenciamento de uma pluralidade de objetos exibidos em tela sensível ao toque. são fornecidos um método e um equipamento de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensível ao toque. o método inclui determinar se ao menos dois objetos da pluralidade de objetos foram tocados simultaneamente na tela sensível ao toque, determinar se ao menos um dos ao menos dois objetos se moveu na tela sensível ao toque, se os ao menos dois objetos tiverem sido tocados simultaneamente, determinar a distância entre os ao menos dois objetos tocados, se o ao menos um dos ao menos dois objetos tiver se movido na tela sensível ao toque, combinar os ao menos dois objetos tocados em um conjunto, se a distância entre os ao menos dois objetos tocados for menor que um valor predeterminado, e exibir o conjunto na tela sensível ao toque.

Description

EQUIPAMENTO E MÉTODO DE GERENCIAMENTO DE UMA PLURALIDADE DE OBJETOS EXIBIDOS EM TELA SENSÍVEL AO TOQUE
CAMPO TÉCNICO A presente revelação refere-se a um equipamento e método de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensível ao toque. Mais especificamente, a presente revelação refere-se a um equipamento e método para gerenciar eficientemente uma pluralidade de objetos exibidos em uma tela sensível ao toque de acordo com uma ação de usuário.
FUNDAMENTOS
Uma tela sensível ao toque é configurada para combinar um painel de toque com um dispositivo de exibição. Devido à sua vantagem de entrada conveniente de um comando de usuário sem a necessidade de um teclado ou mouse, a tela sensível ao toque é amplamente utilizada em diversos dispositivos eletrônicos que incluem um dispositivo móvel, um navegador, uma Televisão (TV), um Caixa Eletrônico Automático (ATM) de um banco, um dispositivo de Ponto de Venda (POS) em um estabelecimento, e similares.
Por exemplo, à medida que um dispositivo móvel propicia mais e mais serviços e funções adicionais, o dispositivo móvel exibe Interfaces Gráficas de Usuário (GUIs) em uma tela sensível ao toque.
Para aumentar a utilização do dispositivo móvel e satisfazer as diversas exigências dos usuários, estão em desenvolvimento diversos aplicativos para execução no dispositivo móvel.
Além dos aplicativos básicos desenvolvidos e instalados no dispositivo móvel por um fabricante, o usuário do dispositivo móvel pode baixar aplicativos de uma loja de aplicativos pela Internet e instalar os aplicativos no dispositivo móvel. Desenvolvedores terceirizados podem desenvolver tais aplicativos e registrá-los em serviços de aplicativos na Web. Consequentemente, qualquer um pode vender aplicativos desenvolvidos para usuários móveis em lojas de aplicativos. Como consequência, existem muitos aplicativos que estão disponíveis para dispositivos móveis. É possível armazenar centenas de aplicativos em um dispositivo móvel atual tal como um telefone inteligente ou PC Tablet, e teclas de atalho são exibidas como icones para executar os aplicativos individuais. Portanto, o usuário pode executar um aplicativo pretendido no dispositivo móvel pelo toque de um icone que representa o aplicativo na tela sensível ao toque. Além das teclas de atalho, muitos outros objetos visuais tais como ferramentas, figuras e documentos são exibidos na tela sensível ao toque do dispositivo móvel.
Embora diversos aplicativos sejam propiciados para estimular o interesse dos consumidores e satisfazer as suas exigências no dispositivo móvel, o aumento de aplicativos disponíveis no dispositivo móvel provoca um problema. Especificamente, demasiados aplicativos são armazenados no dispositivo móvel e um número limitado de icones pode ser exibido em uma tela pequena do dispositivo móvel. O usuário pode pesquisar por listas de aplicativos para encontrar um aplicativo desejado, mas tal pesquisa pode levar muito tempo.
Consequentemente, é necessário classificar e organizar um grande número de objetos visuais na tela devido ao espaço limitado da tela. Por exemplo, é necessário gerenciar convenientemente uma pluralidade de objetos na tela do dispositivo móvel pela edição, combinação, deslocamento ou remoção destes. Contudo, um usuário deve tocar cada objeto diversas vezes para gerenciar objetos em uma tela em um dispositivo móvel. Quando os objetos são gerenciados em uma única pasta, a tela do dispositivo móvel deve ser comutada para uma tela de edição e em seguida cada um dos objetos deve ser movido para dentro da pasta ou um comando de remoção ou alteração deve ser dado repetidamente para remover ou alterar objetos na pasta. Este processo de edição consome tempo assim como é inconveniente.
As informações acima são apresentadas como informações básicas apenas para auxiliar em uma compreensão da presente revelação. Não foi feita qualquer determinação, nem feita qualquer afirmação quanto a qualquer item acima descrito poder ser aplicável como estado da técnica em relação à presente revelação.
SUMÁRIO
Aspectos da presente revelação destinam-se a solucionar pelo menos os problemas e/ou inconvenientes acima mencionados e a fornecer ao menos as vantagens descritas abaixo. Consequentemente, um aspecto da presente revelação é fornecer um equipamento e método para gerenciar eficientemente uma pluralidade de objetos exibidos em uma tela sensível ao toque.
Outro aspecto da presente revelação é fornecer um equipamento e método para combinar e separar rapidamente uma pluralidade de objetos exibidos em uma tela sensível ao toque .
Outro aspecto da presente revelação é fornecer um equipamento e método para bloquear e desbloquear rapidamente uma pluralidade de objetos exibidos em uma tela sensível ao toque.
De acordo com um aspecto da presente revelação, é fornecido um método de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensível ao toque. O método inclui determinar se ao menos dois da pluralidade de objetos foram tocados simultaneamente na tela sensível ao toque, determinar se ao menos um dos ao menos dois objetos se moveu na tela sensível ao toque, se os ao menos dois objetos foram tocados simultaneamente, determinar a distância entre os ao menos dois objetos tocados, se o ao menos um dos ao menos dois objetos tiver se movido na tela sensível ao toque, combinar os ao menos dois objetos tocados em um conjunto, se a distância entre os ao menos dois objetos tocados for menor que um valor predeterminado, e exibir o conjunto na tela sensível ao toque. A combinação dos ao menos dois objetos tocados pode incluir a redução do tamanho de cada um dos ao menos dois objetos combinados. A redução do tamanho pode incluir o dimensionamento dos primeiro e segundo objetos.
Quando os ao menos dois objetos tocados fizerem contato entre si na tela sensível ao toque, os formatos de ao menos um dos ao menos dois objetos tocados podem ser mudados e exibidos no ao menos um dos ao menos dois objetos tocados mudado. Quando a distância entre os ao menos dois objetos tocados diminuir, os formatos de ao menos um dos ao menos dois objetos tocados podem ser mudados com base na distância entre os ao menos dois objetos tocados.
Se o conjunto e um da pluralidade de objetos forem tocados simultaneamente e movidos para dentro de uma distância predeterminada, o objeto tocado pode ser combinado com o conjunto em um novo conjunto e o novo conjunto pode ser exibido na tela sensível ao toque. O conjunto pode ser exibido em uma área de exibição para um dos objetos.
Se o conjunto for tocado, o conjunto pode ser aumentado e exibido aumentado na tela sensível ao toque.
Se dois pontos no conjunto forem tocados e afastados um do outro, o conjunto pode ser aumentado e exibido aumentado na tela sensível ao toque.
Se o conjunto for tocado e agitado lateralmente na tela sensível ao toque, ao menos um objeto pode ser removido do conjunto e exibido fora do conjunto na tela sensível ao toque.
Se o conjunto for tocado e um dispositivo móvel que possua a tela sensível ao toque for agitado lateralmente, ao menos um objeto pode ser removido do conjunto e exibido fora do conjunto na tela sensível ao toque.
De acordo com outro aspecto da presente revelação, é fornecido um método de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensível ao toque. O método inclui detectar um toque de uma fonte de entrada sobre um objeto de uma pluralidade de objetos na tela sensível ao toque, detectar uma torção da fonte de entrada sobre o objeto tocado, determinar se a fonte de entrada foi torcida de um ângulo predeterminado ou aci.ma deste, e bloquear o objeto tocado, se a fonte de entrada tiver sido torcida do ângulo predeterminado ou acima deste. O método pode ainda incluir determinar se o objeto bloqueado foi tocado, exibir uma janela de entrada de senha na tela sensível ao toque, se o objeto bloqueado tiver sido tocado, e desbloquear o objeto bloqueado, se uma senha válida tiver sido introduzida na janela de entrada de senha. O objeto tocado pode ter imagens diferentes antes e após o bloqueio ou antes e após o desbloqueio.
De acordo com outro aspecto da presente revelação, é fornecido um método de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensível ao toque. O método inclui exibir imagens iniciais da pluralidade de objetos na tela sensível ao toque, armazenar uma contagem de execuções de cada um da pluralidade de objetos exibidos na tela sensível ao toque, e mudar a imagem inicial de ao menos um objeto da pluralidade de objetos por uma imagem substituta, se o ao menos um objeto tiver uma contagem de execuções menor que um número predeterminado durante um primeiro período de tempo. A imagem substituta pode incluir uma imagem reduzida da imagem original ou uma imagem com uma menor densidade de coloração que a imagem original.
Se o ao menos um objeto não tiver sido executado durante um segundo período de tempo, o ao menos um objeto pode ser automaticamente excluído da tela sensível ao toque.
Se o ao menos um objeto for executado durante o segundo período de tempo, a imagem substituta do ao menos um objeto pode retornar à imagem inicial do objeto.
De acordo com outro aspecto da presente revelação, é fornecido um equipamento de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensível ao toque. O equipamento inclui a tela sensível ao toque configurada para exibir a pluralidade de objetos, e um controlador configurado para determinar uma distância entre ao menos dois objetos, se os ao menos dois objetos tiverem sido tocados simultaneamente na tela sensível ao toque e ao menos um dos ao menos dois objetos tiver se movido na tela sensível ao toque, e se a distância entre os ao menos dois objetos for menor que um valor predeterminado, combinar os ao menos dois objetos dentro de um conjunto e exibir o conjunto na tela sensível ao toque.
Outros aspectos, vantagens e características salientes da revelação tornar-se-ão evidentes para aqueles versados na técnica a partir da descrição detalhada a seguir, a qual, considerada em conjunto com os desenhos anexos, revela diversas modalidades da presente revelação. BREVE DESCRIÇÃO DOS DESENHOS Os acima e outros aspectos, características e vantagens de algumas modalidades da presente revelação serão mais evidentes a partir da descrição a seguir considerada em conjunto com os desenhos anexos, nos quais: a FIG. 1 é um diagrama de blocos de um dispositivo móvel de acordo com uma modalidade da presente revelação; a FIG. 2 é uma vista em perspectiva frontal do dispositivo móvel de acordo com uma modalidade da presente revelação; a FIG. 3 é uma vista em perspectiva posterior do dispositivo móvel de acordo com uma modalidade da presente revelação; as FIGS. 4A, 4B, 4C, 4D e 4E ilustram uma tela de menu em um dispositivo móvel de acordo com uma modalidade da presente revelação; a FIG. 5 é fluxograma que ilustra um método de gerenciamento de objetos exibidos em uma tela sensível ao toque de acordo com uma modalidade da presente revelação; as FIGS. 6A, 6B, 6C, 6D, 6E, 6F e 6G ilustram uma operação de edição de objetos exibidos em uma tela sensível ao toque de acordo com uma modalidade da presente revelação; as FIGS. 7Λ, 7B c 7C ilustram uma operação de edição de objetos exibidos em uma tela sensível ao toque de acordo com outra modalidade da presente revelação; as FIGS. 8A, 8B, 8C, 8D, 8E e 8F ilustram uma operação de edição de objetos exibidos em uma tela sensível ao toque de acordo com outra modalidade da presente revelação; as FIGS. 9A, 9B, 9C e 9D ilustram um método de aumento de um conjunto de objetos combinados em uma tela sensível ao toque de acordo com uma modalidade da presente revelação; as FIGS. 10A, 10B, 10C e I0D ilustram um método de aumento de um conjunto de objetos combinados em uma tela sensível ao toque de acordo com outra modalidade da presente revelação; as FIGS. 11A e 11B ilustram um método de aumento de objetos combinados em uma tela sensível ao toque de acordo com outra modalidade da presente revelação; as FIGS. 12A, 12B, 12C e 12D ilustram um método de separação de um conjunto de objetos combinados em uma tela sensível ao toque de acordo com uma modalidade da presente revelação; as FIGS. 13A, 13B, 13C e 13D ilustram um método de separação de um conjunto de objetos combinados em uma tela sensível ao toque de acordo com outra modalidade da presente revelação; as FIGS. 14A, 14B, 14C, 14D, 14E e 14F ilustram um método de bloqueio e desbloqueio de um objeto exibido em uma tela sensível ao toque de acordo com uma modalidade da presente revelação; as FIGS. 15Ά, 15B e 15C ilustram um método de bloqueio e desbloqueio de um objeto exibido em uma tela sensível ao toque de acordo com outra modalidade da presente revelação; as FIGS. 16A e 16B ilustram um método de bloqueio e desbloqueio de um objeto exibido em uma tela sensível ao toque de acordo com outra modalidade da presente revelação; as FIGS. 17A, 17B, 17C e 17D ilustram um método de gerenciamento de objetos exibidos em uma tela sensível ao toque com base no uso dos objetos de acordo com uma modalidade da presente revelação; as FIGS. 18A, 18B, 18C e 18D ilustram um método de gerenciamento de objetos exibidos em uma tela sensível ao toque com base no uso dos objetos de acordo com outra modalidade da presente revelação; e as FIGS. 19A, 19B, 19C, 19D e 19E ilustram um método de exibição de um efeito de movimento para um objeto em uma tela sensível ao toque de acordo com uma modalidade da presente revelação.
Em todos os desenhos, numerais de referência similares serão entendidos como se referindo a peças, componentes e estruturas similares.
DESCRIÇÃO DETALHADA A descrição a seguir com referência aos desenhos anexos é fornecida para auxiliar em uma compreensão compreensiva de diversas modalidades da presente revelação como definida pelas reivindicações e suas equivalentes. A mesma inclui diversos detalhes específicos para auxiliar naquela compreensão, mas estes devem ser considerados como meramente exemplificativos. Consequentemente, aqueles versados na técnica reconhecerão que poderão ser feitas diversas mudanças e modificações das diversas modalidades descritas aqui sem divergir do âmbito e espirito da presente revelação. Além disso, descrições de funções e construções bem conhecidas podem ser omitidas para clareza e concisão.
Os termos e palavras usados na descrição a seguir e reivindicações não estão limitados aos significados bibliográficos, mas são meramente usados pelo inventor para permitir uma compreensão clara e consistente da presente revelação. Consequentemente, deverá ser evidente para aqueles versados na técnica que a descrição a seguir de diversas modalidades da presente revelação é fornecida apenas para fins ilustrativos e não com a finalidade de limitar a presente revelação como definida pelas reivindicações apensas e suas equivalentes.
Deve ser entendido que as formas singulares "um", "uma", "o" e "a" incluem referentes plurais a não ser que o contexto claramente prescreva de outro modo. Portanto, por exemplo, referência a "uma superfície componente" inclui referência a uma ou mais de tais superfícies.
Pelo termo "substancialmente" quer-se significar que a característica, parâmetro ou valor mencionado não necessita ser alcançado exatamente, mas que desvios ou variações, incluindo, por exemplo, tolerâncias, erro de medição, limitações na precisão de medição e outros fatores conhecidos por aqueles versados na técnica, podem ocorrer em montantes que não impossibilitem o efeito que a característica se destinava a fornecer.
Diversas modalidades da presente revelação serão fornecidas para alcançar os aspectos técnicos acima descritos da presente revelação. Em uma implementação, entidades definidas podem ter os mesmos nomes, aos quais a presente revelação não está limitada. Portanto, diversas modalidades da presente revelação podem ser implementadas com modificações iguais ou prontas em um sistema que possua uma base técnica similar.
Embora diversas modalidades da presente revelação sejam descritas no contexto de um dispositivo móvel portátil, deve ser claramente entendido que um equipamento e método de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensível ao toque de acordo com a presente revelação são aplicáveis a dispositivos eletrônicos equipados com uma tela sensível ao toque tais como um navegador, uma Televisão (TV) , um Caixa Eletrônico Automático (ATM) de um banco, e um dispositivo de Ponto de Venda (POS) de um estabelecimento, assim como dispositivos móveis tais como um telefone portátil, um telefone inteligente e um Computador Pessoal (PC) Tablet. Δ FIG. 1 é um diagrama de blocos de um dispositivo móvel de acordo com uma modalidade da presente revelação.
Com referência à FIG. 1, o dispositivo móvel 100 pode ser conectado a um dispositivo externo (não mostrado) através de uma interface de dispositivo externo tal como um módulo de subcomunicação 130, um conector 165, e um conector de fone de ouvido 167. O termo 'dispositivo externo' inclui uma variedade de dispositivos que podem ser conectados de modo destacável ao dispositivo móvel 100, tal como um fone de ouvido, um alto-falante externo, uma memória de Barramento Serial Universal (USB), um carregador, um suporte, uma estação de acoplamento, uma antena de Difusão Digital de Multimídia (DMB), um dispositivo de pagamento, um dispositivo de assistência médica (por exemplo, um medidor de açúcar no sangue, etc.), um console de jogo, um navegador de veículo, etc. O dispositivo externo pode também incluir um dispositivo conectável ao dispositivo móvel 100 por meio de uma ligação sem fio, tal como um dispositivo de comunicação Bluetooth®, um dispositivo de Comunicação de Campo Próximo (NFC), um dispositivo de comunicação Direta de Fidelidade Sem Fio (WiFi), um Ponto de Acesso (AP) sem fio, etc. Além disso, o dispositivo externo pode ser qualquer dentre outro dispositivo móvel, um telefone portátil, um telefone inteligente, um PC Tablet, um PC de mesa, um servidor, etc.
Com referência à FIG. 1, o dispositivo móvel 100 inclui um visor 190 e um controlador de visor 195. O dispositivo móvel 100 inclui ainda um controlador 110, um módulo de comunicação móvel 120, o módulo de subcomunicação 130, um módulo de multimidia 140, um módulo de câmera 150, um módulo de Sistema de Posicionamento Global (GPS) 155, um módulo de Entrada/Saida (1/0) 160, um módulo sensor 170, uma memória 175, e uma fonte de alimentação 180. 0 módulo de subcomunicação 130 inclui ao menos um de um módulo de Rede de Área Local Sem Fio (WLAN) 131 e de um módulo de comunicação de curto alcance 132, e o módulo de multimídia 14 0 inclui ao menos um de um módulo de comunicação de difusão 141, de um módulo de reprodução de áudio 142, e de um módulo de reprodução de vídeo 143. 0 módulo de câmera 150 inclui ao menos um de uma primeira câmera 151 e de uma segunda câmera 152, e o módulo 1/0 160 inclui ao menos um de uma tecla 161, de um microfone 162, de um alto-falante 163, de um motor de vibração 164, do conector 165, de um teclado 166, e do conector do fone de ouvido 167. A descrição a seguir é dada com a apreciação de que o visor 190 é uma tela sensível ao toque e o controlador de visor 195 é um controlador de tela sensível ao toque, como exemplo. 0 controlador 110 pode incluir uma Unidade de Processamento Central (CPU) 111, uma Memória Apenas de Leitura (ROM) 112 que armazena um programa de controle para controlar o dispositivo móvel 100, e uma Memória de Acesso Aleatório (RAM) 113 que armazena sinais ou dados recebidos de fora do dispositivo móvel 100 ou é usada como um espaço de memória para uma operação pelo dispositivo móvel 100. A CPU 111 pode incluir qualquer número adequado de núcleos. A CPU 111, a ROM 112 e a RAM 113 podem estar conectadas entre si por meio de um barramento interno. O controlador 110 pode controlar o módulo de comunicação móvel 120, o módulo de subcomunicação 130, o módulo de multimídia 140, o módulo de câmera 150, o módulo de GPS 155, o módulo de I/O 160, o módulo sensor 170, a memória 175, a fonte de alimentação 180, a tela sensível ao toque 190, e o controlador da tela sensível ao toque 195. 0 controlador 110 fornece controle global ao dispositivo móvel 100. Particularmente quando ao menos dois objetos exibidos na tela sensível ao toque 190 forem tocados e arrastados ao mesmo tempo por uma entrada e colocados a uma distância predeterminada um do outro ou contatados entre si, o controlador 110 pode combinar os objetos tocados dentro de um conjunto e exibir o conjunto dos objetos tocados na tela sensível ao toque 190. Além disso, o controlador 110 pode separar o conjunto combinado em objetos individuais. O controlador 110 redimensiona os objetos na tela sensível ao toque 190. O controlador 110 pode bloquear ou desbloquear os objetos individuais ou o conjunto dos objetos. Além disso, o controlador 110 pode remover objetos usados menos frequentemente da tela sensível ao toque 190. O módulo de comunicação móvel 120 conecta o dispositivo móvel 100 a um dispositivo externo por meio de uma ou mais antenas (não mostradas) por comunicação móvel sob o controle do controlador 110. O módulo de comunicação móvel 120 transmite sinais sem fio para ou recebe sinais sem fio de um telefone portátil (não mostrado), um telefone inteligente (não mostrado), um PC Tablet (não mostrado), ou outro dispositivo eletrônico (não mostrado) que tenha uma entrada de número de telefone para o dispositivo móvel 100, para uma chamada de voz, uma chamada de vídeo, um Serviço de Mensagem Curta (SMS), ou um Serviço de Mensagem de Multimídia (MMS). O módulo de subcomunicação 130 pode incluir ao menos um do módulo WLAN 131 e do módulo de comunicação de curto alcance 132. Por exemplo, o módulo de subcomunicação 130 pode incluir um ou mais do módulo WLAN 131 e do módulo de comunicação de curto alcance 132. O módulo WLAN 131 pode estar conectado à Internet em um local onde um AP sem fio (não mostrado) está instalado. O módulo WLAN 131 suporta qualquer padrão adequado WLAN do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) tal como IEEE 802.llx, por exemplo. O módulo de comunicação de curto alcance 132 pode conduzir comunicação sem fio de curto alcance entre o dispositivo móvel 100 e um dispositivo de formação de imagens (não mostrado) sob o controle do controlador 110. A comunicação de curto alcance pode ser implementada por qualquer interface adequada tal como Bluetooth®, Associação de Dados Infravermelhos (IrDA), WiFi Direto, NFC, etc. O dispositivo móvel 100 pode incluir ao menos um do módulo de comunicação móvel 12 0, do módulo WLAN 131, e do módulo de comunicação de curto alcance 132. Por exemplo, o dispositivo móvel 100 pode incluir uma combinação do módulo de comunicação móvel 120, do módulo WLAN 131, e do módulo de comunicação de curto alcance 132. O módulo de multimídia 140 pode incluir o módulo de comunicação de difusão 141, o módulo de reprodução de áudio 142, ou o módulo de reprodução de video 143. O módulo de comunicação de difusão 141 pode receber um sinal de difusão (por exemplo, um sinal de difusão de TV, um sinal de radiodifusão, um sinal de difusão de dados, etc.) e informações adicionais de difusão (por exemplo, um Guia Eletrônico de Programas (EPG), Guia Eletrônico de Serviços (ESG), etc.) provenientes de uma estação de difusão através de uma antena de comunicação de difusão (não mostrada). O módulo de reprodução de áudio 142 pode abrir um arquivo digital de áudio armazenado ou recebido (por exemplo, um arquivo tendo uma extensão tal como mp3, wma, ogg, ou wav). O módulo de reprodução de video 143 pode abrir um arquivo digital de video armazenado ou recebido (por exemplo, um arquivo tendo uma extensão tal como mpeg, mpg, mp4, avi, mov, ou mkv) . 0 módulo de reprodução de vídeo 143 pode também abrir um arquivo digital de áudio. O módulo de multimídia 140 pode incluir o módulo de reprodução de áudio 142 e o módulo de reprodução de video 143 sem o módulo de comunicação de difusão 141. Alternativamente, o módulo de reprodução de áudio 142 ou o módulo de reprodução de video 143 do módulo de multimídia 140 pode ser incorporado dentro do controlador 110. O módulo de câmera 150 pode incluir ao menos um da primeira câmera 151 e da segunda câmera 152 para capturar uma imagem estática ou um vídeo. Além disso, a primeira câmera 151 ou a segunda câmera 152 pode incluir uma fonte luminosa auxiliar (por exemplo, um flash (não mostrado)) para fornecer uma luz para capturar uma imagem. A primeira câmera 151 pode estar posicionada na superfície frontal do dispositivo móvel 100, enquanto a segunda câmera 152 pode estar posicionada na superfície posterior do dispositivo 100. Alternativamente, a primeira câmera 151 e a segunda câmera 152 podem estar posicionadas próximas uma da outra (por exemplo, a distância entre a primeira câmera 151 e a segunda câmera 152 é entre 1 cm e 8 cm) com a finalidade de capturar uma imagem estática ou video tridimensional. O módulo de GPS 155 pode receber ondas de rádio provenientes de uma pluralidade de satélites GPS (não mostrados) em órbita e determinar uma posição do dispositivo móvel 100 com base no Tempo de Chegadas (ToAs) dos sinais de satélite provenientes dos satélites GPS até o dispositivo móvel 100. O módulo 1/0 160 pode incluir ao menos um da tecla 161, do microfone 162, do alto-falante 163, do motor de vibração 164, do conector 165, e do teclado 166. A tecla 161 pode ser formada na superfície frontal, em uma superfície lateral, ou na superfície posterior de uma carcaça do dispositivo móvel 100, e pode incluir ao menos um de uma tecla liga/bloqueia (não mostrada), uma tecla de volume (não mostrada) , uma tecla menu, uma tecla tela inicial, uma tecla voltar, uma tecla de pesquisa, etc. O microfone 162 recebe uma voz ou um som e converte a voz ou som recebido em um sinal elétrico. O alto-falante 163 pode transmitir sons correspondentes a diversos sinais (por exemplo, um sinal sem fio, um sinal de difusão, um arquivo digital de áudio, um arquivo digital de video, uma fotografia, etc.) recebidos do módulo de comunicação móvel 120, do módulo de subcomunicação 130, do módulo de multimídia 140, e do módulo de câmera 150. O alto-falante 163 pode transmitir sons correspondentes a funções (por exemplo, um som de manipulação de tecla, um tom de rechamada para uma chamada, etc.) realizadas pelo dispositivo móvel 100. Um ou mais alto-falantes 163 podem estar posicionados em uma posição ou posições adequadas da carcaça do dispositivo móvel 100. O motor de vibração 164 pode converter um sinal elétrico em uma vibração mecânica. Por exemplo, quando o dispositivo móvel 100 recebe uma chamada de voz entrante de outro dispositivo (não mostrado) em um modo de vibração, o motor de vibração 164 funciona. Um ou mais motores de vibração 164 podem ser montados dentro da carcaça do dispositivo móvel 100. O motor de vibração 164 pode funcionar em resposta a um toque do usuário na tela sensível ao toque 190 e a um movimento contínuo do toque na tela sensível ao toque 190. O conector 165 pode ser usado como uma interface para conectar o dispositivo móvel 100 a um dispositivo externo (não mostrado) ou a uma fonte de alimentação (não mostrada). O conector 165 pode transmitir dados armazenados na memória 175 para o dispositivo externo por meio de um cabo ou pode receber dados do dispositivo externo por meio do cabo. 0 dispositivo móvel 100 pode ser alimentado ou carregar uma bateria (não mostrada) a partir de uma fonte de alimentação por meio do cabo conectado ao conector 165. O teclado 166 pode receber uma entrada de tecla do usuário para controlar o dispositivo móvel 100. O teclado 166 inclui um teclado físico (não mostrado) formado no dispositivo móvel 100 ou um teclado virtual (não mostrado) exibido no visor 190. O teclado físico pode não ser fornecido de acordo com a configuração do dispositivo móvel 100 .
Um fone de ouvido (não mostrado) pode ser conectado ao dispositivo móvel 100 pela sua inserção no conector do fone de ouvido 167. O módulo sensor 170 inclui ao menos um sensor para detectar um estado do dispositivo móvel 100. Por exemplo, o módulo sensor 170 pode incluir um sensor de proximidade para detectar se o usuário está próximo do dispositivo móvel 100, um sensor de iluminação (não mostrado) para detectar a quantidade de luz ambiente ao redor do dispositivo móvel 100, um sensor de movimento (não mostrado) para detectar um movimento do dispositivo móvel 100 (por exemplo, rotação, aceleração, vibração, etc. do dispositivo móvel 100), um sensor geomagnético (não mostrado) para detectar uma orientação usando o campo magnético da terra, um sensor de gravidade (não mostrado) para detectar a direção da gravidade, um altimetro (não mostrado) para detectar uma altitude pela medição da pressão de ar, e similares. Ao menos um sensor pode detectar uma condição ambiental do dispositivo móvel 100, gerar um sinal correspondente à condição detectada, e transmitir o sinal gerado para o controlador 110. Um sensor pode ser adicionado ao ou removido do módulo sensor 170 de acordo com a configuração do dispositivo móvel 100. A memória 175 pode armazenar sinais ou dados de entrada/saida de acordo com operações do módulo de comunicação móvel 120, do módulo de subcomunicação 130, do módulo de multimídia 140, do módulo de câmera 150, do módulo de GPS 155, do módulo de I/O 160, do módulo sensor 170, e da tela sensível ao toque 190. A memória 175 pode armazenar um programa de controle para controlar o dispositivo móvel 100 ou o controlador 110, e aplicativos para o usuário executar interações. A memória pode incluir a memória 175, a ROM 112 e a RAM 113 dentro do controlador 110, ou um cartão de memória (não mostrado) (por exemplo, cartão Digital Seguro (SD), uma vara de memória, etc.) montado no dispositivo móvel 100. A memória pode incluir uma memória não-volátil, uma memória volátil, uma Unidade de Disco Rigido (HDD), uma Unidade de Estado Sólido (SSD), e similares. A fonte de alimentação 180 pode fornecer energia a uma ou mais baterias (não mostradas) montadas na carcaça do dispositivo móvel 100. A uma ou mais baterias fornecem energia ao dispositivo móvel 100. Além disso, a fonte de alimentação 180 pode fornecer energia recebida de uma fonte de alimentação externa (não mostrada) por meio do cabo conectado ao conector 165. A fonte de alimentação 180 pode também fornecer energia recebida sem fio de uma fonte de alimentação externa ao dispositivo móvel 100 por uma técnica de carregamento sem fio. A tela sensível ao toque 190 pode fornecer Interfaces de Usuário (UIs) correspondentes a diversos serviços (por exemplo, chamada, transmissão de dados, difusão, fotografia, etc.) ao usuário. A tela sensível ao toque 190 pode transmitir um sinal analógico correspondente a ao menos um toque em uma UI ao controlador de visor 195. A tela sensível ao toque 190 pode receber ao menos uma entrada de toque através de uma parte do corpo de usuário (por exemplo, um dedo) ou de uma ferramenta de entrada de toque (por exemplo, uma caneta). Também, a tela sensível ao toque 190 pode receber um sinal de entrada de toque correspondente a um movimento contínuo de um toque entre um ou mais toques. A tela sensível ao toque 190 pode transmitir um sinal analógico correspondente ao movimento continuo do toque de entrada para o controlador da tela sensível ao toque 195.
Em diversas modalidades da presente revelação, um toque pode incluir um toque sem contato (por exemplo, a separação detectável entre a tela sensível ao toque 190 e uma parte do corpo do usuário ou uma ferramenta de entrada de toque pode ser 1 mm ou menos), e não está limitado a contatos entre a tela sensível ao toque 190 e uma parte do corpo do usuário ou uma ferramenta de entrada de toque. A separação detectável para a tela sensível ao toque 190 pode variar de acordo com a configuração do dispositivo móvel 100 . A tela sensível ao toque 190 pode ser implementada por, por exemplo, um tipo resistivo, um tipo capacitivo, um tipo infravermelho, um tipo onda acústica, ou uma combinação de dois ou mais destes. 0 controlador da tela sensível ao toque 195 converte um sinal analógico recebido da tela sensível ao toque 190 em um sinal digital (por exemplo, coordenadas X e Y) . O controlador 110 pode controlar a tela sensível ao toque 190 usando o sinal digital recebido do controlador da tela sensível ao toque 195. Por exemplo, o controlador 110 pode controlar a seleção ou execução de um ícone de atalho (não mostrado) exibido na tela sensível ao toque 190 em resposta a um toque. O controlador da tela sensível ao toque 195 pode ser incorporado dentro do controlador 110. A FIG. 2 é uma vista em perspectiva frontal de um dispositivo móvel respectivamente de acordo com uma modalidade da presente revelação e a FIG. 3 é uma vista em perspectiva posterior do dispositivo móvel de acordo com uma modalidade da presente revelação.
Com referência à FIG. 2, a tela sensível ao toque 190 está posicionada no centro da superfície frontal 100a do dispositivo móvel 100, ocupando a maior parte da superfície frontal 100a. Na FIG. 2, uma tela inicial principal é exibida na tela sensível ao toque 190, como exemplo. A tela inicial principal é a primeira tela a ser exibida na tela sensível ao toque 190 quando o dispositivo móvel 100 é ligado. No caso em que o dispositivo móvel 100 tem diferentes telas iniciais, a tela inicial principal pode ser a primeira das telas iniciais da pluralidade de páginas. ícones de atalho 21, 22 e 23 usados para executar aplicativos usados frequentemente, uma tecla principal de comutação de menu 24, um relógio, condições meteorológicas, e assim por diante, podem ser exibidos na tela principal. A tecla principal de comutação de menu 24 é usada para exibir uma tela de menu na tela sensível ao toque 190. Uma barra de estado 192 pode ser exibida na parte superior da tela sensível ao toque 190 para indicar os estados do dispositivo móvel 100 tais como o estado de carga de uma batería, a intensidade de sinal recebido, e a hora atual.
Uma tecla tela inicial 161a, uma tecla menu 161b, e uma tecla voltar 161c podem estar formadas na parte inferior da tela sensível ao toque 190. A tecla tela inicial 161a é usada para exibir a tela inicial principal na tela sensível ao toque 190. Por exemplo, em resposta ao toque na tecla tela inicial 161a enquanto qualquer outra tela inicial diferente da tela inicial principal ou de uma tela de menu é exibida na tela sensível ao toque 190, a tela inicial principal pode ser exibida na tela sensível ao toque 190. Em resposta ao toque na tecla tela inicial 161a durante execução de um aplicativo na tela sensível ao toque 190, a tela inicial principal ilustrada na FIG. 2 pode ser exibida na tela sensível ao toque 190. A tecla tela inicial 161a pode também ser usada para exibir aplicativos recentemente usados ou um gerenciador de tarefas na tela sensível ao toque 190. A tecla menu 161b fornece menus de ligações disponíveis na tela sensível ao toque 190. Os menus de ligações podem incluir um menu de adição de ferramenta, um menu de alteração de fundo, um menu de pesquisa, um menu de edição, um menu de ajuste de ambiente, etc. A tecla voltar 161c pode exibir a tela anterior a uma tela atual ou terminar o aplicativo usado por último. A primeira câmera 151, um sensor de iluminação 170a, o alto-falante 163, e um sensor de proximidade 170b podem estar posicionados em um canto da superfície frontal 100a do dispositivo móvel 100, enquanto a segunda câmera 152, um flash 153, e o alto-falante 163 podem estar posicionados na superfície posterior 100c do dispositivo móvel 100.
Uma tecla ligar/restabelecer 161d, uma tecla de volume 161e, incluindo uma tecla de aumento de volumel61f e uma tecla de diminuição de volume 161g, uma antena DMB terrestre 141a para receber um sinal de difusão, e um ou mais microfones 162 podem estar posicionados nas superfícies laterais 100b do dispositivo móvel 100. A antena DMB 141a pode estar montada no dispositivo móvel 100 de modo fixo ou destacável. O conector 165 é formado na superfície lateral inferior do dispositivo móvel 100. O conector 165 inclui uma pluralidade de eletrodos e pode estar eletricamente conectado a um dispositivo externo por um cabo. O conector do fone de ouvido 167 pode ser formado na superfície lateral superior do dispositivo móvel 100, para permitir que um fone de ouvido seja inserido.
As FIGS. 4A, 4B, 4C, 4D e 4E ilustram uma tela de menus em um dispositivo móvel de acordo com uma modalidade da presente revelação.
Com referência às FIGS. 4A, 4B, 4C, 4D e 4E, uma tela de menu é exibida na tela sensível ao toque 190. Diversos objetos visuais tais como ícones de atalho para executar aplicativos no dispositivo móvel 100, ferramentas, ícones que representam texto em diversos formatos de arquivos, fotos, e pastas estão posicionados em uma matriz na tela de menu. Os aplicativos incluem aplicativos armazenados no dispositivo móvel 100 que são fornecidos por um fabricante do dispositivo móvel 100. Além disso, o usuário utiliza os aplicativos comprados e baixa aplicativos da Internet. Os objetos podem ser representados como ícones ou teclas que são imagens, texto, fotos, ou uma combinação destes. A tela de menu exibida nas FIGS. 4A, 4B, 4C, 4D e 4E é diferente de uma tela inicial ilustrada na FIG. 2, contudo a tela de menu pode ser usada como uma tela inicial.
Com referência às FIGS. 4A, 4B, 4C, 4D e 4E, os objetos são mostrados como ícones de atalho 1-01 a 5-20. As telas de menu têm 5 páginas no total, cada uma tendo 20 ícones, como exemplo. Por exemplo, a FIG. 4A ilustra a página 1 da tela de menu e inclui 20 ícones rotulados como ícone 1-01 a ícone 1-20. A página 1 da tela de menu pode ser uma tela principal de menu. Na FIG. 4A, um indicador de página 193 é exibido na parte inferior da tela sensível ao toque 190 e indica que uma página atual da tela de menu é a página 1. A FIG. 4B ilustra a página 2 da tela de menu e inclui 20 icones rotulados como ícone 2-01 a ícone 2-20 na tela sensível ao toque 190. A FIG. 4C ilustra a página 3 da tela de menu e inclui 20 icones rotulados como ícone 3-01 a ícone 3-20 na tela sensível ao toque 190. A FIG. 4D ilustra a página 4 da tela de menu e inclui 20 ícones rotulados como ícone 4-01 a ícone 4-20 na tela sensível ao toque 190. A FIG. 4E ilustra a página 5 da tela de menu e inclui 20 ícones rotulados como ícone 5-01 a ícone 5-20 na tela sensível ao toque 190. 0 usuário pode comutar de uma página para outra página na tela de menu exibida na tela sensível ao toque 190 ao passar rapidamente ou arrastar para a esquerda ou direita em uma das direções com setas 194 na tela sensível ao toque 190. Quando um ícone é tocado, o controlador 110 executa um aplicativo correspondente ao ícone tocado e exibe o aplicativo executado na tela sensível ao toque 190.
Como descrito acima, muitos aplicativos são armazenados no dispositivo móvel 100 tal como um telefone inteligente, um PC Tablet, ou similar. Portanto, para executar um aplicativo pretendido no dispositivo móvel 100, o usuário deve virar uma página a seguir à outra na tela de menu como ilustrado nas FIGS. 4A a 4E até localizar o aplicativo pretendido, o que consome tempo.
Se ícones representando aplicativos correlatos forem coletados em uma posição predeterminada na tela sensível ao toque 190, o usuário pode rapidamente pesquisar por um icone pretendido ou icones correlatos.
Consequentemente, diversas modalidades da presente revelação fornecem um método e equipamento para gerenciar rápida e facilmente objetos visuais tais como icones exibidos na tela sensível ao toque 190 do dispositivo móvel 100 . A FIG. 5 é um fluxograma que ilustra um método de gerenciamento de objetos exibidos em uma tela sensível ao toque de acordo com uma modalidade da presente revelação, e as FIGS. 6A, 6B, 6C, 6D, 6E, 6F e 6G ilustram uma operação de edição de objetos exibidos em uma tela sensível ao toque de acordo com uma modalidade da presente revelação.
Com referência às FIGS. 5, 6A, 6B, 6C, 6D, 6E, 6F e 6G, o controlador 110 exibe uma pluralidade de objetos 11 a 23 na tela sensível ao toque 190 na operação S502. A pluralidade de objetos 11 a 23 pode incluir diversos objetos visuais tais como ícones de atalho usados para executar aplicativos, ferramentas, ícones que representam texto em diversos formatos de arquivos, fotos, e pastas, ou objetos visuais. Os aplicativos, os quais são executáveis no dispositivo móvel 100, são armazenados no dispositivo móvel 100 ou baixados para o dispositivo móvel 100 a partir de um servidor externo da Web que fornece aplicativos.
Com referência às FIGS. 6A, 6B, 6C, 6D, 6E, 6F e 6G, os objetos 11 a 23 são mostrados como, por exemplo, ícones de atalho usados para executar aplicativos na tela sensível ao toque 190. Os ícones 11 a 23 estão posicionados em uma matriz como ilustrado na FIG. 6A. Ao menos uma parle dos ícones 11 a 23 tem formatos diferentes de contorno. Por exemplo, os formatos globais dos ícones 11 a 23 podem ser diferentes e os ícones 11 a 23 podem ter diferentes contornos curvos. Por exemplo, o ícone 16 inclui uma imagem de fundo 16-1, um título 16-2, e uma imagem única 16-3 na FIG. 6A. A imagem de fundo 16-1 pode ser colorida monotonicamente ou em gradação. A imagem de fundo 16-1 pode também ser uma imagem ou padrão específico. O título 16-2 é texto que identifica o objeto 16. A imagem única 16-3 representa um aplicativo correspondente ao ícone 16. Portanto, a imagem única 16-3 pode ser uma imagem tal como um caractere, símbolo, ou similar ou texto tal como um logo, o que permite que o usuário identifique facilmente o ícone 16. O contorno do ícone 16 pode definir o formato global do ícone 16 e informações sobre o ícone 16 podem estar contidas dentro do ícone 16. Portanto, não existe a necessidade de reservar uma área fora do ícone 16 para o título do ícone 16 ou outras informações que descrevam as características do ícone 16.
Os ícones 21, 22 e 23 podem ser ícones de atalho que representam aplicativos frequentemente usados que são exibidos na parte inferior da tela sensível ao toque 190. Os ícones 21, 22 e 23 podem estar posicionados em posições fixas da tela sensível ao toque 190. Os ícones 21, 22 e 23 podem ser editáveis e podem ser permutados com os outros ícones 11 a 20. Embora um número limitado de ícones 11 a 23 esteja posicionado na tela sensível ao toque 190 na FIG. 6A, mais objetos podem ser exibidos na tela sensível ao toque 190.
Subsequentemente, o controlador 110 determina se ao menos dois dos objetos exibidos na tela sensível ao toque 190 foram tocados por um meio de entrada 1 (fonte de entrada (por exemplo, mão ou dedo)) na operação S504 . Na operação S504, o toque pode ser um gesto de toque de pressão demorada. Com referência à FIG. 6B, por exemplo, os dois objetos 15 e 17 (aqui, o primeiro objeto 17 e o segundo objeto 15) podem ser tocados, respectivamente, por um dedo indicador e um polegar do usuário. Três ou mais objetos podem ser tocados ao mesmo tempo pelo meio de entrada 1 de objetos 11 a 23 exibidos na tela sensível ao toque 190. Mesmo embora os dois objetos 15 e 17 sejam tocados sequencialmente, desde que sejam mantidos tocados simultaneamente durante um tempo predeterminado pelo meio de entrada 1, os dois objetos 15 e 17 podem ser considerados como tocados ao mesmo tempo.
Na operação S506, o controlador 110 determina se foi recebido um comando de movimento para ao menos um dos objetos tocados 15 e 17 na tela sensível ao toque 190 a partir do meio de entrada 1 . Após recepção do comando de movimento, o controlador 110 controla o movimento do ao menos um objeto tocado na tela sensível ao toque 190 na operação S508. O comando de movimento pode ser um gesto de arrasto de um toque em ao menos um dos objetos 15 e 17 na tela sensível ao toque 190 pelo meio de entrada 1. Por exemplo, com referência à FIG. 6C, o comando de movimento pode ser um gesto de arrasto de um toque no primeiro objeto 17 ou um toque em ambos os objetos 15 e 17 na tela sensível ao toque 190 pelo meio de entrada 1. O controlador 110 determina se os objetos 15 e 17 foram colocados em contato na operação S510. Por exemplo, o controlador 110 determina se o primeiro objeto 17 arrastado na FIG. 6C se moveu na direção do segundo objeto 15 e, portanto, se o contorno do primeiro objeto 17 foi colocado em contato com o contorno do segundo objeto 15. Se os dois objetos 15 e 17 estiverem próximos um do outro, o controlador 110 pode determinar que os objetos 15 e 17 estão em contato entre si.
Se o segundo objeto 15 fizer contato com o primeiro objeto 17, o controlador 110 pode mudar os contornos dos objetos 15 e 17 na operação S512. Quando os contornos dos objetos 15 e 17 forem mudados, o controlador 110 pode também controlar a mudança dos formatos internos dos objetos 15 e 17. Por exemplo, o formato de um canto 17a do primeiro objeto 17 que faz contato com o segundo objeto 15 é mudado na FIG. 6D. Um canto 15a do segundo objeto 15 que faz contato com o primeiro objeto 17 pode também ser mudado em formato. Quando o controlador 110 controla a exibição dos formatos mudados dos objetos 15 e 17 na tela sensível ao toque 190 deste modo, pode ser indicado o contato entre os objetos 15 e 17. A FIG. 6D ilustra que os objetos 15 e 17 iniciam o contato entre si muito parcialmente. A distância entre os pontos tocados pelo meio de entrada 1 (por exemplo, os pontos tocados pelo polegar e dedo indicador do usuário) é denominada de dl.
Com referência às FIGS. 6E e 6F, os objetos 15 e 17 mudam formatos quando os objetos 15 e 17 estão próximos um do outro na tela sensível ao toque 190. Na FIG. 6E, a distância d2 entre os dois pontos tocados na tela sensível ao toque 190 é menor que a distância dl ilustrada na FIG. 6D. Na FIG. 5F, a distância d3 entre os dois pontos tocados na tela sensível ao toque 190 é menor que a distância d2 entre os dois pontos tocados ilustrada na FIG. 6E. Com referência às FIGS. 6E e 6F, quando o formato do primeiro objeto 17 muda, uma ou ambas de uma porção côncava 17b e de uma porção convexa 17c podem ser criadas. O segundo objeto 15 também muda em formato e, portanto, uma ou ambas de uma porção côncava 15b e de uma porção convexa 15c podem ser criadas no segundo objeto 15. Como ilustrado na FIG. 6E, a porção convexa 15c do segundo objeto 15 pode encaixar-se dentro da porção côncava 17b do primeiro objeto 17. Além disso, a porção convexa 17c do primeiro objeto 17 pode encaixar-se na porção côncava 15b do segundo objeto 15. À medida que os dois pontos tocados se movem para mais perto um do outro pelo meio de entrada 1 e a distância entre os objetos tocados 15 e 17 se reduz, o controlador 110 pode controlar ainda mais a mudança dos formatos dos objetos 15 e 17 na tela sensível ao toque 190.
Uma vez que quando os objetos tocados 15 e 17 são colocados em contato os seus formatos são mudados, o usuário pode reconhecer facilmente que os objetos 15 e 17 estão prestes a ser combinados. À medida que os objetos 15 e 17 se aproximam mais, os formatos dos objetos 15 e 17 tornam-se mais mudados. Portanto, o usuário pode determinar facilmente que os objetos 15 e 17 estão prestes a ser misturados. As mudanças de formato dos objetos também mudam os contornos dos objetos, o que é diferente do dimensionamento do tamanho dos objetos.
Para mudar os formatos dos objetos exibidos na tela sensível ao toque 190 como descrito acima, os ícones 11 a 23 podem ser criados usando um esquema baseado em vetores. Por exemplo, o ícone 16 contém a imagem de fundo baseada em vetor 16-1, o titulo baseado em vetor 16-2, e a imagem única baseada em vetor 16-3. Isto é, a imagem de fundo 16-1, o titulo 16-2, e a imagem única 16-3 do icone 16 podem ser formados usando o esquema baseado em vetores. 0 esquema baseado em vetores refere-se a um método de armazenamento de imagens de fundo, títulos, imagens únicas, e similares a serem exibidas na tela sensível ao toque 190 como linhas. Se o ícone 16 for formado usando o esquema baseado em vetores, a qualidade de exibição do ícone 16 não é degradada e a fronteira entre uma linha e um plano no ícone 16 é clara, apesar do redimensionamento ou mudança de formato do ícone 16. Por outro lado, se os ícones 11 a 23 forem criados em um esquema baseado em mapas de bits, o redimensionamento dos ícones 11 a 23 resulta na representação dos ícones 11 a 23 em formatos não-naturais porque uma imagem é representada como uma série de pixels. Consequentemente, à medida que a tela sensível ao toque 190 fica maior no dispositivo móvel 100, aumentam as demandas por ícones baseados em vetores, ao invés de ícones baseados em mapas de bits da técnica correlata.
Com referência de volta à FIG. 5, a operação S512 é opcional. Especificamente, quando objetos exibidos na tela sensível ao toque 190 são combinados sem qualquer mudança nos formatos dos objetos, a operação S512 pode não ser realizada. Neste caso, os objetos podem ser formados em um esquema diferente do esquema baseado em vetores, por exemplo, no esquema baseado em mapas de bits.
Subsequentemente, o controlador 110 determina se os objetos tocados 15 e 17 estão dentro de uma distância predeterminada entre si na operação S514. Se os objetos tocados 15 e 17 forem trazidos para dentro de uma distância d3, o controlador 110 combina os objetos 15 e 17 e exibe os objetos combinados como um conjunto 35 na tela sensível ao toque 190 na operação S516. Com referência à FIG. 6G, os objetos 15 e 17 são exibidos combinados na tela sensível ao toque 190. Os objetos combinados 15 e 17 são exibidos em uma área na qual o segundo objeto 15 era exibido antes da combinação. Isto é, à medida que o primeiro objeto 17 se aproxima da área exibida 31 do segundo objeto 15, os objetos 15 e 17 podem ser combinados. O conjunto 35 é exibido na área 31, incluindo imagens reduzidas dos objetos 15 e 17. O conjunto 35 pode ser exibido sobre uma imagem de fundo da tela sensível ao toque 190 e pode não necessitar de uma imagem adicional tal como uma imagem de pasta. Consequentemente, após os ao menos dois objetos 15 e 17 serem tocados dentre a pluralidade de objetos 11 a 20 exibidos na tela sensível ao toque 190, os objetos tocados 15 e 17 são rapidamente combinados por um gesto do usuário de fazer os objetos 15 e 17 se aproximarem um do outro. Como ilustrado na FIG. 6G, o controlador 110 pode adicionalmente reorganizar os objetos 18, 19 e 20 para preencher uma área 32 na qual o primeiro objeto 17 era exibido antes da combinação e exibir os objetos reorganizados 18, 19 e 20 na tela sensível ao toque 190.
Se os objetos tocados 15 e 17 não tiverem ainda sido trazidos para dentro da distância d3 na operação S514, o controlador 110 não combina os objetos 15 e 17.
Além disso, se objetos possuem atributos que os proíbem de ser combinados ou se deve ser combinado mais que um número predeterminado de objetos, os objetos podem não ser combinados. Neste caso, mesmo se os objetos 15 e 17 forem colocados em contato na operação S514, o controlador 110 pode controlar os formatos dos objetos 15 e 17 para mantê-los inalterados. Quando os objetos 15 e 17 não forem combináveis e ficarem próximos um do outro ou fizerem contato entre si, o controlador 110 pode sobrepor o segundo objeto 15 sobre o primeiro objeto 17. Portanto, se os objetos 15 e 17 não forem mudados em formato apesar do contato entre eles, o usuário pode rapidamente reconhecer que os objetos 15 e 17 não podem ser combinados. Além disso, o controlador 110 controla os outros objetos não-tocados 11, 12, 13, 14, 16, 18, 19 e 20 para não serem combinados com os objetos tocados 15 e 17.
Em uma modalidade da presente revelação, os objetos 11 a 20 são contornados por linhas curvas aleatórias. Os objetos 11 a 20 são coloridos ou têm texturas. Os objetos 11 a 20 são configurados para agir como células-tronco humanas ao conter todas as informações referentes aos objetos 11 a 20 tais como títulos, caracteres, logos, e similares dentro dos objetos 11 a 20. Vantajosamente, como os ambientes da tela sensível ao toque 190 antes e após geração do conjunto 35 são estabelecidos de modo a recordar o usuário de uma célula-tronco que se ramifica para dentro de mais células ou vice-versa, ou de uma pluralidade de células-tronco coexistentes, uma Interface Gráfica de Usuário (GUI) semelhante a um corpo orgânico simples vivo que realiza atividades pode ser propiciado através da tela sensível ao toque 190. Além disso, uma GUI intuitiva e amigável pode ser propiciada ao permitir que os objetos 11 a 20 propiciem comportamento semelhante a corpos orgânicos em operações descritas mais tarde de quebra, dimensionamento e bloqueio do conjunto 35 e uma operação de processamento de um evento que ocorre para um objeto especifico.
As FIGS. 7A, 7B e 7C ilustram uma operação de edição de objetos exibidos em uma tela sensível ao toque de acordo com outra modalidade da presente revelação.
Com referência às FIGS. 7A e 7B, dentre a pluralidade de objetos 11 a 20 exibidos na tela sensível ao toque 190, o primeiro objeto 17 localizado em uma área exibida 32 e o objeto 13 (aqui, o terceiro objeto 13) localizado em uma área exibida 33 são tocados a arrastados para uma área 34 pelo meio de entrada 1. Em seguida o controlador 110 pode controlar a exibição dos primeiro e terceiro objetos 17 e 13 combinados na área 34 como ilustrado na FIG. 7B.
Com referência à FIG. 7C, após os primeiro e terceiro objetos tocados 17 e 13 serem combinados em um conjunto 36, o controlador 110 pode reorganizar os outros objetos 11, 12, 14, 15, 16, 18, 19 e 20 e o conjunto 36 com a finalidade de preencher as áreas vazias 32 e 33 com objetos diferentes dos primeiro e terceiro objetos 17 e 13 na tela sensível ao toque 190.
Embora os dois objetos 13 e 17 sejam combinados nas FIGS. 7A, 7B e 7C como exemplo, se três ou mais objetos forem tocados ao mesmo tempo e em seguida coletados pelo meio de entrada 1, o controlador 110 pode também controlar a exibição dos três ou mais objetos tocados em combinação na tela sensível ao toque 190. Por exemplo, se toques de um número predeterminado pela fonte de entrada 1 (por exemplo, por três dedos, quatro dedos, ou cinco dedos) forem detectados ao mesmo tempo na tela sensível ao toque 190 e em seguida um gesto predeterminado (por exemplo, um gesto de agarrar) for detectado, o controlador 110 pode controlar a combinação de todos os objetos na tela sensível ao toque 190 dentro de um conjunto e exibir o conjunto na tela sensível ao toque de acordo com outra modalidade da presente revelação.
As FIGS. 8A, 8B, 8C, 8D, 8E e 8F ilustram uma operação de edição de objetos exibidos em uma tela sensível ao toque de acordo com outra modalidade da presente revelação.
Com referência às FIGS. 8A, 8B, 8C, 8D, 8E e 8F, o usuário pode combinar o conjunto 35 dos objetos 15 e 17 com o objeto 16. Por exemplo, como ilustrado nas FIGS. 8B, 8C e 8D, quando o conjunto 35 e o objeto 16 forem tocados (vide FIG. 8A) e arrastados para dentro da distância d3 na tela sensível ao toque 190 pelo meio de entrada 1 (por exemplo, o polegar e dedo indicador do usuário), o controlador 110 pode controlar a exibição do conjunto 35 e do objeto 16 em combinação na tela sensível ao toque 190 como ilustrado na FIG. 8E. O controlador 110 controla a exibição dos objetos combinados 15, 16 e 17 na área de exibição de objetos 31 e forma um novo conjunto 36.
Com referência à FIG. 8F, os ícones de atalho 11 a 17 e 21, 22 e 23, uma ferramenta 24, e uma pluralidade de conjuntos 38 e 40 são exibidos na tela sensível ao toque 190. Com referência à FIG. 8F, embora a ferramenta 24 seja exibida em um tamanho 1x2 em uma estrutura onde os ícones de atalho 11 a 17 e 21, 22 e 23 são exibidos em uma matriz 3x5 na tela sensível ao toque 190, o tamanho da ferramenta 24 pode ser aumentado livremente. O tamanho do conjunto 40 pode ser substancialmente do mesmo tamanho de cada um dos icones de atalho 11 a 17 e 21, 22 e 23. Contudo, o conjunto 38 pode ser maior que cada um dos ícones de atalho 11 a 17 e 21, 22 e 23 e o tamanho do conjunto 38 pode também ser aumentado livremente. O conjunto 38 pode conter mais objetos que o conjunto 40. Como ilustrado na FIG. 8F, os conjuntos 38 e 40 podem ser contornados como indicado pelos numerais de referência 38-1 e 40-1, respectivamente, e imagens reduzidas de todos os objetos contidos nos conjuntos 38 e 40 podem residir dentro dos contornos 38-1 e 40-1 dos conjuntos 38 e 40. Portanto, o usuário pode facilmente identificar os objetos dentro dos conjuntos 38 e 40. Alternativamente, apenas as imagens reduzidas de uma parte dos objetos incluídos nos conjuntos 38 e 40 pode ser exibida na tela sensível ao toque 190 (por exemplo, o texto pode ser omitido, etc.) .
As FIGS. 9A, 9B, 9C e 9D ilustram um método de aumento de um conjunto de objetos combinados em uma tela sensível ao toque de acordo com uma modalidade da presente revelação.
Com referência à FIG. 9A, se o conjunto 40 de objetos combinados for exibido na pequena tela sensível ao toque 190, o usuário pode ter dificuldade na identificação de objetos ou ícones dentro do conjunto 40. Portanto, o usuário pode ampliar ou reduzir o conjunto 40 tocando o conjunto 40 diversas vezes com o meio de entrada 1, como ilustrado nas FIGS. 9B, 9C e 9D.
Especificamente, se dois pontos no conjunto 40 exibido na tela sensível ao toque 190 forem tocados pelo meio de entrada 1 (por exemplo, o polegar e o dedo indicador do usuário) como ilustrado na FIG. 9B e o polegar e o dedo indicador se afastarem um do outro, o controlador 110 detecta o gesto de compressão e controla a exibição do conjunto 40 ampliando-o na tela sensível ao toque 190 de acordo com o gesto de compressão como ilustrado na FIG. 9C. À medida que o conjunto 40 fica maior, o controlador 110 controla a exibição de objetos ampliados dentro do conjunto 40 na tela sensível ao toque 190. A FIG. 9D ilustra um estado onde o conjunto 40 é aumentado até uma dimensão máxima na tela sensível ao toque 190. O conjunto 40 contém uma pluralidade de objetos 41 a 50 .
Pelo contrário, se dois pontos no conjunto 40 exibido na tela sensível ao toque 190 forem tocados pelo meio de entrada 1 (por exemplo, o polegar e o dedo indicador do usuário) e em seguida o polegar e o dedo indicador se aproximarem um do outro, o controlador 110 pode controlar a redução e exibe o conjunto 40 de acordo com a distância entre o polegar e o dedo indicador na tela sensível ao toque 190.
Com referência às FIGS. 9B, 9C e 9D, quando o conjunto 40 é ampliado na tela sensível ao toque 190, o controlador 110 controla a exibição adicional de um contorno circular 52 no formato de uma lente amplificadora em torno do conjunto 40. Quando o conjunto 40 é aumentado, o contorno circular 52 é maior do que quando o conjunto 40 é reduzido, quando o contorno circular 52 é menor. Como consequência, o conjunto 40 pode parecer aumentado na tela sensível ao toque 190 pela lente amplificadora. Além disso, o controlador 110 pode controlar a exibição dos objetos 11, 12, 13, 21, 22 e 23 subjacentes ao conjunto 40 de tal modo que os objetos 11, 12, 13, 21, 22 e 23 pareçam embaçados, e pode controlar a desativação dos objetos 11, 12, 13, 21, 22 e 23. Na FIG. 9D, os objetos embaçados estão marcados com linhas tracejadas.
Com o conjunto 40 ampliado na tela sensível ao toque 190 como ilustrado na FIG. 9D, uma tecla voltar 53 pode ser exibida na tela sensível ao toque 190. Quando a tecla voltar 53 for tocada, o controlador 110 pode retornar o conjunto 40 para o seu tamanho original e exibir o conjunto 40 no tamanho original, como ilustrado na FIG. 9A.
As FIGS. 10A, 10B, 10C e 10D ilustram um método de aumento de um conjunto de objetos combinados em uma tela sensível ao toque de acordo com outra modalidade da presente revelação.
Com referência à FIG. 10A, se um ponto no conjunto 40 for tocado pelo meio de entrada 1 (por exemplo, o dedo indicador do usuário) e em seguida o toque for arrastado para fora do conjunto 40, o controlador 110 detecta o gesto de arrasto e controla a exibição do conjunto 40 ampliado na tela sensível ao toque 190. Por exemplo, quando o usuário toca um ponto 40-2 no contorno 40-1 do conjunto 40 com o meio de entrada 1 e arrasta o toque para baixo na tela sensível ao toque 190, o controlador 110 reconhece o gesto do usuário e controla o aumento do conjunto 40.
Adicionalmente, se o conjunto 40 for aumentado, o controlador 110 pode controlar a exibição do tamanho dos objetos dentro do conjunto 40 na tela sensível ao toque 190 .
Com referência à FIG. 10C, quando o conjunto 40 é ampliado até uma dimensão máxima na tela sensível ao toque 190, a pluralidade de objetos 41 a 50 é contida no conjunto 40 e exibida.
Com referência à FIG. 10D, com o conjunto 40 ampliado na tela sensível ao toque 190, se um ponto no conjunto 40 for tocado pelo meio de entrada 1 e em seguida o toque for arrastado para dentro do conjunto 40, o controlador 110 pode detectar o gesto de arrasto e controlar a exibição do conjunto 40 reduzido na tela sensível ao toque 190. Por exemplo, se o usuário tocar o ponto 40-2 no contorno 40-1 do conjunto 40 com o meio de entrada 1 e em seguida arrastar o toque para cima na tela sensível ao toque 190, o controlador 110 reconhece o gesto do usuário e controla a redução do conjunto 40.
Com referência à FIG. 10Δ, antes do conjunto 40 ser ampliado, o contorno 40-1 pode ser desenhado ao redor dos objetos dentro do conjunto 40. 0 contorno 40-1 pode ser similar àquele de cada um dos ícones adjacentes 11 a 18 e 21, 22, e 23 em termos de formato e tamanho. Se muitos objetos estiverem dentro do conjunto 40, o conjunto 40 e seu contorno 40-1 podem ser maiores que cada um dos ícones adjacentes 11 a 18 e 21, 22, e 23. Com referência à FIG. 10B, quando o conjunto 40 for ampliado, o contorno 40-1 do conjunto 40 pode ser apenas aumentado com o formato inalterado. Alternativamente, quando o conjunto 40 for ampliado, o contorno 40-1 do conjunto 40 pode ser desenhado na forma de uma lente amplificadora circular diferente do formato do contorno 40-1.
Além disso, o controlador 110 pode controlar a exibição dos objetos 11, 12, 13, 21, 22 e 23 sob o conjunto 4 0 de tal modo que os objetos 11, 12, 13, 21, 22 e 23 pareçam embaçados, e pode controlar a desativação dos objetos 11, 12, 13, 21, 22 e 23. Nas FIGS. 10C e 10D, com o conjunto 40 ampliado na tela sensível ao toque 190, a tecla voltar 53 pode ser exibida na tela sensível ao toque 190.
As FIGS. 11A e 11B ilustram um método de aumento de objetos combinados em uma tela sensível ao toque de acordo com outra modalidade da presente revelação.
Com referência às FIGS. 11A e 11B, se o conjunto 40 de objetos combinados for exibido na pequena tela sensível ao toque 190, o usuário pode ter dificuldade na identificação de objetos ou ícones dentro do conjunto 40. Portanto, o usuário pode ampliar ou reduzir o conjunto 40 tocando no conjunto 40 com o meio de entrada 1, como ilustrado nas FIGS. 11A e 11B.
Por exemplo, se um ponto no conjunto 4 0 exibido na tela sensível ao toque 190 for tocado pelo meio de entrada 1 como ilustrado na FIG. 11A, o controlador 110 pode detectar o gesto de toque e pode controlar a exibição do conjunto 40 ampliado na tela sensível ao toque 190 como ilustrado na FIG. 11B. Quando o conjunto 40 for ampliado, o controlador 110 pode controlar a exibição dos objetos ampliados dentro do conjunto 40 na tela sensível ao toque 190 .
Quando o conjunto 40 for ampliado na tela sensível ao toque 190, o controlador 110 pode controlar a exibição do contorno circular 52 formatado em uma lente amplificadora ao redor do conjunto 40. Quando o conjunto 40 for ampliado, o contorno circular 52 fica maior e quando o conjunto 40 for reduzido, o contorno circular 52 fica menor. Como consequência, o conjunto 40 pode aparecer aumentado na tela sensível ao toque 190 similar a uma lente amplificadora.
Com o conjunto 40 ampliado na tela sensível ao toque 190, a tecla voltar 53 pode ser exibida na tela sensível ao toque 190. Quando a tecla voltar 53 for tocada, o controlador 110 pode controlar a exibição do conjunto 40 no tamanho original, como ilustrado na FIG. 11Ά.
As FIGS. 12A, 12B, 12C e 12D ilustram um método de separação de um conjunto de objetos combinados em uma tela sensível ao toque de acordo com uma modalidade da presente revelação.
Com referência às FIGS. 12A e 12B, o conjunto 40 contém, por exemplo, 10 objetos. Embora apenas o conjunto 40 seja exibido na tela sensível ao toque 190 para conveniência de descrição, outros objetos ou ícones podem ser adicionados à tela sensível ao toque 190. O usuário pode separar o conjunto 40 dentro dos objetos individuais tocando um ponto 60 dentro do conjunto 40 com o meio de entrada 1 e em seguida sacudindo repetidamente o meio de entrada 1 em ambas as direções opostas 61 e 62 linearmente durante um curto período de tempo (por exemplo, 2 segundos). O gesto de sacudidura inclui ao menos um gesto de arrastar um toque no ponto 60 em uma direção 61 e em seguida arrastar o toque na direção oposta 62 com o meio de entrada 1. Isto é, o gesto de sacudidura é um gesto de 2 arrastos feito lateralmente ou para a frente e para trás com o meio de entrada 1 na tela sensível ao toque 190. Quando detectando um arrasto na direção 61 e em seguida outro arrasto na direção oposta 62 na tela sensível ao toque 190, o controlador 110 pode ser ajustado para reconhecer o gesto de 2 arrastos como um comando para mover o conjunto 40 na tela sensivel ao toque 190. Consequentemente, é preferível que o meio de entrada 1 seja arrastado lateralmente ou para a frente e para trás ao menos três vezes (por exemplo, o meio de entrada 1 é arrastado na direção 61, na direção oposta 62 e depois na direção 61), e o controlador 110 determina entrada do gesto de sacudidura. O gesto de arrasto na direção 61 ou 62 pode ser feito dentro de uma área exibida 63 do conjunto 40 ou parcialmente fora da área exibida 63 do conjunto 40. Quando o gesto de sacudidura for repetido mais vezes na tela sensível ao toque 190, o controlador 110 pode controlar a separação acelerada do conjunto 40 nos objetos individuais. Além disso, quando o meio de entrada 1 se mover lateralmente de uma grande distância pelo gesto de sacudidura, o controlador 110 pode controlar a separação do conjunto 40 nos objetos individuais. Quando o meio de entrada 1 se mover lateralmente mais rapidamente pelo gesto de sacudidura, o controlador 110 pode controlar a separação do conjunto 40 nos objetos individuais.
Na FIG. 12B, após detectar um gesto de sacudidura do meio de entrada 1 no conjunto 40, o controlador 110 controla a remoção de alguns objetos 41, 44 e 48 do conjunto 40 e exibe os objetos 41, 44 e 48 separados do conjunto 40. Os objetos 41, 44 e 48 podem ter sido os mais externos do conjunto 40.
Com referência à FIG. 12C, após detecção de um gesto adicional de sacudidura em um conjunto 40-1 que contém os restantes objetos do conjunto 40, exceto pelos objetos 41, 44 e 48, o controlador 110 controla a remoção dos objetos 42, 43 e 47 do conjunto 40-1 e exibe os objetos 42, 43 e 47 do conjunto 40-1 na tela sensível ao toque 190. Os objetos 42, 43 e 47 podem ter sido os mais externos do conjunto 40-1 .
Com referência à FIG. 12D, após detecção de um gesto adicional de sacudidura em um conjunto 40-2 que contém os restantes objetos 45, 46, 49 e 50 do conjunto 40-1, o controlador 110 separa o conjunto 40-2 nos objetos 45, 46, 49 e 50 e controla a exibição dos objetos 45, 46, 49 e 50 na tela sensível ao toque 190.
Como descrito acima, após detecção de um toque no ponto 60 dentro do conjunto 40 exibido na tela sensível ao toque 190 e repetidos arrastos do toque em direções opostas pelo meio de entrada 1, o controlador 110 pode determinar que um gesto de sacudidura foi introduzido e pode separar o conjunto 40 nos objetos individuais 41 a 50 sequencialmente. Como o processo de separação sequencial do conjunto 40 nos objetos individuais faz lembrar ao usuário da sacudidura sequencial de uvas para fora de um cacho de uvas, começando pelas uvas mais externas do cacho de uvas, o usuário pode facilmente compreender intuitivamente a operação de separação do conjunto 40. Além disso, o usuário pode facilmente introduzir um comando de separação para o dispositivo móvel 100 fazendo um gesto de sacudidura no conjunto 40.
Após detecção de um toque no ponto 60 dentro do conjunto 40 exibido na tela sensível ao toque 190 e repetidos arrastos do toque em diferentes direções na tela sensível ao toque 190 pelo meio de entrada 1, o controlador 110 pode determinar que um gesto de sacudidura foi introduzido e, portanto, controlar a separação do conjunto 40 nos objetos 41 a 50 de uma vez e exibir os objetos 41 a 50 na tela sensível ao toque 190.
As FIGS . 13A, 13B, 13C e 13D ilustram um método de separação de um conjunto de objetos combinados em uma tela sensível ao toque de acordo com outra modalidade da presente revelação.
Com referência às FIGS. 13A, 13B, 13C e 13D, após detecção de um toque do meio de entrada 1 no ponto 60 dentro do conjunto 40 e em seguida de um gesto de sacudidura repetida do dispositivo móvel 100 em diferentes direções, o controlador 110 pode determinar que um gesto de sacudidura foi introduzido. Por exemplo, quando o usuário sacode o dispositivo móvel 100 lateralmente ou para a frente e para trás enquanto tocando o conjunto 40, o controlador pode detectar a sacudidura do dispositivo móvel através do módulo sensor 170 e determinar que o gesto de sacudidura foi introduzido, e separar o conjunto 40 nos objetos individuais 41 a 50.
Se o dispositivo móvel 100 for mais sacudido, o controlador 110 pode controlar um aumento na separação do conjunto 40 nos objetos 41 a 50. Se o dispositivo móvel 100 for sacudido lateralmente de uma distância maior, o controlador 110 pode controlar um aumento na separação do conjunto 40 nos objetos 41 a 50. Se o dispositivo móvel 100 for sacudido lateralmente mais rápido, o controlador 110 pode controlar um aumento na separação do conjunto 40 nos objetos 41 a 50.
Com referência às FIGS. 13A, 13B, 13C e 13D, o conjunto 40 é sequencialmente separado nos objetos individuais 41 a 50 na tela sensível ao toque 190, como descrito anteriormente com referência às FIGS. 12A a 12D. Além disso, após detecção de um gesto de sacudidura, o controlador 110 pode controlar a exibição dos objetos individuais 41 a 50 separados do conjunto 40 na tela sensível ao toque 190.
As FIGS. 14A, 14B, 14C, 14D, 14E e 14F ilustram um método de bloqueio e desbloqueio de um objeto exibido em uma tela sensível ao toque de acordo com uma modalidade da presente revelação.
Com referência à FIG. 14A, o usuário pode necessitar bloquear uma parte dos objetos 11 a 18 e o conjunto 40 exibidos na tela sensível ao toque 190. Por exemplo, o usuário pode escrever e armazenar uma anotação simples usando um aplicativo de memorando no dispositivo móvel 100. Para proteger a privacidade, pode ser necessário bloquear outras pessoas de acessar a anotação. Neste caso, o usuário pode bloquear o objeto 17 que representa o aplicativo de memorando. Se o usuário desejar bloquear outras pessoas de ver o registro de chamadas do usuário, o usuário pode bloquear o objeto 21 que representa um aplicativo de telefone que fornece um registro de chamadas e um catálogo de telefones, e recebe ou realiza uma chamada. Além disso, ícones que representam e-mails, mensagens instantâneas, Serviço de Rede Social (SNS), um aplicativo de pesquisa de foto, e similares podem ser bloqueados.
Para bloquear o objeto 17, o usuário pode tocar o objeto 17 e em seguida torcer ou girar o toque de um ângulo predeterminado ou acima deste com o meio de entrada 1. Por exemplo, quando o usuário torce ou gira o toque de um ângulo predeterminado com o meio de entrada 1, o controlador 110 pode controlar a exibição de uma janela de colocação de senha {não mostrada) na tela sensível ao toque 190 para permitir que o usuário coloque uma senha de acordo com outra modalidade da presente revelação. A janela de colocação de senha pode ser configurada de modo que o usuário introduza um padrão de arrasto predeterminado ao invés de introduzir a tela de senha.
Com referência à FIG. 14B, o controlador 110 exibe uma pluralidade de objetos 11 a 18 e o conjunto 40 na tela sensível ao toque 190. Após recepção de um comando de bloqueio para o objeto 17, o controlador 110 controla a exibição de um indicador de bloqueio 70 que indica um progresso de bloqueio na tela sensível ao toque 190. O comando de bloqueio pode ser gerado por um gesto de pressão ou toque duplo do objeto 17 na tela sensível ao toque 190 com o meio de entrada 1. A FIG. 14B ilustra um exemplo no qual o indicador de bloqueio 70 é exibido na tela sensivel ao toque 190. Com referência à FIG. 14B, o indicador de bloqueio 70 é exibido adjacente ao objeto tocado 17. Particularmente, o indicador de bloqueio 70 é preferivelmente exibido acima do objeto tocado 17 de modo que o indicador de bloqueio 70 não possa ser coberto pelo meio de entrada 1 (por exemplo, um dedo indicador do usuário). O indicador de bloqueio 70 inclui uma linha de início de bloqueio 71. Adicionalmente, o indicador de bloqueio 70 pode incluir uma imagem de cadeado aberto 72. A imagem de cadeado aberto 72 pode representar que o objeto tocado 17 ainda não foi bloqueado. O indicador de bloqueio 70 pode ainda incluir uma linha de término de bloqueio 73 e uma imagem de cadeado fechado 74. Na FIG. 14B, a linha de inicio de bloqueio 71 e a linha de término de bloqueio 73 estendem-se radialmente a partir do centro do objeto 17, separadas entre si de um ângulo predeterminado Θ . O ângulo Θ pode ser um ângulo de torção ou de rotação do meio de entrada 1, por exemplo, 90 graus.
Com referência à FIG. 14C, quando o meio de entrada 1 gira o toque no objeto 17, o controlador 110 detecta um ângulo de torção do meio de entrada 1 e exibe barras indicativas 75 no indicador de bloqueio 70. Na FIG. 14C, quatro barras indicadoras 75 são exibidas, o que indica que 0 objeto 17 ainda não foi bloqueado. Quando o meio de entrada 1 for girado de um ângulo maior, mais barras indicadoras 75 são exibidas. As barras indicadoras 75 são preenchidas entre as linhas 71 e 73, começando com a barra de inicio de bloqueio 71. 0 controlado 110 determina se o meio de entrada 1 foi girado de um ângulo predeterminado Θ. Se o meio de entrada 1 tiver sido girado do ângulo predeterminado θ, o controlador 110 bloqueia o objeto tocado 17. Com referência à FIG. 14D, quando o objeto tocado 17 for bloqueado, o controlador 110 pode controlar a exibição das barras indicadoras 75 preenchidas entre as linhas de inicio e de término de bloqueio 71 e 73 e pode notificar que o objeto 17 foi completamente bloqueado.
Com referência à FIG. 14E, o texto "BLOQUEADO" é exibido sobre o objeto 17 para indicar o estado bloqueado do objeto 17. Em uma modalidade alternativa da presente revelação, o estado bloqueado do objeto 17 pode ser indicado pela exibição de uma imagem que representa o estado bloqueado (por exemplo, uma imagem de cadeado) sobre o objeto 17 ou a alteração da cor do objeto 17. Logo que o objeto 17 for bloqueado, o controlador 110 não executa o aplicativo correspondente ao objeto 17 no dispositivo móvel 100, mesmo que o objeto 17 seja tocado.
Com referência às FIGS. 14B, 14C e 14D, o numeral de referência 82 representa uma área tocada pelo meio de entrada 1 na tela sensível ao toque 190. O controlador 110 pode determinar se o ângulo de torção ou girado do meio de entrada 1 para bloquear um objeto foi alterado pela detecção de uma mudança na posição da área tocada 82.
Com referência à FIG. 14F, é ilustrada uma operação de desbloqueio do objeto bloqueado 17. Especificamente, quando o usuário toca no objeto bloqueado 17 uma vez com o meio de entrada 1, o controlador 110 pode controlar a exibição de uma janela de entrada de senha 76 na tela sensível ao toque 190 para permitir que o usuário introduza uma senha. Se o usuário introduzir uma senha válida na janela de entrada de senha 76, o controlador 110 pode controlar o desbloqueio do objeto 17. A janela de entrada de senha 76 pode ser configurada de tal modo que o usuário introduza um padrão de arrasto predeterminado ao invés de introduzir a senha. Quando o objeto desbloqueado 17 for tocado pelo meio de entrada 1, o controlador 110 controla a execução do aplicativo correspondente ao objeto 17 no dispositivo móvel 100.
Embora o objeto tocado 17 seja mostrado nas FIGS. 14A, 14B, 14C, 14D, 14E e 14F como exibido imóvel na tela sensível ao toque 190, quando o meio de entrada 1 tocar o objeto 17 e girar o toque sobre o objeto 17, o controlador 110 pode controlar a exibição do objeto 17 girado na tela sensível ao toque 190. Se o objeto 17 for girado de um ângulo predeterminado Θ na tela sensível ao toque 190, o controlador 110 pode controlar o bloqueio do objeto 17.
As FIGS. 15A, 15B e 15C ilustram um método de bloqueio e desbloqueio de um objeto exibido em uma tela sensível ao toque de acordo com outra modalidade da presente revelação.
Com referência à FIG. 15A, o objeto 17 correspondente ao aplicativo de memorando inclui um fundo de ícone baseado em vetor 17-1, um título baseado em vetor 17-2, e uma imagem baseada em vetor 17-3 do objeto 17. Quando o usuário introduz um comando de bloqueio tocando o objeto 17 correspondente ao aplicativo de memorando e em seguida torce ou gira o toque no objeto 17 de um ângulo predeterminado Θ com o meio de entrada 1, o controlador 110 detecta o comando de bloqueio e bloqueia o objeto.
Com referência à FIG. 5B, o estado bloqueado do objeto 17 pode ser indicado pela exibição de uma imagem de cadeado 17-4 sobre o objeto 17. Além disso, o estado bloqueado do objeto 17 pode ser enfatizado pelo sombreamento do objeto 17 com linhas hachuradas.
Com referência à FIG. 15C, o estado bloqueado do objeto 17 pode ser indicado pela exibição do texto "BLOQUEADO" sobre o objeto 17, sem ao menos um dentre o título baseado em vetor 17-2 e da imagem baseada em vetor 17-3 do objeto bloqueado 17. O controlador 110 pode mudar a imagem do objeto 17 para outra imagem sem exibir qualquer um dentre o fundo de ícone baseado em vetor 17-1, o título baseado em vetor 17-2, e a imagem baseada em vetor 17-3. Como o objeto bloqueado 17 não é conhecido por alguém mais exceto pelo usuário, a privacidade do usuário pode ser protegida.
As FIGS. 16A e 16B ilustram um método de bloqueio e desbloqueio de um objeto exibido em uma tela sensível ao toque de acordo com outra modalidade da presente revelação.
Em outra modalidade da presente revelação, o conjunto 40 pode ser bloqueado e a imagem do conjunto 40 bloqueado pode ser mudada.
Por exemplo, com referência à FIG. 16A, o conjunto 40 inclui uma pluralidade de objetos, cada objeto contendo a versão reduzida de um fundo de ícone baseado em vetor, de um título baseado em vetor, e de uma imagem baseada em vetor. Quando o usuário introduz um comando de bloqueio tocando no conjunto 40 e torcendo ou girando o toque de um ângulo predeterminado Θ com o meio de entrada 1, o controlador 110 detecta o comando de bloqueio e bloqueia o conjunto 40. Logo que o conjunto 40 é colocado no estado bloqueado, o controlador 110 controla para que os objetos incluídos no conjunto 40 não sejam executados.
Com referência à FIG. 16B, quando o conjunto 40 estiver bloqueado, o controlador 110 indica o estado bloqueado do conjunto 40 pela exibição do texto "BLOQUEADO" sobre o conjunto 40. Além disso, o controlador 110 pode exibir apenas o contorno do conjunto 40 sem exibição de qualquer dos objetos incluídos no conjunto bloqueado 40. O conjunto bloqueado 40 pode ser mudado para outra imagem. Consequentemente, uma vez que o conjunto 40 é mostrado como bloqueado, os objetos incluídos no conjunto bloqueado 40 não são expostos para qualquer pessoa exceto para o usuário e a privacidade do usuário pode ser protegida. Em outra modalidade alternativa da presente revelação, o controlador 110 pode controlar a exibição de imagens reduzidas dos objetos incluídos no conjunto bloqueado 40.
As FIGS. 17A, 17B, 17C e 17D ilustram um método de gerenciamento de objetos exibidos em uma tela sensível ao toque com base no uso dos objetos de acordo com uma modalidade da presente revelação.
Com referência à FIG. 17A, a pluralidade de objetos 11 a 23 é exibida na tela sensível ao toque 190. Quando o usuário seleciona frequentemente alguns dos objetos 11 a 23, aplicativos correspondentes aos objetos selecionados podem ser executados frequentemente no dispositivo móvel 100. Por outro lado, outros objetos podem ser usados pouco frequentemente. Se objetos usados pouco frequentemente ocuparem continuamente uma parte da pequena tela sensível ao toque 190, a tela sensível ao toque 190 pode não ser usada eficientemente quando existir uma falta de espaço para exibição de objetos usados frequentemente.
Em uma modalidade da presente revelação, os objetos 11 a 23 podem aparecer como corpos orgânicos que ativamente vivem e progressivamente morrem pela mudança de um dentre os tamanhos, cores e formatos dos objetos 11 a 23 de acordo com as contagens de seleção dos objetos 11 a 23, isto é, as contagens de execução ou últimos períodos de tempo não usados dos aplicativos correspondentes aos objetos 11 a 23 no dispositivo móvel 100.
Com referência à FIG. 17B, o controlador 110 controla a exibição da pluralidade de objetos 11 a 23 na tela sensível ao toque 190. O controlador 110 armazena as contagens de seleção de objetos 11 a 23 pelo meio de entrada 1 e de execução dos objetos selecionados 11 a 23 no dispositivo móvel 100. Se a contagem de execuções de ao menos um dos objetos 11 a 23 exibidos na tela sensível ao toque 190 durante um primeiro período de tempo (por exemplo, as últimas quatro semanas) for menor que um valor predeterminado, o controlador 110 substitui uma imagem inicial do objeto por outra imagem e controla a exibição do objeto. Por exemplo, o controlador 110 pode controlar a exibição dos objetos 11 a 23 em diferentes tamanhos de acordo com as contagens de seleção e de execução dos objetos 11 a 23. Na FIG. 17B, os objetos 16 e 20 são exibidos menores que os outros objetos 11 a 15 e 17 a 19 na tela sensível ao toque 190, o que indica que os objetos 16 e 20 são selecionados e executados pelo meio de entrada 1 menos que os outros objetos 11 a 15 e 17 a 19.
Em uma modalidade alternativa da presente revelação, com referência à FIG. 17C, os objetos 16 e 20 são menores que os outros objetos 11 a 15 e 17 a 19. Particularmente, o objeto 20 é menor que o objeto 16. Isto indica que os objetos 16 e 20 foram selecionados e executados menos que os outros objetos 11 a 15 e 17 a 19 e que a contagem de seleção e execução do objeto 16 é menor que do objeto 20 no dispositivo móvel 100.
Se os objetos reduzidos 16 e 20 forem selecionados pelo meio de entrada 1 e executados no dispositivo móvel 100 na FIG. 17B ou 17C, o controlador 110 pode controlar a exibição dos objetos 16 e 20 nos tamanhos originais na tela sensível ao toque como ilustrado na FIG. 17A.
Contudo, se os objetos reduzidos 16 e 20 não forem executados durante um segundo período de tempo (por exemplo, 2 semanas) a seguir ao primeiro período de tempo (por exemplo, as últimas quatro semanas), o controlador 110 pode controlar a remoção dos objetos 16 e 20 da tela sensível ao toque 190. Isto é, o controlador 110 pode automaticamente remover os objetos 16 e 20 de uma tela atual da tela sensível ao toque 190.
Com referência à FIG. 17D, após os objetos 16 e 20 serem removidos da tela sensível ao toque 190, o controlador 110 pode reorganizar os outros objetos 11 a 15 e 17 a 19 e controlar a exibição dos objetos reorganizados 11 a 15 e 17 a 19 na tela sensível ao toque 190.
Por exemplo, mesmo embora os objetos 16 e 20 sejam removidos de uma tela inicial exibida na tela sensível ao toque 190, os objetos 16 e 20 podem ainda existir em outras telas (por exemplo, a tela de menu principal).
Mesmo embora os objetos 16 e 20 sejam removidos da tela inicial ou da tela de menu principal, os aplicativos correspondentes aos objetos 16 e 20 não são desinstalados. Portanto, mesmo embora os objetos 16 e 20 sejam removidos da tela inicial ou da tela de menu principal, os objetos 16 e 20 e os aplicativos correspondentes aos objetos 16 e 20 podem ainda ser armazenados na memória 175 e exibidos na tela sensível ao toque 190 em qualquer instante.
As FIGS . 18A, 18B, 18C e 18D ilustram um método de gerenciamento de objetos exibidos em uma tela sensível ao toque com base no uso dos objetos de acordo com outra modalidade da presente revelação.
Com referência à FIG. 18A, em outra modalidade da presente revelação, os objetos 11 a 23 podem parecer semelhantes a corpos orgânicos que ativamente vivem e progressivamente morrem pela alteração das cores dos objetos 11 a 23 de acordo com as contagens de seleção dos objetos 11 a 23, isto é, as contagens de execução ou últimos períodos de tempo não usados dos aplicativos correspondentes aos objetos 11 a 23 no dispositivo móvel 100 .
Com referência à FIG. 18B, o controlador 110 pode armazenar as contagens de execução dos objetos selecionados 11 a 23 no dispositivo móvel 100 e pode exibir os objetos 11 a 23 em diferentes cores de acordo com as suas contagens de execução. Na FIG. 18B, os objetos 16 e 20 são exibidos com uma baixa densidade de cor ou em uma cor acromática (por exemplo, cinza), em relação aos outros objetos 11 a 15 e 17 a 19. Isto indica que os objetos 16 e 20 são executados menos que ou outros objetos 11 a 15 e 17 a 19 no dispositivo móvel 100.
Em uma modalidade alternativa da presente revelação, com referência à FIG. 18C, os objetos 16 e 20 são exibidos com menores densidades de cor que os outros objetos 11 a 15 e 17 a 19. Particularmente, o objeto 20 é exibido com uma menor densidade de cor que o objeto 16. Isto significa que os objetos 16 e 20 foram executados menos que os outros objetos 11 a 15 e 17 a 19 e que a contagem de seleção e execução do objeto 16 foi menor que o objeto 20 no dispositivo móvel 100.
Se os objetos reduzidos 16 e 20 forem selecionados pelo usuário e executados no dispositivo móvel 100 na FIG. 18Β ou 18C, o controlador 110 pode controlar a exibição dos objetos 16 e 20 com as densidades originais de cor na tela sensível ao toque como ilustrado na FIG. 18A.
Contudo, se os objetos 16 e 20 não forem executados continuamente no dispositivo móvel 100, o controlador 110 pode controlar a remoção dos objetos 16 e 20 da tela sensivel ao toque 190.
Com referência à FIG. 18D, após os objetos 16 e 20 serem removidos da tela sensivel ao toque 190, o controlador 110 pode reorganizar os outros objetos 11 a 15 e 17 a 19 e controlar a exibição dos objetos reorganizados 11 a 15 e 17 a 19 na tela sensivel ao toque 190.
As FIGS. 19A, 19B, 19C, 19D e 19E ilustram um método de exibição de um efeito de movimento para um objeto em uma tela sensivel ao toque de acordo com uma modalidade da presente revelação.
Com referência às FIGS. 19A, 19B, 19C, 19D e 19E, após geração de um evento de um objeto exibido na tela sensivel ao toque 190, o controlador 110 pode aplicar um efeito de movimento ao objeto. Por exemplo, quando um e-mail for recebido em um aplicativo de e-mails, a recepção do e-mail pode ser indicada em um icone de e-mails 15 na tela sensivel ao toque 190. Na FIG. 19A, a recepção de três e-mails é indicado no icone de e-mails 15. Quando ocorre um evento no objeto 15, o controlador 110 pode controlar a contração e expansão repetidas do tamanho do objeto 15 na tela sensivel ao toque 190.
Com referência às FIGS. 19A, 19B, 19C, 19D e 19E, após ocorrer um evento no objeto 15, o tamanho do objeto 15 diminui gradualmente e em seguida aumenta gradualmente com a passagem do tempo.
Enquanto o objeto 15 está gradualmente se contraindo, o controlador 110 pode controlar a contração gradual de uma única imagem 15-3 do objeto 15.
Além disso, enquanto o objeto 15 se está gradualmente contraindo, o controlador 110 pode controlar a mudança da cor de uma imagem de fundo 15-1 do objeto 15.
Apesar da redução gradual do objeto 15 em tamanho, o controlador 110 pode manter um titulo 15-2 e um indicador de mensagem entrante 15-4 inalterados em tamanho.
Adicionalmente, quando o objeto 15 for reduzido em tamanho, o controlador 110 pode criar um sombreado 15-5 que circunda o objeto 15. O sombreado 15-5 estende-se a partir do contorno do objeto 15. Como o objeto 15 é gradualmente contraído, o controlador 110 pode controlar o aumento gradual do sombreado 15-5.
Enquanto o objeto 15 está sendo aumentado gradualmente, o controlador 110 pode controlar o aumento gradual de uma única imagem 15-3 do objeto 15.
Enquanto o objeto 15 está sendo aumentado gradualmente, o controlador 110 pode controlar a mudança da cor da imagem de fundo 15-1 do objeto 15.
Apesar do aumento gradual do objeto 15, o controlador 110 pode manter o título 15-2 e o indicador de mensagem entrante 15-4 inalterados em tamanho.
Enquanto o objeto 15 está sendo aumentado gradualmente, o controlador 110 pode controlar a contração gradual do sombreado 15-5. 0 controlador 110 pode propiciar um efeito no objeto 15 de modo que o objeto 15 se pareça com uma peça orgânica ao repetir a contração e expansão descritas acima do objeto 15 como ilustrado nas FIGS. 19A, 19B, 19C, 19D e 19E. Portanto, o usuário pode reconhecer a ocorrência de um evento relacionado com o objeto 15. Além disso, a modalidade da presente revelação permite que o usuário reconheça a ocorrência de evento mais intuitivamente, comparado com a simples indicação do número de ocorrências de evento no objeto 15.
Como é evidente a partir da descrição acima, a presente revelação é vantajosa pelo fato de que uma pluralidade de objetos exibidos em uma tela pequena pode ser gerenciada eficientemente em um dispositivo equipado com uma tela sensível ao toque. A pluralidade de objetos exibida na tela sensível ao toque pode ser combinada e separada rapidamente por gestos simples do usuário. A pluralidade de objetos exibida na tela sensível ao toque pode ser bloqueada e desbloqueada facilmente por gestos simples do usuário. Além disso, ícones que representam aplicativos usados menos frequentemente podem ser removidos automaticamente na tela sensível ao toque. Portanto, um usuário pode eficientemente gerenciar objetos que representam uma pluralidade de aplicativos armazenada em um dispositivo móvel por um gesto simples do usuário.
Deverá ser observado que as diversas modalidades da presente revelação como descrita acima incluem o processamento de dados de entrada e a geração de dados de saída. O processamento de dados de entrada e a geração de dados de saída podem ser implementados em hardware ou software em combinação com hardware. Por exemplo, componentes eletrônicos específicos podem ser utilizados em um dispositivo móvel ou similar ou conjuntos de circuitos correlatos para implementação das funções associadas às diversas modalidades da presente revelação como descrita acima. Alternativamente, um ou mais processadores que funcionam de acordo com instruções armazenadas podem implementar as funções associadas às diversas modalidades da presente revelação como descrita acima. Exemplos de meios legíveis por processador incluem Memória Apenas de Leitura (ROM), Memória de Acesso Aleatório (RAM), CD-ROMs, fitas magnéticas, discos flexíveis, e dispositivos óticos de armazenamento de dados. Os meios legíveis por processador podem também estar distribuídos por sistemas de computação acoplados a redes. Também, programas funcionais de computador, instruções e segmentos de instruções para realização da presente revelação podem ser facilmente elaborados por programadores versados na técnica à qual a presente revelação se refere.
Embora a presente revelação tenha sido mostrada e descrita com referência a suas diversas modalidades, será entendido por aqueles versados na técnica que podem ser feitas naquelas diversas mudanças em forma e detalhes sem divergir do espírito e âmbito da presente revelação como definida pelas reivindicações apensas e suas equivalentes.
REIVINDICAÇÕE S

Claims (14)

1. Método de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensível ao toque, o método caracterizado por compreender: determinar se ao menos dois da pluralidade de objetos foram tocados simultaneamente na tela sensível ao toque; determinar se ao menos um dos ao menos dois objetos se moveu na tela sensível ao toque, se os ao menos dois objetos tiverem sido tocados simultaneamente; determinar a distância entre os ao menos dois objetos tocados, se o ao menos um dos ao menos dois objetos tiver se movido na tela sensível ao toque; combinar os ao menos dois objetos tocados em um conjunto, se a distância entre os ao menos dois objetos tocados for menor que um valor predeterminado; e exibir o conjunto na tela sensível ao toque.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato da combinação dos ao menos dois objetos tocados compreender a redução do tamanho de cada um dos ao menos dois objetos combinados.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato da redução do tamanho dos ao menos dois objetos tocados compreender o dimensionamento de cada um dos ao menos objetos combinados.
4. Método, de acordo com a reivindicação 1, caracterizado por compreender ainda, quando os ao menos dois objetos tocados fizerem contato entre si na tela sensível ao toque, mudar os formatos de ao menos um dos ao menos dois objetos tocados e exibir ao menos um dos ao menos dois objetos tocados mudado.
5. Método, de acordo com a reivindicação 4, caracterizado por compreender ainda, quando os ao menos dois objetos tocados fizerem contato entre si na tela sensivel ao toque se a distância entre os ao menos dois objetos tocados diminuir, a mudança dos formatos de ao menos um dos ao menos dois objetos tocados ser baseada na distância entre os ao menos dois objetos tocados.
6. Método, de acordo com a reivindicação 1, caracterizado por compreender ainda, se o conjunto e um da pluralidade de objetos forem tocados simultaneamente e movidos para dentro de uma distância predeterminada, combinar o objeto tocado com o conjunto em um novo conjunto e exibir o novo conjunto na tela sensivel ao toque.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato da exibição do conjunto compreender a exibição do conjunto em uma área de exibição para um dos obj etos.
8. Equipamento de gerenciamento de uma pluralidade de objetos exibidos em uma tela sensivel ao toque, o equipamento caracterizado por compreender: a tela sensivel ao toque configurada para exibir a pluralidade de objetos; e um controlador configurado para determinar uma distância entre ao menos dois objetos, se os ao menos dois objetos da pluralidade de objetos tiverem sido tocados simultaneamente na tela sensivel ao toque e ao menos um dos ao menos dois objetos tiver se movido na tela sensivel ao toque, e se a distância entre os ao menos dois objetos for menor que um valor predeterminado, para combinar os ao menos dois objetos em um conjunto e exibir o conjunto na tela sensível ao toque.
9. Equipamento, de acordo com a reivindicação 8, caracterizado pelo fato do controlador reduzir o tamanho de cada um dos ao menos dois objetos combinados para combinar os ao menos dois objetos dentro dó conjunto.
10. Equipamento, de acordo com a reivindicação 8, caracterizado pelo fato do controlador dimensionar o tamanho de cada um dos ao menos dois objetos combinados para combinar os ao menos dois objetos.
11. Equipamento, de acordo: com a reivindicação 8, caracterizado pelo fato de, quando os ao menos dois objetos tocados fizerem contato entre si na tela sensível ao toque, o controlador mudar os formatos dé ao menos um dos ao menos dois objetos tocados e exibir ao menos um dos ao menos dois objetos tocados mudado.
12. Equipamento, de acordo : com a reivindicação 11, caracterizado pelo fato de, quando os ao menos dois objetos tocados fizerem contato entre si na tela sensível ao toque, se a distância entre os ao menos dois objetos tocados diminuir, o controlador mudar os formatos de ao menos um dos ao menos dois objetos tocados com base na distância entre os ao menos dois objetos tocados.
13. Equipamento, de acordo com a reivindicação 8, caracterizado pelo fato de se o conjunto e um objeto da pluralidade de objetos forem tocados simultaneamente e movidos para dentro de uma distância predeterminada, o controlador combinar o objeto tocado com o conjunto em um novo conjunto e exibir o novo conjunto na tela sensível ao toque.
14. Equipamento, de acordo com a reivindicação 8, caracterizado pelo fato do conjunto ser exibido em uma área de exibição para um dos objetos.
BR102013030675A 2012-11-30 2013-11-28 equipamento e método de gerenciamento de uma pluralidade de objetos exibidos em tela sensível ao toque BR102013030675A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120138040A KR20140070040A (ko) 2012-11-30 2012-11-30 터치스크린 상에 표시되는 복수의 객체들을 관리하는 장치 및 방법

Publications (1)

Publication Number Publication Date
BR102013030675A2 true BR102013030675A2 (pt) 2015-10-27

Family

ID=49679396

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102013030675A BR102013030675A2 (pt) 2012-11-30 2013-11-28 equipamento e método de gerenciamento de uma pluralidade de objetos exibidos em tela sensível ao toque

Country Status (11)

Country Link
US (3) US20140152597A1 (pt)
EP (1) EP2738662A1 (pt)
JP (2) JP2014110054A (pt)
KR (1) KR20140070040A (pt)
CN (2) CN103853346B (pt)
AU (1) AU2013263767B2 (pt)
BR (1) BR102013030675A2 (pt)
CA (1) CA2835373A1 (pt)
RU (1) RU2013153254A (pt)
WO (1) WO2014084668A1 (pt)
ZA (1) ZA201308966B (pt)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130070506A (ko) * 2011-12-19 2013-06-27 삼성전자주식회사 페이지 형태를 디스플레이하는 방법 및 디스플레이 장치
JP5726221B2 (ja) * 2013-02-04 2015-05-27 シャープ株式会社 データ処理装置
KR102146244B1 (ko) * 2013-02-22 2020-08-21 삼성전자주식회사 휴대 단말에 대한 동작 관련 입력에 따라 복수개의 객체들의 표시를 제어하는 방법 및 이를 위한 휴대 단말
USD742911S1 (en) * 2013-03-15 2015-11-10 Nokia Corporation Display screen with graphical user interface
USD749125S1 (en) * 2013-03-29 2016-02-09 Deere & Company Display screen with an animated graphical user interface
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
USD780198S1 (en) * 2013-09-18 2017-02-28 Lenovo (Beijing) Co., Ltd. Display screen with graphical user interface
EP3086537A4 (en) * 2013-12-18 2017-08-09 Yulong Computer Telecommunication Scientific (Shenzhen) Co., Ltd. Application icon display control method and terminal
WO2015124111A1 (en) * 2014-02-21 2015-08-27 Mediatek Inc. Method to set up a wireless communication connection and electronic device utilizing the same
USD777739S1 (en) * 2014-02-21 2017-01-31 Lenovo (Beijing) Co., Ltd. Display screen or portion thereof with graphical user interface
USD784373S1 (en) * 2014-02-21 2017-04-18 Lenovo (Beijing) Co., Ltd. Display screen or portion thereof with graphical user interface
KR102173110B1 (ko) * 2014-05-07 2020-11-02 삼성전자주식회사 웨어러블 디바이스 및 그 제어 방법
EP3882753A1 (en) 2014-06-24 2021-09-22 Apple Inc. Application menu for video system
USD789976S1 (en) * 2014-06-24 2017-06-20 Google Inc. Display screen with animated graphical user interface
JP6296919B2 (ja) * 2014-06-30 2018-03-20 株式会社東芝 情報処理装置及びグループ化実行/解除方法
JP6405143B2 (ja) * 2014-07-30 2018-10-17 シャープ株式会社 コンテンツ表示装置及び表示方法
CN105335041B (zh) * 2014-08-05 2019-01-15 阿里巴巴集团控股有限公司 一种提供应用图标的方法及装置
CN112199000A (zh) 2014-09-02 2021-01-08 苹果公司 多维对象重排
USD735754S1 (en) 2014-09-02 2015-08-04 Apple Inc. Display screen or portion thereof with graphical user interface
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
KR101915548B1 (ko) * 2014-09-03 2019-01-07 엘지전자 주식회사 모듈형 이동단말기 및 그것의 제어방법
USD779515S1 (en) * 2014-09-11 2017-02-21 Shuttersong Incorporated Display screen or portion thereof with graphical user interface
USD779516S1 (en) * 2014-09-11 2017-02-21 Shuttersong Incorporated Display screen or portion thereof with graphical user interface
USD779517S1 (en) * 2014-09-11 2017-02-21 Shuttersong Incorporated Display screen or portion thereof with graphical user interface
GB2530078A (en) * 2014-09-12 2016-03-16 Samsung Electronics Co Ltd Launching applications through an application selection screen
KR20160046633A (ko) * 2014-10-21 2016-04-29 삼성전자주식회사 입력 지원 방법 및 이를 지원하는 전자 장치
US9389742B2 (en) * 2014-12-10 2016-07-12 Pixart Imaging Inc. Capacitive touch device, capacitive communication device and communication system
USD783683S1 (en) 2014-12-23 2017-04-11 Mcafee, Inc. Display screen with animated graphical user interface
USD760740S1 (en) * 2015-01-23 2016-07-05 Your Voice Usa Corp. Display screen with icon
USD765699S1 (en) 2015-06-06 2016-09-06 Apple Inc. Display screen or portion thereof with graphical user interface
USD863332S1 (en) * 2015-08-12 2019-10-15 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10209851B2 (en) * 2015-09-18 2019-02-19 Google Llc Management of inactive windows
US10891106B2 (en) 2015-10-13 2021-01-12 Google Llc Automatic batch voice commands
JP6376105B2 (ja) * 2015-10-30 2018-08-22 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
CN105630380B (zh) * 2015-12-21 2018-12-28 广州视睿电子科技有限公司 元素组合及拆分的方法和系统
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
KR102589496B1 (ko) * 2016-07-04 2023-10-16 삼성전자 주식회사 화면 표시 방법 및 이를 지원하는 전자 장치
JP6098752B1 (ja) * 2016-08-10 2017-03-22 富士ゼロックス株式会社 情報処理装置およびプログラム
JP2018032249A (ja) * 2016-08-25 2018-03-01 富士ゼロックス株式会社 処理装置及びプログラム
CN106896998B (zh) * 2016-09-21 2020-06-02 阿里巴巴集团控股有限公司 一种操作对象的处理方法及装置
WO2018098946A1 (zh) * 2016-11-30 2018-06-07 华为技术有限公司 一种用户界面的显示方法、装置及用户界面
USD820305S1 (en) * 2017-03-30 2018-06-12 Facebook, Inc. Display panel of a programmed computer system with a graphical user interface
US11586338B2 (en) * 2017-04-05 2023-02-21 Open Text Sa Ulc Systems and methods for animated computer generated display
USD837234S1 (en) 2017-05-25 2019-01-01 Palantir Technologies Inc. Display screen or portion thereof with transitional graphical user interface
USD842333S1 (en) 2017-06-04 2019-03-05 Apple Inc. Display screen or portion thereof with graphical user interface
KR102313755B1 (ko) * 2017-06-07 2021-10-18 엘지전자 주식회사 이동 단말기 및 그 제어 방법
USD866579S1 (en) 2017-08-22 2019-11-12 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD843412S1 (en) * 2017-10-03 2019-03-19 Google Llc Display screen with icon
JP2019128899A (ja) * 2018-01-26 2019-08-01 富士通株式会社 表示制御プログラム、表示制御装置及び表示制御方法
JP6901426B2 (ja) * 2018-03-15 2021-07-14 株式会社日立産機システム エアシャワー装置
EP3806481A4 (en) * 2018-05-31 2021-06-02 Toshiba Carrier Corporation EQUIPMENT MANAGEMENT DEVICE USING A TOUCH PANEL, AND MANAGEMENT SCREEN GENERATION PROCESS
US10990260B2 (en) 2018-08-23 2021-04-27 Motorola Mobility Llc Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
JP7274566B2 (ja) 2019-02-26 2023-05-16 株式会社Nttドコモ 端末、通信方法及び無線通信システム
USD945472S1 (en) * 2019-03-27 2022-03-08 Staples, Inc. Display screen or portion thereof with a transitional graphical user interface
JP6992916B2 (ja) * 2021-01-20 2022-01-13 富士フイルムビジネスイノベーション株式会社 処理装置
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets
USD1026009S1 (en) * 2021-11-17 2024-05-07 Express Scripts Strategic Development, Inc. Display screen with an icon

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500933A (en) * 1993-04-28 1996-03-19 Canon Information Systems, Inc. Display system which displays motion video objects combined with other visual objects
US5564004A (en) * 1994-04-13 1996-10-08 International Business Machines Corporation Method and system for facilitating the selection of icons
US5784061A (en) * 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
US6606103B1 (en) * 1999-11-30 2003-08-12 Uhc Llc Infinite resolution scheme for graphical user interface object
US20030007010A1 (en) * 2001-04-30 2003-01-09 International Business Machines Corporation Providing alternate access for physically impaired users to items normally displayed in drop down menus on user-interactive display interfaces
JP2003345492A (ja) * 2002-05-27 2003-12-05 Sony Corp 携帯電子機器
JP4239090B2 (ja) * 2004-01-08 2009-03-18 富士フイルム株式会社 ファイル管理プログラム
JP4574227B2 (ja) * 2004-05-14 2010-11-04 キヤノン株式会社 画像管理装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
US20070016958A1 (en) * 2005-07-12 2007-01-18 International Business Machines Corporation Allowing any computer users access to use only a selection of the available applications
JP4759743B2 (ja) * 2006-06-06 2011-08-31 国立大学法人 東京大学 オブジェクト表示処理装置、オブジェクト表示処理方法、およびオブジェクト表示処理用プログラム
JP5305605B2 (ja) * 2007-03-16 2013-10-02 株式会社ソニー・コンピュータエンタテインメント データ処理装置、データ処理方法、及びデータ処理プログラム
US8051387B2 (en) * 2007-06-28 2011-11-01 Nokia Corporation Method, computer program product and apparatus providing an improved spatial user interface for content providers
US20090101415A1 (en) * 2007-10-19 2009-04-23 Nokia Corporation Apparatus, method, computer program and user interface for enabling user input
EP2223208A2 (en) * 2007-11-15 2010-09-01 Desknet SA Method enabling a computer apparatus run by an operating system to execute software modules
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US8245143B2 (en) * 2008-10-08 2012-08-14 Research In Motion Limited Method and handheld electronic device having a graphical user interface which arranges icons dynamically
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US20100229129A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Creating organizational containers on a graphical user interface
US20100251185A1 (en) * 2009-03-31 2010-09-30 Codemasters Software Company Ltd. Virtual object appearance control
CN101853118A (zh) * 2009-04-03 2010-10-06 鸿富锦精密工业(深圳)有限公司 触控系统及使用该触控系统进行数据编辑的方法
KR101537706B1 (ko) * 2009-04-16 2015-07-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8493344B2 (en) * 2009-06-07 2013-07-23 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8719729B2 (en) * 2009-06-25 2014-05-06 Ncr Corporation User interface for a computing device
JP2011028670A (ja) * 2009-07-29 2011-02-10 Kyocera Corp 検索表示装置及び検索表示方法
KR100984817B1 (ko) * 2009-08-19 2010-10-01 주식회사 컴퍼니원헌드레드 이동통신 단말기의 터치스크린을 이용한 사용자 인터페이스 방법
USD625734S1 (en) * 2009-09-01 2010-10-19 Sony Ericsson Mobile Communications Ab Transitional graphic user interface for a display of a mobile telephone
US9383916B2 (en) * 2009-09-30 2016-07-05 Microsoft Technology Licensing, Llc Dynamic image presentation
KR101701492B1 (ko) * 2009-10-16 2017-02-14 삼성전자주식회사 데이터 표시 방법 및 그를 수행하는 단말기
US8386950B2 (en) * 2010-04-05 2013-02-26 Sony Ericsson Mobile Communications Ab Methods, systems and computer program products for arranging a plurality of icons on a touch sensitive display
US20110252349A1 (en) * 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Folders
KR101774312B1 (ko) * 2010-08-23 2017-09-04 엘지전자 주식회사 이동 단말기 및 그 제어 방법
USD691629S1 (en) * 2011-08-16 2013-10-15 Nest Labs, Inc. Display screen with an animated graphical user interface
JP5815932B2 (ja) * 2010-10-27 2015-11-17 京セラ株式会社 電子機器
KR101189630B1 (ko) * 2010-12-03 2012-10-12 한국기술교육대학교 산학협력단 멀티터치를 이용한 오브젝트 제어장치 및 그 방법
KR101728728B1 (ko) * 2011-03-18 2017-04-21 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101853057B1 (ko) * 2011-04-29 2018-04-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
GB201115369D0 (en) * 2011-09-06 2011-10-19 Gooisoft Ltd Graphical user interface, computing device, and method for operating the same
US20130311954A1 (en) * 2012-05-18 2013-11-21 Geegui Corporation Efficient user interface
USD726743S1 (en) * 2012-06-15 2015-04-14 Nokia Corporation Display screen with graphical user interface
US10529014B2 (en) * 2012-07-12 2020-01-07 Mx Technologies, Inc. Dynamically resizing bubbles for display in different-sized two-dimensional viewing areas of different computer display devices
US10713730B2 (en) * 2012-09-11 2020-07-14 Mx Technologies, Inc. Meter for graphically representing relative status in a parent-child relationship and method for use thereof
US10649619B2 (en) * 2013-02-21 2020-05-12 Oath Inc. System and method of using context in selecting a response to user device interaction
USD742911S1 (en) * 2013-03-15 2015-11-10 Nokia Corporation Display screen with graphical user interface
WO2014183098A2 (en) * 2013-05-09 2014-11-13 Amazon Technologies, Inc. Mobile device interfaces
USD740307S1 (en) * 2013-10-16 2015-10-06 Star*Club, Inc. Computer display screen with graphical user interface
USD762682S1 (en) * 2014-01-17 2016-08-02 Beats Music, Llc Display screen or portion thereof with animated graphical user interface
USD750102S1 (en) * 2014-01-30 2016-02-23 Pepsico, Inc. Display screen or portion thereof with graphical user interface
USD778311S1 (en) * 2014-06-23 2017-02-07 Google Inc. Display screen with graphical user interface for account switching by swipe
USD777768S1 (en) * 2014-06-23 2017-01-31 Google Inc. Display screen with graphical user interface for account switching by tap
USD735754S1 (en) * 2014-09-02 2015-08-04 Apple Inc. Display screen or portion thereof with graphical user interface
USD791143S1 (en) * 2014-09-03 2017-07-04 Apple Inc. Display screen or portion thereof with graphical user interface
USD775633S1 (en) * 2014-10-15 2017-01-03 Snap Inc. Portion of a display having a graphical user interface with transitional icon
USD761813S1 (en) * 2014-11-03 2016-07-19 Chris J. Katopis Display screen with soccer keyboard graphical user interface
USD770513S1 (en) * 2014-11-28 2016-11-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with an animated graphical user interface
USD766315S1 (en) * 2014-11-28 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with an animated graphical user interface
USD776674S1 (en) * 2015-01-20 2017-01-17 Microsoft Corporation Display screen with animated graphical user interface
USD776673S1 (en) * 2015-01-20 2017-01-17 Microsoft Corporation Display screen with animated graphical user interface
USD776672S1 (en) * 2015-01-20 2017-01-17 Microsoft Corporation Display screen with animated graphical user interface
USD766313S1 (en) * 2015-01-20 2016-09-13 Microsoft Corporation Display screen with animated graphical user interface
USD760740S1 (en) * 2015-01-23 2016-07-05 Your Voice Usa Corp. Display screen with icon
USD763889S1 (en) * 2015-01-28 2016-08-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD762227S1 (en) * 2015-02-13 2016-07-26 Nike, Inc. Display screen with graphical user interface
USD800747S1 (en) * 2015-03-17 2017-10-24 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD795917S1 (en) * 2015-05-17 2017-08-29 Google Inc. Display screen with an animated graphical user interface
USD776133S1 (en) * 2015-06-23 2017-01-10 Zynga Inc. Display screen or portion thereof with a graphical user interface
USD791806S1 (en) * 2015-08-08 2017-07-11 Youfolo, Inc. Display screen or portion thereof with animated graphical user interface
USD802620S1 (en) * 2015-08-12 2017-11-14 Samsung Electronics Co., Ltd. Display screen or portion thereof with animiated graphical user interface
USD803233S1 (en) * 2015-08-14 2017-11-21 Sonos, Inc. Display device with animated graphical user interface element
USD804513S1 (en) * 2015-09-02 2017-12-05 Samsung Electronics Co., Ltd Display screen or portion thereof with graphical user interface
USD786917S1 (en) * 2015-09-02 2017-05-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD807391S1 (en) * 2015-12-15 2018-01-09 Stasis Labs, Inc. Display screen with graphical user interface for health monitoring display
USD778942S1 (en) * 2016-01-11 2017-02-14 Apple Inc. Display screen or portion thereof with graphical user interface

Also Published As

Publication number Publication date
CN103853346A (zh) 2014-06-11
EP2738662A1 (en) 2014-06-04
AU2013263767A1 (en) 2014-06-19
ZA201308966B (en) 2014-11-26
USD817998S1 (en) 2018-05-15
RU2013153254A (ru) 2015-06-10
CN103853346B (zh) 2018-07-06
AU2013263767B2 (en) 2019-01-31
JP2019032848A (ja) 2019-02-28
CA2835373A1 (en) 2014-05-30
US20140152597A1 (en) 2014-06-05
CN108897484A (zh) 2018-11-27
WO2014084668A1 (en) 2014-06-05
US20160092063A1 (en) 2016-03-31
KR20140070040A (ko) 2014-06-10
JP2014110054A (ja) 2014-06-12

Similar Documents

Publication Publication Date Title
BR102013030675A2 (pt) equipamento e método de gerenciamento de uma pluralidade de objetos exibidos em tela sensível ao toque
US11144177B2 (en) Application execution method by display device and display device thereof
US10452333B2 (en) User terminal device providing user interaction and method therefor
KR102480462B1 (ko) 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
CN106164856B (zh) 自适应用户交互窗格管理器
US9448694B2 (en) Graphical user interface for navigating applications
US10386992B2 (en) Display device for executing a plurality of applications and method for controlling the same
US10346036B2 (en) Apparatus and method of executing plural objects displayed on a screen of an electronic device, and computer-readable recording medium for recording the method
US9948763B2 (en) Portable device and method for restricting use of portable device
US9324305B2 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
EP2872982B1 (en) Location-dependent drag and drop ui
US20140317555A1 (en) Apparatus, method, and computer-readable recording medium for displaying shortcut icon window
US20100005390A1 (en) Mobile terminal using proximity sensor and method of controlling the mobile terminal
CN108463799B (zh) 电子设备的柔性显示器及其操作方法
BR112015020243B1 (pt) Método de controlar uma exibição de uma pluralidade de objetos de acordo com um movimento de um terminal móvel, e terminal móvel para o mesmo
US20140176600A1 (en) Text-enlargement display method
WO2015130270A1 (en) Photo and document integration
KR102371098B1 (ko) 오브젝트를 편집 가능한 형태로 전체 화면 팝 아웃하는 기법
EP2843527B1 (en) Mobile terminal supporting note function and method for controlling the mobile terminal
KR20140089714A (ko) 상태 바를 변경하는 모바일 장치 및 그 제어 방법
KR20150025655A (ko) 객체 디스플레이 방법 및 그 장치

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 5A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: REFERENTE AO ARQUIVAMENTO PUBLICADO NA RPI 2493 DE 16/10/2018.