BRPI1004116A2 - aparelhos e mÉtodos para interaÇÕes de componentes de interface grÁfica em tempo real - Google Patents

aparelhos e mÉtodos para interaÇÕes de componentes de interface grÁfica em tempo real Download PDF

Info

Publication number
BRPI1004116A2
BRPI1004116A2 BRPI1004116-8A BRPI1004116A BRPI1004116A2 BR PI1004116 A2 BRPI1004116 A2 BR PI1004116A2 BR PI1004116 A BRPI1004116 A BR PI1004116A BR PI1004116 A2 BRPI1004116 A2 BR PI1004116A2
Authority
BR
Brazil
Prior art keywords
interface component
graphical interface
component
animation
operating status
Prior art date
Application number
BRPI1004116-8A
Other languages
English (en)
Inventor
Yuan-Chung Shen
Cheng-Hung Ko
Original Assignee
Mediatek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mediatek Inc filed Critical Mediatek Inc
Publication of BRPI1004116A2 publication Critical patent/BRPI1004116A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations

Abstract

APARELHOS E MÉTODOS PARA INTERAÇÕES DE COMPONENTES DE INTERFACE GRÁFICA EM TEMPO REAL. Um aparelho de interação eletrônico é provido com uma tela sensível ao toque e uma unidade de processamento. A unidade de processamento executa um primeiro componente de interface gráfica e um segundo componente de interface gráfica, onde o primeiro componente de interface gráfica gera uma animação na tela sensível ao toque e modifica a animação em resposta a uma mudança de status de operação do segundo componente de interface gráfica.

Description

APARELHOS E MÉTODOS PARA INTERAÇÕES DE COMPONENTES DE INTERFACE GRÁFICA EM TEMPO REAL
Campo da Invenção
A invenção se refere geralmente a uma interação entre componentes de interface gráfica ("widgets") independentes e, mais particularmente, a aparelhos e métodos para a provisão de uma interação em tempo real entre componentes de interface gráfica independentes em uma camada de apresentação.
Descrição da Técnica Relacionada
Até uma extensão crescente, as telas de toque estão sendo usadas para dispositivos eletrônicos, tais como computadores, telefones móveis, dispositivos tocadores de mídia, e dispositivos de jogos, etc., como interfaces homem - máquina. O painel de exibição pode ser um painel de toque, o qual é capaz de detectar o contato de objetos nele; desse modo se provendo alternativas para interação de usuário com isso, por exemplo, pelo uso de ponteiros, canetas, dedos, etc. Geralmente, o painel de exibição pode ser provido com uma interface gráfica de usuário (GUI) para um usuário ver os status atuais de aplicativos ou componentes de interface gráfica , e a GUI é provida para exibir dinamicamente a interface de acordo com um componente de interface gráfica ou aplicativo selecionado.
Um componente de interface gráfica provê um ponto interativo único para manipulação direta de um dado tipo de dados. Em outras palavras, um componente de interface gráfica é um bloco de construção em visual basic associado a um aplicativo, o qual mantém todos os dados processados pelo aplicativo e provê interações disponíveis nestes dados. Especificamente, um componente de interface gráfica pode ter suas próprias funções, comportamentos e aparências.
Cada componente de interface gráfica que é construído em dispositivos eletrônicos usualmente é usado para a implementação de funções distintas e ainda gerar dados específicos em apresentações visuais distintas. Isto é, os componentes de interface gráfica usualmente são executados independentemente de cada outro. Por exemplo, um componente de interface gráfica de notícias ou clima, quando executado, recupera uma informação de notícias ou de clima a partir da Internet, e a exibe no painel de exibição, e um componente de interface gráfica de mapa, quando executado, transfere (via download) imagens de mapa de uma área específica e as exibe no painel de exibição. Contudo, conforme o número e a variedade de componentes de interface gráfica construídos em um dispositivo eletrônico aumentam, é desejável ter uma forma eficiente, intuitiva e curiosa de interações entre os componentes de interface gráfica independentes.
BREVE SUMÁRIO DA INVENÇÃO
Assim sendo, as modalidades da invenção provêem aparelhos e métodos para interações de componente de interface gráfica em tempo real. Em um aspecto da invenção, um aparelho de interação eletrônico é provido. O aparelho de interação eletrônico compreende uma tela sensível ao toque e uma unidade de processamento. A tela sensível ao toque compreende uma primeira área e uma segunda área. A unidade de processamento executa um primeiro componente de interface gráfica e um segundo componente de interface gráfica, onde o primeiro componente de interface gráfica gera uma animação na tela sensível ao toque e modifica a animação em resposta a uma mudança de status de operação do segundo componente de interface gráfica.
Em um outro aspecto da invenção, um outro aparelho de interação eletrônico é provido. O aparelho de interação eletrônico compreende uma tela sensível ao toque e uma unidade de processamento. A unidade de processamento detecta um evento de toque na tela sensível ao toque, e executa um componente de interface gráfica, onde o componente de interface gráfica gera uma animação na tela sensível ao toque, e modifica a animação em resposta ao evento de toque.
Em ainda um outro aspecto da invenção, um método de interação em tempo real executado em um aparelho de interação eletrônico com uma tela sensível ao toque é provido. O método de interação em tempo real compreende as etapas de execução de um primeiro componente de interface gráfica e um segundo componente de interface gráfica, onde o primeiro componente de interface gráfica gera uma aparência na tela sensível ao toque, e a modificação, pelo primeiro componente de interface gráfica da aparência em resposta a uma mudança de status de operação do segundo componente de interface gráfica.
Em ainda um outro aspecto da invenção, um método de interação em tempo real executado em um aparelho de interação eletrônico com uma tela sensível ao toque é provido. O método de interação em tempo real compreende as etapas de execução de um componente de interface gráfica gerando uma aparência na tela sensível ao toque, a detecção de um evento de toque na tela sensível ao toque, e a modificação, pelo segundo componente de interface gráfica, da aparência em resposta ao evento de toque.
Outros aspectos e recursos da presente invenção tornar-se-ão evidentes para aqueles com um conhecimento comum na técnica mediante uma revisão das descrições a seguir de modalidades específicas dos aparelhos e métodos para interações de componente de interface gráfica em tempo real.
BREVE DESCRIÇÃO DOS DESENHOS
A invenção pode ser mais plenamente entendida pela leitura da descrição detalhada subseqüente e dos exemplos com referências feitas aos desenhos associados, onde:
a Fig. 1 é um diagrama de blocos de um telefone móvel de acordo com uma modalidade da invenção;
a Fig. 2 é um diagrama de blocos que ilustra a arquitetura de software de um sistema de componente de interface gráfica de acordo com uma modalidade da invenção;
as Fig. 3A a 3C mostram exibições de exemplo na tela sensível ao toque 16 de acordo com uma modalidade da invenção;
as Fig. 4A a 4C mostram exibições de exemplo na tela sensível ao toque 16 de acordo com uma modalidade da invenção;
a Fig. 5A mostra um diagrama esquemático de um evento de clique com um sinal sl na tela sensível ao toque 16 de acordo com uma modalidade da invenção;
a Fig. 5B mostra um diagrama esquemático de um evento de arrastamento com os sinais s2 a s4 na tela sensível ao toque 16, de acordo com uma modalidade da invenção;
a Fig. 6 é um fluxograma que ilustra o método de interação em tempo real para o telefone móvel 10 de acordo com uma modalidade da invenção;
a Fig. 7 é um fluxograma que ilustra uma outra modalidade do método de interação em tempo real;
a Fig. 8 é um fluxograma que ilustra ainda uma outra modalidade do método de interação em tempo real;
a Fig. 9 é um fluxograma que ilustra o método de interação em tempo real para o telefone móvel 10 de acordo ainda com uma outra modalidade da i; e
a Fig. 10 é um fluxograma que ilustra método de interação em tempo real para o telefone móvel 10 de acordo ainda com uma outra modalidade da invenção.
DESCRIÇÃO DETALHADA DA INVENÇÃO
A descrição a seguir é do melhor modo contemplado de realização da invenção. Esta descrição é feita para fins de ilustração dos princípios gerais da invenção, e não deve ser tomada em um sentido limitante. Deve ser entendido que as modalidades podem ser realizadas em software, hardware, firmware ou qualquer combinação dos mesmos.
A Fig. 1 é um diagrama de blocos de um telefone móvel de acordo com uma modalidade da invenção. O telefone móvel 10 é equipado com uma unidade de freqüência de rádio (RF) 11 e uma unidade de banda base 12 para comunicação com um nó correspondente através de uma rede celular. A unidade de banda base 12 pode conter múltiplos dispositivos de hardware para a realização de um processamento de sinal de banda base, incluindo uma conversão de analógico para digital (ADC) / uma conversão de digital para analógico (DAC), um ajuste de ganho, uma modulação / demodulação, uma codificação / decodificação e assim por diante. A unidade de RF 11 pode receber sinais sem fio de RF, converter os sinais sem fio de RF em sinais de banda base, os quais são processados pela unidade de banda base 12, ou receber sinais de banda base a partir da unidade de banda base 12 e converter os sinais de banda base recebidos em sinais sem fio de RF, os quais são transmitidos mais tarde. A unidade de RF 11 também pode conter múltiplos dispositivos de hardware para a realização de uma conversão de freqüência de rádio. Por exemplo, a unidade de RF 11 pode compreender um mixer para a multiplicação dos sinais de banda base com uma portadora oscilada na freqüência de rádio do sistema de comunicações sem fio, onde a freqüência de rádio pode ser de 900 MHz, 1800 MHz ou 1900 MHz utilizados em sistemas de GSM, ou pode ser de 900 MHz, 1900 MHz ou 2100 MHz utilizados em sistemas de WCDMA, ou outras, dependendo da tecnologia de acesso por rádio (RAT) em uso. 0 telefone móvel 10 é adicionalmente equipado com uma tela sensível ao toque 16 como parte de uma interface homem - máquina (MMI). A MMI é o meio pelo qual as pessoas interagem com o telefone móvel 10. A MMI pode conter menus de tela, ícones, mensagens de texto e assim por diante, bem como botões físicos, teclado e a tela sensível ao toque 16, e assim por diante. A tela sensível ao toque 16 é uma tela de exibição que é sensível ao toque ou a uma aproximação de um dedo ou de uma caneta. A tela sensível ao toque 16 pode ser do tipo resistivo ou capacitivo, ou outros. Os usuários podem tocar manualmente, pressionar ou clicar na tela sensível ao toque para operação do telefone móvel 10 com a indicação dos menus exibidos, ícones ou mensagens. Uma unidade de processamento 13 do telefone móvel 10, tal como um processador de finalidade geral ou uma unidade de microcontrole (MCU), ou outros, carrega e executa uma série de códigos de programa a partir de uma memória 15 ou de um dispositivo de armazenamento 14 para a provisão de uma funcionalidade da MMI para usuários. É para ser entendido que os métodos introduzidos para uma interação de componente de interface gráfica em tempo real podem ser aplicados para aparelhos eletrônicos diferentes, tais como tocadores de mídia portáteis (PMP), dispositivos de navegação de sistema de posicionamento global (GPS), consoles de jogos portáteis, e assim por diante, sem que se desvie do espírito da invenção.
A Fig. 2 é um diagrama de blocos que ilustra a arquitetura de software de um sistema de componente de interface gráfica de acordo com uma modalidade da invenção. A arquitetura de software compreende um módulo de motor de controle 220 provendo uma estrutura de sistema de componente de interface gráfica para se habilitar uma pluralidade de componentes de interface gráfica, o que é carregado e executado pela unidade de processamento 13. A estrutura de sistema de componente de interface gráfica funciona como uma plataforma de hospedagem com as funcionalidades subjacentes necessárias para a operação dos componentes de interface gráfica. Dentre os componentes de interface gráfica, há dois ou mais componentes de interface gráfica, tais como os componentes de interface gráfica 231 e 232, cada um associado a um respectivo aplicativo, realizando suas próprias funções e tendo seus próprios comportamentos quando habilitados (também, podem ser referidos como inicializados) pelo módulo de motor de controle 220. Diferentemente de componentes de interface gráfica independentes convencionais, os componentes de interface gráfica 231 e 232 são capazes de interagir com cada outro. Para se ser mais específico, o componente de interface gráfica 231 pode detectar mudanças do status de operação do componente de interface gráfica 232, e ainda modificar seu próprio comportamento do respectivo aplicativo em resposta ao status de operação mudado do componente de interface gráfica 232. Os status de operação podem conter um atributo de aparência, tal como estar presente ou escondido, uma coordenada exibida na tela sensível ao toque 16, comprimento e largura exibidos, e outros. Em uma modalidade, o módulo de motor de controle 220 pode prover os status de operação de todos os componentes de interface gráfica, uma vez que todos os componentes de interface gráfica são habilitados para execução nele. De modo a se detectar uma mudança de status de operação do componente de interface gráfica 232, o componente de interface gráfica 231 pode requisitar ao módulo de motor de controle 220 uma informação referente ao status de operação do componente de interface gráfica 232 e, então, determinar se o status de operação do componente de interface gráfica 232 mudou. A partir de uma perspectiva de implementação em software, o módulo de motor de controle 220 pode obter, por exemplo, um indicador de identificação dos componentes de interface gráfica 231 e 232, quando os componentes de interface gráfica 231 e 232 forem criados e registrados para o módulo de motor de controle 220, de modo que o módulo de motor de controle 220 possa manter um acompanhamento dos status de operação dos componentes de interface gráfica registrados. O módulo de motor de controle 220 pode informar ativamente o componente de interface gráfica 231 sobre o indicador de identificação do componente de interface gráfica 232, quando os dois componentes de interface gráfica estiverem funcionalmente correlacionados. Assim sendo, as requisições para os status de operação atuais do componente de interface gráfica 232 podem ser periodicamente emitidas para o módulo de motor de controle 220, e o módulo de motor de controle 220 pode recuperar o status de operação atual do componente de interface gráfica 232 e responder com o status de operação do mesmo para o componente de interface gráfica 231. Uma outra forma de se obter uma informação de status de operação é invocar um método do componente de interface gráfica 232 ou recuperar uma propriedade pública do componente de interface gráfica 232. Em uma outra modalidade, o componente de interface gráfica 232 pode informar ativamente ao componente de interface gráfica 231 sobre a mudança do status de operação do componente de interface gráfica 232, para disparar o componente de interface gráfica 231 para realizar uma operação correspondente. A partir de uma perspectiva de implementação em software, o componente de interface gráfica 231 pode assinar um evento de mudança de status de operação provido pelo componente de interface gráfica 232.
A informação de assinatura pode ser mantida no módulo de motor de controle 220. Uma vez que o status de operação atual do componente de interface gráfica 232 mude, o componente de interface gráfica 231 é notificado da mudança através do módulo de motor de controle 220.
Além de uma mudança de s tatus de operação do componente de interface gráfica 232, o componente de interface gráfica 231 ainda pode modificar seu próprio comportamento do respectivo aplicativo em resposta ao evento de toque na tela sensível ao toque 16. A tela sensível ao toque 16 exibe apresentações visuais de imagens ou animações para os componentes de interface gráfica 231 e 232. Pode haver sensores (não mostrados) dispostos sobre ou sob a tela sensível ao toque 16, para a detecção de um toque ou de uma aproximação. Uma tela sensível ao toque 16 pode compreender um controlador de sensor para a análise de dados a partir dos sensores e, de modo conforme, determinar um ou mais eventos de toque. A determinação pode ser realizada, alternativamente, pelo módulo de motor de controle 110, enquanto o controlador de sensor é responsável pela extração repetidamente das coordenadas detectadas de um ou mais toques ou aproximações. O componente de interface gráfica 231 ainda pode modificar seu próprio comportamento do respectivo aplicativo em resposta ao evento de toque.
As Fig. 3A a 3C mostram exibições de exemplo na tela sensível ao toque 16 de acordo com uma modalidade da invenção. Conforme mostrado nas Fig. 3A a 3C, a tela inteira é dividida em 3 áreas. A área A2 exibe o menu de componente de interface gráfica e/ou um menu de aplicativo, o qual contém múltiplos ícones de componente de interface gráfica e/ou de aplicativo, alertando aos usuários para selecionarem um componente de interface gráfica ou aplicativo a usar. Um componente de interface gráfica é um programa que realiza funções simples quando executado, tal como prover um boletim do tempo, uma cotação de ação, executar uma animação na tela sensível ao toque 16, ou outros. A área Al exibe o status do sistema, tais como funções atualmente habilitadas, status de trava de fone, horário atual, potência de bateria remanescente, e assim por diante. A área A3 exibe as aparências dos componentes de interface gráfica em uso. A ovelha na área A3 é uma animação gerada pelo componente de interface gráfica 231, a qual mostra ações específicas de uma ovelha, tais como ficar parada (conforme mostrado na Fig. 3A), passear (conforme mostrado na Fig. 3B), comer grama (conforme mostrado na Fig. 3C) , etc. O componente de interface gráfica 231 pode ser criado para desenhar a ovelha na área A3, quando um ícone de componente de interface gráfica correspondente na área A2 for arrastado e solto na área A3.
As Fig. 4A a 4 C mostram exibições de exemplo na tela sensível ao toque 16 de acordo com uma modalidade da invenção. A tela inteira é dividida em 3 áreas, isto é, as áreas Al a A3, conforme mencionado acima. Além da ovelha animada, há uma animação de uma borboleta na área A3 gerada pelo componente de interface gráfica 232, a qual mostra um padrão de vôo aleatório de uma borboleta. É para ser entendido que o componente de interface gráfica 232 pode ser criado e inicializado pelo componente de interface gráfica 231 ou pelo módulo de motor de controle 220. Uma vez que os componentes de interface gráfica 231 e 232 são capazes de interagir com cada outro, o componente de interface gráfica 231 ainda pode modificar as ações exibidas da ovelha em resposta a atualizações de posição da borboleta. Especificamente, o componente de interface gráfica 231 pode modificar a ação da ovelha parada, passeando ou comendo para virar sua cabeça em direção à posição atual da borboleta, conforme mostrado na Fig. 4A.
Um pseudocódigo para o caso em que o componente de interface gráfica 231 periodicamente examina se o componente de interface gráfica 232 muda sua posição e atua sobre a posição mudada do componente de interface gráfica 232 é considerado abaixo como um exemplo:
Function Detect_OtherWidgets(); {
while (infinite loop) {
get butterfly widget instance;
if (butterfly is active) {
use butterfly widget to get its position; get iny widget position;
change ray widget orientation according to the arctan function of the
difference of butterfly position and my widget position; }
if (stop detecting signal is received) í
retura;
}
}
Alternativamente, as atualizações de posição da borboleta animada geradas pelo componente de interface gráfica 232 podem disparar ativamente a modificação da ovelha animada gerada pelo componente de interface gráfica 231 através de um manipulador de evento assinado. Um pseudocódigo para o caso em que o componente de interface gráfica 231 muda sua ação quando um evento de mudança de posição é disparado pelo componente de interface gráfica 232 é considerado abaixo como um exemplo:
<table>table see original document page 14</column></row><table>
Em ainda uma outra modalidade, o componente de interface gráfica 231 pode mudar a ação da ovelha de pé, passeando ou comendo para virar sua cabeça em direção a uma posição em que o evento de toque ocorreu, conforme mostrado na Fig. 4B. Um pseudocódigo para o caso em que o componente de interface gráfica 231 atua sobre o evento de toque é considerado abaixo como um exemplo:
<table>table see original document page 14</column></row><table> Alternativamente, o telefone móvel 10 pode ser projetado para disparar ativamente a modificação da ovelha animada gerada pelo componente de interface gráfica 231 através de um manipulador de evento de toque. Um pseudocódigo para o caso em que o componente de interface gráfica 231 muda sua ação em resposta ao evento de toque é considerado abaixo como um exemplo:
<table>table see original document page 15</column></row><table>
É notado que a posição em que o evento de toque ocorreu não está limitada a estar na área A3. O toque pode estar posicionado na área Al, ou bem como na área A2.
Além disso, com referência aos registros dos componentes de interface gráfica 231 e 232, e ao evento de toque para o módulo de motor de controle 220, um pseudocódigo de exemplo é considerado abaixo:
<table>table see original document page 15</column></row><table> O evento de toque pode indicar um contato de um objeto na tela sensível ao toque 16 em geral. 0 evento de toque pode indicar especificamente um dentre um evento de clique, um evento de batida, um evento de clique duplo, um evento de pressão longa, um evento de arrastamento, etc., ou o evento de toque pode ser referido como uma aproximação detectada de um objeto para a tela sensível ao toque 16, e não está limitado a isso. O evento de toque atualmente detectado pode ser mantido pelo módulo de motor de controle 220. O componente de interface gráfica 231 ou o componente de interface gráfica 232 pode requisitar ao motor de controle 220 uma informação de evento de toque para determinar se um tipo de evento de toque em particular é detectado e uma posição específica do evento de toque detectado. Um evento de clique ou um evento de batida pode ser definido como um toque único de um objeto na tela sensível ao toque 16. Para esclarecer mais, um evento de clique ou um evento de batida é um contato de um objeto na tela sensível ao toque 16 por uma duração predeterminada ou para uma terminologia de programação orientada para objeto, um evento de clique ou um evento de batida pode ser definido como um evento de apertar a tecla ("keydown") instantaneamente seguido por um evento de desapertar a tecla ("keyup"). O evento de clique duplo pode ser definido como dois toques espaçados em um intervalo curto. O intervalo curto normalmente é derivado do senso de percepção humana de continuidade, ou é predeterminado pelas preferências de usuário. O evento de pressão longa pode ser definido como um toque que continua por um período predeterminado. Com o(s) sensor(es) posicionado(s) em uma linha ou uma coluna sobre ou sob a tela sensível ao toque 16, o evento de arrastamento pode ser definido como múltiplos toques por um objeto começando com uma extremidade do(s) sensor(es) e terminando com a outra extremidade do(s) sensor(es), onde quaisquer dois toques sucessivos estão em um período de tempo predeterminado.
Particularmente, o arrastamento pode ser em qualquer direção, tais como para cima, para baixo, para a esquerda, para a direita, no sentido horário, no sentido anti- horário, ou outros. Tomando o evento de arrastamento, por exemplo, a animação da ovelha gerada pelo componente de interface gráfica 231 pode ser deslocada de uma posição para uma outra por um evento de arrastamento. Conforme mostrado na Fig. 4C, a ovelha parece ser elevada de sua posição original quando o aperto da tecla ("keydown") de um evento de arrastamento ocorre sobre ela e, então, a ovelha é anexada a onde o ponteiro se move na tela sensível ao toque 16, isto é, a ovelha é movida com o ponteiro. Mais tarde, quando o "keyup" do evento de arrastamento ocorre, a ovelha é solta abaixo da posição atual do ponteiro. Da mesma forma a animação da borboleta gerada pelo componente de interface gráfica 232 pode ser deslocada por um evento de arrastamento da mesma forma. O objeto de toque pode ser uma caneta, um ponteiro, uma caneta eletrônica, um dedo, etc.
A Fig. 5A mostra um diagrama esquemático de um evento de clique com um sinal sl na tela sensível ao toque 16, de acordo com uma modalidade da invenção. 0 sinal sl representa o nível lógico do evento de clique cl detectado pelo(s) sensor(es) (não mostrado(s)) disposto(s) sobre ou sob a tela sensível ao toque 16. O sinal sl salta de um nível lógico baixo para um nível lógico alto no período de tempo tu, o qual começa no momento quando um evento de apertar a tecla ("keydown") é detectado e termina no tempo quando o evento de desapertar a tecla ("keyup") é detectado. Caso contrário, o sinal Sl permanece no nível lógico baixo. Um evento de clique bem sucedido é adicionalmente determinado com uma limitação adicional que o período de tempo tu deve ser limitado em um intervalo de tempo predeterminado. A Fig. 5B mostra um diagrama esquemático de um evento de arrastamento com os sinais s2 a s4 na tela sensível ao toque 16 de acordo com uma modalidade da invenção. Os sinais s2 a s4 representam três contatos contínuos detectados em seqüência pelo(s) sensor(es) (não mostrados) disposto(s) sobre ou sob a tela sensível ao toque 16. O intervalo de tempo t2i entre a terminação dos primeiro e segundo toques e o intervalo de tempo t22 entre a terminação dos segundo e terceiro toques são obtidos pela detecção das mudanças nos níveis lógicos.
Um evento de arrastamento é ainda determinado com uma limitação adicional que cada um dos intervalos de tempo t2i e t22 seja limitado em um intervalo de tempo predeterminado. Embora colocados em uma trilha linear nesta modalidade, os toques contínuos também podem ser colocados em uma trilha não linear em outras modalidades.
É notado que as interações entre os componentes de interface gráfica, isto é, os componentes de interface gráfica 231 e 232 são especificamente providos em apresentações visualmente percebíveis na tela sensível ao toque 16 para aumento do interesse de um usuário dos aplicativos providos pelo telefone móvel 10. Também, as interações visualmente percebíveis podem prover aos usuários uma forma mais eficiente de operação de componentes de interface gráfica diferentes. Em uma modalidade, as figuras das animações geradas pelos componentes de interface gráfica 231 e 232 não estão limitadas a uma ovelha e uma borboleta, elas podem ser animações mostrando ações de outras criatura ou personagens icônicos, tais como SpongeBob, WALL-E e Elmo, etc. Em uma outra modalidade, o componente de interface gráfica 231 pode ser projetado para modificar uma cor ou uma expressão facial, ao invés de modificar ações da ovelha em resposta ao evento de toque ou à mudança de status de operação do componente de interface gráfica 232. Por exemplo, a cor da ovelha pode ser mudada de branco para marrom ou qualquer outra cor, ou a expressão da ovelha pode ser mudada de uma face imutável e séria para um grande sorriso, quando detectando a ocorrência de um evento de toque na tela sensível ao toque 16 ou a mudança de status de operação do componente de interface gráfica 232. Alternativamente, o componente de interface gráfica 231 pode ser projetado para emular um cachorro ou quaisquer outros animais, em resposta ao evento de toque ou à mudança de status de operação do componente de interface gráfica 232. A Fig. 6 é um fluxograma que ilustra o método de interação era tempo real para o telefone móvel 10 de acordo com uma modalidade da invenção. Para começar, o telefone móvel 10 é iniciado, uma série de processos de inicialização, incluindo o boot do sistema operacional, a inicialização do módulo de motor de controle 220 e a ativação dos módulos funcionais embutidos ou acoplados (tal como a tela sensível ao toque 16), etc., é realizada (etapa S610). Após o módulo de motor de controle 220 ser inicializado e estar pronto, os componentes de interface gráfica 231 (também referido como um primeiro componente de interface gráfica nos desenhos) e 232 (também referido como um segundo componente de interface gráfica nos desenhos) podem ser criados e inicializados através do módulo de motor de controle 220, em resposta a operações de usuário (etapa S620), onde cada componente de interface gráfica está associado a uma função em particular. Na modalidade, o componente de interface gráfica 231 está associado a uma animação que mostra as ações de uma ovelha, e o componente de interface gráfica 232 está associado a uma animação que mostra as ações de uma borboleta, conforme mostrado na Fig. 4A. O componente de interface gráfica 231 pode ser criado e inicializado quando o módulo de motor de controle 220 detectar que ura ícone de componente de interface gráfica correspondente é arrastado a partir da área A2 e solto na área A3 por um usuário, enquanto o componente de interface gráfica 232 pode ser criado randomicamente e inicializado pelo módulo de motor de controle 220. Ou o componente de interface gráfica 232 pode ser criado e inicializado pelo componente de interface gráfica 231. Conforme os componentes de interface gráfica 231 e 232 são criados e executados, os primeiros componentes de interface gráfica 231 e 232 executam funções individuais (etapa S630). Por exemplo, o componente de interface gráfica 231 pode gerar a animação de uma ovelha com movimentos padronizados, tal como passear, e o componente de interface gráfica 232 pode gerar a animação da borboleta com movimentos padronizados, tal como voar em torno de algo. Subseqüentemente, o primeiro componente de interface gráfica 231 modifica a animação em resposta a uma mudança de status de operação do componente de interface gráfica 232 (etapa S640). Especificamente, uma mudança do status de operação do componente de interface gráfica 232 pode se referir à atualização de posição da borboleta animada, e a modificação da animação do 15 componente de interface gráfica 231 pode se referir à ovelha virar sua cabeça e olhar em direção à posição da borboleta, conforme mostrado na Fig. 4a. Note que a modificação da animação pode ser uma etapa recorrente para o componente de interface gráfica 231 em resposta à última mudança de status de operação do componente de interface gráfica 232. Em algumas modalidades, a animação gerada pelos componentes de interface gráfica 231 e 232 pode emular ações e movimentos de outras criaturas ou personagens icônicos.
A Fig. 7 é um fluxograma que ilustra uma outra modalidade do método de interação em tempo real. De modo similar às etapas S610 a S63 0 na Fig. 6, uma série de processos de inicialização é realizada quando o telefone móvel 10 e iniciado, e os componentes de interface gráfica 231 e 232 são criados e inicializados através do módulo de motor de controle 220 para a execução de funções individuais. Subseqüentemente, o componente de interface gráfica 231 detecta ativamente um status de operação atual do componente de interface gráfica 232 (etapa 710) e determina se o status de operação do componente de interface gráfica 232 mudou (etapa 720). A etapa 710 pode ser realizada pela requisição ao módulo de motor de controle 220 da informação de status de operação, usando uma função correspondente provida pelo componente de interface gráfica 232 ou pela recuperação de uma propriedade correspondente do componente de interface gráfica 232. A etapa 720 pode ser realizada pela comparação do status de operação atual com o último detectado. Em resposta ao status de operação mudado detectado do componente de interface gráfica 232, o componente de interface gráfica 231 modifica a animação (etapa S730). É notado que a determinação de um status de operação mudado do componente de interface gráfica 232 e a subseqüente modificação da animação podem ser etapas recorrentes realizadas pelo componente de interface gráfica 231. Isto é, as etapas 710 a 730 são periodicamente realizadas para a modificação da animação, se requerido. Alternativamente, a detecção de uma mudança do status de operação potencial do componente de interface gráfica 232 pode ser continuada após um intervalo de tempo predeterminado deste a última detecção. Isto é, em cada período de tempo, no qual o componente de interface gráfica 231 pode gerar uma animação mostrando a ovelha passeando, é seguido por um período de tempo de detecção, no qual o componente de interface gráfica 231 realiza as etapas S710 a S730 de uma maneira periódica. Quando detecta uma mudança de status de operação do componente de interface gráfica 232, o primeiro componente de interface gráfica 231 pode modificar a animação para parar de passear e virar a cabeça da ovelha em direção à posição atual da borboleta. Caso contrário, quando não detecta uma mudança para o componente de interface gráfica 232, o componente de interface gráfica 231 pode modificar a animação para parar o passeio e comer grama.
A Fig. 8 é um fluxograma que ilustra ainda uma outra modalidade do método de interação em tempo real. De modo similar às etapas S610 a S630 na Fig. 6, uma série de processos de inicialização é realizada quando o telefone móvel 10 e iniciado, e os componentes de interface gráfica 231 e 232 são criados e inicializados através do módulo de motor de controle 220 para a realização de seus próprios comportamentos. Subseqüentemente, o componente de interface gráfica 232 ativamente informa ao componente de interface gráfica 231 sobre uma mudança de seu status de operação (etapa S810), de modo que o componente de interface gráfica 231 possa modificar a animação em resposta ao status de operação mudado do componente de interface gráfica 232 (etapa S820). É notado que a informação do status de operação mudado do componente de interface gráfica 232 pode ser uma etapa recorrente para os componentes de interface gráfica 231. Isto é, em resposta aos status de operação mudados repetidamente informados pelo componente de interface gráfica 232, o componente de interface gráfica 231 modifica continuamente a animação.
A Fig. 9 é um fluxograma que ilustra o método de interação em tempo real para o telefone móvel 10 de acordo ainda com uma outra modalidade da invenção. De modo similar às etapas S610 a 630 na Fig. 6, uma série de processos de inicialização é realizada quando o telefone móvel 10 e iniciado, e o componente de interface gráfica 231 e o componente de interface gráfica 232 são criados e inicializados através do módulo de motor de controle 220 para a realização de seus próprios comportamentos. Um ou mais sensores (não mostrados) são dispostos sobre ou sob a tela sensível ao toque 16, para a detecção de eventos de toque ali. Um evento de toque pode se referir a um contato de um objeto na tela sensível ao toque 16, ou pode se referir também a uma aproximação detectada de um objeto da tela sensível ao toque 16. Subseqüentemente, um evento de toque é detectado na tela sensível ao toque 16 (etapa S910). Em resposta ao evento de toque, o componente de interface gráfica 231 modifica a animação (etapa S920).
Especificamente, o evento de toque detectado pode se referir a um evento de clique, um evento de batida, um evento de clique duplo, um evento de pressão longa, ou um evento de arrastamento, e a modificação de animação pelo componente de interface gráfica 231 pode se referir àquilo de a ovelha virar sua cabeça e olhar para a posição em que o evento de toque ocorreu, conforme mostrado na Fig. 4B. Em algumas modalidades, o componente de interface gráfica 231 pode modificar uma cor ou uma expressão facial, ao invés de se modificar a animação, da ovelha em resposta ao evento de toque. Alternativamente, o componente de interface gráfica 231 pode modificar a figura da animação de uma ovelha para um cachorro ou quaisquer outros animais em resposta ao evento de toque.
A Fig. 10 é um fluxograma que ilustra o método de interação em tempo real para o telefone móvel 10 de acordo ainda com uma outra modalidade da invenção. De modo similar às etapas S610 a S630 na Fig. 6, uma série de processos de inicialização é realizada quando o telefone móvel 10 e iniciado, e os componentes de interface gráfica 231 e 232 são criados e inicializados através do módulo de motor de controle 220 para a realização de seus próprios comportamentos. A tela sensível ao toque 16 é capaz de detectar eventos de toque nela. Subseqüentemente à etapa S630, o componente de interface gráfica 231 determina se um evento de toque ou uma mudança de status de operação do componente de interface gráfica 232 é detectado (etapa S1010). Se um evento de toque for detectado na tela sensível ao toque 16, o componente de interface gráfica 231 modificará sua própria animação de acordo com o evento de toque (etapa S1020). Se uma mudança do status de operação do componente de interface gráfica 232 for detectada, o componente de interface gráfica 231 modificará a animação de acordo com o status de operação mudado do componente de interface gráfica 232 (etapa S103 0). Após isso, é determinado se um sinal de parada é recebido (etapa Sl040).
Se assim for, o processo terminará; caso não, o fluxo do processo retornará para a etapa SlOlO, para a detecção de um próximo evento de toque ou de uma próxima mudança do status de operação do componente de interface gráfica 232. Embora as detecções do evento de toque e do status de operação mudado do componente de interface gráfica 232 sejam determinadas em uma única etapa, o método de interação em tempo real alternativamente pode ser projetado para ter detecções do evento de toque e do status de operação mudado do componente de interface gráfica 232 sendo realizadas em duas etapas separadas em seqüência.
Note que o processo do método de interação em tempo real pode ser terminado quando o componente de interface gráfica 231 for terminado ou for arrastado da área A3 e solto na área A2.
Embora a invenção tenha sido descrita a título de exemplo e em termos de uma modalidade preferida, é para ser entendido que a invenção não está limitada a isso. Aqueles que são versados nesta tecnologia ainda podem fazer várias alterações e modificações, sem que se desvie do escopo e do espírito desta invenção. É notado que os componentes de interface gráfica 231 e 232 podem ser projetados para proverem funções diferentes, outras além de animações da ovelha e da borboleta. Por exemplo, o componente de interface gráfica 231 pode gerar uma programação listando as tarefas diárias introduzidas por um usuário, o componente de interface gráfica 232 pode gerar um calendário exibindo meses e dias, e o componente de interface gráfica 231 pode exibir as tarefas em uma semana específica ou em um dia específico, em resposta ao mês e ao dia selecionados do componente de interface gráfica 232.
Além disso, o método de interação em tempo real ou o sistema pode prover uma interação dentre mais de dois componentes de interface gráfica, e a invenção não está limitada a isso. Portanto, o escopo da presente invenção deve ser definido e protegido pelas reivindicações a seguir e seus equivalentes.

Claims (20)

1. Aparelho de interação eletrônico, caracterizado por compreender: uma tela sensível ao toque; uma unidade de processamento que executa um primeiro componente de interface gráfica e um segundo componente de interface gráfica, onde o primeiro componente de interface gráfica gera uma animação na tela sensível ao toque, e modifica a animação em resposta a uma mudança de status de operação do segundo componente de interface gráfica.
2. Aparelho de interação eletrônico, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de processamento executar ainda um módulo de motor de controle, e do primeiro componente de interface gráfica requisitar ainda uma informação referente a um status de operação atual do segundo componente de interface gráfica a partir do módulo de motor de controle, determinar se a mudança de status de operação do segundo componente de interface gráfica ocorreu, e modificar a animação de acordo com o status de operação atual do segundo componente de interface gráfica, quando a mudança de status de operação tiver ocorrido.
3. Aparelho de interação eletrônico, de acordo com a reivindicação 1, caracterizado pelo fato do primeiro componente de interface gráfica obter o status de operação atual do segundo componente de interface gráfica ao invocar uma função do segundo componente de interface gráfica ou recuperar uma propriedade do segundo componente de interface gráfica, determinar se a mudança de status de operação do segundo componente de interface gráfica ocorreu, e modificar a animação de acordo com o status de operação atual do segundo componente de interface gráfica, quando a mudança de status de operação tiver ocorrido.
4. Aparelho de interação eletrônico, de acordo com a reivindicação 1, caracterizado pelo fato do primeiro componente de interface gráfica ser informado pelo segundo componente de interface gráfica sobre a mudança de status de operação do segundo componente de interface gráfica, e modificar a animação de acordo com o status de operação atual do segundo componente de interface gráfica.
5. Aparelho de interação eletrônico, de acordo com a reivindicação 1, caracterizado pelo fato da tela sensível ao toque detectar um evento de toque nela, e do primeiro componente de interface gráfica modificar ainda a animação em resposta ao evento de toque.
6. Aparelho de interação eletrônico, de acordo com a reivindicação 1, caracterizado pelo fato do primeiro componente de interface gráfica modificar uma cabeça de um primeiro animal animado para olhar em direção a uma posição atual de um segundo animal animado gerado pelo segundo componente de interface gráfica.
7. Aparelho de interação eletrônico, de acordo com a reivindicação 1, caracterizado pelo fato da tela sensível ao toque ser dividida em uma primeira área e uma segunda área, e do primeiro componente de interface gráfica ser executado quando um ícone de componente de interface gráfica correspondente na primeira área for arrastado e solto na segunda área.
8. Aparelho de interação eletrônico, de acordo com a reivindicação 7, caracterizado pelo fato do segundo componente de interface gráfica ser criado e iniciado pelo primeiro componente de interface gráfica.
9. Aparelho de interação eletrônico, caracterizado por compreender: uma tela sensível ao toque; uma unidade de processamento que detecta um evento de toque na tela sensível ao toque, e que executa um componente de interface gráfica, onde o componente de interface gráfica gera uma animação na tela sensível ao toque, e modifica a animação em resposta ao evento de toque.
10. Aparelho de interação eletrônico, de acordo com a reivindicação 9, caracterizado pelo fato da unidade de processamento executar um módulo de motor de controle que mantém uma informação de evento de toque sendo atualmente detectado na tela sensível ao toque, e do componente de interface gráfica requisitar ao módulo de motor de controle a informação de evento de toque.
11. Aparelho de interação eletrônico, de acordo com a reivindicação 9, caracterizado pelo fato do componente de interface gráfica modificar uma cabeça de um animal animado para olhar em direção a uma posição atual do evento de toque.
12. Aparelho de interação eletrônico, de acordo com a reivindicação 9, caracterizado pelo fato da tela sensível ao toque ser dividida em uma primeira área e uma segunda área, e do componente de interface gráfica ser executado quando um ícone de componente de interface gráfica correspondente na primeira área for arrastado e solto na segunda área.
13. Método de interação em tempo real executado em um aparelho eletrônico com uma tela sensível ao toque, caracterizado por compreender: a execução de um primeiro componente de interface gráfica e de um segundo componente de interface gráfica, onde o primeiro componente de interface gráfica gera uma aparência na tela sensível ao toque; e a modificação, pelo primeiro componente de interface gráfica, da aparência em resposta a uma mudança de status de operação do segundo componente de interface gráfica.
14. Método de interação em tempo real, de acordo com a reivindicação 13, caracterizado pelo fato do primeiro componente de interface gráfica modificar uma cor de uma animação em resposta à mudança de status de operação do segundo componente de interface gráfica.
15. Método de interação em tempo real, de acordo com a reivindicação 13, caracterizado pelo fato do primeiro componente de interface gráfica modificar uma expressão facial de uma animação em resposta à mudança de status de operação do segundo componente de interface gráfica.
16. Método de interação em tempo real, de acordo com a reivindicação 13, caracterizado pelo fato do primeiro componente de interface gráfica gerar uma animação que mostra um animal de pé, passeando ou comendo, quando não detectar nenhuma mudança de status de operação do segundo componente de interface gráfica.
17. Método de interação em tempo real para um aparelho eletrônico em uma tela sensível ao toque, caracterizado por compreender: a execução de um componente de interface gráfica gerando uma aparência na tela sensível ao toque; a detecção de um evento de toque na tela sensível ao toque; e a modificação, pelo primeiro componente de interface gráfica, da aparência em resposta ao evento de toque.
18. Método de interação em tempo real, de acordo com a reivindicação 17, caracterizado pelo fato do componente de interface gráfica modificar uma cor de uma animação em resposta ao evento de toque detectado.
19. Método de interação em tempo real, de acordo com a reivindicação 17, caracterizado pelo fato do componente de interface gráfica modificar uma expressão facial de uma animação em resposta ao evento de toque detectado.
20. Método de interação em tempo real, de acordo com a reivindicação 17, caracterizado pelo fato do componente de interface gráfica gerar uma animação que mostra um animal de pé, passeando ou comendo quando não detectar um evento de toque na tela sensível ao toque.
BRPI1004116-8A 2010-06-24 2010-10-29 aparelhos e mÉtodos para interaÇÕes de componentes de interface grÁfica em tempo real BRPI1004116A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/822,271 US20110316858A1 (en) 2010-06-24 2010-06-24 Apparatuses and Methods for Real Time Widget Interactions

Publications (1)

Publication Number Publication Date
BRPI1004116A2 true BRPI1004116A2 (pt) 2012-06-12

Family

ID=43065353

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1004116-8A BRPI1004116A2 (pt) 2010-06-24 2010-10-29 aparelhos e mÉtodos para interaÇÕes de componentes de interface grÁfica em tempo real

Country Status (5)

Country Link
US (1) US20110316858A1 (pt)
CN (1) CN102298517A (pt)
BR (1) BRPI1004116A2 (pt)
GB (1) GB2481464A (pt)
TW (1) TW201201091A (pt)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5147352B2 (ja) * 2007-10-16 2013-02-20 株式会社日立製作所 データ処理装置の情報提供方法
US20120005577A1 (en) * 2010-06-30 2012-01-05 International Business Machines Corporation Building Mashups on Touch Screen Mobile Devices
US20130100044A1 (en) * 2011-10-24 2013-04-25 Motorola Mobility, Inc. Method for Detecting Wake Conditions of a Portable Electronic Device
US9013425B2 (en) * 2012-02-23 2015-04-21 Cypress Semiconductor Corporation Method and apparatus for data transmission via capacitance sensing device
KR20130112197A (ko) * 2012-04-03 2013-10-14 삼성전자주식회사 객체의 상태 변화를 수행하기 위한 방법 및 그 전자 장치
US9547425B2 (en) 2012-05-09 2017-01-17 Apple Inc. Context-specific user interfaces
US10304347B2 (en) 2012-05-09 2019-05-28 Apple Inc. Exercised-based watch face and complications
US10613743B2 (en) 2012-05-09 2020-04-07 Apple Inc. User interface for receiving user input
US10990270B2 (en) 2012-05-09 2021-04-27 Apple Inc. Context-specific user interfaces
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
CN102799435B (zh) * 2012-07-16 2016-07-13 Tcl集团股份有限公司 一种3d控件交互方法及系统
EP3001870A4 (en) * 2013-03-05 2016-12-21 Xped Holdings Pty Ltd REMOTE CONTROL DEVICE
KR20140114103A (ko) * 2013-03-18 2014-09-26 엘에스산전 주식회사 Plc 시스템에서 증설 모듈의 초기화 방법
KR102141155B1 (ko) * 2013-04-22 2020-08-04 삼성전자주식회사 모바일 장치의 상태에 대응하는 변경된 숏컷 아이콘을 제공하는 모바일 장치 및 그 제어 방법
WO2015200889A1 (en) 2014-06-27 2015-12-30 Apple Inc. Electronic device with rotatable input mechanism for navigating calendar application
TWI647608B (zh) 2014-07-21 2019-01-11 美商蘋果公司 遠端使用者介面
EP3158425A1 (en) * 2014-08-02 2017-04-26 Apple Inc. Context-specific user interfaces
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
US10254948B2 (en) 2014-09-02 2019-04-09 Apple Inc. Reduced-size user interfaces for dynamically updated application overviews
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
EP4327731A3 (en) 2015-08-20 2024-05-15 Apple Inc. Exercise-based watch face
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US10382475B2 (en) 2016-07-01 2019-08-13 Genesys Telecommunications Laboratories, Inc. System and method for preventing attacks in communications
US10701206B2 (en) * 2016-07-01 2020-06-30 Genesys Telecommunications Laboratories, Inc. System and method for contact center communications
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
US10902148B2 (en) * 2017-12-07 2021-01-26 Verizon Media Inc. Securing digital content using separately authenticated hidden folders
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
JP6921338B2 (ja) 2019-05-06 2021-08-18 アップル インコーポレイテッドApple Inc. 電子デバイスの制限された動作
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US10852905B1 (en) 2019-09-09 2020-12-01 Apple Inc. Techniques for managing display usage
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
US11526256B2 (en) 2020-05-11 2022-12-13 Apple Inc. User interfaces for managing user interface sharing
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7589749B1 (en) * 2005-08-16 2009-09-15 Adobe Systems Incorporated Methods and apparatus for graphical object interaction and negotiation
US9104294B2 (en) * 2005-10-27 2015-08-11 Apple Inc. Linked widgets
US20070283281A1 (en) * 2006-06-06 2007-12-06 Computer Associates Think, Inc. Portlet Communication Arrangements, Portlet Containers, Methods of Communicating Between Portlets, and Methods of Managing Portlet Communication Arrangements Within a Portal
US20080055317A1 (en) * 2006-08-30 2008-03-06 Magnifi Group Inc. Synchronization and coordination of animations
KR100886336B1 (ko) * 2006-11-17 2009-03-02 삼성전자주식회사 그래픽 유저 인터페이스를 구성하는 멀티미디어 정보를관리하는 장치 및 방법
US20080168368A1 (en) * 2007-01-07 2008-07-10 Louch John O Dashboards, Widgets and Devices
KR101390103B1 (ko) * 2007-04-03 2014-04-28 엘지전자 주식회사 영상제어방법 및 이동단말기
CN101414231B (zh) * 2007-10-17 2011-09-21 鸿富锦精密工业(深圳)有限公司 触摸屏装置及其图像显示方法
US9933914B2 (en) * 2009-07-06 2018-04-03 Nokia Technologies Oy Method and apparatus of associating application state information with content and actions
US20110021109A1 (en) * 2009-07-21 2011-01-27 Borei Corporation Toy and companion avatar on portable electronic device

Also Published As

Publication number Publication date
TW201201091A (en) 2012-01-01
GB2481464A (en) 2011-12-28
GB201015529D0 (en) 2010-10-27
CN102298517A (zh) 2011-12-28
US20110316858A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
BRPI1004116A2 (pt) aparelhos e mÉtodos para interaÇÕes de componentes de interface grÁfica em tempo real
WO2019206158A1 (zh) 一种界面显示方法、装置及设备
JP2023036711A (ja) 複合現実システムにおいて仮想コンテンツを管理および表示する方法およびシステム
US7143355B2 (en) Information processing device for processing information based on a status monitoring program and method therefor
CN103150109A (zh) 用于web页面的触摸事件模型
BRPI0912269B1 (pt) dispositivo de memória legível por computador, método computadorizado para determinar quais animações de ensino habilitar e sistema de computador.
US20140143688A1 (en) Enhanced navigation for touch-surface device
KR102497550B1 (ko) 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법
CN108234774A (zh) 一种应用程序的下载方法及终端
BRPI1003966A2 (pt) aparelhos e mÉtodos para a geraÇço de um efeito de tela cheia por componentes de interface grÁfica
BRPI1003688A2 (pt) aparelho e mÉtodo para ajuste de posiÇço de apresentaÇÕes de componentes de interface grÁfica
CN110456909A (zh) 马达振动设置方法、装置、存储介质及终端
US20140372903A1 (en) Independent Hit Testing for Touchpad Manipulations and Double-Tap Zooming
CN112835478A (zh) 客户端中标签的显示处理方法、装置、设备及存储介质
CN109857354A (zh) 一种界面显示方法及终端设备
CN110147186A (zh) 一种应用的控制方法及终端设备
WO2019019899A1 (zh) 改善黑屏手势响应的方法、装置、存储介质及移动终端
CN108228065A (zh) 探测ui控件信息的方法、装置和电子设备
KR20180010029A (ko) 전자 장치의 동작 방법 및 장치
CN111818371B (zh) 一种互动视频的管理方法以及相关装置
CN110888740A (zh) 小程序的增量内存确定方法、装置、设备及存储介质
CN110837404A (zh) 应用内部功能模块的快捷操作处理方法、装置和存储介质
CN109669589B (zh) 文档编辑方法和装置
CN112764622A (zh) 图标移动方法、装置及电子设备
WO2016119264A1 (zh) 一种终端壁纸的控制方法及终端

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 6A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2385 DE 20-09-2016 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.