BR102014006171A2 - Dispositivo eletrônico e método para controlar exibição de tela usando temperatura e umidade - Google Patents

Dispositivo eletrônico e método para controlar exibição de tela usando temperatura e umidade Download PDF

Info

Publication number
BR102014006171A2
BR102014006171A2 BR102014006171-1A BR102014006171A BR102014006171A2 BR 102014006171 A2 BR102014006171 A2 BR 102014006171A2 BR 102014006171 A BR102014006171 A BR 102014006171A BR 102014006171 A2 BR102014006171 A2 BR 102014006171A2
Authority
BR
Brazil
Prior art keywords
layer
touchscreen
temperature
electronic device
transparency
Prior art date
Application number
BR102014006171-1A
Other languages
English (en)
Inventor
Boyoung Lee
Hyebin PARK
Jiyoung KANG
Minwook NA
Jongwoo SHIN
Yumi AHN
Hyunwoo Yoo
Jungwoo CHOI
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of BR102014006171A2 publication Critical patent/BR102014006171A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04164Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of El Displays (AREA)

Abstract

dispositivo eletrônico e método para controlar exibição de tela usando temperatura e umidade uma imagem de plano fundo é exibida em uma tela sensível ao toque de um dispositivo eletrônico. sobreposta à imagem plano de fundo, uma camada semitransparente é exibida. quando uma ação de toque e arrasto é detectada na camada semitransparente, a transparência de uma região de toque e arrasto é mudada. a transparência da camada semitransparente pode ser mudada de acordo com temperatura ou umidade.

Description

DISPOSITIVO ELETRÔNICO E MÉTODO PARA CONTROLAR EXIBIÇÃO DE TELA USANDO TEMPERATURA E UMIDADE
CAMPO TÉCNICO
[001] A presente revelação diz respeito a um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque. Mais particularmente, a presente revelação diz respeito a um dispositivo eletrônico e método para controlar uma exibição de imagens e objetos em uma tela sensível ao toque, com base em pelo menos uma de temperatura e umidade.
ANTECEDENTES
[002] Hoje em dia uma tela sensível ao toque é usada para vários dispositivos eletrônicos a fim de exibir elementos gráficos e texto e para oferecer uma interface de usuário que permite uma interação entre um usuário e um dispositivo eletrônico. Uma tela sensível ao toque detecta contato em uma superfície da mesma e reage a tal contato. Normalmente uma tela sensível ao toque pode exibir na mesma uma ou mais teclas programáveis, um ou mais itens de menu e qualquer outro objeto para uma interface de usuário. Contato do usuário com qualquer objeto em uma tela sensível ao toque pode causar uma interação entre um usuário e um dispositivo eletrônico.
[003] Uma tela sensível ao toque fornece uma interface de usuário intuitiva. Por esta razão uma tela sensível ao toque tem sido amplamente usada como um mostrador e dispositivo de entrada para muitos tipos de dispositivos móveis tais como telefones móveis ou telefones inteligentes.
[004] Atualmente um telefone inteligente usa uma tela sensível ao toque como um dispositivo de entrada/saida básico e tem vários sensores, tais como um sensor de temperatura, um sensor de umidade e um sensor ótico, para detectar ambientes externos. Ao combinar uma interface intuitiva de uma tela sensível ao toque com vários sensores, um telefone inteligente pode oferecer experiências naturais e aprimoradas para um usuário.
[005] A informação acima é apresentada como informação anterior somente para ajudar em um entendimento da presente revelação. Nenhuma determinação foi feita, e nenhuma afirmação é feita, tal como para se qualquer uma das indicadas acima pode ser aplicável como técnica anterior com referência à presente revelação.
SUMÁRIO
[006] Aspectos da presente revelação são para abordar pelo menos os problemas e/ou desvantagens mencionados anteriormente e para fornecer pelo menos as vantagens descritas a seguir. Desta maneira, um aspecto da presente revelação é para fornecer um dispositivo eletrônico e método para um controle de exibição de tela que permite uma exibição de uma camada sem.it ransparente sobreposta a uma imagem de plano de fundo em uma tela sensível ao toque.
[007] Um outro aspecto da presente revelação é para fornecer um dispositivo eletrônico e método para um controle de exibição de tela que pode mudar a transparência de uma região de toque e arrasto em resposta a uma entrada de usuário baseada em um toque e arrasto em uma camada semitransparente.
[008] Um outro aspecto da presente revelação é para fornecer um dispositivo eletrônico e método para um controle de exibição de tela que pode variar a transparência de uma camada semitransparente de acordo com pelo menos uma de temperatura e umidade.
[009] De acordo com um primeiro aspecto da presente invenção é fornecido um dispositivo eletrônico compreendendo: uma tela sensível ao toque configurada para exibir uma imagem e para detectar uma entrada de usuário; e uma unidade de controle configurada para controlar a tela sensível ao toque para exibir uma primeira camada sobreposta à imagem; em que, quando uma entrada de usuário é detectada em uma região parcial da primeira camada, a unidade de controle é configurada adicionalmente para mudar a transparência da região parcial.
[010] De acordo com um segundo aspecto da presente invenção é fornecido um método de controle de exibição para um dispositivo eletrônico tendo uma tela sensível ao toque, o método compreendendo: exibir uma primeira camada sobreposta a uma imagem exibida na tela sensível ao toque; detectar uma entrada de usuário na tela sensível ao toque; e mudar a transparência de uma região parcial da primeira camada na qual a entrada de usuário é detectada.
[011] De acordo com um aspecto da presente revelação, um dispositivo eletrônico é fornecido. O dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma imagem e tendo uma tela sensível ao toque para detectar uma entrada de usuário, e uma unidade de controle configurada para controlar a tela sensível ao toque para exibir uma primeira camada sobreposta à imagem. Neste ' dispositivo eletrônico, quando a entrada de usuário é detectada em uma região parcial da primeira camada, a unidade de controle é configurada adicionalmente para mudar transparência da região parcial.
[012] O dispositivo eletrônico pode compreender adicionalmente um sensor de temperatura, e a unidade de controle pode ser configurada adicionalmente para determinar temperatura com base em informação recebida do sensor de temperatura, para controlar a primeira camada para exibir uma imagem de vapor de água quando a temperatura determinada é maior que uma temperatura predefinida, e para controlar a primeira camada para exibir uma imagem de geada quando a temperatura determinada é menor que a temperatura predefinida.
[013] A unidade de controle pode ser configurada adicionalmente para mudar transparência da região total da primeira camada de acordo com variações da temperatura determinada.
[014] A unidade de controle pode ser configurada adicionalmente para controlar a primeira camada para exibir um objeto de pingo de água após o término de um dado tempo. A unidade de controle pode ser configurada adicionalmente para controlar o objeto de pingo de água para ser exibido tal como se ele se deslocasse na direção de gravidade. A unidade de controle pode ser configurada adicionalmente para controlar o objeto de pingo de água para ser exibido em um ponto de remoção da entrada de usuário.
[015] A unidade de controle pode ser configurada adicionalmente para mudar transparência da região detectada de entrada de usuário à medida que o tempo passa.
[016] O dispositivo eletrônico pode compreender adicionalmente um sensor de umidade, e a unidade de controle pode ser configurada adicionalmente para mudar transparência da primeira camada em resposta a um sinal recebido do sensor de umidade.
[017] A unidade de controle pode ser configurada adicionalmente para controlar a primeira camada para exibir um objeto de geada acumulada em um ponto de remoção da entrada de usuário quando a imagem de geada é exibida.
[018] A unidade de controle pode ser configurada adicionalmente para controlar a tela sensível ao toque para exibir uma segunda camada sobreposta à primeira camada, a segunda camada tendo uma região opaca para exibir informação.
[019] A unidade de controle pode ser configurada adicionalmente para determinar temperatura com base em dados recebidos de uma entidade externa, para controlar a primeira camada para exibir uma imagem de vapor de água quando a temperatura determinada é maior que uma temperatura predefinida, e para controlar a primeira camada para exibir uma imagem de geada quando a temperatura determinada é menor que a temperatura predefinida.
[020] A unidade de controle pode ser configurada adicionalmente para mudar transparência da região total da primeira camada de acordo com informação meteorológica. A informação meteorológica pode incluir pelo menos uma de temperatura e umidade.
[021] A primeira camada pode ter pelo menos dois atributos que são determinados de acordo com temperatura.
[022] A unidade de controle pode ser configurada adicionalmente para designar um primeiro atributo para a primeira camada quando a temperatura é maior que uma temperatura predefinida, e para designar um segundo atributo para a primeira camada quando a temperatura é menor que a temperatura predefinida.
[023] De acordo com um outro um aspecto da presente revelação, um dispositivo eletrônico é fornecido. 0 dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma imagem e tendo uma tela sensível ao toque para detectar uma entrada de usuário, e uma unidade de controle configurada para controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta à imagem. Neste dispositivo eletrônico, quando a entrada de usuário é detectada em uma região parcial da camada semitransparente, a unidade de controle é configurada adicionalmente para mudar transparência da região parcial.
[024] De acordo com um outro um aspecto da presente revelação, um dispositivo eletrônico é fornecido. 0 dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma interface de usuário e tendo uma tela sensível ao toque para detectar uma entrada de usuário, e uma unidade de controle configurada para manter um estado de bloqueio da interface de usuário ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta à interface de usuário, para mudar transparência de uma região parcial da camada semitransparente quando a entrada de usuário é detectada na região parcial, e para liberar o estado de bloqueio da interface de usuário quando a região parcial ocupa uma porcentagem específica ou mais da região total da tela sensível ao toque.
[025] De acordo com um outro um aspecto da presente revelação, um dispositivo eletrônico é fornecido. 0 dispositivo eletrônico inclui uma unidade de exibição configurada para exibir uma pluralidade de ícones para executar aplicações e para ter uma tela sensível ao toque para detectar uma entrada de usuário, e uma unidade de controle configurada para rejeitar uma seleção dos ícones ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta aos ícones, e para controlar pelo menos um dos ícones para ficar em um estado selecionável ao mudar transparência de uma região parcial da camada semitransparente quando a entrada de usuário é detectada na região parcial.
[026] De acordo com um outro um aspecto da presente revelação, um método para um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque é fornecido. O método inclui uma primeira camada sobreposta a uma imagem exibida na tela sensível ao toque, detectar uma entrada de usuário na tela sensível ao toque, e mudar transparência de uma região parcial da primeira camada na qual a entrada de usuário é detectada.
[027] O método de controle de exibição de tela pode compreender adicionalmente determinar temperatura, e exibir uma imagem de vapor de água na primeira camada quando a temperatura determinada é maior que uma temperatura predefinida, e exibir uma imagem de geada na primeira camada quando a temperatura determinada é menor que a temperatura predefinida.
[028] 0 método de controle de exibição de tela pode compreender adicionalmente mudar transparência da região total da primeira camada de acordo com variações da temperatura determinada.
[029] O método de controle de exibição de tela pode compreender adicionalmente exibir um objeto de pingo de água na primeira camada após o término de um dado tempo.
[030] O método de controle de exibição de tela pode compreender adicionalmente exibir o objeto de pingo de água tal como se ele se deslocasse na direção de gravidade.
[031] O método de controle de exibição de tela pode compreender adicionalmente exibir o objeto de pingo de água em um ponto de remoção da entrada de usuário.
[032] O método de controle de exibição de tela pode compreender adicionalmente mudar transparência da região detectada de entrada de usuário à medida que o tempo passa.
[033] O método de controle de exibição de tela pode compreender adicionalmente detectar umidade, e mudar transparência da primeira camada de acordo com a umidade detectada.
[034] 0 método de controle de exibição de tela pode compreender adicionalmente exibir um objeto de geada acumulado em um ponto de remoção da entrada de usuário na primeira camada quando a imagem de geada é exibida.
[035] O método de controle de exibição de tela pode compreender adicionalmente exibir uma segunda camada sobreposta à primeira camada na tela sensível ao toque, a segunda camada tendo uma região opaca para exibir informação.
[036] O método de controle de exibição de tela pode compreender adicionalmente receber temperatura, e exibir uma imagem de vapor de água na primeira camada quando a temperatura recebida é maior que uma temperatura predefinida, e exibir uma imagem de geada na primeira camada quando a temperatura recebida é menor que a temperatura predefinida.
[037] O método de controle de exibição de tela pode compreender adicionalmente mudar transparência da região total da primeira camada de acordo com informação meteorológica. A informação meteorológica pode incluir pelo menos uma de temperatura e umidade.
[038] A primeira camada pode ter pelo menos dois atributos que são determinados de acordo com temperatura.
[039] O método de controle de exibição de tela pode compreender adicionalmente designar um primeiro atributo para a primeira camada quando a temperatura é maior que uma temperatura predefinida, e designar um segundo atributo para a primeira camada quando a temperatura é menor que a temperatura predefinida.
[040] De acordo com um outro um aspecto da presente revelação, um método para um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque é fornecido. 0 método inclui exibir uma imagem na tela sensível ao toque, exibir uma camada semitransparente sobreposta à imagem, detectar uma entrada de usuário na tela sensível ao toque, e mudar transparência de uma região parcial da camada semitransparente na qual a entrada de usuário é detectada.
[041] De acordo com um outro um aspecto da presente revelação, um método para um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque é fornecido. O método inclui exibir uma interface de usuário na tela sensível ao toque, manter um estado de bloqueio da interface de usuário ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta à interface de usuário, mudar transparência de uma região parcial da camada semitransparente quando uma entrada de usuário é detectada na região parcial, e liberar o estado de bloqueio da interface de usuário quando a região parcial ocupa uma porcentagem específica ou mais da região total da tela sensível ao toque.
[042] De acordo com um outro um aspecto da presente revelação, um método para um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque é fornecido. O método inclui exibir uma pluralidade de ícones para executar aplicações na tela sensível ao toque, rejeitar uma seleção dos ícones ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta aos ícones, e controlar pelo menos um dos ícones para ficar em um estado selecionável ao mudar transparência de uma região parcial da camada semitransparente quando uma entrada de usuário é detectada na região parcial.
[043] Um outro aspecto da invenção fornece um programa de computador compreendendo instruções arranjadas, quando executadas, para implementar um método de acordo com qualquer um dos aspectos descritos anteriormente. Um aspecto adicional fornece armazenamento legível por máquina armazenando um programa como este.
[044] Outros aspectos, vantagens e recursos notáveis da revelação se tornarão aparentes para os versados na técnica a partir da descrição detalhada a seguir, a qual, considerada em combinação com os desenhos anexos, revela várias modalidades da presente revelação.
DESCRIÇÃO RESUMIDA DOS DESENHOS
[045] Os expostos acima e outros aspectos, recursos e vantagens de certas modalidades da presente revelação estarão mais aparentes a partir da descrição a seguir considerada em combinação com os desenhos anexos, nos quais: [04 6] A figura 1 é um diagrama de blocos ilustrando um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[047] As figuras 2A e 2B são vistas explodidas ilustrando camadas de tela exibidas em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[048] A figura 3 é um fluxograma ilustrando um processo associado com uma ação de toque e arrasto detectada em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[049] As figuras 4A e 4B mostram capturas de tela ilustrando objetos gráficos representados em uma tela por uma ação de toque e arrasto detectada em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[050] A figura 5 é um fluxograma ilustrando um processo de exibir uma camada com um atributo variado de acordo com temperatura em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[051] As figuras 6A e 6B mostram capturas de tela ilustrando camadas exibidas com atributos diferentes de acordo com temperatura em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[052] A figura 7 é um fluxograma ilustrando um processo associado com mudanças de temperatura em um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[053] As figuras 8A e 8B mostram capturas de tela ilustrando variações de transparência de acordo com mudanças de temperatura em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[054] A figura 9 é um fluxograma ilustrando um processo associado com a remoção de uma ação de toque e arrasto de uma tela sensível ao toque em um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[055] A figura 10 mostra uma captura de tela ilustrando um objeto de pingo de água exibido em um ponto de remoção de uma ação de toque e arrasto na primeira camada de uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[056] A figura 11 é um fluxograma ilustrando um processo após o término de um dado tempo a partir de uma exibição de um objeto de pingo de água em uma tela sensível ao toque em um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[057] As figuras 12A e 12B mostram capturas de tela ilustrando o movimento de um objeto de pingo de água após o término de um dado tempo a partir de uma exibição do objeto de pingo de água em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[058] A figura 13 é um fluxograma ilustrando um processo associado com uma ação de toque e arrasto detectada em uma camada com uma imagem de geada em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[059] As figuras 14A, 14B e 14C mostram capturas de tela ilustrando um objeto de geada acumulada exibido em resposta à remoção de uma ação de toque e arrasto detectada em uma camada com uma imagem de geada em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[060] A figura 15 é um fluxograma ilustrando um processo após o término de um dado tempo a partir de uma exibição de uma região tendo sido mudada em transparência em uma tela sensível ao toque em um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[061] As figuras 16A, 16B e 16C mostram capturas de tela ilustrando o desaparecimento de uma região tendo sido mudada em transparência após o término de um dado tempo a partir de uma exibição da região em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[062] As figuras 17A, 17B, 17C e 17D mostram capturas de tela ilustrando um desaparecimento sequencial de uma região tendo sido mudada em transparência após o término de um dado tempo a partir de uma exibição da região em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[063] As figuras 18A, 18B e 18C mostram capturas de tela ilustrando uma camada tendo sido mudada em opacidade em um caso de uma ação de toque e arrasto determinada em cerca de 90% das regiões em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[064] A figura 19 é um fluxograma ilustrando um processo associado com mudanças de umidade em um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[065] As figuras 20A, 20B, 20C, 20D e 20E mostram capturas de tela ilustrando várias formas de exibição de uma camada de acordo com mudanças de temperatura e umidade em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[066] A figura 21 é uma vista ilustrando uma variação em uma forma de exibição de uma camada em um ponto de toque de acordo com a duração de um toque em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação;
[067] As figuras 22A, 22B, 22C e 22D mostram capturas de tela ilustrando um processo de liberar um estado de bloqueio de uma interface de usuário em resposta a uma entrada de usuário em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação; e [068] As figuras 23A, 23B e 23C mostram capturas de tela ilustrando um processo de liberar um estado de bloqueio de uma interface de usuário em uma região parcial em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[069] Por todos os desenhos, deve ser notado que números de referência iguais são usados para representar os elementos, recursos e estruturas iguais ou similares.
DESCRIÇÃO DETALHADA
[070] A descrição a seguir com referência aos desenhos anexos é fornecida para ajudar em um entendimento abrangente de várias modalidades da presente revelação tal como definida pelas reivindicações e suas equivalências. Ela inclui vários detalhes específicos para ajudar nesse entendimento, mas estes são para ser considerados somente como exemplares. Desta maneira, as pessoas de conhecimento comum na técnica reconhecerão que várias mudanças e modificações das várias modalidades descritas neste documento podem ser feitas sem divergir do escopo e espírito da presente revelação. Além do mais, descrições de funções e construções bem conhecidas podem estar omitidas para clareza e concisão.
[071] As expressões e palavras usadas na descrição e reivindicações a seguir não estão limitadas aos significados bibliográficos e são usadas pelo inventor meramente para capacitar um entendimento claro e consistente da presente revelação. Desta maneira, deve estar aparente para os versados na técnica que a descrição a seguir de várias modalidades da presente revelação é fornecida somente para propósito de ilustração e não para o propósito de limitar a presente revelação tal como definida pelas reivindicações anexas e suas equivalências.
[072] É para ser entendido que as formas singulares "um", "uma", "o" e "a" incluem plurais referentes a não ser que o contexto dite claramente de outro modo. Assim, por exemplo, referência para "uma camada" inclui referência para uma ou mais de tais camadas.
[073] A figura 1 é um diagrama de blocos ilustrando um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[074] Referindo-se à figura 1, o dispositivo eletrônico 100 pode ser conectado a qualquer dispositivo externo (não mostrado), usando uma unidade de comunicação móvel 120, uma unidade de subcomunicação 130 e um conector 165. Um dispositivo externo pode ser um telefone móvel, um telefone inteligente, um dispositivo de entrada, um tablet, Computador Pessoal (PC), um servidor, ou qualquer outro dispositivo eletrônico. O dispositivo eletrônico 100 é portátil, é capaz de transmissão/recepção de dados, e pode ter pelo menos uma tela sensível ao toque. O dispositivo eletrônico 100 pode ser um telefone móvel, um telefone inteligente, um tablet, uma Televisão (TV) Tridimensional (3D) , uma TV inteligente, uma TV de Diodo Emissor de Luz (LED), uma TV de Tela de Cristal Líquido (LCD), ou qualquer outro dispositivo que permita que dados sejam transmitidos para um dispositivo periférico ou outro dispositivo remoto ou recebidos dos mesmos.
[075] 0 dispositivo eletrônico 100 inclui uma tela sensível ao toque 190 e um controlador de tela sensível ao toque 195, os quais coletivamente podem ser uma unidade de exibição (não mostrada).
[076] Adicionalmente, o dispositivo eletrônico 100 inclui uma unidade de controle 110, a unidade de comunicação móvel 120, a unidade de subcomunicação 130, uma unidade de multimídia 14 0, uma unidade de câmera 150, uma unidade de Sistema de Posicionamento Global (GPS) 155, uma unidade de entrada/saída 160, uma unidade sensora 170, uma unidade de armazenamento 175 e uma unidade de fornecimento de energia 180. A unidade de subcomunicação 130 inclui pelo menos uma de uma unidade de Rede de Área Local Sem Fio (WLAN) 131 e uma unidade de comunicação de pequeno alcance 132. A unidade de multimídia 140 inclui pelo menos uma de uma unidade de comunicação de difusão 141, uma unidade de reprodução de áudio 142 e uma unidade de reprodução de vídeo 143. A unidade de câmera 150 inclui pelo menos um de a primeira câmera 151, a segunda câmera 152 e um flash 153. A unidade de entrada/saída 160 inclui pelo menos um de uma tecla 161, um microfone 162, um alto-falante 163, um motor de vibração 164, o conector 165, um miniteclado 166 e uma unidade de entrada 167. A unidade sensora 170 inclui um sensor de temperatura 171 e um sensor de umidade 172.
[077] A unidade de controle 110 pode incluir uma Unidade Central de Processamento (CPU) 111, uma Memória Somente de Leitura (ROM) 112 que armazena um programa de controle para controlar o dispositivo eletrônico 100, e uma Memória de Acesso Aleatório (RAM) 113 que armazena um sinal ou dados recebidos de qualquer entidade externa ou é usada como uma região de armazenamento para uma tarefa executada no dispositivo eletrônico 100.
[078] A unidade de controle 110 controla operações gerais do dispositivo eletrônico 100 e fluxos de sinais entre os componentes internos 120 a 195 mencionados anteriormente, e também executa uma função para processar dados. A unidade de controle 110 controla o fornecimento de energia elétrica proveniente da unidade de fornecimento de energia 180 para os componentes internos 120 a 195 mencionados anteriormente. Adicionalmente, a unidade de controle 110 executa um Sistema Operacional (OS) e uma aplicação armazenada na unidade de armazenamento 175.
[079] A CPU 111 pode incluir uma Unidade de Processamento Gráfico (GPU) (não mostrada). A CPU 111 pode ser um Sistema em Um Chip (SoC) que contém um núcleo (não mostrado) e a GPU. A CPU 111 pode incluir um único núcleo, um núcleo duplo, um núcleo triplo, um núcleo quádruplo, ou quaisquer outros núcleos múltiplos. A CPU 111, a ROM 112 e a RAM 113 podem ser conectadas umas às outras por meio de um barramento interno.
[080] A unidade de controle 110 pode controlar a unidade de comunicação móvel 120, a unidade de subcomunicação 130, a unidade de multimídia 140, a unidade de câmera 150, a unidade de GPS 155, a unidade de entrada/saída 160, a unidade sensora 170, a unidade de armazenamento 175, a unidade de fornecimento de energia 180, a tela sensível ao toque 190 e o controlador de tela sensível ao toque 195.
[081] A unidade de comunicação móvel 120 capacita o dispositivo eletrônico 100 para ser conectado a qualquer dispositivo externo por meio de uma comunicação móvel, usando uma ou mais antenas (não mostradas) sob o controle da unidade de controle 110. A unidade de comunicação móvel 120 transmite ou recebe um sinal sem fio para uma chamada de voz, uma chamada de vídeo, um Serviço de Mensagens Curtas (SMS), um Serviço de Mensagens Multimídia (MMS), ou uma comunicação de dados para ou de um telefone móvel, um telefone inteligente, um tablet ou qualquer outro dispositivo eletrônico.
[082] A unidade de subcomunicação 130 pode incluir pelo menos uma de a unidade WLAN 131 e a unidade de comunicação de pequeno alcance 132. Por exemplo, a unidade de subcomunicação 130 pode incluir somente a unidade WLAN 131, somente a unidade de comunicação de pequeno alcance 132, ou ambas.
[083] A unidade WLAN 131 pode ser conectada à Internet por meio de um Ponto de Acesso (AP) (não mostrado) sob o controle da unidade de controle 110. A unidade WLAN 131 suporta padrões relacionados, tais como o 802.llx do Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE). A unidade de comunicação de pequeno alcance 132 pode executar uma comunicação de pequeno alcance entre o dispositivo eletrônico 100 e qualquer dispositivo externo sob o controle da unidade de controle 110. Por exemplo, uma comunicação de pequeno alcance pode ser, mas não está limitada a isto, Bluetooth, Associação de Dados Infravermelhos (IrDA), ou Comunicação de Campo Próximo (NFC) .
[084] O dispositivo eletrônico 100 pode incluir pelo menos uma de a unidade de comunicação móvel 120, a unidade WLAN 131 e a unidade de comunicação de pequeno alcance 132. Por exemplo, o dispositivo eletrônico 100 pode ter qualquer combinação de a unidade de comunicação móvel 120, a unidade WLAN 131 e a unidade de comunicação de pequeno alcance 132. Em várias modalidades desta revelação, "uma unidade de comunicação" é a expressão usada para incluir a unidade de comunicação móvel 120 e a unidade de subcomunicação 130.
[085] A unidade de multimídia 140 pode incluir a unidade de comunicação de difusão 141, a unidade de reprodução de áudio 142 ou a unidade de reprodução de vídeo 143. A unidade de comunicação de difusão 141 pode receber um sinal de difusão (por exemplo, um sinal de difusão de TV, um sinal de difusão de rádio ou um sinal de difusão de dados) e qualquer informação adicional (por exemplo, Guia Eletrônico de Programação (EPG) ou Guia Eletrônico de Serviços (ESG) ) de uma estação de difusão por meio de uma antena adequada (não mostrada) sob o controle da unidade de controle 110. Então a unidade de comunicação de difusão 141 pode reproduzir o sinal e informação recebidos, usando a tela sensível ao toque, uma unidade codificadora/decodificadora de vídeo (não mostrada) e uma unidade codificadora/decodificadora de áudio (não mostrada).
[086] A unidade de reprodução de áudio 142 pode reproduzir uma fonte de áudio (por exemplo, um arquivo de áudio tendo a extensão de arquivo de mp3, wma, ogg ou wav) armazenada na unidade de armazenamento 175 ou recebida de qualquer entidade externa, usando a unidade codificadora/decodificadora de áudio sob o controle da unidade de controle 110.
[087] A unidade de reprodução de vídeo 143 pode reproduzir um arquivo de vídeo digital (por exemplo, um arquivo tendo a extensão de arquivo de mpeg, mpg, mp4, avi, mov ou mkv) armazenado na unidade de armazenamento 175 ou recebido de qualquer entidade externa, usando a unidade codificadora/decodificadora de vídeo sob o controle da unidade de controle 110. Muitas aplicações que podem ser instaladas no dispositivo eletrônico 100 podem permitir a reprodução de áudio e/ou de vídeo, usando a unidade codificadora/decodificadora de áudio e/ou a unidade codificadora/decodificadora de vídeo.
[088] Tal como será entendido pelos versados na técnica, muitos tipos de unidades codificadoras/decodificadoras de vídeo/áudio têm sido fabricados e vendidos. Adicionalmente, a unidade de reprodução de vídeo 143 pode reproduzir uma fonte de áudio, usando a unidade codificadora/decodificadora de vídeo ou a unidade codificadora/decodificadora de áudio.
[089] A unidade de multimídia 140 pode incluir a unidade de reprodução de áudio 142 e a unidade de reprodução de vídeo 143, excluindo a unidade de comunicação de difusão 141. Em uma outra modalidade, a unidade de reprodução de áudio 142 e a unidade de reprodução de vídeo 143 podem ser incluídas na unidade de controle 110. Em várias modalidades desta revelação, "uma unidade codificadora/decodificadora de vídeo" é a expressão usada para incluir uma ou mais unidades codificadoras/decodificadoras de vídeo. De forma similar, "uma unidade codificadora/decodificadora de áudio" é a expressão usada para incluir uma ou mais unidades codificadoras/decodificadoras de áudio.
[090] A unidade de câmera 150 pode incluir pelo menos uma de a primeira câmera 151 e a segunda câmera 152, as quais são dispostas respectivamente nos lados dianteiro e traseiro do dispositivo eletrônico 100. Cada uma das primeira e segunda câmeras 151 e 152 pode capturar uma imagem e/ou gravar um vídeo. Cada câmera 151 ou 152 pode ter uma fonte de luz auxiliar (por exemplo, o flash 153) para oferecer uma quantidade suficiente de luz.
[091] A unidade de câmera 150 ainda pode incluir pelo menos uma câmera adicional (não mostrada) que é disposta perto das primeira e segunda câmeras 151 e 152. Por exemplo, a distância entre a câmera adicional e a primeira ou segunda câmera pode estar dentro de uma faixa a 2 cm a 8 cm. Esta combinação de câmeras pode permitir a obtenção de uma imagem tridimensional ou um vídeo 3D.
[092] A unidade de GPS 155 recebe ondas de rádio de uma pluralidade de satélites GPS (não mostrados) na órbita da terra. 0 dispositivo eletrônico 100 pode calcular uma posição corrente, usando tempo de chegada (ToA) de tais satélites GPS para a unidade de GPS 155.
[093] A unidade de entrada/saída 160 pode incluir pelo menos um de as teclas 161, o microfone 162, o alto-falante 163, o motor de vibração 164, o conector 165, o miniteclado 166 e a unidade de entrada 167.
[094] A tecla 161 pode ser formada de uma tecla virtual sensível ao toque em vez de uma tecla mecânica.
Adicionalmente, a tecla 161 pode ser exibida na tela sensível ao toque 190.
[095] 0 microfone 162 recebe voz ou som do exterior e cria um sinal elétrico sob o controle da unidade de controle 110. Este sinal elétrico pode ser convertido pela unidade codificadora/decodificadora de áudio e então armazenado na unidade de armazenamento 175 ou produzido através do alto-falante 163. O microfone 162 ou outros mais podem ficar localizados na frente, lateral e traseira do dispositivo eletrônico 100. Alternativamente, o microfone 162 ou outros mais podem ficar localizados somente na parte lateral.
[096] O alto-falante 163 pode produzir, para o exterior, qualquer som correspondendo a vários sinais (por exemplo, um sinal sem fio, um sinal de difusão, uma fonte de áudio, um arquivo de vídeo, uma imagem, etc.) da unidade de comunicação móvel 120, da unidade de subcomunicação 130, da unidade de multimídia 140 ou da unidade de câmera 150, usando a unidade codificadora/decodificadora de áudio sob o controle da unidade de controle 110. O alto-falante 163 pode produzir som (por exemplo, um tom de toque de tecla ou um tom de chamada) correspondendo a uma função particular executada pelo dispositivo eletrônico 100.
[097] O motor de vibração 164 pode converter um sinal elétrico em uma vibração mecânica sob o controle da unidade de controle 110. Por exemplo, quando uma solicitação para uma chamada de voz é recebida de um dispositivo chamador (não mostrado), o motor de vibração 164 opera no caso onde o dispositivo eletrônico 100 está em um modo de vibração. 0 motor de vibração 164 ou outros mais podem ser usados no dispositivo eletrônico 100 para transferir uma vibração para o dispositivo eletrônico inteiro 100 ou para uma parte do mesmo.
[098] 0 conector 165 pode ser usado como uma interface para conectar o dispositivo eletrônico 100 a um dispositivo externo (não mostrado) ou a uma fonte de energia (não mostrada). Usando um cabo conectado ao conector 165, o dispositivo eletrônico 100 pode transmitir dados armazenados na unidade de armazenamento 175 para qualquer dispositivo externo ou pode receber dados de qualquer dispositivo externo sob o controle da unidade de controle 110. Adicionalmente, usando um cabo conectado ao conector 165, o dispositivo eletrônico 100 pode receber energia elétrica de uma fonte de energia e recarregar uma batería (não mostrada) incorporada ao mesmo.
[099] 0 miniteclado 166 pode receber uma entrada de tecla para controlar o dispositivo eletrônico 100 de um usuário. 0 miniteclado 166 pode ser um miniteclado mecânico (não mostrado) formado no dispositivo eletrônico 100 e/ou um miniteclado virtual (não mostrado) exibido na tela sensível ao toque 190. Em várias modalidades, um miniteclado mecânico pode não ser usado dependendo do desempenho ou estrutura do dispositivo eletrônico 100.
[100] A unidade de entrada 167 pode tocar ou selecionar qualquer objeto (por exemplo, menu, texto, imagem, figura, ícone, etc.) exibido na tela sensível ao toque 190. Por exemplo, a unidade de entrada 167 pode tocar na tela sensível ao toque de tipo capacitivo, tipo resistivo, tipo indução eletromagnética, ou tipo Reação Eletromagnética (EMR) , ou introduzir caracteres e outros mais por meio de um teclado virtual.
[101] A unidade sensora 170 pode incluir o sensor de temperatura 171 para detectar a temperatura do lado de fora e o sensor de umidade 172 para detectar a umidade do lado de fora. Vários sensores podem ser acrescentados ou removidos da unidade sensora 170, dependendo do desempenho do dispositivo eletrônico 100. Por exemplo, um sensor de proximidade (não mostrado) para detectar a aproximação de alguma coisa, um sensor de luminância (não mostrado) para detectar a quantidade de luz em volta do dispositivo eletrônico 100, um sensor de aceleração (não mostrado) para detectar uma inclinação triaxial do dispositivo eletrônico 100 e/ou um sensor de gravidade para detectar a direção de gravidade podem ser incluídos na unidade sensora 170.
[102] Pelo menos um sensor incluído na unidade sensora 170 pode detectar condições do dispositivo eletrônico 100 ou informação ambiental em volta do dispositivo eletrônico 100, e então transmitir um sinal de detecção para a unidade de controle 110.
[103] A unidade de armazenamento 175 pode armazenar sinais ou dados introduzidos/enviados em conexão com operações da unidade de comunicação móvel 120, da unidade de subcomunicação 130, da unidade de multimídia 140, da unidade de câmera 150, da unidade de GPS 155, da unidade de entrada/saída 160, da unidade sensora 170 e da tela sensível ao toque 190 sob o controle da unidade de controle 110. A unidade de armazenamento 175 pode armazenar um programa de controle específico para o controle do dispositivo eletrônico 100 ou da unidade de controle 110, várias aplicações oferecidas por um fabricante ou recebidas de qualquer entidade externa, uma Interface Gráfica de Usuário (GUI) relacionada, imagens usadas para fornecer uma GUI como esta, informação de usuário, documentos, base de dados e/ou dados relacionados.
[104] Em várias modalidades desta revelação, uma "unidade de armazenamento" é a expressão usada para incluir a unidade de armazenamento 175, a ROM 112 e a RAM 113 na unidade de controle 110, e/ou um cartão de memória (não mostrado, por exemplo, um cartão micro Secure Digital (SD) ou um cartão de memória) montado no dispositivo eletrônico 100. Esta unidade de armazenamento pode ser formada de memória não volátil, memória volátil, Unidade de Disco Rígido (HDD), ou Unidade de Estado Sólido (SSD).
[105] A unidade de fornecimento de energia 18 0 pode fornecer energia elétrica para uma ou mais baterias (não mostradas) dispostas no dispositivo eletrônico 100 sob o controle da unidade de controle 110. Adicionalmente, a unidade de fornecimento de energia 180 pode receber energia elétrica de uma fonte de energia externa (não mostrada) através de um cabo (não mostrado) conectado ao conector 165 .
[106] A tela sensível ao toque 190 pode oferecer para um usuário uma interface de usuário tal como GUI correspondendo a vários serviços (por exemplo, chamada, transmissão de dados, difusão, obtenção de imagem, vídeo, aplicação, etc.). A tela sensível ao toque 190 transmite sinais analógicos correspondendo a uma ou mais entradas de toques introduzidas por meio de uma GUI para o controlador de tela sensível ao toque 195. A tela sensível ao toque 190 pode receber uma ou mais entradas de toques de um membro do usuário (por exemplo, dedo) ou da unidade de entrada 167.
[107] Em várias modalidades desta revelação, um toque não está limitado a contato entre a tela sensível ao toque 190 e um membro do usuário ou a unidade de entrada 167, e pode incluir qualquer ação não de contato (por exemplo, flutuação com uma distância detectável de 30 mm ou menos). .. Esta distância detectável pode ser variada dependendo do - desempenho ou estrutura do dispositivo eletrônico 100.
[108] A tela sensível ao toque 190 pode ser formada de tipo resistivo, tipo capacitivo, tipo infravermelho ou tipo de onda acústica.
[109] Adicionalmente, a tela sensível ao toque 190 pode incluir uma almofada de Reação Eletromagnética (EMR) capaz de detectar contato de uma caneta apontadora do tipo ativo (não mostrada).
[110] Este caneta pode conter uma bobina e pode formar um campo magnético em um certo ponto da almofada EMR por meio da bobina. A almofada EMR pode detectar um ponto de toque da caneta na tela sensível ao toque 190 ao detectar a localização de um campo magnético.
[111] 0 controlador de tela sensível ao toque 195 recebe sinais (por exemplo, coordenadas X e Y de um ponto de toque) correspondendo a uma ou mais entradas de toques da tela sensível ao toque 190 e transmite os sinais recebidos para a unidade de controle 110. Então a unidade de controle 110 pode controlar a tela sensível ao toque 190, usando sinais recebidos do controlador de tela sensível ao toque 195. Por exemplo, em resposta a uma entrada de toque, a unidade de controle 110 pode indicar uma seleção de um ícone de atalho (não mostrado) exibido na tela sensível ao toque 190 ou pode executar uma aplicação correspondendo ao ícone de atalho selecionado.
[112] Ά unidade de controle 110 pode calcular as coordenadas X e Y correspondendo a um ponto de toque, usando sinais recebidos do controlador de tela sensível ao toque 195. Em várias modalidades desta revelação, o controlador de tela sensível ao toque 195 controla a tela sensível ao toque 190 e, dependendo do desempenho ou estrutura do dispositivo eletrônico 100, pode ser contido na unidade de controle 110.
[113] Os elementos discutidos anteriormente do dispositivo eletrônico 100 na figura 1 podem ser usados essencialmente ou de forma opcional dependendo do desempenho do dispositivo eletrônico 100. Adicionalmente, tal como será entendido pelos versados na técnica, localizações de tais elementos podem ser variadas de acordo com o desempenho ou estrutura do dispositivo eletrônico 100.
[114] As figuras 2A e 2B são vistas explodidas ilustrando camadas de tela exibidas em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[115] O dispositivo eletrônico pode incluir a tela sensível ao toque para permitir que uma imagem seja exibida e para detectar uma entrada de usuário. Particularmente, o dispositivo eletrônico pode exibir uma camada semitransparente sobreposta â imagem. Adicionalmente, o dispositivo eletrônico pode incluir a unidade de controle para mudar a transparência de uma parte da camada semitransparente correspondendo a um ponto especifico na tela sensível ao toque da qual uma entrada de usuário é detectada.
[116] Referindo-se às figuras 1 e 2A, uma imagem 210 é exibida na tela sensível ao toque 190. A imagem 210 pode ser uma imagem de plano de fundo exibida em um estado ocioso do dispositivo eletrônico.
[117] Adicionalmente, a primeira camada 220 pode ser exibida para ficar sobreposta à imagem 210. A primeira imagem 210 pode ser considerada como sendo exibida em uma camada subjacente à primeira camada 220. Pelo menos parte da primeira camada 220 pode estar em um estado semitransparente (ou translúcido) de tal maneira que a imagem 210 pode ser vista de forma obscura através da primeira camada 220. Entretanto, a primeira camada 220 pode conter objetos gráficos exibidos na mesmo, tal como um objeto de temperatura 230, um objeto de umidade 240 e um objeto de tempo corrente 250. Os objetos gráficos podem ser opacos, ou também podem ser semitransparentes.
[118] A primeira camada 220 pode ter a transparência mudada sob o controle da unidade de controle 110. Transparência pode ser expressada por meio de números de 0 a 100. Por exemplo, transparência '0' indica um estado opaco no qual a imagem 210 fica completamente invisível. Transparência '50' indica um estado semitransparente no qual a imagem 210 é vista de forma obscura. Transparência '10' indica um outro estado semitransparente no qual a imagem 210 fica quase invisível. Transparência '100'’ indica um estado transparente no qual a imagem 210 fica completamente visível. Um estado semitransparente pode significar qualquer estado tendo transparência excluindo '0' e '100' . Sob o controle da unidade de controle 110, transparência da primeira camada 220 ou de pelo menos parte da primeira camada (por exemplo, excluindo quaisquer gráficos objetos) pode ser variada de 0 a 100.
[119] Os objetos gráficos 230, 240 e 250 podem ser exibidos de forma opaca na primeira camada 220. Mesmo que transparência da primeira camada 220 seja mudada, os objetos gráficos 230, 240 e 250 indicando temperatura, umidade e tempo corrente podem permanecer em um estado opaco. A primeira camada 220 pode ter uma região para permitir uma mudança em transparência e a outra região para rejeitar uma mudança em transparência. Regiões dos objetos gráficos 230, 240 e 250 podem rejeitar uma mudança em transparência, e as outras regiões podem permitir uma mudança em transparência.
[120] Dependendo da transparência da primeira camada 220, a imagem 210 pode ser exibida de forma obscura ou claramente na tela sensível ao toque. Por exemplo, quando a primeira camada 220 é exibida, a transparência inicial pode ser '70' indicando um estado semitransparente. Neste estado semitransparente a imagem de plano de fundo 210 pode ser exibida de forma menos obscura.
[121] A figura 2B mostra um outro exemplo de uma imagem e uma camada de tela sobreposta à tela sensível ao toque. Referindo-se às figuras 1 e 2B, uma imagem 292 é exibida na tela sensível ao toque 190. A imagem 292 pode ser uma imagem de plano de fundo exibida em um estado ocioso do dispositivo eletrônico. Adicionalmente, a primeira camada 290 pode ser exibida para ficar sobreposta à imagem 292.
Uma vez que a primeira camada 290 está em um estado semitransparente, a imagem 292 pode ser vista de forma obscura através da primeira camada 290.
[122] A primeira camada 290 pode ter a transparência mudada pela unidade de controle 110. Transparência pode ser expressada por meio de números de 0 a 100. Por exemplo, transparência '0' indica um estado opaco no qual a imagem 292 fica completamente invisível. Transparência '50' indica um estado semitransparente no qual a imagem 292 é vista de forma obscura. Transparência '10' indica um outro estado semitransparente no qual a imagem 292 fica quase invisível. Transparência '100' indica um estado transparente no qual a imagem 292 fica completamente visível. Um estado semitransparente pode significar qualquer estado tendo transparência excluindo '0' e Ί00Λ. Sob o controle da unidade de controle 110 a transparência da primeira camada 290 pode ser variada de 0 a 100.
[123] Dependendo da transparência da primeira camada 2 90, a imagem 2 92 pode ser exibida de forma obscura ou claramente na tela sensível ao toque. Por exemplo, quando a primeira camada 290 é exibida, a transparência inicial pode ser '70' indicando um estado semitransparente. Neste estado semitransparente a imagem 292 pode ser exibida de forma menos obscura.
[124] Adicionalmente, a segunda camada 280 pode ser exibida para ficar sobreposta à primeira camada 290. A segunda camada 280 pode conter uma região opaca para exibir informação associada com condições do dispositivo eletrônico. Por exemplo, a segunda camada 280 pode conter objetos gráficos exibidos na mesma, tais como um objeto de temperatura 288, um objeto de umidade 286, um objeto de tempo corrente 284 e uma barra de status 282.
[125] Os objetos gráficos 282, 284, 286 e 288 podem ser exibidos de forma opaca na segunda camada 280. A segunda camada 280 pode ter uma região opaca para exibir informação tal como os objetos gráficos 282, 284, 286 e 288, e a outra região que permanece em um estado transparente.
[126] A figura 3 é um fluxograma ilustrando um processo associado com uma ação de toque e arrasto detectada em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação. As figuras 4A e 4B mostram capturas de tela ilustrando objetos gráficos representados em uma tela por uma ação de toque e arrasto detectada em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[127] Referindo-se às figuras 1, 3, 4A e 4B, uma imagem é exibida na tela sensível ao toque 190 na operação 310. A tela sensível ao toque 190 pode detectar uma entrada de usuário, a qual pode ser uma ação de toque para entrar em contato com a tela sensível ao toque ao usar uma unidade de entrada separada tal como dedo do usuário ou uma caneta apontadora, e/ou uma ação de arrasto para deslocar um dedo ou caneta como esta enquanto mantendo contato com a tela sensível ao toque. Quando um dedo do usuário toca na tela sensível ao toque 190, a tela sensível ao toque 190 pode transmitir coordenadas de um ponto de toque para a unidade de controle 110.
[128] Na operação 320, a unidade de controle 110 pode controlar uma exibição da primeira camada 400 sobreposta à imagem. A primeira camada 400 é exibida de forma opaca, de maneira que a imagem exibida na tela sensível ao toque 190 pode ser vista de forma obscura.
[129] A primeira camada 400 pode conter vários objetos gráficos exibidos na mesma, tal como um ícone de temperatura 410, um ícone de umidade 420, um valor de temperatura 430 e um valor de umidade 440.
[130] Na operação 330, a unidade de controle 110 pode detectar uma ação de toque e arrasto na tela sensível ao toque 190. Especificamente, a primeira camada 400 é exibida na tela sensível ao toque 190. Quando um dedo do usuário 450 toca na tela sensível ao toque 190, a tela sensível ao toque 190 detecta uma ação de toque em um ponto de toque na mesma. Então a tela sensível ao toque 190 pode transmitir as coordenadas do ponto de toque para a unidade de controle 110. Adicionalmente, a unidade de controle 110 pode detectar um movimento contínuo da ação de toque. Este movimento pode ser uma ação de arrasto.
[131] Referindo-se à figura 4B, um dedo do usuário 470 entra em contato com a primeira camada exibida na tela sensível ao toque 190 e se desloca para criar um caminho de arrasto 460. 0 caminho de arrasto 460 pode compreender uma linha de centro do movimento de dedo do usuário e uma área predeterminada em um e outro lado da linha de centro. Alternativamente, o caminho de arrasto 60 pode compreender a área de toque inteira do dedo do usuário em cada ponto ao longo do movimento de arrasto. Em resposta a uma ação de toque e arrasto como esta, na operação 340 a unidade de controle 110 muda a transparência de uma região específica da primeira camada na qual uma ação de toque e arrasto é detectada. Por exemplo, se o caminho de arrasto 460 for criado na primeira camada por meio do dedo do usuário 470, transparência do caminho de arrasto 460 é mudada de tal maneira que o caminho de arrasto 460 se torna transparente. A unidade de controle 110 pode receber as coordenadas do caminho de arrasto 460 da tela sensível ao toque 190 e então pode mudar transparência de uma região específica correspondendo ao caminho de arrasto 460 na primeira camada.
[132] Por exemplo, no caso onde a transparência inicial da primeira camada é '70', a transparência do caminho de arrasto 460 pode ser mudada para '100'. Portanto, o caminho de arrasto 460 se torna transparente, e a imagem subjacente ao caminho de arrasto pode ser vista claramente.
[133] A figura 5 é um fluxograma ilustrando um processo de exibir uma camada com um atributo variado de acordo com temperatura em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação. As figuras 6A e 6B mostram capturas de tela ilustrando camadas exibidas com atributos diferentes de acordo com temperatura em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[134] A primeira camada exibida na tela sensível ao toque pode ter pelo menos dois atributos, os quais podem ser determinados dependendo de temperatura. Se uma temperatura corrente for maior que uma temperatura predefinida, a unidade de controle 110 pode designar o primeiro atributo para a primeira camada. Em contraste, se uma temperatura corrente for igual ou menor que uma temperatura predefinida, a unidade de controle 110 pode designar o segundo atributo para a primeira camada.
[135] Referindo-se às figuras 1, 5, 6A e 6B, a tela sensível ao toque 190 exibe uma imagem na operação 510. O dispositivo eletrônico pode incluir o sensor de temperatura 171. Na operação 520, o sensor de temperatura 171 detecta uma temperatura corrente. Então o sensor de temperatura 171 envia um valor de temperatura detectada para a unidade de controle 110.
[136] A unidade de controle 110 pode determinar o atributo da primeira camada, com base em um valor de temperatura recebido do sensor de temperatura 171. Se uma temperatura corrente for maior que uma temperatura predefinida, a unidade de controle 110 pode exibir uma imagem de vapor de água na primeira camada. Em contraste, se uma temperatura corrente for igual ou menor que uma temperatura predefinida, a unidade de controle 110 pode exibir uma imagem de geada na primeira camada.
[137] Por exemplo, no caso de uma temperatura predefinida ser zero grau, a unidade de controle 110 determina na operação 530 se uma temperatura corrente é maior que zero grau. Se uma temperatura corrente for maior que zero grau, a unidade de controle 110 designa um atributo 'vapor de água' para a primeira camada. Por esta razão, na operação 540, uma imagem de vapor de água ou um padrão similar é exibido na primeira camada. A figura 6A mostra a primeira camada 610 tendo um atributo 'vapor de água' e coberta com uma imagem de vapor de água. Se uma temperatura corrente for igual ou menor que zero grau, a unidade de controle 110 designa um atributo 'geada' para a primeira camada. Por esta razão, na operação 550, uma imagem de geada ou um padrão similar é exibido na primeira camada. A figura 6B mostra a primeira camada 620 tendo um atributo 'geada' e coberta com uma imagem de geada. Embora a primeira camada tenha dois atributos (isto é, vapor de água e geada) nesta modalidade, quaisquer outros tipos de atributos ou muito mais atributos podem ser usados alternativamente para a primeira camada.
[138] A unidade de controle 110 pode determinar uma temperatura corrente com base em dados recebidos de qualquer entidade externa. Por exemplo, acessando a Internet por meio da unidade de comunicação móvel 120 ou da unidade de subcomunicação 130, a unidade de controle 110 pode determinar uma temperatura corrente no lado de fora do dispositivo eletrônico 100 ou em uma área específica.
[139] A figura 7 é um fluxograma ilustrando um processo associado com mudanças de temperatura em um dispositivo eletrônico de acordo com uma modalidade da presente revelação. As figuras 8A e 8B mostram capturas de tela ilustrando variações de transparência de acordo com mudanças de temperatura em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[140] Referindo-se às figuras 1, 7, 8A e 8B, o sensor de temperatura 171 detecta uma temperatura corrente na operação 710. Então, na operação 720, a unidade de controle 110 recebe dados de temperatura do sensor de temperatura 171 e determina se existe uma mudança em temperatura. Alternativamente, a unidade de controle 110 pode determinar uma temperatura corrente ou mudanças de temperatura com base em dados recebidos de qualquer entidade externa. Na operação 730, em resposta a uma mudança em temperatura, a unidade de controle 110 muda transparência da primeira camada exibida em um estado semitransparente. Por exemplo, tal como mostrado na figura 8A, a primeira camada 810 tem inicialmente uma transparência de '60'. Se uma mudança em temperatura for detectada, a unidade de controle 110 muda transparência da primeira camada. Especificamente, transparência é aumentada de acordo com uma temperatura ascendente e diminuída de acordo com uma temperatura descendente, e vice-versa. A figura 8B mostra que transparência da primeira camada 820 foi mudada para '70' . Por causa de um aumento em transparência, a imagem de plano de fundo subjacente à primeira camada pode ser vista mais claramente.
[141] A unidade de controle 110 pode mudar transparência de todas as regiões da primeira camada de acordo com informação meteorológica que inclua pelo menos uma de temperatura, umidade e direção de vento. Acessando um servidor externo de condições meteorológicas por meio da unidade de comunicação móvel 120 ou da unidade de subcomunicação 130, a unidade de controle 110 pode receber informação ou dados meteorológicos do servidor de condições meteorológicas.
[142] A figura 9 é um fluxograma ilustrando um processo associado com a remoção de uma ação de toque e arrasto de uma tela sensível ao toque em um dispositivo eletrônico de acordo com uma modalidade da presente revelação. A figura 10 mostra uma captura de tela ilustrando um objeto de pingo de água exibido em um ponto de remoção de uma ação de toque e arrasto na primeira camada de uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[143] Referindo-se às figuras 1, 9 e 10, a primeira camada é exibida em um estado semitransparente, estando sobreposta à imagem de plano de fundo exibida na tela sensível ao toque 190. Na operação 910, uma imagem de vapor de água é exibida na primeira camada. Isto é, a primeira camada 1020 tem um atributo de vapor de água, de maneira que a imagem de vapor de água 1022 pode ser exibida na primeira camada 1020. Quando um usuário executa uma ação de toque e arrasto ao longo de uma certa região da primeira camada 1020 exibida na tela sensível ao toque 190, a tela sensível ao toque 190 detecta a ação de toque e arrasto na operação 920 e então envia coordenadas da região detectada para a unidade de controle 110.
[144] Na operação 930, a unidade de controle 110 muda a transparência da região detectada da primeira camada de tal maneira que uma imagem de plano de fundo 1024 pode ser vista. Após a ação de toque e arrasto ser removida, a unidade de controle 110 pode controlar um objeto de pingo de água 102 6 para ser exibido em um ponto de remoção da ação de toque e arrasto na operação 940. 0 objeto de pingo de água 1026 é um tipo de objeto gráfico tendo a forma de um pingo de água. O objeto de pingo de água 1026 pode ser exibido em uma localização específica da primeira camada sob o controle da unidade de controle 110. Também, o objeto de pingo de água 1026 pode ser deslocado na direção de gravidade sob o controle da unidade de controle 110. Em outras modalidades, objetos de pingo de água podem ser exibidos em um ou mais locais ou em cada ponto de local mais baixo ao longo do caminho de arrasto, com o ponto mais baixo sendo definido de acordo com a direção de gravidade e o ponto de local mais baixo se referindo a uma parte do caminho de arrasto que é mais baixo quando comparado às áreas imediatamente adjacentes.
[145] Isto é, na operação 930, a transparência de uma região de toque e arrasto é mudada, e por esta razão a imagem de plano de fundo 1024 é vista claramente. Adicionalmente, na operação 940, o objeto de pingo de água 1026 é exibido no ponto final da região de toque e arrasto.
[146] A figura 11 é um fluxograma ilustrando um processo após o término de um dado tempo a partir de uma exibição de um objeto de pingo de água em uma tela sensível ao toque em um dispositivo eletrônico de acordo com uma modalidade da presente revelação. As figuras 12A e 12B mostram capturas de tela ilustrando o movimento de um objeto de pingo de água após o término de um dado tempo a partir de uma exibição do objeto de pingo de água em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[147] Referindo-se às figuras 1, 11, 12A e 12B, a primeira camada 1240 tendo um atributo de uma imagem de vapor de água 1242 é exibida em um estado semitransparente na tela sensível ao toque 190, estando sobreposta à imagem de plano de fundo. Quando um dedo do usuário (não mostrado) toca e é arrastado ao longo de uma parte da primeira camada 1240, uma região de toque e arrasto 1244 da primeira camada 1240 é exibida de forma transparente na operação 1110.
[148] Quando um dado tempo tiver transcorrido na operação 1120 após uma exibição transparente, um objeto de pingo de água é exibido na primeira camada na operação 1130. Isto é, após o término de um tempo predeterminado, a unidade de controle 110 pode controlar a primeira camada 1240 para exibir o objeto de pingo de água.
[149] O objeto de pingo de água pode ser exibido perto de uma região especifica na qual uma ação de toque e arrasto é detectada. Alternativamente, o objeto de pingo de água pode ser exibido em uma posição aleatória perto da borda da primeira camada. Quando um outro dado tempo tiver transcorrido na operação 1140 após uma exibição do objeto de pingo de água na primeira camada, a objeto de pingo de água pode ser deslocado na direção de gravidade na operação 1150.
[150] Por exemplo, tal como mostrado na figura 12A, um dedo do usuário toca na tela sensível ao toque 190 e é arrastado em uma direção específica 1214. Então a unidade de controle 110 recebe coordenadas de uma região de toque e arrasto 1212 da tela sensível ao toque 190, e controla a região de toque e arrasto 1212 para ser exibida de forma transparente. Isto é, uma região específica 1212 da primeira camada 1210, correspondendo a um caminho de arrasto de dedo, é exibida em um estado transparente na tela sensível ao toque 190. Quando um dado tempo tiver transcorrido após a região de toque e arrasto 1212 ser exibida de forma transparente, um objeto de pingo de água 1216 é exibido no ponto final da região de toque e arrasto 1212 na primeira camada 1210. Alternativamente, assim que uma ação de toque e arrasto é removida, o objeto de pingo de água 1216 pode ser exibido na primeira camada 1210. Tal como observado anteriormente, o objeto de pingo de água também ou alternativamente pode ser posicionado em pontos localizados mais baixos ao longo do caminho de arrasto.
[151] Quando um outro dado tempo tiver transcorrido após o objeto de pingo de água 1216 ser exibido na primeira camada 1210, a unidade de controle 110 pode controlar o objeto de pingo de água 1216 para ser deslocado na direção de gravidade. Isto é, o objeto de pingo de água 1216 criado em um ponto de remoção de arrasto tal como mostrado na figura 12A começa a se deslocar na direção de gravidade após o término de um dado tempo tal como indicado por um número de referência 1246 na figura 12B. A unidade de controle 110 pode determinar a direção de gravidade ao receber sinais do girossensor (não mostrado) e/ou do sensor de aceleração (não mostrado).
[152] A figura 13 é um fluxograma ilustrando um processo associado com uma ação de toque e arrasto detectada em uma camada com uma imagem de geada em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação. As figuras 14A a 14C mostram capturas de tela ilustrando um objeto de geada acumulada exibido em resposta à remoção de uma ação de toque e arrasto detectada em uma camada com uma imagem de geada em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[153] No caso em que uma imagem de geada é exibida na primeira camada, a unidade de controle 110 pode criar um objeto de geada acumulada em um ponto de remoção de arrasto.
[154] Referindo-se às figuras 1, 13 e 14A, a primeira camada 1410 é exibida em um estado semitransparente, estando sobreposta à imagem de plano de fundo exibida na tela sensível ao toque 190. Na operação 1310, uma imagem de geada é exibida na primeira camada 1410. Isto é, a primeira camada 1410 tem um atributo de geada, de maneira que a imagem de geada pode ser exibida na primeira camada 1410. Quando um usuário executa uma ação de toque e arrasto ao longo de uma certa região da primeira camada 1410 exibida na tela sensível ao toque 190, a tela sensível ao toque 190 detecta a ação de toque e arrasto na operação 1320 e então envia coordenadas da região detectada para a unidade de controle 110. Na operação 1330, a unidade de controle 110 muda a transparência da região detectada da primeira camada de tal maneira que uma imagem de plano de fundo 1412 pode ser vista claramente. Após a ação de toque e arrasto ser removida, a unidade de controle 110 pode controlar um objeto de geada acumulada 1416 para ser exibido em um ponto de remoção da ação de toque e arrasto na operação 1340.
[155] Por exemplo, tal como mostrado na figura 14B, um dedo do usuário toca na tela sensível ao toque 190 e é arrastado em uma direção específica 1430. Então a unidade de controle 110 recebe coordenadas de uma região de toque e arrasto 1420 da tela sensível ao toque 190, e controla a região de toque e arrasto 1420 para ser exibida de forma transparente. No caso onde a transparência inicial da primeira camada é '70', transparência da região de toque e arrasto 1420 é mudada para '100' indicando um estado transparente. Por esta razão a região de toque e arrasto 1420 é exibida de forma transparente. Adicionalmente, no ponto final 1440 da região de toque e arrasto 1420, um objeto de geada acumulada 1450 é exibido. Tal como mostrado de forma ampliada na figura 14C, o objeto de geada acumulada 1450 pode ser exibido na forma de sobrancelhas crescentes em um ponto de remoção de arrasto.
[156] A figura 15 é um fluxograma ilustrando um processo após o término de um dado tempo a partir de uma exibição de uma região tendo sido mudada em transparência em uma tela sensível ao toque em um dispositivo eletrônico de acordo com uma modalidade da presente revelação. As figuras 16A a 16C mostram capturas de tela ilustrando o desaparecimento de uma região tendo sido mudada em transparência após o término de um dado tempo a partir de uma exibição da região em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[157] A unidade de controle 110 pode controlar uma região específica (por exemplo, onde uma entrada de usuário ocorre) para ser mudada em transparência à medida que o tempo passa. Uma entrada de usuário pode ser uma ação de toque e arrasto detectada na tela sensível ao toque.
[158] Referindo-se às figuras 1, 15 e 16A a 16C, a primeira camada 1600 é exibida em um estado semitransparente, estando sobreposta à imagem de plano de fundo exibida na tela sensível ao toque 190. Quando um usuário executa uma ação de toque e arrasto ao longo de uma certa região da primeira camada 1600 exibida na tela sensível ao toque 190, a tela sensível ao toque 190 detecta a ação de toque e arrasto e então envia coordenadas da região detectada para a unidade de controle 110. Na operação 1510, a unidade de controle 110 muda a transparência da região detectada da primeira camada. Então a unidade de controle 110 determina se um dado tempo transcorreu após uma exibição transparente da região detectada. Quando um dado tempo tiver transcorrido na operação 1520, a unidade de controle 110 muda a opacidade da região tendo sido mudada em transparência na operação 1530. Uma mudança para um estado opaco é realizada por meio de uma diminuição gradual de transparência. Isto é, a unidade de controle 110 diminui gradualmente transparência para a transparência inicial da primeira camada. Por exemplo, a primeira camada é exibida na transparência inicial de '70' na tela sensível ao toque. Quando uma ação de toque e arrasto é recebida para uma região específica da primeira camada, transparência da região específica é mudada de '70' para '100'. Então, após vinte segundos, a unidade de controle 110 começa a diminuir gradualmente transparência da região específica de '100' para '70' .
[159] A figura 16A mostra que uma região de toque e arrasto 1610 é exibida de forma transparente na primeira camada 1600 tendo um estado semitransparente. Uma linha pontilhada é usada virtualmente para indicar a região de toque e arrasto 1610 que realmente ocorre. A figura 16B mostra que a região de toque e arrasto 1630 é mudada para um estado ligeiramente semitransparente à medida que o tempo passa. Neste tempo a transparência da região de toque e arrasto 1630 ainda está diferente daquela da primeira camada 1620. A figura 16C mostra que a região de toque e arrasto fica completamente invisível na primeira camada 1650 à medida que o tempo passa adicionalmente.
[160] As figuras 17A a 17D mostram capturas de tela ilustrando um desaparecimento sequencial de uma região tendo uma mudança em transparência após o término de um dado tempo a partir de uma exibição da região em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[161] A figura 17A mostra que um dedo do usuário 1710 forma um caminho 1712 de uma ação de toque e arrasto na primeira camada 1700. Este caminho 1712 é exibido de forma transparente na primeira camada 1700. A figura 17B mostra que um dedo do usuário forma adicionalmente um outro caminho 1724 de uma ação de toque e arrasto na primeira camada 1720. Neste tempo, o caminho formado anteriormente 1722 é exibido de forma opaca por causa de transparência mudada à medida que o tempo passa. A figura 17C mostra que um dedo do usuário forma adicionalmente um outro caminho 1734 de uma ação de toque e arrasto na primeira camada 1730. Neste tempo, o caminho formado anteriormente 1732 é exibido de forma opaca por causa de transparência mudada à medida que o tempo passa. Adicionalmente, o caminho formado primeiramente (1722 na figura 17B) está completamente invisível tendo assumido a mesma opacidade da primeira camada circundante. A figura 17D mostra um término adicional de tempo. Somente o caminho formado por último 1742 é exibido na primeira camada 1740, e os outros caminhos formados anteriormente estão completamente invisíveis.
[162] À medida que o tempo passa, uma exibição na primeira camada é mudada sequencialmente. Também, diversos caminhos desaparecem gradualmente na ordem em que são formados tal como mostrado nas figuras 17A a 17D. Isto é, o caminho formado primeiramente 1712 desaparece primeiro e o caminho formado por ultimo 1724 desaparece por último.
[163] As figuras 18A a 18C mostram capturas de tela ilustrando uma camada mudada em opacidade em um caso de uma ação de toque e arrasto executada em cerca de 90% das regiões em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[164] Referindo-se às figuras 18A a 18C, um dedo do usuário (não mostrado) forma um caminho 1810 de uma região de contato na primeira camada 1800. Então a transparência do caminho de contato 1810 é mudada. Contato adicional e contínuo na primeira camada 1800 aumenta uma região transparente da primeira camada. Se uma região de contato ocupar cerca de 90% da região total da primeira camada, a unidade de controle 110 controla a região total da primeira camada para ficar em um estado semitransparente.
[165] A figura 18A mostra que o caminho 1810 causado por uma ação de toque e arrasto é exibido de forma transparente na primeira camada 1800. A figura 18B mostra que cerca de 90% da região da primeira camada 1820 é exibida de forma transparente. A figura 18C mostra que a região total da primeira camada 1830 retorna para o estado semitransparente inicial por causa da detecção de uma ação de toque e arrasto de cerca de 90% da região da primeira camada.
[166] A figura 19 é um fluxograma ilustrando um processo associado com mudanças de umidade em um dispositivo eletrônico de acordo com uma modalidade da presente revelação. As figuras 20A a 20E mostram capturas de tela ilustrando várias formas de exibição de uma camada de acordo com mudanças de temperatura e umidade em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[167] Referindo-se às figuras 1, 19 e 20A a 20E, o sensor de umidade 172 detecta uma umidade corrente na operação 1910. Então a unidade de controle 110 recebe resultados de detecção do sensor de umidade 172 e determina umidade com base nos resultados de detecção. Na operação 1912, dependendo da umidade determinada, a unidade de controle 110 pode mudar transparência da primeira camada que está em um estado semitransparente.
[168] Alternativamente, tal umidade pode ser determinada com base em dados recebidos de qualquer entidade externa.
[169] Na operação 1914, dependendo da umidade determinada, a unidade de controle 110 pode mudar uma frequência de exibição de objetos de pingo de água exibidos na primeira camada. Por exemplo, no caso onde a primeira camada tem um atributo de 'vapor de água' , a unidade de controle 110 pode designar uma maior frequência de exibição para objetos de pingo de água e também pode aumentar uma velocidade de objetos de pingo de água sendo deslocados na direção de gravidade quando a umidade está entre 100% e 90%. Se a umidade estiver entre 90% e 20%, a unidade de controle 110 pode designar uma frequência de exibição ligeiramente maior para objetos de pingo de água e também pode aumentar ligeiramente uma velocidade de objetos de pingo de água sendo deslocados na direção de gravidade. Se a umidade estiver entre 20% e 10%, a unidade de controle 110 pode designar uma frequência de exibição menor para objetos de pingo de água e também pode diminuir uma velocidade de objetos de pingo de água sendo deslocados na direção de gravidade. Se a umidade estiver entre 10% e 0%, a unidade de controle 110 pode designar uma muito menor ou nenhuma frequência de exibição para objetos de pingo de água e também pode controlar objetos de pingo de água para não serem deslocados na direção de gravidade.
[170] Por exemplo, se a umidade estiver entre 100% e 90%, dez objetos de pingo de água são exibidos na tela sensível ao toque. Se a umidade estiver entre 90% e 20%, cinco objetos de pingo de água são exibidos na tela sensível ao toque. Se a umidade estiver entre 20% e 10%, um ou dois objetos de pingo de água são exibidos na tela sensível ao toque. Se a umidade estiver entre 10% e 0%, nenhum objeto de pingo de água não é exibido na tela sensível ao toque.
[171] A unidade de controle 110 pode mudar transparência da primeira camada, dependendo de umidade. Por exemplo, a unidade de controle 110 pode estabelecer transparência da primeira camada para 30 quando a umidade está entre 100% e 90%. Também, a unidade de controle 110 pode estabelecer transparência da primeira camada para 50 quando a umidade está entre 90% e 20%. E também a unidade de controle 110 pode estabelecer transparência da primeira camada para 70 quando a umidade está entre 20% e 10%. E também a unidade de controle 110 pode estabelecer transparência da primeira camada para 100 quando a umidade está entre 10% e 0%.
[172] A figura 20A mostra um caso em que a umidade está entre 100% e 90%. Neste caso, a primeira camada 2000 é exibida na tela sensível ao toque 190. Por causa de uma maior umidade, a imagem de plano de fundo 2010 é vista de forma obscura. A transparência dos caminhos de contato 2014 e 2016 formados por um dedo do usuário (não mostrado) são mudadas. Objetos de pingo de água são formados nos caminhos de contato 2014 e 2016. Um outro objeto de pingo de água 2012 é exibido perto de uma borda da primeira camada 2000.
[173] A figura 20B mostra um outro caso no qual a umidade está entre 20% e 10%. Neste caso, os caminhos de contato 2026 e 2028 formados por um dedo do usuário (não mostrado) são exibidos na primeira camada 2020. A imagem de plano de fundo 2022 é vista mais claramente do que a imagem de plano de fundo 2010 mostrada na figura 20A. Um outro objeto de pingo de água 2024 é exibido perto de uma borda da primeira camada 2020. No caso onde a umidade está entre 20% e 10%, a unidade de controle 110 pode estabelecer transparência da primeira camada para 70.
[174] A figura 20C mostra ainda um outro caso no qual a umidade é 0%. Neste caso a transparência da primeira camada 2030 é mudada, e a imagem de plano de fundo 2032 é vista claramente. ' [175] Entretanto, no caso onde a primeira camada tem um atributo de 'geada', a unidade de controle 110 pode estabelecer transparência da primeira camada para 50 quando a umidade está entre 100% e 20%. A figura 20D mostra a primeira camada 2040 neste caso. Uma vez que a primeira camada 2040 tem um atributo de 'geada', uma imagem de geada é exibida na primeira camada 2040 e a imagem de plano de fundo 2042 é vista de forma obscura. Se um dedo do usuário executar uma ação de toque e arrasto na tela sensível ao toque 190, os caminhos resultantes 2044 e 2046 são exibidos de forma transparente na primeira camada 2040.
[176] A figura 20E mostra a primeira camada 2050 exibida na tela sensível ao toque neste caso. Se a umidade estiver entre 10% e 0%, a unidade de controle 110 pode estabelecer transparência da primeira camada 2050 para 100.
[177] No caso onde a primeira camada tem um atributo de 'geada', a unidade de controle 110 pode não criar objeto de pingo de água.
[178] A figura 21 é uma vista ilustrando uma variação em uma forma de exibição de uma camada em um ponto de toque de acordo com a duração de um toque em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[179] Referindo-se à figura 21, quando um dedo do usuário 2110 entra em contato com a primeira camada exibida na tela sensível ao toque, a transparência de um ponto de contato 2100 é mudada. Se o dedo do usuário 2110 mantiver tal contato por um dado tempo, uma região tendo sido mudada em transparência é ampliada gradualmente. Isto é, o ponto de contato 2100 tendo sido mudado em transparência pelo contato de dedo inicial é mudado para um ponto ampliado 2120 à medida que o tempo passa. Adicionalmente, a unidade de controle pode criar um objeto de pingo de água 2130 exibido na primeira camada.
[180] A tela sensível ao toque 190 detecta contato de um dedo do usuário na primeira camada exibida na mesma. Então a unidade de controle 110 recebe coordenadas de uma região de contato da tela sensível ao toque 190 e, com base nas coordenadas recebidas, determina uma região específica para ter sua transparência mudada. Adicionalmente, a unidade de controle 110 controla a tela sensível ao toque 190 para mudar transparência da região de contato. Por esta razão a região parcial 2100 da primeira camada é exibida de forma transparente. Adicionalmente, a unidade de controle 110 detecta se o dedo contato é mantido continuamente. Se o dedo contato for mantido sem movimento por um dado tempo, a unidade de controle 110 pode ampliar uma região exibida de forma transparente como esta na primeira camada.
[181] Por exemplo, se uma região inicial tendo sua transparência mudada por um contato de dedo tiver um tamanho de 70, esta região pode ser ampliada para um tamanho de 100 por causa de contato de dedo contínuo na tela sensível ao toque.
[182] As figuras 22A a 22D mostram capturas de tela ilustrando um processo de liberar um estado de bloqueio de uma interface de usuário em resposta a uma entrada de usuário em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[183] 0 dispositivo eletrônico desta revelação pode incluir a unidade de exibição configurada para exibir a interface de usuário e tendo a tela sensível ao toque. Adicionalmente, o dispositivo eletrônico pode incluir a unidade de controle configurada para manter um estado de bloqueio da interface de usuário ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta à interface de usuário, para mudar transparência de uma região parcial da camada semitransparente quando a entrada de usuário é detectada na região parcial, e para liberar o estado de bloqueio da interface de usuário quando a região parcial ocupa uma porcentagem específica ou mais da região total da tela sensível ao toque.
[184] Referindo-se às figuras 1 e 22A, a primeira camada 2210 é exibida em um estado semitransparente na tela sensível ao toque 190. Uma pluralidade de ícones para executar aplicações é arranjada atrás da primeira camada 2210 e exibida de forma obscura. No caso onde a região total da primeira camada 2210 está em um estado semitransparente, a unidade de controle 110 pode rejeitar a seleção de tais ícones. Por exemplo, mesmo se um dos ícones exibidos de forma obscura atrás da primeira camada 2210 for tocado, o ícone tocado não é selecionado e assim uma aplicação correspondente não é executada.
[185] Retornando à figura 2B, a tela sensível ao toque 190 pode exibir a imagem 292 discutida anteriormente na qual uma pluralidade de ícones é arranjada. Em seguida, esta imagem 292 será referida como uma imagem de área de trabalho. Quando um de tais ícones é tocado e assim selecionado, uma aplicação específica ligada ao ícone selecionado pode ser executada. Isto é, a pluralidade de ícones pode agir como um tipo de interface de usuário.
[18 6] Retornando à figura 22A, no caso onde a primeira camada 2210 é exibida em um estado semitransparente e sobreposta à imagem de área de trabalho, a unidade de controle 110 pode manter a interface de usuário em um estado de bloqueio. A interface de usuário pode ser mudada de um estado de bloqueio para um estado sem bloqueio, e vice-versa, sob o controle da unidade de controle 110.
[187] Referindo-se à figura 22B, a primeira camada 2220 é exibida em um estado semitransparente na tela sensível ao toque 190. Uma interface de usuário tendo uma pluralidade de ícones arranjados na mesma é exibida atrás da primeira camada 2220. Se uma ação de toque e arrasto acontecer na primeira camada 2220, a unidade de controle 110 recebe coordenadas de uma região de toque e arrasto 2222 da tela sensível ao toque 190. Então a unidade de controle 110 muda transparência da região de toque e arrasto 2222 de tal maneira que a região 2222 fica em um estado transparente. Por esta razão alguns ícones atrás da primeira camada 2220 são exibidos claramente na região transparente 2222. No final, a primeira camada 2220 passa a conter a região transparente 2222 e a região semitransparente 2224, dependendo de uma entrada de usuário. Quando a região transparente 2222 ocupa 90% ou mais da região total, a unidade de controle 110 pode mudar um estado de bloqueio da interface de usuário para um estado sem bloqueio.
[188] Referindo-se à figura 22C, muitas regiões da primeira camada 2230 exibida na tela sensível ao toque 190 estão em um estado transparente, e as outras regiões periféricas estão em um estado semitransparente. Se a região transparente ocupar 90% ou mais da primeira camada 2230, a unidade de controle 110 pode mudar um estado de bloqueio da interface de usuário para um estado sem bloqueio.
[189] A figura 22D mostra uma tela de interface de usuário que está em um estado sem bloqueio. A primeira camada (não mostrada) é exibida de forma transparente na tela sensível ao toque 190, de maneira que uma imagem de área de trabalho 2240 tendo ícones arranjados na mesma é vista claramente. Por esta razão um usuário pode tocar em um ícone desejado dos ícones arranjados na imagem de área de trabalho 2240 a fim de executar uma aplicação correspondente.
[190] As figuras 23A a 23C mostram capturas de tela ilustrando um processo de liberar um estado de bloqueio de uma interface de usuário em uma região parcial em uma tela sensível ao toque de um dispositivo eletrônico de acordo com uma modalidade da presente revelação.
[191] O dispositivo eletrônico pode incluir a unidade de exibição configurada para exibir uma pluralidade de ícones para executar aplicações e para ter a tela sensível ao toque para detectar uma entrada de usuário. Adicionalmente, o dispositivo eletrônico pode incluir a unidade de controle configurada para rejeitar uma seleção dos ícones ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta aos ícones, e para controlar pelo menos um dos ícones para ficar em um estado selecionável ao mudar transparência de uma região parcial da camada semitransparente quando a entrada de usuário é detectada na região parcial.
[192] Referindo-se às figuras 1 e 23A, uma imagem de área de trabalho tendo uma pluralidade de ícones arranjados na mesma é exibida na tela sensível ao toque 190, e a primeira camada é exibida sobre a mesma em um estado semitransparente. Os ícones são exibidos de forma obscura por causa da primeira camada. No caso onde a região total da primeira camada está em um estado semitransparente, a unidade de controle 110 pode manter uma interface de usuário em um estado de bloqueio. Por exemplo, mesmo se um ícone 2310 exibido de forma obscura atrás da primeira camada for tocado, o ícone tocado 2310 não é selecionado por causa de um estado de bloqueio da interface de usuário.
[193] Referindo-se à figura 23B, uma imagem de área de trabalho tendo uma pluralidade de ícones arranjados na mesma é exibida na tela sensível ao toque 190, e a primeira camada 2320 é exibida sobre a mesma em um estado semitransparente. A primeira camada 2320 pode conter uma região transparente 2322 e uma região semitransparente 2324. A região transparente 2322 recebendo uma entrada de usuário é mudada de um estado semitransparente para um estado transparente, enquanto que a região semitransparente 2324 não recebendo entrada de usuário ainda está em um estado semitransparente. Alguns ícones estão localizados na região transparente 2322 e exibidos claramente em comparação com os outros ícones localizados atrás da região semitransparente 2324. A unidade de controle 110 pode controlar tais ícones localizados na região transparente 2322 para serem selecionados. Isto é, se a transparência de uma região parcial da primeira camada 2320 for mudada em resposta a uma entrada de usuário, a unidade de controle 110 pode liberar parcialmente um estado de bloqueio da interface de usuário. Isto é, somente a região transparente 2322 é colocada em um estado sem bloqueio. Por esta razão se um certo ícone 2326 localizado na região transparente 2322 for tocado e assim selecionado, a unidade de controle 110 executa uma aplicação específica ligada ao ícone selecionado 2326.
[194] Ά figura 23C mostra uma tela particular 2330 da aplicação executada quando o ícone visível (2326 na figura 2 33) é selecionado. Isto é, quando um ícone de coleções 2326 é selecionado tal como mostrado na figura 23B, uma tela de aplicação de coleções 2330 é exibida.
[195] O método discutido anteriormente está descrito neste documento com referência para ilustrações de fluxogramas de interfaces de usuário, métodos e produtos de programa de computador de acordo com várias modalidades da presente revelação. Será entendido que cada bloco das ilustrações de fluxogramas, e combinações de blocos nas ilustrações de fluxogramas, pode ser implementado por meio de instruções de programa de computador. Estas instruções de programa de computador podem ser fornecidas para um processador de um computador de uso geral, computador de uso especial, ou outro aparelho de processamento de dados programável para produzir uma máquina, de tal maneira que as instruções, as quais são executadas via processador do computador ou de outro aparelho de processamento de dados programável, criam recursos para implementar as funções especificadas no bloco ou blocos de fluxogramas. Estas instruções de programa de computador também podem ser armazenadas em uma memória utilizável por computador ou legível por computador não transitória que pode direcionar um computador ou outro aparelho de processamento de dados programável para funcionar de uma maneira particular, de tal maneira que as instruções armazenadas na memória utilizável por computador ou legível por computador não transitória produzem um artigo de fabricação incluindo recursos de instrução que implementam a função especificada no bloco ou blocos de fluxogramas. As instruções de programa de computador também podem ser carregadas em um computador ou outro aparelho de processamento de dados programável para fazer com que uma série de etapas operacionais seja executada no computador ou outro aparelho programável para produzir um processo implementado por computador de tal maneira que as instruções que são executadas no computador ou outro aparelho programável fornecem etapas para implementar as funções especificadas no bloco ou blocos de fluxogramas.
[196] E cada bloco das ilustrações de fluxogramas pode representar um módulo, segmento ou parte de código, o qual compreende uma ou mais instruções executáveis para implementar a(s) função(s) lógica(s) especifiçada(s). Também deve ser notado que em algumas implementações alternativas as funções notadas nos blocos podem ocorrer fora da ordem. Por exemplo, dois blocos mostrados em sucessão de fato podem ser executados substancialmente de forma concorrente ou os blocos’ algumas vezes podem ser executados na ordem inversa, dependendo da funcionalidade envolvida.
[197] Embora a presente revelação tenha sido mostrada e descrita com referência para várias modalidades da mesma, será entendido pelos versados na técnica que várias mudanças em forma e detalhes podem ser feitas na mesma sem divergir do espírito e escopo da presente revelação tal como definida pelas reivindicações anexas e suas equivalências. camada tem pelo menos dois atributos que são determinados de acordo com temperatura.

Claims (36)

1. Claims missing in original document.
2. Claims missing in original document.
3. Claims missing in original document.
4. Claims missing in original document.
5. Claims missing in original document.
6. Claims missing in original document.
7. Claims missing in original document.
8, Claims missing in original document.
9, Claims missing in original document.
10. Claims missing in original document.
11. Claims missing in original document.
12. Claims missing in original document.
13. Claims missing in original document.
14. Claims missing in original document.
15. Dispositivo eletrônico, de acordo com a reivindicação 14, caracterizado pelo fato de que a unidade de controle é configurada adicionalmente para designar um primeiro atributo para a primeira camada quando a temperatura é maior que uma temperatura predefinida, e para designar um segundo atributo para a primeira camada quando a temperatura é menor que a temperatura predefinida.
16. Dispositivo eletrônico, caracterizado pelo fato de que compreende: uma tela sensível ao toque configurada para exibir uma imagem e para detectar uma entrada de usuário; e uma unidade de controle configurada para controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta à imagem, em que, quando a entrada de usuário é detectada em uma região parcial da camada semitransparente, a unidade de controle é configurada adicionalmente para mudar transparência da região parcial.
17. Dispositivo eletrônico, caracterizado pelo fato de que compreende: uma tela sensível ao toque configurada para exibir uma interface de usuário e para detectar uma entrada de usuário; e uma unidade de controle configurada para manter um estado de bloqueio da interface de usuário ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta à interface de usuário, para mudar transparência de uma região parcial da camada semitransparente quando a entrada de usuário é detectada na região parcial, e para liberar o estado de bloqueio da interface de usuário quando a região parcial ocupa uma porcentagem específica ou mais da região total da tela sensível ao toque.
18. Dispositivo eletrônico, caracterizado pelo fato de que compreende: uma tela sensível ao toque configurada para exibir uma pluralidade de ícones para executar aplicações e para detectar uma entrada de usuário; e uma unidade de controle configurada para rejeitar uma seleção dos ícones ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta aos ícones, e para controlar pelo menos um dos ícones para ficar em um estado selecionável ao mudar transparência de uma região parcial da camada semitransparente quando a entrada de usuário é detectada na região parcial.
19. Método para um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque, o método caracterizado pelo fato de que compreende: exibir uma primeira camada sobreposta a uma imagem exibida na tela sensível ao toque; detectar uma entrada de usuário na tela sensível ao toque; e mudar transparência de uma região parcial da primeira camada na qual a entrada de usuário é detectada.
20. Método, de acordo com a reivindicação 19, caracterizado pelo fato de que compreende adicionalmente: determinar temperatura; e exibir uma imagem de vapor de água na primeira camada quando a temperatura determinada é maior que uma temperatura predefinida, e exibir uma imagem de geada na primeira camada quando a temperatura determinada é menor que a temperatura predefinida.
21. Método, de acordo com a reivindicação 20, caracterizado pelo fato de que compreende adicionalmente: mudar transparência da região total da primeira camada de acordo com variações da temperatura determinada.
22. Método, de acordo com a reivindicação 20, caracterizado pelo fato de que compreende adicionalmente: exibir um objeto de pingo de água na primeira camada após o término de um dado tempo.
23. Método, de acordo com a reivindicação 22, caracterizado pelo fato de que compreende adicionalmente: exibir o objeto de pingo de água tal como se ele deslocasse na direção de gravidade.
24. Método, de acordo com a reivindicação 22, caracterizado pelo fato de que compreende adicionalmente: exibir o objeto de pingo de água em um ponto de remoção da entrada de usuário.
25. Método, de acordo com a reivindicação 19, caracterizado pelo fato de que compreende adicionalmente: mudar transparência da região detectada de entrada de usuário à medida que o tempo passa.
26. Método, de acordo com a reivindicação 19, caracterizado pelo fato de que compreende adicionalmente: detectar umidade; e mudar transparência da primeira camada de acordo com a umidade detectada.
27. Método, de acordo com a reivindicação 20, caracterizado pelo fato de que compreende adicionalmente: exibir um objeto de geada acumulada em um ponto de remoção da entrada de usuário na primeira camada quando a imagem de geada é exibida.
28. Método, de acordo com a reivindicação 19, caracterizado pelo fato de que compreende adicionalmente: exibir uma segunda camada sobreposta à primeira camada na tela sensível ao toque, a segunda camada tendo uma região opaca para exibir informação.
29. Método, de acordo com a reivindicação 19, caracterizado pelo fato de que compreende adicionalmente: receber temperatura; e exibir uma imagem de vapor de água na primeira camada quando a temperatura recebida é maior que uma temperatura predefinida, e exibir uma imagem de geada na primeira camada quando a temperatura recebida é menor que a temperatura predefinida.
30. Método, de acordo com a reivindicação 19, caracterizado pelo fato de que compreende adicionalmente: mudar transparência da região total da primeira camada de acordo com informação meteorológica.
31. Método, de acordo com a reivindicação 30, caracterizado pelo fato de que a informação meteorológica inclui pelo menos uma de temperatura e umidade.
32. Método, de acordo com a reivindicação 19, caracterizado pelo fato de que a primeira camada tem pelo menos dois atributos que são determinados de acordo com temperatura.
33. Método, de acordo com a reivindicação 32, caracterizado pelo fato de que compreende adicionalmente: designar um primeiro atributo para a primeira camada quando a temperatura é maior que uma temperatura predefinida, e designar um segundo atributo para a primeira camada quando a temperatura é menor que a temperatura predefinida.
34. Método para um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque, o método caracterizado pelo fato de que compreende: exibir uma imagem na tela sensível ao toque; exibir uma camada semitransparente sobreposta à imagem; detectar uma entrada de usuário na tela sensível ao toque; e mudar transparência de uma região parcial da camada semitransparente na qual a entrada de usuário é detectada.
35. Método para um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque, o método caracterizado pelo fato de que compreende: exibir uma interface de usuário na tela sensível ao toque; manter um estado de bloqueio da interface de usuário ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta à interface de usuário; mudar transparência de uma região parcial da camada semitransparente quando uma entrada de usuário é detectada na região parcial; e liberar o estado de bloqueio da interface de usuário quando a região parcial ocupa uma porcentagem específica ou mais da região total da tela sensível ao toque.
36. Método para um controle de exibição para uma tela de um dispositivo eletrônico tendo uma tela sensível ao toque, o método caracterizado pelo fato de que compreende: exibir uma pluralidade de ícones para executar aplicações na tela sensível ao toque; rejeitar uma seleção dos ícones ao controlar a tela sensível ao toque para exibir uma camada semitransparente sobreposta aos ícones; e controlar pelo menos um dos ícones para ficar em um estado selecionável ao mudar transparência de uma região parcial da camada semitransparente quando uma entrada de usuário é detectada na região parcial.
BR102014006171-1A 2013-03-14 2014-03-14 Dispositivo eletrônico e método para controlar exibição de tela usando temperatura e umidade BR102014006171A2 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0027595 2013-03-14
KR1020130027595A KR20140112918A (ko) 2013-03-14 2013-03-14 온도 및 습도를 이용한 화면 표시 제어 장치 및 방법

Publications (1)

Publication Number Publication Date
BR102014006171A2 true BR102014006171A2 (pt) 2020-03-31

Family

ID=50289425

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102014006171-1A BR102014006171A2 (pt) 2013-03-14 2014-03-14 Dispositivo eletrônico e método para controlar exibição de tela usando temperatura e umidade

Country Status (10)

Country Link
US (2) US20140282159A1 (pt)
EP (1) EP2778884B1 (pt)
JP (1) JP6363365B2 (pt)
KR (1) KR20140112918A (pt)
CN (1) CN104049888A (pt)
AU (1) AU2014201585B9 (pt)
BR (1) BR102014006171A2 (pt)
CA (1) CA2846059A1 (pt)
RU (1) RU2678482C2 (pt)
TW (1) TWI640914B (pt)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU344207S (en) * 2012-05-02 2012-09-05 Samsung Electronics Co Ltd Display screen for an electronic device
US9508169B2 (en) 2012-09-14 2016-11-29 Google Inc. Method and apparatus for contextually varying amounts of imagery on a map
WO2014196445A1 (ja) * 2013-06-03 2014-12-11 矢崎総業株式会社 表示装置
USD745039S1 (en) * 2013-09-03 2015-12-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD773479S1 (en) * 2013-09-06 2016-12-06 Microsoft Corporation Display screen with icon group
USD754678S1 (en) * 2013-12-30 2016-04-26 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD755202S1 (en) * 2013-12-30 2016-05-03 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10474345B2 (en) * 2014-04-04 2019-11-12 Shawn SHEY User interfaces and methods for displaying content
USD793411S1 (en) * 2014-05-16 2017-08-01 Apple Inc. Display screen or portion thereof with graphical user interface
USD793412S1 (en) * 2014-06-02 2017-08-01 Apple Inc. Display screen or portion thereof with graphical user interface
CN104461350B (zh) * 2014-11-12 2019-10-22 深圳市金立通信设备有限公司 一种终端
CN104461351B (zh) * 2014-11-12 2019-10-22 深圳市金立通信设备有限公司 一种终端解锁的方法
CN104390713A (zh) * 2014-12-03 2015-03-04 天津市电视技术研究所 一种用于高温环境下的智能温度报警控制装置
KR101630404B1 (ko) * 2015-01-29 2016-06-14 네이버 주식회사 만화 데이터 표시 장치 및 방법
KR20160105121A (ko) * 2015-02-27 2016-09-06 삼성전자주식회사 전자 장치의 동작 방법, 전자 장치 및 저장 매체
JP6511860B2 (ja) * 2015-02-27 2019-05-15 富士通株式会社 表示制御システム、グラフ表示方法およびグラフ表示プログラム
KR20160149603A (ko) 2015-06-18 2016-12-28 삼성전자주식회사 전자 장치 및 전자 장치에서의 노티피케이션 처리 방법
KR20170014764A (ko) * 2015-07-31 2017-02-08 삼성전자주식회사 화면 제어 방법 및 이를 지원하는 전자 장치
USD775649S1 (en) * 2015-09-08 2017-01-03 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD813243S1 (en) 2015-09-08 2018-03-20 Apple Inc. Display screen or portion thereof with animated graphical user interface
KR102534722B1 (ko) * 2015-12-24 2023-05-22 삼성전자주식회사 전자 장치 및 그의 동작 방법
SG11201807377QA (en) * 2016-03-02 2018-09-27 Razer Asia Pacific Pte Ltd Data processing devices, data processing methods, and computer-readable media
KR102544716B1 (ko) * 2016-03-25 2023-06-16 삼성전자주식회사 화면 출력 방법 및 이를 지원하는 전자 장치
EP3832986B1 (en) * 2016-04-02 2023-03-01 Building Robotics, Inc. Distributed light fixture beacon management
CN107273107B (zh) * 2016-04-08 2021-01-05 阿里巴巴集团控股有限公司 终端的解锁方法及装置
JP2018005109A (ja) * 2016-07-07 2018-01-11 オリンパス株式会社 表示装置、表示方法、及びプログラム
CN106289555B (zh) * 2016-07-22 2018-09-18 京东方科技集团股份有限公司 显示基板
EP3301543A1 (en) * 2016-09-30 2018-04-04 Nokia Technologies OY Selectively reducing reflectivity of a display
KR102034548B1 (ko) 2016-10-10 2019-10-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
EP3494464A4 (en) 2016-12-14 2019-08-21 Samsung Electronics Co., Ltd. DISPLAY APPARATUS AND METHOD FOR CONTROLLING THE SAME
USD886837S1 (en) * 2018-05-07 2020-06-09 Google Llc Display screen or portion thereof with transitional graphical user interface
USD895652S1 (en) 2018-05-18 2020-09-08 Carefusion 303, Inc. Display screen with graphical user interface for an infusion device
KR102558290B1 (ko) 2018-08-30 2023-07-24 삼성전자주식회사 전자 장치 및 그 제어 방법
CN110141197B (zh) * 2019-06-15 2022-04-12 出门问问信息科技有限公司 带有显示屏的电子设备
USD918948S1 (en) * 2019-07-16 2021-05-11 Zoomlion Heavy Industry Na, Inc. Machine cabin display screen with graphical user interface
CN112533021B (zh) * 2019-09-19 2023-04-11 Vidaa(荷兰)国际控股有限公司 一种显示方法及显示设备
KR102282936B1 (ko) 2020-04-10 2021-07-29 주식회사 카카오뱅크 계좌정보 숨김 서비스 제공 방법
CN112558814A (zh) * 2020-12-17 2021-03-26 惠州Tcl移动通信有限公司 一种屏幕显示方法、装置及存储介质
TWI770874B (zh) * 2021-03-15 2022-07-11 楷思諾科技服務有限公司 使用點擊及捲動以顯示模擬影像之方法

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09146447A (ja) * 1995-11-17 1997-06-06 Hitachi Denshi Ltd 模擬視界発生表示装置
US6559828B1 (en) 1999-08-13 2003-05-06 Clothing Plus Oy User interface for selecting functions in an electronic hardware
JP3390167B2 (ja) * 2001-02-28 2003-03-24 株式会社コナミコンピュータエンタテインメントジャパン 画像の生成に用いるプログラム
EP1491990B1 (en) * 2003-06-20 2010-02-17 Apple Inc. Graphical user interface system and method of displaying objects in a graphical user interface
US7515135B2 (en) * 2004-06-15 2009-04-07 Research In Motion Limited Virtual keypad for touchscreen display
WO2008044321A1 (fr) * 2006-10-13 2008-04-17 Core Appli Incorporated Logiciel et système informatique de support d'opération
EP1926028A1 (en) * 2006-11-24 2008-05-28 Nedstat B.V. Computer program for website analytics
US9049302B2 (en) * 2007-01-07 2015-06-02 Apple Inc. Portable multifunction device, method, and graphical user interface for managing communications received while in a locked state
KR101390103B1 (ko) * 2007-04-03 2014-04-28 엘지전자 주식회사 영상제어방법 및 이동단말기
US9083814B2 (en) * 2007-10-04 2015-07-14 Lg Electronics Inc. Bouncing animation of a lock mode screen in a mobile communication terminal
EP2104024B1 (en) * 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
US8040233B2 (en) * 2008-06-16 2011-10-18 Qualcomm Incorporated Methods and systems for configuring mobile devices using sensors
US9197738B2 (en) * 2008-12-04 2015-11-24 Microsoft Technology Licensing, Llc Providing selected data through a locked display
KR101480470B1 (ko) 2009-01-13 2015-01-26 엘지전자 주식회사 이동단말기 및 그의 터치 잠금 화면 제어방법
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US20100210357A1 (en) * 2009-02-18 2010-08-19 Kelly Slough Overlay content in a gaming environment
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
US8621387B2 (en) * 2009-06-08 2013-12-31 Apple Inc. User interface for multiple display regions
US9141768B2 (en) * 2009-06-10 2015-09-22 Lg Electronics Inc. Terminal and control method thereof
US20110130170A1 (en) * 2009-07-21 2011-06-02 Lg Electronics Inc. Mobile terminal and method of controlling the operation of the mobile terminal
KR101638056B1 (ko) 2009-09-07 2016-07-11 삼성전자 주식회사 휴대 단말기의 ui 제공 방법
TWI420332B (zh) * 2009-09-29 2013-12-21 Htc Corp 天氣狀態顯示方法、裝置及電腦程式產品
US8471814B2 (en) * 2010-02-26 2013-06-25 Microsoft Corporation User interface control using a keyboard
JP5722547B2 (ja) * 2010-03-19 2015-05-20 京セラ株式会社 携帯端末装置
KR20110106577A (ko) * 2010-03-23 2011-09-29 삼성전자주식회사 네트워크를 통해 수신된 정보를 이용한 컨텐츠 재생 방법 및 이를 이용한 디스플레이 장치
KR101642725B1 (ko) * 2010-04-14 2016-08-11 삼성전자 주식회사 휴대 단말기의 잠금 기능 운용 방법 및 장치
KR101669967B1 (ko) 2010-08-23 2016-10-27 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101685991B1 (ko) * 2010-09-30 2016-12-13 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9027117B2 (en) * 2010-10-04 2015-05-05 Microsoft Technology Licensing, Llc Multiple-access-level lock screen
KR20120053609A (ko) * 2010-11-18 2012-05-29 삼성전자주식회사 휴대용 단말기에서 전자책 기능을 제공하기 위한 장치 및 방법
JP5459251B2 (ja) * 2011-03-31 2014-04-02 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN102855079B (zh) * 2011-05-24 2016-06-08 Lg电子株式会社 移动终端
JP2012249978A (ja) * 2011-06-06 2012-12-20 Namco Bandai Games Inc プログラム、情報記憶媒体、ゲーム装置及びサーバシステム
WO2012174296A2 (en) * 2011-06-14 2012-12-20 Lightheaded Ventures, Llc. Device for displaying and illuminating an image
JP5583087B2 (ja) * 2011-08-04 2014-09-03 株式会社東芝 画像処理装置、方法、及びプログラム
US8700999B2 (en) * 2011-08-15 2014-04-15 Google Inc. Carousel user interface for document management
JP6007469B2 (ja) * 2011-09-01 2016-10-12 ソニー株式会社 情報処理装置、表示制御方法、およびプログラム
CN102279710A (zh) * 2011-09-20 2011-12-14 宇龙计算机通信科技(深圳)有限公司 终端和解锁方法
KR101853856B1 (ko) * 2011-10-04 2018-05-04 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9223472B2 (en) * 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
KR101880240B1 (ko) * 2011-12-28 2018-07-23 브리티쉬 텔리커뮤니케이션즈 파블릭 리미티드 캄퍼니 이동 단말기 및 그 동작 제어 방법
US8756511B2 (en) * 2012-01-03 2014-06-17 Lg Electronics Inc. Gesture based unlocking of a mobile terminal
US9672796B2 (en) * 2012-02-17 2017-06-06 Lg Electronics Inc. Electronic device including flexible display
US9747019B2 (en) * 2012-02-24 2017-08-29 Lg Electronics Inc. Mobile terminal and control method thereof
TWI469040B (zh) * 2012-03-01 2015-01-11 Quanta Comp Inc 電子裝置以及鎖定/解鎖方法
CN102662571B (zh) 2012-03-26 2016-05-25 华为技术有限公司 解锁屏幕保护的方法及用户设备
US9973900B2 (en) * 2012-11-27 2018-05-15 Google Llc Method of displaying location of a device
US8963865B2 (en) * 2012-12-14 2015-02-24 Barnesandnoble.Com Llc Touch sensitive device with concentration mode
KR101905174B1 (ko) * 2012-12-29 2018-10-08 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
EP2752758A3 (en) * 2013-01-07 2016-10-26 LG Electronics Inc. Image display device and controlling method thereof
SG10201702070YA (en) * 2013-02-07 2017-05-30 Dizmo Ag System for organizing and displaying information on a display device

Also Published As

Publication number Publication date
AU2014201585B9 (en) 2019-12-05
EP2778884B1 (en) 2021-08-18
RU2014110018A (ru) 2015-09-20
KR20140112918A (ko) 2014-09-24
RU2678482C2 (ru) 2019-01-29
AU2014201585A1 (en) 2014-10-02
EP2778884A3 (en) 2017-11-22
TW201437902A (zh) 2014-10-01
AU2014201585B2 (en) 2019-06-13
EP2778884A2 (en) 2014-09-17
US20180300019A1 (en) 2018-10-18
JP2014179102A (ja) 2014-09-25
US11150775B2 (en) 2021-10-19
JP6363365B2 (ja) 2018-07-25
CN104049888A (zh) 2014-09-17
TWI640914B (zh) 2018-11-11
US20140282159A1 (en) 2014-09-18
CA2846059A1 (en) 2014-09-14

Similar Documents

Publication Publication Date Title
US11150775B2 (en) Electronic device and method for controlling screen display using temperature and humidity
KR102459521B1 (ko) 터치스크린을 가지는 전자 장치 및 이의 제어 방법
US11635869B2 (en) Display device and method of controlling the same
EP3651010B1 (en) User terminal device for displaying contents and methods thereof
US11899903B2 (en) Display device and method of controlling the same
KR102183071B1 (ko) 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
JP5726909B2 (ja) 柔軟な平行移動及び垂直移動を備えたマルチレイヤーユーザーインターフェース
KR102089707B1 (ko) 디스플레이 장치 및 그 제어 방법
KR102190904B1 (ko) 윈도우 제어 방법 및 이를 지원하는 전자장치
US20140351728A1 (en) Method and apparatus for controlling screen display using environmental information
US20140333551A1 (en) Portable apparatus and method of displaying object in the same
KR20140068573A (ko) 디스플레이 장치 및 그 제어 방법
KR20140013816A (ko) 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
US20170308271A1 (en) Display device and method for controlling display device
TWI668621B (zh) 可攜式終端及其顯示方法
KR20130126428A (ko) 다중 어플리케이션 실행 장치 및 방법
KR102084548B1 (ko) 디스플레이 장치 및 그 제어 방법
US20140292818A1 (en) Display apparatus and control method thereof
US9910832B2 (en) Selecting user interface elements to display linked documents with a linking document
KR20130123794A (ko) 메모용 어플리케이션

Legal Events

Date Code Title Description
B12F Other appeals [chapter 12.6 patent gazette]
B150 Others concerning applications: publication cancelled [chapter 15.30 patent gazette]

Free format text: ANULADA A PUBLICACAO CODIGO 15.21 NA RPI NO 2461 DE 06/03/2018 POR TER SIDO INDEVIDA. 15.21 ANULADO PARA FINS DE PROSSEGUIMENTO DO FLUXO PROCESSUAL DO PEDIDO, EM ATENDIMENTO AO PARECER RECURSAL QUE REFORMOU A DECISAO EM REFERENCIA.

B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B11B Dismissal acc. art. 36, par 1 of ipl - no reply within 90 days to fullfil the necessary requirements