BRPI1004706A2 - dispositivo e unidade de processamento de informação, e, método implementado por computador para processar informação - Google Patents

dispositivo e unidade de processamento de informação, e, método implementado por computador para processar informação Download PDF

Info

Publication number
BRPI1004706A2
BRPI1004706A2 BRPI1004706-9A BRPI1004706A BRPI1004706A2 BR PI1004706 A2 BRPI1004706 A2 BR PI1004706A2 BR PI1004706 A BRPI1004706 A BR PI1004706A BR PI1004706 A2 BRPI1004706 A2 BR PI1004706A2
Authority
BR
Brazil
Prior art keywords
information
unit
display
information processing
processing device
Prior art date
Application number
BRPI1004706-9A
Other languages
English (en)
Inventor
Shunichi Kasahara
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of BRPI1004706A2 publication Critical patent/BRPI1004706A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Information Transfer Systems (AREA)
  • Tests Of Electronic Circuits (AREA)
  • Debugging And Monitoring (AREA)

Abstract

DISPOSITIVO E UNIDADE DE PROCESSAMENTO DE INFORMAçãO, E, MéTODO IMPLEMENTADO POR COMPUTADOR PARA PROCESSAR INFORMAçãO. Um dispositivo e método provêem lógica para processar informação. Em uma implementação, um dispositivo de processamento de informação inclui uma unidade de detecção configurada para detectar uma velocidade de seleção da informação. O dispositivo de processamento de informação também inclui uma unidade de geração, configurada para gerar um sinal que especifica um formato de exibição com base na velocidade de seleção da informação, e uma unidade de exibição, configurada para exibir a seleção de informação de acordo com o sinal.

Description

"DISPOSITIVO E UMDADE DE PROCESSAMENTO DE INFORMAÇÃO, E, MÉTODO IMPLEMENTADO POR COMPUTADOR PARA PROCESSAR INFORMAÇÃO" FUNDAMENTOS DA INVENÇÃO
CAMPO TÉCNICO
A presente invenção diz respeito a um dispositivo de processamento de informação e a um método de processamento de informação.
DESCRIÇÃO DA TECNOLOGIA RELACIONADA
Em um computador pessoal, um terminal de informação móvel ou congêneres, havia, no geral, uma forma de gerenciamento de informação que exibe, na forma de uma lista, uma pluralidade de partes de informação classificada em grupos pré-determinados. Um usuário pode selecionar uma parte de informação desejada para ser visualizada a partir da lista de informação provida a partir do computador pessoal ou congêneres. No caso em que a lista não for totalmente exibida na unidade de exibição, a lista é rolada e, desse modo, a informação incluída na lista pode ser exibida na unidade de exibição. Quando houver uma operação para selecionar a parte de informação desejada a partir da lista de informação, a parte de informação selecionada é focalizada, isto é, designada, e, desse modo, a parte de informação selecionada pelo usuário pode ser apresentada de uma maneira facilmente compreensível. O usuário move um foco, isto é, uma área designada, para a parte de informação desejada e a seleciona.
Entrada de operação para mover a área designada pode ser realizada por um gesto de arrastar diretamente a tela com uma ferramenta de operação, tal como um dedo, em sua direção de movimento ou pelo uso de um dispositivo de entrada rotativa ativado por rotação que é divulgado em JP-A- 11-242675, por exemplo. Por tal entrada de operação, da forma mostrada na figura 20, por exemplo, é possível selecionar uma parte de conteúdo 2 que deseja-se visualizar, movendo uma área designada 3, em uma lista de conteúdo que inclui uma pluralidade de partes de conteúdo 2 arranjadas em um padrão reticular e exibidas em uma unidade de exibição 1.
SUMÁRIO DA INVENÇÃO
Entretanto, no caso em que uma área designada se mover pelo uso de um dispositivo de entrada em hardware, tal como aquele descrito em JP-A-11-242675, há um problema em que um objeto de operação e uma ferramenta de operação para operar o objeto ficam longes um do outro, de forma que o objeto de operação, no momento, fique obscuro. Além do mais, no caso de uso do dispositivo de entrada em hardware, também há um problema em que, no momento da determinação de uma parte de informação selecionada, processamento pré-determinado, tal como o pressionamento de um botão, precisa ser realizado, e, assim, uma rápida operação é impedida.
Além do mais, há um problema em que, no caso em que a entrada de operação para mover a área designada for apenas em uma direção, o movimento da área designada no momento em que a lista de informação é arranjada em duas dimensões é difícil de ser intuitivamente entendido e é complicado. Por exemplo, considera-se que, da forma mostrada na figura 20, na lista das partes de conteúdo 2 arranjadas no padrão reticular, quando um dedo se mover do topo até a base em um painel sensível ao toque (não mostrado), a área designada 3 se move da esquerda para a direita. Neste momento, quando a área designada 3 se mover para a parte de conteúdo mais à direita 2, a área designada se move para a parte de conteúdo mais à esquerda 2 da linha seguinte pelo movimento subsequente do dedo. Se a área designada 3 se mover ao longo da forma de Z, desta maneira, uma conexão entre a operação do usuário e o movimento da área designada se perde, o que, assim, torna difícil para que o usuário entenda qual informação é designada.
A luz do exposto, é desejável prover um dispositivo de processamento de informação, um método de processamento de informação e um programa que são inéditos e melhores, e que são capazes de mudar um modo de exibição de uma área designada de acordo com a entrada de operação e de apresentar um estado operacional de uma maneira fácil de ser intuitivamente compreensível.
Consistente com uma modalidade exemplar, um dispositivo de processamento de informação inclui uma unidade de detecção configurada para detectar uma velocidade de seleção da informação. O dispositivo de processamento de informação também inclui uma unidade de geração configurada para gerar um sinal que especifica um formato de exibição, com base na velocidade, e uma unidade de exibição configurada para exibir a seleção de informação de acordo com o sinal.
Consistente com uma modalidade exemplar adicional, um método implementado por computador processa informação. O método inclui detectar uma velocidade de seleção da informação. Com base na velocidade exibida, um sinal que especifica um formato de exibição é gerado, e a seleção de informação é exibida de acordo com o sinal.
De acordo com as modalidades exemplares supradescritas, podem ser providos o dispositivo de processamento de informação e o método de processamento de informação que podem mudar um modo de exibição de uma área designada de acordo com a entrada de operação e podem apresentar um estado operacional de uma maneira fácil de ser intuitivamente compreensível.
DESCRIÇÃO RESUMIDA DOS DESENHOS
A figura 1 é um diagrama explicativo que mostra um aparelho de tratamento de imagem que inclui um dispositivo de processamento de informação de acordo com uma primeira modalidade exemplar da presente invenção;
a figura 2 é um diagrama explicativo que mostra um modo de exibição de uma área designada no caso em que a velocidade relativa entre um dedo e as imagens exibidas for igual ou maior que uma velocidade pre- determinada;
a figura 3 é um diagrama explicativo que mostra um modo de exibição da área designada no caso em que a velocidade relativa entre o dedo e as imagens exibidas for menor que a velocidade pré-determinada;
a figura 4 é um diagrama de blocos que mostra uma configuração de hardware do dispositivo de processamento de informação de acordo com a primeira modalidade exemplar;
a figura 5 é um diagrama explicativo que mostra um exemplo de configuração de um dispositivo de exibição e uma unidade sensora do dispositivo de processamento de informação de acordo com a primeira modalidade exemplar;
a figura 6 é um diagrama explicativo que mostra um outro exemplo de configuração do dispositivo de exibição e da unidade sensora do dispositivo de processamento de informação de acordo com a primeira modalidade exemplar;
a figura 7 é um diagrama de blocos que mostra uma configuração funcional do dispositivo de processamento de informação de acordo com a primeira modalidade exemplar;
a figura 8 é um fluxograma que mostra o processamento de controle do modo de exibição da área designada do dispositivo de processamento de informação de acordo com a primeira modalidade exemplar;
a figura 9 é um diagrama explicativo que mostra o movimento da área designada no momento em que uma ferramenta de operação é mantida em contato com o lado superior de uma área de operação;
a figura 10 é um diagrama explicativo que mostra o movimento da área designada no momento em que a ferramenta de operação é mantida em contato com o lado inferior da área de operação; a figura 11 é um diagrama explicativo que mostra o movimento da área designada no momento em que a velocidade relativa entre a ferramenta de operação e uma lista de imagens é menor que uma velocidade limite;
a figura 12 é um diagrama explicativo que mostra um exemplo de transição de um modo de exibição de uma área designada de acordo com uma segunda modalidade exemplar;
a figura 13 é um diagrama explicativo que mostra um exemplo de extensão das imagens designadas por um dispositivo de processamento de informação de acordo com a segunda modalidade exemplar;
a figura 14 é um diagrama explicativo que mostra a transição de exibição no caso do envolvimento de processamento de exibição etapa por etapa da informação de exibição;
a figura 15 é um diagrama explicativo que mostra um exemplo do processamento de seleção do conteúdo exibido de uma maneira gradual;
a figura 16 é um diagrama explicativo que mostra um outro exemplo do processamento de seleção do conteúdo exibido de uma maneira gradual;
a figura 17 é um diagrama explicativo que mostra um modo de exibição de uma área designada mudada de acordo com a velocidade relativa entre um dedo e a informação de exibição;
a figura 18 é um diagrama explicativo que mostra um outro exemplo do modo de exibição da área designada mudada de acordo com a velocidade relativa entre o dedo e a informação de exibição;
a figura 19 é um diagrama explicativo que mostra um modo de exibição da área designada mudada de acordo com uma pressão; e
a figura 20 é um diagrama explicativo que mostra um padrão de movimento de uma área designada no passado.
DESCRIÇÃO DAS MODALIDADES EXEMPLARES A seguir, modalidades serão descritas com detalhes em relação aos desenhos anexos. Note que, nesta especificação e nos desenhos anexos, elementos estruturais que têm, substancialmente, as mesmas função e estrutura são denotados com os mesmos números de referência, e explicação repetida destes elementos estruturais é omitida.
Além do mais, a descrição será feita na seguinte ordem:
1. Primeira modalidade exemplar (por exemplo, uma mudança do modo de exibição de uma área designada de acordo com a velocidade relativa);
2. Segunda modalidade exemplar (por exemplo, uma extensão de uma faixa de exibição do conteúdo designado);
3. Terceira modalidade exemplar (por exemplo, processamento de uma área designada no caso do processamento de exibição etapa por etapa); e
4. Quarta modalidade exemplar (por exemplo, uma seleção do conteúdo arranjado em um plano)
1. Primeira modalidade exemplar
a. Configuração exemplar de um aparelho de tratamento de imagem que inclui um dispositivo de processamento de informação
Primeiro, um exemplo de configuração de um aparelho de tratamento de imagem que inclui um dispositivo de processamento de informação de acordo com uma primeira modalidade exemplar será descrito com base na figura 1 até a figura 3. Além do mais, a figura 1 é um diagrama explicativo que mostra o aparelho de tratamento de imagem que inclui o dispositivo de processamento de informação de acordo com a modalidade. A figura 2 é um diagrama explicativo que mostra um formato de exibição de uma área designada 220 no caso em que a velocidade relativa entre um dedo e as imagens exibidas 210 for igual ou maior que uma velocidade pre- determinada. A figura 3 é um diagrama explicativo que mostra um formato de exibição da área designada 230 no caso em que a velocidade relativa entre o dedo e as imagens exibidas 210 for menor que a velocidade pré-determinada.
O dispositivo de processamento de informação de acordo com a presente modalidade é usado para mudar o modo de exibição da área designada para selecionar informação de acordo com a velocidade de movimento de uma ferramenta de operação para realizar entrada de operação, e o dispositivo de processamento de informação pode ser provido em um aparelho de tratamento de imagem, tal como aquele mostrado na figura 1, por exemplo. O aparelho de tratamento de imagem de acordo com a presente modalidade inclui, no lado posterior de um alojamento 10, uma tela 20 para exibir uma imagem obtida por um dispositivo de captura de imagem por meio de uma lente provida no lado frontal do alojamento 10. Além do mais, no aparelho de tratamento de imagem, é provida, na borda da tela 20 ou no lado da tela 20, uma área de operação 30 que inclui um sensor de toque e um sensor de pressão como uma unidade de detecção para detectar entrada de informação de operação. Na área de operação 30 de acordo com a presente modalidade, uma direção de operação em apenas uma direção (por exemplo, direção vertical) pode ser detectada.
O aparelho de tratamento de imagem exibe na área de exibição 200 imagens obtidas em uma lista, da forma mostrada na figura 1, e exibe uma imagem selecionada na íntegra da área de exibição da tela 20. A seleção de uma imagem pode ser realizada pela designação da imagem na lista. Além do mais, no caso em que o número das imagens for grande e é difícil exibir uma lista de todas as imagens na tela 20, um usuário pode rolar a lista de imagens exibida na tela 20 pelo movimento de um dedo na área de operação 30. Por exemplo, o usuário, quando segura o aparelho de tratamento de imagem com uma mão, move a área designada e rola a lista de imagens da tela 20 pelo movimento do dedo na área de operação, ao mesmo tempo em que monitora a lista de imagens exibida na tela 20, da forma mostrada na figura 1.
Neste momento, a área designada se move pelo movimento do dedo na direção vertical, devido à forma da área de operação, mas, quando a lista de imagens for arranjada em arranjos bidimensionais, da forma mostrada na figura 1, pode haver um caso em que a direção do movimento do dedo e a direção do movimento da área designada não correspondem. Também em tal caso, a área de exibição 200 do dispositivo de processamento de informação exibe a área designada, da forma mostrada na figura 2 e na figura 3, com base na velocidade do movimento relativa entre uma operação de entrada pelo dedo e a lista de imagens (grupo de conteúdo), a fim de tornar possível mover a área designada intuitiva e facilmente e melhorar a operabilidade.
Por exemplo, quando o dedo se mover rapidamente na área de operação, a velocidade relativa entre o dedo que move a área designada e a lista de imagens (grupo de conteúdo), que é a informação exibida, é alta e a velocidade do movimento da área designada é alta. Quando a velocidade relativa entre o dedo que move a área designada e a lista de imagens (grupo de conteúdo), que é a informação exibida, for igual ou maior que a velocidade pré-determinada, o dispositivo de processamento de informação exibe a área designada 220 para selecionar imagens (partes de conteúdo) em uma base por linha, da forma mostrada na figura 2. A área designada 220 é informação de seleção múltipla, para selecionar uma pluralidade de imagens (partes de conteúdo). Quando o dedo se mover para baixo, no estado no qual a área designada 220 é exibida, a área designada 220 se move para selecionar imagens (partes de conteúdo) em uma base por linha, da forma mostrada no diagrama inferior da figura 2.
Por outro lado, quando o dedo se mover lentamente na área de operação, a velocidade relativa entre o dedo que move a área designada e a lista de imagens (grupo de conteúdo) é baixa e a velocidade do movimento da área designada é baixa. Quando a velocidade relativa entre o dedo e a lista de imagens for menor que a velocidade pré-determinada, o dispositivo de processamento de informação exibe a área designada 230 para selecionar uma imagem (uma parte de conteúdo) em uma base por imagem, da forma mostrada na figura 3. A área designada 230 é informação de seleção única para selecionar uma imagem (uma parte de conteúdo). Quando o dedo se mover para baixo, no estado no qual a área designada 230 é exibida, a área designada 230 se move para a direita uma a uma em uma base por imagem (parte de conteúdo), da forma mostrada no diagrama inferior da figura 3.
Desta maneira, pela mudança do modo de exibição da área designada com base na velocidade do movimento da área designada determinada de acordo com a velocidade relativa entre a ferramenta de operação, tal como um dedo, e a informação exibida, o relacionamento entre o movimento do dedo e a informação exibida fica claro, de forma que operação intuitiva seja possível e a operabilidade possa ser melhorada. A seguir, uma configuração do dispositivo de processamento de informação e do processamento realizado pelo dispositivo de processamento de informação será descrita com detalhes.
Além do mais, na primeira modalidade e na segunda modalidade descrita a seguir, é feita descrição considerando um dispositivo de tratamento de imagem como o aparelho que inclui o dispositivo de processamento de informação e tomando como um exemplo o estado no qual fotos são exibidas em uma lista, da forma mostrada na figura 1, por exemplo.
Entretanto, a presente invenção não é limitada a tal exemplo, e o dispositivo de processamento de informação pode ser provido em um terminal de processamento de informação, tais como um telefone celular ou um computador pessoal, por exemplo. Além do mais, as imagens exibidas na unidade de exibição em uma lista, da forma mostrada na figura 1, por exemplo, podem ser não apenas as fotos supradescritas, mas, também, conteúdo de exibição que indica dados, tais como dados de imagem estática, dados de vídeo, dados de música, dados de texto, dados de conteúdo de livro eletrônico ou pastas, por exemplo.
Isto é, cada uma da pluralidade de imagens exibidas na tela em uma lista é associada com dados, tal como aqueles supradescritos, que são eventualmente executados (reproduzidos ou exibidos, por exemplo) por uma operação do usuário. Quando uma imagem for determinada a partir da lista de imagens, dados associados com a imagem determinada são executados. O conteúdo de imagem pode ser uma miniatura dos dados no caso de dados de imagem estática ou dados de vídeo, uma figura da contracapa de um álbum que inclui os dados de música, no caso de dados de música, ou uma foto da capa de um livro correspondente ao conteúdo, no caso de dados de conteúdo de livro eletrônico.
Então, quando tal imagem for determinada por uma operação de pressionamento pela ferramenta de operação, tal como um dedo, dados, tais como foto, dados de imagem estática, dados de vídeo, dados de música ou dados de conteúdo de livro eletrônico correspondentes à imagem determinada são reproduzidos. Alternativamente, informação sobre os dados correspondentes à imagem determinada pode ser exibida em texto. Por exemplo, no caso em que a imagem determinada estiver associada com dados de imagem estática ou dados de vídeo, o título, o criador, a data e a hora de criação dos dados e congêneres podem ser exibidos em texto. No caso em que a imagem determinada estiver associada com dados de música, o nome da faixa, o nome do álbum, o nome do artista e congêneres podem ser exibidos em texto. Além do mais, no caso em que dados de texto forem adicionados nos dados, tais como dados de imagem estática, dados de vídeo ou dados de música, desta maneira, o conteúdo dos dados de texto pode ser exibido em uma lista como conteúdo de exibição que indica os dados correspondentes.
b. Configuração de hardware do dispositivo de processamento de informação Primeiro, uma configuração de hardware do dispositivo de processamento de informação 100 de acordo com a presente modalidade será descrita com base na figura 4 até a figura 6. Além do mais, a figura 4 é um diagrama de blocos que mostra a configuração de hardware do dispositivo de processamento de informação 100 de acordo com a presente modalidade. A figura 5 e a figura 6 são diagramas explicativos que mostram exemplos de configuração de um dispositivo de exibição 104 e de uma unidade sensora 107 do dispositivo de processamento de informação 100 de acordo com a presente modalidade.
O dispositivo de processamento de informação 100 de acordo com a presente modalidade inclui, da forma mostrada na figura 4, uma CPU (Unidade Central de Processamento) 101, uma RAM (Memória de Acesso Aleatório) 102, uma RAM (Memória de Acesso Aleatório) 102 e uma memória não volátil 103. Além do mais, o dispositivo de processamento de informação 100 inclui um dispositivo de exibição 104, uma primeira unidade sensora (por exemplo, um sensor de toque) 105 e uma segunda unidade sensora (por exemplo, um sensor de pressão) 106.
A CPU 101 funciona como um dispositivo de processamento aritmético e um dispositivo de controle, e controla toda a operação do dispositivo de processamento de informação 100 de acordo com uma variedade de programas. Além do mais, a CPU 101 pode ser um microprocessador. A RAM 103 armazena temporariamente programas usados na execução da CPU 101 e parâmetros que mudam apropriadamente na execução, por exemplo. Estas podem ser interconectadas por meio do barramento hospedeiro, incluindo um barramento da CPU e congêneres. A memória não volátil 103 pode ser uma ROM (Memória Exclusiva de Leitura) ou uma memória flash, por exemplo.
O dispositivo de exibição 104 é um exemplo de um dispositivo de saída para transmitir informação. O dispositivo de exibição 104 pode ser um dispositivo de exibição CRT (Tubo de Raios Catódicos), um dispositivo de tela de cristal líquido (LCD) ou um dispositivo OLED (Diodo Orgânico Emissor de Luz), por exemplo. Na presente modalidade, a tela 20 do aparelho de tratamento de imagem mostrado na figura 1 pode ser usada.
O sensor de toque 105 é um exemplo de um dispositivo de entrada para que o usuário insira informação e inclui, por exemplo, um dispositivo de entrada para inserir informação e um circuito de controle de entrada para gerar um sinal de entrada com base na entrada do usuário e para transmitir o sinal de entrada à CPU 101. O usuário pode inserir vários tipos de dados no dispositivo de processamento de informação 100, e dar uma instrução para o processamento da operação nele, pela operação do sensor de toque 105. Além do mais, o sensor de pressão 106 é um sensor para detectar a pressão do pressionamento do usuário com a ferramenta de operação. O sensor de pressão 106 converte a pressão detectada em um sinal eletrônico e transmite o sinal como um resultado da detecção.
O sensor de toque 105 e o sensor de pressão 106 são a unidade sensora 107 que detecta a entrada de informação de operação para mover a informação exibida. A unidade sensora 107, que inclui o sensor de toque 105 e o sensor de pressão 106, pode ser provida no lado do dispositivo de exibição 104 separadamente do dispositivo de exibição 104, da forma mostrada na figura 5, por exemplo, ou a unidade sensora 107 pode ser provida em um estado laminado com o dispositivo de exibição 104, da forma mostrada na figura 6. Além do mais, no caso de empilhamento do dispositivo de exibição 104 e da unidade sensora 107, a unidade sensora 107 pode ser provida em toda a área de exibição do dispositivo de exibição 104, da forma mostrada na figura 6, ou a unidade sensora 107 pode ser provida apenas na área de operação 30 em que a entrada de operação é realizada.
c. Configuração funcional de dispositivo de processamento de informação A seguir, uma configuração funcional do dispositivo de processamento de informação 100 de acordo com a presente modalidade será descrita com base na figura 7. Além do mais, a figura 7 é um diagrama de blocos que mostra a configuração funcional do dispositivo de processamento de informação 100 de acordo com a presente modalidade. O dispositivo de processamento de informação 100 de acordo com a presente modalidade inclui uma unidade de exibição de entrada 110, uma unidade de geração (por exemplo, uma unidade de controle da exibição) 120, uma unidade de determinação de contato 130, uma unidade de determinação de pressão 140 e uma unidade de armazenamento 150, da forma mostrada na figura 7.
A unidade de exibição de entrada 110 é uma unidade funcional para inserir informação, bem como informação de exibição, que inclui uma unidade de detecção de contato 112, uma unidade de detecção de pressão 114 e uma unidade de exibição 116. A unidade de detecção de contato 112 corresponde ao sensor de toque 105 da figura 4 e detecta um valor de capacitância que muda de acordo com a condição de a ferramenta de operação tocar a área de operação em que a unidade sensora 107 é provida (isto é, se um primeiro tipo de ativação do usuário for detectado). Quando a ferramenta de operação tocar a superfície de exibição, a capacitância que a unidade de detecção de contato 112 detecta aumenta. Por isto, quando o valor de capacitância detectado pela unidade de detecção de contato 112 exceder um valor pré-determinado, pode-se determinar que a ferramenta de operação está em contato com a superfície de exibição. A unidade de detecção de contato 112 transmite o valor de capacitância detectado à unidade de controle da exibição 120 como um resultado de detecção.
A unidade de detecção de pressão 114 corresponde ao sensor de pressão 106 da figura 4 e detecta a pressão da ferramenta de operação que pressiona a área de operação (isto é, detecta um segundo tipo de ativação do usuário). A unidade de detecção de pressão 114 transmite à unidade de controle da exibição 120 um sinal eletrônico de acordo com a força da pressão como um resultado de detecção. A unidade de exibição 116 é um dispositivo de saída correspondente ao dispositivo de exibição 104 da figura 4 e exibe informação que foi sujeita ao processamento de exibição pela unidade de controle da exibição 120. Na unidade de exibição 116, as imagens obtidas pelo aparelho de tratamento de imagem ou a lista de imagens são exibidas, por exemplo.
A unidade de controle da exibição 120 é uma unidade de controle para controlar o modo de exibição da área designada da lista de imagens exibida na unidade de exibição 116 com base nos resultados de detecção inseridos a partir da unidade de detecção de contato 112 e da unidade de detecção de pressão 114. A unidade de controle da exibição 120 transmite à unidade de determinação de contato 130 o valor de capacitância inserido a partir da unidade de detecção de contato 112 e faz com que a unidade de determinação de contato 130 determine se a ferramenta de operação toca a superfície de exibição da unidade de exibição 116. Então, quando tiver recebido o resultado da determinação da unidade de determinação de contato 130, a unidade de controle da exibição 120 inicia o processamento de controle do modo de exibição da área designada com base no resultado da determinação. Além do mais, a unidade de controle da exibição 120 calcula a distância do movimento e a velocidade do movimento da ferramenta de operação a partir das posições de contato reconhecidas pela unidade de determinação de contato 130. Então, a unidade de controle da exibição 120 calcula a velocidade relativa (isto é, uma velocidade da seleção da informação) entre a ferramenta de operação e a lista de imagens a partir da velocidade do movimento da ferramenta de operação e da velocidade do movimento da lista de imagens exibida na unidade de exibição 116, e muda o modo de exibição da área designada de acordo com a velocidade relativa.
Além do mais, a unidade de controle da exibição 120 transmite à unidade de determinação de pressão 140 o sinal eletrônico que indica a força da pressão inserida a partir da unidade de detecção de pressão 114 e faz com que a unidade de determinação de pressão 140 determine a força ou a variação da pressão ocasionadas pelo movimento da ferramenta de operação.
Então, quando tiver recebido o resultado da determinação da unidade de determinação de pressão 140, a unidade de controle da exibição 120 inicia o processamento de controle do modo de exibição da área designada com base no resultado da determinação. Depois disto, a unidade de controle da exibição 120 faz com que a unidade de exibição exiba a área designada em um modo de exibição de acordo com a velocidade do movimento da ferramenta de operação.
A unidade de determinação de contato 130 determina a presença ou a ausência de contato da ferramenta de operação na superfície de exibição da unidade de exibição 116 e a posição do contato com base no resultado de detecção da unidade de detecção de contato 112. Quando o valor de capacitância detectado por cada sensor capacitivo da unidade de detecção de contato 112 for inserido a partir da unidade de controle da exibição 120, a unidade de determinação de contato 130 determina se a ferramenta de operação está em contato com a superfície de exibição da unidade de exibição 116. A unidade de determinação de contato 130 determina se a ferramenta de operação tocou a superfície de exibição quando a capacitância exceder o valor pré-determinado. Além do mais, a unidade de determinação de contato 130 também pode reconhecer a posição do contato da ferramenta de operação na superfície de exibição a partir da posição do sensor capacitivo do qual a capacitância maior que o valor pré-determinado é detectada. Então, a unidade de determinação de contato 130 transmite à unidade de controle da exibição 120 o resultado da determinação se a ferramenta de operação tocou a superfície de exibição e a posição do contato da ferramenta de operação, se tiver determinado que a ferramenta de operação tocou. A unidade de determinação de pressão 140 determina a força da pressão da ferramenta de operação que pressiona a superfície de exibição com base no resultado de detecção da unidade de detecção de pressão 114. No dispositivo de processamento de informação 100 de acordo com a presente modalidade, pela mudança da força da pressão da ferramenta de operação que pressiona a superfície de exibição pelo usuário, processamento, tal como a seleção de uma imagem designada, pode ser realizado. A unidade de determinação de pressão 140, considerando o resultado da detecção da unidade de detecção de pressão 114, determina a força e a variação da pressão na área de operação pela referência à unidade de armazenamento 150 e transmite o resultado da determinação à unidade de processamento da exibição 120. Com base no resultado da determinação, a unidade de controle da exibição 120 executa o processamento associado com o movimento.
A unidade de armazenamento 150 corresponde à memória não volátil 103 da figura 4 e armazena vários tipos de informação de ajuste usada para determinar o grau de força da pressão na área de operação. A informação de ajuste é uma velocidade do movimento (velocidade limite) da ferramenta de operação, que serve como um critério para mudar o modo de exibição da área designada.
d. Controle do modo de exibição da área designada pelo dispositivo de processamento de informação
Pela inclusão do dispositivo de processamento de informação 100, o modo de exibição da área designada para selecionar uma imagem na lista de imagens pode mudar de acordo com a velocidade relativa entre a ferramenta de operação, que determina a velocidade do movimento da área designada, e a lista de imagens. A seguir, o processamento de controle do modo de exibição da área designada pelo dispositivo de processamento de informação 100 de acordo com a presente modalidade será descrito com base na figura 8 até a figura 11. Além do mais, a figura 8 é um fluxograma que mostra o processamento de controle da exibição do dispositivo de processamento de informação 100 de acordo com a presente modalidade. A figura 9 é um diagrama explicativo de uma área de exibição 200 que mostra o movimento da área designada 220 entre as imagens 210 no momento em que a ferramenta de operação é mantida em contato com o lado superior da área de operação. A figura 10 é um diagrama explicativo da área de exibição 200 que mostra o movimento da área designada 220 nas imagens 210 no momento em que a ferramenta de operação é mantida em contato com o lado inferior da área de operação. A figura 11 é um diagrama explicativo que mostra o movimento da área designada no momento em que a velocidade relativa entre a ferramenta de operação e a lista de imagens é menor que a velocidade limite. Além do mais, a seguir, será feita descrição considerando um dedo do usuário como a ferramenta de operação.
O controle do modo de exibição da área designada pelo dispositivo de processamento de informação 100 de acordo com a presente modalidade é iniciado pela detecção de uma ação de início para o processamento. Por exemplo, ela pode ser a ação de início que a ferramenta de operação, tal como um dedo do usuário, toca a área de operação em um estado em que a lista de imagens é exibida na unidade de exibição 116. Neste momento, o dispositivo de processamento de informação 100 determina se a ferramenta de operação tocou a área de operação pela unidade de determinação de contato 130, com base no resultado de detecção da unidade de detecção de contato 112 (Etapa S100). No caso de ter determinado que não há contato da ferramenta de operação, o dispositivo de processamento de informação 100 termina o processamento. Por outro lado, no caso de ter determinado que a ferramenta de operação tocou, o dispositivo de processamento de informação 100 determina se a velocidade relativa entre o dedo e a lista de imagens (isto é, uma velocidade de seleção da informação) é igual ou maior que a velocidade limite (Etapa S110). Na presente modalidade, a posição da área designada na lista de imagens se move de acordo com a direção do movimento do dedo. Por exemplo, no caso de movimento do dedo para baixo, a área designada se move para baixo e, no caso de movimento do dedo para cima, a área designada se move para cima. Neste momento, quando a velocidade do movimento do dedo for grande e a velocidade relativa entre o dedo e a lista de imagens for igual ou maior que a velocidade limite pré-determinada, pode-se considerar que deseja-se que a área designada se mova substancialmente.
Além do mais, quando a velocidade do movimento do dedo for pequena e a velocidade relativa entre o dedo e a lista de imagens for menor que a velocidade limite pré-determinada, pode-se considerar que deseja-se que a área designada se mova minuciosamente. Com base em tais considerações, a unidade de processamento da exibição 120 muda o modo de exibição da área designada de acordo com a velocidade relativa entre o dedo, que determina a velocidade do movimento da área designada, e lista de imagens.
No caso em que a velocidade relativa entre o dedo e a lista de imagens for igual ou maior que a velocidade limite, a unidade de controle da exibição 120 designa imagens na lista de imagens, em uma base por linha (isto é, com um segundo tamanho de unidade), de acordo com a posição do dedo (Etapa S120). Por exemplo, da forma mostrada na figura 2, a unidade de controle da exibição 120 designa, entre a lista de imagens na qual imagens são arranjadas em um padrão reticular, uma pluralidade de imagens, de forma que todas as imagens em uma linha correspondente à posição da imagem sejam selecionadas (isto é, uma parte sucessiva de informação exibida com o segundo tamanho de unidade). Quando o dedo se mover rapidamente, faz-se com que a área designada siga o dedo pela unidade de controle da exibição 120.
Neste momento, quando o dedo for mantido em contato com uma extremidade do lado superior, a lista de imagens pode ser rolada para baixo, de forma que a área designada 220 tenha a aparência de se mover para cima, da forma mostrada na figura 9. Além do mais, quando o dedo for mantido em contato com uma extremidade do lado inferior, a lista de imagens pode ser rolada para cima, de forma que a área designada 220 tenha a aparência de se mover para baixo, da forma mostrada na figura 10. Isto é, mesmo se o dedo estiver em repouso, quando uma parte da lista de imagens estiver oculta, a lista de imagens é rolada e a área designada é exibida em um modo de exibição de acordo com a velocidade relativa entre o dedo e a lista de imagens.
A velocidade do movimento da área designada pode mudar de acordo com o lapso do tempo de contato durante o qual o dedo é mantido em contato com o lado do lado superior ou com o lado do lado inferior da área de operação. Por exemplo, quando o tempo de contato for longo, a unidade de controle da exibição 120 faz aumentar a velocidade do movimento da área designada. Quando a velocidade do movimento da área designada for igual ou maior que um valor pré-determinado, a unidade de controle da exibição 120 rola a lista de imagens, de maneira tal que a velocidade relativa entre o dedo e a lista de imagens seja igual ou maior que a velocidade limite. Além do mais, quando a velocidade do movimento da área designada for menor que o valor pré-determinado, a unidade de controle da exibição 120 move a área designada para selecionar uma imagem na lista de imagens. Neste momento, a unidade de controle da exibição 120 pode mudar a velocidade do movimento da área designada para selecionar a imagem de acordo com o lapso do tempo de contato.
Por outro lado, no caso em que a velocidade relativa entre o dedo e a lista de imagens for menor que a velocidade limite, a unidade de controle da exibição 120 designa uma imagem da lista de imagens em uma base por imagem (isto é, uma parte sucessiva de informação exibida com um primeiro tamanho de unidade) de acordo com a posição do dedo (Etapa S130). Por exemplo, da forma mostrada na figura 3, a unidade de controle da exibição 120 move seqüencialmente a área designada 230 para selecionar imagens 210 de acordo com as posições do dedo. Aqui5 a posição da área designada 230 em relação àquela do dedo pode ser determinada com base na posição do dedo na altura de uma linha na lista de imagens na direção do movimento do dedo (por exemplo, a altura da exibição das imagens na linha na direção do movimento do dedo).
Por exemplo, a posição da exibição da área designada 230, que é a informação de seleção única, pode ser determinada com base na altura de uma linha na lista de imagens (altura da exibição do conteúdo) e no número de imagens (partes de conteúdo) arranjadas na linha. Da forma mostrada na figura 11, é considerado o caso em que três das imagens 210 são arranjadas horizontalmente em uma linha e em que a área designada 230 se move para a direita em conjunto com o movimento do dedo para baixo. Neste momento, a altura da linha na lista de imagens é dividida pelo número de imagens arranjadas na linha (três imagens, no caso da figura 11). Dentre as áreas divididas na altura, a área longitudinal no topo, a área longitudinal no meio e a área longitudinal na base são associadas com a imagem na esquerda, a imagem no meio e a imagem na direita, respectivamente. Então, quando o dedo se mover em uma direção vertical, a unidade de controle da exibição 120 move a área designada 230 até a imagem correspondente à área longitudinal na qual o dedo fica posicionado. Por isto, a posição do dedo não perde conexão com a posição da área designada, e a operação de movimento é facilitada.
Depois disto, determina-se se o dedo foi pressionado na área de operação no estado em que apenas uma imagem é designada (Etapa S140). Um segundo tipo de ativação do usuário (por exemplo, um movimento de pressionamento do dedo) pode ser detectado pela unidade de detecção de pressão 114. No caso em que a força da pressão do contato detectada pela unidade de detecção de pressão 114 for igual ou maior que uma pressão pre- determinada e em que a pressão do dedo que pressiona a área de operação diminui de forma rápida posteriormente, a unidade de controle da exibição 120 determina que houve um movimento de pressionamento do dedo e determina a seleção da imagem 210 onde a área designada 230 estiver atualmente posicionada (Etapa S150). Por outro lado, no caso em que for determinado que não houve um movimento de pressionamento, o processamento depois da Etapa Sl 10 é repetido.
A configuração do dispositivo de processamento de informação 100 e do método de processamento de informação pelo dispositivo de processamento de informação 100 foi supradescrita. De acordo com a presente modalidade, pela mudança do modo de exibição da área designada de acordo com a velocidade relativa entre o dedo e a lista de imagens, o estado operacional pode ser apresentado de uma maneira fácil de ser intuitivamente compreensível.
2. Segunda modalidade exemplar
A seguir, um método de processamento de informação de acordo com uma segunda modalidade exemplar da presente invenção será descrito com base na figura 12 e na figura 13. Uma configuração de um dispositivo de processamento de informação de acordo com a presente modalidade é a mesma daquela da primeira modalidade, mas, na presente modalidade, além do método de processamento de informação de acordo com a primeira modalidade exemplar, quando a velocidade relativa entre um dedo, que determina a velocidade do movimento de uma área designada, e uma lista de imagens for menor que uma velocidade limite pré-determinada, a altura da linha em que a área designada existe se estende. Isto pode eliminar uma detecção falsa de operação devido à área longitudinal insuficiente da linha correspondente a uma imagem, por exemplo. Tal processamento será descrito com detalhes a seguir. Além do mais, a figura 12 é um diagrama explicativo que mostra um exemplo de transição de um modo de exibição da área designada de acordo com a presente modalidade. A figura 13 é um diagrama explicativo que mostra um exemplo de extensão das imagens designadas por um dispositivo de processamento de informação 100 de acordo com a presente modalidade.
Da forma mostrada em um "Estado A" na figura 12, considera- se que é exibida uma lista de imagens na qual uma pluralidade de imagens 210 é arranjada em duas dimensões. Quatro linhas 215A, 215B, 215C e 215D são exibidas em uma área de exibição 200 e quatro das imagens 210 são arranjadas em cada linha. Em tal estado, quando um usuário colocar um dedo em contato com a área de operação correspondente à linha 215B, a faixa de exibição das imagens 210 da linha 215B se estende na direção da altura (isto é, a direção ortogonal à direção do arranjo das imagens; a direção vertical do papel da figura 12), da forma mostrada em um "Estado B".
Na presente modalidade, uma imagem a ser designada é determinada correspondente à posição do dedo na direção da altura da área de operação. Além do mais, o modo de exibição da área designada muda de acordo com a velocidade relativa entre o dedo, para operar a posição da área designada em uma imagem, e a lista de imagens. Quando a velocidade relativa entre o dedo e a lista de imagens for igual ou maior que uma velocidade limite, da forma descrita na primeira modalidade, a linha da lista de imagens correspondente à posição de contato do dedo é designada. Neste caso, a linha é designada se o dedo ficar posicionado na área da altura das imagens na linha, de forma que seja fácil entender o relacionamento entre o movimento de um dedo e uma posição da área designada, e seja fácil realizar a operação.
Por outro lado, quando a velocidade relativa entre o dedo e a lista de imagens for menor que a velocidade limite, a posição da área designada muda de acordo com as áreas nas quais a altura das imagens na linha é dividida pelo número das imagens na linha. Neste momento, no caso em que uma das partes da altura dividida não for suficientemente grande em relação ao tamanho do dedo, é concebível que a área designada 230 se mova freqüentemente, devido a um movimento minucioso do dedo ou a um deslocamento da posição do contato, por exemplo, e que a operabilidade seja reduzida. Consequentemente, no estado no qual a velocidade relativa entre o dedo e a lista de imagens for menor que a velocidade limite e no qual a área designada 230 se moveu em uma base por imagem, a altura das imagens na linha onde a área designada 230 está posicionada se estende. Isto amplia a área da altura correspondente a uma imagem, que, assim, reduz falso reconhecimento devido a um deslocamento da posição do dedo, por exemplo, e que, assim, torna possível selecionar naturalmente uma imagem de cada vez.
Aqui, é melhor que o modo de exibição das imagens, no momento em que a faixa de exibição das imagens se estende, seja de maneira tal que a faixa das imagens exibidas se estenda, em vez de que a ampliação da exibição das imagens na direção da altura aumente, da forma mostrada na figura 13, por exemplo. Isto torna o conteúdo das imagens mais reconhecível pelo usuário. Além do mais, as alturas das imagens nas linhas diferentes da linha na qual a faixa de exibição das imagens se estende na direção da altura são reduzidas para caber na área de exibição 200. Também neste caso, pela redução da faixa das imagens exibidas em vez da redução da ampliação da exibição das imagens na direção da altura, o conteúdo das imagens se torna mais reconhecível pelo usuário.
Quando o dedo se mover rapidamente para cima do "Estado B" mostrado na figura 12 (por exemplo, da forma mostrada em "Estado C" da figura 12) e a velocidade relativa entre o dedo e a lista de imagens for igual ou maior que a velocidade limite, a área designada 220 para selecionar as imagens na lista de imagens em uma base por linha se move para baixo, da forma mostrada em um "Estado D". No caso da designação das imagens em uma base por linha, desta maneira, as alturas das imagens são ajustadas no mesmo valor em cada linha. Isto torna possível selecionar cada linha com a mesma sensação de operação e facilita a operação.
Então, no "Estado D", quando a velocidade relativa entre o dedo e a lista de imagens na posição correspondente à linha 215D for menor que a velocidade limite, a altura das imagens na linha 215D se estende e a área designada 230 para seleção em uma base por imagem é exibida, da forma mostrada em um "Estado E". Neste momento, a área designada 230 pode ficar posicionada em uma imagem correspondente à área à qual a posição do dedo pertence quando a altura estendida das imagens for dividida pelo número de imagens incluídas na linha. Então, quando o dedo se mover lentamente para baixo, no estado no qual a velocidade relativa entre o dedo e a lista de imagens for menor que a velocidade limite, a área designada 230 se move para a esquerda, da forma mostrada em um "Estado F".
O método de processamento de informação realizado pelo dispositivo de processamento de informação 100 de acordo com a segunda modalidade da presente invenção foi supradescrito. De acordo com a presente modalidade, quando a velocidade relativa entre o dedo e a lista de imagens for menor que a velocidade limite, a altura da linha que inclui a área designada se estende. Isto pode eliminar uma detecção falsa de operação, devido à área longitudinal insuficiente da linha correspondente a uma imagem, por exemplo.
3. Terceira modalidade exemplar
A seguir, um método de processamento de informação realizado por um dispositivo de processamento de informação de acordo com uma terceira modalidade exemplar será descrito com base na figura 14 até a figura 16. Uma configuração do dispositivo de processamento de informação de acordo com a presente modalidade também é a mesma daquela da primeira modalidade, mas, na presente modalidade, o controle de exibição da área designada será descrito no caso que envolve o processamento de exibição etapa por etapa da informação de exibição. A figura 14 é um diagrama explicativo que mostra a transição de exibição no caso do envolvimento do processamento de exibição etapa por etapa da informação de exibição. A figura 15 é um diagrama explicativo de uma área de exibição 200 que mostra um exemplo do processamento de seleção do conteúdo exibido de uma maneira gradual. A figura 16 é um diagrama explicativo de uma área de exibição 200 que mostra um outro exemplo do processamento de seleção do conteúdo exibido de uma maneira gradual. Além do mais, na terceira modalidade exemplar e em uma quarta modalidade exemplar descrita a seguir, será feita descrição considerando a informação exibida na unidade de exibição como conteúdo, mas, como exposto, considera-se que o conteúdo é associado com dados, tais como foto ou dados de imagem estática, dados de vídeo, dados de música, dados de texto, dados de conteúdo de livro eletrônico ou pastas, por exemplo, que são executados eventualmente por uma operação do usuário.
A figura 14 mostra uma área de exibição exemplar 200 que exibe o conteúdo de uma parte do conteúdo selecionado a partir de um grupo de conteúdo no qual uma pluralidade de partes de conteúdo é arranjada. Da forma mostrada no diagrama à esquerda da figura 14, quatro partes de conteúdo 210, que são "Evento 1" até "Evento 4", são arranjadas na direção vertical. Na presente modalidade, as partes de conteúdo 210 são um grupo de imagens estáticas, tais como fotos, um grupo de vídeos de filmes, programas de televisão ou outros, ou um grupo de textos, por exemplo. O usuário move uma área designada 220 pelo movimento de um dedo na direção vertical em uma área de operação. A área designada 220 pode ser considerada como informação de seleção múltipla, que indica a seleção de uma pluralidade de partes de conteúdo 210, já que as partes de conteúdo 210 são um grupo de uma pluralidade de informações. A área designada 220, da mesma maneira da primeira modalidade, se move no caso em que a velocidade relativa entre o dedo, que determina a velocidade do movimento de uma área designada, e o grupo de conteúdo for igual ou maior que uma velocidade limite, e a posição da exibição da área designada 220 muda de acordo com a posição do dedo.
Por exemplo, quando o dedo na posição correspondente a "Evento 1" se mover para baixo, a área designada 220 se move para baixo, da forma mostrada no diagrama do meio da figura 14.
Quando a velocidade relativa entre o dedo e o grupo de conteúdo for menor que a velocidade limite, uma unidade de controle da exibição 120 do dispositivo de processamento de informação 100 desenvolve e exibe as partes de conteúdo 212 associadas com a parte do conteúdo 210 (isto é, a parte do conteúdo 210 representada pelo identificador "Evento 3" é substituída pelas partes de conteúdo 212), da forma mostrada no diagrama à direita da figura 14. As partes de conteúdo 212 associadas com a parte do conteúdo 210 correspondem, por exemplo, a cada imagem estática incluída na parte do conteúdo 210 ou, se a parte do conteúdo 210 for um vídeo, elas correspondem a capítulos do vídeo ou congêneres. As partes de conteúdo 212 associadas com a parte de conteúdo desenvolvida 210 podem ser arranjadas na direção ortogonal à direção do arranjo das partes de conteúdo 210, por exemplo. Desta maneira, pelo desenvolvimento da parte de conteúdo selecionada 210 e pela exibição do conteúdo, torna-se possível navegar pelo conteúdo da parte do conteúdo 210.
Depois disto, o usuário seleciona uma parte do conteúdo 212 da parte de conteúdo desenvolvida 210 e pode exibir ou reproduzir a parte do conteúdo 212. Para selecionar a parte do conteúdo 212, da mesma maneira da primeira modalidade, ele precisa apenas levar uma área designada 230, que é informação de seleção única, à parte do conteúdo 212 que deseja-se selecionar. Por exemplo, quando a parte do conteúdo 210 do "Evento 3" for desenvolvida, a faixa de exibição das partes de conteúdo 212 se estende na direção da altura, da forma mostrada no diagrama à direita da figura 15. Então, o usuário pode mover a área designada 230 para selecionar uma das partes de conteúdo 212 arranjadas na direção horizontal. No caso em que houver inúmeras partes de conteúdo exibíveis na área de exibição 200, todas as partes de conteúdo 212 incluídas na parte do conteúdo 210 tornam-se visíveis pela rolagem do conteúdo da parte do conteúdo 210.
A operação para selecionar a parte do conteúdo 212 da parte do conteúdo 210 é realizada, da forma mostrada no diagrama à direita da figura 15, na faixa de exibição da parte de conteúdo desenvolvida 210. Neste momento, da mesma maneira da primeira modalidade, a área designada 230 se move de acordo com a posição do dedo quando a altura da parte do conteúdo 210 for dividida pelo número de partes de conteúdo exibidas. Então, pela realização de uma operação de determinação pré-determinada, tal como o pressionamento do dedo, a parte de conteúdo designada 212 da parte do conteúdo 210 pode ser executada.
Além do mais, a figura 16 mostra o caso em que as partes de conteúdo 212 da parte do conteúdo 210 são arranjadas na direção vertical. Também neste caso, da mesma maneira da figura 15, quando a área designada 220 for ajustada e uma parte do conteúdo 210 for selecionada a partir do grupo de conteúdo, a parte do conteúdo 210 é desenvolvida e as partes de conteúdo 212 incluídas na parte do conteúdo 210 são exibidas, ao mesmo tempo em que são arranjadas na direção vertical (isto é, o identificador "Evento 3" é substituído pelas partes de conteúdo 212). As partes de conteúdo 212 exibidas na região selecionada pela área designada 220 são as partes de conteúdo associadas com a parte do conteúdo 210. Neste momento, o usuário pode mover a área designada 230 para selecionar uma parte do conteúdo 212 da parte do conteúdo 210 pelo movimento do dedo na direção da altura, tomando a altura da parte de conteúdo selecionada 210 como a faixa de operação. Enquanto o dedo se move na área de operação, a área designada 230 para selecionar a parte do conteúdo 212 da parte do conteúdo 210 se move de acordo com o movimento do dedo, mas, quando o dedo sai da área de operação, a unidade de controle da exibição 120 fecha a pasta das partes de conteúdo 212 da parte do conteúdo 210 e as oculta. Então, durante o retorno para o estado mostrado no diagrama à esquerda da figura 16, uma das partes de conteúdo 210 se torna novamente selecionável a partir do grupo de conteúdo. Desta maneira, uma unidade das partes de conteúdo 210, na forma de grupo, e as partes de conteúdo 212 de cada uma das partes de conteúdo 210 podem ser suavemente navegadas.
4. Quarta modalidade exemplar
A seguir, um método de processamento de informação realizado por um dispositivo de processamento de informação de acordo com uma quarta modalidade exemplar da presente invenção será descrito com base na figura 17 até a figura 19. Uma configuração do dispositivo de processamento de informação de acordo com a presente modalidade também é a mesma daquela da primeira modalidade, mas, na presente modalidade, processamento de exibição é realizado para mudar o número de alvos designados de acordo com a velocidade relativa entre um dedo e a informação de exibição ou uma pressão. Além do mais, a figura 17 é um diagrama explicativo que mostra um modo de exibição de uma área designada 280 mudada de acordo com a velocidade relativa entre um dedo e a informação de exibição. A figura 18 é um diagrama explicativo que mostra um outro exemplo do modo de exibição da área designada 280 mudada de acordo com a velocidade relativa entre o dedo e a informação de exibição. A figura 19 é um diagrama explicativo que mostra um modo de exibição da área designada 280 mudado de acordo com uma pressão.
a. Mudança do modo de exibição de uma área designada de acordo com a velocidade relativa Na presente modalidade, considera-se que partes de conteúdo 210 arranjadas em duas dimensões são exibidas na área de exibição de um dispositivo de exibição 104 e que uma unidade sensora 107 é provida na íntegra da área de exibição, da forma mostrada na figura 6. Na presente modalidade, a unidade sensora 107 pode detectar a direção do movimento do dedo que se move ao mesmo tempo em que fica em contato com a área de exibição, não apenas em uma direção, mas, também, em uma direção arbitrária. Neste momento, pelo movimento do dedo em contato com a área de exibição, o número de partes de conteúdo designadas 210 de acordo com a velocidade relativa entre o dedo, que determina a velocidade do movimento da área designada, e um grupo de conteúdo muda.
Por exemplo, da forma mostrada na figura 17, no caso em que a velocidade relativa entre o dedo e o grupo de conteúdo for maior que uma velocidade limite pré-determinada ("primeira velocidade limite", a seguir), uma área designada 280 é colocada em uma pluralidade (por exemplo, "primeiro número", a seguir) de partes de conteúdo 210 ao redor da posição de contato do dedo. No caso em que a velocidade relativa entre o dedo e o grupo de conteúdo for menor que a primeira velocidade limite, o número de partes de conteúdo designadas 210 (isto é, um tamanho de unidade de uma parte sucessiva) torna-se menor que o primeiro número (isto é, um tamanho de unidade de uma parte inicial). Então, no caso em que a velocidade relativa entre o dedo e o grupo de conteúdo for uma velocidade limite pré- determinada, a área designada 280 é colocada apenas na parte do conteúdo 210 exibida na posição de contato do dedo, da forma mostrada no diagrama à direita da figura 17.
Além do mais, o número (número designado) de partes de conteúdo designadas 210 pode mudar de uma maneira gradual ou de uma maneira contínua. Desta maneira, pela mudança do número de partes de conteúdo designadas 210 de acordo com a velocidade relativa entre o dedo e o grupo de conteúdo, é possível realizar seleção grosseira ou seleção fina do conteúdo 210 com reconhecimento intuitivo.
Além do mais, como uma variação da figura 17, além da área designada 280, informação auxiliar que relaciona o movimento do dedo com a parte de conteúdo designada 210 pode ser exibida. Por exemplo, da forma mostrada na figura 18, uma unidade de controle da exibição 120 pode exibir informação auxiliar amorfa 290, que muda de forma ou se move juntamente com o movimento do dedo, correspondente à posição da exibição da área designada 280. Tal informação auxiliar 290 é exibida para indicar a posição de contato do dedo e, também, a trajetória do dedo que se moveu. No caso em que a velocidade relativa entre o dedo e o grupo de conteúdo for igual ou maior que a primeira velocidade limite, a informação auxiliar 290 é exibida de forma grande ao redor do dedo em contato, da forma mostrada no diagrama à esquerda da figura 18 e também é arrastada na trajetória do dedo, desse modo, indicando a direção do movimento do dedo. Então, quando a velocidade relativa entre o dedo e o grupo de conteúdo for menor que a primeira velocidade limite, a faixa de exibição da informação auxiliar 290 é menor que aquela do diagrama à esquerda, da forma mostrada no diagrama do meio da figura 18.
Depois disto, quando a velocidade relativa entre o dedo e o grupo de conteúdo se tornar zero, a informação auxiliar 290 é exibida apenas ao redor da posição de contato do dedo, da forma mostrada no diagrama à direita da figura 18. Desta maneira, além da área designada 280, que indica o conteúdo selecionado 210, a informação auxiliar 290, que indica o movimento do dedo, é exibida e, desse modo, o usuário pode reconhecer o relacionamento entre o movimento do dedo e a faixa de seleção do conteúdo 210.
b. Mudança do modo de exibição de uma área designada de acordo com a pressão Os modos de exibição de uma área designada 280, tais como aqueles mostrados na figura 17 e na figura 18, podem mudar de acordo com a pressão de um dedo, em vez da velocidade relativa entre o dedo e um grupo de conteúdo. Por exemplo, da forma mostrada na figura 19, no caso em que a pressão do dedo que pressiona uma área de exibição for maior que uma pressão pré-determinada (por exemplo, "uma primeira pressão"), o número de partes de conteúdo designadas aumenta e uma pluralidade de partes de conteúdo 210 exibidas ao redor do dedo em contato é designada. Neste momento, da mesma maneira da figura 18, informação auxiliar 290 que indica o movimento e a magnitude da pressão do dedo pode ser exibida. Quanto maior for a pressão, maior fica a informação auxiliar 290, e a informação auxiliar 290 é exibida para permanecer ao longo da trajetória do movimento do dedo.
Se a pressão do dedo for menor que a primeira pressão, o número de partes de conteúdo designadas 210 pela área designada 280 é pequeno. De acordo com isto, a faixa de exibição da informação auxiliar 290 também é pequena. Então, quando a pressão do dedo for menor que uma pressão pré-determinada (por exemplo, "uma segunda pressão"), a informação auxiliar290é exibida apenas ao redor da posição de contato do dedo, da forma mostrada no diagrama à direita da figura 19. Desta maneira, pela mudança do número de partes de conteúdo designadas 210 de acordo com a pressão do dedo, é possível realizar seleção grosseira ou seleção fina do conteúdo 210 com reconhecimento intuitivo. Além do mais, pela exibição, além da área designada 280 que indica o conteúdo selecionado 210, da informação auxiliar 290 que indica o movimento do dedo, o usuário pode reconhecer o relacionamento entre o movimento do dedo e a faixa de seleção do conteúdo 210.
O dispositivo de processamento de informação de acordo com as modalidades da presente invenção e os métodos de processamento de informação realizados pelo dispositivo de processamento de informação foram supradescritos. De acordo com as modalidades expostas, o modo de exibição de uma área designada pode mudar de acordo com a velocidade do movimento ou com a pressão de uma ferramenta de operação, e o estado de operação pode ser apresentado de uma maneira fácil de ser intuitivamente compreensível. Isto é, durante o movimento da ferramenta de operação rapidamente, de acordo com a posição da ferramenta de operação e tanto com a velocidade relativa entre a ferramenta de operação e um grupo de conteúdo quanto com a pressão, pode ser dada a um usuário uma sensação de como se o usuário estivesse manipulando diretamente a posição da área designada com a ferramenta de operação. Por outro lado, durante o movimento da ferramenta de operação lentamente, uma parte do conteúdo pode ser selecionada de cada vez. Além do mais, pela realização do controle de exibição, partes de conteúdo exibidas de uma maneira gradual podem ser suavemente navegadas.
Embora as modalidades preferidas da presente invenção tenham sido descritas no exposto em relação aos desenhos, a presente invenção não é limitada a estas. Versados na técnica entendem que várias modificações, combinações, subcombinações e alterações podem ocorrer, dependendo das exigências de desenho e de outros fatores, na medida em que eles caem no escopo das reivindicações anexas ou dos equivalentes destas.
Por exemplo, nas modalidades expostas, embora as alturas das partes de conteúdo em cada linha sejam as mesmas do grupo de partes de conteúdo arranjadas em um padrão reticular, a presente invenção não é limitada a tal exemplo. Por exemplo, no caso em que as alturas das partes de conteúdo incluídas em uma linha forem diferentes, a altura da parte do conteúdo com a maior altura pode ser a altura da linha.
O presente pedido contém assunto em questão relacionado àquele divulgado no Pedido de Patente de Prioridade Japonês JP 2009- 265394, depositado no Japan Patent Office em 20 de novembro de 2009, cuja íntegra do conteúdo é, pelo presente, incorporada pela referência.

Claims (23)

1. Dispositivo de processamento de informação, caracterizado pelo fato de que compreende: uma unidade de detecção configurada para detectar uma velocidade de seleção da informação; uma unidade de geração configurada para gerar um sinal que especifica um formato de exibição com base na velocidade; e uma unidade de exibição configurada para exibir a seleção de informação de acordo com o sinal.
2. Dispositivo de processamento de informação, de acordo com a reivindicação 1, caracterizado pelo fato de que o formato de exibição compreende um tamanho de uma área designada.
3. Dispositivo de processamento de informação, de acordo com a reivindicação 1, caracterizado pelo fato de que o dispositivo de processamento de informação compreende adicionalmente: uma primeira unidade sensora e uma segunda unidade sensora, a primeira unidade sensora sendo configurada para detectar um primeiro tipo de ativação do usuário, e a segunda unidade sensora sendo configurada para detectar um segundo tipo de ativação do usuário.
4. Dispositivo de processamento de informação, de acordo com a reivindicação 3, caracterizado pelo fato de que: o primeiro tipo de ativação do usuário compreende um contato entre uma ferramenta operacional de um usuário e uma superfície da primeira unidade sensora; e o segundo tipo de ativação do usuário compreende uma pressão de contato associada com um contato entre a ferramenta operacional e uma superfície da segunda unidade sensora.
5. Dispositivo de processamento de informação, de acordo com a reivindicação 4, caracterizado pelo fato de que a ferramenta operacional compreende um acessório humano.
6. Dispositivo de processamento de informação, de acordo com a reivindicação 4, caracterizado pelo fato de que a unidade de detecção é adicionalmente configurada para: receber um sinal indicativo do primeiro tipo de ativação do usuário a partir da primeira unidade sensora; e identificar uma posição de contato associada com o primeiro tipo de ativação do usuário, com base, pelo menos, no sinal recebido.
7. Dispositivo de processamento de informação, de acordo com a reivindicação 6, caracterizado pelo fato de que o sinal que especifica o formato de exibição é configurado para fazer com que a unidade de exibição designe uma parte inicial da informação exibida.
8. Dispositivo de processamento de informação, de acordo com a reivindicação 7, caracterizado pelo fato de que a unidade de detecção é adicionalmente configurada para: detectar um movimento da posição de contato; e detectar a velocidade de seleção da informação com base no movimento detectado.
9. Unidade de processamento de informação, de acordo com a reivindicação 8, caracterizada pelo fato de que a unidade de geração é adicionalmente configurada para: determinar se a velocidade de seleção da informação deixa de exceder um valor limite.
10. Unidade de processamento de informação, de acordo com a reivindicação 9, caracterizada pelo fato de que a unidade de geração é adicionalmente configurada para: gerar um sinal sucessivo configurado para fazer com que a unidade de exibição designe uma parte sucessiva da informação exibida, a parte sucessiva com um primeiro tamanho de unidade.
11. Unidade de processamento de informação, de acordo com a reivindicação 9, caracterizada pelo fato de que a unidade de geração é adicionalmente configurada para: gerar um sinal sucessivo configurado para fazer com que a unidade de exibição estenda uma dimensão da parte inicial da informação exibida, a extensão sendo com base na velocidade de seleção da informação.
12. Unidade de processamento de informação, de acordo com a reivindicação 9, caracterizada pelo fato de que: a parte inicial da informação exibida compreende um identificador representativo da informação adicional; e a unidade de geração é adicionalmente configurada para: gerar um sinal sucessivo configurado para fazer com que a unidade de exibição substitua o identificador exibido pela informação adicional.
13. Unidade de processamento de informação, de acordo com a reivindicação 9, caracterizada pelo fato de que a unidade de geração é adicionalmente configurada para: gerar um sinal sucessivo configurado para fazer com que a unidade de exibição designe uma parte sucessiva da informação exibida, a parte sucessiva com um tamanho de unidade menor que um tamanho de unidade correspondente da parte inicial.
14. Unidade de processamento de informação, de acordo com a reivindicação 8, caracterizada pelo fato de que a unidade de geração é adicionalmente configurada para: determinar se a velocidade de seleção da informação excede um valor limite.
15. Unidade de processamento de informação, de acordo com a reivindicação 14, caracterizada pelo fato de que a unidade de geração é adicionalmente configurada para: gerar um sinal sucessivo configurado para fazer com que a unidade de exibição designe uma parte sucessiva da informação exibida, a parte sucessiva com um segundo tamanho de unidade.
16. Unidade de processamento de informação, de acordo com a reivindicação 15, caracterizada pelo fato de que: o formato de exibição compreende um arranjo multidimensional; e a parte sucessiva compreende uma linha ou uma coluna da informação exibida.
17. Unidade de processamento de informação, de acordo com a reivindicação 14, caracterizada pelo fato de que a unidade de geração é adicionalmente configurada para: gerar um sinal sucessivo configurado para fazer com que a unidade de exibição substitua uma parte da informação exibida com um identificador representativo da parte da informação exibida.
18. Unidade de processamento de informação, de acordo com a reivindicação 14, caracterizada pelo fato de que: gera um sinal sucessivo para fazer com que a unidade de exibição designe uma parte sucessiva da informação exibida, a parte sucessiva com um tamanho de unidade maior que um tamanho de unidade correspondente da parte inicial.
19. Dispositivo de processamento de informação, de acordo com a reivindicação 8, caracterizado pelo fato de que: a unidade de detecção é adicionalmente configurada para determinar uma trajetória do movimento detectado; e a unidade de geração é adicionalmente configurada para gerar um sinal sucessivo configurado para fazer com que a unidade de exibição exiba uma indicação da trajetória.
20. Unidade de processamento de informação, de acordo com a reivindicação 4, caracterizada pelo fato de que a unidade de detecção é adicionalmente configurada para: receber, da segunda unidade sensora, um sinal indicativo da pressão de contato.
21. Unidade de processamento de informação, de acordo com a reivindicação 20, caracterizada pelo fato de que a unidade de geração é adicionalmente configurada para: gerar, com base pelo menos na pressão de contato, um sinal indicativo de uma seleção de usuário de uma parte da informação exibida.
22. Dispositivo de processamento de informação, de acordo com a reivindicação 20, caracterizado pelo fato de que a unidade de geração é adicionalmente configurada para: gerar um sinal configurado para fazer com que a unidade de exibição designe uma parte da informação exibida com base na pressão de contato.
23. Método implementado por computador para processar informação, caracterizado pelo fato de que o método compreende as etapas, realizadas por um processador, de: detectar uma velocidade de seleção da informação; gerar um sinal que especifica um formato de exibição com base na velocidade; e exibir a seleção de informação de acordo com o sinal.
BRPI1004706-9A 2009-11-20 2010-11-12 dispositivo e unidade de processamento de informação, e, método implementado por computador para processar informação BRPI1004706A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009265394A JP2011108186A (ja) 2009-11-20 2009-11-20 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
BRPI1004706A2 true BRPI1004706A2 (pt) 2012-06-26

Family

ID=43480854

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1004706-9A BRPI1004706A2 (pt) 2009-11-20 2010-11-12 dispositivo e unidade de processamento de informação, e, método implementado por computador para processar informação

Country Status (6)

Country Link
US (1) US8681111B2 (pt)
EP (1) EP2325739B1 (pt)
JP (1) JP2011108186A (pt)
CN (1) CN102073447B (pt)
BR (1) BRPI1004706A2 (pt)
RU (1) RU2010146175A (pt)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5999374B2 (ja) * 2011-09-05 2016-09-28 日本電気株式会社 携帯端末装置、携帯端末制御方法及びプログラム
CN102609115A (zh) * 2012-01-17 2012-07-25 埃派克森微电子(上海)股份有限公司 便携式电子装置
US9645724B2 (en) 2012-02-01 2017-05-09 Facebook, Inc. Timeline based content organization
US9235317B2 (en) 2012-02-01 2016-01-12 Facebook, Inc. Summary and navigation of hierarchical levels
US9557876B2 (en) 2012-02-01 2017-01-31 Facebook, Inc. Hierarchical user interface
JP6133554B2 (ja) * 2012-06-25 2017-05-24 京セラ株式会社 電子機器、機器及び方法
US9513769B2 (en) * 2012-08-23 2016-12-06 Apple Inc. Methods and systems for non-linear representation of time in calendar applications
JP2014071490A (ja) * 2012-09-27 2014-04-21 Fujitsu Ltd メール作成支援装置、メール作成支援方法、及びプログラム
JP6025482B2 (ja) * 2012-09-28 2016-11-16 富士ゼロックス株式会社 表示制御装置、画像表示装置、およびプログラム
JP5978104B2 (ja) * 2012-11-07 2016-08-24 シャープ株式会社 情報表示装置および情報表示方法
US11073979B2 (en) 2013-03-15 2021-07-27 Arris Enterprises Llc Non-linear navigation of data representation
JP2015026257A (ja) * 2013-07-26 2015-02-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10235038B2 (en) * 2013-09-03 2019-03-19 Samsung Electronics Co., Ltd. Electronic system with presentation mechanism and method of operation thereof
US9594470B2 (en) * 2013-09-12 2017-03-14 Blackberry Limited Methods and software for facilitating the selection of multiple items at an electronic device
JP2015072665A (ja) * 2013-10-04 2015-04-16 ソニー株式会社 表示制御装置、および記憶媒体
WO2015072150A1 (ja) * 2013-11-15 2015-05-21 パナソニックIpマネジメント株式会社 情報表示装置及び情報表示方法
JP6034281B2 (ja) * 2013-12-18 2016-11-30 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation オブジェクト選択方法、装置及びコンピュータ・プログラム
US9766781B2 (en) * 2014-04-28 2017-09-19 Google Inc. Methods, systems, and media for presenting related content in a user interface navigated using directional controls
KR102240640B1 (ko) * 2014-07-03 2021-04-15 엘지전자 주식회사 표시장치 및 이의 제어방법
JP6507514B2 (ja) * 2014-07-31 2019-05-08 株式会社リコー 情報処理装置、情報処理システム、情報処理方法、及びプログラム
CN104932802A (zh) * 2015-05-08 2015-09-23 深圳市万普拉斯科技有限公司 移动终端输入响应控制方法和移动终端
US10210722B2 (en) * 2015-06-15 2019-02-19 Immersion Corporation Haptic notification communication system
CN105426056B (zh) * 2015-10-23 2019-11-22 聚好看科技股份有限公司 一种桌面启动器Launcher菜单的展现方法和装置
CN105824495B (zh) * 2015-11-30 2019-08-20 维沃移动通信有限公司 一种单手操作移动终端的方法以及移动终端
CN105824559B (zh) * 2016-02-29 2019-12-27 维沃移动通信有限公司 一种误触识别及处理方法和电子设备
CN105808055A (zh) * 2016-02-29 2016-07-27 宇龙计算机通信科技(深圳)有限公司 一种桌面图标整理方法及智能终端
JP6746450B2 (ja) * 2016-09-21 2020-08-26 キヤノン株式会社 表示制御方法及び表示装置
JP2018055484A (ja) * 2016-09-29 2018-04-05 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示制御方法、及びコンピュータが実行可能なプログラム
KR102519800B1 (ko) * 2018-07-17 2023-04-10 삼성디스플레이 주식회사 전자 장치
DK180359B1 (en) * 2019-04-15 2021-02-03 Apple Inc Accelerated scrolling and selection

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0820924B2 (ja) * 1986-04-30 1996-03-04 株式会社東芝 筆跡表示装置
JPH11242675A (ja) 1998-02-24 1999-09-07 Sony Corp 携帯端末装置
US6392675B1 (en) * 1999-02-24 2002-05-21 International Business Machines Corporation Variable speed cursor movement
JP4631150B2 (ja) * 2000-10-31 2011-02-16 ソニー株式会社 情報処理装置及び方法、並びに記録媒体
GB2370208B (en) * 2000-12-18 2005-06-29 Symbian Ltd Computing device with user interface for navigating a contacts list
US8004496B2 (en) * 2002-01-08 2011-08-23 Koninklijke Philips Electronics N.V. User interface for electronic devices for controlling the displaying of long sorted lists
JP2005204754A (ja) * 2004-01-20 2005-08-04 Nintendo Co Ltd タッチパネル入力を用いたゲームシステム
JP4123382B2 (ja) * 2004-07-12 2008-07-23 ソニー株式会社 電子機器、電子機器における表示制御方法およびグラフィカル・ユーザ・インターフェース
US20060123360A1 (en) * 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US20070152959A1 (en) * 2005-12-29 2007-07-05 Sap Ag Pressure-sensitive button
US7556204B2 (en) * 2006-04-19 2009-07-07 Nokia Corproation Electronic apparatus and method for symbol input
KR100701520B1 (ko) * 2006-06-26 2007-03-29 삼성전자주식회사 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
KR100781706B1 (ko) * 2006-08-16 2007-12-03 삼성전자주식회사 휴대 단말기의 리스트 스크롤 장치 및 방법
US20080126933A1 (en) * 2006-08-28 2008-05-29 Apple Computer, Inc. Method and apparatus for multi-mode traversal of lists
KR100869712B1 (ko) * 2007-02-09 2008-11-21 (주)펜앤프리 필기 입력 방법 및 장치와 이를 이용하는 입력 시스템
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置
KR20080079007A (ko) * 2007-02-26 2008-08-29 삼성전자주식회사 사용자 명령이 입력가능한 전자장치
KR101406289B1 (ko) * 2007-03-08 2014-06-12 삼성전자주식회사 스크롤 기반 아이템 제공 장치 및 방법
JP2011501289A (ja) * 2007-10-16 2011-01-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド シンクライアント上で動作するユーザインターフェイスの高速で円滑なスクロール
US20090125824A1 (en) * 2007-11-12 2009-05-14 Microsoft Corporation User interface with physics engine for natural gestural control
KR100900295B1 (ko) * 2008-04-17 2009-05-29 엘지전자 주식회사 이동 디바이스와 이동 통신 시스템의 사용자 인터페이스방법

Also Published As

Publication number Publication date
US8681111B2 (en) 2014-03-25
RU2010146175A (ru) 2012-05-20
CN102073447B (zh) 2014-07-02
CN102073447A (zh) 2011-05-25
EP2325739A2 (en) 2011-05-25
EP2325739B1 (en) 2019-10-02
EP2325739A3 (en) 2015-05-20
JP2011108186A (ja) 2011-06-02
US20110122078A1 (en) 2011-05-26

Similar Documents

Publication Publication Date Title
BRPI1004706A2 (pt) dispositivo e unidade de processamento de informação, e, método implementado por computador para processar informação
US10216407B2 (en) Display control apparatus, display control method and display control program
US10459578B2 (en) Projection device, projection method and projection program
JP5942978B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9047006B2 (en) Electronic device system with information processing mechanism and method of operation thereof
US8745534B2 (en) Method of scrolling a hierarchy of layers based upon the number of manipulating bodies
US8760418B2 (en) Display control apparatus, display control method and display control program
US9864499B2 (en) Display control apparatus and control method for the same
US20080120571A1 (en) Method for displaying icons of digital items
US9513791B2 (en) Electronic device system with process continuation mechanism and method of operation thereof
JP5414764B2 (ja) 入力制御装置、入力制御方法、及び入力制御プログラム
KR20070006477A (ko) 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치
KR20130099186A (ko) 표시 장치, 유저 인터페이스 방법, 및 프로그램
KR20080082354A (ko) 스크롤 기반 아이템 제공 장치 및 방법
WO2018107421A1 (zh) 柔性显示屏的显示控制方法及装置
JP2013089202A (ja) 入力制御装置、入力制御方法、及び入力制御プログラム
JP2013137614A (ja) 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム
EP2843533A2 (en) Method of searching for a page in a three-dimensional manner in a portable device and a portable device for the same
JP2013089201A (ja) 入力制御装置、入力制御方法、及び入力制御プログラム
KR20090125377A (ko) 트리 구조의 메뉴 브라우징 방법 및 장치
JP2011252970A (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP6274132B2 (ja) 楽譜表示装置および楽譜表示方法
US11436776B2 (en) Information processing apparatus and control method thereof
JP6462519B2 (ja) 情報処理装置、情報処理プログラムおよび情報処理方法
JP6136987B2 (ja) データ検索装置

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 6A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2386 DE 27-09-2016 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.