BRPI1107115A2 - Aparelho e método de processamento de informação e programa de computador - Google Patents

Aparelho e método de processamento de informação e programa de computador Download PDF

Info

Publication number
BRPI1107115A2
BRPI1107115A2 BRPI1107115-0A BRPI1107115A BRPI1107115A2 BR PI1107115 A2 BRPI1107115 A2 BR PI1107115A2 BR PI1107115 A BRPI1107115 A BR PI1107115A BR PI1107115 A2 BRPI1107115 A2 BR PI1107115A2
Authority
BR
Brazil
Prior art keywords
input
unit
rear surface
information
operating
Prior art date
Application number
BRPI1107115-0A
Other languages
English (en)
Inventor
Yasuyuki Koga
Kazuyuki Yamamoto
Reiko Miyazaki
Tomoya Narita
Ikuo Yamano
Yasuhi Okumura
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of BRPI1107115A2 publication Critical patent/BRPI1107115A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

Aparelho e método de processamento de informação e programa de computador. É fornecido um aparelho de processamento de informação incluindo uma unidade de exibição fornecida em uma lado da superficie frontal do aparelho, para exibir informação, uma primeira unidade de detecção, fornecida em um lado da superficie traseira do aparelho, para detectar uma entrada de operação para uma superficie traseira, e uma segunda unidade de detecção, fornecida no lado da superficie frontal do aparelho, para detectar uma entrada de operação para a unidade de exibição, e uma unidade de determinação de informação de entrada de operação para fazer com que uma função correspondendo às entradas de operações a serem executadas, com base nos resultados da detecção da primeira unidade de detecção e da segunda unidade de detecção. Quando entrada de operação é detectada pela primeira unidade de detecção e a entrada de operação para operar um objeto exibido na unidade de exibição é detectado pela segunda unidade de detecção, a unidade de determinação de informação de entrada de operação executa a função correspondendo às entradas de operações detectadas pela primeira unidade de detecção e pela segunda unidade de detecção.

Description

“APARELHO E MÉTODO DE PROCESSAMENTO DE INFORMAÇÃO E PROGRAMA DE COMUTADOR” FUNDAMENTO A presente divulgação se refere a um aparelho de processamento de informação, um método de processamento de informação, e um programa de computador e mais particularmente, a um aparelho de processamento de informação tendo um sensor para detectar contato de uma ferramenta de operação pelo menos no lado oposto a superfície do exibidor , um método de processamento de informação do mesmo, e um programa de computador do mesmo Conforme controladores de GUIs (Interface de Usuário Gráfica) amplamente se difundem como os telefones inteligentes ou o similar, existem dispositivos de entrada tais como painéis de toque que usam um sensor.
Maioria dos dispositivos de entrada da técnica anterior tem uma configuração de acordo com a qual um sensor é fornecido somente na superfície frontal onde a unidade de exibição é fornecida. Com tais dispositivos de entrada, uma operação de entrada é efetuada na superfície frontal, e, por conseguinte, há uma questão que informação exibida na unidade de exibição é escondida pelo dedo e a operabilidade é reduzida. A operabilidade é esperada ser ainda reduzida pelo aumento na resolução da unidade de exibição que está ocorrendo nos tempos atuais. Ainda uma operação de entrada a partir da superfície frontal é facilmente vista porção uma outra pessoa, e quando entrando informação altamente confidencial tal como um a senha, por exemplo, é difícil esconder a informação que está sendo introduzida. Ainda mais, com o aumento nas variações de operação de toque nos tempos atuais, os movimentos (gestos) efetuados no momento da operação de entrada são mais prováveis de conflitar cada um com o outro, resultando em operações errôneas mais frequentes, e por meio disso reduzindo a operabilidade.
Nos anos recentes, painéis de toque capazes de simultaneamente detectar contato de múltiplos dedos, isto é, um assim chamado múltiplo toque, também estão começando a serem amplamente usados. Também, melhoramento na operabilidade também está sendo realizado fornecendo uma pluralidade de sensores para um dispositivo (pex, JP 2010-10806Γ, e JP 2009-157908a). Com tal um dispositivo, uma entrada em operação na superfície traseira é permitida fornecendo, como um painel de toque para detectar contato de um dedo, um dos sensores no lado oposto (superfície traseira) da unidade de exibição do dispositivo, e a tela de exibição não será escondida pelo dedo mesmo com um dispositivo pequeno. Ainda mais, fornecendo uma pluralidade de sensores, interação intuitiva que não era realizada com painéis de toque da técnica anterior, e expansão do sistema de operação podem ser realizados.
SUMÁRIO
Contudo, se um sensor é colocado na superfície traseira que não é vista pelo usuário no momento de uso e, por conseguinte, o usuário não está consciente disto, há uma questão que um problema com base em coordenadas absolutas, tal como uma por de tocar um botão específico exibido na superfície de exibição ou entrada de um caractere, se toma difícil. À luz do precedente descrito, é desejável fornecer uma aparelho de processamento de informação, um método de processamento de informação, e um programa de comutador que são novos e melhorados, e que são capazes de melhorar operação de entrada de um dispositivo usando um resultado de detecção de cada sensor de acordo com a posição arrumada dos sensores.
De acordo com uma modalidade da presente divulgação, é fornecido um aparelho de processamento de informação que inclui uma unidade de exibição, fornecida em um lado da superfície frontal do aparelho, para exibir informação, uma primeira unidade de detecção, fornecida em um lado da superfície traseira do aparelho, para detecta uma entrada de operação para uma superfície traseira, uma segunda unidade de detecção, fornecida no lado da superfície frontal do aparelho, para detectar uma entrada de operação para a unidade de exibição, e uma unidade de determinação de informação de entrada de operação pra fazer com que uma função correspondendo às entradas de operações sejam executadas, com base nos resultados da detecção da primeira unidade de detecção e da segunda unidade de detecção. Quando a entrada de operação é detectada pela primeira unidade de detecção e a entrada de operação para operar um objeto exibido na unidade de exibição é detectada pela segunda unidade de detecção, a unidade de determinação de informação de entrada de operação executa a função correspondendo às entradas de operações detectadas pela primeira unidade de detecção e pela segunda unidade de detecção. A entrada de operação a partir da primeira unidade de detecção não tem de ser exibida na unidade de exibição.
Ainda mais, a unidade de determinação de informação de entrada de operação por comutar informação de registro a ser entrada de acordo com o resultado da detecção da segunda unidade de detecção , de acordo com o resultado da detecção da primeira unidade de detecção.
Altemativamente, quando contato de uma ferramenta de operação é detectada pela primeira unidade de detecção, a unidade de determinação de informação de entrada de operação não tem de fazer com que uma área de exibição da unidade de exibição se mova se há uma entrada de operação a partir da segunda unidade de detecção.
Ainda mais, quando contato de uma ferramenta de operação é detectada pela primeira unidade de detecção, a unidade de determinação de informação de entrada de operação pode fazer com que uma primeira função seja executada de acordo com uma entrada de operação a partir da segunda unidade de detecção. Quando contato de uma ferramenta de operação não é detectada pela primeira unidade de detecção, a unidade de determinação de informação de entrada de operação pode fazer com que uma segunda função seja executada de acordo com a entrada de operação a partir da segunda unidade de detecção. O aparelho de processamento de informação pode ainda incluir uma unidade de processamento de autenticação para efetuar um processo de autenticação com base em uma entrada de operação pela primeira unidade de detecção, e uma unidade de armazenamento de informação de autenticação para armazenar informação de autenticação. A unidade de processamento de autenticação pode efetuar o processo de autenticação identificando informação de entrada, entrada a partir do lado da superfície traseira do aparelho com base no resultado da detecção da primeira unidade de detecção e comparando a informação de entrada com a informação de autenticação. A unidade de determinação de informação de entrada de operação pode fazer com que a função correspondendo às entradas de operações sejam executadas, com base em um resultado da autenticação da unidade de processamento de autenticação e com base nos resultados da detecção da primeira unidade de detecção e da segunda unidade de detecção. A unidade de processamento de autenticação pode identificar a informação de entrada, entrada a partir do lado da superfície traseira do aparelho, com base em um tempo de entrada da entrada de operação detectada pela primeira unidade de detecção.
Altemativamente, a unidade de processamento de autenticação pode identificar a informação de entrada, entrada a partir do lado da superfície traseira do aparelho, com base em uma direção de movimento de uma ferramenta de operação a partir de um ponto inicial, onde o ponto inicial é uma primeira posição detectada pela primeira unidade de detecção.
Ainda mais, a unidade de processamento de autenticação pode identificar a informação de entrada, entrada a partir do lado da superfície traseira do aparelho, com base em uma forma de uma pista de movimento de uma ferramenta de operação a partir de um ponto inicial, onde o ponto inicial é uma primeira posição detectada pela primeira unidade de detecção.
Altemativamente, a unidade de processamento de autenticação pode identificar a informação de entrada, entrada a partir do lado da superfície traseira do aparelho, com base em uma direção de movimento relativa e uma distância de movimento relativa de uma ferramenta de operação a partir de um ponto inicial, onde o ponto inicial é uma primeira posição detectada pela primeira unidade de detecção.
De acordo com uma outra modalidade da presente divulgação, é fornecido um método de processamento de informação que inclui detectar uma entrada de operação a partir de uma superfície traseira que é oposta a uma superfície na qual uma unidade de exibição para exibir informação é fornecida, detectando uma entrada de operação a partir de uma superfície frontal na qual a unidade de exibição é fornecida, e fazer com que uma função correspondendo às entradas de operações sejam executadas com base nos resultados de detecção da entrada de operação a partir da superfície traseira e da entrada de operação a partir da superfície frontal. Quando a entrada de operação a partir da superfície traseira é detectada e a entrada de operação, a partir da superfície frontal, para operar ura objeto exibido na unidade de exibição é detectado, a função correspondendo à entrada de operação a partir da superfície traseira e a entrada de operação a partir da superfície frontal são executadas.
De acordo com uma outra modalidade da presente divulgação, é fornecido um programa de computador para fazer com que um computador funcione como um aparelho de processamento de informação que inclui uma unidade de controle detecção para fazer com que uma primeira unidade de detecção para detectar uma entrada de operação a partir de uma superfície traseira que é oposta a uma superfície na qual uma unidade de exibição para exibir informação é fornecida para detectar uma entrada de operação a partir da superfície traseira e uma segunda unidade de detecção para detectar um entrada de operação a partir da superfície frontal na qual a unidade de exibição é fornecida para detectar uma entrada de operação a partir da superfície frontal, e uma unidade de determinação de informação de entrada de operação para fazer com que uma função correspondendo às entradas de operações sejam executadas, com base nos resultados de detecção da entrada de operação a partir da superfície traseira e a entrada de operação a partir da superfície frontal. Quando a entrada de operação a partir da superfície traseira é detectada e a entrada de operação, a partir da superfície frontal, para operar um objeto exibido na unidade de exibição é detectado, o aparelho de processamento de informação executa a função correspondendo à entrada de operação a partir da superfície traseira e a entrada de operação a partir da superfície frontal O programa é capaz de fazer com que um computador funcione com o aparelho de processamento de informação descrita acima estando armazenada em um dispositivo de armazenamento fornecido no computador, estando carregado em uma CPU fornecida no computador e sendo executado. Ainda mais, um meio de gravação legível de computador no qual o programa está gravado é também fornecido. O meio de gravação é um disco magnético, um disco óptico, um disco magneto óptico (MO) , ou o similar, por exemplo. Ainda mais, o disco magnético pode ser um disco compacto (CD), um disco versátil digital passível de gravar (DVD-R), um disco Blu-ray (BD: marca comercial registrada), ou o similar.
De acordo com a modalidade da presente divulgação descrito acima, uma aparelho de processamento de informação, um método de processamento de informação, e um programa de computador que são capazes de melhorar operabilidade da entrada de um dispositivo usando um resultado da detecção de cada sensor de acordo com a posição arrumada dos sensores podem ser fornecidos.
DESCRIÇÃO BREVE DOS DESENHOS
Fig. 1 é um diagrama em perspectiva esquemático mostrando um lado de exibição de um terminal de processamento de informação de acordo com uma primeira modalidade da presente divulgação;
Fig. 1 é um diagrama em perspectiva esquemático mostrando uma superfície traseira de um terminal de processamento de informação de acordo com a modalidade;
Fig. 3 é um diagrama em bloco funcional mostrando uma configuração funcional do terminal de processamento de informação de acordo com a modalidade;
Fig. 4 é um diagrama explicativo mostrando um estado onde uma entrada de batida de leve ou de longa pressão é efetuada na superfície traseira;
Fig. 5 é um fluxograma mostrando um processo de autenticação com base em um resultado de detecção de uma batida de leve ou uma longa pressão em uma unidade de detecção de superfície traseira;
Fig. 6 é um diagrama explicativo mostrando um estado onde uma entrada de gráfico é efetuada na superfície traseira;
Fig. 7 é um fluxograma mostrando um processo de autenticação com base em um resultado de detecção de uma entrada de gráfico na unidade de detecção de superfície traseira;
Fig. 8 é um fluxograma mostrando um processo de execução de aplicação com base em um resultado de detecção de uma entrada de gráfico na unidade de detecção de superfície traseira;
Fig. 9 é um diagrama explicativo mostrando um estado onde um objeto exibido é fixo a partir do lado de superfície traseira, e uma entrada de operação para operar o objeto é efetuada no lado da superfície traseira;
Fig. 10 é um fluxograma mostrando o processo da entrada de operação da Fig. 9;
Fig. 11 é um diagrama explicativo mostrando um estado onde conteúdo de exibição considerando um objeto é comutado a partir do lado da superfície traseira, e uma entrada de operação para operar o objeto é efetuada no lado da superfície frontal;
Fig. 12 é um fluxograma mostrando o processo da entrada de operação da Fig. 11.
Fig. 13 é um diagrama explicativo mostrando um estado onde um objeto é exibido por uma entrada de operação no lado da superfície traseira, e uma entrada de operação para operar o objeto é efetuado no lado da superfície frontal;
Fig. 14 é um fluxograma mostrando o processo da entrada de operação da Fig. 13;
Fig. 15 é um diagrama explicativo mostrando um estado onde uma pluralidade de objetos são arrumados em uma unidade de exibição de uma terminal de processamento de informação de acordo com uma segunda modalidade da presente divulgação;
Fig. 16 é um diagrama explicativo descrevendo uma entrada de operação para mover um objeto exibido na unidade de exibição;
Fig. 17 é um diagrama explicativo descrevendo um exemplo de operações de toque no mesmo objeto;
Fig. 18 é um diagrama explicativo descrevendo um exemplo de determinação de operação de toque no mesmo objeto;
Fig. 19 é um fluxograma mostrando um exemplo do processo de entrada de operação para um objeto com base nas Figs. 15 à múltiplas antenas de transmissão 18;
Fig. 20 é um diagrama explicativo descrevendo uma entrada de operação para mover os dedos operando um objeto em uma direção oposta;
Fig. 21 é um diagrama explicativo descrevendo um processo de entrada de operação de diminuir ou aumentar, relativo à quantidade de movimento de um alvo de operação, a quantidade de movimento de um objeto que é para ser movido de acordo com a operação no alvo de operação;
Fig. 22 é um diagrama explicativo para descrever uma função de aproximação / afastamento com base em uma entrada de operação no conteúdo exibido a partir da superfície frontal e a superfície traseira; e Fig. 23 é uma diagrama de configuração de hardware mostrando uma configuração de hardware de exemplo do terminal de processamento de informação. DESCRIÇÃO DETALHADA DAS MODALIDADES Daqui em diante, modalidades preferidas da presente divulgação serão descritas em detalhe com referência aos desenhos anexos. Note que, nesta especificação e nos desenhos anexos, elementos estruturais que tem substancialmente a mesma função e configuração são denotados com os mesmos numerais de referência, e explicação repetida desses elementos estruturais é omitido.
Adicionalmente, uma explicação será dada na seguinte ordem. <1. Primeira Modalidade> [1-1. Exemplo de Aparência de Terminal de Processamento de Informação] [1-2. Configuração Funcional] [1-3. Utilização da Unidade de Detecção da Superfície Traseira (1-3-1. Uso no Tempo de Entrada de Senha) (1) No Caso de Usar Batida de Leve ou Longa Pressão como Informação de Autenticação (2) No Caso de Usar Entrada de Gráfico como Informação de Autenticação (1-3-2. Expansão do Sistema Operacional através da Combinação com Unidade de Detecção de Superfície Traseira) (1) Entrada de Operação para Fixar Objeto Exibido do Lado da Superfície Traseira e Operar o Objeto do Lado da Superfície Frontal. (2) Entrada de Operação para Comutar Conteúdo de Exibição considerando o Objeto do Lado da Superfície Traseira e Operar o Objeto do Lado da Superfície Frontal. (3) Entrada de Operação para Fazer com que o Objeto a ser Exibido pela Entrada de Operação no Lado da Superfície Traseira e Operar o Objeto do Lado da Superfície Frontal. <2. Segunda Modalidade> [2-1. Visão Geral Funcional do Terminal de Processamento de Informação] [2-2. Processo de Entrada de Operação através da Combinação de Resultados de Detecção da Unidade de Detecção da Superfície Frontal e Unidade de Detecção da Superfície Traseira] (2-2-1. Execução da Função por Detecção Simultânea) (1) Explicação de Processo para Executar Pré-determinada Função no Tempo de Detecção Simultânea (2) Fluxo do Processo (3) Exemplo Modificado (2-2-2. Função de Aproximação / Afastamento com base na Entrada de Operação para Conteúdo Exibido a partir da Superfície Frontal e Superfície Traseira) <3. Exemplo de Configuração de Hardware <1. Primeira Modalidade [1-1. Exemplo de Aparência do Terminal de Processamento de Informação] Primeiro, uma configuração esquemática de um terminal de processamento de informação 100 de acordo com uma primeira modalidade da presente divulgação será descrito com referência às Figs. 1 e 2. Adicionalmente, Fig. 1 é um diagrama em perspectiva esquemático mostrando um lado de exibição do terminal de processamento de informação 100 de acordo com a presente modalidade. Fig. 2 é um diagrama em perspectiva esquemático mostrando um lado da superfície traseira do terminal de processamento de informação 100 de acordo com a presente modalidade. O terminal de processamento de informação 100 de acordo com a presente modalidade são fornecido, como mostrado na Fig. 1, com um áudio de exibição 120 em uma superfície (superfície de exibição) de um compartimento 110, e é fornecido como mostrado na Fig. 2, com um sensor de toque 130 que é capaz de detectar contato de uma ferramenta de operação tal como um dedo ou o similar na superfície (superfície traseira)_oposta da superfície de exibição.Como a unidade de exibição 120, um exibidor de cristal líquido, um exibidor de EL orgânico, ou o similar pode ser usado, por exemplo. Também, como o sensor de toque 130, um sensor de toque capacitivo pode ser usado. É suficiente que o terminal de processamento de informação 100 de acordo com a presente modalidade inclui, pelo menos no lado da superfície traseira, o sensor de toque 130 para detectar uma entrada de operação, mas também pode incluir um sensor de toque no lado de exibição. No seguinte, uma explicação será dada assumindo que o terminal de processamento de informação 100 de acordo com a presente modalidade inclui um sensor de toque nível de serviço superfície frontal e na superfície traseira. [1-2. Configuração Funcional] A seguir, uma configuração funcional do terminal de processamento de informação 100 de acordo com a presente modalidade será descrita com base na Fig. 3. Fig. 3 é um diagrama em bloco funcional mostrando uma configuração funcional do terminal de processamento de informação 100 de acordo com a presente modalidade. Conforme mostrado na Fig. 3, o terminal de processamento de informação 100 de acordo com a presente modalidade inclui uma unidade de exibição de detecção 140, uma unidade de detecção de unidade de detecção de superfície traseira 143, uma unidade de processamento de autenticação unidade de processamento de autenticação 144, uma unidade de determinação de informação de entrada de operação 145, uma unidade de execução de função 146, um unidade de processamento de exibição 147 , um unidade de armazenamento de informação de autenticação 148, e uma unidade de armazenamento de configuração 149 . A unidade de exibição de detecção 140 é fornecida em uma superfície do terminal de processamento de informação 100, e é, conforme mostrado na Fig. 3, formada a partir de uma unidade de detecção de superfície frontal 141 e uma unidade de exibição 142. A superfície do terminal de processamento de informação 100 na qual a unidade de exibição de detecção 140 é fornecida é a superfície frontal. À unidade de detecção de superfície frontal 141 é um sensor para detectar contato de uma ferramenta d entrada de operação na superfície frontal do terminal de processamento de informação 100. O resultado de detecção da unidade de detecção de superfície frontal 141 é emitido para a unidade de determinação de informação de entrada de operação 145 que será descrita mais tarde. A unidade de exibição 142 é um dispositivo de saída para exibir informação, e corresponde à unidade de exibição 120 mostrado na Fig. 1. A unidade de exibição 142 exibe informação com base na entrada de informação de exibição pela unidade de processamento de exibição 147. A unidade de detecção de superfície frontal 141 pode ser fornecida sendo empilhada com a unidade de exibição 142, por exemplo. Por meio disso, quando uma ferramenta de operação é feita para contatar e mover na superfície de exibição da unidade de exibição 142, o conteúdo de operação pode ser apresentado para um usuário em uma maneira fácil de entender,por exemplo, movendo um objeto ou o similar exibido na unidade de exibição 142 de acordo com o movimento da ferramenta de operação . Também, ao usuário é permitido intuitivamente operar um objeto exibido na unidade de exibição unidade de exibição 142, e a operabilidade pode ser melhorada. A unidade de detecção de superfície traseira 143 é fornecida na superfície traseira da terminal de processamento de informação terminal de processamento de informação 100, e é um sensor para detectar contato da ferramenta de operação na superfície traseira. O resultado de detecção da unidade de detecção de superfície traseira 143 é saída para a unidade de processamento de autenticação 144 e a unidade de determinação de informação de entrada de operação 145 que será descrita mais tarde. A unidade de processamento de autenticação 144 efetua um processo de autenticação do terminal de processamento de informação 100 com base no resultado de detecção da unidade de detecção de superfície traseira 143. A unidade de processamento de autenticação 144 compara informação de entrada com base no resultado de detecção da unidade de detecção de superfície traseira 143 e informação de autenticação armazenada na unidade de armazenamento de informação de autenticação 148 descrita mais tarde, e determina se essas coincidem cada uma com a outra. No caso que é determinado que a informação de entrada e a informação de autenticação coincidem, a unidade de processamento de autenticação 144 configura o terminal de processamento de informação 100 para um estado permitido. Por outro lado, no caso que é determinado que a informação de entrada e a informação de autenticação não coincidem, a unidade de processamento de autenticação 144 configura o terminal de processamento de informação 100 para um estado desabilitado. A unidade de determinação de informação de entrada de operação 145 determina o conteúdo da entrada de operação que foi entrado para o terminal de processamento de informação 100, com base em cada resultado detectado da unidade de detecção de superfície frontal 141 e da unidade de detecção de superfície traseira 143 . A unidade de determinação de informação de entrada de operação 145 determina que tipo de entrada de operação foi entrado, com base na presença / ausência de contato da ferramenta de operação ou o movimento da ferramenta de operação detectada por cada unidade de detecção. Então, a unidade de determinação de informação de entrada de operação 145 se refere à unidade de armazenamento de configuração 149 que será descrita mais tarde, identifica a função associada com a informação de entrada de operação que foi determinada, e emite uma instrução para execução da função identificada para a unidade de execução de função 146. A unidade de execução de função 146 executa a função identificada pela unidade de determinação de informação de entrada de operação unidade de determinação de informação de entrada de operação 145. Por exemplo, a unidade de execução de função 146 faz com que uma aplicação associada com uma pré-determinada entrada de operação a ser executada. Neste momento, a unidade de execução de função 146 também pode adquirir informação necessária para a execução da função da unidade de armazenamento de configuração 149. Também, no caso de mudar o modo de exibição de um objeto ou o similar exibido na unidade de exibição 142 ou de mudar o conteúdo de exibição, por exemplo, a unidade de execução de função 146 instrui a unidade de processamento de exibição 147 para mudar a informação de exibição. A unidade de processamento de exibição 147 efetua o processo de gerar a informação de exibição a ser exibida na unidade de exibição 142. A unidade de processamento de exibição 147 gera a informação de exibição na qual o conteúdo de exibição é mudado para um formato de exibição na unidade de exibição 142. com base na instrução a partir da unidade de execução de função 146 ou uma instrução a partir de uma outra unidade de função (não mostrado). A informação de exibição gerada pela unidade de processamento de exibição 147 é emitido para a unidade de exibição 142, e conteúdo de exibição com base na informação de exibição é exibida na unidade de exibição 142. A unidade de armazenamento de informação de autenticação 148 armazena informação de autenticação que é usada para o processo de autenticação pela unidade de processamento de autenticação 144. Na presente modalidade, um gesto é usado como a informação de autenticação. A informação de autenticação é configurada como informação única para cada usuário ou cada terminal, por exemplo, e é armazenada na unidade de armazenamento de informação de autenticação 148 em associação com o alvo de autenticação (usuário, terminal, ou o similar). Com relação a configuração da informação de autenticação, o usuário pode entrar um gesto que é a informação de autenticação e associar a mesma com o alvo de autenticação, ou o usuário pode associar informação indicando o conteúdo de um gesto que é configurado antecipadamente com o alvo de autenticação. O gesto armazenado na unidade de armazenamento de informação de autenticação 148 como a informação de autenticação é coincidido com o conteúdo de uma entrada de operação que é entrado pelo usuário movendo a ferramenta de operação. A unidade de armazenamento de configuração 149 armazena informação necessária para determinação de informação de entrada de operação, execução de uma função associada com a informação de entrada de operação, execução da função, e o similar. Esses pedaços de informação podem ser configurados antecipadamente ou podem ser configuradas pelo usuário quando necessário. Ainda mais, uma memória (não mostrada) para temporariamente armazenar informação necessária no momento de efetuar cada processo também pode ser fornecido no terminal de processamento de informação 100.
No precedente, a configuração funcional do terminal de processamento de informação 100 de acordo com a presente modalidade foi descrita. [1-3. Utilizado da Unidade de Detecção de Superfície Traseira] O terminal de processamento de informação 100 de acordo com a presente modalidade inclui a unidade de detecção de superfície traseira 143 para detectar contato de ferramenta de operação na superfície traseira. Conforme descrito acima, uma operação na superfície traseira tem um recurso que, diferente de uma operação normal na superfície frontal, a operação é difícil para as pessoas próximas verem. Assim sendo, o terminal de processamento de informação 100 de acordo com a presente modalidade toma vantagem de ta recurso da unidade de detecção de superfície traseira 143 e usa a unidade de detecção de superfície traseira 143 para entrada da informação altamente confidencial, tal como uma entrada de senha.
Também, a operação na superfície traseira pode ser entrada independentemente da operação normal na superfície frontal. Consequentemente, uma função de atalho registrado antecipadamente pode ser executada na aplicação, por exemplo, no caso de uma determinada operação é detectada na superfície traseira. A operação pode ser por meio disso simplificada sem ser conflitante com a operação normal na superfície frontal. Neste momento, a entrada de operação na superfície traseira não é visível para o usuário efetuar a entrada de operação, mas com a o terminal de processamento de informação 100 de acordo com a presente modalidade, a entrada de operação na superfície traseira é ela própria tomada simples, e assim sendo, a operabilidade é prevenida de ser reduzida mesmo se a entrada de operação mão é visível. Também, entrada de operação da superfície traseira não é exibida na unidade de exibição 142, e a confidência da informação é mantida. A seguir, um exemplo de entrada de operação para o terminal de processamento de informação 100 de acordo com a presente modalidade que usa a unidade de detecção de superfície traseira 143 será descrita. (1 -3-1. Uso no Tempo de Entrada de Senha) Primeiro, uma processo de autenticação com base em uma entrada de operação para a unidade de detecção de superfície traseira 143 do terminal de processamento de informação 100 de acordo com a presente modalidade será descrita com base nas Figs. 4 a 7. Adicionalmente, Fig. 4, é um diagrama explicativo mostrando um estado onde uma entrada de batida de leve ou de longa pressão é efetuada na superfície traseira. Fig. 5 é um fluxograma mostrando um processo de autenticação com base em um resultado de detecção de uma batida de leve ou de uma longa pressão na unidade de detecção de superfície traseira 143. Fig. 6 é um diagrama explicativo mostrando um estado onde uma entrada de gráfico é efetuada na superfície traseira. Fig. 7 é um fluxograma mostrando um processo de autenticação com base em um resultado de detecção de uma entrada de gráfico na unidade de detecção de superfície traseira 143.
Uma senha usada para autenticação de usuário ou o similar é informação altamente confidencial, e é informação com relação a qual o movimento da mão efetuando a operação de entrada da senha ou o conteúdo de entrada não deve ser visto pela pessoa próxima. Na presente modalidade, a entrada de senha é efetuada no lado da superfície traseira onde a entrada de operação é difícil para a pessoa próxima ver, e a entrada de operação efetuada no lado da superfície traseira é detectada pela unidade de detecção de superfície traseira 143. Neste momento, já que ao usuário também não é permitido ver a entrada de operação na superfície traseira, informação que é fácil de entrar é usada com a senha. (1) No Caso de Usar Batida de Leve ou Longa Pressão como Informação de Autenticação Informação que é fácil para entrar a despeito da entrada de operação não sendo capaz de ser visto pode ser informação de entrada de operação de variar tempos de entrada na superfície traseira, tal comi batidas de leve, longas pressões, ou o similar, por exemplo. E duas batida de leve que o usuário efetuou mudando o tempo de contato do dedo na superfície traseira podem ser consideradas como a informação de entrada de operação. Mudança do tempo do contato do dedo na superfície traseira pode ser facilmente efetuada mesmo se o usuário não está olhando a operação de entrada. O processo de autenticação para um caso de entrada de senha através de uma entrada de batida de leve ou de longa pressão é como mostrado na Fig. 5. Isto é, primeiro , a unidade de exibição 142 é feita para exibir uma tela de entrada de senha (SI00). A tela de entrada de senha pode ser exibida efetuando uma pré-determinada entrada de operação, por exemplo, pressionando um pré-determinado botão (não mostrado) fornecido no terminal de processamento de informação 100 ou efetuando a partir da superfície frontal uma entrada de operação para exibir a tela de entrada de senha.
Quando a tela de entrada de senha é exibida, uma entrada de operação na superfície traseira é detectada pela unidade de detecção de superfície traseira 143 (SI02). Isto é, o usuário verifica que a tela de entrada de senha é exibida e entra a senha a partir da superfície traseira, e a senha de entrada é detectada pela unidade de detecção de superfície traseira 143. O resultado de detecção da unidade de detecção de superfície traseira 143 é emitido para a unidade de processamento de autenticação 144.
Então, a unidade de processamento de autenticação 144 compara o tempo de entrada que é o tempo que o dedo estava em contato com a superfície traseira e um pré-determinado tempo (um tempo limite) com base no resultado de detecção da unidade de detecção de superfície traseira 143 (SI04). O tempo máximo que pode ser considerado com uma entrada de batida de leve pode ser configurado como o tempo limite por exemplo. No caso o tempo de entrada é determinado na etapa S104 para ser mais curto do que o tempo limite, a unidade de processamento de autenticação 144 assume que uma entrada de batida leve foi efetuada (SI06). Por outro lado, no caso do tempo de entrada ser determinado na etapa S104 para se refere o tempo limite ou mais longo, a unidade de processamento de autenticação 144 assume que uma entrada de longa pressão foi efetuada (SI08) Então, a unidade de processamento de autenticação 144 compara a informação de autenticação armazenada na unidade de armazenamento de informação de autenticação 148 e a informação de entrada de operação que é baseada no resultado de detecção da unidade de detecção de superfície traseira 143, e determina se essas coincidem cada uma com a outra ou não (SI 10). A informação de entrada de operação é formada a partir de entrada(s) detectadas pela unidade de detecção de superfície traseira 143 após a exibição da tela de entrada de senha, e uma série de entradas de operação entra até a entrada de senha ser determinada ser completa é considerada como um pedaço de informação de entrada de operação. Adicionalmente, cada operação formando a informação de entrada de operação, tal como uma entrada de batida de leve ou um entrada de longa pressão, é referido como informação de entrada. Isto é, a informação de entrada de operação é formada a partir de um ou mais pedaços de informação de entrada.
No caso que é determinado que a informação de entrada de operação e a informação de autenticação coincide cada uma com a outra, a unidade de processamento de autenticação 144 libera o bloqueio da senha e faz com que a unidade de exibição 142 exiba uma tela original que é para ser exibida primeiro após o terminal de processamento de informação 100 ser habilitado (S112).
Por outro lado, no caso que é determinado que a informação de entrada de operação e a informação de autenticação não coincidem cada uma com a outra, a unidade de processamento de autenticação 144 determina se o número de pedaços de informação de entrada formando a informação de entrada de operação excede um número pré-definido de entradas (SI 14). No caso que o número de pedaços de informação de entrada excede o número pré-definido de entradas na etapa SI 14, o número de entradas é demais, e que um erro de autenticação ocorreu é exibido na unidade de exibição 142, e o usuário é notificado do efeito (SI 16). Então, a unidade de processamento de autenticação 144 re-configura a informação de entrada de operação formada a partir dos pedaços de informação de entrada que foram entrados, e efetua o processo de novo a partir da etapa SI00. Por outro lado, no caso que o número de pedaços de informação de entrada não excede o pré-definido número de entradas na etapa SI 14, é decidido que a senha está ainda sendo entrada, e o processo é repetido a partir da etapa SI02.
No precedente, o processo de autenticação para um caso onde entrada de senha é efetuada por uma entrada de batida de leve ou de longa pressão fi descrito. Variando o tempo de contato, tal como uma batida de leve ou longa pressão, do dedo na superfície traseira e entrar a informação de entrada de operação, a operação de entrada de senha do usuário será menos provável de ser visto pelo pessoal próximo e a confidência da senha pode ser mantido. Também, a operação de entrada do usuário é simples, e assim sendo a operabilidade não é reduzida devido a não ser capaz de ver a operação de entrada. (2) No Caso de Usar Entrada de Gráficos como Informação de Autenticação Como um outro exemplo da informação de autenticação, um gráfico desenhado pelo dedo na superfície traseira pode ser considerado como a informação de autenticação. Por exemplo, conforme mostrado na Fig. 6 , é assumido que o usuário move o dedo que está em contato com o superfície traseira do terminal de processamento de informação 100 e desenha um circulo. A pista do dedo reconhecida pelo resultado de detecção da unidade de detecção de superfície traseira 143 é considerada a informação de entrada de operação. Desenho de um gráfico pode ser facilmente efetuado sem olhar a operação de entrada, como com a entrada de batida de leve e de longa pressão descrita acima. O processo de autenticação no caso de entrada de senha através de uma entrada de gráfico é conforme mostrado na Fig. 7. Adicionalmente, explicação detalhada em um processo que é o mesmo que o processo mostrado na Fig. 5 é omitido. Primeiro, o terminal de processamento de informação 100 é feito para exibe uma tela de entrada de senha na unidade de exibição 142 (S120). Quando a tela de entrada de senha é exibida, uma entrada de operação na superfície traseira é detectada pela unidade de detecção de superfície traseira 143 (SI22). O resultado de detecção da unidade de detecção de superfície traseira 143 é emitido para a unidade de processamento de autenticação 144. os processo de SI20 e SI22 podem ser efetuados na mesma maneira que etapas SI00 e SI03 na Fig. 5.
Então, a unidade de processamento de autenticação 144 compara, com base no resultado de detecção da unidade de detecção de superfície traseira 143, a pista do movimento do dedo na superfície traseira e gráficos armazenados na unidade de armazenamento de informação de autenticação 148, e pesquisa pelo gráfico mais coincidente (SI24). A unidade de processamento de autenticação 144 sequencialmente compara os gráficos armazenados na unidade de armazenamento de informação de autenticação 148 e a informação de entrada de operação que é a pista do dedo identificada com base no resultado de detecção da unidade de detecção de superfície traseira 143.
Por exemplo, a unidade de processamento de autenticação 144 determina se a informação de entrada de operação é próxima de um círculo (S126) e quando a informação de entrada de operação é determinada ser próxima de um círculo, é assumido que um gráfico “O” é entrado (SI28). Também, a unidade de processamento de autenticação 144 determina se a informação de entrada de operação é próxima de um triângulo (SI30), e quando a informação de entrada de operação é determinada ser próxima de um triângulo, é assumido que um gráfico “Δ” é entrado (SI32). Ainda mais, a unidade de processamento de autenticação 144 determina se a informação de entrada de operação é próxima de um quadrado (SI34), e quando a informação de entrada de operação é determinada ser próximo de um quadrado, é assumido que um gráfico é entrada (SI36). Nesta maneira, a unidade de processamento de autenticação 144 sequencialmente compra a informação de entrada de operação e os gráficos que são os pedaços de informação de autenticação armazenados na unidade de armazenamento de informação de autenticação 148, e identifica um gráfico coincidente.
Então, a unidade de processamento de autenticação 144 determina se há ou não informação de autenticação (gráfico) que a informação de entrada de operação (SI38). No caso que é determinado na etapa SI38 que há informação de autenticação (gráfico) a qual a informação de entrada de operação coincide, a unidade de processamento de autenticação 144 libera o bloqueio da senha, e faz com que a unidade de exibição 142 exiba uma tela original que é para ser exibida primeiro após o terminal de processamento de informação 100 ser habilitado (S140).
Por outro lado, no caso que é determinado que não há informação de autenticação (gráfico) a qual a informação de entrada de operação coincide, a unidade de processamento de autenticação 144 determina se o número de pedaços de informação de entrada formando a informação de entrada de operação excede o pré-definido número de entradas (SI42). A informação de entrada do presente exemplo se refere à pista a partir do ponto de início onde o dedo contatou a superfície traseira e o ponto final onde o dedo é removido da superfície traseira, e a informação de entrada de operação é tal informação de entrada ou uma combinação da mesma. No caso que o número de pedaços de informação de entrada excede o pré-definido número de entradas na etapa SI42, o número de entradas é demais e que um erro de autenticação ocorreu na unidade de exibição 142, e o usuário é notificado do efeito (SI44). Então, a unidade de processamento de autenticação 144 re-confígura a informação de entrada de operação formada dos pedaços de informação de entrada que foram entrados e efetua de novo o processo da etapa SI20. Por outro lado, no caso que o número de pedaços da informação de entrada não excede o pré-definido número de entradas na etapa S142, é decidido que a senha está ainda sendo entrada, e o processo é repetido a partir da etapa SI22.
No precedente, o processo de autenticação para um caso onde entrada de senha é efetuada por uma entrada de gráfico foi descrito. Entrando a informação de entrada de operação a partir da superfície traseira, a operação de entrada de senha do usuário será menos provável para ser visto pela pessoa próxima, e a confidência da senha pode ser mantida. Também, já que a operação de entrada do usuário é feita simples usando uma gráfico simples tal com um círculo, um triângulo, um quadrado, e o similar como a senha, a operabilidade não é reduzido devido a não ser capaz de ver a operação de entrada.
Adicionalmente, o processo efetuado usando o resultado de detecção da unidade de detecção de superfície traseira 143 pode ser usado não somente para entrada de senha descrita acima, mas também para entrada de comando para execução de uma pré-determinada aplicação, por exemplo. Um fluxograma para um caso onde o processo de autenticação de (2) descrita acima com base no resultado de detecção para a entrada de gráfico na unidade de detecção de superfície traseira é aplicado para um processo de execução de aplicação é mostrada na Fig. 8. Na Fig. 8, seções onde os mesmos processos que a Fig. 7 são efetuados,são de notados com os mesmos numerais de referência que a Fig. 7.
Conforme mostrado na Fig. 8, com respeito ao processo para o caso de efetuar entrada de comando por uma entrada de gráfico para executar uma aplicação, primeiro , uma entrada de operação para a superfície traseira é detectada pela unidade de detecção de superfície traseira 143 (SI22). O resultado de detecção da unidade de detecção de superfície traseira 143 é emitido para a unidade de determinação de informação de entrada de operação 145. A unidade de determinação de informação de entrada de operação 145 compara, com base no resultado de detecção da unidade de detecção de superfície traseira 143, a pista do movimento do dedo na superfície traseira e gráficos armazenados na unidade de armazenamento de configuração 149, e pesquisa pelo gráfico coincidente (SI24).
Isto é, a unidade de determinação de informação de entrada de operação 145 sequencialmente compara os gráficos armazenados na unidade de armazenamento de configuração 149 e a informação de entrada de operação que é a pista do dedo identificado com base no resultado de detecção da unidade de detecção de superfície traseira 143. Por exemplo, conforme mostrado nas etapas S126 's S136, a unidade de determinação de informação de entrada de operação 145 compara a informação de entrada de operação e os gráficos armazenados na unidade de armazenamento de configuração 149, tal como gráficos “ο”, “Δ “e e identifica um gráfico coincidente.
Então, a unidade de determinação de informação de entrada de operação 145 determina se há ou não informação registrados (gráfico) armazenado na unidade de armazenamento de configuração 149 a qual a informação de entrada de operação coincide (SI38). No caso que é determinado na etapa SI38 que há informação registrada (gráfico) a qual a informação de entrada de operação coincide, a unidade de determinação de informação de entrada de operação 145 instrui a unidade de execução de função 146 para ativar uma pré-determinada aplicação que é associada com a informação registrada (SI46). Além da aplicação, a informação registrada também pode estar associada com uma pré-determinada função, e a pré-determinada função que é associada com a informação registrada pode ser executada pela unidade de determinação de informação de entrada de operação 145.
Por outro lado, no caso que é determinado que não há informação registrada (gráfico) a qual a informação de entrada de operação coincide, a unidade de determinação de informação de entrada de operação 145 re-configura a informação de entrada de operação formada a partir dos pedaços de informação de entrada que foram entrados, e efetua de novo o processo a partir da etapa SI22.
Nesta maneira, uma entrada de comando para execução de uma aplicação também pode ser efetuada por uma entrada de gráfico. O usuário é por meio disso possibilitado de executar uma aplicação com uma simples operação de entrada, e a operabilidade do terminal pode ser melhorada. (1-3-2. Expansão do Sistema Operacional através da Combinação com Unidade de Detecção de Superfície Traseira) A seguir, no caso a unidade de detecção de superfície frontal 141 é fornecida na superfície frontal do terminal de processamento de informação 100, como na presente modalidade, combinação com o resultado de detecção da unidade de detecção de superfície traseira 143 permite redução no número de etapas de operação na superfície frontal, comparada com técnicas relacionadas de acordo com a qual somente operação na superfície frontal é possível. Também, mesmo se a unidade de detecção de superfície frontal 141 não é compatível com múltiplos toques capaz de detectar contato de uma pluralidade de ferramentas de operação, combinando os resultados de detecção da unidade de detecção de superfície frontal 141 e da unidade de detecção de superfície traseira 143 permite várias entradas de operação. A seguir, um método de entrada de operação do terminal de processamento de informação 100 de acordo com a presente modalidade com base na combinação nos resultados de detecção da unidade de detecção de superfície frontal 141 e da unidade de detecção de superfície traseira 143 será descrito com base nas Figs. 9 à 14. Fig. 9 é um diagrama explicativo mostrando um estado onde um objeto exibido é fixado a partir do lado da superfície traseira, e uma entrada de operação para operar o objeto é efetuado no lado da superfície frontal. Fig. 10 é um fluxograma mostrando o processo da entrada de operação da Fig. 9. Fig. 11 é um diagrama explicativo mostrando um estado onde conteúdo de exibição considerando um objeto é comutado a partir do lado da superfície traseira, e uma entrada de operação para operar o objeto é efetuado no lado da superfície frontal. Fig. 12 é um fluxograma mostrando o processo da entrada de operação da Fig. 11. Fig. 13 é um diagrama explicativo mostrando um estado onde um objeto é exibido por uma entrada de operação no lado da superfície traseira, e uma entrada de operação para operar o objeto é efetuada no lado da superfície frontal. Fig. 14 é um fluxograma mostrando o processo da entrada de operação de Fig. 13. (1) Entrada de Operação para Fixar Objeto Exibido do Lado da Superfície Traseira e Operar o Objeto do Lado da Superfície Frontal Primeiro, uma entrada de operação para fixar um objeto exibido a partir do lado da superfície traseira e operar o objeto a partir do lado da superfície frontal será descrita com base nas Figs. 9 e 10. Esta entrada de operação é eficaz quando efetuando uma operação de rolagem, quando uma lista de conteúdo ou fotografias, um mapa ou o similar é exibido na unidade de exibição 142 com o objeto, o objeto exibido na unidade de exibição 142, e quando efetuando uma operação no objeto. Particularmente, quando uma operação de arrasto de mover o dedo em uma determinada direção na superfície frontal é efetuada, uma função a ser executada em relação à operação na superfície frontal pode ser comutada por um simples entrada de operação, comutando a função a ser executada dependendo se uma entrada de operação na superfície traseira é detectada ou não pela unidade de detecção de superfície traseira 143.
Uma lista de objeto incluindo uma pluralidade de objetos 210 cada um associado com conteúdo é mostrado na Fig. 9. No caso que o número de objetos 210 formando a lista de objeto ser muito grande e não todos deles serem exibidos dentro da tela de exibição, uma operação de arrasto pode ser efetuada na superfície frontal, e a lista de objeto pode ser rolada de acordo com a direção da operação de arrasto. Também, quando selecionando objetos 210 desejados imediatamente da lista de objetos , os objetos 210 podem ser selecionados por uma operação de envolver os objetos 210 pelo dedo. Essas operações são efetuadas a partir da superfície frontal porque é mais fácil para o usuário efetuar a operação enquanto verificando a operação de entrada, mas com uma técnica relacionada de acordo com a qual somente entradas a partir da superfície frontal são permitidas por causa do conflito entre as entradas de operação, foi possível realizar somente uma dessas operações.
Assim sendo, de acordo com a presente modalidade, usando o fato que uma entrada de operação a partir da superfície traseira pode ser eliminada, essas funções são comutadas dependendo se o dedo está ou não em contato com a superfície traseira em uma posição arbitrária. Isto é, conforme mostrado na Fig. 10, primeiro quando uma entrada a partir da unidade de detecção de superfície frontal 141 é detectada (S200), a unidade de determinação de informação de entrada de operação 145 determina se contado do dedo na superfície traseira é ou não detectado pela unidade de detecção de superfície traseira 143 que é um sensor de toque fornecido na superfície traseira (S202).
No caso que contato do dedo na superfície traseira é detectado na etapa S202, a unidade de determinação de informação de entrada de operação 145 identifica o movimento (gesto) de um dedo F2 na tela de exibição com base no resultado de detecção da unidade de detecção de superfície frontal 141, e faz com que a unidade de determinação de informação de entrada de operação 145 execute uma função correspondendo ao gesto (S204). No exemplo da Fig. 9, uma função de selecionar um objeto desejado 210 a partir da lista de objetos é executada. Por outro lado, no caso que é determinado na etapa S202 que contato do dedo na superfície traseira não é detectado, a unidade de determinação de informação de entrada de operação 145 faz com que a unidade de execução de função 146 execute uma função normal com base no resultado de detecção da unidade de detecção de superfície frontal 141 (S206). No exemplo da Fig. 9, rolagem da lista de objetos será efetuada.
Nesta maneira, uma função a ser executada com base no resultado de detecção da unidade de detecção de superfície frontal 141 pode ser comutada de acordo com o resultado de detecção da unidade de detecção de superfície traseira 143. Esta operação é uma operação intuitiva de fixar, fazendo um dedo contatar a superfície traseira, os objetos 210 exibidos na unidade de exibição 142 tal que eles não se movem, e é uma operação que é fácil para o usuário efetuar.
Quando aplicando tal uma operação para a operação de um mapa exibido na tela de exibição, o mapa pode ser rolado através de uma operação de arrasto do dedo F2 na superfície frontal no caso de nenhum contato de um dedo na superfície traseira ser detectado pela unidade de detecção de superfície traseira 143, por exemplo. Por outro lado, no caso que contato de um dedo na superfície traseira é detectado pela unidade de detecção de superfície traseira 143, uma outra função, tal como seleção parcial, ampliação / redução, ou o similar, pode ser efetuada pela operação de arrasto do dedo F2 na superfície frontal.
Ainda mais, os objetos 210 exibidos na unidade de exibição 142 podem ser fixados através de contato de um dedo na superfície traseira, e assim sendo, com relação a um UI de acordo com a qual a posição de exibição do objeto 210 pode ser movida através da inclinação do invólucro 110, por exemplo, o objeto 210 pode ser prevenido de mover durante operação mesmo se o invólucro 110 inclinou , efetuando uma operação de fazer um dedo contatar a superfície traseira no momento de operar o objeto 210. (2) Entrada de Operação para Comutar Conteúdo de Exibição considerando o Objeto do Lado da Superfície Traseira e Operar o Objeto do Lado da Superfície Frontal A seguir, uma entrada de operação para comutar conteúdo de exibição considerando objeto a partir do lado da superfície traseira e operar o objeto a partir do lado da superfície frontal será descrito com base nas Figs. 11 e 12. Esta entrada é eficaz, em relação a uma aplicação permitindo entrada de diferentes operações dependendo dos modos, pra uma operação de temporariamente comutar o modo somente quando há detecção de entrada a partir da superfície traseira, por exemplo. Especificamente, o resultado de detecção da unidade de detecção de superfície traseira 143 é usada como uma alternativa para uma tecla de maiúsculas de um teclado ou uma tecla para comutar um caractere de entrada.
Um exemplo na Fig. 12 onde um teclado de software 220 incluindo teclas de entrada de caractere e uma tecla de comutação de caractere de entrada é exibido na unidade de exibição 142. Toda vez que a tecla de comutação de caractere de entrada é pressionada, um modo de entrada de hiragana através do qual um hiragana é entrado e um modo de entrada de katakana através do qual um katakana é entrado, é comutado. Nas técnicas relacionadas onde entrada de operação é efetuada somente a partir da superfície frontal, a tecla de entrada de caractere e a tecla de comutação de caractere de entrada têm de ser operadas pelo dedo F2 para efetuar uma entrada de operação na superfície frontal, e o número de etapas de operação da superfície frontal é grande. Ao contrário, de acordo com a presente modalidade, a função da tecla de comutação de caractere de entrada é realizada tendo o caractere de entrada permanecido comutado enquanto o dedo está em contato com uma posição arbitrária na superfície traseira. Isto permite ao número de etapas de operação da superfície frontal ser reduzida.
Isto é, conforme mostrado na Fig. 12, primeiro, quando uma entrada a partir da unidade de detecção de superfície traseira 143 é detectada (S210), a unidade de determinação de informação de entrada de operação 145 determina se um dedo está em contato com a tecla de comutação de caractere de entrada (botão de “kana” na Fig. 11) a partir da superfície traseira, com base no resultado de detecção da unidade de detecção de superfície traseira 143, que é o sensor de toque fornecido na superfície traseira (S212).
No caso que contato de um dedo na superfície traseira é detectado na etapa S212, a unidade de determinação de informação de entrada de operação 145 configura o modo de entrada de katakana, que permite entrada de um katakana através da tecla de entrada de caractere (S214). Quando um dedo está em contato com o botão “kana” da superfície traseira conforme mostrado na Fig. 11 (isto é, quando um ponto de contato P está em uma área correspondendo ao botão “kana”), um katakana pode ser entrado através da tecla de entrada de caractere. Por outro lado, no caso que é determinado na etapa S212 que contato de um dedo ná superfície traseira não é detectado, a unidade de determinação de informação de entrada de operação 145 configura o modo de entrada de hiragana, o que permite entrada de um hiragna através da tecla de caractere (S216). No exemplo da Fig. 11, quando o dedo é removido da área na superfície traseira, correspondendo ao botão “kana”, o caractere a ser entrado através da tecla de entrada de caractere pode ser feito um hiragana.
Conforme descrito, a função a ser executada com base no resultado de detecção da unidade de detecção de superfície frontal 141 pode ser comutado de acordo com o resultado de detecção da unidade de detecção de superfície traseira 143. Ainda mais , com tal uma operação, o número de etapas de operação da superfície frontal pode ser reduzido , e a carga operacional no usuário pode ser reduzida. (3) Entrada de Operação para Fazer com que o Objeto a ser Exibido pela Entrada de Operação no Lado da Superfície Traseira e Operar o Objeto do Lado da Superfície Frontal A seguir, uma entrada de operação para fazer com que um objeto seja exibido por uma entrada de operação no lado da superfície traseira e operar o objeto a partir do lado da superfície frontal será descrito com base nas Figs. 13 e 14. Esta entrada pode ser aplicação para uma operação de fazer com que um menu ou o similar que não é normalmente exibida na unidade de exibição 142 seja exibido na unidade de exibição 142 somente quando um dedo está em contato com uma área específica na superfície traseira, por exemplo. O menu que é exibido quando um dedo está em contato com a área específica na superfície traseira pode ser operado a partir da superfície frontal.
Como um exemplo, um exemplo no qual um menu 230 é exibido na unidade de exibição 142 quando um dedo está em contato com a área específica na superfície traseira é mostrado na Fig. 13. O menu 230 é exibido somente quando um ponto de contato P de um dedo F1 que está no lado da superfície traseira está na área específica na superfície traseira, e quando o dedo F1 é removido da superfície traseira, o menu 230 vai ser escondido. Conforme mostrado na Fig. 13, de acordo com tal um processo de entrada de operação, primeiro, quando uma entrada a partir da unidade de detecção de superfície traseira 143 é detectada (S220), a unidade de determinação de informação de entrada de operação 145 especifica em qual área na superfície traseira o ponto de contato P do dedo F1 existe, com base no resultado de detecção da unidade de detecção de superfície traseira 143, que é o sensor de toque fornecido na superfície traseira. Então, a unidade de determinação de informação de entrada de operação 145 instrui a unidade de execução de função 146 para fazer com que a unidade de exibição 142 exiba o menu 230 correspondendo à área onde o ponto de contato P existe (S222).
Quando a unidade de execução de função 146 é instruída na etapa S222 para exibir o menu 230, a unidade de processamento de exibição 147 faz com que a unidade de exibição 142 exiba o menu 230. o menu 230 exibido na unidade de exibição 142 pode ser operado a partir da superfície frontal pelo dedo F2, por exemplo. Quando o menu 230 é exibido, a unidade de determinação de informação de entrada de operação 145 determina se contato do dedo F1 está ou não sendo detectado pela unidade de detecção de superfície traseira 143 (S224); No caso que há detecção do contato do dedo F1 pela unidade de detecção de superfície traseira 143, o menu 230 continua a ser exibido, e ao usuário é permitido operar o menu 230 a partir da superfície frontal (S226). Por outro lado, no caso que contato do dedo F1 não é mais detectado pela unidade de detecção de superfície traseira 143, a unidade de determinação de informação de entrada de operação 145 instrui a unidade de execução de função 146 para esconder o menu (S228).
Conforme descrito, informação a ser exibida na unidade de exibição 142 pode ser exibida ou escondida dependendo do resultado de detecção da unidade de detecção de superfície traseira 143. Ainda mais, tendo a unidade de exibição 142 exibindo um pré-determinado objeto 210 somente quando um dedo está em contato com a área específica na superfície traseira, o número de etapas da superfície frontal pode ser reduzido.
No precedente, a configuração do terminal de processamento de informação 100 de acordo com a presente modalidade e sua função foi descrita. De acordo com a presente modalidade, confidência de informação altamente confiável pode ser mantida utilizando a propriedade da unidade de detecção de superfície traseira 143, que é capaz de detectar contato de uma ferramenta de operação na superfície traseira e entrando tal informação a partir do lado da superfície traseira do terminal. Também, já que a operação na superfície traseira pode ser entrada separadamente a partir da operação normal na superfície frontal, várias operações podem ser realizadas combinando os resultados de detecção da unidade de detecção de superfície traseira 143 e da unidade de detecção de superfície frontal 141. Ainda mais, fazendo a entrada de operação simples para a unidade de detecção de superfície traseira unidade de detecção de superfície traseira 143, a operabilidade pode ser prevenida de se refere reduzida mesmo se o usuário não é capaz de ver a entrada de operação. <2. Segunda Modalidade> [2-1. Visão Geral Funcional do Terminal de Processamento de Informação] A seguir, funções de um terminal de processamento de informação 100 de acordo com uma segunda modalidade da presente divulgação serão descritas com base nas Figs. 15 à 22. O terminal de processamento de informação 100 de acordo com a presente modalidade, pode ser configurado na mesma maneira que o terminal de processamento de informação 100 de acordo com a primeira modalidade, e sua aparência é como mostrado nas Figs. 1 e 2. O terminal de processamento de informação 100 de acordo com a presente modalidade também tem um sensor de toque na superfície frontal e na superfície traseira.
Conforme descrito acima, uma entrada de operação a partir da superfície frontal pode ser efetuada intuitivamente, mas há uma questão que uma ferramenta de operação efetuando uma entrada de operação se sobrepõe à área de exibição e a visibilidade da informação exibida na área de exibição é reduzida. Também, se um entrada de operação é somente permitida a partir da superfície frontal como na técnica relacionada, é difícil realizar várias operações tais como decisão, arrasto, rolagem . aproximação / afastamento, rotação, ou o similar de um objeto sem um conflito.
Por outro lado, considerando uma operação a partir da superfície traseira, há um alto risco que uma operação errônea ocorra por contato na superfície traseira não pretendido pelo usuário. Por exemplo, uma função não pretendida pode ser executada pelos dedos mantendo o terminal 100 tocando a superfície traseira. Também, já que o usuário não é permitido olhar na operação de entrada na superfície traseira, é difícil efetuar uma operação complicada, e funções executáveis são limitadas. Por exemplo, quando tentando efetuar uma entrada de operação a partir da superfície traseira e selecionar um objeto a partir d Em uma modalidade alternativa pluralidade de objetos arrumados na tela, é difícil fazer o dedo contatar o objeto desejado.
Assim sendo, com o terminal de processamento de informação 100 de acordo com a presente modalidade, uma operação desejada é realizada combinando ambos dos resultados de detecção da unidade de detecção de superfície frontal 141 e da unidade de detecção de superfície traseira unidade de detecção de superfície traseira 143. Particularmente, um função pré-determinada é executada somente quando contato de um dedo é detectado processo ambas a unidade de detecção de superfície frontal 141 e a unidade de detecção de superfície traseira 143. No descrito a seguir, um processo de entrada de operação pelo terminal de processamento de informação 100 de acordo com a presente modalidade será descrito. Adicionalmente, a configuração de função do terminal de processamento de informação 100 de acordo com a presente modalidade é a mesma que a configuração funcional do terminal de processamento de informação 100 de acordo com a primeira modalidade mostrada na Fig. 3. Por conseguinte, explicação sobre a configuração funcional do terminal de processamento de informação 100 será omitido na presente modalidade. [2-2. Processo de Entrada de Operação através da Combinação de Resultados de Detecção da Unidade de Detecção da Superfície Frontal e Unidade de Detecção da Superfície Traseira] (2-2-1. Execução da Função por Detecção Simultânea) (1) Explicação de Processo para Executar Pré-determinada Função no Tempo de Detecção Simultânea Primeiro, um processo de entrada de operação pelo terminal de processamento de informação 100 de acordo com a presente modalidade será descrito com base nas Figs. 15 à 21. Fig. 15 é um diagrama explicativo mostrando um estado onde uma pluralidade de objetos 210 são arrumados na unidade de exibição 142 do terminal de processamento de informação 100 de acordo com a presente modalidade. Fig. 16 é um diagrama explicativo descrevendo uma entrada de operação para mover um objeto 210 exibido na unidade de exibição 142. Fig. 17 é um diagrama explicativo descrevendo um exemplo de operações de toque no mesmo objeto 210. Fig. múltiplas antenas de transmissão 18 é um diagrama explicativo descrevendo um exemplo de determinação de operações de toque no mesmo objeto. Fig. 19 é um fluxograma mostrando um exemplo do processo de entrada de operação para um objeto com base nas Figs. 15 à múltiplas antenas de transmissão 18. Fig. 20 é um diagrama explicativo descrevendo uma entrada de operação para mover os dedos operando um objeto em uma direção oposta. Fig. 21 é um diagrama explicativo descrevendo um processo de entrada de operação de diminuir e aumentar relativo a quantidade de movimento de um alvo de operação, a quantidade de movimento de um objeto de operação, a quantidade de movimento de um objeto que é para ser movido de acordo com a operação no alvo de operação.
No presente exemplo, um processo de entrada de operação que permite execução de uma pré-determinada função é efetuado no caso que detecção de entrada é efetuada simultaneamente pela unidade de detecção de superfície frontal 141 e a unidade de detecção de superfície traseira 143. Por exemplo, conforme mostrado na Fig. 15, no caso que uma pluralidade de objetos 210 é arrumada e exibida, é assumido que uma operação de batida de leve na superfície frontal permite decidir sobre o objeto 210 quadro e foi batido de leve. Também é assumido que esses objetos 210 são arrumados sobre uma pluralidade de páginas que são alinhadas horizontalmente, por exemplo, e as páginas podem ser movidas por uma operação de arrasto horizontal. Aqui, no caso que a posição de um objeto específico 210 é desejada ser mudada, já que a operação de arrasto está associada com a função de mover a própria página, um conflito ocorre, e simplesmente efetuando a operação de arrasto não permite mudar a posição do objeto especificado 210.
Em tal situação, é concebível aplicar uma entrada de operação de pressionar longamente um objeto 210 cuja posição é para ser mudada e permitir movimento do objeto 210, e então mover o objeto 210 por uma operação de arrasto, por exemplo. Contudo, de acordo com esta entrada de operáção, há uma questão que tempo para determinação de um longo pressionamento tem de passar a colocar o objeto 210 em um estado móvel. Assim sendo, o terminal de processamento de informação 100 de acordo com a presente modalidade usa uma configuração que inclui um sensor de toque na superfície frontal e na superfície traseira, e, quando a unidade de detecção de superfície frontal 141 e a unidade de detecção de superfície traseira 143 simultaneamente detectam contato de dedos nas áreas correspondentes para o mesmo objeto 210, permite movimento do objeto 210.
Por exemplo, conforme mostrado na Fig. 16 três objetos 210a à 210c são assumidos serem exibidos na unidade de exibição 142. neste momento, quando da determinação a partir dos resultados de detecção da unidade de detecção de superfície traseira 143 e da unidade de detecção de superfície frontal 141 que uma área correspondendo ao objeto 210c é simultaneamente contatada por um dedo F1 a partir da sup7 e um dedo F2 a partir da superfície frontal, a unidade de determinação de informação de entrada de operação 145 permite movimento do objeto 210c dentro da área de exibição. Isto permite ao usuário operar o objeto 210c que é contatado pelos dedos a partir da superfície frontal e da superfície traseira em uma maneira que o objeto 210c é pinçado e movido, e uma operação intuitiva pode ser realizada.
Adicionalmente, movimento de um objeto 210 é permitido quando contato nas áreas correspondendo ao mesmo objeto 210 é simultaneamente detectado pela unidade de detecção de superfície traseira 143 e pela unidade de detecção de superfície frontal 141, mas “simultaneamente” não tem de ser estritamente no mesmo ponto do tempo. Quando a diferença de tempo entre o ponto do tempo que o contato é detectado pela unidade de detecção de superfície frontal 141 e o ponto no tempo que o contato é detectado pela unidade de detecção de superfície traseira 143 é pré-determinada diferença de tempo que permite reconhecimento de simultaneidade, a simultaneidade pode ser assumida.
Embora uma operação de toque no objeto 210 a partir da superfície traseira seja diferente quando tentando efetuar a operação somente a partir da superfície traseira, ao usuário é possibilitado selecionar uma posição apropriada na superfície traseira com base no senso somático de um dedo que permite ao dedo contatar uma posição perto do dedo na superfície frontal. Por exemplo, um sistema de operação que move o objeto 210 através de uma simples operação de arrasto na superfície traseira somente pode ser realizada, mas neste caso, é difícil fazer o contato de dedo de um objeto 210 desejado através de uma operação na superfície traseira que não está sendo olhada pelo usuário.
Ao contrário, a facilidade de seleção de um210 a partir da superfície traseira pode ser fornecida pelo processo de entrada de operação do presente exemplo. Com relação as entradas de operações de toque a partir das superfície frontal e da superfície traseira, primeiro, há o método, conforme descrito acima, de fazer com que os dedos contatem um objeto 210 a partir de ambas as superfícies em aproximadamente o mesmo tempo usando o sentido somático.
Ainda mais, conforme mostrado na Fig. 16, como um outro exemplo de entradas de operação de toque a partir da superfície frontal e da superfície traseira, primeiro, um dedo F1 é posicionado para contatar a superfície traseira. Neste momento, quando o dedo F1 contata a superfície traseira, a unidade de determinação de informação de entrada de operação 145 faz com que a unidade de exibição 142 exiba um cursor P que é associado com a posição de contato do dedo Fl. Então, o usuário seleciona um objeto 210 a partir da superfície frontal com base no cursor P exibido na unidade de exibição 142. Uma operação de posicionar o mesmo objeto 210 de ambas a superfície frontal e a superfície traseira, pode ser realizada por meio disto.
Ainda mais, com relação ao método de determinação das entradas de operação de toque a partir da superfície frontal e da superfície traseira, uma área de determinação de toque 212 na superfície traseira pode ser configurada para ser maior do que uma área de determinação de toque 211 na superfície frontal, conforme mostrado na Fig. múltiplas antenas de transmissão 18. Isto facilita, quando o dedo F2 contata um objeto 210 desejado a partir da superfície frontal, seleção do mesmo objeto 210 a partir da superfície traseira com ao a partir da superfície frontal. Por exemplo, quando a área de determinação de toque 211 na superfície frontal é configurada para o mesmo tamanho que o 21-, na área de determinação de toque 212 na superfície traseira é configurada para ser levemente maior do que a área de determinação de toque 211 na superfície frontal. Isto pode reduzir a questão de operações errôneas a partir da superfície traseira quando o usuário não é capaz de ver a posição de contato do dedo Fl.
Adicionalmente, também é possível permitir movimento de um objeto 210 através de um arrasto somente, quando operações de toque são efetuadas no mesmo objeto 210 da superfície frontal e da superfície traseira com um pré-determinado intervalo de tempo ou mento. Isto pode reduzir operações de objeto não pretendidas( isto é, operações errôneas). (2) Fluxo do Processo Um exemplo de um processador com base nos processos descritos com referência às Figs. 15 à múltiplas antenas de transmissão 18 é mostrado na Fig. 19. Fig. 19 mostra um processo de um sistema de operação de acordo com o qual movimento da tela inteira por uma operação de arrasto normal a partir da superfície frontal, e seleção de um objeto 210 através de uma operação de batida de leve a partir da superfície frontal são realizados em uma tela conforme mostrado na Fig. 15 na qual uma pluralidade de objetos 210 são arrumados, e de acordo com os quais movimento de um simples objeto é realizado através de uma operação de arrasto a partir de ambas as superfícies.
Conforme mostrado na Fig. 19, primeiro, a unidade de determinação de informação de entrada de operação 145 determina se há ou não uma operação de batida de leve a partir da superfície frontal em um objeto 210 exibido na unidade de exibição 142 (S300). No caso de determinar na etapa S300 que há um operação de batida de leve a partir da superfície frontal, a unidade de determinação de informação de entrada de operação 145 seleciona e decide sobre o objeto 210 que foi batido de leve (S302). Por outro lado, no caso de determinar na etapa S300 que não há nenhuma operação de batida de leve a partir da superfície frontal, a unidade de determinação de informação de entrada de operação 145 determina se há ou não contato de um dedo no objeto 210 a partir da superfície frontal (S304). No caso que não há nenhum contato do dedo no objeto 210 a partir da superfície frontal, a unidade de determinação de informação de entrada de operação 145 ainda determina se há ou não contato de um dedo a partir da superfície traseira na área de determinação de toque 212 na superfície traseira para o objeto 210 (S306).
No caso de determinar na etapa S306 que não há nenhum contato de um dedo a partir da superfície traseira na área de determinação de toque 212 na superfície traseira par ao objeto 210, a unidade de determinação de informação de entrada de operação 145 retoma para a etapa S300 e repete o processo. Por outro lado, no caso de determinar na etapa S306 que há contato de um dedo a partir da superfície traseira na área de determinação de toque 212 na superfície traseira para o objeto 210, a unidade de determinação de informação de entrada de operação 145 exibe, na unidade de exibição 142, um cursor P que é associado com a posição de contato do dedo na superfície traseira (S308). Então, ele retoma pra a etapa S300 e repete o processo.
Retomando ao processo da etapa S304, no caso que há contato de um dedo a partir da superfície frontal no objeto 210, a unidade de determinação de informação de entrada de operação 145 amplia a área de determinação de toque 212 na superfície traseira (S310). Então, a unidade de determinação de informação de entrada de operação 145 determina se há ou não contato de um dedo a partir da superfície traseira na área de determinação de toque 212 na superfície traseira para o objeto 210 (S312). No caso de determinar na etapa S312 que há contato de um dedo a partir da superfície traseira, a unidade de determinação de informação de entrada de operação 145 exibe, na unidade de exibição 142, um cursor P que é associado com a posição de contato do dedo na superfície traseira, como na etapa S308 (S314). Então, a unidade de determinação de informação de entrada de operação 145 determina se uma operação de arrasto é ou não efetuada no objeto 210 a partir de ambas as superfície frontal e a superfície traseira (S316), e no caso que tal uma operação de arrasto não é realizada , retoma ao processo da etapa S300 e repete o processo.
Por outro lado, no caso de determinar na etapa S316 que uma operação de arrasto é efetuada no objeto 210 a partir de ambas a superfície frontal e a superfície traseira, a unidade de determinação de informação de entrada de operação 145 move o objeto 210 na direção do arrasto (S318) Retomando ao processo da etapa S312, se é determinado que não há nenhum contato de um dedo a partir da superfície traseira, a unidade de determinação de informação de entrada de operação 145 determina se há ou não uma operação de arrasto a partir da superfície frontal para o objeto 210 (S320). Se é determinado que não há nenhuma operação de arrasto a partir da superfície frontal para o objeto 210, a unidade de determinação de informação de entrada de operação 145 retomo para a etapa S300 e repete o processo. Por outro lado, se é determinado na etapa S320 que há uma operação de arrasto a partir da superfície frontal para o objeto 210, a unidade de determinação de informação de entrada de operação 145 move a área de exibição da tela na direção de arrasto (S322).
Conforme descrito, o terminal de processamento de informação 100 de acordo com a presente modalidade é capaz de realizar movimento de um simples objeto e movimento da inteira área de exibição, com base no resultado de detecção da unidade de detecção de superfície traseira 143 3 da unidade de detecção de superfície frontal 141. (3) Exemplo Modificado Ainda mais, de acordo com o processador de entrada de operação do presente exemplo, movimento de um objeto 210 é permitido quando contato nas áreas correspondendo ao mesmo objeto 210 é simultaneamente detectado pela unidade de detecção de superfície traseira 143 e pela unidade de detecção de superfície frontal 141. Nos exemplos mostrados nas Figs. 15 à múltiplas antenas de transmissão 18, uma operação intuitiva de pinçar e mover um objeto 210 que é o alvo de movimento é realizado movendo os dedos F1 e F2 que estão em contato com o objeto 210 na mesma direção. Por outro lado, também é concebível operar um objeto 210 que é o alvo da operação movendo os dedos F1 e F2 que estão em contato com o objeto 210 nas direções opostas.
Por exemplo, é assumido conforme mostrado na Fig. 20 que um objeto de relógio 250 pode ser girado operando uma porção de parafuso 252 do objeto de relógio 250. Esta operação da porção de parafuso 252 é efetuando fazendo os dedos F1 e F2 simultaneamente contatar a partir da superfície traseira e da superfície frontal, a porção de parafuso 252 do objeto de relógio 250 exibida na unidade de exibição 142 e então movimentando os dedos F1 e F2 nas direções opostas.
Isto pode reduzir a ocorrência de operações errôneas com os exemplos descritos acima, e também, uma operação de arrasto normal de, por exemplo,, mover o objeto de relógio 250 através d Em uma modalidade alternativa operação de arrasto no caso que a operação de arrasto é entrada somente a partir da superfície frontal pode ser atribuída. Ainda mais , um operação intuitiva de pinçar a porção de parafuso 252 que é o alvo da operação fazendo os dedos F1 e F2 simultaneamente contatar a porção de parafuso 252 a partir da superfície traseira e da superfície frontal e então mover os dedos F1 e F2 nas direções opostas para por meio disso girar a porção de parafuso 252 também pode ser realizado.
Adicionalmente, na Fig. 20, a quantidade de operação nas mãos do objeto de relógio 250 com relação à rotação da porção de parafuso 252 que é o alvo da operação é decidida com a direção de rotação da porção de parafuso 252 sendo transformado pela metáfora física de uma engrenagem (não mostrado), por exemplo. Nesta maneira, de acordo com o terminal de processamento de informação 100 da presente modalidade, com a rotação do alvo da operação com base nas operações simultâneas a partir da superfície frontal e da superfície traseira, a rotação do alvo da operação pode realizar movimento de um outro objeto pelo mecanismo de transformação de um eixo de operação com base na metáfora do parafuso , a engrenagem, ou o similar. Isto permite a quantidade de movimento do objeto que é movido de acordo com a operação no alvo da operação a ser reduzido ou aumentado relativo à quantidade de movimento do alvo de operação.
Por exemplo, conforme mostrado na Fig. 21, uma situação será descrita onde o volume de conteúdo sendo reproduzido pelo terminal de processamento de informação 100 está sendo operado por uma unidade de ajuste de volume 260 exibida na unidade de exibição 142. O volume do conteúdo pode ser trocado movendo um botão deslizador 262 da unidade de ajuste de volume 260 para a esquerda ou direita. Neste momento, o botão deslizador 262 também pode ser movido por um rolamento de ajuste rolamento de ajuste 264. O botão deslizador 262 é movido girando o rolamento de ajuste 264 com base na metáfora física que o movimento de rotação do rolamento de ajuste 264 é transformado no movimento linear do botão deslizador 262. Aqui, a posição do botão deslizador 262 pode ser ajustado com alta precisão fazendo a quantidade de movimento linear do 282 pequena relativa à quantidade de movimento de rotação do rolamento de ajuste 264, e por meio disso o volume de conteúdo pode ser finalmente ajustado.
Conforme descrito, assim como realizando uma operação intuitiva, a quantidade de operação também pode ser intuitivamente compreendida. Tal um processo de entrada de operação pode ser aplicado a um objeto usado para aproximação / afastamento ou ajuste de foco de uma câmera, por exemplo. Também, operação é facilitada, por exemplo, no caso que o tamanho de exibição de um objeto que é o alvo d entrada de operação é pequeno e o objeto é escondido por um dedo quando efetivamente operando o objeto com o dedo, indiretamente operando o objeto que é o alvo da operação operando um objeto que está associado com o objeto que é o alvo de operação. (2-2-2. Função de Aproximação / Afastamento com base na Entrada de Operação para Conteúdo Exibido a partir da Superfície Frontal e Superfície Traseira) Por exemplo, conforme mostrado na Fig. 22, o terminal de processamento de informação 100 de acordo com a presente modalidade também é capaz de fornecer, em uma aplicação para visualizar fotografias, um sistema de operação que realiza uma função de aproximação / afastamento por uma entrada de operação no conteúdo exibido a partir da superfície frontal e da superfície traseira. Fig. 22 é um diagrama explicativo para descrever uma função de aproximação / afastamento com base em uma entrada de operação no conteúdo exibido a partir da superfície frontal e da superfície traseira.
Um estado é considerado quando conteúdo é exibido na unidade de exibição 142 do terminal de processamento de informação 100. Quando reconhecendo a partir do resultado de detecção da unidade de detecção de superfície traseira 143 que uma operação de batida de leve é efetuada em um estado que um dedo não está em contato com a superfície frontal do terminal de processamento de informação 100, a unidade de determinação de informação de entrada de operação unidade de determinação de informação de entrada de operação 145 do terminal de processamento de informação 100 não executa a função correspondente à operação de batida de leve na superfície traseira. Isto é para prevenir execução de uma função correspondendo à operação em um caso que o usuário não intencionalmente contato s superfície traseira.
Por outro lado, somente no caso que há uma entrada de operação para conteúdo exibido na unidade de exibição 142 a partir de ambas da superfície frontal e da superfície traseira a unidade de determinação de informação de entrada de operação 145 faz com que uma função de obter efeitos simétricos (neste caso, uma função de aproximação / afastamento) a ser executada com base no resultado de detecção da unidade de detecção de superfície frontal 141 ou o resultado de detecção da unidade de detecção de superfície traseira 143. Isto permite ao usuário intuitivamente compreender, em associação com a metáfora física, o significado de uma operação que é realizada.
Por exemplo, no caso que uma operação de batida de leve a partir da superfície traseira é reconhecida a partir do resultado de detecção da unidade de detecção de superfície frontal 141 em um estado que um dedo está em contato com a superfície traseira do terminal de processamento de informação 100, a unidade de determinação de informação de entrada de operação 145 faz com que conteúdo exibido na unidade de exibição unidade de exibição 142 seja aproximado. Com uma operação de batida de leve a partir da superfície frontal, aproximação centrando na posição da operação de batida de leve é efetuada (por exemplo, a taxa de aproximação / afastamento é mudada de 1 para 1,2).
Ao contrário, no caso de uma operação de batida de leve a partir da superfície traseira é reconhecido em um estado que um dedo está em contato com a superfície frontal do terminal de processamento de informação 100, a unidade de determinação de informação de entrada de operação 145 faz com que o conteúdo exibido na unidade de exibição 142 a ser afastado. Por exemplo, com uma batida de leve a partir da superfície traseira, uma operação de afastamento de mudar a taxa de aproximação / afastamento de 1,2 para 1 é efetuada. Uma área exibida no momento do afastamento é a área que foi originalmente exibida antes da aproximação através de uma operação de batida de leve na superfície frontal. Isto é, diferente da operação a partir da superfície frontal, a posição da operação de aproximação / afastamento não é especificada para a operação de batida de leve a partir da superfície traseira. Isto é devido à propriedade que o dedo efetuando uma entrada de operação a partir da superfície traseira não é vista pelo usuário e assim sendo, é difícil especificar a posição.
Adicionalmente, conforme com o presente exemplo, uma operação também é concebível de fazer com que aproximação centrando em uma posição específica funcione através de uma operação de longa pressão a partir da superfície frontal na posição, e de fazer afastamento para a área de exibição original através de uma operação de longa pressão a partir da superfície traseira.
No precedente, o processo de entrada de operação pelo terminal de processamento de informação 100 de acordo com a segunda modalidade da presente divulgação foi descrito. De acordo com a presente modalidade, uma operação desejada é intuitivamente e eficazmente realizada por uma operação complexa em um objeto exibido na unidade de exibição a partir de ambas da superfície frontal e da superfície traseira.
Especificamente, o sistema de operação que permite uma operação de arrasto em um objeto através de uma operação de pinçar o objeto a partir da superfície frontal e da superfície traseira é capaz de evitar conflito com uma outra operação, tal como arrasto de páginas, e de realizar uma operação de objeto intuitivo. Provavelmente, o sistema de operação que realiza uma operação de rotação adicionando operações de arrasto a partir da superfície frontal e da superfície traseira de um objeto ou o sistema de operação que realiza aproximação / afastamento através da execução de uma operação de batida de leve em uma superfície em um estado que a outra superfície está sendo contatada é também capaz de evitar conflito com uma outra operação e realizando uma operação de objeto intuitivo. Também, uma questão que é diferente de selecionar um objeto a partir da superfície traseira com alta precisão pode ser resolvida selecionando o objeto através de operações a partir de amas as superfícies.
Essas operações são de sistemas de operação com base nas metáforas físicas tal como pinçar ou girar um objeto, mover o objeto em uma direção da batida de leve, e o similar, e assim sendo compreensão intuitiva pelo usuário é permitida. Também, realizando, em todas esses sistemas de operação, um sistema de operação no qual um comando é executado por uma operação complexa a partir da superfície frontal e da superfície traseira, uma questão de uma operação errônea através de contato não intencional do usuário na superfície traseira, por exemplo, pode ser evitado, e ao usuário é permitido efícazmente realizar uma operação. <3. Exemplo de Configuração de Hardware> O processo do terminal de processamento de informação 100 de acordo com a presente modalidade pode ser efetuado por hardware ou pode ser efetuado por software. Neste caso, o terminal de processamento de informação 100 pode ser configurado conforme mostrado na Fig. 23. No descrito a seguir, um exemplo da configuração de hardware do terminal de processamento de informação 100 de acordo com a presente modalidade será descrito com base na Fig. 23. O terminal de processamento de informação 100 de acordo com a presente modalidade pode ser realizado por um aparelho de processamento tal com um computador, conforme descrito acima. Conforme mostrado na Fig. 23, o terminal de processamento de informação 100 inclui uma CPU (Unidade de Processamento Central) uma ROM ( Memória de Somente Leitura) 102 uma RAM (Memória de Acesso Randômico) 103, e um cabo de múltiplas vias de comunicação hospedeiro 104a. O terminal de processamento de informação 100 também inclui uma ponte 104 , um cabo de múltiplas vias de comunicação externo 104b, uma interface 105, um dispositivo de entrada 106, um dispositivo de saída Oportunidade 107, um dispositivo de armazenamento (HDD) 108, um mecanismo de operação 109, uma porta de conexão 111, e uma dispositivo de comunicação 113. A CPU 101 funciona como uma unidade de processamento aritmético e uma unidade de controle e controla a inteira operação dentro do terminal de processamento de informação 100 de acordo com os vários programas. Também, a CPU 101 pode ser um microprocessador. A ROM 102 armazena um programa a ser carregada na CPU 101, parâmetros de operação, e o similar. A RAM 103 temporariamente armazena um programa usado na execução da CPU 101, parâmetros arbitrariamente mudados na execução, ou o similar. Esses são conectados cada um ao outro através do cabo de múltiplas vias de comunicação hospedeiro 104a configurado a partir de um cabo de múltiplas vias de comunicação de CPU ou o similar. O cabo de múltiplas vias de comunicação hospedeiro 104a é conectado ao cabo de múltiplas vias de comunicação externo 104b tal como um cabo de múltiplas vias de comunicação de PCI (Interface / Interconexão de Componente Periférico) via a ponte 104. Adicionalmente, o cabo de múltiplas vias de comunicação hospedeiro 104a, a ponte 104 e o cabo de múltiplas vias de comunicação externo 104b não necessariamente tem de ser separadamente configurado, e essas funções podem ser implementada em um único cabo de múltiplas vias de comunicação. O dispositivo de entrada 106 é configurado a partir dos meios de entrada para um usuário para informação de entrada, tal como um mouse, um teclado, um painel de toque, um botão, um microfone, um comutador, e uma alavanca um circuito de controle de entrada para gerar um sinal de entrada com base na entrada a partir do usuário e emitir o mesmo para a CPU 101 , e o similar. O dispositivo de entrada Oportunidade 107 inclui um dispositivo de entrada tal com um dispositivo de exibição de cristal líquido (LCD), um dispositivo de OLED (Diodo de Emissão de Luz Orgânico) ou um lâmpada, e uma dispositivo de saída de áudio tal como alto falantes. O dispositivo de armazenamento 108 é um exemplo da unidade de armazenamento do terminal de processamento de informação 100,1 e é um dispositivo para armazenar dados. O dispositivo de armazenamento 108 pode inclui um meio de armazenamento , um dispositivo de gravação que registra dados no meio de armazenamento, um dispositivo de leitura, que lê dados a partir do meio de armazenamento, um dispositivo de eliminação que elimina dados gravados no meio de armazenamento, ou o similar. O dispositivo de armazenamento 108 é configurado a partir de um HDD (Mecanismo de Operação de Disco Rígido), por exemplo,. Este dispositivo de armazenamento 108 opera um disco rígido, e armazena um programa a ser executado pela CPU 101 e vários dados. O mecanismo de operação 109 é um leitor / escritor para um meio de armazenamento, e construído em ou extemamente anexado ao terminal de processamento de informação 100. O mecanismo de operação 109 lê informação gravada em um meio de gravação removível anexado a ele, tal como um disco magnético, um disco ótimo, um disco óptico magnético, ou uma memória de semicondutor, e emite o mesmo par a RAM 103. A porta de conexão 111 é uma interface a ser conectado a um aparelho externo, e é uma conexão com um aparelho externo que é capaz de transmissão de dados via um USB (Cabo de múltiplas vias de comunicação Serial Universal) ou o similar, por exemplo, também, o dispositivo de comunicação 113 é uma interface de comunicação configurada a partir de um dispositivo de comunicação ou o similar para se conectar a uma rede de comunicação 10, por exemplo. Ainda mais, o dispositivo de comunicação 113 pode ser um dispositivo de comunicação compatível com LAN (Rede de Área Local) sem fio, um dispositivo de comunicação compatível com USB sem fio, ou uma dispositivo de comunicação com fio que efetua comunicação por fio.
Deve ser entendido por aqueles versados na técnica que várias modificações, combinações, sub-combinações e alterações, podem ocorre dependendo dos requisitos projetas e outros fatores na medida que eles estejam dentro do escopo das reivindicações anexas ou do equivalentes delas A presente divulgação contém assunto relacionado àqueles divulgados no Pedido de Patente Prioritária Japonês JP 2011 - 000344 depositada no Escritório de Patente do Japão em 5 de janeiro de 2011, o inteiro conteúdo do qual é aqui incorporado para referência.

Claims (12)

1. Aparelho de processamento de informação caracterizado pelo fato de compreender: uma unidade de exibição, fornecida em um lado da superfície frontal do aparelho, para exibir informação; uma primeira unidade de detecção, fornecida em um lado da superfície traseira do aparelho, para detectar uma entrada de operação em uma superfície traseira; uma segunda unidade de detecção, fornecida no lado da superfície frontal do aparelho, para detectar uma entrada de operação na unidade de exibição; e uma unidade de determinação de informação de entrada de operação para fazer com que uma função correspondendo às entradas de operação possa ser executada, com base nos resultados da detecção da primeira unidade de detecção e da segunda unidade de detecção, a unidade de determinação de informação de entrada de operação executa uma função correspondendo às entradas de operação detectadas pela primeira em que, quando a entrada de operação é detectada pela primeira unidade de detecção e a entrada de operação para operar um objeto exibido na unidade de exibição é detectada pela segunda unidade de detecção, a unidade de determinação de informação de entrada de operação executa a função correspondendo às entradas de operações detectadas pela unidade de detecção e a segunda unidade de detecção.
2. Aparelho de processamento de informação de acordo com a reivindicação 1, caracterizado pelo fato de que a entrada de operação a partir da primeira unidade de detecção não é exibida na unidade de exibição.
3. Aparelho de processamento de informação de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de determinação de informação entrada de operação comuta informação a ser entrada de acordo com o resultado de detecção da segunda unidade de detecção, de acordo com o resultado de detecção da primeira unidade de detecção.
4. Aparelho de processamento de informação de acordo com a reivindicação 1, caracterizado pelo fato de que quando contato de uma ferramenta de operação é detectado pela primeira unidade de detecção, a unidade de determinação de informação de entrada de operação não faz com que uma área de exibição da área da unidade de exibição se mova mesmo se há uma entrada de operação a partir da segunda unidade de detecção.
5. Aparelho de processamento de informação de acordo com a reivindicação 1, caracterizado pelo fato de que, quando contato de uma ferramenta de operação é detectado pela primeira unidade de detecção, a unidade de determinação de informação de entrada de operação faz com que uma primeira função seja executada de acordo com a entrada de operação da segunda unidade de detecção, e em que, quando contato de uma ferramenta de operação não é detectado pela primeira unidade de detecção, a unidade de determinação de informação de entrada de operação faz com que uma segunda função seja executada de acordo com a entrada de operação da segunda unidade de detecção.
6. Aparelho de processamento de informação de acordo com a reivindicação 1, ainda caracterizado pelo fato de compreender: uma unidade de processamento de autenticação pra efetuar um processo de autenticação em uma entrada de operação pela primeira unidade de detecção; e uma unidade de armazenamento de informação de autenticação para armazenar informação de autenticação, em que a unidade de processamento de autenticação efetua o processo de autenticação identificando informação de entrada, entrada a partir Hn 1adr> da sunerfície traseira do anarelho com base no resultado da detecção da primeira unidade de detecção e comparando a informação de entrada com a informação de autenticação; e em que a unidade de determinação de informação de entrada de operação faz com que a função correspondente às entradas de operação sejam executadas, com base em um resultado de autenticação da unidade de processamento de autenticação e com base nos resultados de detecção da primeira unidade de detecção e da segunda unidade de detecção.
7. Aparelho de processamento de informação de acordo com a reivindicação 6, caracterizado pelo fato de que a unidade de processamento de autenticação identifica a informação de entrada, entrada a partir do lado da superfície traseira do aparelho, com base em um tempo de entrada da entrada de operação detectada pela primeira unidade de detecção.
8. Aparelho de processamento de informação de acordo com a reivindicação 6, caracterizado pelo fato de que a unidade de processamento de autenticação identifica a informação de entrada, entrada a partir do lado da superfície traseira do aparelho, com base em uma direção de movimento de uma ferramenta de operação ao de um ponto de início, em que o ponto de início é uma primeira posição detectada pela primeira unidade de detecção.
9. Aparelho de processamento de informação de acordo com a reivindicação 6, caracterizado pelo fato de que a unidade de processamento de autenticação identifica a informação de entrada, entrada a partir do lado da superfície traseira do aparelho, com base em uma forma de uma pista de movimento de uma ferramenta de operação ai de um ponto de início, onde o ponto de início é uma primeira posição detectada pela primeira unidade de detecção.
10. Aparelho de processamento de informação de acordo com a reivindicação 6, caracterizado pelo fato de que a unidade de processamento de autenticação identifica a informação de entrada, entrada a partir do lado da superfície traseira do aparelho, com base em uma direção de movimento relativa e uma distância de movimento relativa de uma ferramenta de operação a partir de um ponto de início, onde o ponto de início é uma primeira posição detectada pela primeira unidade de detecção.
11. Método de processamento de informação caracterizado pelo fato de compreender: detectar uma entrada de operação a partir de uma superfície traseira que é oposta a uma superfície na qual uma unidade de exibição para exibir informação é fornecida; detectar uma entrada de operação a partir de uma superfície frontal na qual a unidade de exibição é fornecida; e fazer com que uma função correspondendo às entradas de operação sejam executadas com base nos resultados de detecção da entrada de operação a partir da superfície traseira e a entrada de operação a partir da superfície frontal, em que, quando a entrada de operação a partir da superfície traseira é detectada e a entrada de operação , a partir da superfície frontal, para operar um objeto exibido na unidade de exibição, a função correspondendo à entrada de operação a partir da superfície traseira e a entrada de operação a partir da superfície frontal é executada.
12. Programa de computador pra fazer com que um computador funcione como um aparelho de processamento de informação caracterizado pelo fato de incluir: uma unidade de controle de detecção para fazer com que uma primeira unidade de detecção para detectar uma entrada de operação a partir de uma superfície traseira que é oposta a uma superfície na qual uma unidade de exibição para exibir informação é fornecida para detectar uma entrada de operação a partir da superfície traseira e uma segunda unidade de detecção para detectar uma entrada de operação a partir da superfície frontal na qual a unidade de exibição é fornecida para detectar uma entrada de operação a partir da superfície frontal; e uma unidade de determinação de informação de entrada de operação para fazer com que uma função correspondendo às entradas de operações sejam executadas, com base nos resultados da detecção da entrada de operação a partir da superfície traseira e a entrada de operação a partir da superfície frontal, onde, quando a entrada de operação a partir da superfície traseira é detectada e a entrada de operação, a partir da superfície frontal, para operar um objeto exibido na unidade de exibição é detectada , o aparelho de processamento de informação executa a função correspondendo à entrada de operação a partir da superfície traseira e a entrada de operação a partir da superfície frontal.
BRPI1107115-0A 2011-01-05 2011-12-29 Aparelho e método de processamento de informação e programa de computador BRPI1107115A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011000344A JP5917805B2 (ja) 2011-01-05 2011-01-05 情報処理装置、情報処理方法およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
BRPI1107115A2 true BRPI1107115A2 (pt) 2015-07-21

Family

ID=45094473

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1107115-0A BRPI1107115A2 (pt) 2011-01-05 2011-12-29 Aparelho e método de processamento de informação e programa de computador

Country Status (7)

Country Link
US (1) US20120174044A1 (pt)
EP (2) EP2474896B1 (pt)
JP (1) JP5917805B2 (pt)
KR (1) KR20120079812A (pt)
CN (1) CN102681760B (pt)
BR (1) BRPI1107115A2 (pt)
RU (1) RU2011153164A (pt)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117885A (ja) 2011-12-02 2013-06-13 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US20130227457A1 (en) * 2012-02-24 2013-08-29 Samsung Electronics Co. Ltd. Method and device for generating captured image for display windows
JP2013235344A (ja) * 2012-05-07 2013-11-21 Sony Computer Entertainment Inc 入力装置、入力制御方法、及び入力制御プログラム
EP2869177A4 (en) * 2012-06-27 2016-02-24 Nec Corp PORTABLE TERMINAL DEVICE, PROGRAM, AND METHOD FOR OPERATING A PORTABLE TERMINAL DEVICE
JP6271858B2 (ja) * 2012-07-04 2018-01-31 キヤノン株式会社 表示装置及びその制御方法
JP2014029594A (ja) * 2012-07-31 2014-02-13 Canon Inc 情報端末及びその制御方法、並びにプログラム
US9081542B2 (en) * 2012-08-28 2015-07-14 Google Technology Holdings LLC Systems and methods for a wearable touch-sensitive device
CN104798077A (zh) * 2012-11-22 2015-07-22 Nec卡西欧移动通信株式会社 电子设备、解锁方法和程序
JP5875510B2 (ja) * 2012-12-10 2016-03-02 株式会社ソニー・コンピュータエンタテインメント 電子機器、メニュー表示方法
JP6063734B2 (ja) * 2012-12-25 2017-01-18 京セラ株式会社 携帯端末装置、ロック解除方法およびプログラム
US9563756B2 (en) * 2013-02-07 2017-02-07 Samsung Electronics Co., Ltd. Two phase password input mechanism
KR102179056B1 (ko) * 2013-07-19 2020-11-16 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN104427081B (zh) * 2013-08-19 2019-07-02 中兴通讯股份有限公司 一种移动终端的解锁方法及装置
KR102165445B1 (ko) 2013-09-30 2020-10-14 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
CN103761045A (zh) * 2014-01-22 2014-04-30 深圳市欧珀通信软件有限公司 一种移动终端缩放触控方法及装置
CN104063153B (zh) * 2014-05-04 2018-12-11 南京中兴软件有限责任公司 一种实现人机交互的方法和装置
JP2016024580A (ja) * 2014-07-18 2016-02-08 富士通株式会社 情報処理装置、入力制御方法、および入力制御プログラム
KR101703867B1 (ko) * 2014-08-01 2017-02-07 엘지전자 주식회사 적어도 하나의 터치에 의해 컨트롤되는 이동 단말기 및 그 제어 방법
USD755839S1 (en) 2014-09-09 2016-05-10 Apple Inc. Display screen or portion thereof with graphical user interface
CN105847670B (zh) * 2015-02-04 2019-06-21 佳能株式会社 电子设备、摄像控制装置及其控制方法
CN105549868A (zh) * 2015-07-25 2016-05-04 宇龙计算机通信科技(深圳)有限公司 一种移动终端操作处理方法、装置和移动终端
CN105159525B (zh) * 2015-08-25 2018-01-23 广东欧珀移动通信有限公司 一种控制音箱编组的方法及控制终端
USD910708S1 (en) 2018-05-08 2021-02-16 Apple Inc. Electronic device with graphical user interface
USD914756S1 (en) 2018-10-29 2021-03-30 Apple Inc. Electronic device with graphical user interface

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5543588A (en) * 1992-06-08 1996-08-06 Synaptics, Incorporated Touch pad driven handheld computing device
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US6509847B1 (en) * 1999-09-01 2003-01-21 Gateway, Inc. Pressure password input device and method
EP1257111A1 (de) * 2001-05-08 2002-11-13 Siemens Schweiz AG Mobiles Terminal mit rückseitig angeordnetem Bedienfeld
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
WO2005008444A2 (en) * 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
GB0317715D0 (en) * 2003-07-29 2003-09-03 Koninkl Philips Electronics Nv Display and input device
US8610675B2 (en) * 2007-03-14 2013-12-17 Power2B, Inc. Interactive devices
JP2007141029A (ja) * 2005-11-21 2007-06-07 Matsushita Electric Ind Co Ltd 携帯情報装置
US20070188474A1 (en) * 2006-02-16 2007-08-16 Zaborowski Philippe S Touch-sensitive motion device
EP2076830A4 (en) * 2006-10-27 2013-07-17 Nokia Corp METHOD AND DEVICE FOR ENABLING MOVEMENT WITHIN A THREE-DIMENSIONAL GRAPHIC USER INTERFACE
US8843222B2 (en) * 2007-01-08 2014-09-23 Varia Holdings Llc Selective locking of input controls for a portable media player
CN101393504B (zh) * 2007-09-20 2012-12-19 宏达国际电子股份有限公司 手持电子装置与其图形化用户界面的切换方法
US8031175B2 (en) * 2008-04-21 2011-10-04 Panasonic Corporation Touch sensitive remote control system that detects hand size characteristics of user and adapts mapping to screen display
JP4557058B2 (ja) 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
US8395584B2 (en) * 2007-12-31 2013-03-12 Sony Corporation Mobile terminals including multiple user interfaces on different faces thereof configured to be used in tandem and related methods of operation
JP4762262B2 (ja) * 2008-03-13 2011-08-31 シャープ株式会社 情報表示装置及び情報表示方法
US8248237B2 (en) * 2008-04-02 2012-08-21 Yougetitback Limited System for mitigating the unauthorized use of a device
US8174503B2 (en) * 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US8346308B2 (en) * 2008-09-08 2013-01-01 Research In Motion Limited Communication device
US20100073303A1 (en) * 2008-09-24 2010-03-25 Compal Electronics, Inc. Method of operating a user interface
JP2010108061A (ja) 2008-10-28 2010-05-13 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
KR101063939B1 (ko) * 2009-06-10 2011-09-08 이노디지털 주식회사 사용자 인터페이스 제어 장치 및 구현 방법
JP5478129B2 (ja) 2009-06-22 2014-04-23 株式会社ニデック 非接触式超音波眼圧計
US20120126941A1 (en) * 2010-11-19 2012-05-24 Research In Motion Limited Pressure password for a touchscreen device

Also Published As

Publication number Publication date
CN102681760B (zh) 2016-06-29
EP3557395A1 (en) 2019-10-23
KR20120079812A (ko) 2012-07-13
JP2012141868A (ja) 2012-07-26
EP3557395B1 (en) 2022-01-05
JP5917805B2 (ja) 2016-05-18
EP2474896B1 (en) 2019-06-12
RU2011153164A (ru) 2013-07-10
US20120174044A1 (en) 2012-07-05
CN102681760A (zh) 2012-09-19
EP2474896A2 (en) 2012-07-11
EP2474896A3 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
BRPI1107115A2 (pt) Aparelho e método de processamento de informação e programa de computador
KR102027612B1 (ko) 애플리케이션의 썸네일-이미지 선택 기법
US9329774B2 (en) Switching back to a previously-interacted-with application
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
US10437360B2 (en) Method and apparatus for moving contents in terminal
US8633909B2 (en) Information processing apparatus, input operation determination method, and input operation determination program
JP6055961B2 (ja) テキスト選択及び入力
US8581869B2 (en) Information processing apparatus, information processing method, and computer program
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
US20110175826A1 (en) Automatically Displaying and Hiding an On-screen Keyboard
TWI512601B (zh) 電子裝置及其控制方法與電腦程式產品
JP2012141869A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP2011227854A (ja) 情報表示装置
KR20140062257A (ko) 가상 키보드를 제공하기 위한 방법 및 그 전자 장치
WO2016183912A1 (zh) 菜单布局方法及装置
US10599326B2 (en) Eye motion and touchscreen gestures
KR101436585B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR101436587B1 (ko) 투 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR101436805B1 (ko) 터치 스크린 디스플레이에서의 다중 객체 선택 방법 및 장치
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
US10540086B2 (en) Apparatus, method and computer program product for information processing and input determination
KR101436586B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
JP2016024580A (ja) 情報処理装置、入力制御方法、および入力制御プログラム
JP2014219841A (ja) 操作入力装置および操作入力プログラム

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 5A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]