BRPI1006334A2 - aparelho e método de processamento de informação, e, programa - Google Patents

aparelho e método de processamento de informação, e, programa Download PDF

Info

Publication number
BRPI1006334A2
BRPI1006334A2 BRPI1006334-0A BRPI1006334A BRPI1006334A2 BR PI1006334 A2 BRPI1006334 A2 BR PI1006334A2 BR PI1006334 A BRPI1006334 A BR PI1006334A BR PI1006334 A2 BRPI1006334 A2 BR PI1006334A2
Authority
BR
Brazil
Prior art keywords
touch
detected
touch operation
displayed
touch panel
Prior art date
Application number
BRPI1006334-0A
Other languages
English (en)
Inventor
Kii Manabu
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Publication of BRPI1006334A2 publication Critical patent/BRPI1006334A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Digital Computer Display Output (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

APARELHO E MéTODO DE PROCESSAMENTO DE INFORMAçãO, E, PROGRAMA. Um aparelho de processamento de informação inclui um primeiro painel de toque, um segundo painel de toque, e um controlador. O primeiro painel de toque exibe um primeiro objeto e detecta uma primeira operação de toque de um usuário no primeiro objeto. O segundo painel de toque exibe, um segundo objeto e detecta uma segunda operação de toque do usuário no segundo objeto. O controlador conecta e muda o primeiro objeto exibido e o segundo objeto exibido quando a segunda operação de toque é detectada dentro de um período de tempo pré-determinado desde que a primeira operação de toque foi detectada.

Description

"APARELHO E MÉTODO DE PROCESSAMENTO DE INFORMAÇÃO, E, PROGRAMA"
Conhecimento da Invenção
1. Campo da Invenção
A presente invenção se refere a um aparelho de processamento de informação incluindo uma grande quantidade de painéis de toque, um método de processamento de informação para o aparelho de processamento de informação, e um programa dele.
2. Descrição da arte relacionada
Do passado, os aparelhos de processamento de informações que cada um inclui uma grande quantidade de painéis de toque são conhecidos. Por exemplo, Pedido Laid-open de Patente Japonesa de Nr. 2003- 150273 (Figs. 1,4, 10, etc.; daqui em diante, referidas como Documento de Patente 1) divulga um PDA (Assistente Digital Pessoal) do tipo relógio no qual uma grande quantidade de painéis incluindo LCDs (Mostradores de cristal líquido) integralmente formados com uma grande quantidade de painéis de toque é conectada através de uma porção de dobradiça.
Sumário da invenção
Contudo, no PDA divulgado em Documento de Patente 1, somente uma operação para um botão exibido em cada LCD é detectado pelo painel de toque. Conseqüentemente, quando operações de toque para uma grande quantidade de painéis de toque são detectadas, o PDA é incapaz de conectar e controlar exibição dos respectivos objetos como alvos de operação entre a grande quantidade de painéis de toque. Isto é, o PDA é incapaz de executar processamento integrado único na grande quantidade de painéis de toque.
Em vista das circunstâncias conforme descrito acima, há uma necessidade de um aparelho de processamento de informação, um método de processamento de informação, e um programa dele que sejam capazes de conectar e controlar exibição dos respectivos objetos como alvos de operação entre uma grande quantidade de painéis de toque de acordo com operações de toque detectada na grande quantidade de painéis de toque, e executar processamento integrado único.
De acordo com uma modalidade da presente invenção, é fornecido um aparelho de processamento de informação incluindo um primeiro painel de toque, um segundo painel de toque e um controlador. O primeiro painel de toque exibe um primeiro objeto e detecta uma primeira operação de toque de um usuário no primeiro objeto. O segundo painel de toque exibe um segundo objeto e detecta uma segunda operação de toque de um usuário no segundo objeto. O controlador conecta e muda o primeiro objeto exibido e o segundo objeto exibido quando a segunda operação é detectada dentro de um período de tempo pré-determinado desde que a primeira operação de toque foi detectada. Com esta estrutura, o aparelho de processamento de informação pode conectar e controlar exibição dos objetos como alvos de operação entre os respectivos painéis de toque, de acordo com as operações de toque detectadas pelo primeiro e segundo painéis de toque, e assim executar processamento integrado único. Conseqüentemente, já que o aparelho de processamento de informação pode processar uma grande quantidade de objetos na somente individualmente mas também integralmente, quando comparado com um caso onde um único painel de toque é usado, é possível aumentara flexibilidade de processamento de acordo com os usos por um usuário. Aqui, o período de tempo pré-determinado é, por exemplo, cerca de 0 a 3 segundos, mas não limitado a esses. Em outras palavras, o período de tempo pré-determinado também inclui um caso onde a prioridade operação de toque e a segunda saída operação de toque são detectadas ao mesmo tempo. Os primeiro e segundo painéis de toque incluem aqueles que incluem um sensor de capacitância do tipo sem contato, e a primeira e segunda operações de toque incluem aquelas que não são acompanhadas de um contato físico com relação ao primeiro e segundo painéis de toque. Ainda, o primeiro e segundo objetos incluem um ícone, uma janela, a tela inteira, e várias outras imagens, por exemplo. O primeiro e segundo objetos podem ser um objeto obtido dividindo um objeto único no primeiro painel de toque e no segundo painel de toque e exibido, ou pode ser separadamente e individualmente exibido.
A primeira operação de toque e a segunda operação de toque podem ser operações em direções opostas.
Conseqüentemente, configurando as operações de toque para conectar e mudar o primeiro e segundo objetos para estar em direções opostas um com o outro, o aparelho de processamento de informação força o usuário a facilmente reconhecer uma diferença com uma operação de toque de não conexão normal e intuitivamente entrar a operação de toque. Como um resultado, o aparelho de processamento de informação também pode prevenir uma operação de erro do usuário. Aqui, as direções opostas de cada um com o outro inclui operações não somente em uma direção linear mas também em uma direção curva e uma direção de rotação. O controlador pode exibir o primeiro objeto no segundo painel de toque e exibir o segundo objeto no primeiro painel de toque quando a segunda operação de toque é detectada dentro do período de tempo pre- determinado desde que a primeira operação de toque foi detectada.
Conseqüentemente, o usuário pode comutar a exibição dos objetos ou telas exibidas no primeiro e segundo painéis de toque através de operações de toque intuitivas.
Cada um do primeiro objeto e do segundo objeto pode ser exibido como uma parte de um único terceiro objeto. Neste caso, cada uma da primeira operação de toque e da segunda operação de toque pode ser uma operação em uma direção de rotação. Neste caso, o controlador pode girar o terceiro objeto quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
Conseqüentemente, o usuário pode não somente ver um objeto em uma grande quantidade de painéis de toque mas também girar o objeto através de operações intuitivas e fáceis que similares a uma operação de girar um objeto real.
Cada um do primeiro objeto e do segundo objeto pode ser exibido com uma parte de um único terceiro objeto. Neste caso, a primeira operação de toque e a segunda operação de toque podem ser operações em direções se afastando cada uma da outra. Neste caso, o controlador pode mudar o terceiro objeto tal que o terceiro objeto é rasgado quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
Conseqüentemente, o usuário pode não somente ver um objeto em uma grande quantidade de painéis de toque mas também mudar o objeto através de operações intuitivas e fáceis que são similares a uma operação de rasgar um documento real ou o similar. Neste caso, o aparelho de processamento de informação pode ainda incluir um depósito para armazenar dados correspondendo ao terceiro objeto, e o controlador pode eliminar os dados do depósito quando o terceiro objeto é mudado tal que o terceiro objeto é rasgado.
Conseqüentemente, o usuário pode intuitivamente executar processamento de eliminação dos dados correspondendo ao terceiro objeto vendo o processamento de eliminação como uma operação para rasgar o terceiro objeto.
A primeira operação de toque e a segunda operação de toque podem ser operações em direções se movendo perto cada uma da outra. Neste caso, o controlador pode mudar o primeiro objeto e o segundo objeto tal que o primeiro objeto e o segundo objeto saco integrados em um quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
Conseqüentemente, o usuário pode integrar os objetos exibidos no primeiro e Segundo painéis de toque em um através de operações intuitivas e fáceis que são similares a uma operação de trazer objetos reais próximos um do outro e coletá-los.
O aparelho de processamento de informação may ainda incluir um sensor para detector um objeto que está presente em uma distância pre- determinada do primeiro painel de toque e do segundo painel de toque. Neste caso, o controlador pode conectar e mudar o primeiro objeto exibido e o segundo objeto exibido quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada e o objeto é detectado pelo sensor.
Neste caso, o objeto que está presente na distância pre- determinada é, por exemplo, uma mão do usuário, mais especificamente, uma porção de base entre dois dedos.
Conseqüentemente, por exemplo, em um case onde a primeira operação de toque é entrada com um dedo de uma mão do usuário e a segunda operação de toque é entrada com um outro dedo da mão, o aparelho de processamento de informação pode de modo confiável reconhecer que as operações de toque são entradas com os dois dedos detectando a mão com o sensor. Conseqüentemente, mesmo em um caso onde somente a primeira operação de toque é entrada e outro objeto está em contato com o segundo painel de toque por coincidência, o aparelho de processamento de informação porde prevenir uma detecção falsa e mudança falsa de exibição devido ao contato do outro objeto. Isto é porque em tal um caso, o próprio objeto é detectado pelo sensor mas detectado em uma distância menor do que uma distância pré-determinada.
Adicionalmente, neste caso, o controlador pode mudar o primeiro objeto exibido e o segundo objeto exibido em um primeiro modo quando o objeto é detectado pelo sensor, e muda o primeiro objeto detectado e o segundo objeto detectado em um segundo modo que é diferente do primeiro modo, quando o objeto não é detectado pelo sensor.
Conseqüentemente, de acordo com a presença da detecção do objeto pelo sensor, o aparelho de processamento de informação pode mudar o primeiro e segundo objetos em diferentes modos mesmo em um caso onde as mesmas primeira e segunda operação são detectadas. Assim, o aparelho de processamento de informação pode executar processamento de mais padrões de acordo com a primeira e segunda operação de toque e aumenta a facilidade de utilização do usuário.
O aparelho de processamento de informação pode asinda incluir um depósito para armazenar primeiros dados correspondendo ao primeiro objeto e segundos dados correspondendo ao segundo objeto. Neste caso, a primeira operação de toque pode ser uma operação para delimitar o primeiro objeto em uma direção de rotação pré-determinada, e a segunda operação de toque pode ser a operação para delimitar o segundo objeto na direção de rotação pré-determinada. Neste caso, o controlador pode forçar o depósito a agrupar e armazenar os primeiros dados e os segundos dados quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
Conseqüentemente, o usuário pode agrupar e armazenar os primeiros e segundos dados correspondendo ao primeiro e segundo objetos somente efetuando operações intuitivas e fáceis de delimitar o primeiro e segundo objetos.
De acordo com uma outra modalidade da presente invenção, é fornecido um método de processamento de informação incluindo exibição, através de um primeiro painel de toque, um primeiro objeto e detectar uma primeira operação de toque de um usuário no primeiro objeto. Adicionalmente, o método de processamento de informação inclui exibir, através de um segundo painel de toque, um segundo objeto e detectar uma segunda operação de toque do usuário no segundo objeto. Quando a segunda operação de toque é detectada dentro de um período de tempo pre- determinado desde que a primeira operação de toque foi detectada, o primeiro objeto exibido e o segundo objeto exibido são conectados e mudados.
De acordo ainda com uma outra modalidade da presente invenção, é fornecido um programa forçando um aparelho de processamento de informação incluindo um primeiro painel de toque e um segundo painel de toque a executar um primeiro passo de detecção, um segundo passo de detecção, e um passo de controle de exibição. O primeiro passo de detecção inclui exibir, através do primeiro painel de toque, um primeiro objeto e detectar uma primeira operação de toque de um usuário no primeiro objeto. O segundo passo de detecção inclui exibir, através do segundo painel de toque, um segundo objeto e detectar uma segunda operação de toque do usuário no segundo objeto. O passo de controle de exibição inclui conectar e mudar o primeiro objeto exibido e o segundo objeto exibido quando a segunda operação de toque é detectada dentro de um período de tempo pré- determinado desde que a primeira operação de toque foi detectada.
Como descrito acima, de acordo com as modalidades da presente invenção, é possível executar processamento integrado único conectando e controlando a exibição dos objetos como alvos de operação entre a grande quantidade de painéis de toque de acordo com as operações de toque detectadas na grande quantidade de painéis de toque.
Esses e outros objetos, características e vantagens da presente invenção se tornarão mais aparente à luz da descrição detalhada a seguir da melhor modalidade dela, conforme ilustrado nos desenhos anexos. Descrição Breve dos Desenhos
Fig. 1 é um diagrama mostrando uma aparência externa de um aparelho de informação portátil de acordo com uma modalidade da presente invenção;
Fig. 2 é um diagrama mostrando uma estrutura de hardware estrutura do aparelho de informação portátil de acordo com a modalidade da presente invenção;
Figs. 3 são diagramas mostrando estados de abertura e fechamento do aparelho de informação portátil de acordo com a modalidade da presente invenção;
Fig. 4 é um fluxograma mostrando um fluxo de processamento de acordo com uma operação de toque pelo aparelho de informação portátil de acordo com a modalidade da presente invenção;
Figs. 5 são diagramas mostrando um exemplo de um estado de uma ação de rotação no aparelho de informação portátil de acordo com a modalidade da presente invenção vista a partir de uma direção de um plano de um painel de toque;
Figs. 6 são diagramas mostrando um exemplo de processamento de exibição específico correspondendo à ação de rotação mostrada na Fig. 5;
Fig. 7 são diagramas mostrando um outro exemplo de processamento de exibição específico correspondendo à ação de rotação mostrada na Fig. 5;
Figs. 8 são diagramas mostrando um exemplo de um estado de ação de pressão no aparelho de informação portátil de acordo com a modalidade da presente invenção vista a partir da direção do plano do painel de toque.
Figs. 9 são diagramas mostrando um exemplo do processamento de exibição específico para a ação de pressão mostrada nas Figs. 8;
Figs. 10 são diagramas mostrando um exemplo de um estado de uma ação de aproximação no aparelho de informação portátil de acordo com a modalidade da presente invenção vista a partir da direção do plano do painel de toque;
Figs. 11 são diagramas mostrando um exemplo do processamento de exibição específico para a ação de aproximação mostrada nas Figs. 10;
Figs. 12 são diagramas mostrando um exemplo de um estado de uma ação de rasgar no aparelho de informação portátil de acordo com a modalidade da presente invenção vista a partir da direção do plano do painel de toque;
Figs. 13 são diagramas mostrando um exemplo do processamento de exibição específico para a ação de rasgar mostrada nas Figs. 12;
Figs. 14 são diagramas mostrando um exemplo de um estado de uma ação de agrupamento no aparelho de informação portátil de acordo com a modalidade da presente invenção vista a partir da direção do plano do painel de toque; e
Figs. 15 são diagramas mostrando um exemplo do processamento de exibição específico correspondendo à ação de agrupamento mostrada nas Figs. 14.
Descrição das Modalidades Preferidas
Daqui em diante, modalidades da presente invenção serão descritas com referência aos desenhos.
(Esboço geral do aparelho de informação portátil)
Fig. 1 é um diagrama mostrando uma aparência externa de um aparelho de informação portátil de acordo com a primeira modalidade da presente invenção. Como mostrado na figura, um aparelho de informação portátil 100 inclui um assim chamado compartimento do tipo concha de marisco 1 no qual dos compartimentos 1a e 1b são conectados de modo rotacional (em estado passível de abrir). Fig. 1 mostra um estado onde os compartimentos 1a e 1b estão abertos. Um usuário opera o aparelho de informação portátil 100 neste estado.
Os compartimentos 1a e 1b incluem painéis de toque 2a e 2b, respectivamente, em suas superfícies que estão expostas no estado aberto. Os painéis de toque 2a e 2b são fornecidos integralmente com mostradores 25a e 25b, respectivamente. O painel de toque 2a inclui uma superfície de toque tendo um lado de extremidade 21 e um lado de extremidade 22 oposto ao lado de extremidade 21. De forma similar, o painel de toque 2b inclui uma superfície de toque tendo um lado de extremidade 23 e um lado de extremidade 24 oposto ao lado de extremidade 23. Os painéis de toque 2a e 2b detectam operações de toque feitas através de um dedo de um usuário sobre um objeto exibido nos mostradores 25a e 25b. O usuário entra operações de toque usando dois dedos de uma mão (tipicamente o polegar e o dedo indicador) ou um dedo de uma mão e um dedo da outra mão (tipicamente, os dedos indicadores). Tipicamente, a operação de toque inclui uma operação de arrastar um dedo em uma direção arbitrária (operação de correr um dedo através dos painéis 2a e 2b) ou uma operação de clique (toque simples), mas não limitada a isto.
O compartimento 1a inclui membros de engrenagem 3 a em ambas superfícies laterais no lado de extremidade 22, e o compartimento 1b inclui membros de engrenagem 3b em ambas superfícies laterais no lado de extremidade 23. Os membros de engrenagem 3a e os membros de engrenagem 3b são conectados em um estado entrelaçado pelos membros de acoplamento 4. Os membros de acoplamento 4 são cada um estruturados tal que as extremidades de duas chapas (ou barras) são conectadas de modo rotacional, e as outras extremidades das duas conectadas aos eixos rotacionais dos membros de engrenagem 3a e 3b. Através dos membros de engrenagem 3a e 3b e dos membros de acoplamento 4, os compartimentos 1a e 1b são conectados de modo rotacional. Com tal uma estrutura, a distância entre o painel de toque 2a do compartimento 1a e o painel de toque 2b do compartimento Ib pode ser trazida mais perto cada um do outro do que em um caso onde os compartimentos 1a e 1b são conectados usando, por exemplo, uma dobradiça.
Um sensor de toque 5 é fornecido entre o lado de extremidade 22 do painel de toque 2a e o lado de extremidade 23 do painel de toque 2b. O sensor de toque 5 inclui uma porção de sensor de toque porção 5 a que é fornecida continuamente no compartimento 1a a partir do lado de extremidade 22 do painel de toque 2a e uma porção de sensor de toque 5b que é fornecida continuamente no compartimento 1b do lado de extremidade 23 do painel de toque 2b. A superfície de toque do painel de toque 2a, a superfície de toque do painel de toque 2b, e uma superfície do sensor de toque 5 são fornecidos a fim de serem posicionados no mesmo plano quando os compartimentos 1a e 1b estão no estado aberto.
(Estrutura de hardware do aparelho de informação portátil)
Fig. 2 é um diagrama mostrando uma estrutura de hardware do aparelho de informação portátil 100.
Conforme mostrado na figura, o aparelho de informação portátil 100 inclui, em adição aos painéis de toque 2a e 2b (mostradores 25a e 25b) e o sensor de toque 5, uma CPU (Unidade de Processamento Central) 11, uma RAM (Memória de Acesso Aleatório) 12, e uma memória flash 13. O aparelho de informação portátil 100 também inclui uma porção de comunicação 14, um I / F (Interface) externa 15, uma porção de chave / comutador 16, um microfone 17, um alto-falante 18, um telefone de cabeça 19, e uma câmera 20. A CPU 11 troca sinais com as respectivas porções do aparelho de informação portátil 100 para efetuar várias operações e coletivamente controlar vários tipos de processamento de exibição e outros processamentos que correspondem às operações de toque (ações de toque) feitas para os painéis de toque 2a e 2b.
A RAM 12 é usada como uma área de trabalho da CPU lie temporariamente armazena vários tipos de dados incluindo vários GUIs (objetos) a serem processado pela CPU 11 e programas tais como uma aplicação para executar os vários tipos de processamento de exibição correspondendo às operações de toque para os painéis de toque 2a e 2b.
A memória flash 13 é de um tipo NAND, por exemplo. A memória flash 13 armazena vários tipos de dados incluindo imagens tais como vários ícones e vários programas tal como um programa de controle a ser executado pela CPU 11 e uma aplicação para executar os vários tipos de processamento de exibição. A aplicação pode ser armazenada em outra mídia de gravação tal com um cartão de memória (não mostrado). O aparelho de informação portátil 100 pode incluir um HDD no lugar da ou em adição à memória flash 13.
A porção de comunicação 14 é uma interface para conectar o aparelho de informação portátil 100 à Internet ou uma LAN (Rede de Área Local) de acordo com um padrão da Ethernet (marca comercial registrada), uma LAN sem fio, ou o similar.
A I / F externa 15 troca vários tipos de dados através de conexão com fio ou sem fio com um aparelho externo com base em vários 25 padrões de uma USB (Universal Serial Bus), um LAN sem fio, e o similar. A I / F externa 15 pode alternativamente ser uma interface para conectar vários cartões de memória tal como um bastão de memória.
A porção de chave / comutador 16 aceita operações correspondendo às funções equivalentes às funções que não podem ser executadas através de uma operação para os painéis de toque 2a e 2b, tal como ON / OFF de uma fonte de energia (não mostrado) e uma comutação de várias funções, e funções que podem ser executadas por uma operação para os painéis de toque 2a e 2b, e transmite sinais de entrada para a CPU 11.
O microfone 17 entra áudio tal como uma voz de usuário para comunicação verbal em um caso onde o aparelho de informação portátil 100 é conectado a outros aparelhos em uma rede pela porção de comunicação 14.
O alto-falante 18 e o telefone de cabeça 19 emitem sinais de áudio que estão armazenados na memória flash 13 ou o similar, ou entrados a partir da porção de comunicação 14 ou do microfone 17.
A câmera 20 captura uma imagem fixa e uma imagem em movimento através de um dispositivo de captura de imagem tal como um sensor de CMOS (Semicondutor de Metal Óxido Complementar) e um sensor de CCD (Dispositivo de Acoplamento de Carga). Os dados capturados são armazenados na RAM 12 ou na memória flash 13 ou transmitidos para outros aparelhos na rede através da porção de comunicação 14.
Embora um sistema de película de resistência ou um sistema de capacitância seja usado como um sistema de operação dos painéis de toque 2a e 2b, outros sistemas tais como um sistema de indução eletro magnética, um sistema de comutação de matriz, um sistema de onda elástica de superfície, e um sistema de raio infravermelho podem ser usados em seu lugar. Quando o sistema de capacitância é usado como o sistema de operação, a "operação de toque" nesta modalidade inclui, não somente um caso onde um dedo de um usuário está fisicamente em contato com os painéis de toque 2a e 2b, mas também um caso onde o dedo do usuário é trazido para perto o bastante dentro de um intervalo no qual uma mudança em uma capacitância pode ser detectada.
O sensor óptico 5 é de um tipo de reflexão, por exemplo, e inclui um dispositivo de emissão de luz tal como um LED (Diodo de emissão de Luz) que emite luz infravermelha e um dispositivo de recepção de luz tal como um foto diodo emite luz infravermelha e um dispositivo de recepção de luz tal como um fotodiodo e um foto-transistor. O sensor óptico 5 detecta se um objeto está presente dentro de um pré-determinado intervalo de distância acima do sensor óptico 5. Nesta modalidade, o sensor óptico 5 detecta se (se um dedo de) uma mão de um usuário está presente dentro do pré-determinado intervalo de distância acima do sensor óptico 5. Isto é, o sensor óptico 5 detecta se a mão do usuário está presente acima do sensor óptico 5 tal que dois dedos do usuário estão ao longo dos painéis de toque 2a e 2b. Neste caso, o pré-determinado intervalo de distância é, por exemplo, cerca de 3 cm à 15 cm, mas não é limitado a esses.
Em um caso onde as operações de toque para os painéis de toque 2a e 2b são detectados e um objeto está presente dentro do pré- determinado intervalo de distância, é julgado que o usuário está efetuando as operações de toque com dois dedos. Por exemplo, em um caso onde o usuário está efetuando as operações de toque para os painéis de toque 2a e 2b com um polegar e um dedo indicador, uma porção de base entre o polegar e o dedo indicador é detectada pelo sensor óptico 5. Na outra mão, em um caso onde as operações de toque são detectadas mas nenhum objeto é detectado dentro do pré-determinado intervalo de distância pelo sensor óptico 5, é julgado que o usuário toca o painel de toque 2a com um dedo de uma mão e toca o painel de toque 2b com um dedo da outra mão.
Embora não mostrado, o aparelho de informação portátil 100 também inclui um cabo e um substrato flexível para uma conexão elétrica entre os painéis de toque 2a e 2b. O cabo e o substrato flexível podem ser fornecidos através dos membros de engrenagem 3a e 3b e dos membros de acoplamento 4.
Os mostradores 25a e 25b são, por exemplo, um LCD de um TFT ou o similar ou um OELD (Mostrador Eletro luminescente Orgânico) e exibe GUIs para operações de toque tal como um ícone e uma janela e outras imagens. Os mostradores 25a e 25b são integralmente formados com os painéis de toque 2a e 2b conforme descrito acima.
(Operação de aparelho de informação portátil)
A seguir, uma operação do aparelho de informação portátil 100 estruturado conforme descrito acima será descrita.
(Operação de abertura e fechamento de aparelho de informação portátil)
Primeiro, uma operação de abertura e fechamento do aparelho de informação portátil 100 será descrita. Figs. 3 são diagramas mostrando estados de abertura e fechamento do aparelho de informação portátil 100.
Conforme mostrado na Fig. 3 A, quando o usuário abre o compartimento Ia em um estado onde os compartimentos Ia e Ib estão fechados, por exemplo, os membros de engrenagem 3a e 3b e os membros de acoplamento 4 giram para abrir o compartimento Ia como mostrado na Figs. 3B à 3D. Conseqüentemente, os painéis de toque 2a e 2b são expostos. Então, como mostrado na Fig. 3E, os compartimentos 1a e 1b se tornam estáticos quando abertos em 180 graus tal que as superfícies de toque dos painéis de toque 2a e 2b e o sensor de toque 5 ficam posicionados no mesmo plano. A operação de toque do usuário é entrada no estado mostrado na Fig. 3E. Assim sendo configurando as superfícies de toque no mesmo plano, se torna possível para o usuário efetuar operações intuitivas sem ser incomodado pelos diferentes painéis de toque e o sensor de toque.
(Processamento de controle de exibição de objeto do aparelho de informação portátil)
A seguir, o processamento de controle de objeto no qual os objetos correspondendo as operações de toque (ações de toque) detectadas pelos painéis de toque 2a e 2b do aparelho de informação portátil 100 estão conectados, será descrito. Nas descrições a seguir, a CPU 1 é descrita como um agente das operações, mas a operação da CPU 11 é executada em conjunto com um programa desenvolvidos na RAM 12.
Fig. 4 é um fluxograma mostrando um fluxo de processamento de controle de exibição de objeto pelo aparelho de informação portátil 100.
Como mostrado na figura, primeiro, a CPU 11 exibe objetos nos painéis de toque 2a e 2b (Passo 41). Subseqüentemente, a CPU 11 detecta se operações de toque para os objetos são detectados nos painéis de toque 2a e 2b ao mesmo tempo. (Passo 42). Neste caso, "ao mesmo tempo" pode não indicar o mesmo tempo em um sentido estrito e inclui um caso onde cada uma das operações de toque é detectada dentro de 0,5 segundos, por exemplo.
No caso onde as operações de toque são detectadas ao mesmo tempo (SIM), a CPU 11 julga se pontos de toque das operações de toque detectadas giram na mesma direção de rotação (Passo 43). Quando julgando que os pontos de toque giram na mesma direção de rotação (SIM), a CPU 11 julga se o sensor óptico 5 detecta um objeto (mão) dentro do pré-determinado intervalo de distância (Passo 44). Em um caso onde um objeto (mão) não é detectado dentro do pré-determinado intervalo de distância (NÃO), a CPU 11 julga se as operações de toque detectadas são uma detecção falsa, e termina o processamento de controle de exibição e conexão dos objetos.
Em um caso onde um objeto (mão) é detectado dentro do pré- determinado intervalo de distância (SIM), a CPU 11 julga que as operações de toque são uma ação de rotação (Passo 45).
Figs. 5 são diagramas mostrando um exemplo de um estado da ação de rotação vista a partir de uma direção de um plano dos painéis de toque 2a e 2b.
Como mostrado nas Figs. 5A e 5B, o usuário toca os painéis de toque 2a e 2b com dois dedos Fl e F2 (polegar e dedo indicador), respectivamente, e gira os dedos nas direções das setas das figuras com a porção da base dos dedos sendo com um sustentáculo. Neste caso, a CPU 11 detecta as operações de toque naquela direção de rotação e também confirma que a mão é detectada pelo sensor óptico 5.
Referindo de volta à Fig. 4, quando detectando a ação de rotação, a CPU 11 executa processamento de controle de exibição (mudança de exibição) correspondendo à ação de rotação (Passo 46). Figs. 6 são diagramas mostrando um exemplo de processamento de controle de exibição específico para a ação de rotação. Figs. 6A e 6B mostram um estado quando a ação de rotação é entrada, e Fig. 6C mostra um estado após a ação de rotação ser entrada.
Conforme mostrado na Fig. 6A, como objetos Ol e 02, por exemplo, telas de GUI das aplicações AeB que estão sendo executadas pelo aparelho de informação portátil 100 são exibidas nos painéis de toque 2a e 2b. Neste estado, o usuário entra a ação de rotação com os dois dedos Fl e F2 Conforme mostrado nas Figs. 6A e 6B. Então, a CPU 11 efetua processamento de mudança da tela de GUI da aplicação A e da tela de GUI da aplicação B cada uma com a outra entre os painéis de toque 2a e 2b conforme mostrado na Fig. 6C.
Na figura, a CPU 11 executa o processamento de mudança das telas inteiras de acordo com a ação de rotação, mas pode mudar posições de outros objetos (imagens) tal como janelas e ícones entre os painéis de toque 2a e 2b.
Figs. 7 são diagramas mostrando um outro exemplo do processamento de controle de exibição específico correspondendo à ação de rotação. Figs. 7A e 7B mostram um estado quando a ação de rotação é entrada, e Fig. 7C mostra um estado após a ação de rotação ser entrada.
Conforme mostrado na Fig. 7A, uma porção do lado superior Ol e uma porção do lado inferior 02 de um objeto O tal como uma imagem são exibidas nos painéis de toque 2a e 2b, respectivamente. Neste estado, o usuário entra uma ação de rotação descrita acima com os dois dedos F1 e F2 conforme mostrado nas Figs. 7 A e 7B. Então, a CPU 11 gira o objeto O 180 graus com um eixo Z das figuras sendo como um eixo rotacional, conforme mostrado na Fig. 7C.
A CPU 11 pode girar o objeto O não somente de 180 graus, mas também por um ângulo correspondendo a um ângulo de rotação de uma ação de rotação (quantidade de movimento dos respectivos pontos de toque).
Referindo de volta à Fig. 4, quando julgando no Passo 43 que os pontos de toque não giram na mesma direção de rotação (NÃO), a CPU 11 julga se os pontos de toque se movem linearmente nas direções de movimento próximas cada uma com a outra (Passo 47). Quando julgando que os pontos de toque se movem linearmente nas direções de movimento próximas cada uma da outra (SIM), a CPU 11 julga se o sensor óptico 5 detecta um objeto (mão) dentro do pré-determinado intervalo de distância (Passo 48). Em um caso onde um objeto (mão) não é detectado dentro do pré-determinado intervalo de distância (NÃO), a CPU 11 julga que as operações de toque detectadas são uma detecção falsa, e termina o processamento de conexão e controle de exibição dos objetos.
Em um caso onde um objeto (mão) é detectado dentro do pré- determinado intervalo de distância (SIM), a CPU 11 julga que as operações de toque são uma ação de pressão. (Passo 49).
Figs. 8 são diagramas mostrando um exemplo de um estado da ação de pressão visto a partir da direção do plano dos painéis de toque 2a e 2b.
Conforme mostrado na Figs. 8A e 8B, o usuário toca os painéis de toque 2a e 2b com os dois dedos Fl e F2 (polegar e dedo indicador), respectivamente, e linearmente se move os dedos em direções opostas nos quais os pontos de toque de ambos os dedos Fl e F2 se movem próximos cada um do outro (direções de setas na figura). Isto é, o usuário efetua um ação de toque similar a pressionar algum objeto com dois dedos Fl e F2 ou trazendo junto os dois dedos Fl e F2. Neste caso, a CPU 11 detecta as operações de toque nas direções linear e oposta nas quais os pontos de toque se movem próximos cada um do outro e confirmar que a mão é detectada pelo sensor óptico 5.
Referindo de volta à Fig. 4, quando detectando a ação de pressão, a CPU 11 executa processamento de controle de exibição (mudança de exibição) correspondendo à ação de pressão (Passo 50). Figs. 9 são diagramas mostrando um exemplo de processamento de controle de exibição específico correspondendo à ação de pressão. Figs. 9A e 9B mostram um estado quando a ação de pressão é entrada, e Fig. 9C mostra um estado após a ação de pressão ser entrada.
Conforme mostrado na Fig. 9A, um objeto Ol tal como uma imagem de paisagem (plano de fundo) é exibida no painel de toque 2a, e um objeto 02 tal como uma imagem de pessoas é exibida no painel de toque 2b. Neste estado, o usuário entra a ação de pressão descrita acima com os dois dedos Fl e F2 conforme mostrado na Figs. 9A e 9B. Então, a CPU 11 move os objetos Ol e 02 para o lado do sensor óptico 5 Conforme mostrado na Fig. 9B. Adicionalmente, por exemplo, quando a distância entre ambos os objetos 01 e 02 (distância entre ambos os pontos de toque) é igual à ou menor do que uma distância pré-determinada, a CPU 11 combina o objeto Oleo objeto 02 e os exibe conforme mostrado na Fig. 9C. Isto é, a CPU 11 combina o objeto 02 como uma imagem de pessoas com o objeto Ol como uma imagem de paisagem no objeto O1, e gera e exibe um objeto 03 com uma nova imagem no painel de toque 2a (ou painel de toque 2b).
Outro do que processamento de combinação conforme descrito acima, vários tipos de processamento são assumidos com o processamento de controle de exibição correspondendo à ação de pressão. Por exemplo, a CPU 11 pode executar controle de exibição no qual objetos parecidos com célula ou parecido com lodo exibidos nos painéis de toque 2a e 2b são unidos em um de acordo com a ação de pressão. Tal controle de exibição pode ser aplicado a uma aplicação de jogo ou o similar.
Adicionalmente, de acordo com uma ação de pressão com relação aos dois objetos tais como imagens, a CPU 11 pode executar processamento no qual ambos os objetos são armazenados como um pedaço de álbum de dados na memória flash 13 ou o similar.
Referindo de volta à Fig. 4, quando julgando no Passo 47 que os pontos de toque não se movem linearmente nas direções de movimento aproximando-se cada um do outro (NÃO), a CPU 11 julga se os pontos de toque se movem linearmente em direções de movimento afastando-se cada um do outro (Passo 51).
Quando julgando que os pontos de toque não se movem linearmente nas direções de movimento afastando-se cada um do outro (NÃO), a CPU 11 julga que uma ação passível de se detectar não potencial elétrico entrada e termina o processo de conexão e controle de exibição dos objetos.
Quando julgando que os pontos de toque linearmente se movem nas direções de movimento afastando-se cada um do outro (SIM), a CPU 11 julga se o sensor óptico 5 detecta um objeto (mão) dentro do pre- determinado intervalo de distância (Passo 52).
Em um caso onde um objeto (mão) é detectado dentro do pre- determinado intervalo de distância (SIM), a CPU 11 julga que as operações de toque são uma ação de aproximação (Passo 53).
Figs. 10 são diagramas mostrando um exemplo de um estado da ação de aproximação visto a partir da direção do plano dos painéis de toque 2a e 2b.
Conforme mostrado nas Figs. 10A e 10B, o usuário toca os painéis de toque 2a e 2b com os dois dedos Fl e F2 (polegar e dedo indicador), respectivamente, e linearmente move os dedos nas direções opostas nas quais os pontos de toque de ambos os dedos Fl e F2 se movem afastando-se cada um do outro (direção das setas na figura).
Aquela ação é uma ação na direção oposta da ação de pressão. Neste caso, a CPU 11 detecta as operações de toque nas direções opostas e linear nas quais os pontos de toque se movem afastando-se cada um do outro, e confirma que a mão é detectada pelo sensor óptico 5.
Referindo de volta à Fig. 4, quando detectando a ação de aproximação, a CPU 11 executa processamento de controle de exibição (mudança de exibição) correspondendo à ação de aproximação (Passo 53). Figs. 11 são diagramas mostrando um exemplo de processamento de controle de exibição específico correspondendo à ação de aproximação. Figs. IlA e IlB mostram um estado quando a ação de aproximação é entrada, e Fig. 1IC mostra um estado após a ação de aproximação ser entrada.
Conforme mostrado na Fig. 1 IA, uma porção do lado superior Ole uma porção do lado inferior 02 de um objeto O tal como uma imagem e uma janela são exibidas nos painéis de toque 2a e 2b, respectivamente. Neste estado, o usuário entra a ação de aproximação descrita acima com os dois dedos Fl e F2 conforme mostrado nas Figs. 11A e 11B. Então, a CPU 11 aproxima o objeto conforme mostrado na Fig. 11C. Isto é, a CPU 11 exibe o objeto aproximado O como os objetos Ol e 02 nos painéis de toque 2a e 2b, respectivamente.
Referindo de volta à Fig. 4, em um caso onde um objeto (mão) não é detectado dentro do pré-determinado intervalo de distância no passo 52 (NÃO), a CPU 11 julga que as operações de toque são uma ação de rasgar (Passo 55).
Figs. 12 são diagramas mostrando um exemplo de um estado da ação de rasgar visto a partir da direção do plano dos painéis de toque 2a e 2b.
Conforme mostrado nas Figs. 12A e 12B, o usuário toca os painéis de toque 2a e 2b com um dedo Fl de uma mão e um dedo F2 da outra mão (dedos indicadores), respectivamente, e linearmente move os dedos nas direções opostas nas quais os pontos de toque de ambos os dedos Fl e F2 se movem afastando-se cada um do outro (direções das setas na figura).
As operações de toque são similares a um movimento de um caso onde um usuário rasga um documento real. Aqui, a direção de movimento das operações de toque é a mesma que a ação de aproximação descrita acima. Conseqüentemente, o usuário efetua as operações de toque tal que ambos os dedos Fl e F2 ou ambas as mãos não estão posicionados acima do sensor óptico 5. Isto é, mesmo nas operações de toque na mesma direção, a ação de aproximação e a ação de rasgar são diferenciadas cada uma da outra com base na presença da detecção pelo sensor óptico 5. A CPU 11 detecta as operações de toque nas direções oposta e linear nas quais os pontos de toque se movem afastando-se cada um do outro, e confirma que a mão não é detectada pelo sensor óptico 5.
Referindo de volta à Fig. 4, quando detectando a ação de rasgar, a CPU 11 executa processamento de controle de exibição (mudança de exibição) correspondendo à ação de rasgar (Passo 56). Figs. 13 são diagramas mostrando um exemplo de processamento de controle de exibição específico correspondendo à ação de rasgar. Figs. 13A e 13B mostram um estado quando a ação de rasgar é entrada, e Fig. 13C mostra um estado após a ação de rasgar ser entregue.
Conforme mostrado na Fig. 13 A, uma porção do lado superior Ole uma porção do lado inferior 02 de um objeto O tal como um arquivo de documento são exibidas nos painéis de toque 2a e 2b, respectivamente. Neste estado, o usuário entra a ação de rasgar descrita acima com os dois dedos Fle F2 conforme mostrado nas Figs. 13A e 13B. Então, a CPU 11 muda o objeto O tal que o objeto O é rasgado em pedaço Oleo outro pedaço 02 conforme mostrado na Fig. 13B. Adicionalmente, conforme mostrado na Fig. 13C, a CPU 11 pode exibir uma janela de apresentação de perguntas W para confirmar se dados correspondendo ao objeto O é eliminado da memória flash 13 ou o similar com o usuário. Neste caso, o usuário seleciona se os dados são eliminados ou não através de uma operação de toque na janela de apresentação de perguntas W. A CPU 11 executa processamento correspondendo àquela seleção.
Referindo de volta à Fig. 4, quando julgando no Passo 42 que as operações de toque não são detectadas ao mesmo tempo (NÃO), a CPU 11 julga se uma diferença de tempo de detecção entre as operações de toque para os painéis de toque 2a e 2b está dentro de um período de tempo pre- determinado (Passo 57).
Isto é, a CPU 11 julga se uma operação de toque para o painel de toque 2b (2a) é detectada dentro de um período de tempo pré-determinado desde que uma operação de toque para o painel de toque 2a (2b) foi detectada. Aqui, o período de tempo pré-determinado é, por exemplo, cerca de 3 segundos, mas não é limitado a isso.
Quando julgando que a diferença de tempo de detecção não cai dentro do período de tempo pré-determinado (NÃO), a CPU 11 termina o processamento de conexão e controle de exibição dos objetos.
Quando julgando que a diferença de tempo de detecção está dentro do período de tempo pré-determinado (SIM), a CPU 11 julga se ambos os pontos de toque cada um desenha um círculo na mesma direção de rotação (Passo 58). Quando julgando que ambos os pontos de toque cada um não desenha um círculo na mesma direção de rotação (NÃO), a CPU 11 termina o processamento de conexão e controle de exibição dos objetos.
Quando julgando que ambos os pontos de toque cada um desenha um círculo na mesma direção de rotação (SIM), a CPU 11 julga que as operações de toque são uma ação de agrupamento (Passo 59). Figs. 14 são diagramas mostrando um exemplo de um estado da ação de agrupamento visto a partir da direção do plano dos painéis de toque 2a e 2b.
Conforme mostrado na Fig. 14A, o usuário primeiro toca o painel de toque 2a com um dedo F (dedo indicador) de uma mão e move o dedo F a fim de desenhar um círculo em uma pré-determinada direção tal como uma direção no sentido horário. Subseqüentemente, dentro do período de tempo pré-determinado, o usuário toca o painel de toque 2b com o dedo F e move o dedo F a fim de desenhar um círculo na mesma direção que a direção do movimento no painel de toque 2a. A CPU 11 detecta a série de operações de toque como desenhando círculos como uma ação de agrupamento.
Referindo de volta à Fig. 4, quando detectando a ação de agrupamento, a CPU 11 executa processamento de controle de exibição (mudança de exibição) correspondendo à ação de agrupamento (Passo 60). Figs. 15 são diagramas mostrando um exemplo de processamento de controle de exibição específico correspondendo à ação de agrupamento. Figs. 15A e 15B mostram um estado quando a ação de agrupamento é entrada, e Fig. 15C mostra um estado após a ação de agrupamento ser entrada.
Conforme mostrado na Fig. 15A, objetos Ol e 02 tais como ícones de arquivo são exibidos nos painéis de toque 2a e 2b, respectivamente. Neste estado, o usuário entra a ação de agrupamento descrita acima com o dedo F dentro do período de tempo pré-determinado conforme mostrado nas Figs. 15A e 15B. Então, a CPU 11 exibe um quadro de grupo G delimitando os objetos Ol e 02 Conforme mostrado na Fig. 15C.
Adicionalmente, a CPU 11 agrupa os dados correspondendo aos objetos Ol e 02 (ícones de arquivo, delimitados pelo quadro de grupo G e os armazena na memória flash 13 ou o similar.
Mais ainda, neste caso, a CPU 11 pode exibir, no painel de toque 2a ou 2b, um texto ou uma imagem indicando que o processamento de agrupamento foi executado. Por exemplo, a CPU 11 exibe o texto ou a imagem no painel de toque 2b no qual o objeto 02 em segundo lugar delimitado, é exibido. O texto ou a imagem pode é claro, ser exibido no painel de toque 2a.
Os objetos 0l e 02 podem não ser um ícone, mas ser um arquivo de imagens ou documentos, e uma área dele pode ser de qualquer tamanho enquanto ele seja menor do que as superfícies de toque dos painéis de toque 2a e 2b.
Em adição ao caso onde dois objetos são delimitados, mesmo em um caso onde as operações de toque nas quais três objetos ou mais são continuamente delimitados, são detectados, a CPU 11 similarmente pode agrupar aqueles objetos.
Com o processamento acima, o processamento de conexão e controle de exibição dos objetos é terminado.
(Uso de dois painéis)
Conforme os usos dos dois painéis de toque 2a e 2b nestas modalidades, vários usos são assumidos.
Por exemplo, conforme descrito acima, os dois painéis de toque 2a e 2b podem ser usados como uma única tela. Neste caso, um objeto é exibido através de ambos os painéis de toque 2a e 2b e processamento integrado único correspondendo às operações de toque para os painéis de toque 2a e 2b é executado.
Adicionalmente, um painel de toque 2a (2b) pode ser usado em um lado de rede o outro painel de toque 2b (2a) pode ser usado em um lado de cliente.
No lado da rede, uma imagem baixada de um computador de um provedor de serviço de rede na rede, conectado através da porção de comunicação 14, é exibida. No lado do cliente, uma imagem de um arquivo ou o similar armazenado no aparelho de informação portátil 100 é exibida.
Entrando as várias ações de toque descritas acima com relação aos respectivos objetos no lado da rede e no lado do cliente, o usuário pode forçar o aparelho de informação portátil 100 a executar processamento tal como uma comutação de posições de exibição dos objetos, combinações, e agrupamentos.
Mais ainda, os dois painéis de toque 2a e 2b podem ser usados para tarefas em tarefas múltiplas.
Neste caso, mutuamente entrando as várias ações de toque descritas acima com relação aos respectivos objetos entre os painéis de toque 2a e 2b, o usuário pode comutar uma posição de exibição da tela de tarefas ou integrar as respectivas tarefas em uma tarefa.
(Sumário desta modalidade)
Conforme descrito acima, de acordo com esta modalidade, o aparelho de informação portátil 100 pode conectar e mudar a exibição dos respectivos objetos para ser um alvo de uma ação de toque, de acordo com as operações de toque (ações de toque) para os painéis de toque 2a e 2b.
Conseqüentemente, já que o aparelho de informação portátil 100 pode processar uma grande quantidade de objetos não somente individualmente mas também integralmente quando comparado com um caso onde um único painel de toque é usado, é possível aumentar a flexibilidade de processamento de acordo com os usos por um usuário.
Adicionalmente, já que as ações de toque são similares a uma operação de rotação de um objeto ou documento real, uma operação de pressão, uma operação de ampliar, uma operação de rasgar, e o similar, o usuário pode intuitivamente executar o processamento de controle de exibição correspondendo às respectivas ações.
(Exemplos modificados)
A presente invenção não é limitada somente à modalidade descrita acima e pode ser modificada de formas variadas sem fugir da essência da presente invenção.
Na modalidade descrita acima, conforme mostrado na Figs. 12 e 13, o exemplo no qual a ação como a ação de rasgar em uma direção vertical nas figuras (direção Y) foi descrita. Contudo, a ação de rasgar pode ser na direção horizontal (direção X) ou na direção oblíqua.
Em um caso onde a ação de rasgar é feita na direção horizontal, pode haver um caso onde a direção da ação é similar àquela da ação de rotação mostrada nas Figs. 5 e 6, embora uma diferença entre uma direção linear e uma direção em curva está presente. Contudo, confirmando a presença da detecção feita pelo sensor óptico 5, a CPU 11 pode diferenciar ambas as ações de modo confiável e evitar detecção falsa
Na modalidade descrita acima, o aparelho de informação portátil 100 detecta todas as ações de toque de rotação, de combinação, de aproximação, de rasgar, e de agrupar, e executa processamento de controle de exibição (mudança de exibição) correspondendo àquelas ações. Contudo, o aparelho de informação portátil 100 somente necessita ser capaz de detector pelo menos uma daquelas ações e executar o processamento de controle de exibição correspondente a ela.
Na modalidade descrita acima, o exemplo no qual os dois painéis de toque 2a e 2b são fornecidos para o aparelho de informação portátil 100 foi descrito. Contudo, o número de painéis de toque não é limitado a 2 enquanto pode ser mais, e o mesmo processamento como aquele descrito acima pode ser executado através dos painéis de toque.
Na modalidade descrita acima, as operações de toque para os painéis de toque 2a e 2b foram entrados com um dedo do usuário, mas podem ser entradas com um dispositivo tal como um estilete.
Exemplos dos aparelhos de informação portáteis 100 para a qual a presente invenção pode ser aplicada na modalidade acima incluem vários aparelhos de processamento de informações tal como um telefone celular, um PDA, um telefone inteligente, um tocador de música / vídeo portátil, um dicionário eletrônico, e um organizador eletrônico.
Mais ainda, a presente invenção não é limitada a um aparelho de informação portátil e é de forma similar aplicável à vários aparelhos de processamento de informações estacionários.
A presente aplicação contém assunto relacionado àquele divulgado no Pedido de Patente de Prioritária Japonesa JP 2009-097722 depositada no Escritório de Patente Japonês em 4 de abril de 2009, da qual o conteúdo inteiro é aqui incorporado para referência.
Deve ser entendido por aqueles com qualificação na arte que várias modificações, combinações, sub-combinações e alterações podem ocorrer dependendo dos requisitos de projeto e outros fatores na medida em que eles estejam dentro do escopo das reivindicações anexas ou dos equivalentes delas.

Claims (12)

1. Aparelho de processamento de informação, caracterizado pelo fato de compreender: - um primeiro painel de toque para exibir um primeiro objeto e detectar uma primeira operação de toque de um usuário no primeiro objeto; - um segundo painel de toque para exibir um segundo objeto e detectar uma segunda operação de toque do usuário no segundo objeto; e - um controlador para conectar e mudar o primeiro objeto exibido e o segundo objeto exibido quando a segunda operação de toque é detectada dentro de um período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
2. Aparelho de processamento de informação de acordo com a reivindicação 1, caracterizado pelo fato de que a primeira operação de toque e a segunda operação de toque são operações em direções opostas.
3. Aparelho de processamento de informação de acordo com a reivindicação 2, caracterizado pelo fato de que o controlador exibe o primeiro objeto no segundo painel de toque e exibe o segundo objeto no primeiro painel de toque quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada
4. Aparelho de processamento de informação de acordo com a reivindicação 2, caracterizado pelo fato de que cada um do primeiro objeto e do segundo objeto é exibido como uma parte de um único terceiro objeto, em que cada uma da primeira operação de toque e da segunda operação de toque é uma operação em uma direção rotacional, e em que o controlador gira o terceiro objeto quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada..
5. Aparelho de processamento de informação de acordo com a reivindicação 2, caracterizado pelo fato de que cada um do primeiro objeto e do segundo objeto é exibido como uma parte de um único terceiro objeto, em que a primeira operação de toque e a segunda operação de toque são operações em direções se afastando uma da outra, e em que o controlador muda o terceiro objeto tal que o terceiro objeto é rasgado quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
6. Aparelho de processamento de informação de acordo com a reivindicação 5, ainda caracterizado pelo fato de compreender: - um deposito para armazenar dados correspondendo ao terceiro objeto, - em que o controlador elimina os dados do depostio quando o terceiro objeto e mudando tal que o terceiro objeto e rasgado.
7. Aparelho de processamento de informacao de acordo com a reivindicao 2, caracterizado pelo fato de que - a premiera operacao de toque e a segunda operacao de toque sao operacoes em direcoes se movendo perto uma da outra, e - o controlador muda o premiero objeto e o segundo objeto tal que o primeiro objeto e o segundo objeto são integrados em um quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
8. Aparelho de processamento de informação de acordo com a reivindicação 2, ainda caracterizado pelo fato de compreender - um sensor para detectar um objeto que esteja presente em uma distância pré-determinada do primeiro painel de toque e do segundo painel de toque, - o controlador que conecta e muda o primeiro objeto exibido e o segundo objeto exibido quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde a primeira operação de toque foi detectada e o objeto é detectado pelo sensor.
9. Aparelho de processamento de informação de acordo com a reivindicação 8, caracterizado pelo fato de que o controlador muda o primeiro objeto exibido e o segundo objeto exibido em um primeiro modo quando o objeto é detectado pelo sensor, e muda o primeiro objeto exibido e o segundo objeto exibido em um segundo modo que é diferente do primeiro modo, quando o objeto não é detectado pelo sensor.
10. Aparelho de processamento de informação de acordo com a reivindicação 1, ainda caracterizado pelo fato de compreender: - um depósito para armazenar primeiros dados correspondendo ao primeiro objeto e segundos dados correspondendo ao segundo objeto, em que a primeira operação de toque é uma operação de delimitar o primeiro objeto em uma direção de rotação pré-determinada, em que a segunda operação de toque é a operação de delimitar o segundo objeto em uma direção de rotação pré-determinada, e em que o controlador força o depósito a agrupar e armazenar os primeiros dados e os segundos dados quando a segunda operação de toque é detectada dentro do período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
11. Método de processamento de informação, caracterizado pelo fato de compreender: - exibir, através de um primeiro painel de toque, um primeiro objeto e detectar uma primeira operação de toque de um usuário no primeiro objeto; - exibir, através de um segundo painel de toque, um segundo objeto e detectar uma segunda operação de toque de um usuário no segundo objeto; e - conectar e mudar o primeiro objeto exibido e o segundo objeto exibido quando a segunda operação de toque é detectada dentro de um período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
12. Programa caracterizado pelo fato de forçar um aparelho de processamento de informação incluindo um primeiro painel de toque e um segundo painel de toque a executar: - um passo de exibição, através do primeiro painel de toque, um primeiro objeto e detectar uma primeira operação de toque de um usuário no primeiro objeto; - um passo de exibição, através do segundo painel de toque, um segundo objeto e detectar uma segunda operação de toque de um usuário no segundo objeto; e - um passo de conexão e mudança do primeiro objeto exibido e do segundo objeto exibido quando a segunda operação de toque é detectada dentro de um período de tempo pré-determinado desde que a primeira operação de toque foi detectada.
BRPI1006334-0A 2009-04-14 2010-04-07 aparelho e método de processamento de informação, e, programa BRPI1006334A2 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPP2009-097724 2009-04-14
JP2009097724A JP5229083B2 (ja) 2009-04-14 2009-04-14 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
BRPI1006334A2 true BRPI1006334A2 (pt) 2012-09-18

Family

ID=42315906

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1006334-0A BRPI1006334A2 (pt) 2009-04-14 2010-04-07 aparelho e método de processamento de informação, e, programa

Country Status (6)

Country Link
US (1) US9047046B2 (pt)
EP (1) EP2241963B1 (pt)
JP (1) JP5229083B2 (pt)
CN (1) CN101866263B (pt)
BR (1) BRPI1006334A2 (pt)
RU (1) RU2541223C2 (pt)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9268518B2 (en) 2011-09-27 2016-02-23 Z124 Unified desktop docking rules
US9715252B2 (en) 2011-08-24 2017-07-25 Z124 Unified desktop docking behavior for window stickiness
US20130076592A1 (en) * 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop docking behavior for visible-to-visible extension
US9405459B2 (en) 2011-08-24 2016-08-02 Z124 Unified desktop laptop dock software operation
US9182937B2 (en) 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
US9047047B2 (en) 2010-10-01 2015-06-02 Z124 Allowing multiple orientations in dual screen view
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
JP5606686B2 (ja) * 2009-04-14 2014-10-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
JP4798268B2 (ja) 2009-07-17 2011-10-19 カシオ計算機株式会社 電子機器およびプログラム
EP2480957B1 (en) 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
JP5351006B2 (ja) * 2009-12-24 2013-11-27 京セラ株式会社 携帯端末及び表示制御プログラム
JP5572397B2 (ja) * 2010-01-06 2014-08-13 京セラ株式会社 入力装置、入力方法および入力プログラム
US8239785B2 (en) 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US20110185299A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US20110185320A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US20110191704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
CN102147672A (zh) * 2010-02-04 2011-08-10 英华达(上海)科技有限公司 手持式电子装置
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
KR20110092826A (ko) * 2010-02-10 2011-08-18 삼성전자주식회사 복수의 터치스크린을 구비하는 휴대 단말기의 화면 제어 방법 및 장치
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US20110209101A1 (en) * 2010-02-25 2011-08-25 Hinckley Kenneth P Multi-screen pinch-to-pocket gesture
US20110209058A1 (en) * 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US8707174B2 (en) 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US8473870B2 (en) 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US9105023B2 (en) * 2010-02-26 2015-08-11 Blackberry Limited Methods and devices for transmitting and receiving data used to activate a device to operate with a server
US8810543B1 (en) 2010-05-14 2014-08-19 Cypress Semiconductor Corporation All points addressable touch sensing surface
US20110291964A1 (en) 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
US9081494B2 (en) * 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US8823656B2 (en) * 2010-08-30 2014-09-02 Atmel Corporation Touch tracking across multiple touch screens
JP2012053832A (ja) * 2010-09-03 2012-03-15 Nec Corp 情報処理端末
US20120225693A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US20120225694A1 (en) 2010-10-01 2012-09-06 Sanjiv Sirpal Windows position control for phone applications
US9189018B2 (en) 2010-10-01 2015-11-17 Z124 Windows position control for phone applications
US20120218202A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
US9436217B2 (en) 2010-10-01 2016-09-06 Z124 Windows position control for phone applications
US9588545B2 (en) 2010-10-01 2017-03-07 Z124 Windows position control for phone applications
US8749484B2 (en) 2010-10-01 2014-06-10 Z124 Multi-screen user interface with orientation based control
US9389775B2 (en) 2010-10-13 2016-07-12 Kabushiki Kaisha Toshiba Display control device and display control method
JP5629180B2 (ja) * 2010-10-21 2014-11-19 京セラ株式会社 携帯端末装置
CN103250126B (zh) * 2010-12-17 2017-05-31 日本电气株式会社 移动终端设备、显示控制方法及程序
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
JP2012150269A (ja) * 2011-01-19 2012-08-09 Kyocera Corp 電子機器及び色度調整方法
KR101802522B1 (ko) * 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
KR20120091975A (ko) 2011-02-10 2012-08-20 삼성전자주식회사 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법
KR101889838B1 (ko) 2011-02-10 2018-08-20 삼성전자주식회사 터치 스크린 디스플레이를 구비한 휴대 기기 및 그 제어 방법
KR101842906B1 (ko) 2011-02-10 2018-05-15 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법
CN103384862B (zh) * 2011-02-16 2017-04-12 日本电气株式会社 信息处理终端及其控制方法
JP5806822B2 (ja) * 2011-02-24 2015-11-10 京セラ株式会社 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP5749043B2 (ja) * 2011-03-11 2015-07-15 京セラ株式会社 電子機器
JP5725923B2 (ja) * 2011-03-25 2015-05-27 京セラ株式会社 電子機器
JP5884282B2 (ja) * 2011-03-29 2016-03-15 ソニー株式会社 情報処理装置および情報処理方法、記録媒体、並びにプログラム
JP5777915B2 (ja) * 2011-03-29 2015-09-09 京セラ株式会社 電子機器及びその表示方法
US9146703B2 (en) * 2011-04-08 2015-09-29 Nintendo Co., Ltd. Storage medium, information processing apparatus, information processing system and information processing method
WO2012153833A1 (ja) * 2011-05-12 2012-11-15 Necカシオモバイルコミュニケーションズ株式会社 電子機器、その制御方法及びプログラム
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
KR102075082B1 (ko) * 2011-06-20 2020-02-10 삼성전자주식회사 터치스크린을 가지는 장치 및 그 화면 변경 방법
CN102855075B (zh) * 2011-06-30 2015-06-03 联想(北京)有限公司 控制显示的方法、控制显示的装置及电子设备
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
EP2565761A1 (en) * 2011-09-02 2013-03-06 Research In Motion Limited Electronic device including touch-sensitive displays and method of controlling same
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
JPWO2013046987A1 (ja) * 2011-09-26 2015-03-26 日本電気株式会社 情報処理端末および情報処理方法
JP2013068876A (ja) * 2011-09-26 2013-04-18 Nec Casio Mobile Communications Ltd 表示装置、表示方法およびプログラム
US20130080932A1 (en) 2011-09-27 2013-03-28 Sanjiv Sirpal Secondary single screen mode activation through user interface toggle
KR101790017B1 (ko) * 2011-09-30 2017-10-25 삼성전자 주식회사 제스처 기반의 통신 채널 운용 제어 방법 및 이를 지원하는 휴대 단말기 시스템
KR101905038B1 (ko) * 2011-11-16 2018-10-08 삼성전자주식회사 다중 어플리케이션 환경 하에서 터치스크린을 가지는 장치 및 그 제어 방법
JP2013117885A (ja) 2011-12-02 2013-06-13 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US9164544B2 (en) 2011-12-09 2015-10-20 Z124 Unified desktop: laptop dock, hardware configuration
KR101933054B1 (ko) * 2011-12-16 2019-03-18 삼성전자주식회사 휴대단말에서 시각 효과 제공 방법 및 장치
US9400600B2 (en) * 2011-12-16 2016-07-26 Samsung Electronics Co., Ltd. Method, apparatus, and graphical user interface for providing visual effects on a touchscreen display
WO2013113760A1 (de) * 2012-01-30 2013-08-08 Leica Microsystems Cms Gmbh Mikroskop mit kabelloser funkschnittstelle und mikroskopsystem
JP2013235359A (ja) * 2012-05-08 2013-11-21 Tokai Rika Co Ltd 情報処理装置及び入力装置
JP5859373B2 (ja) * 2012-05-09 2016-02-10 Kddi株式会社 情報管理装置、情報管理方法、及びプログラム
WO2013175770A1 (ja) * 2012-05-25 2013-11-28 パナソニック株式会社 情報処理装置、情報処理方法、および情報処理プログラム
US10490166B2 (en) 2012-07-09 2019-11-26 Blackberry Limited System and method for determining a display orientation of a mobile device
EP2685342B1 (en) * 2012-07-09 2017-04-05 BlackBerry Limited System and method for determining a display orientation of a mobile device
CN102855019A (zh) * 2012-09-03 2013-01-02 福建华映显示科技有限公司 多触控屏幕装置及其操作方法
KR101957173B1 (ko) 2012-09-24 2019-03-12 삼성전자 주식회사 터치 디바이스에서 멀티윈도우 제공 방법 및 장치
JP5977132B2 (ja) * 2012-09-28 2016-08-24 富士ゼロックス株式会社 表示制御装置、画像表示装置、およびプログラム
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US9772722B2 (en) 2012-10-22 2017-09-26 Parade Technologies, Ltd. Position sensing methods and devices with dynamic gain for edge positioning
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
JP5598584B2 (ja) * 2012-12-25 2014-10-01 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法及びプログラム
AU2014201384A1 (en) * 2013-03-13 2014-10-02 Samsung Electronics Co., Ltd. Method and apparatus for operating touch screen
FR3003964B1 (fr) * 2013-04-02 2016-08-26 Fogale Nanotech Dispositif pour interagir, sans contact, avec un appareil electronique et/ou informatique, et appareil equipe d'un tel dispositif
WO2014207971A1 (ja) * 2013-06-26 2014-12-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ ユーザインタフェース装置及び表示オブジェクト操作方法
US20150033193A1 (en) 2013-07-25 2015-01-29 Here Global B.V. Methods for modifying images and related aspects
JP5717813B2 (ja) * 2013-08-20 2015-05-13 京セラ株式会社 携帯端末
JP2015049773A (ja) * 2013-09-03 2015-03-16 コニカミノルタ株式会社 オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
CN105407800B (zh) * 2013-09-11 2019-04-26 麦克赛尔株式会社 脑功能障碍评价装置及存储介质
CN104750238B (zh) * 2013-12-30 2018-10-02 华为技术有限公司 一种基于多终端协同的手势识别方法、设备及系统
JP2015138360A (ja) * 2014-01-22 2015-07-30 コニカミノルタ株式会社 オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
US20150241978A1 (en) * 2014-02-27 2015-08-27 Motorola Mobility Llc Electronic Device Having Multiple Sides with Gesture Sensors
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
JP6508200B2 (ja) * 2014-05-15 2019-05-08 ソニー株式会社 情報処理装置、表示制御方法およびプログラム
US9648062B2 (en) 2014-06-12 2017-05-09 Apple Inc. Systems and methods for multitasking on an electronic device with a touch-sensitive display
US9785340B2 (en) 2014-06-12 2017-10-10 Apple Inc. Systems and methods for efficiently navigating between applications with linked content on an electronic device with a touch-sensitive display
WO2015192085A2 (en) * 2014-06-12 2015-12-17 Apple Inc. Systems and methods for multitasking on an electronic device with a touch-sensitive display
JP5788068B2 (ja) * 2014-08-01 2015-09-30 京セラ株式会社 携帯端末
US10146409B2 (en) * 2014-08-29 2018-12-04 Microsoft Technology Licensing, Llc Computerized dynamic splitting of interaction across multiple content
WO2016042864A1 (ja) * 2014-09-16 2016-03-24 日本電気株式会社 マルチ画面の表示位置入替方法、情報処理装置およびその制御方法と制御プログラム
KR20160033951A (ko) * 2014-09-19 2016-03-29 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
JP5965001B2 (ja) * 2015-01-27 2016-08-03 京セラ株式会社 電子機器
US20160239200A1 (en) * 2015-02-16 2016-08-18 Futurewei Technologies, Inc. System and Method for Multi-Touch Gestures
JP2016161869A (ja) * 2015-03-04 2016-09-05 セイコーエプソン株式会社 表示装置及び表示制御方法
JP2017033116A (ja) * 2015-07-30 2017-02-09 レノボ・シンガポール・プライベート・リミテッド 複数の使用モードを備える電子機器、制御方法およびコンピュータ・プログラム
WO2018045598A1 (zh) * 2016-09-12 2018-03-15 深圳前海达闼云端智能科技有限公司 一种电子设备
US9983637B1 (en) * 2017-03-10 2018-05-29 Dell Products L. P. Hinge with 180 degree range for computing device with multiple displays
JP6567621B2 (ja) * 2017-10-04 2019-08-28 株式会社Nttドコモ 表示装置
JP6621785B2 (ja) 2017-10-04 2019-12-18 株式会社Nttドコモ 表示装置
JP6973025B2 (ja) * 2017-12-20 2021-11-24 コニカミノルタ株式会社 表示装置、画像処理装置及びプログラム
CN108334163A (zh) * 2018-01-05 2018-07-27 联想(北京)有限公司 一种双屏电子设备及其显示控制方法
US11966578B2 (en) 2018-06-03 2024-04-23 Apple Inc. Devices and methods for integrating video with user interface navigation
US11437031B2 (en) * 2019-07-30 2022-09-06 Qualcomm Incorporated Activating speech recognition based on hand patterns detected using plurality of filters
JP2022065419A (ja) * 2020-10-15 2022-04-27 セイコーエプソン株式会社 表示方法、及び表示装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (ja) 1992-07-27 1994-02-18 Toshiba Corp 表示制御装置及び表示制御方法
JPH10164380A (ja) * 1996-10-04 1998-06-19 Canon Inc 画像処理装置及びその方法
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6331840B1 (en) * 1998-03-27 2001-12-18 Kevin W. Nielson Object-drag continuity between discontinuous touch screens of a single virtual desktop
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
JP4144212B2 (ja) 2001-11-09 2008-09-03 ソニー株式会社 表示装置
US7453936B2 (en) * 2001-11-09 2008-11-18 Sony Corporation Transmitting apparatus and method, receiving apparatus and method, program and recording medium, and transmitting/receiving system
US8169410B2 (en) * 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
JP4650624B2 (ja) * 2005-07-27 2011-03-16 日本電気株式会社 バックライトユニット及び液晶表示装置
KR100755851B1 (ko) * 2005-10-14 2007-09-07 엘지전자 주식회사 멀티미디어 디스플레이 방법, 이를 위한 이동 단말기, 및이동 단말기용 크래들
US7844301B2 (en) 2005-10-14 2010-11-30 Lg Electronics Inc. Method for displaying multimedia contents and mobile communications terminal capable of implementing the same
JP4650280B2 (ja) 2006-01-19 2011-03-16 ソニー株式会社 表示装置および方法、並びにプログラム
US20080178090A1 (en) * 2006-08-28 2008-07-24 Ajay Mahajan Universal Medical Imager
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
RU2007109208A (ru) * 2007-03-13 2007-07-10 Владимир Анатольевич Ефремов (RU) Устройство для ввода и вывода данных эвм
RU2398262C2 (ru) * 2007-04-02 2010-08-27 Владимир Анатольевич Ефремов Устройство для ввода и вывода данных эвм
US20090051671A1 (en) * 2007-08-22 2009-02-26 Jason Antony Konstas Recognizing the motion of two or more touches on a touch-sensing surface
TWI430146B (zh) * 2007-09-21 2014-03-11 Giga Byte Comm Inc The input method and device of the operation instruction of the double touch panel
KR101506488B1 (ko) * 2008-04-04 2015-03-27 엘지전자 주식회사 근접센서를 이용하는 휴대 단말기 및 그 제어방법
US8519965B2 (en) * 2008-04-23 2013-08-27 Motorola Mobility Llc Multi-touch detection panel with disambiguation of touch coordinates
US20090322689A1 (en) * 2008-06-30 2009-12-31 Wah Yiu Kwong Touch input across touch-sensitive display devices
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures

Also Published As

Publication number Publication date
RU2541223C2 (ru) 2015-02-10
CN101866263B (zh) 2013-07-24
JP5229083B2 (ja) 2013-07-03
US20110018821A1 (en) 2011-01-27
JP2010250465A (ja) 2010-11-04
CN101866263A (zh) 2010-10-20
EP2241963B1 (en) 2014-10-08
RU2010113678A (ru) 2011-10-20
EP2241963A1 (en) 2010-10-20
US9047046B2 (en) 2015-06-02

Similar Documents

Publication Publication Date Title
BRPI1006334A2 (pt) aparelho e método de processamento de informação, e, programa
US10990242B2 (en) Screen shuffle
BRPI1000982A2 (pt) aparelho e mÉtodo de processamento de informaÇço, e, programa
US11132161B2 (en) Controlling display of a plurality of windows on a mobile device
AU2014201578B2 (en) Method and apparatus for operating electronic device with cover
US9152176B2 (en) Application display transitions between single and multiple displays
KR20100131605A (ko) 메뉴 실행 방법 및 이를 적용한 이동 통신 단말기
KR20140025931A (ko) 플렉서블 디스플레이 장치 및 그 제어 방법
KR20200088997A (ko) 감겨질 수 있는 플렉서블 디스플레이에서 표시되는 화면을 제어하기 위한 전자 장치 및 방법
KR102222332B1 (ko) 플렉서블 디스플레이 장치 및 그 제어 방법
KR20090113562A (ko) 휴대 단말기 및 이를 이용한 화면 제공 방법
KR102116304B1 (ko) 플렉서블 디스플레이 장치 및 그 제어 방법
KR102188463B1 (ko) 디스플레이를 포함하는 전자 장치를 동작하는 방법 및 이를 구현한 전자 장치

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 6A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2384 DE 13-09-2016 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.