BR112013006616B1 - aparelho e método para detectar objeto com base em proximidade da superfície de entrada, item de informação associado e de distância do objeto - Google Patents

aparelho e método para detectar objeto com base em proximidade da superfície de entrada, item de informação associado e de distância do objeto Download PDF

Info

Publication number
BR112013006616B1
BR112013006616B1 BR112013006616-4A BR112013006616A BR112013006616B1 BR 112013006616 B1 BR112013006616 B1 BR 112013006616B1 BR 112013006616 A BR112013006616 A BR 112013006616A BR 112013006616 B1 BR112013006616 B1 BR 112013006616B1
Authority
BR
Brazil
Prior art keywords
information
distance
item
relevance
additional
Prior art date
Application number
BR112013006616-4A
Other languages
English (en)
Other versions
BR112013006616A2 (pt
Inventor
Juha Arrasvuori
Elina Ollila
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Publication of BR112013006616A2 publication Critical patent/BR112013006616A2/pt
Publication of BR112013006616B1 publication Critical patent/BR112013006616B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

APARELHO E MÉTODO PARA ENTRADA COM BASE EM PROXIMIDADE. De acordo com uma concretização exemplificativa da presente invenção, um método para controlar as operações de exibição é fornecido, que compreende: detectar a presença de um objeto na proximidade de uma superfície de entrada (300), detectar pelo menos um item de informação associado com o objeto (310), detectar a informação de distância sobre a distância do objeto em relação à superfície de entrada (320), e controlar a seleção de informação adicional associada com o pelo menos um item de informação, para exibição com base da informação de distância (330).

Description

CAMPO
[001] A presente invenção refere-se a um aparelho e um método para a entrada com base na proximidade.
ANTECEDENTES
[002] As telas sensíveis ao toque são usadas em muitos dispositivos eletrônicos portáteis, como dispositivos de PDA (Personal Digital Assistant), tabletops, e dispositivos móveis. As telas sensíveis ao toque são acionadas por um dispositivo apontador (ou caneta) e/ou por um dedo. Tipicamente, os dispositivos também compreendem botões convencionais para certas operações.
[003] Ultimamente, as chamadas interfaces de usuário pairando têm sido propostas para dispositivos com telas sensíveis ao toque. Pairar refere-se geralmente a entradas por um objeto, tal como um dedo, na proximidade de uma superfície de entrada de interface de usuário, mas não tocando na superfície de entrada. Assim, também o espaço acima de uma superfície da tela sensível ao toque pode ser utilizado como meio adicional para as entradas do usuário. Por exemplo, a interface de usuário pode ser organizada para reagir ao dedo pairando fazendo aparecer um menu. O item desejado no menu pode ser selecionado tocando a tela. Pessoas que estão usando dispositivos móveis, em geral, desejam ter formas mais versáteis e intuitivas de interagir com os seus dispositivos.
SUMÁRIO
[004] Vários aspectos de exemplos da presente invenção estão definidos nas reivindicações.
[005] De acordo com um aspecto, é proporcionado um aparelho, que compreende pelo menos um processador e, pelo menos, uma memória incluindo o código de programa de computador, a pelo menos uma memória e o código de programa de computador configurados para, com o pelo menos um processador, fazer com que o aparelho execute, pelo menos: detectar a presença de um objeto em estreita proximidade com uma superfície de entrada, detectar, pelo menos, um item de informação associado com o objeto, detectar a informação de distância sobre a distância do objeto em relação à superfície de entrada e controlar a seleção de informação adicional associada com o pelo menos um item de informação para exibição com base na informação de distância.
[006] De acordo com um aspecto, é proporcionado um aparelho, que compreende: um sistema de detecção de proximidade com pelo menos um detector de proximidade para detectar a presença de um objeto de entrada na proximidade de uma superfície de entrada, e um controlador operacionalmente conectado ao sistema de detecção de proximidade, o controlador estando configurado para: detectar a presença de um objeto na proximidade de uma superfície de entrada, detectar pelo menos um item de informação associado com o objeto, detectar a informação de distância sobre distância do objeto em relação à superfície de entrada e controlar a seleção de informações adicionais associadas com o pelo menos um item de informação para exibição com base na informação de distância.
[007] De acordo com um aspecto da presente invenção, é proporcionado umaparelho, que compreende: meios para detectar a presença de um objeto na proximidade de uma superfície de entrada, meios para a detecção de pelo menos um item de informação associado ao objeto, meios para detectar a informação de distância sobre a distância do objeto em relação à superfície de entrada, e meios para controlar a seleção de informação adicional associada com o pelo menos um item de informação para exibição com base na informação de distância.
[008] De acordo com outro aspecto da presente invenção, é proporcionada uma interface de usuário para um dispositivo eletrônico que compreende um sistema de detecção de proximidade para detectar a presença de um objeto de entrada na proximidade de uma superfície de entrada, em que a interface de usuário está configurada para: detectar pelo menos um item de informação de interface gráfica de usuário associado com a posição do objeto detectada atualmente, e exibir a informação adicional associada com o pelo menos um item de informação, a quantidade de informação adicional apresentada sendo adaptada em função da distância do objeto de entrada em relação à superfície de entrada.
[009] De acordo com outro aspecto, é fornecido um método compreendendo: a detecção da presença de um objeto na proximidade de uma superfície de entrada, detectando pelo menos um item de informação associado com o objeto, detecção de informação de distância sobre a distância do objeto em relação à superfície de entrada, e controlar a seleção da informação adicional associada com o pelo menos um item de informação para exibição com base na informação de distância.
[010] A invenção e várias concretizações da invenção proporcionam várias vantagens, que se tornarão evidentes a partir da descrição detalhada abaixo.
BREVE DESCRIÇÃO DOS DESENHOS
[011] Para uma compreensão mais completa das concretizações de exemplo da presente invenção, é agora feita referência à descrição seguinte tomada em ligação com os desenhos anexos, em que:As Figuras 1a e 1b ilustram uma interação de interface de usuário e exemplo de controle de exibição;A Figura 2 é um diagrama de blocos simplificado de uma vista lateral de um aparelho de entrada de acordo com uma concretização exemplificativa da presente invenção;A Figura 3 ilustra um método de acordo com uma concretização exemplificativa da presenteinvenção;As Figuras 4a e 4b ilustram um exemplo de sequência de interação de interface de usuário;A Figura 5 ilustra um método de acordo com uma concretização exemplificativa da presente invenção;A Figura 6 ilustra entidades para um sistema de rede social;A Figura 7 ilustra um exemplo de interface de usuário, eA Figura 8 ilustra um dispositivo eletrônico de acordo com uma concretização exemplificativa da presente invenção.
DESCRIÇÃO DETALHADA
[012] As Figuras 1a e 1b ilustram os princípios gerais de um controle de exibição baseado em pairar de acordo com algumas realizações. Pairar refere-se, de modo geral, à introdução de um objeto de entrada 1, tal como um dedo ou uma caneta, em estreita proximidade com, mas não em contato com, uma superfície de entrada, tal como uma superfície de entrada de um tela sensível ao toque. A referência "z" na Figura 1 ilustra uma distância do objeto 1 a partir da superfície da tela, que pode também ser referida como a "distância pairando". As direções x e y são geralmente substancialmente paralelas à superfície de entrada, e a direção z é substancialmente normal à superfície de entrada.
[013] Como ainda ilustrado na Figura 1b, a presença de um objeto em estreita proximidade é detectada 10 e indicado para um controlador de visor 20 para selecionar a informação de exibição e controlar um visor. Quando tal objeto pairando 1 é detectado, a posição x, y 12 do objeto 1 pode ser definida. Com base na posição do objeto 1, pelo menos um item de informação associado, por exemplo, uma vista, uma janela, pelo menos um ícone GUI de um arquivo, uma pasta, a entrada de contato, link ou uma aplicação, pode ser detectada ou selecionada. A distância (z) do objeto 1 para a superfície de entrada 14, pode ser estimada.
[014] Informações adicionais 3 relacionadas com o item de informação atualmente associado 2 podem ser exibidas. Com base na informação da distância detectada 14, o controlador 20 pode controlar a seleção da informação adicional, associada com o pelo menos um item de informação, para exibição. Isto é para ser entendido amplamente para se referir a qualquer tipo de operação de controle fazendo com a exibição de informação adicional relacionada com o item de informação de interesse para se adaptar, com base em mudanças na distância pairando. Isto pode envolver adaptação de um número de itens de informação relacionados para exibição, controlando a exibição de informações adicionais, ou o nível de detalhe das informações, por exemplo. As informações selecionadas para a exposição podem ser um texto, por exemplo, elementos gráficos, animação, vídeo, ou qualquer combinação destes. O controlador 20 pode, portanto, ser disposto para controlar a apresentação de um item GUI adicional 3, tal como uma janela de visualização, proporcionando informação adicional relacionada com o item de informação exibida 2. Por exemplo, quando o objeto 1 é trazido mais perto da superfície da tela sensível ao toque, mais detalhes sobre o item de informação podem ser exibidos, por exemplo, mostrando uma visualização nova aplicação, uma janela ou informações adicionais, na vista corrente. Quando a distância do objeto 1 é detectada para aumentar, menos informação suplementar 3 pode ser exibida. Este arranjo de entrada de interface de usuário fornece uma opção de interação fácil e intuitiva para obter mais informações de um elemento de GUI sob interesse.
[015] A Figura 2 ilustra um aparelho 100 com uma ou mais entradas e/ou dispositivos de saída de acordo com uma concretização exemplificativa. Os dispositivos de entrada podem, por exemplo, ser selecionados a partir de botões, comutadores, controles deslizantes, chaves ou teclados, almofadas de navegação, almofadas de toque, telas sensíveis ao toque, e afins. Os dispositivos de saída podem ser selecionados a partir de telas, alto-falantes, indicadores, por exemplo.
[016] O aparelho compreende um visor 110 e um sistema de detecção de proximidade ou unidade 120 configurado para detectar quando um objeto de entrada 1, tal como um dedo ou uma caneta, é trazido em estreita proximidade com, mas não em contato com, uma superfície de entrada 112. A superfície de entrada 112 pode ser uma superfície de um tela sensível ao toque ou outro dispositivo de entrada do aparelho capaz de detectar entradas do usuário.
[017] A área de detecção 140 pode ilustrar a área aproximada e/ou a distância em que um objeto de entrada 1 é detectado para estar em estreita proximidade com a superfície 1 12. A área de detecção 140 pode também ser referida como uma zona de pairar e introdução de um objeto de entrada 1 para a área de pairar e possíveis entradas adicionais (sem toques) pelo objeto 1 na área de pairar pode ser referida como pairar. Em algumas concretizações a área de pairar 140 permite também a introdução e/ou acesso aos dados no aparelho 100, mesmo sem tocar na superfície de entrada 112. A entrada do usuário, tal como um gesto particular detectado ou mesmo mera introdução do objeto de entrada, na zona pairando 140 detectada, pelo menos, em parte com base na entrada de um objeto sem toque na superfície de entrada 112 pode ser referido como uma entrada pairando. Tal entrada pairando está associada com pelo menos uma função, para a seleção de instância de um item de Ul ou a ativação de um menu pop-up.
[018] O aparelho 100 pode ser um dispositivo periférico, tal como um teclado ou um mouse, ou integrado em um dispositivo eletrônico. Exemplos de dispositivos eletrônicos incluem qualquer aparelho eletrônico, como computadores, reprodutores de mídia, dispositivos de terminais de comunicação sem fio, e assim por diante.
[019] Em algumas concretizações, um sistema de detecção de proximidade 120 é fornecido a um aparelho que compreende uma tela sensível ao toque. Assim, o visor 110 pode ser uma tela sensível ao toque 110 compreendendo uma pluralidade de detectores sensíveis ao toque 114 para detectar entradas para a superfície de entrada de tela sensível ao toque.
[020] Em algumas concretizações, o sistema de detecção 120 gera um campo de detecção de um ou mais sensores de proximidade 122. Em uma concretização exemplo, um sistema de detecção de proximidade capacitivo é aplicado, por meio de que os sensores 122 são nós de detecção capacitivos. Perturbações por um ou mais objetos de entrada 1 no campo de detecção são monitorados e na presença de um ou mais objetos é detectado com base em perturbações detectadas. Um circuito de detecção capacitivo detecta mudanças na capacitância acima da superfície de entrada 112.
[021] No entanto, deve notar-se que as características presentes não estão limitadas à aplicação de qualquer tipo particular de detecção de proximidade. O sistema de detecção de proximidade 120 pode ser baseado na detecção de proximidade por infravermelho, a detecção de sombra óptica, a detecção de emissão acústica, detecção de ultra-som, a tecnologia de radar, ou qualquer outra técnica de detecção de proximidade apropriada. Por exemplo, no caso de o sistema de detecção de proximidade 120 ser baseado na detecção de infravermelho, o sistema compreende um ou mais emissores enviando impulsos de radiação infravermelha. Um ou mais detectores seriam fornecidos para detectar reflexos daquela luz de objetos próximos 1. Se o sistema detectar a luz refletida, em seguida, um objeto de entrada é considerado como presente.
[022] O sistema de detecção de proximidade 120 é acoplado a um controlador 130. O sistema de detecção de proximidade 120 é configurado para fornecer o controlador 130 com sinais quando um objeto de entrada 1 é detectado na zona pairando 140. Com base nos sinais de entrada, comandos, seleções e outros tipos de ações podem ser iniciadas, geralmente causando realimentação visível, audível e/ou táctil para o usuário. Entradas por toque para os detectores sensíveis ao toque 1 14 podem ser sinalizadas por meio de um circuito de controle para o controlador 130, ou outro controlador.
[023] O sistema de detecção de proximidade 120 pode também ser disposto de modo a fornecer informação sobre / para a determinação da posição x, y do objeto 1, para o controlador 130, para permitir a determinação de um item de Ul alvo ou área de um objeto pairando 1.
[024] O aparelho 100 pode ser disposto para calcular a distância 150 do objeto de entrada 1 para a superfície de entrada 112, ou seja, a distância pairando, que permite fornecer dados z das coordenadas da localização do objeto 1, em relação à superfície de entrada. A distância pode ser detectada pelo sistema de detecção de proximidade 100 ou com base de um sinal fornecido pelo sistema de detecção de proximidade 100. Em algumas concretizações de um ou mais dispositivos adicionais são aplicadas para auxiliar na estimativa da distância. Por exemplo, o aparelho pode ser configurado para detectar a distância com base em informação a partir de, pelo menos, uma de uma câmara de vídeo, um sensor de nível de luz, ou um sensor de ultra-som.
[025] Dependendo da técnica de detecção de proximidade aplicada, o tamanho do aparelho 100 e a superfície de entrada 112, e a interação do usuário pretendido, a área pairando 140 pode ser disposta para se prolongar desde a superfície de entrada 112 por uma distância selecionada a partir de alguns milímetros ao mesmo até dezenas de vários centímetros, por exemplo. O sistema de detecção de proximidade 120 pode ser providenciado para detectar também partes adicionais do lado do usuário, e o sistema pode ser disposto de modo a reconhecer entradas falsas e evitar outras ações.
[026] O controlador 130 pode também ser ligado a um ou mais dispositivos de saída, tal como o visor da tela sensível ao toque 110. O controlador 130 pode ser configurado para controlar vista de aplicação diferentes no visor 110. O controlador 130 pode detectar entradas de toque e entradas pairando sobre a função dos sinais provenientes do sistema de detecção de proximidade 120 e os detectores sensíveis ao toque 114. O controlador 130 pode, então, controlar uma função de visualização associada com um toque de entrada detectado ou entrada pairando. Uma ampla gama de funções está disponível para a seleção sendo associada com uma entrada detectada por um sistema de detecção sensível ao toque e/ou o sistema de detecção de proximidade 120. O controlador 130 pode ser configurado para se adaptar às associações de acordo com o estado de funcionamento atual do aparelho 100, uma entrada de usuário ou uma aplicação executada no aparelho 100, por exemplo. Por exemplo, as associações podem ser específicas de aplicação, específicas de menu, específicas de vistas e/ou específicas do contexto (que pode ser definido com base na informação obtida a partir do ambiente de uso corrente ou do aparelho 100).
[027] O controlador 130 pode ser configurado para controlar a seleção de informação adicional, em relação à posição corrente x, y do objeto de entrada, para a exposição, dependendo da distância atual pairando 150.
[028] Em uma concretização, o aparelho 100 pode ser disposto para calcular a distância entre o objeto 150 de entrada e uma superfície de entrada 112, e o controlador 130 pode comparar a distância calculada para um ou mais valores limites pré-determinados. Cada um dos valores de limite pode ser associado a um determinado nível de detalhe. Por exemplo, a exposição de um primeiro conjunto de elementos de informação associados ao pelo menos um item de informação, pode ser controlado em resposta à recepção de informações que indicam que o objeto tem uma primeira distância para a superfície de entrada. A seleção e exposição de um segundo conjunto de elementos de informação associados ao pelo menos um item de informação, pode, então, ser controlado em resposta à recepção de um sinal que indica que o objeto tenha aproximado da superfície de entrada de um determinado limite, ou seja dentro de uma segunda distância para a entrada superfície.
[029] Assim, o controlador 130 pode ser disposto para controlar a alteração da distância a pairar. Em resposta à detecção da distância a pairar para mudar de um limite, a exibição da informação adicional pode ser desencadeada ou adaptada. Os dados de parâmetro / ajuste orientam o funcionamento do controlador 130 selecionando a informação adicional que pode ser armazenada na memória compreendendo ou ligada ao controlador 130. O usuário pode ser fornecido com uma opção para definir a apresentação das informações adicionais enquanto paira ligado ou desligado, e/ou adapta uma ou mais configurações que afetam a seleção das informações adicionais, por exemplo, para afetar a sensibilidade da interface de usuário (introdução / movimento de objetos) pairando.
[030] Será apreciado que o aparelho de exemplo 100 pode incluir vários outros elementos que não serão discutidos em detalhes aqui. Embora o aparelho 100 e o controlador 130 estejam representado como uma entidade única, diferentes características podem ser aplicadas a uma ou mais entidades físicas ou lógicas. Pode haver mais módulos funcionais específicos, por exemplo para a realização de um ou mais dos blocos descritos em ligação com a Figura 3, ou 5. Em uma variação de exemplo, o sistema de detecção de proximidade 120 e a superfície de entrada 112 é colocada a uma maior distância a partir do visor 110, por exemplo, no lado ou para trás (em vista a posição de um visor) de um dispositivo portátil eletrônico.
[031] A Figura 3 mostra um método para controlar as operações de exibição de acordo com uma concretização exemplificativa. O método pode ser aplicado como um algoritmo de controle por parte do controlador 130, por exemplo. No bloco 300 a presença de um objeto na proximidade de uma superfície de entrada é detectada. Pelo menos um item de informação associada com a posição detectada atualmente do objeto 310 é detectada, por exemplo, por determinação de uma GUI associada, em função da informação da posição corrente x, y do objeto 1. A informação de distância sobre a distância do objeto à superfície de entrada é detectada 320. Por exemplo, uma estimativa da distância pode ser obtida através de um sinal a partir do sistema de detecção de proximidade 120. A seleção de informação adicional, associada com o pelo menos um item de informação, para o visor 330 é controlado em função da informação de distância. Assim, a quantidade de informação exibida para o usuário pode ser adaptada em função da distância pairando.
[032] Será apreciado que várias modificações e adições podem ser feitas no escopo do processo ilustrado na Figura simplificada 3. Em uma variação de exemplo da Figura 3, a distância do objeto que paira 110 pode ser monitorizada continuamente (320), independentemente da detecção da associação (310) do objeto para qualquer item de informação. Algumas concretizações de exemplo adicionais serão ilustradas a seguir.
[033] Em uma concretização, com referência também à Figura 3, um ou mais gatilhos adicionais ou condições são aplicadas antes de exibir a informação adicional 330. Por exemplo, o controlador 130 pode ser disposto para controlar o momento em que o objeto 1 é mantido sobre a área (x, y) associado com o item de informação, e disparar a exibição apenas em resposta à detecção de um objeto associado com o item de informação para um período de tempo pré-determinado. Assim, pode ser possível obter informação adicional relacionada com um item de GUI, mantendo um dedo pairando sobre o item. Através da aplicação de tais condições de atraso, torna- se possível evitar ou pelo menos reduzir a exposição durante a pairando sobre o visor de informação adicional que o usuário realmente não está interessado.
[034] Em algumas concretizações, o aparelho está no bloco 330 configurado para ativar a exibição e/ou adaptar a seleção de informações de uma pré-visualização, recomendação ou uma janela de informação complementar associada com o item de informação a partir da distância estimada. Essa janela pode, assim, ser exibida para fornecer informações adicionais com nível variável de detalhes sobre o item de informação sob interesse para o usuário. A janela pode ser estática ou dinâmica. O tamanho da janela e a quantidade de conteúdos na janela podem ser variados de acordo com a distância atualmente detectada. A janela pode ser de várias formas. Por exemplo, em vez de janelas e menus tradicionais, a janela pode ser uma bolha. A aparência e/ou a posição da janela podem ser adaptadas em função do tempo decorrido e/ou em resposta às ações do usuário detectadas, tais como o movimento de um dedo ou de um gesto. A janela, tal como uma pré-visualização, pode ser disposta na mesma vista do visor que o elemento de GUI sendo pairado. No entanto, em alguns casos, a janela pode ser exibida no fundo da tela, em um monitor secundário ou como uma sobreposição. Por exemplo, se o aparelho 100 está ligado a um projetor ou tem uma tela dupla, a janela pode ser exibida no visor secundário. No entanto, deve notar-se que existem numerosas possibilidades para organizar a exibição de informações adicionais desencadeadas pairando, e apenas alguns exemplos são ilustrados neste documento.
[035] Em algumas concretizações, como ilustrado no exemplo da figura 4a, um ícone de pasta 400 é detectado para ser associado com o objeto de entrada. Por exemplo, uma tela com um conjunto de pastas pode ser exibida, cada pasta contendo vários arquivos. Um dedo é detectado na zona pairando sobre um ícone de pasta atualmente apresentada, por um período de tempo predeterminado. Uma janela 410 que fornece informações adicionais sobre os arquivos da pasta pode, assim, ser exibida. O número de arquivos (entre todos os arquivos da pasta) exibido na janela 410 pode ser controlado com base na distância do objeto detectado à superfície de entrada. O usuário pode obter uma visão mais detalhada 420 do conteúdo da pasta, movendo o seu dedo no sentido do ícone 400. Como ilustrado na Figura 4b, uma vista adicional 420 pode ser exibida em resposta à detecção do dedo mais perto do ícone 400.
[036] Em algumas concretizações, uma ou mais outras ações sobre o item de informação associado são controlados com base na distância atual 150 do objeto 1 para a superfície de entrada 112. Isto pode realizar-se, além ou em vez de controlar, para exibição, da seleção da informação adicional associada com o elemento de informação. Por exemplo, um aplicativo é ativado, um prompt de usuário é gerado, a saída sonora e/ou tátil é gerada. Em uma concretização de um ou mais elementos de informação entre a pluralidade atualmente apresentada, itens de informação são selecionados com base na distância que paira 150. Por exemplo, um dos itens na vista adicional 3, 410, 420 pode ser focado e selecionado com base na distância. Outro exemplo é que um elemento de GUI, entre uma pluralidade de elementos GUI é selecionado com base na distância estimada do objeto de entrada para a superfície de entrada, por exemplo, a aparência do ícone 2 da Figura 1a é alterada em resposta ao objeto adicional aproximando a superfície de entrada. Em uma concretização, no caso de o item de informação atualmente associado ao objeto de entrada ser um arquivo de mídia, um player de mídia é ativado para a saída de uma pré-visualização e/ou reprodução do arquivo de mídia.
[037] Pode haver outros parâmetros que afetam a seleção de itens de informação para exibição. Em algumas concretizações a escolha de informações para exibição é controlada com base na relevância de itens de informações disponíveis.
[038] Como ilustrado na Figura 5, no bloco 500, a informação de relevância associada com o pelo menos um item de informação ou um ou mais elementos de informação adicionais associados com o pelo menos um item de informação é detectada ou determinada. Assim, o aparelho 100 pode ser disposto para gerar a informação de relevância em si com base em metadados associados ao item de informação disponível para o aparelho, ou receber a informação de relevância de outros dispositivos.
[039] A informação para o tela 510 pode ser selecionada de acordo com a informação de relevância. Assim, torna-se possível fornecer mais informações relevantes para o usuário indicando o seu interesse através da manutenção do dedo na parte superior do elemento de informação. Isto permite fornecer uma maneira mais conveniente de buscar elementos de informação relevantes, por exemplo, entre dezenas ou centenas de arquivos em uma ou mais pastas.
[040] Por exemplo, referindo-se também às Figuras 4a e 4b, os elementos de informação para os pontos de vista adicionais 410, 420 podem ser selecionados com base em valores de relevância de cada um dos itens de informação disponíveis. Por exemplo, os registros com valores mais altos de relevância entre os registros na pasta representada pelo ícone 400 podem ser exibidos nas vistas adicionais 410, 420.
[041] Vários métodos podem ser aplicados para determinar a relevância de informação 500 de um item de informação ou a um conjunto de elementos de informação. Em uma concretização, a informação de relevância pode ser determinada com base em análise de histórico de acesso, indicando atividade de utilização do elemento de informação. Por exemplo, o aparelho 100 pode ser disposto para armazenar o histórico de acesso em relação aos arquivos do usuário armazenados referidos na memória do aparelho 100. Em uma concretização, as informações de relevância podem ser atualizadas com base em entradas pairando. Por exemplo, se um usuário mantém o seu dedo por um longo período de tempo ao longo de um item de informação, a relevância do item de informação pode ser aumentada.
[042] Esse histórico de acesso ou informação de relevância também pode ser mantido a respeito de um conjunto de usuários definidos nas informações de contato armazenadas no aparelho. Por exemplo, esses arquivos (ou cópias / instâncias dos arquivos) armazenados na pasta que amigos do usuário acessaram o mais e/ou recentemente acessados são definidos como arquivos mais relevantes da pasta.
[043] Em uma concretização, a relevância de um arquivo é determinado pelo exame da rede social do usuário. Com referência ao exemplo da Figura 6, as redes sociais entre as pessoas e a sua utilização de arquivos e outras informações podem ser armazenadas por um serviço online de um servidor de banco de dados, 600, que o aparelho 100 pode ser disposto para o acesso através de uma ou mais redes 62. A informação de relevância ou informações para determinar a relevância do uso dos amigos de arquivos também pode ser empurrado para o dispositivo cliente durante o tempo de inatividade, por exemplo, a cada noite. A relevância de um arquivo pode ser determinada com base nas recomendações recebidas pelo servidor 630 a partir de dispositivos de usuários pertencentes à rede social associada. Assim, o conteúdo socialmente recomendada pode ser fornecido em uma vista 410, 420 de controle com base na distância de detecção pairando 150, e um usuário pode facilmente localizar itens de conteúdo no momento de interesse para a rede social.
[044] Como mais um exemplo, no caso de um dedo está pairando acima de uma pasta que contém arquivos de música, o aparelho 100 pode ser organizado para detectar qual música os amigos do usuário têm escutado mais. O ícone da música é exibido e, adicionalmente, a reprodução da música pode ser iniciada. Se o arquivo seria um clipe de vídeo, o aparelho pode ser organizado para mostrar uma prévia do mesmo. Em uma opção de outro exemplo, a visualização da música ou de vídeo pode ser organizada para começar a partir da seção onde o amigo do usuário acabou de ouvir ou assistir ao vídeo. Em um exemplo relacionado a aplicações de videogame, as recentes altas pontuações dos amigos do usuário podem ser exibidas ao lado / em cima do ícone da aplicação do jogo. Em uma concretização, as informações de relevância associadas a um item de informação são controladas (330), para exibição de informação adicional, em resposta a um objeto pairar sobre um elemento de interface gráfica do item de informação. Por exemplo, Stephen acessou uma música, a interface gráfica que está sendo pairava, 15 vezes.
[045] Em uma concretização exemplo, o aparelho 100 é configurado para controlar a seleção de itens de informação adicional sobre a base de outras propriedades associadas com o movimento do objeto de entrada 1 na área de pairar 140. Por exemplo, o aparelho 100 está disposto para detectar a velocidade do movimento do objeto 1. A seleção dos elementos de informação adicionais pode ser controlada com base 330 da velocidade do movimento do objeto 1.
[046] Em uma concretização, o aparelho 100 está disposto para suportar a utilização de vários dedos para proporcionar toque e/ou com base em entradas pairando simultaneamente. Por exemplo, um dedo pode ser utilizado para selecionar ou focar em um item de informação, e um outro dedo pode ser utilizado para selecionar ou concentrar outro item de informação. Distâncias de um ou mais dedos pairando podem ser estimadas, e a quantidade de informação adicional para cada um dos itens de informação associados pode ser controlada com base na distância atualmente detectada do dedo associado. Por exemplo, a distância de um dedo pairando pode ser usada para controlar a seleção de uma pasta a partir de várias pastas disponíveis, e a distância de um outro dedo pairando simultaneamente pode ser utilizado para selecionar a música de dentro da pasta escolhida.
[047] A Figura 7 ilustra um exemplo de utilização de vários dedos para obter pré- visualizações ou recomendações de informações associadas a itens de GUI. Um usuário pode desejar ter recomendações de arquivos guardados em uma pasta 700, que contém várias subpastas, neste exemplo, álbuns de música, que por sua vez, contêm vários arquivos de música, cada um. No exemplo da Figura 7, a informação disponível é adicionalmente pré-selecionada com base na informação relevante. A distância de um dedo da mão esquerda pode determinar qual, por exemplo, a Top 3, a qual pode ser socialmente mais pertinente e as pastas de álbuns 702 estão selecionadas. A distância de um dedo da mão direita pode determinar qual a Top 5, por exemplo, os arquivos de música socialmente mais relevantes 704 do álbum escolhido no momento com o dedo da mão esquerda sendo selecionado para visualização.
[048] Será apreciado que a configuração de seleção entre os dedos da mão esquerda / para a direita, os níveis de distância, e o número de itens selecionáveis podem ser alterados de várias formas para a concretização ilustrada na Figura 7, assim como para outras concretizações.
[049] Em outra concretização de exemplo, o controlador 130 está disposto para controlar uma função específica em resposta à detecção de uso combinado específico de dedos múltiplos, tais como um gesto específico pairando ou com um gesto de pinça com base no toque ou gesto retrocedendo. Tal entrada específica pode ser adicionalmente aplicada para controlar as operações de exibição, por exemplo, na etapa 330.
[050] Em uma concretização de exemplo, as propriedades do objeto de entrada) associadas à entrada detectadas são determinadas e aplicadas para controlar as operações de exibição, por exemplo, na etapa 330. Por exemplo, as informações de identificação na mão do usuário, como os dedos e/ou o pulso, são determinadas para permitir a identificação do usuário do dispositivo de origem de outros usuários. Algumas propriedades de exemplo do lado do usuário incluem, mas não estão limitados a, mão esquerda ou a direita, cor da pele, tamanho aproximado (ou indicação de mão adulto ou criança), configuração dos dedos, como indicação do gesto de pinçar que os dedos estão em e quantos dedos são aplicados. No entanto, também outros descritores notáveis podem ser aplicados, como esquema de cores, por exemplo, uma cor de manga curta, a leitura do sensor de calor lateral, a voz do usuário, pensamento etc. Por exemplo, o controlador 130 pode ser disposto para detectar tais propriedades do objeto de entrada com base de análise de sinais a partir do sistema de detecção de proximidade 120 e/ou mais sensores, tais como uma ou mais câmaras de vídeo.
[051] Em uma concretização, o aparelho 100 é configurado para detectar gestos por um ou mais objetos (separadamente ou em combinação) na área pairando 140. Por exemplo, uma funcionalidade de gesto de detecção é ativada em resposta à detecção do objeto 300 que paira 1. As mudanças no campo de detecção de proximidade podem, assim, ser controladas. Um gesto é identificado com base nas alterações detectadas. Uma ação associada com os gestos identificados pode, então, ser realizada. Por exemplo, em resposta à detecção de um gesto semelhante ao movimento de um dedo quando faz duplo clique no botão do mouse, um elemento de GUI é selecionado e uma outra ação é realizada para o elemento selecionado da GUI, por exemplo, uma nova janela de aplicativo com conteúdo de uma URL selecionada é exibida. Outro exemplo é a de que o aparelho 100 pode ser configurado para detectar o movimento de um objeto de modo a formar um círculo e, assim, mover-se para uma vista posterior ou anterior. Os gestos pairando podem ser aplicados para controlar ainda mais o elemento de informação atualmente associado ou exibição de informação adicional sobre o item de informação. Por exemplo, no exemplo da Figura 7, um gesto de rotação dos ponteiros do relógio com o dedo para a direita pode ser associado ao avanço rápido da música visualizada. A funcionalidade de gesto pairando pode ser implementada de tal forma que um gesto pairando pode ser associada com funções diferentes, dependendo da distância do objeto à superfície de entrada 112.
[052] Os recursos acima ilustrados podem ser aplicados para diferentes aplicações e modos de aplicações. Alguns exemplos de aplicações para as quais vantagens particulares estão disponíveis incluem aplicativos de navegação, aplicativos de gerenciamento de dispositivos, aplicativos de gerenciamento de arquivos, aplicativos de conteúdo de mídia e serviços relacionados, aplicativos de mapas, aplicativos utilizando interações de realidade aumentada, aplicações de redes sociais, e afins.
[053] A Figura 8 mostra um diagrama de blocos da estrutura de um dispositivo eletrônico 800 de acordo com uma concretização exemplificativa. O dispositivo eletrônico pode compreender o aparelho 100. Embora uma concretização do dispositivo eletrônico 800 seja ilustrada e será seguidamente descrita, para fins de exemplo, outros tipos de dispositivos eletrônicos, tais como, mas não limitado a, PDAs, pagers, computadores portáteis, computadores desktop, computadores portáteis, computadores tablet, media players, televisores, dispositivos de jogos, câmeras, gravadores de vídeo, dispositivos de posicionamento, livros eletrônicos, dispositivos portáteis, dispositivos de projetor, e outros tipos de sistemas eletrônicos, podem empregar as presente concretizações.
[054] Além disso, o aparelho de uma concretização de exemplo não tem de ser todo o dispositivo eletrônico, mas pode ser um componente ou conjunto de componentes do dispositivo eletrônico em outras concretizações de exemplo. Por exemplo, o aparelho pode estar na forma de um conjunto de chips ou algum outro tipo de módulo de hardware para o controle, realizando, pelo menos, algumas das funções descritas acima, tais como as funções do controlador 130 da Figura 2.
[055] Um processador 802 é configurado para executar instruções e realizar as operações associadas com o dispositivo eletrônico 800. O processador 802 pode compreender meios, tais como um dispositivo processador de sinal digital, um dispositivo de microprocessador, e os circuitos, para a realização de diversas funções, incluindo, por exemplo, uma ou mais das funções descritas em conjunto com as Figuras 1a a 7. O processador 802 pode controlar a recepção e processamento de dados de entrada e saída entre os componentes dos dispositivos eletrônicos 800 usando instruções recuperadas da memória. O processador 802 pode ser implementado em um chip único, vários chips ou vários componentes elétricos. Alguns exemplos de técnicas que podem ser utilizadas para o processador 802 incluem o processador dedicado ou incorporado, e ASIC.
[056] O processador 802 pode compreender a funcionalidade para operar um ou mais programas de computador. O código do programa de computador pode ser armazenado em uma memória 804. A de pelo menos uma memória e o código de programa de computador podem ser configurados para, com o pelo menos um processador, fazer com que o aparelho efetuar, pelo menos, uma concretização, incluindo, por exemplo, o controle de uma ou mais das funções descritas em conjunto com as Figuras 1a a 7. Por exemplo, o processador 802 pode estar preparado para executar pelo menos parte das funções do controlador 130 da Figura 2. Normalmente, o processador 802 opera em conjunto com um sistema operacional para executar código de computador e produzir e utilizar os dados.
[057] A título de exemplo, a memória 804 pode incluir uma porção não volátil, tal como EEPROM, memória flash ou semelhante, e uma porção volátil, tal como uma memória de acesso aleatório (RAM) que inclui uma área de cache para o armazenamento temporário de dados. A informação para controlar a funcionalidade do processador 802 pode também residir em um meio de armazenamento removível e carregado ou instalado sobre os dispositivos eletrônicos 800, quando necessário.
[058] O dispositivo eletrônico 800 pode compreender uma antena (ou antenas múltiplas) em comunicação operável com uma unidade de transceptor 806 que inclui um transmissor e um receptor. O dispositivo eletrônico 800 pode funcionar com um ou mais padrões de interface aérea e protocolos de comunicação. A título de ilustração, os dispositivos eletrônicos 800 podem operar de acordo com qualquer um de um número de protocolos de comunicação de primeira, segunda, terceira e/ou quarta geração ou semelhantes. Por exemplo, o dispositivo eletrônico 800 pode operar de acordo com os protocolos de telefonia fixa, como Ethernet e linha de assinante digital (DSL), com os protocolos de comunicação sem fio de segunda geração (2G), como o Sistema Global para Comunicações Móveis (GSM), com os protocolos de comunicação sem fio de terceiro geração (3G), como os protocolos de 3G pelo Third Generation Partnership Project (3GPP), CDMA2000, CDMA de banda larga (WCDMA) e divisão de tempo síncrona CDMA (TD-SCDMA), com protocolos de comunicação sem fio de quarta geração (4G), tais como Term Evolution (LTE 3GPP longa), protocolos de rede sem fio de área local, como 802.11, protocolos sem fio de curto alcance, como Bluetooth, e/ou similares.
[059] A interface de usuário do dispositivo eletrônico 800 pode compreender um dispositivo de saída 808, tal como um alto-falante, um ou mais dispositivos de entrada 810, tal como um microfone, um teclado ou um ou mais botões ou atuadores, e um dispositivo de exibição 812. O dispositivo eletrônico 800 pode compreender uma visualização estereoscópica capaz de exibir apresentações estereoscópicas de itens de UL, ou seja, itens de Ul percebidos pelo usuário como imagens tridimensionais (3D).
[060] O dispositivo de entrada 810 pode incluir um dispositivo sensor de toque configurado para receber a entrada de contato de um usuário e enviar essa informação para o processador 802. Tal dispositivo de detecção de toque pode ser configurado para reconhecer também a posição e a magnitude dos toques em uma superfície sensível ao toque. O dispositivo de detecção de toque pode ser baseado em tecnologias de sensores, incluindo, mas não se limitando a, detecção capacitiva, a detecção de resistência, a detecção de ondas acústicas de superfície, sensores de pressão, sensores indutivos e sensores ópticos. Além disso, o dispositivo de detecção de toque pode ser baseado em um único ponto de detecção ou detecção multiponto. Em uma concretização, o dispositivo de entrada é uma tela sensível ao toque, que é posicionada na frente do visor 812.
[061] O dispositivo eletrônico 800 também compreende um sistema de detecção de proximidade 814, tal como o sistema 120 ilustrado anteriormente, operativamente acoplado ao processador 802. O sistema de detecção de proximidade 814 é configurado para detectar quando um dispositivo de caneta, dedo ou outro apontador está em estreita proximidade com, mas não em contato com, um componente do sistema de computador, incluindo dispositivos de housing, ou dispositivos de E / S, tais como a tela sensível ao toque.
[062] O dispositivo eletrônico 800 pode incluir também outras unidades e elementos não ilustrados na Figura 8, tais como dispositivos de interface adicionais, sensores adicionais, tais como um sensor do acelerômetro, uma bateria, um elemento de captura de mídia, tal como um módulo de câmara de vídeo e/ou áudio, uma unidade de posicionamento, e um módulo de identificação do usuário.
[063] Em algumas concretizações, saídas adicionais, tais como uma saída audível e/ou táctil podem também ser produzidas pelo aparelho 100, com base na distância detectada. Assim, o processador 802 pode estar preparado para controlar um alto-falante e/ou um acionador de saída táctil, tal como um mecanismo de vibração, no dispositivo eletrônico 800 para fornecer uma tal saída de alerta adicional.
[064] As concretizações da presente invenção podem ser implementadas em lógica de software, aplicação de hardware, ou uma combinação de hardware e software, e a lógica da aplicação. Em uma concretização de exemplo, a lógica da aplicação, software ou um conjunto de instruções é mantido em qualquer um de vários meios legíveis por computador convencionais. No contexto do presente documento, um "meio legível por computador" pode ser qualquer meio ou meios que podem conter, armazenar, comunicar, propagar ou transportar as instruções para o uso por ou em ligação com um sistema de execução de instruções, o aparelho ou o dispositivo, tal como um computador, com um exemplo de um computador descrito e representado na Figura 8. Um meio legível por computador pode compreender um meio de armazenamento de material e não transitório legível por computador, que pode ser qualquer meio ou meios que podem conter ou armazenar as instruções para o uso por ou em ligação com um sistema de execução de instruções, o aparelho ou o dispositivo, tal como um computador.
[065] Em uma concretização de exemplo, pode ser proporcionado um circuito ou um circuito de interface de usuário configurado para proporcionar, pelo menos, algumas das funções de controle ilustradas acima. Tal como utilizado no presente pedido, o termo "circuito" refere-se a todos os seguintes: (a) as implementações em hardware apenas do circuito (como implementações em circuito apenas analógico e/ou digital) e (b) as combinações de circuitos e de software ( e/ou firmware), tais como (conforme o caso): (i) a combinação de um processador (es) ou (ii) a partes do processador (es) / software (incluindo o processador de sinal digital (s)), software, e memória (s) que trabalham em conjunto para fazer com que um dispositivo, tal como um telefone celular ou servidor, execute várias funções) e (c) os circuitos, tais como um microprocessador (s) ou uma porção de um microprocessador (s), que necessitam de software ou firmware para a operação, mesmo se o software ou firmware não está fisicamente presente.
[066] Esta definição de 'circuito' aplica-se a todas as utilizações deste termo no pedido, inclusive em quaisquer reivindicações. Como um exemplo adicional, tal como utilizado no presente pedido, o termo "circuito" abrange igualmente uma implementação de apenas um processador (ou vários processadores) ou parte de um processador e o seu software (ou seus) acompanhante e/ou firmware.
[067] Se desejado, pelo menos, algumas das diferentes funções aqui discutidas podem ser realizadas por uma ordem diferente e/ou concorrentemente com a outra. Além disso, se desejado, uma ou mais das funções acima descritas podem ser opcionais, ou podem ser combinadas.
[068] Embora vários aspectos da invenção tenham sido definidos nas reivindicações independentes, outros aspectos da invenção compreendem outras combinações de características das concretizações descritas e/ou as reivindicações dependentes, com as características das reivindicações independentes, e não apenas as combinações explicitamente estabelecidas nas reivindicações.
[069] Deve também ser notado aqui que embora o documento acima descreva as concretizações de exemplo da invenção, estas descrições não devem ser consideradas em um sentido limitativo. Em vez disso, existem diversas variações e modificações que podem ser feitas sem se sair do escopo da presente invenção tal como definido nas reivindicações anexas.

Claims (19)

1. Aparelho configurado para:detectar (300) a presença de um objeto (1) na proximidade de uma superfície de entrada (112),detectar (310), pelo menos, um item de informação associado com o objeto (1),detectar (320) a informação de distância sobre a distância do objeto (1) em relação à superfície de entrada (112),caracterizado poro aparelho estar configurado ainda para:identificar uma primeira distância limite à qual a informação de distância está associada, de pelo menos duas distâncias limite,em resposta à identificação da primeira distância limite, identifique (510) um primeiro nível de informação adicional da informação disponível associada ao pelo menos um item de informação, em que o primeiro nível de informação adicional é identificado a partir da informação disponível com base na informação de relevância, em que pelo menos uma segunda distância limite está associada a um segundo nível de informações adicionais, ecausar a exibição do primeiro nível de informações adicionais identificadas com base na relevância.
2. Aparelho, de acordo com a reivindicação 1, caracterizado poro aparelho estar configurado para ativar a exibição e/ou adaptar a quantidade de informação em uma pré-visualização, recomendação ou uma janela de informação complementar associada com o item de informação a partir da informação de distância.
3. Aparelho, de acordo com a reivindicação 1, caracterizado poro aparelho estar configurado para:determinar ou detectar (500) a informação de relevância associada com o pelo menos um item de informação, ou um ou mais itens de informação adicionais associados com o pelo menos um item de informação.
4. Aparelho, de acordo com a reivindicação 3, caracterizado pora informação de relevância do pelo menos um de item de informação ser determinada com base na verificação do histórico de acesso indicando o uso do item de informação por um usuário do aparelho e/ou um conjunto selecionado de usuários adicionais definidos na informação de contato armazenada no aparelho.
5. Aparelho, de acordo com a reivindicação 3, caracterizado poro aparelho estar configurado para:detectar o objeto (1) de entrada acima de um elemento de interface gráfica de usuário associado com uma pluralidade de itens de informação,determinar ou detectar a informação de relevância associada com a pluralidade de itens de informação, eselecionar para exibição pelo menos um item de informação associado com a maior relevância entre a pluralidade de itens de informação com base nas informações de relevância.
6. Aparelho, de acordo com a reivindicação 1, caracterizado poro aparelho estar configurado para detectar a distância com base em informação a partir de, pelo menos, um de uma câmara de vídeo, um sensor de nível de luz, ou um sensor de ultra-som.
7. Aparelho, de acordo com a reivindicação 1, caracterizado poro aparelho ser um dispositivo de comunicação móvel que compreende uma tela sensível ao toque (110).
8. Aparelho, de acordo com a reivindicação 1, caracterizado pora informação de distância compreender uma distância estimada do objeto (1) para a superfície de entrada (112).
9. Aparelho, de acordo com a reivindicação 1, caracterizado porser ainda configurado para:em resposta à determinação de que a informação da distância está associada a pelo menos a segunda distância limite, identificar um segundo nível de informação adicional da informação disponível associada ao pelo menos um item de informação, em que o segundo nível de informação adicional é identificado a partir da informação disponível com base na informação de relevância diferente da relevância associada ao primeiro nível de informações adicionais, ecausar a exibição do segundo nível de informações adicionais identificadas com base na relevância.
10. Aparelho, de acordo com a reivindicação 1, caracterizado porserem ainda configurado para:atualizar informações de relevância para pelo menos um item de informação com base na presença do objeto (1).
11. Aparelho, de acordo com a reivindicação 1, caracterizado pora relevância ser baseada no histórico de uso.
12. Aparelho, de acordo com a reivindicação 1, caracterizado pora relevância ser baseada no histórico de uso por usuários em uma rede social de um usuário do aparelho.
13. Aparelho, de acordo com a reivindicação 1, caracterizado poro primeiro nível de informação adicional compreender o conteúdo de uma pasta associada ao pelo menos um item de informação.
14. Método que compreende:detectar (300) a presença de um objeto (1) na proximidade de uma superfície de entrada (112),detectar (310) pelo menos um item de informação associado com o objeto (1),detectar (320) a informação de distância com base na distância do objeto (1) em relação à superfície de entrada,caracterizado porcompreender:identificar uma primeira distância limite à qual a informação de distância está associada, de pelo menos duas distâncias limite,em resposta à identificação da primeira distância limite, identifique (510) um primeiro nível de informação adicional da informação disponível associada ao pelo menos um item de informação, em que o primeiro nível de informação adicional é identificado a partir da informação disponível com base na informação de relevância, em que pelo menos uma segunda distância limite está associada a um segundo nível de informações adicionais, ecausar a exibição do primeiro nível de informações adicionais identificadas com base na relevância.
15. Método, de acordo com a reivindicação 14, caracterizado pora exibição e/ou adaptação de quantidade de informação ser controlada em uma pré- visualização, recomendação ou uma janela de informação complementar associada com o item de informação a partir da informação de distância.
16. Método, de acordo com a reivindicação 14, caracterizado pora informação de relevância, associada com o pelo menos um item de informação, ou um ou mais itens de informação adicionais associados com o pelo menos um item de informação ser detectada ou determinada, ea seleção de informações adicionais para exibição ser controlada de acordo com a informação de relevância.
17. Método, de acordo com a reivindicação 16, caracterizado pora informação de relevância do pelo menos um item de informação ser determinada com base na verificação do histórico de acesso, indicando o uso do item de informação por um usuário do aparelho e/ou de um conjunto selecionado de usuários adicionais definido nas informações de contato armazenadas no método.
18. Método, de acordo com a reivindicação 14, caracterizado poro objeto (1) de entrada ser detectado acima de um elemento de interface gráfica de usuário associado com uma pluralidade de itens de informação,a informação de relevância associada com a pluralidade de itens de informação ser determinada ou detectada, eo pelo menos um item de informação associado com a maior relevância entre a pluralidade de itens de informação ser selecionado para exibição com base na informação de relevância.
19. Método, de acordo com a reivindicação 14, caracterizado pora distância ser detectada com base na informação de pelo menos um de uma câmara de vídeo, um sensor de nível de luz, ou um sensor de ultra-som.
BR112013006616-4A 2010-09-22 2011-09-06 aparelho e método para detectar objeto com base em proximidade da superfície de entrada, item de informação associado e de distância do objeto BR112013006616B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/887,539 US8890818B2 (en) 2010-09-22 2010-09-22 Apparatus and method for proximity based input
US12/887,539 2010-09-22
PCT/FI2011/050762 WO2012038589A1 (en) 2010-09-22 2011-09-06 Apparatus and method for proximity based input

Publications (2)

Publication Number Publication Date
BR112013006616A2 BR112013006616A2 (pt) 2016-06-21
BR112013006616B1 true BR112013006616B1 (pt) 2021-03-16

Family

ID=45817293

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112013006616-4A BR112013006616B1 (pt) 2010-09-22 2011-09-06 aparelho e método para detectar objeto com base em proximidade da superfície de entrada, item de informação associado e de distância do objeto

Country Status (6)

Country Link
US (1) US8890818B2 (pt)
EP (1) EP2619647B1 (pt)
KR (2) KR20130058752A (pt)
CN (1) CN103210366B (pt)
BR (1) BR112013006616B1 (pt)
WO (1) WO2012038589A1 (pt)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US20110252349A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Folders
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
JP5768347B2 (ja) 2010-09-07 2015-08-26 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US20120096349A1 (en) * 2010-10-19 2012-04-19 Microsoft Corporation Scrubbing Touch Infotip
JP5304763B2 (ja) * 2010-10-22 2013-10-02 アイシン・エィ・ダブリュ株式会社 画像表示装置、画像表示方法及びプログラム
JP2012103938A (ja) * 2010-11-11 2012-05-31 Seiko Epson Corp 光学式検出システム及びプログラム
US20120120002A1 (en) * 2010-11-17 2012-05-17 Sony Corporation System and method for display proximity based control of a touch screen user interface
EP2490113B1 (en) * 2011-02-15 2016-11-23 Lg Electronics Inc. Display device and method of controlling operation thereof
TWI447066B (zh) * 2011-06-08 2014-08-01 Sitronix Technology Corp Distance sensing circuit and touch electronic device
US10133439B1 (en) 2011-08-29 2018-11-20 Twitter, Inc. User interface based on viewable area of a display
US10684768B2 (en) * 2011-10-14 2020-06-16 Autodesk, Inc. Enhanced target selection for a touch-based input enabled user interface
US9442942B2 (en) 2011-10-20 2016-09-13 Nokia Technologies Oy Method, apparatus and computer program product for dynamic and visual object search interface
US9746918B2 (en) 2012-01-26 2017-08-29 Umoove Services Ltd. Eye tracking
WO2013113360A1 (en) * 2012-01-30 2013-08-08 Telefonaktiebolaget L M Ericsson (Publ) An apparatus having a touch screen display
US9594499B2 (en) * 2012-02-21 2017-03-14 Nokia Technologies Oy Method and apparatus for hover-based spatial searches on mobile maps
KR101527038B1 (ko) 2012-02-24 2015-06-08 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
WO2013156987A1 (en) * 2012-04-16 2013-10-24 Xtendi Software Technologies Ltd. Proximity-based interface system and method
WO2013168171A1 (en) * 2012-05-10 2013-11-14 Umoove Services Ltd. Method for gesture-based operation control
KR20140026723A (ko) * 2012-08-23 2014-03-06 삼성전자주식회사 휴대 장치의 가이드 제공 방법 및 그 휴대 장치
KR102084041B1 (ko) * 2012-08-24 2020-03-04 삼성전자 주식회사 펜 기능 운용 방법 및 시스템
US9552068B2 (en) * 2012-08-27 2017-01-24 Microchip Technology Germany Gmbh Input device with hand posture control
JP5942762B2 (ja) * 2012-10-04 2016-06-29 富士ゼロックス株式会社 情報処理装置及びプログラム
KR20140064089A (ko) * 2012-11-19 2014-05-28 삼성전자주식회사 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치
CN103092467B (zh) * 2013-01-29 2016-08-03 华为终端有限公司 一种视频预览的方法及装置
KR20140105691A (ko) * 2013-02-23 2014-09-02 삼성전자주식회사 터치스크린을 구비하는 사용자 기기의 오브젝트 조작 방법 및 그 장치
US20140267094A1 (en) * 2013-03-13 2014-09-18 Microsoft Corporation Performing an action on a touch-enabled device based on a gesture
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
US9195332B2 (en) * 2013-05-23 2015-11-24 Nokia Technologies Oy Apparatus with deformable flexible user interface area and adjustable hover input region and associated methods
WO2014202819A1 (en) * 2013-06-17 2014-12-24 Nokia Corporation An apparatus for a 3-d stylus-actuable graphical user interface and associated methods
US9377949B2 (en) 2013-09-27 2016-06-28 Xiaomi Inc. Method and terminal device for selecting character
CN103472998B (zh) 2013-09-27 2017-03-15 小米科技有限责任公司 一种选取文字的方法、装置和终端设备
CN104571473B (zh) * 2013-10-15 2018-09-28 北京三星通信技术研究有限公司 穿戴式设备、移动终端及其通信方法
CN110687969B (zh) * 2013-10-30 2023-05-02 苹果公司 显示相关的用户界面对象
US9971413B2 (en) 2013-11-27 2018-05-15 Huawei Technologies Co., Ltd. Positioning method and apparatus
CN103631483B (zh) * 2013-11-27 2017-02-15 华为技术有限公司 一种定位的方法及装置
KR101692848B1 (ko) * 2013-11-29 2017-01-05 주식회사 하이딥 호버링을 이용하는 가상 터치패드 조작방법 및 이를 수행하는 단말기
KR101628246B1 (ko) * 2014-02-24 2016-06-08 삼성전자주식회사 컨텐츠 표시 방법 및 장치
WO2015130137A1 (en) * 2014-02-27 2015-09-03 Samsung Electronics Co., Ltd. Method and device for displaying three-dimensional graphical user interface screen
KR20150104302A (ko) 2014-03-05 2015-09-15 삼성전자주식회사 전자 장치의 사용자 입력 검출 방법 및 그 전자 장치
US9927927B2 (en) * 2014-05-05 2018-03-27 Atmel Corporation Implementing a virtual controller outside an area of a touch sensor
CN103970288A (zh) * 2014-05-21 2014-08-06 钟林 一种利用汉字拼形手势输入计算机指令的方法
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
US10719132B2 (en) * 2014-06-19 2020-07-21 Samsung Electronics Co., Ltd. Device and method of controlling device
KR102251541B1 (ko) * 2014-06-23 2021-05-14 엘지전자 주식회사 이동단말기 및 그것의 제어방법
TW201602893A (zh) * 2014-07-07 2016-01-16 欣興電子股份有限公司 附加資訊提供方法及使用其的觸控顯示裝置
US10066959B2 (en) 2014-09-02 2018-09-04 Apple Inc. User interactions for a mapping application
KR102399589B1 (ko) * 2014-11-05 2022-05-18 삼성전자주식회사 디바이스에 오브젝트를 디스플레이 하는 방법, 그 디바이스 및 기록매체
KR102380228B1 (ko) 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
KR20160063812A (ko) * 2014-11-27 2016-06-07 삼성전자주식회사 화면 구성 방법, 전자 장치 및 저장 매체
KR102336445B1 (ko) 2014-12-01 2021-12-07 삼성전자주식회사 디바이스를 제어하는 방법, 시스템 및 그 디바이스
KR20160067696A (ko) * 2014-12-04 2016-06-14 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6520668B2 (ja) * 2015-02-09 2019-05-29 株式会社デンソー 車両用表示制御装置及び車両用表示ユニット
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US9658704B2 (en) * 2015-06-10 2017-05-23 Apple Inc. Devices and methods for manipulating user interfaces with a stylus
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US20180004385A1 (en) * 2016-06-30 2018-01-04 Futurewei Technologies, Inc. Software defined icon interactions with multiple and expandable layers
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
CN108227525B (zh) * 2017-12-04 2020-10-23 无锡小天鹅电器有限公司 家用电器的控制方法、装置和洗衣机
CN108153464A (zh) * 2018-01-26 2018-06-12 北京硬壳科技有限公司 一种控制方法和装置
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
US11231815B2 (en) * 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) * 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
CN100437451C (zh) * 2004-06-29 2008-11-26 皇家飞利浦电子股份有限公司 用于防止弄脏显示设备的方法与设备
WO2006039939A1 (en) 2004-10-13 2006-04-20 Wacom Corporation Limited A hand-held electronic appliance and method of entering a selection of a menu item
US7924271B2 (en) 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
US8219936B2 (en) * 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
KR100934514B1 (ko) 2008-05-07 2009-12-29 엘지전자 주식회사 근접한 공간에서의 제스쳐를 이용한 사용자 인터페이스제어방법
US20090307224A1 (en) * 2007-11-12 2009-12-10 Amin Archit A Apparatus and method for communicating, accessing, organizing, and/or managing, information in a network environment
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
US8082566B2 (en) * 2007-12-19 2011-12-20 Verizon Patent And Licensing Inc. Input based function preview apparatuses, systems, and methods
KR101486345B1 (ko) 2008-03-21 2015-01-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
KR101467766B1 (ko) 2008-03-21 2014-12-10 엘지전자 주식회사 이동 단말기 및 이동 단말기의 화면 표시 방법
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
EP2131272A3 (en) * 2008-06-02 2014-05-07 LG Electronics Inc. Mobile communication terminal having proximity sensor and display controlling method therein
US9030418B2 (en) 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
KR20100044341A (ko) * 2008-10-22 2010-04-30 엘지전자 주식회사 이동 단말기 및 이를 이용한 스케쥴러 제공 방법
US20100110002A1 (en) * 2008-11-06 2010-05-06 Sony Ericsson Mobile Communications Ab Communication device with combined input and display device
JP5407336B2 (ja) * 2009-01-06 2014-02-05 日本電気株式会社 情報処理装置
KR101582686B1 (ko) * 2009-03-02 2016-01-05 엘지전자 주식회사 아이템 표시 방법 및 이를 적용한 이동 통신 단말기

Also Published As

Publication number Publication date
EP2619647A4 (en) 2017-04-05
EP2619647B1 (en) 2020-10-21
KR101847754B1 (ko) 2018-04-10
EP2619647A1 (en) 2013-07-31
CN103210366A (zh) 2013-07-17
WO2012038589A1 (en) 2012-03-29
US20120068941A1 (en) 2012-03-22
KR20160062147A (ko) 2016-06-01
BR112013006616A2 (pt) 2016-06-21
KR20130058752A (ko) 2013-06-04
CN103210366B (zh) 2016-11-02
US8890818B2 (en) 2014-11-18

Similar Documents

Publication Publication Date Title
BR112013006616B1 (pt) aparelho e método para detectar objeto com base em proximidade da superfície de entrada, item de informação associado e de distância do objeto
US11416205B2 (en) Systems and methods for initiating and interacting with a companion-display mode for an electronic device with a touch-sensitive display
AU2018203008B2 (en) Foldable electronic apparatus and interfacing method thereof
JP6816858B2 (ja) 携帯端末に対する動作関連入力によって複数個のオブジェクトの表示を制御する方法及び携帯端末
US20210109924A1 (en) User interface for searching
US9261995B2 (en) Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
KR102203885B1 (ko) 사용자 단말 장치 및 그 제어 방법
AU2014200472B2 (en) Method and apparatus for multitasking
US8508347B2 (en) Apparatus and method for proximity based input
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
US20140331146A1 (en) User interface apparatus and associated methods
CN104102417B (zh) 电子装置及其显示播放列表的方法
EP3582095A1 (en) Apparatus and method of copying and pasting content in a computing device
KR20130050606A (ko) 터치스크린을 구비한 전자 기기에서 독서 실행 방법 및 장치
KR20150119135A (ko) 전자 장치에 표시된 콘텐츠를 관리하기 위한 시스템 및 방법
US20170308271A1 (en) Display device and method for controlling display device
KR20140136855A (ko) 기능 실행 방법 및 그 전자 장치
CN107111441B (zh) 多级用户界面
KR20150021722A (ko) 스크롤 실행의 화면 표시 방법, 장치 및 기록매체
KR102118091B1 (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
US20110316887A1 (en) Electronic device with a touch screen and touch operation control method utilized thereby
US10289293B2 (en) Method and apparatus for adjusting a graphical object according to operator preference
US10185457B2 (en) Information processing apparatus and a method for controlling the information processing apparatus
KR20200031598A (ko) 즐겨찾기모드 조작방법 및 이를 수행하는 터치 스크린을 포함하는 장치
KR102186819B1 (ko) 노트 기능을 지원하는 모바일 단말기 및 그의 제어 방법

Legal Events

Date Code Title Description
B25A Requested transfer of rights approved

Owner name: NOKIA TECHNOLOGIES OY (FI)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 06/09/2011, OBSERVADAS AS CONDICOES LEGAIS.