BR112015011599B1 - Dispositivo de computação usável, e método - Google Patents

Dispositivo de computação usável, e método Download PDF

Info

Publication number
BR112015011599B1
BR112015011599B1 BR112015011599-3A BR112015011599A BR112015011599B1 BR 112015011599 B1 BR112015011599 B1 BR 112015011599B1 BR 112015011599 A BR112015011599 A BR 112015011599A BR 112015011599 B1 BR112015011599 B1 BR 112015011599B1
Authority
BR
Brazil
Prior art keywords
user
gesture
computing device
movement
sensors
Prior art date
Application number
BR112015011599-3A
Other languages
English (en)
Other versions
BR112015011599A2 (pt
Inventor
Pranav Mistry
Sajid Sadi
Lining Yao
John Snavely
Original Assignee
Samsung Electronics Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co., Ltd filed Critical Samsung Electronics Co., Ltd
Publication of BR112015011599A2 publication Critical patent/BR112015011599A2/pt
Publication of BR112015011599B1 publication Critical patent/BR112015011599B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

DISPOSITIVO DE COMPUTAÇÃO USÁVEL, E MÉTODO. Em uma modalidade, um dispositivo de computação usável inclui um ou mais sensores, um ou mais processadores, e uma memória acoplada aos processadores que inclui instruções executáveis pelos processadores. Ao executar as instruções, os processadores detectam, por intermédio de um ou mais dos sensores do dispositivo de computação usável, quando usado em um membro de um usuário, um evento de ativação de reconhecimento de gesto associado com o dispositivo de computação usável; detectam, por intermédio de um ou mais sensores do dispositivo de computação usável quando usado no membro do usuário, um movimento do membro; determinam um gesto feito pelo usuário com base ao menos em parte no movimento; e processam o gesto como entrada para o dispositivo de computação usável.

Description

CAMPO TÉCNICO
[0001] Esse pedido reivindica o beneficio, em conformidade com 35 USC §119(e), do Pedido de Patente Provisional dos Estados Unidos N° 61/728765, depositado em 20 de novembro de 2012, do Pedido de Patente Provisional dos Estados Unidos N° 61/728770, depositado em 20 de novembro de 2012, Pedido de Patente Provisional dos Estados Unidos N° 61/773803, depositado em 6 de março de 2013, Pedido de Patente Provisional dos Estados Unidos N° 61/728773, depositado em 20 de novembro de 2012, Pedido de Patente Provisional dos Estados Unidos N° 61/773813, depositado em 7 de março de 2013, Pedido de Patente Provisional dos Estados Unidos N° 61/773815, depositado em 7 de março de 2013, Pedido de Patente Provisional dos Estados Unidos N° 61/773817, depositado em 7 de março de 2013, Pedido de Patente Provisional dos Estados Unidos N° 61/775688, depositado em 11 de março de 2013, Pedido de Patente Provisional dos Estados Unidos N° 61/775687, depositado -em 11 de março de 2013, Pedido de Patente Provisional dos Estados Unidos N° 61/775686, depositado em 11 de março de 2013 e Pedido de Patente Provisional dos Estados Unidos N° 14/015.926, depositado em 30 de agosto de 2013, todos os quais são aqui incorporados mediante referência.
[0002] Essa revelação se refere geralmente a um dispositivo eletrônico usável.
FUNDAMENTOS DA TÉCNICA
[0003] Os dispositivos eletrônicos móveis proporcionam a um usuário acesso às capacidades de computação mesmo quando o usuário se desloca em torno de vários locais. Exemplos de dispositivos eletrônicos móveis incluem telefones móveis, aparelhos de reprodução de midia, laptops, tablets, PDAs, ou dispositivos hibridos que incluem funcionalidade de múltiplos dispositivos desse tipo.
[0004] Os dispositivos eletrônicos móveis podem ser parte de uma rede de comunicação tal como uma rede de área local, uma rede de área remota, rede celular, a Internet ou qualquer outra rede adequada. Um dispositivo eletrônico móvel pode usar uma rede de comunicação para se comunicar com outros dispositivos eletrônicos, por exemplo, para acessar os dados remotamente armazenados, acessar energia de processamento remoto, acessar displays remotos, proporcionar dados localmente armazenados, proporcionar energia de processamento local, ou proporcionar acesso aos displays locais. Por exemplo, as redes podem proporcionar percursos de comunicação e links aos servidores, os quais podem hospedar aplicativos, conteúdo e serviços que podem ser acessados ou utilizados pelos usuários por intermédio de dispositivos eletrônicos móveis. O conteúdo pode incluir texto, dados de video, dados de áudio, configurações de usuário ou outros tipos de dados. As redes podem usar qualquer protocolo ou tecnologia de comunicação, adequado para facilitar a comunicação entre os dispositivos eletrônicos móveis, tal como, por exemplo, BLUETOOTH, IEEE WI-FI (802.lla/b/g/n/ac) ou TCP/IP.
REVELAÇÃO DA INVENÇÃO SOLUÇÃO PARA O PROBLEMA
[0005] Em uma modalidade, o dispositivo de computação usável inclui um ou mais sensores, um ou mais processadores e uma memória acoplada aos processadores que inclui instruções executáveis pelos processadores. Ao executar as instruções, os processadores detectam, por intermédio de um ou mais dos sensores do dispositivo de computação usável quando usado em um membro de um usuário, um evento de ativação de reconhecimento de gesto associado com o dispositivo de computação usável; detectam, por intermédio de um ou mais sensores do dispositivo de computação usável quando usado no membro do usuário, um movimento do membro; determinam um gesto feito pelo usuário com base ao menos em parte no movimento; e processam o gesto como entrada para o dispositivo de computação usável.
EFEITOS VANTAJOSOS DA INVENÇÃO
[0006] De acordo com a presente invenção, um método e um dispositivo para entrada de gesto de usuário no dispositivo eletrônico usável envolvendo o movimento do dispositivo são fornecidos.
BREVE DESCRIÇÃO DOS DESENHOS
[0007] A Figura 1 ilustra uma modalidade exemplar de um dispositivo eletrônico usável.
[0008] A Figura 2 ilustra um empilhamento exemplar de um dispositivo.
[0009] As Figuras 3A-3E ilustram fatores de formas exemplares de um dispositivo.
[00010] A Figura 4A ilustra uma seção transversal exemplar de um corpo de dispositivo.
[00011] As Figuras 4B-C ilustram conexões exemplares entre componentes de um dispositivo.
[00012] As Figuras 5A-5F ilustram display exemplares de um dispositivo.
[00013] As Figuras 6A-C ilustram vistas em seção transversal exemplares de um display de dispositivo.
[00014] As Figuras 7A-7D ilustram elementos externos exemplares em relação a um corpo de dispositivo.
[00015] As Figuras 8A-8C ilustram elementos externos exemplares em relação a um corpo de dispositivo.
[00016] A Figura 9 ilustra um anel de vedação exemplar de um dispositivo.
[00017] A Figura 10 ilustra um anel de retenção exemplar de um dispositivo.
[00018] A Figura 11 ilustra várias modalidades exemplares para usar um dispositivo.
[00019] As Figuras 12A-12B ilustram uma braçadeira fixada a um corpo de um dispositivo.
[00020] As Figuras 13A-13I ilustram modalidades exemplares para prender ou afixar uma braçadeira de um dispositivo.
[00021] As Figuras 14A-D ilustram colocações de câmera, exemplares em um dispositivo.
[00022] A Figura 15 ilustra um dispositivo exemplar com uma braçadeira e sensor ótico.
[00023] A Figura 16 ilustra um triângulo de visualização exemplar incluindo um usuário, um dispositivo e um objeto.
[00024] A Figura 17 ilustra um ângulo de visada exemplar para um sensor ótico de um dispositivo.
[00025] As Figuras 18A-18B ilustram sensores óticos exemplares de um dispositivo.
[00026] A Figura 19 ilustra um sistema de detecção de sensor exemplar de um dispositivo.
[00027] As Figuras 20A-20C ilustram carregadores exemplares operáveis com um dispositivo.
[00028] As Figuras 21A-21B ilustram carregadores exemplares operáveis com um dispositivo.
[00029] As Figuras 22A-22B ilustram unidades de carregamento exemplares operáveis com um dispositivo.
[00030] A Figura 23 ilustra um esquema de carregamento exemplar para uma unidade de carregamento operável com um dispositivo.
[00031] A Figura 24 ilustra um esquema de carregamento exemplar para uma unidade de carregamento operável com um dispositivo.
[00032] As Figuras 25A-25E ilustram modalidades exemplares de armazenamento de energia e carregamento em um dispositivo e uma unidade de carregamento.
[00033] A Figura 26 ilustra uma arquitetura de unidade de carregamento exemplar.
[00034] As Figuras 27-92 ilustram gestos exemplares para uso com um dispositivo.
[00035] As Figuras 93A-93B ilustram entradas de usuário exemplares para um dispositivo.
[00036] As Figuras 94A-94C ilustram entradas de usuário exemplares para um dispositivo.
[00037] As Figuras 95A-95D ilustram entrada de toque de usuário exemplar para um dispositivo.
[00038] As Figuras 96A-96B ilustram modelos e interface gráfica de usuário, exemplares de um dispositivo.
[00039] A Figura 97 ilustra um modelo de interface gráfica de usuário exemplar de um dispositivo.
[00040] As Figuras 98A-98G ilustram modelos exemplares de interface gráfica de usuário de um dispositivo.
[00041] A Figura 99 ilustra um modelo de interface gráfica de usuário exemplar de um dispositivo.
[00042] As Figuras 100A-100C ilustram modelos exemplares de interface gráfica de usuário de um dispositivo.
[00043] As Figuras 101A-101B ilustram telas exemplares de uma interface gráfica de usuário de um dispositivo.
[00044] As Figuras 102A-102D ilustram telas exemplares de uma interface gráfica de usuário de um dispositivo.
[00045] As Figuras 103A-103D ilustram telas exemplares de uma interface gráfica de usuário de um dispositivo.
[00046] A Figura 104 ilustra um menu exemplar de uma interface gráfica de usuário de um dispositivo.
[00047] As Figuras 105A-105D ilustram menus exemplares de uma interface gráfica de usuário de um dispositivo.
[00048] As Figuras 106A-106C ilustram menus exemplares de uma interface gráfica de usuário de um dispositivo.
[00049] As Figuras 107A-107C ilustram menus exemplares de uma interface gráfica de usuário de um dispositivo.
[00050] A Figura 108 ilustra um menu exemplar de uma interface gráfica de usuário de um dispositivo.
[00051] As Figuras 109A-109C ilustram menus exemplares de uma interface gráfica de usuário de um dispositivo.
[00052] As Figuras 110A-110B ilustram exemplos de rolamento em uma interface gráfica de usuário de um dispositivo.
[00053] A Figura 111A-111C ilustra exemplos de rolamento em uma interface gráfica de usuário de um dispositivo.
[00054] A Figura 112 ilustra exemplos de conteúdo de sobreposição e de segundo plano em uma interface gráfica de usuário de um dispositivo.
[00055] As Figuras 113A-C ilustram exemplos de conteúdo de sobreposição e de segundo plano em uma interface gráfica de usuário de um dispositivo.
[00056] As Figuras 114A-114B ilustram efeitos de transição visual, exemplares em uma interface gráfica de usuário de um dispositivo.
[00057] As Figuras 115A-115B ilustram efeitos de transição visual, exemplares em uma interface gráfica de usuário de um dispositivo.
[00058] As Figuras 116A-116B ilustram efeitos de transição visual, exemplares em uma interface gráfica de usuário de um dispositivo.
[00059] As Figuras 117A-117B ilustram efeitos de transição visual, exemplares em uma interface gráfica de usuário de um dispositivo.
[00060] As Figuras 118A-118C ilustram efeitos de transição visual, exemplares em uma interface gráfica de usuário de um dispositivo.
[00061] As Figuras 119A-119C ilustram efeitos de transição visual, exemplares em uma interface gráfica de usuário de um dispositivo.
[00062] As Figuras 120A-120C ilustram efeitos de transição visual, exemplares em uma interface gráfica de usuário de um dispositivo.
[00063] As Figuras 121A-121B ilustram efeitos de transição visual, exemplares em uma interface gráfica de usuário de um dispositivo.
[00064] A Figura 122 ilustra um uso exemplar de um modelo fisico em uma interface gráfica de usuário de um dispositivo.
[00065] A Figura 123 ilustra telas exemplares de uma interface
[00066] gráfica de A Figura usuário de um 124 ilustra dispositivo. telas exemplares de uma interface
[00067] gráfica de usuário de um dispositivo. A Figura 125 ilustra um método exemplar para ativação de câmera automática em um dispositivo.
[00068] A Figura 126 ilustra um método exemplar para delegação por um dispositivo.
[00069] A Figura 127 ilustra modelos de delegação, exemplares incluindo um dispositivo.
[00070] A Figura 128 ilustra um método exemplar para delegação por um dispositivo.
[00071] As Figuras 129A-129D ilustram modos exemplares de um dispositivo.
[00072] A Figura 130 ilustra um modo exemplar de um dispositivo.
[00073] As Figuras 131A-131D ilustram modos exemplares de um dispositivo.
[00074] A Figura 132 ilustra um método exemplar para proporcionar funções de realidade aumentadas em um dispositivo.
[00075] A Figura 133 ilustra um ambiente de rede exemplar no qual um dispositivo pode operar.
[00076] A Figura 134 ilustra um exemplo de emparelhamento entre um dispositivo e um dispositivo alvo.
[00077] A Figura 135 ilustra um método exemplar para emparelhamento de um dispositivo com um dispositivo alvo.
[00078] A Figura 136 ilustra telas exemplares de uma interface gráfica de usuário de um dispositivo.
[00079] A Figura 137 ilustra um sistema de computador exemplar compreendendo um dispositivo.
MELHOR MODO PARA REALIZAÇÃO DA INVENÇÃO
[00080] Em uma modalidade, um dispositivo de computação usável inclui um ou mais sensores, um ou mais processadores e uma memória acoplada aos processadores que inclui instruções executáveis pelos processadores. Ao executar as instruções, os processadores detectam, por intermédio de um ou mais dos sensores do dispositivo de computação usável quando usado em um membro de um usuário, um evento de ativação de reconhecimento de gesto associado com o dispositivo de computação usável; detectam, por intermédio de um ou mais sensores do dispositivo de computação usável quando usado no membro do usuário, um movimento do membro; determinam um gesto feito pelo usuário com base ao menos em parte no movimento; e processam o gesto como entrada para o dispositivo de computação usável.
MODO PARA A INVENÇÃO
[00081] A Figura 1 ilustra uma modalidade exemplar de um dispositivo eletrônico usável 100. O dispositivo 100 inclui um corpo 105 que contém todos ou alguns dos circuitos, estrutura, e display de dispositivo 100. Por exemplo, o corpo 105 pode incluir todos ou alguns dos componentes de processamento, componentes de armazenamento de dados, memória, sensores, fiação, ou componentes de comunicação de um dispositivo 100. Em modalidades especificas, o dispositivo 100 pode incluir um display. O display pode assumir qualquer forma ou modelo adequado, tal como, por exemplo, um formato circular, conforme ilustrado pelo display circular 110. Conforme aqui usado, onde apropriado, "display circular" inclui os displays substancialmente circulares ou displays do tipo circular, tal como, por exemplo, displays elípticos. Em modalidades especificas, o dispositivo 100 pode incluir um elemento em torno do display. Como aqui usado, um elemento em torno do display inclui um elemento giratório circundando o display ou o corpo sobre o qual ou no qual está sentado o display. Como um exemplo, um elemento pode ser um anel externo 115 em torno de um display circular 110. Em modalidades especificas, o elemento em torno do display pode se mover em relação ao display ou corpo. Por exemplo, o anel externo 115 pode girar em relação ao corpo do dispositivo 100, conforme descrito mais completamente abaixo. Em modalidades especificas, o dispositivo 100 pode incluir uma braçadeira 120 fixada ao corpo 105. Em modalidades especificas, o dispositivo 100 pode incluir um módulo de sensor, tal como, por exemplo, o módulo de câmera 125 alojando uma câmera, afixada no corpo 105 ou braçadeira 125, conforme descrito mais completamente abaixo.
[00082] Modalidades especificas de um dispositivo eletrônico usável incluem empilhamento que permite que alguns ou todos do sistema de processamento e exibição se encaixem dentro do corpo do dispositivo, o qual pode ser envolvido por um elemento, tal como um anel externo, que fornece pelo menos uma força para o usuário interagir com o dispositivo. Adicionalmente, ou alternativamente, modalidades especificas podem incluir os componentes externos incorporados na braçadeira para funcionalidade adicional, conforme descrito aqui mais completamente. A Figura 2 ilustra um empilhamento exemplar 200 de um dispositivo eletrônico usável. Conforme ilustrado na Figura 2, algum ou todos os componentes do empilhamento 200 podem adotar a forma do dispositivo, que é circular no exemplo da Figura 2. O empilhamento 200 pode incluir uma camada de vidro de proteção (ou outro material transparente, sólido adequado) 205. Outros componentes podem ser laminados no vidro de proteção 205, ou podem ser fixados à base 245. Adicionalmente ou alternativamente, a camada de proteção 205 pode ser conectada mecanicamente ao anel externo 235, ou qualquer outro componente adequado do corpo do dispositivo. Diretamente sob o vidro de proteção 205 pode estar uma camada sensível ao toque 210. A camada sensível ao toque 210 pode ser composta de qualquer material adequado e ser de qualquer tipo adequado, tal como, por exemplo, resistivo, onde acústica de superfície, capacitivo (incluindo capacitivo mútuo ou auto- capacitivo), infravermelho, ótico, dispersivo ou qualquer outro tipo adequado. A camada sensível ao toque 210 pode ser aplicada diretamente ao vidro de proteção 205, laminada no mesmo, ou fisicamente afixada a ele. A camada sensível ao toque 210 pode ser uma superfície de toque completamente bidimensional, ou pode ser composta de regiões sensíveis ao toque, tal como um número de botões ou áreas capacitivas. A camada sensível ao toque 210 pode ser conectada à placa de processar 215 por intermédio de um conector flexível na borda da superfície de toque, conforme descrito mais completamente aqui.
[00083] Abaixo da camada sensível ao toque 210 pode estar um display circular 215, o qual pode ser laminado ou mecanicamente afixado a qualquer uma das camadas precedentes ou anteriores. Em modalidades específicas, a laminação pode reduzir o brilho e aperfeiçoar a legibilidade do display mediante a redução de reflexões internas. Conforme descrito mais completamente abaixo, o display 215 pode ter uma área inativa externa que pode ser simétrica ou assimétrica. O display 215 pode ser posicionado de tal modo que ele é axialmente centrado em relação à camada de proteção 205 para uma apresentação visualmente simétrica. O display 215 pode ser de qualquer tipo adequado, tal como, por exemplo, díodo de emissão de luz (LED), diodo de emissão de luz orgânica (OLED), ou display de cristal líquido (LCD). Em modalidades específicas, o display 215 pode ser flexível. Em modalidades específicas, o display 215 pode ser parcialmente transparente. Em modalidades específicas, o display 215 pode ser translúcido.
[00084] Abaixo do display 215 pode estar a bateria 220, a qual em modalidades especificas pode ser selecionada de modo que a base 245 pode ser reduzida em diâmetro sem afetar o tamanho da bateria. A bateria 220 pode ser de qualquer tipo adequado, tal como, por exemplo, à base de litio-ion. A bateria 220 pode adotar o formato circular do dispositivo, ou pode adotar qualquer outro formato adequado, tal como uma forma retangular, conforme ilustrado. Em modalidades especificas, a bateria 220 pode "flutuar" no dispositivo, por exemplo, pode ter espaço acima, abaixo ou em torno da bateria para acomodar a expansão térmica. Em modalidades especificas, o componente de altura elevada tal como, por exemplo, acionadores táteis ou outros meios eletrônicos podem ser posicionados no espaço adicional além da borda da bateria para embalagem ótima dos componentes. Em modalidades especificas, conectores a partir da placa de processador 225 podem ser colocados nesse espaço para reduzir a altura global do dispositivo.
[00085] Abaixo da bateria 220 pode estar a placa de processador 225. A placa de processador 225 pode incluir quaisquer componentes adequados de processamento, tal como, por exemplo, uma ou mais unidades de processamento, unidades de acionamento, unidades de detecção, caches, elementos de memória ou circuitos integrados. A placa de processador 225 pode incluir um ou mais sensores de calor ou unidades de resfriamento (tal como, por exemplo, ventoinhas) para monitorar e controlar a temperatura de um ou mais componentes de placa de processador. Em modalidades especificas, o corpo 105 do dispositivo pode ele próprio atuar como o dissipador de calor.
[00086] Abaixo da placa de processador pode estar um codificador 230, envolto por um ou mais anéis externos 235. Conforme descrito mais completamente abaixo, o codificador 230 pode ser de qualquer tipo adequado, e pode ser parte do anel externo 235 ou pode ser um componente separado, conforme ilustrado na Figura 2. Em modalidades especificas, o anel externo 235 pode proporcionar a sensação tátil do detentor do anel externo ou detecção de posição do anel externo 235. Quando o codificador 230 é um codificador mecânico separado do corpo de dispositivo, conforme ilustrado na Figura 2, o codificador pode suportar o anel externo 235. Por exemplo, em modalidades especificas, o codificador 230 é montado na base 245, e as conexões com a base 245 ou com a braçadeira 240 podem passar através de alguma porção do codificador, tal como, por exemplo, o centro do codificador. Em modalidades especificas, a placa de processador 225 e uma ou mais camadas acima podem ser fixadas a um pilar central que passa através do codificador 235. O pilar pode transferir forças mecânicas nos componentes do dispositivo para o pilar, o qual pode permitir que componentes, tal como a placa de processador e o display sejam sustentados pelo pilar mais propriamente do que pelo codificador, reduzindo a tensão sobre o codificador. Em modalidades especificas, o anel externo 235 é fixado à porção móvel do codificador por intermédio de pinos ou outras conexões adequadas.
[00087] O corpo de dispositivo pode concluir com uma base 245. A base 245 pode ser estacionária em relação a um ou mais componentes giratórios do dispositivo, tal como o anel externo 235. Em modalidades especificas, a base 245 se conecta à braçadeira 240, descrita mais completamente aqui. As conexões podem ser mecânicas ou elétricas, tal como, por exemplo, parte dos circuitos ligando os componentes de comunicação cabeados na braçadeira 240 à placa de processamento 225. Em modalidades especificas, os conectores são posicionados para evitar o codificador e os pontos de fixação para as braçadeiras. Em modalidades especificas, a braçadeira 240 pode ser destacável da base 245. Conforme descrito mais completamente aqui, a braçadeira 240 pode inclui um ou mais conectores internos 250, um ou mais módulos de detecção ótica 255, um ou mais de outros sensores. Em modalidades especificas, o interior do dispositivo, ou porções daquele interior, pode ser vedado a partir do ambiente externo.
[00088] Embora essa revelação descreva exemplos especificos de componentes no empilhamento 200 do dispositivo eletrônico usável 100 e do formato, tamanho, ordem, conexões e funcionalidade desses componentes, essa revelação considera que um dispositivo usável, tal como o dispositivo 100, pode incluir quaisquer componentes adequados de qualquer formato, tamanho e ordem, adequados conectados ou se comunicando em qualquer forma adequada. Apenas como um exemplo, a bateria 220 pode ser colocada mais em direção à parte inferior do empilhamento do que é ilustrado na Figura 2. Como outro exemplo, o corpo do dispositivo pode assumir qualquer fator de forma, adequado, tal como elipsóide ou semelhante a disco, conforme ilustrado pelo exemplo da Figura 3A, afilado em uma extremidade como ilustrado pelo exemplo da Figura 3B, ou chanfrado ou arredondado em uma ou mais bordas, conforme ilustrado pelo exemplo das Figuras 3C- 3D ilustrando a borda chanfrada 315. A Figura 3E ilustra fatores de forma, exemplares, adicionais do corpo de dispositivo, tal como, por exemplo, os corpos 320A-E que têm um formato poligonal com uma cobertura de proteção plana ou display ou uma cobertura ou display de proteção curva. Como outro exemplo, os corpos 325A-D têm um formato parcialmente curvo com uma cobertura ou display de proteção, plana ou uma cobertura ou display de proteção curva. Os corpos 330A-C têm um formato curvo. Um ou mais componentes internos do corpo de dispositivo, tal como, por exemplo, um ou mais componentes internos, podem assumir qualquer fator de forma adequado para o corpo no qual eles estão assentados.
[00089] A Figura 4A ilustra uma seção transversal exemplar de um corpo de dispositivo. Conforme ilustrado, o corpo de dispositivo tem uma largura de Dl, tal como, por exemplo, aproximadamente 43 milímetros. Modalidades especificas podem incluir uma ligeira folga D4 entre o anel externo e o display OLED, tal como, por exemplo, uma folga de até 0,3 milímetros. Similarmente, pode também haver uma distância entre o anel externo e a cobertura de proteção de vidro (que pode ter uma largura D3, tal como, por exemplo, aproximadamente 42,6 milímetros), tal como, por exemplo, 0,2 milímetros. Em modalidades especificas, a folga entre a cobertura de proteção de vidro e o anel externo é maior do que a folga entre o display e o anel externo. O anel externo (o qual pode incluir uma serrilha) pode ter uma largura D2 de, por exemplo, 1,0 milímetros. As Figuras 4B-4C ilustram conjuntos exemplos de conexões entre os componentes do dispositivo. A Figura 4B ilustra um vidro de toque 405 acima de um display 410. O display é fixado ao topo do corpo interno 440 com, por exemplo, selante adesivo 425. 0 circuito impresso flexivel de display 430 acopla o display aos meios eletrônicos dentro do corpo de dispositivo. Membrana de vedação adesiva 445 pode ser usada para conectar a braçadeira 450 ao dispositivo, e um ou mais anéis de retenção 435 podem ser usados para conectar o anel externo 415 ao corpo interno 440. Em modalidades especificas, os anéis de retenção podem inibir a torção do anel externo em seu eixo vertical e proporcionar espaçamento fisico entre o anel externo e a cobertura de vidro. Uma camada de vidro de proteção pode ser assentada no topo do corpo interno, proporcionando uma vedação ambiental. Em modalidades especificas, um anel de retenção também pode proporcionar uma vedação ambiental para o corpo interno. Por exemplo, a Figura 5 ilustra um anel de retenção exemplar 4 65 fixando um anel externo ao corpo de dispositivo e proporciona uma vedação ambiental entre o anel externo e o corpo interno. Adicionalmente ou alternativamente, material do tipo floco, possivelmente revestido com substância hidrofóbica tal como, por exemplo, TEFLON pode ser usado para impedir a penetração de água e sujeira na cavidade. Como outro exemplo, o anel externo pode ser vedado ao corpo interno com um anel de metal ou plástico, impedindo que o ar (e assim vapor de água ou outras particulas) se desloque através da cavidade entre o anel externo e o corpo interno. A folga 455 permite que o anel externo se mova, tal como, por exemplo, mediante rotação, em relação ao corpo de dispositivo interno. Um vedante de adesivo 460 fixa o display ao corpo e proporciona uma vedação ambiental entre o display e os componentes do corpo interno.
[00090] Em modalidades especificas, o display do dispositivo tem uma forma circular ou eliptica e aloja uma unidade de exibição circular, tal como, por exemplo, um display LCD, e um display OLED. A unidade de display pode ser montada de tal modo que a área visivel esteja localizada centralmente dentro do módulo de display. Se a unidade de display tem um modelo deslocado, uma ou mais máscaras podem ser usadas para obscurecer parte do display para produzir um contorno visual circular e corretamente colocado.
[00091] Em modalidades especificas, um módulo de display tem um anel externo que é parte da interface de usuário do dispositivo. O anel externo pode girar enquanto a braçadeira segura de forma estável o fundo e a parte interna do dispositivo. A Figura 5A ilustra um exemplo de uma vista superior do display do dispositivo em relação a outros componentes do dispositivo. O anel externo 510 pode ser fixado na superfície frontal 512 do dispositivo 508, ou pode ser independente da superfície frontal 512. Em modalidades especificas, o display 506 não gira independente da rotação do anel externo 510 envolvendo o display 506. Isso pode ser obtido mediante fixação do display 506 na porção 504 do módulo de display que é afixado à braçadeira 02, ou mediante programação de conteúdo exibido para permanecer estático enquanto a unidade de display gira. No caso mencionado por último, o conteúdo exibido é girado de tal modo que o eixo vertical visual da imagem exibida pela unidade de display permanece paralelo à braçadeira durante todo o tempo.
[00092] Um módulo de display pode adicionalmente incorporar um ou mais sensores na ou próximo da mesma superfície que o display. Por exemplo, o módulo de display pode incluir uma câmera ou outro sensor ótico, microfone, ou antena. Um ou mais sensores podem ser colocados em uma área inativa do display. Por exemplo, a Figura 5B ilustra o dispositivo 522 com um módulo de câmera 516 colocado coplanar com a bateria abaixo do display 520, com abertura ótica 514 posicionada sob a seção clara do display 520. 0 módulo de câmera 516 pode ser colocado entre conectores de linha de grade 518 para o display 520. Qualquer câmera ou outros sensores adequados podem ser colocados coplanares com o display, tal como a antena 524 da Figura 5C, que é colocada na área inativa 526. Adicionalmente ou alternativamente, sensores podem ser colocados abaixo ou acima do display, podem ser colocados em qualquer local adequado no ou sobre o corpo externo do dispositivo, podem ser colocados em qualquer local adequado no ou sobre a braçadeira de um dispositivo, ou qualquer combinação adequada dos mesmos, conforme descrito aqui mais completamente. Por exemplo, uma câmera voltada para frente pode ser colocada sob o display, sobre o display ou acima do display.
[00093] Nas modalidades especificas, a embalagem do display circular inclui uma área inativa, conforme ilustrado na Figura 5D. Em um display tradicional, linhas de acionamento de fileira energizando o display são encaminhadas para a borda lateral mais próxima, são então encaminhadas para baixo ao longo das áreas inativas, ou conectadas diretamente aos chips integrados de acionador ao longo daquela borda. Algumas abordagens podem ser realizadas para reduzir a quantidade de área inativa para o display. Por exemplo, modalidades especificas reduzem o tamanho da área inativa mediante a ação de re-encaminhar as linhas de controle de grade energizando o display para uma borda do display. A Figura 5D ilustra as linhas de controle de grade 532 encaminhadas para uma borda do display 536 e conectadas a um conector 538 guiando as linhas para o centro de processamento do dispositivo 528. Nessa configuração, a área inativa 530 pode ser minimizada.
[00094] A Figura 5E ilustra outras modalidades exemplares para reduzir a área inativa de um display 554 do dispositivo 540 mediante a criação de um contorno de display do tipo poligonal, com uma área circular mascarada no centro por uma ou mais máscaras 550. Conectores 552 são arranjados em um modelo poligonal. Fileiras 546 e colunas 542 das linhas de grade são guiadas para o conector mais próximo 552. Em modalidades especificas, os conectores 552 se conectam a um circuito flexivel atrás do display que carrega o chip de acionador. Devido à densidade reduzida da conexão, os meios eletrônicos da Figura 5E podem ser mais fáceis de se conectar a uma placa de circuitos impressos, flexivel (placa FPC) e assim aumenta o rendimento. Além disso, mediante deslocamento do circuito integrado de acionador para a parte posterior do display, uma ou mais áreas inativas 548 podem ser reduzidas ainda mais enquanto permitindo que o circuito integrado permaneça em uma superfície estável e plana. Esse modelo é particularmente adequado para os displays OLED, mas pode ser usado com LCDs, uma vez que uma unidade de iluminação por trás (BLU) pode ser laminada no dispositivo antes de a placa FPC ser conectada. Embora o exemplo acima ilustre um arranjo poligonal de conectores, qualquer arranjo adequado de conectores pode ser usado desde que todos os pixels sejam alcançados pelas linhas de grade.
[00095] A Figura 5F ilustra um arranjo fisico exemplar e dimensionamento de um display de um dispositivo. O dispositivo tem um diâmetro de D4, tal como, por exemplo, aproximadamente 41,1 milímetros. O dispositivo inclui uma ou mais áreas inativas que tem uma largura D3, tal como, por exemplo, aproximadamente 1,55 milímetros. O dispositivo inclui uma área visivel com um diâmetro D2, tal como, por exemplo, aproximadamente 38 milímetros. O dispositivo inclui conectores 568 para linhas de coluna 564 e linhas de fileira 566. Os conectores 568 podem ser acoplados ao dispositivo por intermédio de uma ou mais ligações FPC 570, as quais têm uma largura de Dl, tal como, por exemplo, de aproximadamente 0,2 milímetros. Os conectores 568 podem ter uma largura D5, tal como, por exemplo, de aproximadamente 6 milímetros. O conector de display FPC 556 pode ser usado para conexão aos meios eletrônicos do display, tal como, por exemplo, circuitos a partir dos conectores 568, ao chip de acionador 558, o qual pode estar abaixo do display ou na parte posterior do corpo de dispositivo.
[00096] As Figuras 6A-C ilustram vistas exemplares em seção transversal de um display de dispositivo, incluindo a fabricação do dispositivo. Na Figura 6A, lâmina de barra quente 605 é usada para soldar o circuito(s) impresso flexível 610 acoplando os meios eletrônicos do display aos meios eletrônicos de processamento do dispositivo. Um suporte 615 pode ser usado para estabilizar o FPC 610 durante esse processo. A Figura 6B ilustra o FPC conectado 620, o qual foi dobrado (porção 625) e colado na parte posterior do display utilizando adesivo 630. A Figura 6C ilustra um display acabado exemplar. FPC 645 foi laminado na parte posterior do vidro de display de proteção 635, e é dobrado sobre a frente do vidro 635 e é fixado à frente do vidro 635 por intermédio de micro ligação 649. Adesivo 650 conecta o FPC 645 ao dispositivo. 0 FPC passa sobre o chip de acionador 655, o qual é conectado ao dispositivo mediante adesivo 650.
[00097] Em modalidades especificas, todos os componentes de RF e processamentos estão localizados dentro do corpo do dispositivo, o que pode criar um desafio em permitir que os sinais de RF passem para fora do dispositivo. A placa FPC pode ser adicionalmente fixada aos lados do polígono onde não há conexão ao próprio display para permitir a montagem da linha de tira, pontas, cerâmica, ou outras antenas (ou outros sensores adequados) no mesmo plano que o display, conforme ilustrado na Figura 5C. Como a antena da Figura 5C é coplanar com o display, interferência a partir da malha densa de fiação (por exemplo, conforme ilustrado na Figura 5E) a partir do display é reduzida.
[00098] Em modalidades específicas, um display pode ser protegido contra interferência eletromagnética com a placa de processador principal utilizando uma blindagem de metal. Em modalidades específicas, a blindagem de metal pode ser usada como um dissipador de calor para a bateria, e assim pode aperfeiçoar as taxas de carga ou descarga para a bateria.
[00099] Em modalidades específicas, um dispositivo eletrônico usável pode incluir um ou mais elementos externos (os quais podem ser de qualquer formato adequado) em torno do corpo de dispositivo. A Figura 7A ilustra um elemento externo por intermédio de um anel externo exemplar 710 em torno do display 705. O anel externo pode ser composto de qualquer material adequado, tal como, por exemplo, aço inoxidável ou alumínio. Em modalidades específicas, o anel externo 710 pode ser giratório em uma direção, em ambas as direções, ou pode ser usado em ambas as configurações com base, por exemplo, em um comutador. Em modalidades específicas, um anel externo 710 pode girar em uma direção enquanto um segundo anel externo 710 gira na direção oposta. 0 anel 710 pode ser acoplado à base 720 do dispositivo por intermédio de um anel de retenção 715. A Figura 7B ilustra o anel externo 710 fixando à base 720 por intermédio de um anel Delrin 715A ou por intermédio de um anel de retenção de aço de mola 715B. Molas ou clipes 725 prendem os anéis à base 720. As Figuras 7C-D ilustram o anel de retenção 715 fixado à base 720 por intermédio de parafusos 725 aparafusados em pilares correspondentes da base 720. O dispositivo pode incluir prendedores/espaçadores 730, conforme ilustrado na Figura 7C.
[000100] Em modalidades especificas, detentores ou codificadores (os quais podem ser usados de forma permutável, onde adequado) de um elemento externo podem proporcionar ao usuário realimentação tátil (por exemplo, um clique tátil) provido, por exemplo, por um detentor que permite que o usuário determine quando o elemento tiver se deslocado em uma "etapa" ou "incremento", que pode ser usado de forma permutável nesse lugar. Esse clique pode ser produzido diretamente por intermédio de uma articulação mecânica (por exemplo, um mecanismo de mola) ou pode ser produzido eletronicamente por intermédio de um acionador tátil (por exemplo, um motor ou piezo acionador). Por exemplo, um motor pode prover resistência ao movimento de um anel, tal como, por exemplo, sendo colocado em curto para proporcionar resistência e retirado de curto para prover menos resistência, simulando o torque relativamente alto e baixo provido por um sistema de detentor mecânico. Como outro exemplo, sistemas magnéticos podem ser usados para prover a sensação tátil de um detentor. Por exemplo, um mecanismo de solenoide pode ser usado para desengatar a mola de detentor ou escapo conforme necessário. A mola ou escapo proporciona o retorno mecânico real. Contudo, esse arranjo permite que o dispositivo pule alguns dos detentores quando necessário, enquanto tornando a engatar o detentor em intervalos exatos para criar a sensação de detentores, tal como aqueles que mudaram de tamanho. Como outro exemplo, um elemento externo giratório (tal como, por exemplo, o anel externo) pode ser magnetizado, tal como mediante um elemento eletromagnético usado para atrair o anel em posições de "detenção", aumentando o torque e simulando retorno de detenção. Como outro exemplo, um elemento externo giratório pode ter polos norte-sul alternados, que repelem e atraem os polos magnéticos correspondentes no corpo de dispositivo. Como outro exemplo, um imã permanente pode ser usado para travar o anel no lugar quando o eletroimã não estiver em uso, impedindo rolamento livre. Como outro exemplo, em vez de um eletroimã, uma liga ferromagnética facilmente magnetizável pode ser usada dentro do solenoide. Isso permite que o campo eletromagnético do solenoide "reprograme" a orientação magnética do núcleo, mantendo assim o efeito do acionamento magnético mesmo quando o próprio solenoide estiver desengatado. Embora essa revelação proporcione eventos específicos de detentores, sistemas semelhantes a detentor, e codificadores, essa revelação considera quaisquer detentores, sistemas semelhantes a detentores, ou codificadores.
[000101] A Figura 8A ilustra um anel externo 805 com entalhes para um sistema de detentor baseado em mola gravado na superfície externa do anel externo 805. Molas 820 fixadas aos pilares de mola 810. O anel de retenção 815 pode ser feito de Delrin, aço, ou qualquer outro material adequado, e pode ser segmentado ou sólido/continuo. A Figura 8B ilustra um anel externo exemplar que tem pequenos entalhes 830 que engatam um elemento acionador por mola para proporcionar retorno tátil a partir do detentor ilustrado. No caso de um sistema de retorno eletrônico, o retorno pode ser produzido em sincronia rápida com o movimento do anel, e deve ter uma taxa de ataque e decaimento suficiente de tal modo que movimentos sucessivos do anel possam ser distinguidos uns dos outros. Em modalidades especificas, um anel externo pode ser giratório de forma livre (por exemplo, continuamente), sem qualquer clique ou escalonamento. Em modalidades especificas, o anel pode ser capaz de girar continuamente e também de girar em etapas/incrementos, com base, por exemplo, em entrada a partir de um usuário indicando em qual modo rotacional deve estar o anel externo. 0 anel também pode, ou alternativamente pode girar livremente em uma direção e em incrementos na outra direção. Funcionalidade diferente pode ocorrer com base no modo rotacional usado. Por exemplo, o giro no modo continuo pode mudar um parâmetro continuo, tal como, por exemplo, volume ou zooming, enquanto que a rotação no modo incrementai pode mudar um parâmetro discreto, tal como, por exemplo, itens de menu ou contatos em uma lista, conforme descrito aqui mais completamente. Em modalidades especificas, ao girar livremente o anel pode proporcionar retorno tátil para o usuário, por exemplo, uma força aplicada de tal modo que o anel parece girar em meio viscoso (por exemplo, quanto mais rapidamente gira o anel mais ele resiste à rotação). Em modalidades especificas, um anel externo pode ser calcado ou erguido na direção do eixo em que o anel externo gira, tal como, por exemplo, como parte de um gesto ou para mudar os modos de rotação. Em modalidades específicas, um anel externo pode ter porções sensíveis ao toque.
[000102] Em modalidades específicas, um codificador ou detentor pode ser usado para determinar a posição do anel externo em relação ao corpo de dispositivo. Modalidades especificas utilizam um codificador que é fixado ao corpo de dispositivo, conforme ilustrado pelo codificador 230 da Figura 2. Em modalidades especificas, o codificador é parte da superfície interna do próprio anel externo, conforme ilustrado pelos elementos óticos, impressos 825 na Figura 8B. Nessas modalidades, o anel externo atua diretamente como a parte giratória do codificador. Um padrão de codificador ótico é impresso na superfície interna, e é lido por um módulo ótico na placa de processamento. O codificador no interior do anel externo deve ter contraste ótico suficiente para detectores, e pode ser gravado no anel externo por intermédio, por exemplo, de impressão ou gravação a laser. Os anéis internos e externos podem ser vedados em relação ao meio ambiente com um anel de baixa fricção (tal como, por exemplo, o anel 840 da Figura 8C) feito de um material tal como Teflon ou Delrin que mantém um ajuste apertado enquanto impede que contaminantes entrem na parte interna do dispositivo. Em modalidades especificas, uma virola no anel interno pode engatar uma virola similar no anel externo, permitindo que os dois anéis sejam unidos enquanto permitindo ainda rotação livre. Uma virola maior na parte inferior do anel interno proporciona vedação adicional mediante deflexão de riscos ambientais a partir de baixo. Como ilustrado na Figura 9, em modalidades especificas, o anel de vedação 915 pode encaixar na ranhura 905 da base, que pode incluir uma área de agarrar 910.
[000103] Em modalidades especificas, um anel de retenção conectando o anel externo ao corpo do dispositivo pode ter medidores de tensão para detectar a pressão sobre o anel externo. Como um exemplo, a Figura 10 ilustra um anel de retenção conectado a quatro medidores de tensão (os quais também são conectados ao corpo interno) que são colocados simetricamente em torno do anel. Como aqui usado, os quatro medidores de tensão podem ser um componente eletrônico que detecta a tensão. Como um resultado da colocação simétrica, movimento normal ou contato com o anel externo colocará tensão na maior parte assimétrica sobre ao anel externo, porque o anel simplesmente se desloca em relação ao dispositivo no plano do anel e, assim, uma extremidade comprime e a extremidade oposta alonga, como ilustrado pelo anel superior da Figura 10. Em comparação, apertar uma porção maior do anel externo provavelmente produzirá uma tensão simétrica em pares opostos de medidores de tensão (por exemplo, devido ao alongamento do anel sob pressão). A diferença relativa em tensão entre os dois pares de medidores de tensão diferencia assim o aperto intencional do anel externo a partir do movimento regular do anel externo ou contato com o anel externo. Embora essa revelação descreva exemplos especificos do número e colocação de medidores de tensão no anel de retenção, essa revelação considera a colocação de qualquer número adequado de medidores de tensão em qualquer componente adequado do dispositivo para detectar a pressão sobre o componente. Como um exemplo, medidores de tensão podem ser colocados na braçadeira do dispositivo ou no anel externo.
[000104] Quando tensão é imposta a um componente que contém medidores de tensão ou qualquer outro sistema de detecção de tensão ou pressão, adequado, a tensão detectada pode resultar em qualquer funcionalidade adequada. Por exemplo, quando tensão é colocada sobre o anel externo, tal como, por exemplo, mediante um usuário apertando o anel externo, o retorno pode ser provido ao usuário. Esse retorno pode assumir qualquer forma adequada, tal como retorno tátil (por exemplo, vibração, agitação ou aquecimento/resfriamento), retorno audivel tal como um bipe ou reproduzindo um tom definido por usuário, especifico, retorno visual (por exemplo, através do display do dispositivo) , ou qualquer outro retorno adequado ou combinação dos mesmos. A funcionalidade associada com a ação de apertar um anel é descrita aqui mais completamente, e essa revelação considera qualquer funcionalidade adequada resultante da tensão ou pressão imposta aos componentes adequados e detectadas por quaisquer componentes adequados.
[000105] Um dispositivo eletrônico usável pode ser fixado a uma braçadeira para prender o dispositivo ao usuário. Aqui, referência a uma "braçadeira" pode abranger qualquer equipamento adequado para prender um dispositivo ao usuário, tal como, por exemplo, uma braçadeira tradicional 1405 que pode ser usada em torno do braço, pulso, cintura ou perna do usuário, como ilustrado por intermédio de exemplo na Figura 14A; um clipe 1415 para prender uma peça de vestuário, conforme ilustrado por intermédio de exemplo na Figura 14B, uma configuração de colar ou bracelete 1420, conforme ilustrado por intermédio de exemplo na Figura 14C, um chaveiro 1425 ou outra configuração de acessório para prender o dispositivo, por exemplo, no bolso do usuário, conforme ilustrado por intermédio de exemplo na Figura 14D; ou qualquer outra configuração adequada. Cada uma dessas modalidades pode incluir uma câmera 1410 localizada no dispositivo, na braçadeira ou no corpo. A Figura 11 ilustra várias modalidades para uso do dispositivo, tal como, por exemplo, em torno do pescoço como ilustrado em 1105; preso à peça de vestuário (tal como, por exemplo, no tórax como ilustrado por 1110) , ou em um cinto como ilustrado em 115; em um acessório (tal como, por exemplo, um braço como ilustrado em 1120); no pulso como ilustrado em 1125 ou em um bolso como ilustrado em 1130. Embora essa revelação descreva exemplos especificos, de braçadeiras e formas de afixar os dispositivos a um usuário, essa revelação considera quaisquer braçadeiras adequadas ou formas de prender um dispositivo em um usuário.
[000106] Em modalidades especificas, sensores e meios eletrônicos correspondentes podem ser fixados a uma braçadeira, onde apropriado. Por exemplo, as braçadeiras das Figuras 14A- 14C podem ser adequadas para alojar um sensor ótico. Todas as modalidades especificas ilustradas podem ser adequadas para incluir uma área sensivel ao toque. Essa revelação considera quaisquer braçadeiras adequadas incluindo quaisquer sensores ou meios eletrônicos adequados, tal como, por exemplo, componentes de comunicação (tais como antenas), sensores ambientais ou sensores inerciais. Em modalidades especificas, a braçadeira pode ser desprendida do dispositivo, e pode se comunicar remotamente com o dispositivo quando não estiver presa ao dispositivo. Em modalidades especificas, fiação associada aos componentes elétricos na braçadeira também pode ser alojada na braçadeira, por exemplo, para minimizar o volume do dispositivo ou para minimizar interferência eletromagnética com os componentes internos do dispositivo. Por exemplo, os dispositivos que podem causar elevados níveis de EMI interno (por exemplo, câmera ou sistemas de comunicação), que podem exigir volume adicional (por exemplo, bateria ou altofalante), que podem exigir vedação ambiental do corpo principal (por exemplo, conector de dados/energia), ou que podem exigir contato adicional com a pele do usuário (por exemplo, sensores I biométricos) podem se beneficiar mediante alojamento de pelo menos alguns dos meios eletrônicos em uma braçadeira do dispositivo. Em modalidades especificas, quando a fiação é contida em uma braçadeira, um módulo de exibição pode ser fixado na braçadeira de tal modo que conexões eletrônicas feitas na braçadeira ou por intermédio da braçadeira não são torcidas quando o anel externo é girado. 0 módulo pode usar um conector que é removivel pelo usuário, de tal modo que o módulo de exibição ou corpo de dispositivo pode ser removido e fixado de acordo com a vontade do usuário. Como uma fixação exemplar de uma braçadeira a um dispositivo, uma braçadeira 1215 como ilustrado na Figura 12A pode ser presa ao corpo pelo fato de ser colocada sobre um ou mais pilares 1205 e então presas a esses pilares utilizando prendedores (por exemplo, parafusos) 1210. Em modalidades especificas, além dos prendedores e pilares uma chapa de retenção 1215 pode ser usada para prender a braçadeira ao dispositivo 1225, conforme ilustrado na Figura 12B. Essa revelação considera qualquer interface adequada entre a braçadeira e o dispositivo. Por exemplo, uma interface USB pode ser provida entre a braçadeira e o corpo do dispositivo, para, por exemplo, comunicar os dados entre o dispositivo e a braçadeira ou componentes do dispositivo, e componentes da braçadeira. Em modalidades especificas, uma interface pode possibilitar que um usuário do dispositivo facilmente desprenda, fixe, ou mude a braçadeira do dispositivo.
[000107] Essa revelação considera qualquer estrutura adequada para conectar uma braçadeira como ilustrado na Figura 14A a ela própria, por exemplo, quando usada por um usuário. Por exemplo, a Figura 13A ilustra estruturas exemplares para fixação da braçadeira 1305 tendo um módulo de câmera 1310 a um usuário do dispositivo 1300. Os prendedores podem incluir um ou mais fechos 1315, furos 1320 e 1335 e componentes correspondentes, colchetes 1314, ou clipes 1325 com botões de apertar 1330. A Figura 13B ilustra um mecanismo exemplar para afixar a braçadeira 1301 a um usuário utilizando clipes 1311 e 1303. Componentes 1309 são inseridos na cavidade no outro lado dos componentes 1307 para prender a braçadeira 1301. A Figura 13B ilustra ainda mecanismos internos exemplares para clipes 1303 e 1311. 0 componente 1317 do clipe 1313 (correspondendo ao clipe 1311) pode incluir uma ou mais porções magnéticas, as quais podem ser atraidas para os imãs na cavidade 1323. Por exemplo, o componente 1317 pode incluir uma porção magnética em sua borda externa, e um imã de polaridade oposta pode ser colocado na frente da mola 1319 para atrair o imã do componente 1317. Componentes 1317 podem então encher a cavidade 1323, fixando o clipe 1313 ao clipe 1303 mediante acoplamento dos imãs. Quando inseridos, os componentes 1321 podem ser usados para engatar as molas 1319, as quais forçam os componentes 1317 para fora da cavidade 1323. O clipe 1313 pode ser desprendido do clipe 1303. Além dos imãs nos componentes 1317 e na cavidade 1323, os imãs também podem ser colocados dentro do clipe 1313, por exemplo, para auxiliar a remoção do clipe 1313 quando as molas 1319 são engatadas ou para impedir que os componentes 1317 deslizem para dentro e para fora do clipe 1313 quando não fixados ao clipe 1303. Por exemplo, um ou mais imãs podem ser colocados no centro do clipe 1313 equidistantes dos componentes 1317 e no mesmo plano que os componentes 1317, atraindo os imãs de cada componente (e, assim, os próprios componentes) em direção ao centro do clipe 1313.
[000108] A Figura 13C ilustra estrutura exemplar para afixar uma braçadeira 1327 utilizando prendedores 1333 e 1331, por exemplo, através do uso da cavidade 1329 e componentes 1337 e 1341. A Figura 3C ilustra a estrutura interna dos prendedores 1331 e 1333. Os prendedores 1339 (correspondendo ao prendedor 1333) incluem os componentes 1337. Quando o prendedor 1343 (correspondendo ao prendedor 1331) é inserido nos prendedores 1339, os componentes 1341 são afixados aos componentes 1337, e podem ser presos mediante extensão sobre uma virola do prendedor 1339. Quando o prendedor 1339 é puxado para cima a virola força cada vez mais os componentes 1337 para fora, movendo os componentes 1341 além da virola do prendedor 1339 e possibilitando que o prendedor 1339 seja removido a partir do prendedor 1343. Em modalidades especificas, os imãs podem ser colocados dentro dos prendedores 1333 ou sobre os prendedores 1333 e 1331 para fixar os mesmos conjuntamente. Por exemplo, um imã pode ser colocado na borda de cada um dos componentes 1341 e 1337. Quando o prendedor 1343 é trazido para dentro do prendedor 1337 (ou vice-versa) os imãs atraem e fixam o componente 1341 ao componente 1337. Além disso, um imã pode ser colocado no prendedor 1343, por exemplo, para auxiliar a remoção do componente 1341 a partir do componente 1337 ou para impedir que os componentes 1341 deslizem para dentro e para fora do prendedor 1343 quando não afixado ao prendedor 1339. Por exemplo, um ou mais imãs podem ser colocados no centro do prendedor 1343 equidistantes a partir dos componentes 1341 e no mesmo plano que os componentes 1341, atraindo os imãs na extremidade de cada componente (e, assim, os próprios componentes) em direção ao centro do prendedor 1343.
[000109] A Figura 3D ilustra um arranjo alternativo para fixação da braçadeira 1351 utilizando os prendedores 1349 e 1353. Quando afixados, o prendedor 1357 (correspondendo ao prendedor 1353) pode ser torcido, desengatando os componentes 1359 (os quais podem ser arredondados) a partir das cavidades 1363, e possibilitando que o prendedor 1361 (correspondendo ao prendedor 1349) seja removido do prendedor 1357, e vice-versa. Em modalidades especificas, um ou mais imãs podem ser usados para afixar os prendedores 1357 e 1361 entre si e/ou remover os prendedores 1357 e 1361 um do outro. Por exemplo, os imãs podem ser colocados em cavidades 1363 e na borda externa (convexa) dos componentes 1359, atraindo os componentes 1359 para dentro das cavidades 1363 e prendendo o prendedor 1361 no prendedor 1357. Como outro exemplo, os imãs podem ser colocados na borda interna dos componentes 1359 (isto é, na superficie côncava dos componentes 1359), atraindo os componentes 1359 para dentro do prendedor 1361, por exemplo, para auxiliar na remoção dos componentes 1359 a partir das cavidades 1363 ou para impedir que os componentes 1359 deslizem para dentro e para fora do prendedor 1361 quando não afixados ao prendedor 1357. ímãs correspondentes também podem ser colocados nas superfícies do prendedor 1361 que estão em contato com os componentes 1359 quando esses componentes não são estendidos para dentro das cavidades 1363. Em outras palavras, esses ímãs podem atrair (e, em modalidades específicas, finalmente fazer contato direto com) os ímãs na superfície côncava dos componentes 1359, prendendo os componentes 1359 no prendedor 1361.
[000110] As Figuras 13E-13G ilustram modalidades exemplares de fixação de uma braçadeira 1369 com o módulo de câmera 1373 a ela própria, por exemplo, quando usada por um usuário do dispositivo 1367. Na Figura 13E, um ou mais ímãs 1371 em um lado da braçadeira 1369 podem ser atraídos para um ou mais ímãs 1379 no outro lado da braçadeira 1369. Os imãs podem ser tiras de material magnético parcialmente cruzando uma braçadeira, conforme ilustrado pela tira magnética 1307 na Figura 13H; podem ser tiras de material magnético que cruzam completamente a braçadeira, como ilustrado pelas tiras 1321 e 1327 na Figura 131, ou podem ser áreas de material magnético 1393, como ilustrado na Figura 13F. Além dos imãs 1371 e 1379, a braçadeira 1369 pode incluir furos 1391 e um ou mais pilares 1377 para prender a braçadeira 1369 ao usuário do dispositivo 1367. A Figura 13G ilustra os prendedores 1387 (por exemplo, parafusos 1396) presos aos prendedores 1371 (por exemplo, porca com cobertura 1395) para prender a braçadeira 1381 a um usuário do dispositivo 1367 utilizando retentores 1383 (1398).
[000111] Em modalidades especificas, uma braçadeira contendo componentes elétricos também pode incorporar um conector de contato fisico tradicional, conforme ilustrado pelo conector 250 da Figura 2. O conector pode permitir a conectividade com o dispositivo, por exemplo, para carregamento, atualizações de sistema, resolução de problemas ou transferência de dados. Tal conector pode ser do tipo pogo ou podem ser superficies chapeadas as quais um cabo de carregamento pode estabelecer interface mediante contato. Tais conectores podem ser chapeados em metais preciosos para impedir a corrosão a partir da exposição à umidade a partir do ambiente e do corpo humano. Em modalidades especificas, conectores fisicos podem ser usados apenas para energia, e os dados podem ser transferidos utilizando-se modalidades de comunicação de curto alcance, tal como BLUETOOTH, tecnologia de comunicação de campo próximo (NFC), ou WI-FI.
[000112] Em modalidades especificas, uma braçadeira pode ser usada para alojar baterias flexíveis (tal como, por exemplo, baterias à base de lítio) para aumentar o armazenamento de energia do dispositivo. Como a capacidade de armazenamento de energia pode ser ligada ao volume total, baterias internas na braçadeira aumentam a capacidade de armazenamento para os dispositivos usáveis de volume limitado sem afetar o tamanho total do corpo do dispositivo.
[000113] Conforme descrito mais completamente abaixo, um dispositivo eletrônico usável pode incluir um ou mais sensores no dispositivo ou dentro do dispositivo. Por exemplo, um dispositivo eletrônico usável pode incluir um ou mais sensores óticos ou sensores de profundidade. Os sensores óticos podem ser colocados em qualquer local adequado, tal como, por exemplo, na face do dispositivo, em uma braçadeira voltada no sentido para fora do corpo do usuário, em uma braçadeira voltada no sentido oposto à face, em uma braçadeira voltada em direção ao corpo do usuário, ou qualquer combinação adequada das mesmas. A Figura 15 ilustra um dispositivo 1500 com uma braçadeira que tem um sensor ótico voltado no sentido para fora 1505. A colocação de um sensor ótico na braçadeira pode reduzir o número de sinais de alta frequência dentro do invólucro, permitindo blindagem mais leve dentro do corpo de dispositivo e assim economia de peso e volume. As Figuras 14A-14D ilustram colocações exemplares de câmera para diferentes modalidades de um dispositivo eletrônico usável. Em modalidades específicas, meios eletrônicos tais como aqueles para processar entrada de câmera podem ser localizados também na braçadeira, por exemplo, em um alojamento no formato de "vulcão" da câmera, como ilustrado pelo alojamento 125 na Figura 1. Em modalidades específicas, outros sensores podem ser colocados próximos a um sensor ótico, tal como, por exemplo, no mesmo alojamento que o sensor ótico na braçadeira do dispositivo. Por exemplo, um sensor de profundidade pode ser usado em conjunto com uma câmera ótica para aperfeiçoar a exibição ou detecção de um ambiente do dispositivo, ou para determinar para qual objeto um usuário está apontando ou interagindo por intermédio de um gesto.
[000114] Em modalidades especificas, a colocação de um sensor ótico na braçadeira pode ser ajustável pelo usuário dentro de uma faixa predeterminada. Em modalidades especificas, a colocação de um sensor ótico na braçadeira pode ser otimizada de tal modo que o sensor possa ser convenientemente apontado pelo usuário. Por exemplo, conforme ilustrado na Figura 15, se o usuário usar o dispositivo em torno do pulso, o sensor ótico 1505 pode ser colocado de uma forma voltada para fora de tal modo que o sensor ótico aponte no sentido para fora do corpo do usuário quando a palma da mão do usuário estiver aproximadamente paralela ao solo.
[000115] Em modalidades especificas, a colocação do sensor ótico pode ser tal que o usuário possa ver o display do dispositivo enquanto o sensor estiver apontando no sentido para fora a partir do corpo do usuário. Assim, o usuário pode ver o conteúdo capturado pelo sensor ótico e exibido pelo dispositivo sem bloquear a vista do usuário da cena fisica capturada pelo sensor, como ilustrado pelo triângulo de visualização na Figura 16. Um display 1620 de um dispositivo 1600 pode ter um cone de visualização associado, por exemplo, o volume dentro do qual o display pode ser visto de forma razoável. Na Figura 16, o usuário 1615 (1) visualiza um troféu real 1610 e (2) visualiza uma imagem do troféu no display 1620 do dispositivo 1600 a partir do cone de visualização do display 1620 mediante ação de apontar o sensor 1605 para o troféu real. 0 sensor 1605 tem urn ângulo de visada associado correspondendo a urn volume dentro do qual as imagens podem ser capturadas razoavelmente pelo sensor 1605. Observar que no exemplo da Figura 16, o sensor 1605 é colocado de tal modo que o usuário pode convenientemente apontar o sensor 1605 no sentido para fora enquanto mantendo o display 1620 do dispositivo 1600 em uma direção voltada para o usuário, e pode fazer isso sem que o dispositivo 1600 bloqueie a visão do usuário do troféu 1610.
[000116] A Figura 17 ilustra um ângulo de visada exemplar para um sensor ótico. Quando o objeto 1725 estiver no ângulo de visada do sensor ótico 1705, um usuário pode ver o objeto 1725 e uma imagem 1710 ou 1715 do objeto 1725 conforme exibida no dispositivo 1700. Por exemplo, quando a mão do usuário 1720 estiver no ângulo de visada, o usuário pode ver o objeto 1725, a mão 1720, e uma imagem 1710 do objeto 1725 e a mão 1720 no display 1700 do dispositivo. Em comparação, quando a mão 1720 não estiver no ângulo de visada do sensor 1705, a mão 1720 não é exibida pela imagem 1715 apresentada no display 1700. Quando usado por um usuário, o sensor do dispositivo pode capturar a mão/braço/dedos do usuário no ângulo de visada do sensor enquanto realizando um gesto a ser capturado pelo mesmo sensor ou por outros sensores (por exemplo, um gesto selecionando um objeto no ângulo de visada do dispositivo, tal como, por exemplo, apertando, batendo levemente, puxando em direção ou empurrando no sentido contrário). O sensor e o display podem ser orientados de tal modo que, quando usado por um usuário, um objeto a ser exibido no dispositivo está no ângulo de visada do dispositivo enquanto o dispositivo não bloqueia a vista do usuário em relação ao objeto e o olhar do usuário está dentro do cone de visualização do display do dispositivo. Em modalidades especificas, um usuário pode interagir com a imagem capturada pelo sensor ou exibida no dispositivo, tal como, por exemplo, mediante leve batida na porção do display na ou próximo de onde a imagem é exibida, mediante realização de um gesto dentro do ângulo de visada do sensor, ou mediante qualquer outro método adequado. Essa alteração pode proporcionar alguma funcionalidade relacionada ao objeto, tal como, por exemplo, identificar o objeto, determinar informação sobre o objeto, e exibir ao menos alguma da informação no display; mediante captura de uma imagem do objeto; ou mediante emparelhamento com o objeto ou de outro modo se comunicando com o objeto se o objeto tiver capacidades de emparelhamento/comunicação.
[000117] Em modalidades especificas, um módulo de sensor de profundidade ou ótico (o qual pode ser usado de forma permutável, onde apropriado) pode se comunicar com um dispositivo por intermédio de uma extensão simples do barramento que o sensor ótico utilizaria se estivesse montado diretamente na placa de circuitos impressos (PCB) principal, conforme ilustrado na Figura 18A. Na Figura 18A, o sensor ótico 1825 transmite os dados através de circuitos impressos flexiveis ou fiação 820 para um controle integrado 1810, o qual no exemplo da Figura 18A está localizado dentro do dispositivo 1805 ou sobre o mesmo, o qual aloja a placa de circuitos impressos, principal. A Figura 18B ilustra o circuito integrado de sensor ótico 1850 sobre ou dentro do módulo de sensor ótico 1860, que também aloja o sensor ótico 1855. A comunicação entre a placa de circuitos impressos, principal do dispositivo 1830 e os meios eletrônicos no módulo de câmera 1860 ocorre por intermédio de circuito impresso flexivel 1845. O arranjo da Figura 18B pode permitir que um circuito integrado compacte e de outro modo processe os dados e envie os mesmos por intermédio de um método que requer um número menor de linhas de sinal, ou que requer uma transferência menor de dados. Isso pode ser vantajoso uma vez que a braçadeira deve flexionar quando o usuário usa o dispositivo, e assim um número menor de linhas pode ser desejável. Tal abordagem pode reduzir o número de linhas a uma ou duas linhas de sinal e duas linhas de energia, o que é vantajoso para embalagem, modelagem e confiabilidade. Nas modalidades especificas, um ou mais dos meios eletrônicos descritos acima pode ser blindado para prevenir interferência eletromagnética a partir de cabeamento longo de alta frequência. O uso de barramento paralelo é comum em tais casos, e pode exigir o uso de um cabo maior ou FPC.
[000118] Em uma modalidade, o circuito integrado de controle de câmera pode ser montado diretamente em uma pequena placa de circuitos no módulo ótico, conforme ilustrado nas Figuras 18A- B. Um dispositivo eletrônico usável pode incluir quaisquer sensores adequados. Em modalidades especificas, um ou mais sensores ou seus meios eletrônicos correspondentes podem estar localizados em uma braçadeira do dispositivo, dentro do corpo ou sobre o corpo de um dispositivo, ou ambos. Os sensores podem se comunicar entre si e com os componentes de processamento e memória através de quaisquer conexões cabeadas ou sem fio, tal como, por exemplo, conexão elétrica direta, NFC, ou BLUETOOTH. Os sensores podem detectar o contexto (por exemplo, ambiente) ou estado do dispositivo, o usuário, um aplicativo, ou outro dispositivo ou aplicativo executando em outro dispositivo. Essa revelação considera um dispositivo eletrônico usável contendo qualquer configuração adequada de sensores em qualquer local adequado do dispositivo eletrônico usável. Além disso, essa revelação considera qualquer sensor adequado recebendo qualquer entrada adequada descrita aqui, ou iniciando, envolvido na, ou de outro modo associado com a provisão de qualquer funcionalidade adequada ou serviços aqui descritos. Por exemplo, sensores sensiveis ao toque podem estar envolvidos na transição entre interfaces gráficas de usuário exibidas no dispositivo, conforme descrito aqui mais completamente. Essa revelação considera ainda que a funcionalidade associada com o dispositivo usável, ativação/desativação de sensores, sensibilidade de sensores, ou prioridade de processamento de sensores pode ser customizada pelo usuário, quando apropriado.
[000119] A Figura 19 ilustra um sistema de detecção de sensor exemplar e ilustra sensores exemplares para um dispositivo eletrônico usável. Os sensores enviam os dados em um formato especifico de sensor para o subsistema concentrador de sensor do dispositivo. Por exemplo, os sensores 19A ilustrados no módulo de sensor exemplar 1924 podem incluir uma ou mais de: câmeras de detecção de face 1902, câmeras voltadas no sentido para fora 1904, sensores de proximidade de face 1906, sensores de toque de face 1908, sensores de toque de braçadeira 1910, sensores acústicos de toque de pele 1912, sistema de medição inercial (IMU) 1914, sensores de vetor de gravidade 1916, sensores de toque 1918 e 1920, e quaisquer outros sensores adequados 1922. Os dados a partir dos sensores são enviados ao concentrador de sensores 19B ilustrados no módulo de concentrador de sensores, exemplar 1944. Os dados são acondicionados e limpos de ruidos nas etapas 1928 e 1930 conforme necessário e transferidos para um detector de estado bloqueado 1942. O detector de estado bloqueado 1942 detecta quando o dispositivo está inativo, e desabilita os sensores conforme necessário para conservar energia, enquanto monitorando os dados de sensor para um gesto ou outra entrada adequada que possa reativar o dispositivo. Por exemplo, detectores de gestos numéricos recebem saida de sensor e comparam essa saida com um ou mais limiares numéricos para determinar um resultado. Detectores de gestos heurísticos 1934 recebem a saida do sensor e tomam decisões com base em uma ou mais árvores de decisão, tal como, por exemplo, regras de ANDing aplicadas a mais do que um limiar. Detectores de gesto baseados em padrão 1938 avaliam a entrada de sensor em relação a uma biblioteca predeterminada de padrões de gesto 1940, tal como, por exemplo, os padrões determinados por avaliação empirica de saida de sensor quando um gesto é realizado. Um ou mais decodificadores de prioridade de gesto 1948 avaliam a saida a partir dos detectores de gesto, detectores de estado bloqueado, ou ambos, para determinar qual, se houver, dos gestos detectados deve ser utilizado para proporcionar a funcionalidade a um aplicativo especifico ou processo de nivel de sistema. De forma mais ampla, em modalidades especificas, quando o dispositivo está ativo, os detectores de sensor solicitados pelo aplicativo ou solicitados pelo sistema são ativados em turno e proporcionam seus dados ao decodificador de prioridade de sensor. Em modalidades especificas, o detector de prioridade determina qual, se houver, de uma pluralidade de entradas de sensor ele deve processar, e essa revelação considera que entrada combinada a partir de múltiplos sensores pode ser associada com funcionalidade diferente da funcionalidade associada com cada entrada de sensor individualmente. 0 decodificador decide quando um sensor tiver sido detectado com certeza suficiente, e fornece dados de sensor ao acionador de concentrador de sensores. O acionador proporciona uma interface de programação de aplicação (API) para as aplicações finais e controladores de sistema, que por sua vez produzem a saida necessária e navegação. Por exemplo, a Figura 19 ilustra o acionador de concentrador de sensores 1950 exemplar, APIs de aplicação 1952, controladores de navegação de sistema 1954 para, por exemplo, determinar a funcionalidade de sistema apropriada (por exemplo, navegação de nivel de sistema 1962 através de uma interface gráfica de usuário do dispositivo), e detectores de prioridade de gesto de nivel de aplicação para aplicações 1956. Embora o concentrador de sensores 19B e processador de aplicação 19C (ilustrados no módulo de processador de aplicação exemplar 1964) da Figura 19 sejam ilustrados como entidades separadas, eles podem ser expressos por (e suas funções realizadas por) pelo menos alguns dos mesmos componentes ou componentes similares. Em modalidades especificas, os limites delimitando os componentes e funções do concentrador de sensores e o processador de aplicação podem ser mais ou menos inclusivos. Os limites ilustrados na Figura 19 são meramente uma modalidade exemplar. Em relação aos próprios sensores, as funções executadas por, e os componentes do sistema de concentrador de sensores e processador de aplicação podem ocorrer ou podem estar no corpo de dispositivo, na braçadeira, ou ambos. Modalidades especificas podem usar mais do que um concentrador de sensores ou processador de aplicação, ou componentes nesse lugar, para receber e processar os dados de sensor.
[000120] Os sensores podem produzir internamente dados de sensor, os quais podem ser simplesmente filtrados ou reformatados mediante, por exemplo, um detector ou condicionador de dados. Os dados brutos podem ser formatados em um formato uniforme pelo formatador de dados para ingestão pela API de Aplicação. Meios de reconhecimento para uso de modelos numéricos (tais como árvores de decisão), modelos heurísticos, reconhecimento de padrão ou qualquer outro hardware, software adequado e técnicas para detectar dados de sensor, tal como entrada de gesto. Os meios de reconhecimento podem ser habilitados ou desabilitados pela API. Em tais casos, os sensores associados também podem ser desabilitados se o meio de reconhecimento não receber os dados a partir dos sensores ou for incapaz de reconhecer os dados de sensores.
[000121] Um dispositivo pode incorporar um banco de dados de saidas de sensor que permitem que o mesmo detector detecte muitas saidas diferentes de sensor. Dependendo das solicitações produzidas pela API, um decodificador de prioridade de sensor pode suprimir ou passar a saida de sensor com base nos critérios fornecidos. Os critérios podem ser uma função do modelo da API. Em modalidades especificas, os meios de reconhecimento podem ingerir a saida de mais do que um sensor para detectar a saida de sensor.
[000122] Em modalidades especificas, múltiplos sensores podem ser usados para detectar informação similar. Por exemplo, uma câmera de detecção normal e também uma câmera de detecção de profundidade podem ser usadas para detectar um dedo, ou ambos, um giroscópio e um magnetômetro podem ser usados para detectar a orientação. Quando adequado, a funcionalidade que depende de ou utilize informação de sensor pode substituir os sensores ou escolher entre os mesmos com base na implementação e considerações de tempo de execução tal como custo, uso de energia, ou frequência de uso.
[000123] Os sensores podem ser de qualquer tipo adequado, e como descrito aqui, podem estar localizados dentro de ou sobre um corpo de dispositivo, dentro de uma braçadeira ou sobre uma braçadeira, ou uma combinação adequada dos mesmos. Em modalidades especificas, os sensores podem incluir um ou mais sensores de proximidade ou de profundidade (termos que podem ser usados de forma permutável nesse documento, quando apropriado), tal como, por exemplo, sensor de infravermelho, sensores óticos, sensores acústicos, ou quaisquer outros sensores de profundidade ou sensores de proximidade adequados. Por exemplo, um sensor de profundidade pode ser colocado no display ou próximo a um display de um dispositivo para detectar quando, por exemplo, a mão, o dedo, ou a face do usuário se aproxima do display. Como outro exemplo, os sensores de profundidade podem detectar qualquer objeto para o qual um dedo do usuário no ângulo de visada do sensor de profundidade estiver apontando, como descrito mais completamente nesse documento. Os sensores de profundidade, além disso, ou alternativamente, podem estar localizados em uma braçadeira do dispositivo, como descrito aqui mais completamente. Em modalidades especificas, os sensores podem incluir uma ou mais áreas sensiveis ao toque no corpo de dispositivo, braçadeira ou ambos. As áreas sensiveis ao toque podem utilizar quaisquer técnicas adequadas sensiveis ao toque, tal como, por exemplo, técnica resistiva, de ondas acústicas de superficie, capacitiva (incluindo capacitiva mútua ou auto-capacitiva), de infravermelho, ótica, dispersiva, ou quaisquer outras técnicas adequadas. Áreas sensíveis ao toque podem detectar qualquer contato adequado, tal como varreduras, leves batidas, contato em um ou mais pontos específicos ou com uma ou mais áreas específicas, ou contatos de múltiplos toques (tal como, por exemplo, apertar dois ou mais dedos em um display ou girar dois ou mais dedos sobre um display). Conforme descrito mais completamente aqui, áreas sensíveis ao toque podem compreender pelo menos uma porção de um display do dispositivo, anel, ou braçadeira. Como para outros sensores, em modalidades específicas, as áreas sensíveis ao toque podem ser ativadas ou desativadas, por exemplo, com base no contexto, considerações de energia, ou configurações de usuário. Por exemplo, uma porção sensível ao toque de um anel pode ser ativada quando o anel é "bloqueado" (por exemplo, não gira); e desativada quando o anel gira livremente. Em modalidades específicas, os sensores podem incluir um ou mais sensores óticos, tais como câmeras adequadas ou sensores óticos de profundidade.
[000124] Em modalidades específicas, os sensores podem incluir um ou mais sensores inerciais ou sensores de orientação, tal como um acelerômetro, um giroscópio, um magnetômetro, um chip de GPS, ou uma bússola. Em modalidades específicas, a saída a partir dos sensores inerciais ou de orientação pode ser usada para ativar ou desbloquear um dispositivo, detectar um ou mais gestos, interagir com o conteúdo na tela de exibição do dispositivo ou uma tela de exibição do dispositivo emparelhado, acessar dados específicos ou ativar funções específicas do dispositivo ou de um dispositivo emparelhado, iniciar comunicações entre um corpo de dispositivo e uma braçadeira ou um dispositivo e um dispositivo emparelhado, ou qualquer outra funcionalidade adequada. Em modalidades específicas, os sensores podem incluir um ou mais microfones para detectar, por exemplo, a fala de um usuário, ou sons ambientais para determinar o contexto do dispositivo. Além disso, em modalidades especificas um dispositivo pode incluir um ou mais altofalantes no corpo de dispositivo ou na braçadeira.
[000125] Em modalidades especificas, os sensores podem incluir componentes para comunicação com outros dispositivos, tal como dispositivos de rede (por exemplo, servidores ou roteadores), smartphones, dispositivos de computação, dispositivos de exibição (por exemplo, televisões ou quiosques), sistemas de áudio, sistema de video, outros dispositivos eletrônicos usáveis, ou entre uma braçadeira e um corpo de dispositivo. Tais sensores podem incluir leitores NFC/sinalizadores, tecnologia BLUETOOTH, ou antenas para transmissão ou recepção em qualquer frequência adequada.
[000126] Em modalidades especificas, os sensores podem incluir sensores que recebem ou detectam entrada tátil a partir de um usuário do dispositivo, tal como, por exemplo, meios piezelétricos, sensores de pressão, sensores de força, sensores inerciais (conforme descrito acima), sensores de tensão/esforço, ou acionadores mecânicos. Tais sensores podem estar localizados em qualquer local adequado no dispositivo. Em modalidades especificas, os componentes do dispositivo também podem proporcionar realimentação tátil para o usuário. Por exemplo, um ou mais anéis, superficies, ou braçadeiras podem vibrar, produzir luz ou produzir áudio.
[000127] Em modalidades especificas, um dispositivo eletrônico usável pode incluir um ou mais sensores do meio ambiente, tal como sensor de temperatura, sensor de umidade, ou altimetro. Em modalidades especificas, um dispositivo eletrônico usável pode incluir um ou mais sensores para detectar um atributo fisico do usuário do dispositivo usável. Tais sensores podem estar localizados em qualquer área adequada, tal como, por exemplo, em uma braçadeira do dispositivo ou sobre a base do dispositivo contatando a pele do usuário. Como um exemplo, os sensores podem incluir sensores acústicos que detectam as vibrações da pele de um usuário, tal como quando o usuário esfrega a pele (ou vestimenta cobrindo a pele) próxima ao dispositivo usável, bate levemente na pele próximo ao dispositivo, ou move o dispositivo para cima e para baixo do braço do usuário. Como exemplos adicionais, um sensor pode incluir um ou mais sensores de temperatura corpórea, um oximetro de pulso, sensores de resposta de pele, galvânicos, sensores capacitivos de formação de imagem, sensores de eletromiografia, leitores de dados biométricos (por exemplo, impressão digital ou olho), e quaisquer outros sensores adequados. Tais sensores podem proporcionar retorno para o usuário do estado do usuário, podem ser usados para iniciar funcionalidade predeterminada (por exemplo, um alerta para tomar medicação especifica, tal como insulina para um diabético), ou pode comunicar informação detectada para um dispositivo remoto (tal como, por exemplo, um terminal em um posto médico).
[000128] Um dispositivo eletrônico usável pode incluir um ou mais componentes de carga para carregar ou energizar o dispositivo. Os componentes de carregamento podem utilizar qualquer método de carregamento adequado, tal como carregamento capacitivo, carregamento eletromagnético, carregamento gradual, carregamento mediante contato elétrico direto, carregamento solar, cinético, indutivo ou inteligente (por exemplo, carregamento com base em uma condição ou estado de uma bateria, e em conformidade modificar as ações de carregamento). Os componentes de carregamento podem estar localizados em qualquer porção adequada do dispositivo, tal como dentro do corpo ou sobre o corpo do dispositivo ou dentro da braçadeira ou sobre a braçadeira de um dispositivo. Por exemplo, a Figura 20A ilustra um carregador 2000 com conector 2005 para conectar um componente de carga com o carregador. Por exemplo, o conector 2005 pode usar estruturas mecânicas, fricção (tais como engates ou fechos), magnetismo ou qualquer outra técnica adequada para aceitar e fixar um pino a partir de um componente de carregamento de tal modo que o pino e o carregador 2000 façam contato elétrico direto. A Figura 20C ilustra o pino 2015 na braçadeira 2010 utilizando conectores do tipo pogo para criar uma conexão de circuito entre o carregador 2022 e braçadeira 2010 através dos contatos 2020. Em modalidades especificas, o pino 2015 pode estar no carregador 2022 e o conector 2005 da Figura 20A pode estar na braçadeira ou corpo do dispositivo usável. Em modalidades especificas, os contatos 2020 (tal como, por exemplo, conectores do tipo pogo) podem estar no corpo do dispositivo, o qual pode ser usado para criar um circuito entre a braçadeira ou o carregador para carregamento do dispositivo. O carregador 2000 da Figura 20A pode ser conectado a qualquer fonte de energia adequada (tal como, por exemplo, energia a partir de uma tomada de corrente alternada (CA) ou energia de corrente direta (CD) a partir de uma porta USB em um dispositivo de computação) mediante qualquer conexão cabeada ou sem fio, adequada.
[000129] O carregador 2000 pode ser feito de qualquer material adequado, tal como acrilico, e em modalidades especificas pode ter um material antideslizante como o seu revestimento, tal como, por exemplo, borracha. Em modalidades específicas, o carregador 2000 pode ser afixado ou preso a uma superfície, por exemplo, pode ser preso em uma parede como ilustrado na Figura 20B. A fixação pode ser feita mediante qualquer técnica adequada, tal como, por exemplo, mecanicamente, magneticamente ou de forma adesiva. Em modalidades específicas, um dispositivo eletrônico usável pode ser completamente usável enquanto fixado ao carregador. Por exemplo, quando um componente de carregamento está localizado no corpo do dispositivo, o dispositivo pode ser assentado no carregador enquanto um usuário interage com o dispositivo ou outros dispositivos se comunicam com o dispositivo.
[000130] Como outro exemplo de um componente de carregamento em um dispositivo eletrônico usável, as Figuras 21A-21B ilustram carregadores exemplares adicionais utilizando, por exemplo, carregador indutivo. Conforme ilustrado nas Figuras 21A-21B, uma braçadeira pode incluir uma ou mais bobinas de carregamento 2110. Conforme descrito acima, essa revelação considera as bobinas de carregamento (ou qualquer outro componente de carregamento adicional) incorporadas no corpo do dispositivo ou sobre o corpo do dispositivo, como alternativa ou adicionalmente à braçadeira do dispositivo. Um campo magnético 2105 gerado, por exemplo, pela superfície de carregamento 2115 ou superfície de carregamento 2120 passa através da bobina de carregamento 2110. A superfície de carregamento 2120 da Figura 21B pode aperfeiçoar a densidade do campo magnético 2105 através da bobina de carregamento 2110 em relação à superfície de carregamento 2115 e permite colocação mais exata do que a superfície de carregamento 2115, aperfeiçoando assim a taxa de transferência de carga do sistema. Essa revelação considera que, quando adequado, o carregamento pode energizar os componentes no corpo do dispositivo, componentes na braçadeira ou sobre a braçadeira, ou ambos.
[000131] Em modalidades especificas, a braçadeira ou dispositivo pode implementar uma antena para uma solução de carregamento sem fio. Como o carregamento sem fio opera de forma ótima na ausência de metais ferrosos, isso permite uma opção mais ampla de materiais para o corpo do dispositivo, enquanto permitindo capacidade aperfeiçoada de transferência de carregamento sem fio ao permitir que a bobina seja mantida entre os polos de um acionador de carregamento (conforme descrito acima) mais propriamente do que ser simplesmente coplanar ao acionador. Como descrito acima e ilustrado na Figura 2, a braçadeira também pode incorporar um conector de contato fisico interno tradicional 250.
[000132] Em modalidades especificas uma unidade de carregamento com um reservatório interno de carga pode ser associada com um dispositivo eletrônico usável. Quando plugada na parede, a unidade de carregamento pode carregar ambos, um dispositivo anexado e o reservatório interno da unidade de carregamento. Quando não plugada, a unidade de carregamento ainda pode carregar um dispositivo anexado a partir de seu reservatório de energia até que o reservatório seja esgotado. Quando apenas o carregador é conectado a uma fonte de energia sem um dispositivo, ele ainda se carrega, de modo que pode proporcionar energia adicional para o dispositivo em um momento mais tarde. Assim, a unidade de carregamento aqui descrita é útil com e sem estar plugada em uma fonte de energia, e também pode energizar qualquer dispositivo parcialmente carregado por um momento quando uma pessoa não é capaz de se conectar a uma fonte de energia, por exemplo, ao viajar, no avião, na estação de trem, externamente ou em qualquer lugar em que um usuário poderia precisar carregar um dispositivo, mas não tem acesso a uma fonte de energia. 0 dispositivo pode estar em espera ou em uso enquanto o carregador carrega o dispositivo, e nenhuma modificação no software ou hardware do dispositivo alvo é necessária. Vantagens adicionais de uma ou mais modalidades da invenção podem incluir a redução do número de itens que se deve carregar, proporcionar os beneficios de ambos, um carregador e um módulo de energia, tornar o carregador útil ao ser carregado quando em movimento, e reduzir o número de cabos e conectores que se deve carregar para prolongar a vida útil da bateria de seus dispositivos. Essa revelação considera que uma unidade de carregamento pode ser aplicada a qualquer dispositivo eletrônico adequado, incluindo, mas não limitado a um dispositivo eletrônico usável.
[000133] As Figuras 22A-22B ilustram modalidades especificas de uma unidade de carregamento exemplar 2210 com conexões exemplares 2205 ao dispositivo 2200 e conexões 2215 e 2220. Por exemplo, a Figura 22A ilustra conectividade de cabo a partir da unidade de carregamento 2210 para o dispositivo 2200 e para uma fonte externa de energia. Como outro exemplo, a Figura 22 ilustra a unidade de carregamento 2210 com conectividade de cabo a partir do dispositivo 2200 e conectividade direta para uma fonte de energia. Essa revelação considera quaisquer conexões adequadas entre um dispositivo, a unidade de carregamento, e uma fonte de energia carregando a unidade de carregamento. Por exemplo, conexões tanto para o dispositivo como para a fonte de energia podem ser diretas, por intermédio de cabeamento, ou sem fio.
[000134] Conforme descrito acima, uma unidade de carregamento pode carregar um dispositivo a partir do reservatório de carregamento interno da unidade de carregamento mesmo quando não conectada a uma fonte de energia externa, e pode carregar a si própria, um dispositivo conectado, ou ambos quando conectada a uma fonte de energia externa. Essa revelação considera qualquer esquema adequado para alocar carga entre a unidade de carregamento e o dispositivo. Tal esquema de alocação pode depender da quantidade de carga interna para o dispositivo, interna à unidade de carregamento, e quantidade de energia sendo consumida pelo dispositivo, as capacidades de carregamento de uma fonte de energia externa, ou qualquer combinação adequada dos mesmos. Adicionalmente ou alternativamente, o limiar de carregamento pode determinar qual esquema de alocação deve ser utilizado. Por exemplo, um esquema de carregamento pode ser usado quando o dispositivo estiver com carga quase total e a unidade de carregamento tiver pouca carga restante, e outro esquema pode ser usado quando o dispositivo tiver pouca carga restante. As Figuras 23-24 ilustram esquemas exemplares de carregamento para a unidade de carregamento e dispositivo conectado. Por exemplo, conforme ilustrado na Figura 24, quando um dispositivo é conectado a um carregador como na etapa 2400, a etapa 2405 determina se o dispositivo está totalmente carregado. Se afirmativo, nenhuma ação de carregamento adicional é realizada. Em caso negativo, a etapa 2410 determina se o carregador está conectado a uma fonte de energia externa, tal como, por exemplo, tensão de linha. Se assim for, o dispositivo é carregado a partir da fonte externa em 2425. Caso contrário, a etapa determina se o carregador deixou alguma energia restante, e se for assim, o dispositivo é carregado a partir da fonte de energia interna do carregador na etapa 2420 a partir da tensão de linha mais propriamente do que do reservatório da unidade de carregamento quando a unidade de carregamento é conectada à tensão de linha. A Figura 23 ilustra uma árvore de decisão similar. Se um dispositivo for conectado a um carregador (etapa 2300) que é conectado a uma fonte de energia (etapa 2300), então a etapa 2310 determina se o dispositivo está completamente carregado, e caso negativo, o dispositivo é carregado a partir da fonte de energia com a qual o carregador está conectado (etapa 2315). Similarmente, a etapa 2320 determina se o carregador está completamente carregado e, caso contrário, a unidade de carregador é carregada a partir da fonte de energia na etapa 2325. Em modalidades especificas, o esquema de alocação usado pode ser determinado ou padronizado por um usuário.
[000135] As Figuras 25A-25E ilustram modalidades exemplares do meio de armazenamento de energia e carregamento em um dispositivo e uma unidade de carregamento. Na Figura 25A da modalidade ilustrada, o reservatório de carga 2500 do dispositivo e o reservatório de carga 2520 da unidade de carregamento estão ambos esgotados. As Figuras 25B-25C ilustram o carregamento do reservatório de carga 2500 do dispositivo e reservatório de carga 2505 do dispositivo após a unidade de carregamento ter sido conectada à fonte de energia externa 2510. Após um curto periodo de tempo, a unidade de carregamento e o dispositivo são carregados simultaneamente, com o carregamento sendo distribuído de tal modo que a cada um é dada o mesmo percentual de sua capacidade de carga total. Tanto o reservatório de carregamento 2500 do dispositivo como o reservatório de carregamento 2505 da unidade de carregamento estão completamente carregados após algum tempo, conforme ilustrado na Figura 25C. Conforme aqui descrito, a quantidade de carga alocada para o dispositivo ou para a unidade de carregamento pode variar com base em qualquer esquema de alocação de carga adequado. Por exemplo, se a capacidade de conversão de energia da unidade de carregamento for limitada, o reservatório da unidade de carregamento está quase cheio e o reservatório de carga do dispositivo está quase vazio, ou a demanda do dispositivo de energia é muito alta, a unidade de carregamento pode priorizar o carregamento do dispositivo antes de carregar as suas reservas internas. Como outro exemplo, o carregamento da unidade de carregamento pode continuar até que uma carga de limiar predeterminada tenha sido atingida.
[000136] As Figuras 25D-25E ilustram a transferência de carga entre a unidade de carregamento e o dispositivo quando a unidade de carregamento não está conectada a uma fonte de energia externa. Conforme ilustrado na Figura 25D, um dispositivo com pouca carga restante em seu reservatório 2500 é conectado a uma unidade de carregamento com um reservatório completamente carregado 2505. Conforme discutido acima, essa revelação considera qualquer esquema de alocação de carga adequado entre o dispositivo e o carregador quando o carregador não está conectado a uma fonte de energia externa. Esse esquema de alocação pode ser o mesmo ou diferente do esquema de alocação usado quando a unidade de carregamento é conectada a uma fonte de energia externa. Por exemplo, a Figura 25E ilustra um esquema de alocação que maximiza a carga do reservatório de carregamento 2500 do dispositivo. Desde que a unidade de carregamento ainda tenha carga, ela continua a carregar o dispositivo até que o dispositivo esteja completamente carregado ou até que o reservatório de carregamento 2505 do carregador esteja completamente vazio.
[000137] A Figura 26 ilustra uma arquitetura interna exemplar de uma unidade de carregamento exemplar 2600. O conversor de tensão de linha 2605 produz uma corrente direta de tensão inferior a partir da corrente de linha de alta tensão 2610. Essa tensão é alimentada tanto ao carregador de bateria/regulador 2630 como ao conector 2615, ao qual um dispositivo pode ser conectado por intermédio da conexão 2620 para carregamento. O carregador de bateria 2630 utiliza energia disponível a partir do conversor de tensão de linha 2605 para carregar o reservatório de energia (bateria 2635). Pode consumir uma porção igual da energia quando o dispositivo recebe uma porção menor quando a demanda do dispositivo é elevada (prioridade de dispositivo), ou consumir uma porção maior quando estiverem baixas as reservas internas de energia (prioridade do carregador). Essas prioridades podem ser selecionadas pelo usuário.
[000138] Continuando com o exemplo da Figura 26, quando o conversor de tensão de linha 2605 não está fornecendo energia, o carregador/regulador 2630 produz a tensão de carregamento apropriada a partir da energia na bateria 2635. O regulador 2630 pode estar sempre ligado, ou pode ser comutado para ligado mediante conexão ao dispositivo, ou mediante compressão de um botão que indica que o usuário deseja carregar o dispositivo. Quando ativado, o regulador 2630 carregará o dispositivo até que as reservas internas estejam esgotadas. Nesse ponto, alguma carga ainda pode permanecer na bateria 2635 para aperfeiçoar a vida útil da bateria, mas ela não estará disponível ao usuário. 0 dispositivo pode incorporar um modo de emergência que permite acesso à parte dessa energia para obter uma quantidade minima de tempo de utilização de emergência, à custa da vida útil da bateria. 0 regulador 2630 pode continuar a fornecer energia até que o dispositivo seja desconectado, ou até que o dispositivo consuma apenas uma quantidade minima de energia, indicando o esgotamento da carga. Finalmente, o carregador/regulador 2630 pode incluir um display sob demanda que mostra a quantidade de energia restante em reserva para o usuário. Como os displays geralmente utilizam energia, um botão ou outro meio de entrada pode ser usado para ativar o display por um tempo limitado. Embora a Figura 26 ilustre uma arquitetura interna exemplar de uma unidade de carregamento exemplar 2600, essa revelação considera qualquer arquitetura interna adequada de qualquer unidade de carregamento adequado aqui descrita, e considera que tal unidade de carregamento pode ser de qualquer tamanho e formato adequado.
[000139] Em modalidades especificas, a funcionalidade ou componentes do dispositivo (tal como, por exemplo, sensores) podem ser ativados e desativados, por exemplo, para conservar energia ou reduzir ou eliminar a funcionalidade indesejada. Por exemplo, um detector de estado bloqueado detecta quando o dispositivo está inativo, e desabilita os sensores conforme necessário para conservar energia, enquanto monitorando os dados de sensor para um gesto ou outra entrada adequada que possa reativar o dispositivo. Um dispositivo pode ter apenas um ou mais modos de energia, tal como um modo inativo ou um modo completamente ativo. Como um exemplo, em modalidades especificas o dispositivo é usado no braço, e uma superficie de toque do dispositivo pode entrar em contato com os objetos e pessoas enquanto em uso regular. Para prevenir ativação acidental, um acelerômetro ou outro sensor inercial no corpo ou braçadeira do dispositivo pode ser usado para medir a posição aproximada do dispositivo em relação à gravidade da Terra. Se o vetor de gravidade for detectado em direção aos lados do dispositivo (por exemplo, o dispositivo é determinado pelo lado do usuário ou o dispositivo é determinado como não apontado para o usuário) a tela de toque pode ser bloqueada e exibir desabilitada para reduzir o uso de energia. Quando o vetor de gravidade é determinado como estando apontando para baixo do dispositivo (por exemplo, o dispositivo está aproximadamente na horizontal, resultando em uma determinação de que o usuário está visualizando ou de outro modo utilizando o dispositivo), o sistema pode energizar o display e habilitar a tela de toque para interações adicionais. Em modalidades especificas, adicionalmente ou alternativamente à direção do vetor de gravidade despertando ou desbloqueando um dispositivo, uma taxa de mudança da direção ou magnitude do vetor de gravidade pode ser usada para despertar ou desbloquear um dispositivo. Por exemplo, se a taxa de mudança do vetor de gravidade for zero para um periodo de tempo predeterminado (em outras palavras, o dispositivo tiver sido mantido em uma posição especifica pelo periodo de tempo predeterminado) o dispositivo pode ser ativado ou desbloqueado. Como outro exemplo, um ou mais sensores inerciais no dispositivo podem detectar um gesto especifico ou sequência de gestos para ativar um display ou outro componente ou aplicação, adequada. Em modalidades especificas, o codificador do dispositivo é robusto em relação à ativação acidental, e assim pode ser deixado ativo de modo que o usuário pode mudar entre seleções enquanto colocando o dispositivo em seu ângulo de visão. Em outras modalidades, o codificador pode ser desativado com base no contexto ou entrada de usuário.
[000140] Adicionalmente, ou alternativamente, à conservação de energia, modalidades especificas podem bloquear um ou mais sensores, particularmente a funcionalidade especifica ou aplicações especificas para prover segurança a um ou mais usuários. Sensores apropriados podem detectar a ativação ou desbloqueio dos aspectos de segurança do dispositivo ou de outro dispositivo emparelhado com ou em comunicação com o dispositivo usável. Por exemplo, um gesto especifico realizado com o dispositivo ou uma área sensivel ao toque do dispositivo pode desbloquear um ou mais aspectos de segurança do dispositivo. Como outro exemplo, a rotação especifica ou sequência de rotações de um anel giratório do dispositivo pode desbloquear um ou mais aspectos de segurança do dispositivo, por conta própria ou em combinação com outra entrada de usuário. Por exemplo, um usuário pode girar um anel giratório para uma sequência singular de simbolos, tais como números ou imagens. Em resposta ao recebimento da sequência de entradas rotacionais usadas para girar o anel giratório, o display pode exibir o simbolo(s) especifico correspondendo a cada entrada rotacional, conforme descrito mais completamente aqui. Em modalidades especificas, os simbolos usados podem ser específicos de usuário (tal como, por exemplo, imagens de usuário armazenadas no dispositivo ou que podem ser acessadas pelo dispositivo ou simbolos pré-selecionados pelo usuário). Em modalidades especificas, diferentes simbolos podem ser apresentados ao usuário após um número predeterminado de desbloqueios ou após um periodo de tempo predeterminado. As entradas exemplares descritas acima também podem ser alternativamente usadas para ativar/desativar aspectos do dispositivo, aplicações especificas, ou acessar dados específicos. Embora essa revelação descreva exemplos específicos de entrada de usuário desbloqueando aspectos de segurança de um dispositivo, essa revelação considera qualquer entrada adequada ou combinação de entradas para desbloquear qualquer aspecto de segurança do dispositivo. Essa revelação considera que entrada ou outros parâmetros adequados para desbloqueio de aspectos de segurança de um dispositivo; ou componentes de ativação/desativação do dispositivo, podem ser personalizados pelo usuário.
[000141] Em modalidades especificas, um dispositivo eletrônico usável pode detectar um ou mais gestos realizados com ou no dispositivo. Os gestos podem ser de qualquer tipo adequado, podem ser detectados por qualquer sensor adequado (por exemplo, sensores inerciais, sensores de toque, câmeras ou sensores de profundidade), e podem ser associados com qualquer funcionalidade adequada. Por exemplo, um ou mais sensores de profundidade podem ser usados em conjunto com uma ou mais câmeras para capturar um gesto. Em modalidades especificas, vários sensores de profundidade ou câmeras podem ser usados para melhorar a exatidão da detecção de um gesto ou do segundo plano associado a um gesto. Quando apropriado, sensores usados para detectar gestos (ou processando funcionalidade de inicialização utilizada associada com um gesto) podem ser ativados ou desativados para conservar energia ou fornecer segurança, conforme descrito mais completamente acima. Conforme mostrado acima, a Figura 19 ilustra um sistema de detecção de sensor exemplar e proporciona exemplos específicos de detecção de gesto, processamento, e priorização. Em modalidades específicas, aplicações específicas podem subscrever para gestos específicos ou para todos os gestos disponíveis; ou um usuário pode selecionar os gestos que devem ser detectados por quais aplicações. Em modalidades específicas, os gestos podem incluir manipulação de outro dispositivo enquanto usando o dispositivo usável. Por exemplo, um gesto pode incluir sacudir outro objeto enquanto objetivando, movendo, ou de outro modo utilizando o dispositivo usável. Essa revelação considera que, onde adequado, qualquer um dos gestos aqui descritos pode envolver a manipulação de outro dispositivo. Embora os exemplos e ilustrações discutidos abaixo envolvam aspectos específicos ou atributos de gestos, essa revelação considera a combinação de quaisquer aspectos ou atributos adequados do gesto e sensor aqui descrito.
[000142] Em modalidades específicas, um dispositivo eletrônico usável pode detectar um ou mais gestos realizados com o dispositivo ou no dispositivo. Os gestos podem ser de qualquer tipo adequado, podem ser detectados por quaisquer sensores adequados (por exemplo, sensores inerciais, sensores de toque, câmeras ou sensores de profundidade), e podem ser associados com qualquer funcionalidade adequada. Por exemplo, um ou mais sensores de profundidade podem ser usados em conjunto com uma ou mais câmeras para capturar um gesto. Em modalidades específicas, vários sensores ou câmeras de profundidade podem ser usados para otimizar a exatidão da detecção de um gesto ou do segundo plano associado a um gesto. Quando apropriado, os sensores usados para detectar os gestos (ou processamento usado para iniciar a funcionalidade associada com um gesto, podem ser ativados ou desativados para conservar energia ou proporcionar segurança, conforme descrito mais completamente acima, Figura 19. Como descrito mais completamente acima, a Figura 19 ilustra um sistema de detecção de sensor exemplar e proporciona exemplos específicos de detecção de gesto, processamento, e priorização. Em modalidades especificas, aplicações especificas podem subscrever para gestos específicos ou para todos os gestos disponíveis; ou um usuário pode selecionar quais gestos devem ser detectados por quais aplicações. Em modalidades especificas, os gestos podem incluir manipulação de outro dispositivo enquanto utilizando o dispositivo usável. Por exemplo, um gesto pode incluir agitar outro dispositivo enquanto apontando, movendo ou de outro modo utilizando o dispositivo usável. Essa revelação considera que, onde adequado, qualquer um dos gestos aqui descritos pode envolver a manipulação de outro dispositivo. Embora os exemplos e ilustrações discutidos abaixo envolvam aspectos ou atributos específicos de gestos, essa revelação considera combinar quaisquer aspectos ou atributos adequados do gesto e sensor aqui descritos.
[000143] Em modalidades especificas, os gestos podem incluir gestos que envolvem pelo menos uma mão do usuário e um acessório no qual o dispositivo é usado, tal como, por exemplo, o outro pulso do usuário. Por exemplo, em modalidades especificas, um usuário pode usar a mão/braço no qual o dispositivo é usado para apontar apropriadamente o sensor ótico do dispositivo (por exemplo, uma câmera ou sensor de profundidade) e pode mover ou posicionar o outro braço/mão/dedos para realizar um gesto especifico. Conforme descrito aqui e ilustrado nas Figuras 16-17, em modalidades especificas a cena visada pode ser exibida no display do dispositivo, de tal modo que um usuário pode visualizar a cena real, a cena quando exibida no dispositivo, e a mão/braço/dedos do usuário, se estiverem no ângulo de visão. Em modalidades específicas, a cena exibida pode incluir as mãos/dedos/braço usados para detecção pelo sensor e usados para realizar os gestos. As Figuras 27-28 ilustram gestos exemplares nos quais o usuário aponta um sensor voltado no sentido para fora (por exemplo, afastado do corpo do usuário) no dispositivo (por exemplo, na braçadeira do dispositivo, como ilustrado nas figuras) e move ou posiciona seu outro braço/mão/dedos para realizar um gesto. Por exemplo, na Figura 27, um sensor no sentido para fora detecta um objeto no ângulo de visada do sensor 2705, um sensor no sentido para fora (o qual pode ser o mesmo sensor detectando o objeto) detecta um ou mais dedos apontando para o objeto 2710, e quando o dedo(s) que aponta for determinado como estando em descanso 2715, um gesto é detectado 2720. Com referência à Figura 19, dados brutos de gesto capturados pela câmera voltada no sentido para fora podem ser condicionados e limpos de ruído e esses dados podem ser enviados para o Detector de Gesto Heurístico. O Decodificador de Prioridade de Gesto processa os dados de gesto e determina quando o gesto tiver sido identificado com certeza suficiente. Quando o gesto tiver sido identificado, o gesto é enviado para o Acionador de Concentrador de Sensor que proporciona uma API para as aplicações finais e controladores de sistema.
[000144] Como exemplos da funcionalidade associada a esse gesto, uma câmera pode focalizar o objeto, o objeto detectado e apontado pode então aparecer no display, informação sobre aquele objeto pode aparecer no display, e o conteúdo exibido pode ser transferido para o display de outro dispositivo (por exemplo, quando o objeto estiver em outro dispositivo). A Figura 28 ilustra um gesto exemplar similar ao gesto da Figura 27; contudo, o gesto ilustrado inclui o sensor voltado no sentido para fora detectando um movimento de "leve batida" do dedo(s) (por exemplo, que o dedo(s) está se movendo para longe do sensor) . Por exemplo, o gesto da Figura 28 pode incluir a detecção de um objeto na cena de uma câmera (ou outro sensor adequado) na etapa 2805, detectando o dedo na cena na etapa 2810, detectando uma ausência de movimento lateral do dedo na etapa 2815, detectando o movimento da ponta do dedo para longe do sensor na etapa 2820, e detectando um gesto na etapa 2825. O gesto ilustrado na Figura 28 pode fornecer qualquer funcionalidade adequada. Por exemplo, o objeto que sofreu "leve batida" pode ser selecionado a partir dos objetos exibidos na tela de exibição.
[000145] As Figuras 29-30 ilustram gestos exemplares onde o objeto é detectado com um sensor voltado no sentido para fora conjuntamente com o movimento dos dedos e mão do usuário. Por exemplo, a Figura 29 ilustra o sensor voltado no sentido para fora detectando dois dedos separados 2915, os dois dedos se unindo (por exemplo, em um movimento de apertar) 2920, e então os dedos apertados se movendo em direção ao sensor 2925. O movimento dos dedos se unindo e se movendo em direção ao sensor pode ocorrer simultaneamente ou em sequência, e realizando as etapas em sequência (ou tempo entre as etapas na sequência) ou simultaneamente podem individualmente constituir um gesto diferente. Na Figura 30, os dois dedos ilustrados estão inicialmente próximos 3010, e o sensor voltado no sentido para fora detecta os dedos se separando 3020 e a mão se afastando 3015. Como para a Figura 30, o movimento dos dedos e da mão pode ser simultâneo ou em qualquer sequência adequada. Além disso, aspectos das Figuras 29-30 podem ser combinados para formar um gesto. Por exemplo, apertar os dedos em conjunto e se afastar do sensor pode ser um gesto único. Em modalidades específicas, os dedos detectados ou a mão podem estar manipulando outro dispositivo, e essa manipulação pode formar parte do gesto. Em relação a todos os gestos exemplares aqui descritos, essa revelação considera qualquer funcionalidade adequada associada aos gestos ilustrados nas Figuras 29-30.
[000146] As Figuras 31-32 ilustram gestos exemplares similares às Figuras 29-30, exceto que aqui todos os dedos são usados para realizar o gesto. Na Figura 31, os dedos são detectados como inicialmente próximos (por exemplo, em uma mão fechada) 3105, a mão fechada é detectada se afastando do sensor 3110, e o sensor detecta a abertura da mão fechada 3115. Outra vez, a sequência de etapas ilustrada pode ocorrer em qualquer ordem adequada. A Figura 32 ilustra o reverso da Figura 31. As Figuras 31-32 podem ser associadas com qualquer funcionalidade adequada. Por exemplo, a Figura 31 ilustra um exemplo de envio de todo ou de uma porção de conteúdo exibido no dispositivo para outro dispositivo, tal como a televisão ilustrada na Figura 31. Similarmente, o gesto na Figura 32 pode trazer parte ou todo o conteúdo exibido em outro dispositivo para o display do dispositivo usável. Por exemplo, os gestos das Figuras 31-32 podem ser implementados quando o usuário realiza os gestos com o dispositivo usável em proximidade de outro dispositivo, tal como um smartphone, tablet, dispositivo de computação pessoal, aparelho inteligente (por exemplo, geladeira, termostato ou máquina de lavar), ou qualquer outro dispositivo adequado. A funcionalidade descrita representa meramente exemplo de funcionalidade que pode ser associada com os gestos ilustrados nas Figuras 31-32, e essa revelação considera que outro gesto adequado pode realizar a funcionalidade descrita.
[000147] As Figuras 33-37 ilustram um sensor voltado no sentido para fora detectando uma mão ou porção de um braço passando na frente do sensor. Em modalidades especificas, a passagem com a frente da mão pode ser um gesto diferente do que a passagem com o dorso da mão. As Figuras 33-34 ilustram a mão sendo passada da direita para a esquerda 3310-3315 e da esquerda para a direita 3410-3415 através do ângulo de visada do sensor, e as Figuras 35-37 ilustram a mão sendo passada de baixo para cima 3510-3515 {assim como 3735-3740) e de cima para baixo 3610-3615 (assim como 3710-3715) através do ângulo de visada do sensor. Conforme ilustrado, a mão pode inicialmente iniciar no ângulo de visada, passar através do ângulo de visada e sair do ângulo de visada (conforme ilustrado na Figura 36); pode iniciar fora do ângulo de visada, passar através do ângulo de visada, e sair do ângulo de visada (conforme ilustrado na Figura 37); pode iniciar o ângulo de visada, passar através da porção do ângulo de visada, e permanecer no ângulo de visada (conforme ilustrado nas Figuras 33-35); ou pode iniciar no ângulo de visada, passar através de uma porção do ângulo de visada e permanecer no ângulo de visada. Essa revelação considera a mão sendo passada em outros ângulos, tal como, por exemplo, entrando em um ângulo de 45 graus abaixo e à direita do dispositivo e saindo em um ângulo de 45 graus em relação ao topo e à esquerda do dispositivo. Adicionalmente, essa revelação considera detectar as passagens de mão em movimentos exceto em uma linha reta, tal como passagens em curva ou passagens triangulares. Essa revelação considera qualquer funcionalidade adequada associada com qualquer um ou todos os gestos ilustrados nas Figuras 33-37, tal como, por exemplo, a mudança entre interfaces de usuário exibidas no dispositivo ou entre aplicativos ativos e exibidos no dispositivo, aplicativos de abertura ou fechamento, ou rolagem através de conteúdo exibido (por exemplo, documentos, páginas de rede, ou imagens). Conforme reiterado em outro lugar, essa revelação considera qualquer gesto adequado associado com a funcionalidade descrita em relação às Figuras 33-37.
[000148] As Figuras 38-39 ilustram gestos exemplares onde o sensor voltado no sentido para fora detecta a mão do usuário no ângulo de visada 3805 e detecta um ou mais dedos apontando em uma direção (conjuntamente, em modalidades especificas, uma porção da mão ou braço do usuário) 3815. 0 gesto detectado pode depender dos dedos detectados ou da direção em que os dedos detectados estão apontando. Por exemplo, conforme ilustrado na Figura 38, o dedo pode ser um polegar apontando para cima 3820, e na Figura 39 o dedo pode ser um polegar apontando para baixo 3920. Qualquer funcionalidade adequada pode ser associada com os gestos ilustrados nas Figuras 38-39, tal como salvar ou apagar um arquivo localmente no dispositivo ou em um dispositivo associado, ou aprovar ou desaprovar as mudanças feitas nas configurações ou outro conteúdo.
[000149] A Figura 40 ilustra um gesto exemplar envolvendo um formato feito com múltiplos dedos ou uma porção da mão no ângulo de visada do sensor voltado no sentido para fora. Conforme ilustrado na Figura 40, o formato pode ser um anel 4010, e o gesto pode incluir os dedos não envolvidos no formato apontando em uma direção especifica 4015. Conforme ilustrado na Figura 40, um gesto pode incluir a manutenção do formato 4020 (e possivelmente os outros dedos) por um periodo de tempo predeterminado.
[000150] As Figuras 41-42 ilustram gestos exemplares incluindo a cobertura de todo ou de uma porção do sensor voltado no sentido para fora com os dedos ou a mão do usuário. A cobertura do sensor a partir do topo do dispositivo com um gesto do tipo polegar para baixo 4105 (conforme ilustrado na Figura 41} pode ser um gesto diferente da cobertura do sensor a partir de baixo do dispositivo 4210 (como ilustrado na Figura 42) ou os lados do dispositivo. A direção da cobertura pode ser detectada mediante, por exemplo, o formato da mão ao cobrir o dispositivo, a orientação da mão ao cobrir o dispositivo, os dados a partir de outros sensores indicando a direção na qual o sensor voltado no sentido para fora está sendo coberto (por exemplo, detectando que o display e o sensor voltado no sentido para fora estão cobertos), ou qualquer outra técnica adequada.
[000151] As Figuras 43-44 ilustram gestos exemplares onde um ou mais dos dedos do usuário ou porção de uma mão/braço são detectados no ângulo de visada do sensor voltado no sentido para fora 4305/4405, e então deslocados dentro do ângulo de visada (ou "quadro") para realizar um gesto especifico 4310/4320/4410/4420. Em modalidades especificas, um gesto pode ser qualquer movimento adequado ou pode ser movimento em um padrão especifico. Em modalidades especificas, um gesto pode ser associado com os dedos ou uma porção da mão/braço detectado. Por exemplo, um único dedo que aponta pode ser associado com um gesto 4305 (como ilustrado na Figura 43) ou múltiplos dedos/uma palma de mão podem ser associados com um gesto 4405 (conforme ilustrado na Figura 44). Em modalidades especificas, a direção da palma da mão (por exemplo, frente/dorso em um ângulo) pode ser detectada e associada com um gesto.
[000152] A Figura 45 ilustra um gesto exemplar incluindo a detecção de um formato com múltiplos dedos ou a mão/braço do usuário 4505, e a detecção do movimento do formato no ângulo de visada 4510/4520. A Figura 45 ilustra o formato da Figura 40 se movendo por todo o ângulo de visada do sensor voltado no sentido para fora.
[000153] A Figura 46 ilustra um gesto exemplar que envolve a detecção de um ou mais dedos (alguma parte ou toda uma mão/braço do usuário) e a orientação inicial dos mesmos, e detecção subsequente da mudança em orientação ou a taxa de mudança de orientação com o passar do tempo. Por exemplo, a Figura 46 ilustra a detecção de dois dedos em um ângulo de visada na etapa 4605, detectando os dedos e a extremidade da mão no ângulo de visada na etapa 4610, detectando os dedos fazendo um formato de "C" na etapa 4615, decodificando uma orientação inicial do formato "C" na etapa 4620, decodificando uma mudança em orientação do formato "C" na etapa 4625, determinando um valor rotacional relativo do formato "C" na etapa 4630, e detectando o gesto na etapa 4635. Essa revelação considera qualquer formato adequado feito com os dedos/mão/braço do usuário.
[000154] A Figura 47 ilustra um gesto exemplar que envolve detectar o número de dedos em uma posição especifica no ângulo de visada do sensor voltado no sentido para fora. Por exemplo, a Figura 47 ilustra a detecção das pontas dos dedos em um ângulo de visada na etapa 4705, tal como, por exemplo, um polegar estendido, um polegar e um dedo estendidos, ou um polegar e dois dedos estendidos. A configuração de orientação da ponta do dedo, especifica é detectada na etapa 4710, e o mapeamento da configuração para pelo menos uma contagem numérica dos dedos é realizada na etapa 4715 para detectar o gesto na etapa 4725. Cada uma das imagens exibidas pode ser um gesto diferente. Essa revelação considera qualquer posição adequada dos dedos que compreende um gesto. Em relação a todo o outro gesto exemplar descrito aqui, essa revelação considera qualquer funcionalidade adequada associada aos gestos. Por exemplo, cada gesto da Figura 47 pode ser associado a um contato para chamar, correio eletrônico ou texto e o gesto detectado pode ativar a chamada, correio eletrônico, ou texto para o contato atribuído ao gesto. Em modalidades específicas, a posição da mão/braço/dedos pode indicar qual método de contato deve ser usado para o contato associado com o gesto.
[000155] As Figuras 48-49 ilustram gestos exemplares envolvendo sensores duais no dispositivo. Por exemplo, a Figura 48 ilustra um sensor na porção de braçadeira inferior do dispositivo. Esses sensores detectam a posição da outra mão do usuário em relação ao dispositivo, e detectam a separação da mão a partir do sensor. Em modalidades específicas, o gesto pode incluir a determinação de que as duas mãos estão se movendo, tal como, por exemplo, mediante informação adicional fornecida por um ou mais sensores inerciais no dispositivo ou mediante uma câmera voltada no sentido para dentro (por exemplo, voltada para o corpo do usuário) detectando o movimento do dispositivo por intermédio de mudança no cenário. Por exemplo, na Figura 48 uma mão é detectada no ângulo de visada na etapa 4805. Um sensor detecta que a mão está em um formato apertado na etapa 4810 e o mesmo sensor ou outro sensor detecta que o dispositivo está em uma orientação horizontal na etapa 4815. Um sensor detecta a mão se movendo em relação ao dispositivo na etapa 4820 e estima a posição relativa na etapa 4825. O gesto é detectado na etapa 4830. Similarmente, a Figura 49 ilustra um gesto exemplar envolvendo também a detecção da mão do usuário no ângulo de visada e subsequentemente se afastando de um sensor de dispositivo. Contudo, na Figura 49 o sensor de dispositivo está posicionado no topo do dispositivo (por exemplo, um sensor voltado para frente) . Como um exemplo, uma mão é detectada no ângulo de visada de uma câmera voltada para frente na etapa 4 905. A mão é detectada em um formato apertado na etapa 4915, e o dispositivo é detectado em uma orientação horizontal na etapa 4915. A mão se desloca mais para próximo ou mais para longe do dispositivo na etapa 4920, e a estimativa de posição relativa é realizada na etapa 4925, em cujo momento o gesto é detectado na etapa 4930.
[000156] As Figuras 50-58 ilustram gestos exemplares detectados por ao menos um sensor voltado para frente (por exemplo, sensor no topo do dispositivo). Quaisquer dos gestos das Figuras 50-58 podem ser detectadas pelos sensores em qualquer outro local adequado (por exemplo, voltado no sentido para fora, conforme descrito acima), e quaisquer dos gestos detectados por um sensor descritos em outro local podem ser detectados por um sensor voltado para frente, onde apropriado. A Figura 50 ilustra um gesto exemplar envolvendo uma ou mais pontas de dedos pairando sobre o dispositivo, e o sensor voltado para frente detecta as pontas dos dedos na etapa 5005, detecta a posição das pontas dos dedos ou movimento (ou ausência de movimento) dessas pontas de dedos nas etapas 5010 e 5015 para detectar um gesto na etapa 5020. A Figura 51 ilustra um gesto exemplar no qual as etapas 5105 e 5110 são idênticas a 5005 e 5010, respectivamente. Contudo, as pontas de dedos detectadas se movem para longe do sensor voltado para frente na etapa 5115; em modalidades especificas, um gesto pode incluir a detecção de uma ou mais das pontas de dedos mudando de posição em relação umas às outras, tal como, por exemplo, se separando como na etapa 5120. A Figura 52 ilustra as pontas de dedos detectadas pelo sensor na etapa 5205, as pontas de dedo se movendo conjuntamente na etapa 5210, os dedos se movendo em direção ao dispositivo na etapa 5215, e a duração de cujo movimento na etapa 5220 para detectar o gesto na etapa 5225. Conforme ilustrado na Figura 53, em modalidades especificas um gesto pode incluir a detecção de uma mudança em posição relativa das pontas de dedo além do movimento das pontas de dedo em direção ao sensor. Por exemplo, na etapa 5305 um ou dois dedos são detectados na superfície frontal; na etapa 5310 os dedos são detectados se movendo para cima ou para baixo; e um gesto é detectado na etapa 5315. Em modalidades especificas, a duração do gesto das Figuras 50-52 pode determinar se um gesto é detectado; ou diferentes durações podem compreender gestos diferentes.
[000157] As Figuras 54-57 ilustram gestos exemplares envolvendo o movimento de um ou mais dedos ou movimento de uma porção de uma mão/braço através da face do dispositivo (e, assim, através do sensor voltado para frente). Conforme ilustrado, um gesto pode depender do número de dedos usados (por exemplo, dois dedos vs. uma palma de mão inteira); na direção de movimento através da face de dispositivo (por exemplo, de baixo para cima ou da esquerda para a direita); da duração do movimento através da face de dispositivo, da proximidade dos dedos detectados ou mão/braço em relação à face de dispositivo; da porção da face de dispositivo (por exemplo, todo ou uma porção, e a localização relativa da porção (por exemplo, metade inferior)); ou se as porções detectadas estão inicialmente no ângulo de visada do sensor voltado para frente, inicialmente fora do ângulo de visada, extremidade no ângulo de visada, ou extremidade fora do ângulo de visada. Por exemplo, o gesto da Figura 54 pode incluir a detecção de um ou dois dedos detectados na superfície frontal na etapa 5405; a detecção dos dedos se movendo à esquerda na etapa 5410, e a detecção do gesto na etapa 5415. Como outro exemplo, a Figura 55 pode incluir a detecção de um ou dois dedos detectados na superfície frontal na etapa 5505, a detecção dos dedos se movendo à direita na etapa 5510, e a detecção do gesto na etapa 5515. Como outro exemplo, a Figura 56 pode incluir a detecção de nenhum dedo na etapa 5605, a detecção de múltiplos dedos entrando no ângulo de visada a partir da esquerda, a detecção da superfície frontal coberta, a detecção dos dedos saindo do quadro na etapa 5620, e a detecção de um gesto na etapa 5625. Ainda como outro exemplo, a Figura 57 pode incluir a detecção de nenhum dedo na etapa 5705, a detecção de múltiplos dedos entrando no ângulo de visada a partir da direita na etapa 5710, a detecção de uma cobertura da superfície frontal total na etapa 5715, a detecção dos dedos saindo do ângulo de visada na etapa 5720, e a detecção de um gesto na etapa 5725. Como com todos os gestos aqui descritos, qualquer combinação adequada desses fatores (e quaisquer outros fatores adequados associados com os gestos) pode ser usada para determinar um gesto ou funcionalidade correspondendo ao gesto. Qualquer funcionalidade adequada pode se associada com um gesto, tal como, por exemplo, mudança entre telas de interface gráfica de usuário, rolamento através de conteúdo exibido, ou rolamento através de aplicativos ou dispositivos disponíveis para comunicação/emparelhamento.
[000158] A Figura 58 ilustra um gesto exemplar envolvendo um ou mais dedos detectados na extremidade do dispositivo, e pode incluir o movimento desses dedos em torno de toda ou de uma porção da extremidade do dispositivo. Por exemplo, conforme ilustrado na Figura 58, um gesto pode incluir a detecção de nenhum dedo na etapa 5805, a detecção de um único dedo na extremidade da face frontal na etapa 5810, a detecção de um dedo se movendo ao longo da extremidade na etapa 5815, a decodificação do movimento angular do dedo em relação ao dispositivo na etapa 5820, e a detecção de um gesto na etapa 5825. Como um exemplo de funcionalidade associada com esse gesto, o movimento do dedo pode gerar algum ou todo o conteúdo exibido no dispositivo.
[000159] Em modalidades especificas, um gesto pode incluir um movimento do dispositivo usável, tal como, por exemplo, pelo braço usando o dispositivo. 0 movimento pode ser detectado mediante quaisquer sensores adequados, tal como sensores inerciais, sensores de orientação, ou qualquer combinação adequada dos mesmos. As Figuras 59-66 ilustram gestos exemplares envolvendo a detecção do vetor de gravidade em relação ao dispositivo (por exemplo, apontando na direção da face do dispositivo ou apontando para baixo através da base) e detectando movimento subsequente do dispositivo em relação àquele vetor de gravidade. Por exemplo, a Figura 59 pode incluir a detecção da gravidade apontando no sentido para baixo através da face na etapa 5905, a detecção da aceleração do dispositivo ao longo do mesmo eixo que o vetor de gravidade apontando na etapa 5910, a detecção de que a aceleração do dispositivo permanece por algum periodo de tempo na etapa 5915, e a detecção de um gesto na etapa 5920. A Figura 60 é substancialmente similar ao gesto da Figura 59, exceto que o vetor de gravidade aponta para baixo através da base (mais propriamente do que a face) na etapa 6005. A Figura 61 ilustra um gesto que utiliza um vetor de gravidade para determinar a orientação/posição do dispositivo, por exemplo, que o dispositivo não está no corpo do usuário. 0 movimento do dispositivo a partir da orientação detectada (tal como, por exemplo, perpendicular ao vetor de gravidade) pode ser detectado, resultando em um gesto. Por exemplo, uma orientação de gravidade detectada pode indicar que um braço não está ao lado do corpo na etapa 6105, uma aceleração lateral do dispositivo pode ser detectada na etapa 6110, a aceleração pode ser detectada por algum tempo na etapa 6115, e um gesto pode ser detectado na etapa 6120. Conforme indicado nas Figuras 5961, a detecção de um aspecto do movimento (por exemplo, duração de aceleração) pode acionar um gesto, e faixas de um aspecto (faixas de duração de movimento) podem corresponder individualmente a um gesto diferente. As Figuras 62-63 ilustram o movimento rotacional de um dispositivo. Como na Figura 61, a detecção da orientação inicial ou posição do dispositivo pode ser parte da detecção de gesto. Por exemplo, o gesto da Figura 62 pode incluir a detecção de que o vetor de gravidade indica que o braço não está ao lado do corpo na etapa 6205, a detecção de algum movimento rotacional na etapa 6210, a estimativa de que o raio do movimento rotacional é suficientemente amplo para movimento de cotovelo na etapa 6512, a estimação da rotação relativa na etapa 6220, e a detecção de um gesto na etapa 6225. Como outro exemplo, o gesto da Figura 63 pode incluir a detecção de que o vetor de gravidade indica que o braço não está ao lado do corpo na etapa 6305, a detecção de algum movimento rotacional na etapa 6310, a estimativa de que o raio do movimento rotacional é suficientemente pequeno para movimento de pulso na etapa 6315, a estimativa da rotação relativa na etapa 6320, e a detecção de um gesto na etapa 6325. Conforme ilustrado nas Figuras 62-63, um gesto pode incluir a estimativa do tipo de rotação do dispositivo, tal como, por exemplo, a rotação principalmente do ombro (Figura 62), rotação principalmente a partir do cotovelo (Figura 63), ou qualquer outra rotação adequada. Adicionalmente ou alternativamente ao raio de rotação, um gesto pode incluir a detecção do grau de rotação, duração de rotação, aceleração radial da rotação, qualquer outro aspecto adequado da rotação, ou qualquer combinação adequada dos mesmos.
[000160] Como para as Figuras 61-63, a Figura 64 indica um gesto envolvendo a detecção da orientação inicial ou posição do dispositivo. Por exemplo, o gesto da Figura 64 pode incluir a detecção do vetor de gravidade indicando que o braço não está ao lado do corpo na etapa 6405, a detecção de aceleração lateral do braço ao longo do eixo do braço na etapa 6410, a detecção de que a aceleração permanece por algum tempo na etapa 6415, e a detecção de um gesto na etapa 6420. A Figura 65 ilustra que um gesto pode incluir o movimento do dispositivo ao longo do eixo do acessório usando o dispositivo, tal como, por exemplo, a aceleração do dispositivo ao longo desse eixo. 0 gesto pode incluir um impacto ao longo da trajetória de movimento (por exemplo, causado pela mão parando ou contatando um objeto) e inversão subsequente do movimento. O movimento para trás e para frente pode ser repetido até que o movimento seja interrompido ou até que a mão retorne para alguma posição, tal como, por exemplo, para o lado do usuário. Em modalidades especificas, diferentes gestos pode se basear no número ou frequência do movimento para trás e para frente. Por exemplo, o gesto da Figura 65 pode incluir a detecção do vetor de gravidade indicando que o braço não está ao lado do corpo na etapa 6505, detectando que a mão está em movimento na etapa 6510, detectando um impulso (impacto) ao longo da trajetória do movimento na etapa 6515, detectando que a mão inverteu o movimento ao longo da mesma trajetória linear na etapa 6520, repetindo as etapas 6515 e 6520 conforme adequado, detectando que o movimento é interrompido por algum tempo na etapa 6525, e detectando um gesto na etapa 6530.
[000161] As Figuras 66-68 ilustram gestos exemplares com base na detecção de movimento que combina com um gabarito de movimento predeterminado, o qual pode ser customizado pelo usuário ou criado pelo usuário. Em modalidades especificas, os gestos que podem ser customizados podem incluir uma posição ou orientação inicial do dispositivo, movimento ou aspectos de movimento em uma direção específica, parada ou início de movimento, duração de movimento ou qualquer outro parâmetro de movimento adequado. Alguns ou todos os parâmetros podem ser customizados por usuário, em modalidades específicas. Em modalidades específicas, um gesto detectado pode ser determinado mediante equiparação do movimento detectado com o gabarito de movimento disponível mais aproximado. Por exemplo, conforme ilustrado nas Figuras 66-68, um gesto pode corresponder a uma posição horizontal ou movimento do braço ou dedos. Por exemplo, conforme ilustrado na Figura 66, um gesto pode incluir a detecção de um vetor de gravidade orientado para baixo através da parte inferior da base do dispositivo na etapa 6605, detectando o movimento para frente e para dentro na etapa 6610, equiparando um gabarito de movimento na etapa 6615 (por exemplo, utilizando módulos de reconhecimento de gesto heurísticos, numéricos ou baseados em padrão da Figura 19) , e detectando um gesto na etapa 6620. A Figura 67 pode incluir a detecção de um vetor de gravidade orientado lateralmente através da parte inferior da base do dispositivo na etapa 6705, detectando o movimento para frente e para dentro na etapa 6710, equiparando um gabarito de movimento na etapa 6715 (por exemplo, utilizando módulos de reconhecimento de gesto, heurísticos, numéricos ou baseados em padrão da Figura 19), e detectando um gesto na etapa 6720. A Figura 68 pode incluir a detecção de um vetor de gravidade indicando que um braço não está ao lado do corpo na etapa 6805, detectando o movimento do dispositivo na etapa 6810, detectando a parada de movimento na etapa 6815, equiparando um gabarito de movimento na etapa 6820, selecionando a melhor equiparação de movimento-gabarito na etapa 6825, e detectando um gesto na etapa 6830. Embora as Figuras 66-68 ilustrem exemplos específicos de gestos que podem ser customizados correspondendo aos gabaritos de movimento específicos, essa revelação considera quaisquer gestos adequados (ou qualquer aspecto dos mesmos) detectados por quaisquer sensores adequados sendo customizados por um usuário do dispositivo.
[000162] Em modalidades especificas, o gesto pode incluir opcionalmente a detecção de alguma entrada de não movimento ou de não orientação. Por exemplo, as Figuras 69-71 ilustram um gesto compreendendo detecção de acústica, embora os gestos ilustrados não exijam tal detecção. A Figura 69 ilustra uma saida acústica (tal como, por exemplo, o toque a partir de uma chamada telefônica de chegada ou de saida) ou resposta, seguida por algum movimento do dispositivo (tal como o dispositivo sendo trazido para a face de um usuário) . Por exemplo, uma resposta de áudio ou saida é iniciada na etapa 6905, movimento para cima é detectado na etapa 6910, interrupção do movimento para cima é detectado na etapa 6915, o vetor de gravidade está dentro de uma janela predeterminada na etapa 6920, e um gesto é detectado na etapa 6925. Em modalidades especificas, um gesto pode incluir a detecção do vetor de gravidade em uma orientação especifica ou janela de orientação, conforme ilustrado. O gesto da Figura 69 também pode incluir a detecção da posição da mão/dedos do usuário. Como um exemplo de funcionalidade que pode ser associada ao gesto ilustrado na Figura 69, se os dedos forem trazidos para próximo da orelha ou face na posição indicada, o usuário pode responder ou estabelecer uma chamada telefônica. A Figura 70 e etapas 7005-7025 ilustram um gesto exemplar que tem atributos similares que aqueles descritos para a Figura 69, mas envolvendo diferente orientação da mão/dedos do usuário. A Figura 71 ilustra um gesto exemplar incluindo acústica gerada pelo usuário (por exemplo, pelo usuário unindo os seus dedos), o que é detectado por um microfone associado ao dispositivo. Por exemplo, a Figura 71 pode incluir a detecção de um vetor de gravidade indicando que um braço não esteja ao lado do corpo na etapa 7105, detectando um movimento com aceleração relativamente elevada na etapa 7110, detectando uma súbita mudança em uma ou mais frequências acústicas na etapa 7115, e detectando um gesto na etapa 7120. Conforme ilustrado na Figura 71, o movimento brusco pode ser detectado apenas pelo movimento gerado isoladamente pelo movimento brusco (por exemplo, pela vibração da mão/pele do usuário ou por algum grau ou taxa de mudança de rotação devido ao movimento brusco), ou pode ser detectado pela combinação de movimento mais uma entrada audivel gerada pelo movimento brusco. Em modalidades especificas, a confirmação audivel pode ser detectada dentro de um tempo predeterminado do movimento para o gesto a ser detectado.
[000163] As Figuras 72-73 ilustram gestos exemplares envolvendo o movimento periódico do dispositivo, tal como agitação do braço no qual está o dispositivo na direção lateral vertical. A Figura 72 ilustra um gesto incluindo a detecção do vetor de gravidade indicando que o braço não está ao lado do corpo na etapa 7205, detectando que o dispositivo se movimenta lateralmente para frente em um eixo na etapa 7210, detectando que o dispositivo se move para trás no mesmo eixo na etapa 7215, repetindo as etapas de 7210 e 7215 conforme desejável, e detectando um gesto na etapa 7220. A Figura 73 ilustra um gesto incluindo a detecção do vetor de gravidade indicando que o braço não está ao lado do corpo na etapa 7305, detectando que o dispositivo se move verticalmente para frente em um eixo na etapa 7310, detectando que o dispositivo se move para trás no mesmo eixo na etapa 7315, repetindo as etapas de 7310 e 7315 conforme desejável, e detectando um gesto na etapa 7220. A Figura 74 ilustra um gesto exemplar envolvendo um ajuste da posição/orientação do dispositivo em relação ao corpo do usuário. Por exemplo, o gesto da Figura 74 pode incluir a detecção do vetor de gravidade indicando que o braço está ao lado do corpo na etapa 7405, detectando o vetor de gravidade indicando que o braço está ao lado do corpo na etapa 7410, detectando um gesto na etapa 7415. Qualquer funcionalidade adequada pode ser associada com os gestos das Figuras 72-75, tal como, por exemplo, mudando o dispositivo a partir de um estado de baixo consumo de energia. A Figura 75 ilustra um gesto exemplar que envolve a altura do dispositivo ou a mudança relativa em altura do dispositivo do inicio até a parada do dispositivo. Além da altura do dispositivo, um gesto pode incluir a orientação do dispositivo antes, durante ou após o gesto. Por exemplo, um gesto pode incluir a detecção do vetor de gravidade indicando que o braço não está ao lado do corpo na etapa 7505, a detecção do movimento para cima na etapa 7510, a detecção de parada do movimento para cima na etapa 7515, a detecção de que o vetor de gravidade aponta através do lado da base do dispositivo na etapa 7520, e a detecção de um gesto na etapa 7525. Qualquer funcionalidade adequada pode ser associada com o gesto da Figura 75, tal como, por exemplo, ativação do equipamento emparelhado com o dispositivo, ligação de uma ou mais luzes em um ambiente, ou ativação de equipamento próximo ao dispositivo.
[000164] Em modalidades especificas, um gesto pode incluir a interação diretamente com o corpo ou braçadeira de um dispositivo usável. Por exemplo, a Figura 76 ilustra um gesto envolvendo contato com uma área sensivel ao toque de uma braçadeira usada em torno do pulso do usuário. O gesto pode incluir a detecção de que o dispositivo não esteja em um estado bloqueado na etapa 7605, detecção de uma ausência de toque em uma braçadeira na etapa 7610, a detecção de toque na braçadeira na etapa 7615, a decodif icação da posição do toque na etapa 7620 e a detecção de um gesto na etapa 7 625. A Figura 77 ilustra que os toques em múltiplas posições podem ser determinados como sendo um único gesto, tal como, por exemplo, para desbloquear um dispositivo ou aspectos do dispositivo. 0 gesto pode incluir a detecção de que o dispositivo não esteja em um estado bloqueado na etapa 7705, detectando uma ausência de toque em uma braçadeira na etapa 7710, a detecção de toque na braçadeira na etapa 7715, a decodificação da posição do toque na etapa 7720, a decodificação de uma ação na etapa 7725, e a detecção de um gesto na etapa 7730. A Figura 78 ilustra que um gesto pode incluir contatar uma área sensivel ao toque de um dispositivo e deslizar através de uma área sensivel ao toque enquanto mantendo contato com o dispositivo. 0 gesto pode incluir a detecção de que o dispositivo não esteja em um estado bloqueado na etapa 7805, a detecção de uma ausência de toque em uma braçadeira na etapa 7810, a detecção de toque na braçadeira na etapa 7815, a detecção de movimento do ponto(s) de toque na etapa 7820, a decodificação de movimento relativo na etapa 7825, e a detecção de um gesto na etapa 7830. Em modalidades especificas, um gesto pode incluir a duração de contato, área fisica de contato (por exemplo, um dedo ou dois dedos) , a sequência de contato, a presença gerada pelo contato, ou qualquer outro tributo relacionado a contato, adequado. Embora as Figuras 76-78 ilustrem contato com uma área sensivel ao toque em uma braçadeira, essa revelação considera que um gesto pode envolver um contato em uma área sensivel ao toque em qualquer local adequado do dispositivo, tal como a braçadeira de dispositivo, anel, display ou qualquer combinação dos mesmos. Por exemplo, as Figuras 78-80 ilustram o contato com áreas sensiveis ao toque em um anel do dispositivo, similar aos gestos das Figuras 77-78. Por exemplo, um gesto pode incluir a detecção de que o dispositivo não esteja em um estado bloqueado na etapa 7 905, a detecção de ausência de toque em um anel na etapa 7915, a detecção de toque no anel na etapa 7920, e a detecção de um gesto na etapa 7925. Como outro exemplo, um gesto pode incluir a detecção de que o dispositivo não esteja em um estado bloqueado na etapa 8005, a detecção de ausência de toque em um anel na etapa 8010, a detecção de toque no anel na etapa 8015, a detecção de movimento do ponto de toque na etapa 8020, a decodificação de movimento relativo na etapa 8025, e a detecção de um gesto na etapa 8030. A Figura 81 ilustra um gesto envolvendo contato de múltiplos toques com uma área sensivel ao toque de uma face de dispositivo, e detecção de movimento subsequente dos pontos de contato, causada, por exemplo, pelo movimento dos dedos contatando a área sensivel ao toque ou mediante movimento do pulso/mão no qual o dispositivo é usado. O gesto pode incluir detectar se o dispositivo não está em um estado bloqueado na etapa 8105, detectar a ausência de toque em uma superfície na etapa 8110, detectar pelo menos dois dedos tocando a superfície na etapa 8115, detectar o movimento dos pontos de toque na etapa 8120, decodificar o movimento relativo na etapa 8125, e detectar um gesto na etapa 8130. O movimento do pulso/mão pode ser detectado mediante, por exemplo, sensores inerciais no dispositivo, permitindo as diferentes formas de mover os pontos de toque para constituir dois gestos distintos. A Figura 82 ilustra um gesto envolvendo contato inicial com um dispositivo, o qual pode ser detectado por um ou mais sensores de proximidade no ou dentro do dispositivo, ou sensores inerciais no dispositivo ou próximo ao mesmo. 0 gesto pode envolver detectar se o contato persiste, indicando que, por exemplo, o usuário ligou o dispositivo. Por exemplo, o gesto pode incluir a detecção de nenhum contato com o sensor de proximidade de braçadeira ou sensor traseiro na etapa 8205, detectando o contato pelo sensor de proximidade na etapa 8210, detectando se o contato persiste na etapa 8215, e detectando um gesto na etapa 8220. O gesto da Figura 82 pode desbloquear ou ligar um dispositivo inativo, ou proporcionar qualquer outra funcionalidade adequada.
[000165] Em modalidades específicas, um gesto pode incluir contato com a pele próximo ao dispositivo. A Figura 83 ilustra um gesto envolvendo bater levemente na pele próximo de onde o dispositivo é usado. A ação de bater levemente pode ser detectada por sensores de vibração no dispositivo. O movimento de bater levemente pode ser confirmado, por exemplo, por um ou mais sensores acústicos detectando o som gerado pelo gesto de bater levemente. Por exemplo, o gesto pode incluir detectar se o dispositivo está desbloqueado na etapa 8305, detectar o movimento com uma aceleração relativamente elevada na etapa 8310, detectar o som, por exemplo, de uma leve batida na etapa 8315, equiparar o movimento ou som com um padrão na etapa 8320, e detectar um gesto na etapa 8325. A Figura 84 ilustra um gesto envolvendo a passagem da pele próximo ao dispositivo, o que pode ser detectado e confirmado pelos sensores descritos na Figura 83, acima. Por exemplo, o gesto pode incluir a detecção de que o dispositivo esteja desbloqueado na etapa 8405, detectar o movimento com uma aceleração relativamente elevada na etapa 8410, detectar o som, por exemplo, de uma leve batida na etapa 8415, detectar as vibrações ou o som de movimento lateral sobre a pele na etapa 8420, equiparar o movimento ou o som com um padrão na etapa 8425, e detectar um gesto na etapa 8430.
[000166] Em modalidades específicas, os gestos podem envolver a detecção de gestos metafóricos feitos pela mão que não está usando o dispositivo. Por exemplo, tal gesto pode ser detectado, por exemplo, mediante qualquer sensor voltado para frente, adequado sobre ou próximo do display do dispositivo orientado de tal modo que a mão que não está usando o dispositivo esteja no ângulo de visada do sensor. A Figura 85 ilustra um gesto exemplar envolvendo um movimento de detecção de sensor voltada para frente de múltiplos dedos, tal como a ação de bater levemente com os dedos. Por exemplo, o gesto pode incluir a determinação de que o dispositivo esteja em uma orientação predeterminada na etapa 8505, detectar uma ponta de dedo na etapa 8510, detectar o movimento da ponta de dedo na etapa 8515 ou detectar um som de batida leve na etapa 8525, e detectar um ou mais gestos nas etapas 8520 e 8530. A Figura 86 ilustra um gesto exemplar envolvendo o movimento de um único dedo. Por exemplo, o gesto pode incluir a determinação de que o dispositivo esteja em uma orientação predeterminada na etapa 8605, detectar uma ponta de dedo na etapa 8610, detectar o movimento da ponta de dedo na etapa 8615 ou detectar um som de batida leve na etapa 8525, e detectar um ou mais gestos na etapa 8620. A Figura 87 ilustra um gesto envolvendo a detecção do movimento de uma mão segurando um objeto, detecção do movimento do objeto, conexão com o objeto, e então detectando o movimento subsequente do objeto. Como um exemplo especifico, o gesto pode incluir a detecção de que o dispositivo esteja em uma orientação predeterminada na etapa 8705, detecção de uma mão na etapa 8710, detecção do movimento da mão na etapa 8715, detecção de um objeto adicional movendo a mão na etapa 8720, conexão com o objeto na etapa 8725, detectar o movimento do objeto na etapa 8730, e detectar um gesto na etapa 8735. Por exemplo, um objeto pode ser uma caneta ou outro implemento semelhante à agulha, e o sensor voltado para frente no dispositivo pode detectar movimentos de gravação do implemento, por exemplo, para gerar/armazenar texto no dispositivo ou em outro dispositivo se comunicando com o dispositivo usável. 0 exemplo da Figura 87 pode permitir que um usuário gere os desenhos, notas, ou outro conteúdo escrito sem efetivamente gerar conteúdo escrito em um display ou outra superficie de gravação. Conforme descrito aqui mais completamente, qualquer gesto adequado ou combinação de gestos pode ser usado para impactar ou iniciar a funcionalidade de realidade aumentada ("AR"), e pode ser usado para realizar as tarefas utilizando funcionalidade AR, Por exemplo, os gestos das Figuras 85-87 podem ser usados para capturar uma interação do usuário com um teclado virtual, mouse virtual ou tela de toque virtual e essas interações podem gerar entrada no dispositivo que pode ser usado ou qualquer outro dispositivo emparelhado adequado. Embora essa revelação descreva exemplos específicos de gestos metafóricos e detecção de objeto (e funcionalidade associada), essa revelação considera quaisquer gestos metafóricos adequados, detecção de quaisquer objetos adequados, e tais gestos associados com qualquer funcionalidade adequada.
[000167] Em modalidades especificas, um gesto pode envolver o acessório inteiro no qual um dispositivo é afixado ou usado. Por exemplo, as Figuras 88-92 ilustram gestos exemplares envolvendo o movimento do braço no qual o dispositivo é usado. Os gestos podem incluir a detecção da posição inicial do braço (por exemplo, por intermédio de um acelerômetro detectando a direção do vetor de gravidade), detecção do movimento do dispositivo (por intermédio do braço), detecção da mudança correspondente no vetor de gravidade, e detecção de que o braço parou de se mover. Tais gestos também podem incluir a detecção da duração de movimento, a quantidade de movimento (por exemplo, a detecção de um grande raio de movimento, confirmando se o braço inteiro se moveu), a aceleração de movimento, ou quaisquer outros atributos relacionados ao movimento. Conforme ilustrado pelas Figuras 88-92, os gestos podem envolver a detecção dos movimentos de braço acima da cabeça, para frente, para o lado, para trás ou para baixo a partir de uma posição de partida inicialmente superior. Por exemplo, um gesto pode incluir a detecção de um vetor de gravidade indicando que uma mão está no lado no corpo na etapa 8805, detectando o movimento para cima da mão na etapa 8810, detectando que o vetor de gravidade indica que a mão esteja acima da cabeça na etapa 8815, detectando o movimento de interromper o movimento da mão na etapa 8820, e detectando um gesto na etapa 8825. Como outro exemplo, um gesto pode incluir a detecção de um vetor de gravidade indicando uma mão em um lado do corpo na etapa 8905, detectando o movimento para cima e para frente da mão na etapa 8910, detectando se o vetor de gravidade indica que a mão está horizontal na etapa 8915, detectando um movimento de parar a mão na etapa 8920, e detectar um gesto na etapa 8925. Como outro exemplo, um gesto pode incluir a detecção de um vetor de gravidade indicando que uma mão esteja na horizontal na etapa 9005, detectando a mão se movendo no sentido para baixo e no sentido para trás na etapa 9010, detectando que o vetor de gravidade indica que a mão está ao lado na etapa 9015, detectando um movimento de parada da mão na etapa 9020, e detectando um gesto na etapa 9025. Como outro exemplo, um gesto pode incluir detectar um vetor de gravidade indicando que uma mão está ao lado do corpo na etapa 9105, detectar a mão se movendo para cima e para trás na etapa 9110, detectar se o vetor de gravidade indica que a mâo está horizontal na etapa 9115, detectar um movimento de parar a mão na etapa 9120 e detectar um gesto na etapa 9125. Como outro exemplo, um gesto pode incluir detectar um vetor de gravidade indicando que uma mão está ao lado do corpo na etapa 9205, detectar a mão se movendo para cima e no sentido para fora na etapa 9210, detectar se o vetor de gravidade indica que a mão está horizontal na etapa 9215, detectar o movimento de parada da mão na etapa 9220, e detectar um gesto na etapa 9225. Em modalidades especificas, os gestos podem envolver um movimento do corpo inteiro mais propriamente do que apenas o acessório no qual o dispositivo é usado.
[000168] Em modalidades especificas, um usuário pode interagir com o dispositivo por intermédio de uma variedade de mecanismos de entrada ou tipos incluindo, por exemplo, o anel externo, interfaces sensiveis ao toque (por exemplo, camada sensivel ao toque), gestos realizados pelo usuário (aqui descritos), ou uma interface de fala (por exemplo, incluindo entrada de voz e reconhecimento de fala para aplicativos incluindo entrada de texto, comunicação ou busca). Adicionalmente, em modalidades especificas, um usuário pode interagir com a interface gráfica de usuário apresentada em um display circular do dispositivo por intermédio de qualquer um dos mecanismos ou tipos de entrada.
[000169] Um usuário do dispositivo eletrônico usável pode interagir com o dispositivo (incluindo, por exemplo, uma interface gráfica de usuário apresentada no display circular) mediante uso do anel externo. Em modalidades especificas, o anel externo pode ser sensível ao toque, de tal modo que ura toque do usuário em uma ou mais porções do anel pode ser detectado como uma entrada para o dispositivo e interpretado, fazendo com que uma ou mais ações sejam realizadas pelo dispositivo (por exemplo, dentro de uma interface gráfica do usuário do dispositivo) . Como um exemplo, um anel externo sensivel ao toque pode ser um anel capacitivo ou anel indutivo, e um usuário do dispositivo pode realizar qualquer gesto de toque adequado no anel sensivel ao toque para fornecer entrada ao dispositivo. A entrada pode, por exemplo, incluir a passagem no anel com um dedo, a passagem no anel com dois ou mais dedos, realizando um gesto rotacional com um ou mais dedos, ou comprimindo o anel. Em modalidades especificas, o anel externo pode ser giratório, de tal modo que uma rotação física do anel pode servir como uma entrada para o dispositivo. Adicionalmente, em modalidades específicas, o anel externo pode ser clicado (por exemplo, comprimido) ou apertado. Qualquer uma das modalidades do anel externo pode ser combinada, conforme adequado, de tal modo que o anel pode ser um ou mais de sensível ao toque, giratório, podendo ser clicado (ou comprimido), ou podendo ser apertado. Entradas a partir das diferentes modalidades do anel externo (por exemplo, toque, rotação, clique ou pressão, ou aperto) podem ser interpretadas diferentemente dependendo, por exemplo, da combinação das modalidades de entrada fornecidas por um usuário. Como um exemplo, uma rotação do anel externo pode indicar uma entrada diferente do que uma rotação em combinação com uma ação de clicar ou apertar o anel. Adicionalmente, retorno pode ser fornecido ao usuário quando o usuário fornece entrada por intermédio do anel externo, incluindo retorno tátil, retorno de áudio ou retorno visual, descritos aqui.
[000170] A Figura 93A ilustra um exemplo de uma ação de clicar do usuário (por exemplo, comprimir) o anel externo, indicada pelas setas 9310. A Figura 93B ilustra um exemplo de um usuário comprimindo o anel externo, indicado pelas setas 9320. A Figura 94A ilustra um exemplo de um usuário girando o anel externo, e de tal modo que conteúdo 9410 de uma interface gráfica de usuário do dispositivo muda de acordo com a rotação (por exemplo, para a direita). A Figura 94B ilustra um exemplo de um usuário realizando um gesto de giro em um anel sensivel ao toque, sem que o próprio anel gire, de tal modo que o conteúdo 9420 de uma interface gráfica de usuário do dispositivo muda de acordo com a rotação (por exemplo, para a direita) . A Figura 94C ilustra um exemplo de um usuário girando o anel externo enquanto simultaneamente apertando ou realizando a ação de clicar o anel, e de tal modo que o conteúdo 9430 da interface gráfica de usuário do dispositivo muda de acordo com a rotação (por exemplo, para a direita) e a ação de prensar ou clicar.
[000171] Em modalidades especificas, uma interface sensivel ao toque do dispositivo (por exemplo, a camada sensivel ao toque) pode aceitar entrada de toque de usuário e permitir que o dispositivo determine as coordenadas de x-y de um toque de usuário, identifique múltiplos pontos de contato de toque (por exemplo, em diferentes áreas camada sensivel ao toque), e distinga entre diferentes comprimentos temporais de interação de toque (por exemplo, diferencie os gestos incluindo passagem, leve batida única, ou leve batida dupla) . Os gestos de toque (aqui descritos) podem incluir passagem multidirecional ou arrasto, aperto, leve batidas duplas, comprimir ou apertar o display (o que pode causar um movimento fisico do display em uma direção para cima ou para baixo), longa pressão, múltiplos toques (por exemplo, o uso de múltiplos dedos ou implementos para tocar ou gesticular em qualquer lugar na interface sensivel ao toque), ou gestos de toque rotacional. A Figura 95A ilustra um exemplo de um usuário realizando leve batida 9510 em uma interface sensivel ao toque (por exemplo, a camada sensivel ao toque) para fornecer entrada para o dispositivo. As coordenadas de x-y exatas das leves batidas do usuário podem ser determinadas pelo dispositivo através de entrada a partir da interface sensivel ao toque (por exemplo, a camada sensivel ao toque) . A Figura 95B ilustra um exemplo de um usuário realizando, respectivamente, um gesto rotacional no sentido horário 9515, um gesto rotacional no sentido anti-horário 9520, um gesto de passagem vertical 9525, e um gesto de passagem horizontal 9530. A Figura 95C ilustra um exemplo de um usuário tocando o display (incluindo uma camada sensivel ao toque com capacidade de detecção de múltiplos toques) utilizando, respectivamente, um, dois ou três pontos de contato 9535 (por exemplo, com um, dois ou três dedos ou implementos) simultaneamente. A Figura 95D ilustra um exemplo de um usuário realizando gestos de toque que tem múltiplos pontos de contato com a interface sensivel ao toque. O usuário pode, nesse exemplo, realizar um gesto de expansão 9540, um gesto de aperto 9545, um gesto rotacional no sentido horário 9550, ou um gesto rotacional no sentido anti-horário 9555 com dois dedos.
[000172] Em modalidades especificas, uma interface gráfica de usuário do dispositivo pode operar de acordo com um modelo de interação e transição. 0 modelo pode, por exemplo, determinar como os modos incluindo aplicativos, funções, sub-modos, confirmações, conteúdo, controles, ícones ativos, ações, ou outras características ou elementos podem ser organizados (por exemplo, em uma hierarquia) dentro de uma interface gráfica de usuário do dispositivo.
[000173] Em uma modalidade, a interface gráfica de usuário (GUI) inclui múltiplas telas de nível superior em que cada uma corresponde a um modo diferente ou aplicativo (ou sub-modo, função, confirmação, conteúdo, ou qualquer outra característica) do dispositivo. Cada um desses aplicativos pode estar no mesmo nível de hierarquia do modelo de transição e interação da GUI. A Figura 96A ilustra um leiaute exemplar de uma hierarquia dentro da GUI na qual as múltiplas telas de nível superior 9602-9606 e 9610-9614 correspondem individualmente a um aplicativo diferente, e uma das telas de nível superior 9608 (a tela inicial) corresponde a um relógio. Transições de estado dentro da GUI podem ser eventos disparados mediante entrada a partir de uma fonte de entrada tal como o usuário do dispositivo. Uma entrada a partir de um usuário do dispositivo ou a partir de outra fonte de entrada (por exemplo, por intermédio de qualquer um da variedade de mecanismos ou tipos de entrada incluindo o anel externo, interfaces sensíveis ao toque, gestos, fala, ou sensores) pode causar uma transição dentro da GUI (por exemplo, a partir de uma tela de nível superior para outra) . Por exemplo, uma entrada pode fazer com que a GUI mude da tela inicial 9608 (por exemplo, o relógio) para um aplicativo (por exemplo, 3 ou 4) ou a partir de um aplicativo para outro aplicativo. Se o usuário girar o anel externo para a direita, por exemplo, a GUI pode mudar da tela nativa 9608 para o aplicativo 4 9610, e se o usuário girar o anel externo para a esquerda, a GUI pode mudar da tela inicial 9608 para o aplicativo 3 9606. Em ainda outras modalidades, contexto (por exemplo, conforme determinado pelos sensores ou outras fontes de entrada no dispositivo) podem fazer com que a GUI mude da tela inicial para um aplicativo ou a partir de um aplicativo para outro aplicativo.
[000174] Em uma modalidade, o modelo pode incluir a operabilidade para diferenciação do lado "esquerdo" e "direito" em relação à tela inicial. Como um exemplo, uma ou mais telas de nivel superior podem ser associadas com os modos o aplicativos (ou outras caracter!sticas) na hierarquia do modelo de transição e interação da GUI que são fixos (por exemplo, sempre disponíveis para o usuário) ou contextuais ou dinâmicos (por exemplo, disponíveis dependendo do contexto). As telas contextuais podem, por exemplo, refletir os modos, aplicativos ou funções mais recentemente usadas pelo usuário, os modos, aplicativos ou funções mais recentemente adicionadas (por exemplo, baixadas) pelo usuário, dispositivos registrados ad- hoc (que podem, por exemplo, entrar ou sair da faixa de comunicação do dispositivo conforme ele é usado), modos, aplicativos ou funções que são "favoritas" do usuário (por exemplo, designadas explicitamente pelo usuário), ou modos, aplicativos, ou funções que são sugeridos para o usuário (por exemplo, com base na atividade anterior do usuário ou contexto atual). A Figura 96B ilustra um leiaute exemplar de uma hierarquia dentro da GUI na qual aplicativos contextuais ou dinâmicos 9616-9620 e aplicativos fixos 9620-9628 são agrupados separadamente, com o lado esquerdo (em relação à tela de relógio inicial 9622) incluindo aplicativos contextuais, e o lado direito incluindo aplicativos fixos. Como um exemplo, o Aplicativo Dinâmico 01 9620 pode ser o aplicativo mais recentemente usado, e o Aplicativo Dinâmico 02 9618 pode ser o segundo aplicativo mais recentemente usado, e assim por diante.
[000175] Em modalidades especificas, o nivel superior da hierarquia do modelo de interação e transição da GUI pode incluir apenas "faces", e o próximo nivel da hierarquia pode incluir aplicativos (ou quaisquer outras características). Como um exemplo, o nivel superior da hierarquia pode incluir uma tela inicial (por exemplo, o relógio) , e uma ou mais faces, cada face correspondendo a um tipo diferente de segundo plano, modo, ou atividade tal como um papel de parede (por exemplo, que pode ser customizado pelo usuário), informação climática, um calendário ou informação de atividade diária. Cada uma das faces pode mostrar a hora além de qualquer outra informação exibida. Adicionalmente, a face atualmente exibida pode ser selecionada pelo usuário (por exemplo, por intermédio de qualquer mecanismo ou tipo de entrada adequado) ou mudar automaticamente com base no contexto (por exemplo, a atividade do usuário) . As faces à esquerda da tela inicial podem ser contextuais, e as faces à direita da tela inicial podem ser fixas. A Figura 97 ilustra um leiaute exemplar de uma hierarquia dentro da GUI na qual o nivel superior da hierarquia inclui as faces 9710-9770 (incluindo a face de relógio 9740) e o próximo nivel de hierarquia inclui aplicativos 9715-9775.
[000176] Em modalidades especificas, uma entrada a partir de um usuário do dispositivo ou uma entrada a partir de outra fonte de entrada (por exemplo, por intermédio de qualquer uma da variedade de mecanismos ou tipos de entrada incluindo o anel externo, interfaces sensiveis ao toque, gestos, fala, ou sensores), ou um contexto de uso do dispositivo pode causar uma transição dentro da GUI a partir de uma tela em um nivel da hierarquia do modelo de transição e interação da GUI para uma tela em outro nivel da hierarquia. Por exemplo, um evento de seleção ou entrada pelo usuário (por exemplo, um toque ou leve batida no display, entrada de voz, olhar fixo do olho, clique ou pressão sobre o anel externo, compressão do anel externo, quaisquer gestos adequados, movimento muscular interno detectado pelos sensores, ou outra entrada de sensor) pode causar uma transição dentro da GUI a partir de uma tela de nível superior para uma tela encaixada em um nível mais profundo na hierarquia. Se, por exemplo, a tela atual for uma tela de nível superior associada com um aplicativo, um evento de seleção (por exemplo, ação de apertar o anel) seleciona o aplicativo e faz com que a GUI mude para uma tela aninhada em uma camada mais profunda. Essa segunda tela pode, por exemplo, permitir a interação com uma característica do aplicativo selecionado e pode, em modalidades específicas, corresponder a uma função principal do aplicativo selecionado. Pode haver múltiplas telas nessa segunda camada aninhada, e cada uma dessas telas pode corresponder a diferentes funções ou características do aplicativo selecionado. Similarmente, uma entrada de seleção "para trás" ou evento pelo usuário (por exemplo, uma ação de apertar dupla no anel externo ou um gesto de toque em uma parte específica do display) pode causar uma transição dentro da GUI a partir de uma tela (por exemplo, uma característica de um aplicativo específico) para outra tela que está um nível mais alto na hierarquia (por exemplo, a tela de aplicativo de nível superior).
[000177] A Figura 98A ilustra um exemplo da operação do modelo de interação e transação com relação a uma função ou a um modo 9805 de um aplicativo especifico do dispositivo e o uso ou aplicação da função 9810. Como um exemplo, se a aplicação for uma câmera, as funções, modos ou outros elementos da aplicação de câmera podem incluir modo de imagem, modo de video (por exemplo, com uma vista ao vivo), e a ação de ligar ou desligar um flash. As várias funções, modos ou outros elementos podem ser acionados mediante transições dentro de uma única camada da hierarquia de modelo. Essas transições intra-camada podem ocorrer quando do recebimento ou determinação de um tipo especifico de evento de transição ou entrada a partir de uma fonte de entrada tal como o usuário do dispositivo (por exemplo, uma rotação do anel externo no sentido anti-horário ou no sentido horário), ou a partir da determinação de um contexto especifico de uso do dispositivo. Em modalidades especificas, uma entrada de evento de transição também pode incluir, por exemplo, um toque ou uma leve batida no display, entrada de voz, olhar fixo de olho, ação de clicar ou de apertar o anel externo, comprimir o anel externo, qualquer gesto adequado, movimento muscular interno detectado pelos sensores ou outra entrada de sensor. Para selecionar e usar uma função, modo, ou outro elemento do aplicativo, o usuário pode fornecer um tipo especifico de evento de seleção ou entrada (por exemplo, uma leve batida ou toque no display, uma ação de pressionar ou clicar o anel externo, um gesto especifico, ou entrada de sensor), causando uma transição entre camadas dentro da GUI para uma camada mais profunda da hierarquia. Como um exemplo, para realizar um video, o usuário pode bater levemente em uma tela associada à característica de modo de video do aplicativo de câmera. Quando nessa camada mais profunda da hierarquia, realizando um video, o usuário pode fazer com que a GUI mude entre diferentes opções naquela camada, se disponível (por exemplo, opções relacionadas ao modo de video). Em modalidades especificas, o usuário pode selecionar uma das opções na camada mais profunda, fazendo com que a GUI mude para uma camada ainda mais profunda. Como um exemplo, ao gravar o video no modo de video, o usuário pode outra vez bater levemente no display para mudar a GUI para uma camada mais profunda, o que nesse caso pode incluir a opção de parar a gravação de video. Adicionalmente, o usuário pode retornar para uma camada mais alta da hierarquia mediante a provisão de um tipo específico de evento ou entrada de seleção (por exemplo, uma entrada "voltar", aqui descrita). Como um exemplo, ao gravar vídeo no modo de vídeo, o usuário pode tocar uma porção específica "voltar" do display, fazendo com que a gravação de vídeo seja cancelada e fazendo com que a GUI mude para a tela associada com a característica de modo de vídeo do aplicativo de câmera (por exemplo, na camada de características da hierarquia). A hierarquia de modelos de transição e interação da GUI pode ter qualquer número de camadas e qualquer número de elementos (por exemplo, funções ou conteúdo) dentro de uma única camada. A Figura 98B ilustra um exemplo da operação do modelo de transição e interação com relação ao conteúdo 9815 no dispositivo. Nesse modelo exemplar, o conteúdo pode se comportar similarmente a um aplicativo, exceto que se o usuário selecionar o conteúdo 9815 (por exemplo, uma foto) e a GUI mudar para uma camada mais profunda na hierarquia, a primeira opção 9820, em um menu de opções relacionado ao conteúdo, pode ser mostrada (por exemplo, opções tais como apagar a foto ou compartilhar a foto). A Figura 98C ilustra um exemplo da operação do modelo de transição e interação com relação a um controle 9825 no dispositivo. Um elemento de controle pode funcionar como um botão, em que ele pode modificar um valor através de uma faixa de possíveis valores. Entrada de usuário para o dispositivo (por exemplo, girando o anel externo para direita ou esquerda) pode modificar o valor ou estado 9830 associado com o elemento de controle 9825. O valor modificado por um elemento de controle pode ser de natureza substancialmente continua (por exemplo, o nivel de zoom de uma câmera, ou o nivel de volume de uma televisão) ou pode ser de natureza substancialmente discreta (por exemplo, o canal de uma televisão). Nas modalidades especificas, nos casos onde o valor modificado por um controle é de natureza discreta, uma entrada especifica de usuário (por exemplo, ação de apertar o anel externo) pode "consignar" a seleção do valor. A Figura 98D ilustra um exemplo da operação do modelo de transição e interação com relação a um aplicativo 9835 no dispositivo e uma função principal 9840 do aplicativo. Como um exemplo, cada modo ou função do dispositivo (por exemplo, funções de realidade aumentada ou de câmera) pode ser um aplicativo no dispositivo. Transições dentro de uma camada única (por exemplo, realizada a partir do recebimento de uma entrada especifica de usuário tal como uma rotação do anel externo) permitem que o usuário mude os aplicativos, modos, ou funções do dispositivo. Transições entre as camadas (por exemplo, realizadas quando do recebimento de uma entrada de usuário especifica tal como uma leve batida no display) permitem que o usuário entre em camadas mais profundas (ou saem de camadas mais profundas) da hierarquia associada com o aplicativo, modo ou função, selecionado.
[000178] A Figura 98E ilustra um exemplo da operação do modelo de interação e transição com relação a uma ação 9845 (por exemplo, dentro de um aplicativo) no dispositivo. Como um exemplo, dentro do aplicativo de câmera, uma imagem capturada pode ser selecionada, e uma ou mais ações podem estar disponíveis para a imagem selecionada, tal como apagar a imagem, compartilhar a imagem no FACEBOOK, compartilhar a imagem no TWITTER, ou enviar um correio eletrônico com a imagem. Nesse exemplo, transições de GUI dentro da camada de "ação" (por exemplo, realizada ao receber uma entrada de usuário especifica tal como uma rotação do anel externo) permitem que o usuário visualize diferentes ações a serem realizadas. As transições entre as camadas (por exemplo, realizadas quando do recebimento de uma entrada de usuário especifica tal como uma leve batida no display) permitem que o usuário entre em camadas mais profundas (ou saia de camadas mais profundas) da hierarquia associada com a ação selecionada. Nesse exemplo, a camada mais profunda introduzida pela seleção de uma ação 9845 mostra informação secundária 9850 ou uma confirmação (por exemplo, que o aplicativo está enviando a informação de imagem para um serviço de compartilhamento selecionado). Uma confirmação 9855 (por exemplo, que a imagem foi enviada) também pode ser mostrada nessa camada mais profunda. A GUI pode automaticamente mudar de volta para uma camada mais alta (por exemplo, a camada de ação). Contudo, pode haver uma camada mais profunda da hierarquia incluindo a informação de confirmação, e essa camada mais profunda pode ser introduzida pela GUI a partir da entrada de usuário ou automaticamente. A Figura 98F ilustra um exemplo da operação do modelo de interação e transição com relação a um ícone (por exemplo, um ícone ativo 9860 incluindo uma opção de ligar/desligar de nível superior) e a comutação do estado do ícone 9865. Como um exemplo, uma televisão emparelhada de forma comunicativa com o dispositivo pode ser indicada por um ícone ativo, por exemplo, uma tela de televisão. Nesse exemplo, transições de GUI dentro da camada superior de dispositivo/aplicativo (por exemplo, realizada a partir do recebimento de uma entrada especifica de usuário tal como uma rotação do anel externo) permite que o usuário visualize diferentes aplicativos, dispositivo, ou outras características. A televisão pode aparecer em um menu na GUI do dispositivo mesmo quando a televisão estiver desligada, mas a televisão pode ser ligada antes de poder ser usada. Se o usuário selecionar a televisão (por exemplo, mediante leve batida na tela quando o ícone de televisão é exibido pela GUI) quando ela estiver desligada 9860, a GUI pode mudar para um estado em uma camada mais profunda da hierarquia de modelo de transição e interação na qual a televisão está ligada 9865. Quando a televisão estiver ligada, o ícone associado com a televisão (exibido, por exemplo, na camada superior do modelo na GUI) 9870 pode mudar para representar diretamente que a televisão foi ligada 9875, conforme ilustrado na Figura 98G. Se o usuário selecionar outra vez a televisão (agora ligada), a GUI pode mudar para uma camada ainda mais profunda da hierarquia na qual as funções ou capacidades da televisão (por exemplo, mudança de canal ou volume) são expostas. Em modalidades específicas, a opção para desligar outra vez a televisão pode ser o primeiro item de menu nessa camada mais profunda da hierarquia, para possibilitar rápido acesso para a função desligar (por exemplo, no caso de o usuário ter ligado acidentalmente a televisão). Em modalidades específicas, se o usuário selecionar a televisão quando ela estiver desligada, a televisão pode ser ligada e o ícone associado com a televisão pode mudar para representar diretamente que a televisão foi ligada sem que a GUI mudasse para uma camada diferente da hierarquia ou para uma interface de usuário diferente. 0 icone de televisão ativa pode, portanto, indicar diretamente dentro do nivel superior da hierarquia (por exemplo, um menu principal) o estado da televisão emparelhada.
[000179] A Figura 99 ilustra um exemplo da hierarquia de modelo de transição e interação de uma GUI para um aplicativo de captura de imagem. Nesse exemplo, chegou-se na primeira tela 9902 após a seleção do aplicativo (na tela 9900) poder corresponder a uma função "visualização ao vivo" do aplicativo. Outras características fixas do aplicativo de captura de imagem, incluindo o modo de video 9904, zoom 9906, ou flash 9908, podem estar disponíveis à direita da tela de função principal inicial 9902 do aplicativo selecionado. Características disponíveis de forma dinâmica ou contextuai (por exemplo, imagens capturadas 9910) do aplicativo selecionado podem estar disponíveis à esquerda da tela de função principal inicial. Um evento de seleção nessa camada função da hierarquia pode causar uma transição dentro da GUI para outra camada aninhada ainda mais profunda dentro da hierarquia. Se, por exemplo, o usuário selecionar a função "zoom", a GUI pode mudar para uma tela 9912 na qual o usuário pode controlar a configuração zoom de uma câmera com qualquer entrada adequada (por exemplo, uma rotação do anel externo para a direita para aumentar o zoom ou uma rotação do anel externo para a esquerda para diminuir o zoom). Similarmente, o usuário pode ser capaz de controlar o estado de diferentes características (por exemplo, ligar ou desligar um recurso de flash 9914, ou mudar de um modo de fotografia para um modo de video 9916), navegar conteúdo (por exemplo, 9918-9922), entrar em uma camada mais profunda da hierarquia na qual as ações 9924-9930 podem ser realizadas, ou entrar ainda em outra camada mais profunda da hierarquia na qual as confirmações 9932-9938 são providas quando uma ação for selecionada.
[000180] Em modalidades especificas, um leiaute de interação pode estruturar um modelo de transição e interação de uma GUI do dispositivo. Um leiaute de interação pode ser aplicado a qualquer modelo de interação adequado e não precisa ser dependente de qualquer tipo especifico de movimento ou animação dentro de uma GUI do dispositivo, por exemplo. Embora exemplos específicos de leiaute de interação sejam discutidos abaixo, qualquer leiaute de interação adequado pode ser usado para estruturar um modelo de transição e interação.
[000181] Como um exemplo, um leiaute de interação linear de deslocamento panorâmico pode estruturar um modelo de transição e interação de uma GUI do dispositivo. Em uma GUI do tipo linear de deslocamento panorâmico, elementos ou recursos dentro de uma camada podem ser dispostos à esquerda e à direita do elemento ou recurso atualmente exibido. Entrada de usuário tal como uma rotação do anel externo em uma direção no sentido horário ou no sentido anti-horário navega dentro de uma única camada da hierarquia de modelo. Como um exemplo, uma rotação do anel externo no sentido horário em um incremento rotacional pode exibir o elemento ou recurso à direita (por exemplo, o próximo elemento) , e uma rotação no sentido anti-horário em um incremento rotacional pode exibir o elemento ou característica à esquerda (por exemplo, o elemento anterior). Em modalidades específicas, uma rotação rápida no sentido horário e no sentido anti-horário pode fazer com que a GUI realize navegação acelerada. Em tal modalidade, um único giro pode fazer com que a GUI mude através de múltiplos elementos ou recursos, mais propriamente do que um único elemento ou recurso, como aqui descrito. Diferente entrada de usuário pode navegar entre camadas (por exemplo, camadas mais profundas ou camadas superiores) na hierarquia de modelo. Como um exemplo, se o usuário tocar ou der uma leve batida na camada sensível ao toque do display, a GUI pode mudar para uma camada mais profunda na hierarquia de modelo (por exemplo, confirmando a seleção do usuário ou fornecendo opções relacionadas à seleção). Qualquer entrada adequada pelo usuário pode fazer com que a GUI mude entre camadas na hierarquia de modelo, quer seja no lugar de, ou adicionalmente à entrada baseada em toque ou leve batida.
[000182] Como outro exemplo, se o usuário apertar uma região específica da camada sensível ao toque do display (por exemplo, designada como um botão "voltar") , ou se o usuário der uma dupla leve batida na camada sensível ao toque do display, a GUI pode mudar para uma camada superior na hierarquia de modelo (por exemplo, para a camada anterior). Se, por exemplo, o usuário realizar uma longa pressão no display ou tela, a GUI pode mudar de volta para a tela inicial (por exemplo, um relógio). Sem entrada de usuário adicional, a GUI também pode mudar de volta para a tela inicial após um período de tempo predeterminado (por exemplo, um período de intervalo). Conforme descrito aqui, quando um usuário começa, por exemplo, a girar o anel externo em uma direção no sentido horário ou no sentido anti-horário, a GUI muda dentro da mesma camada, e o próximo elemento ou recurso de interface de usuário (por exemplo, um ícone de fragmentos na mesma camada) para a direita ou esquerda, respectivamente, pode começar a aparecer enquanto o elemento de interface de usuário atual ou recurso pode começar a desaparecer.
[000183] A Figura ÍOOA ilustra um exemplo do leiaute de interação linear de movimento panorâmico. Nesse exemplo, os elementos GUI 10001, 10002, 10003 e 10004 estão na mesma camada da hierarquia de modelo de transição e interação da GUI do tipo linear de movimento panorâmico. Os elementos GUI 10002A, 10002B e 10002C são elementos em uma segunda camada mais profunda da hierarquia e são elementos secundários do elemento 10002. Como um exemplo, a primeira camada pode incluir dispositivos emparelhados com o elemento de dispositivo 10001 representando um automóvel, o elemento 10002 pode representar uma televisão, o elemento 10003 pode representar um telefone móvel, o elemento 10004 pode representar um termostato doméstico. 0 elemento 10002A pode ser um elemento de controle de volume para a televisão, o elemento 10002B pode ser um elemento de controle de canal para televisão, e o elemento 10002C pode ser um elemento de controle de imagem para a televisão. Ainda como outro exemplo, a GUI pode mudar para uma camada mais profunda na hierarquia se o usuário clicar no anel (por exemplo, apertar uma vez o anel) e, então, os elementos secundários na camada mais profunda podem ser panoramicamente visualizados mediante giro do anel. Alternativamente, o usuário pode visualizar panoramicamente os sub-elementos na camada mais profunda mediante giro do anel enquanto apertando simultaneamente o anel. O dispositivo pode incluir um comutador para selecionar como a entrada de usuário é utilizada para navegar entre as camadas.
[000184] Como outro exemplo, um leiaute de interação radial de movimento panorâmico (ou movimento panorâmico circular) pode estruturar um modelo de transição e interação de uma GUI do dispositivo. Em uma GUI do tipo radial de movimento panorâmico, os elementos ou recursos em uma camada podem ser dispostos acima e abaixo do elemento ou recurso atualmente exibido. Entrada de usuário tal como uma rotação do anel externo na direção horário ou anti-horária navega entre camadas da hierarquia de modelo. Como um exemplo, uma rotação do anel externo no sentido horário em um incremento pode fazer com que a GUI mude para uma camada mais profunda na hierarquia de modelo (por exemplo, entrando em uma camada de aplicativo especifico ou confirmando a seleção do aplicativo), e uma rotação no sentido anti-horário em um incremento pode fazer com que a GUI mude em uma camada mais alta na hierarquia de modelo (por exemplo, saindo de uma camada de aplicativo especifico para a camada anterior). Em modalidades específicas, uma rotação rápida no sentido horário ou no sentido anti-horário pode fazer com que a GUI realize navegação acelerada, conforme aqui descrito. Em tal modalidade, um único incremento rotacional pode fazer com que a GUI mude através de múltiplas camadas da hierarquia, mais propriamente do que uma única camada. Diferente entrada de usuário pode navegar dentro de uma única camada na hierarquia de modelo. Como um exemplo, se o usuário tocar ou bater levemente na camada sensível ao toque do display, a GUI pode mudar para o próximo elemento ou recurso (por exemplo, o elemento abaixo do elemento atualmente exibido). Como outro exemplo, se o usuário apertar uma região específica da camada sensível ao toque do display (por exemplo, designada como botão "voltar"), ou se o usuário bater levemente duplamente na camada sensível ao toque do display, a GUI pode mudar para um elemento ou recurso anterior (por exemplo, o elemento acima do elemento atualmente exibido). Se, por exemplo, o usuário realizar uma longa pressão do display ou tela, a GUI pode mudar de volta para a tela inicial (por exemplo, um relógio). Sem entrada de usuário adicional, a GUI também pode mudar de volta para a tela inicial após um periodo de tempo predeterminado (por exemplo, um periodo de intervalo). Como descrito aqui, quando um usuário começa, por exemplo, a girar o anel externo de uma forma no sentido horário ou no sentido anti-horário, a GUI muda para uma camada diferente, e o próximo elemento ou recurso de interface de usuário (por exemplo, em uma camada diferente) pode começar a aparecer enquanto o elemento ou recurso de interface de usuário atual pode começar a desaparecer. A Figura 100B ilustra um exemplo do leiaute de interação radial de movimento panorâmico. Nesse exemplo, os elementos GUI 10001, 10002, 10003 e 10004 estão na mesma camada da hierarquia de modelo de transição e interação da GUI do tipo radial de movimento panorâmico. Os elementos de GUI 10002A, 10002B e 10002C são elementos em uma segunda camada mais profunda da hierarquia e são elementos secundários do elemento 10002. Como anteriormente, a primeira camada pode incluir dispositivos emparelhados com o dispositivo e o elemento 10001 pode representar um automóvel, o elemento 10002 pode representar uma televisão, o elemento 10003 pode representar um telefone móvel, o elemento 10004 pode representar um termostato doméstico. 0 elemento 10002A pode ser um elemento de controle de volume para a televisão, o elemento 10002B pode ser um elemento de controle de canal para a televisão, e o elemento 10002C pode ser um elemento de controle de imagem para a televisão.
[000185] Ainda como outro exemplo, um leiaute de interação do tipo acordeão pode estruturar um modelo de interação e transição de uma GUI do dispositivo. Em uma GUI do tipo acordeão, os elementos ou recursos de múltiplas camadas podem ser arranjados em uma estrutura de lista circular. Por exemplo, girando dentro da estrutura de lista (por exemplo, girando o anel externo) em uma primeira direção passando por uma tela associada com o último elemento ou recurso naquela direção (por exemplo, o último aplicativo fixo do dispositivo) pode fazer com que a GUI mude para uma tela associada com o último elemento ou recurso em uma segunda direção (por exemplo, o aplicativo contextuai menos recentemente usado do dispositivo). Continuando a girar na primeira direção pode fazer com que a GUI mude através de telas associadas com aplicativos contextuais na ordem "reversa" (por exemplo, a partir do menos recentemente usado para o mais recentemente usado). Similarmente, girar na segunda direção além da tela do aplicativo contextuai menos recentemente usado pode fazer com que a GUI mude para a tela associada com o aplicativo fixado por último, e continuar a girar na segunda direção pode fazer com que a GUI mude através das telas dos aplicativos fixados na ordem reversa (por exemplo, a partir do aplicativo fixado por último para o primeiro, adjacente à tela inicial) . Em uma GUI do tipo acordeão, o elemento ou recurso atualmente exibido pode ser "expandido" (por exemplo, se selecionado pelo usuário) de tal modo que seus elementos secundários ou recursos secundários podem se tornar parte da estrutura de lista de camada única. Em modalidades especificas, um elemento ou recurso com elementos secundários pode indicar (quando exibido) que ele tem elementos secundários através, por exemplo, de bordas visiveis dos elementos secundários. Entrada de usuário tal como a rotação do anel externo em uma direção no sentido horário ou no sentido anti-horário navega dentro de uma única camada do modelo, que pode incluir elementos ou recursos, assim como elementos secundários ou recursos secundários de um elemento ou recurso selecionado. Como um exemplo, uma rotação do anel externo no sentido horário em um incremento pode exibir o elemento ou recurso à direita (por exemplo, o próximo elemento), e uma rotação no sentido anti-horário em um incremento pode exibir o elemento ou recurso à esquerda (por exemplo, o elemento anterior). Em modalidades especificas, uma rotação rápida no sentido horário ou no sentido anti-horário pode fazer com que a GUI realize navegação acelerada. Em tal modalidade, um único incremento rotacional pode fazer com que a GUI mude através de múltiplos elementos ou recursos, mais propriamente do que um único elemento ou recurso. Entrada de usuário diferente pode causar a seleção e expansão de um elemento ou recurso no modelo. Como um exemplo, se o usuário tocar ou bater levemente na camada sensivel ao toque do display, a GUI pode expandir o recurso ou elemento exibido dentro da camada existente e mudar para um sub-elemento ou sub-recurso. Como outro exemplo, se o usuário apertar uma região especifica da camada sensivel ao toque do display (por exemplo, designada como botão "voltar"), ou se o usuário bater levemente, duplamente na camada sensivel ao toque do display, a GUI pode fechar os elementos secundários ou recursos secundários expandidos e mudar para um elemento ou recurso na lista. Se, por exemplo, o usuário realizar uma longa pressão do display ou tela, a GUI pode mudar de volta para a tela inicial (por exemplo, um relógio). Sem entrada de usuário adicional, a GUI pode também mudar de volta para a tela inicial após um periodo de tempo predeterminado (por exemplo, um periodo de intervalo). Conforme descrito aqui, quando um usuário começa, por exemplo, a girar o anel externo de uma forma no sentido horário ou no sentido anti-horário, a GUI muda dentro da mesma camada, e o próximo elemento ou recurso de interface de usuário (por exemplo, um ícone de fragmentos na mesma camada) à direita ou esquerda, respectivamente, pode começar a aparecer enquanto o elemento ou recurso de interface de usuário atual pode começar a desaparecer. A Figura 100C ilustra um exemplo do leiaute de interação do tipo acordeão. Nesse exemplo, os elementos de GUI 10001, 10002, 10003 e 10004 estão na mesma camada do modelo de interação e transição da GUI do tipo acordeão. Como o elemento 10002 foi selecionado pelo usuário, sub-elementos de GUI 10002A, 10002B e 10002C são expandidos e também incluídos na estrutura de lista da mesma camada do modelo. Assim, a GUI pode mudar do elemento secundário 10002C para o elemento secundário 10002B ou diretamente para o elemento 10003. Se, contudo, o usuário desejar fechar os elementos secundários (por exemplo, através de uma entrada "voltar" tal como uma leve batida na tela associada com o elemento 10002 outra vez), então a estrutura de lista incluirá apenas os elementos de GUI 10001, 10002, 10003 ou 10004 outra vez.
[000186] Em modalidades especificas, a GUI pode navegar para uma tela inicial com base na entrada recebida por um usuário do dispositivo. A entrada de usuário pode incluir, por exemplo, a ação de apertar e segurar (por exemplo, uma longa pressão) a camada sensivel ao toque, apertar e segurar o display, apertar (por exemplo, clicar) e segurar o anel externo, comprimir e segurar o anel externo, cobrir a face (por exemplo, o display) do dispositivo, cobrir um sensor especifico do dispositivo, virar a face do dispositivo em uma direção para baixo, apertar um botão de software (discutido aqui), apertar um botão de hardware no dispositivo, ou agitar o dispositivo (ou qualquer outro gesto adequado). Qualquer uma dessas entradas ou qualquer variação dessas entradas (incluindo, por exemplo, durações mais curtas) pode ser usada como entradas de usuário para "voltar" dentro de um modelo de transição e interação. As Figuras 101A- 101B ilustram exemplos de um leiaute de botão de software "voltar" na GUI. Na Figura 101A, receber entrada de toque de usuário na porção de botão 10110 do display faz com que a GUI confirme uma seleção ou transição para uma camada mais profunda na hierarquia de modelo. Receber entrada de toque de usuário na porção superior 10120 do display faz com que a GUI mude "de volta" em uma camada superior na hierarquia de modelo. A Figura 101B ilustra um leiaute similar, com a região "voltar" 10130 incluindo um icone de fragmentos 10135 para indicar ao usuário para onde navegar "de volta" realizará a transição. Em modalidades especificas (por exemplo, quando a camada sensivel ao toque é operável para determinar as coordenadas exatas x-y de um toque), qualquer região do display pode ser designada como uma região "voltar", uma região "confirmar/selecionar", ou qualquer outra região funcional adequada.
[000187] Em modalidades especificas, a GUI do dispositivo pode exibir tipos específicos de conteúdo incluindo, por exemplo, listas. A Figura 102A ilustra um exemplo de uma GUI exibindo uma lista vertical de itens. Uma entrada a partir do usuário (por exemplo, qualquer mecanismo ou tipo de entrada adequado) pode fazer com que um quadro de seleção 10210 da GUI se desloque através dos elementos da lista vertical. Como um exemplo, se o usuário girar para a direita em uma direção no sentido horário, o quadro de seleção 10210 pode se mover a partir do topo da lista vertical em direção à base da lista vertical. Cada incremento rotacional do anel externo (por exemplo, se o anel externo se desloca em incrementos discretos), faz com que o quadro de seleção 10210 se desloque em um item dentro da lista. No exemplo da Figura 102A, quando o usuário gira o anel no sentido horário, os itens exibidos da lista permanecem constantes, e o quadro de seleção 10210 se desloca no sentido para baixo através dos itens da lista. Em outras modalidades, o quadro de seleção pode permanecer constante (por exemplo, no centro do display) e itens da lista podem se deslocar para cima e para baixo (por exemplo, um item de cada vez), dependendo da direção da rotação do anel. A Figura 102B ilustra um exemplo da GUI exibindo uma lista horizontal de itens. Uma entrada a partir do usuário (por exemplo, qualquer mecanismo ou tipo de entrada adequado) pode fazer com que um quadro de seleção 101210 da GUI se desloca através dos elementos da lista horizontal. Como um exemplo, se o usuário girar para a direita em uma direção no sentido horário, o quadro de seleção 10210 pode se mover a partir da esquerda da lista horizontal para a direita da lista horizontal. Cada incremento de rotação do anel externo (por exemplo, se o anel externo se desloca em incrementos discretos), faz com que o quadro de seleção 10210 se desloque um item dentro da lista. No exemplo da Figura 102B quando o usuário gira o anel no sentido horário, o quadro de seleção 10210 permanece constante no centro do display, e os itens da lista se deslocam para a esquerda (por exemplo, um item de cada vez) em resposta à rotação no sentido horário. Em outras modalidades, os itens exibidos da lista permanecem constantes, e o quadro de seleção se desloca para a esquerda ou direta através dos itens da lista, dependendo da direção de rotação do anel externo.
[000188] Em modalidades especificas, a GUI do dispositivo pode exibir conteúdo verticalmente ou horizontalmente continuo (ou substancialmente continuo) incluindo, por exemplo, gráficos ou texto. Em modalidades específicas, uma entrada a partir do usuário (por exemplo, qualquer mecanismo ou tipo de entrada adequado) pode fazer com que um. indicador de seleção da GUI se desloque através do conteúdo contínuo. Em outras modalidades, uma entrada a partir do usuário pode fazer com que o conteúdo se desloque para dentro e para fora do display em uma direção horizontal, direção vertical, ou qualquer outra direção mapeada para a entrada de usuário (e o indicador de seleção, se presente, pode permanecer em uma posição constante). No exemplo da Figura 102C, um gráfico de temperatura é exibido. Quando o usuário gira o anel externo em uma direção no sentido horário, o indicador de seleção 12020 permanece no centro do display, e o conteúdo se desloca para o display a partir da direita e para fora do display em direção à esquerda. No exemplo da Figura 102D, uma porção de uma peça maior de texto 10230 é exibida. Quando o usuário gira o anel externo em uma forma no sentido horário, texto adicional entra no display a partir da parte inferior e sai do display em direção ao topo. As Figuras 103A- 103D ilustram um aplicativo de calendário exemplar exibido na GUI do dispositivo. Na Figura 103A, um usuário pode clicar ou pressionar o anel externo (indicado pela seta 10305), fazendo com que a GUI exiba um menu circular 10310 com as opções "Subir", "Semanalmente" (a configuração padrão), "Mensalmente" e "Diariamente". Na Figura 103C o usuário pode outra vez clicar ou pressionar o anel externo (indicado pela seta 10305), confirmando a seleção de "Semanalmente" e fazendo com que a GUI exiba a vista semanal 10320 do calendário do usuário.
[000189] Nas modalidades especificas, a GUI pode exibir conteúdo que é de um tamanho maior do que o display. Em tais modalidades, a GUI pode escalar ou cortar (ou de outro modo encolher ou ajustar) o conteúdo de modo que todo o conteúdo possa ser exibido dentro do display de uma vez. Em outras modalidades, a GUI não altera o tamanho do conteúdo, e em vez disso proporciona a capacidade para o usuário deslocar de forma panorâmica através do conteúdo uma porção de cada vez, por exemplo, utilizando rolamento (descrito aqui).
[000190] Em modalidades especificas, o dispositivo inclui o display circular, e a GUI inclui navegação circular e leiautes de menu. Essa revelação considera qualquer formato para o display, contudo, e qualquer leiaute de menu ou de navegação adequada para a GUI. 0 leiaute de menu pode fornecer a um usuário uma indicação visual de onde o usuário está localizado dentro de uma hierarquia de modelo de transição e interação da GUI, por exemplo. 0 leiaute de menu também pode fornecer indicadores visuais que permitem que o usuário diferencie entre diferentes tipos de itens de menu, assim como mostram uma vista global das opções de menu. Adicionalmente, o menu pode ser exibido sobre qualquer segundo plano ou conteúdo adequado do dispositivo.
[000191] A Figura 104 ilustra um leiaute de menu circular exemplar no qual cada segmento 10410 representa um item ou opção no menu e lacunas visuais tais como 10420 separam os itens entre si. O item atualmente selecionado ou padrão 10430 está no topo do display visual (mas pode estar em qualquer lugar no display) , e pode permanecer no topo do display à medida que o usuário orienta o display do dispositivo de diferentes formas durante uso. As Figuras 105A-105B ilustram um exemplo de navegação dos itens em um menu circular. 0 usuário pode fornecer entrada tal como uma rotação no sentido horário do anel externo, e em resposta a essa entrada de usuário, o próximo item no menu 10520 (por exemplo, à direita do item atualmente selecionado 10510) pode ser destacado para seleção. 0 conteúdo no centro do display 10530 pode mudar automaticamente para refletir a entrada de rotação do usuário ou pode, em modalidades especificas, mudar apenas após o usuário fornecer outra entrada (por exemplo, ação de pressionar ou clicar o anel externo quando o item de menu desejado for destacado) . As Figuras 105C-105D ilustram um exemplo de navegação em um menu circular mediante giro do anel externo, fazendo com que o próximo item no menu 10550 (por exemplo, sentido horário ou à direita do item atualmente selecionado 10540) seja destacado para seleção. Nesse exemplo, a entrada do usuário também causa a rotação de um "indicador" central 10560 que aponta para o segmento de menu destacado correspondendo ao item de menu atualmente selecionado. Nesse exemplo, o conteúdo no centro do display muda automaticamente para refletir a rotação do usuário.
[000192] Cada uma das Figuras 106A-106C ilustra diferentes alinhamentos e arranjos de um leiaute de menu circular para a GUI do dispositivo. 0 menu circular pode, por exemplo, ser exibido diretamente na borda do display (como mostrado na Figura 106A) ou pode ser mostrado mais para dentro do display, ou como uma sobreposição a um segundo plano do dispositivo (mostrado nas Figuras 106B-106C). As Figuras 107A-107C ilustram outras formas e alinhamento de um leiaute de menu circular para a GUI do dispositivo. Como exemplos, o menu pode consistir em segmentos de linha (de vários tamanhos possiveis) arranjados em um circulo 10710, segmentos de linha arranjados em um semicírculo 10720, ou pontos arranjados em um circulo ou semicírculo, 10730 ou 10740. Em modalidades especificas, o indicador visual do item de menu atualmente selecionado ou padrão 10732 pode permanecer no centro superior do display, e os indicadores visuais dos itens no menu 10734 podem se deslocar à esquerda ou direita com base na entrada de usuário (Figura 107C). Em outras modalidades, o indicador visual do item atualmente selecionado ou padrão 10732 pode se deslocar através dos indicadores dos itens do menu, que permanecem fixos em posição (Figura 107B). Em modalidades especificas, em vez de segmentos ou pontos, os indicadores visuais dos itens no menu podem ser Ícones (por exemplo, Ícones de fragmentos) associados aos itens de menu. A Figura 108 ilustra que o leiaute de menu não precisa ser circular e pode ser qualquer leiaute adequado, incluindo um leiaute no qual os indicadores dos itens de menu 10810 são espalhados por todo o display. Com a entrada de usuário (por exemplo, uma rotação do anel externo), diferentes itens podem ser selecionados de acordo com sua posição no leiaute de menu. Como um exemplo, se o usuário girar em uma forma no sentido horário, o próximo item de menu 10820 em uma direção no sentido horário pode ser selecionado.
[000193] As Figuras 109A-109C ilustram diferentes leiautes de menu com relação aos itens de menu à "esquerda" e à "direita" (por exemplo, na hierarquia de modelo de transição e interação) do item de menu atualmente selecionado ou exibido 10915. Na Figura 109A, todos os itens de menu 10910 são igualmente distribuídos no menu circular em torno do display. Na Figura 109B, o menu inclui uma lacuna que indica uma diferenciação dos itens 10910 à esquerda e os itens à direita do item de menu atualmente exibido ou selecionado 10915 (por exemplo, de acordo com o modelo de interação e transição aqui descrito). A Figura 109C ilustra um exemplo no qual há mais itens 10910 à esquerda do que à direita do item atualmente selecionado ou exibido 10915, de modo que os segmentos à esquerda do menu circular são ajustados em tamanho para acomodar o número de itens disponíveis para a seleção. No caso de um número grande de itens de menu (por exemplo, além de um limiar especifico tal como 40 imagens capturadas), os segmentos do menu circular podem desaparecer, e o indicador visual apresentado ao usuário pode ser uma barra de rolamento 11020 que permite que o usuário faça o rolamento circular através dos vários itens de menu, conforme ilustrado na Figura 110A. Em outras modalidades, um indicador visual do tipo barra de rolamento similar 11020 pode permitir que o usuário do dispositivo manipule um valor absoluto ou fixo (por exemplo, um nivel de zoom de câmera) sobre uma faixa fixa de valores 11030, conforme ilustrado na Figura 110B. Em ainda outras modalidades, o comprimento de um indicador visual do tipo barra de rolamento pode mostrar ao usuário o nivel de certo valor. Por exemplo, se o usuário estiver controlando o volume de uma televisão utilizando o anel externo do dispositivo, quando o usuário gira o anel (por exemplo, no sentido horário) para aumentar o nivel de volume, o indicador visual 11120 se tornará mais longo, até que ele circunde ou quase circunde o display interno, como ilustrado nas Figuras 111A-111C.
[000194] Em modalidades especificas, a GUI pode exibir um conteúdo de referência ou de fundo assim como uma indicação de uma ação ou função disponível para ser realizada com relação ao conteúdo de referência ou de fundo. A Figura 12 ilustra leiautes exemplares dentro da GUI de conteúdo de referência e ações ou funções de sobreposição contextuai. Diferentes tipos de leiautes (por exemplo, incluindo aqueles ilustrados) podem ser selecionados com base nos diferentes tipos de conteúdo de referência ou de fundo apresentados, por exemplo, para minimizar o obscurecimento de conteúdo de referência ou de fundo. Por exemplo, se o conteúdo de referência ou de fundo for uma imagem de uma pessoa, uma sobreposição que não obscureça o centro da fotografia pode ser selecionada. Em modalidades específicas, o brilho perceptual dos pixels do conteúdo de referência ou de fundo (por exemplo, por trás da sobreposição) pode ser determinado em uma base de pixel por pixel. Nos casos onde o contraste entre a sobreposição contextual e o conteúdo de referência ou de fundo (por exemplo, uma imagem) for muito baixo (por exemplo, com base em um limiar predeterminado), uma sombra que empurra as cores subjacentes na direção oposta pode ser usada. Um algoritmo exemplar pode incluir a determinação dos pixels sob a sobreposição, reduzindo a sua saturação, considerando o inverso do brilho visual (por exemplo, de tal modo que as cores permanecem as mesmas, porém o brilho é selecionado para produzir contraste) , borrão, e cria um compósito entre o conteúdo de referência ou de fundo subjacente e a sobreposição. As Figuras 103A-103C ilustram exemplos 11310- 11350, de sobreposições contextuais compostas com conteúdo de fundo ou de referência (aqui, imagens capturadas por uma câmera do dispositivo). Conforme ilustrado, a sobreposição contextuai pode permitir que o usuário realize ações ou funções (por exemplo, apagando uma imagem 11130 ou compartilhando uma imagem 11325, procurando cafeterias 11330, procurando restaurantes 11340, ou tornando um local um local "favorito" 11350), fornece confirmação ao usuário (por exemplo, que uma imagem foi compartilhada 11320), ou fornece qualquer outro tipo de informação ao usuário. Nas modalidades específicas, sobreposições contextuais podem ser usadas em qualquer lugar dentro de um leiaute de menu de uma GUI exceto para o nível superior da hierarquia de modelo de interação e transição.
[000195] Em modalidades específicas, ícones exibidos na GUI do dispositivo podem otimizar a utilização de energia ou bateria do dispositivo. Como um exemplo, um ícone pode incluir fundo principalmente negro com o próprio ícone sendo composto de traços brancos finos. Isso pode permitir que a quantidade de cor branca na tela do display seja muito baixa, permitindo consumo reduzindo de energia do display enquanto a GUI é usada. Os ícones exibidos na GUI também podem incluir notificações em tempo real. Por exemplo, um ícone de telefone móvel pode incluir uma notificação com o número de novos correios de voz, um ícone de correio eletrônico pode incluir uma notificação com o número de novos correios eletrônicos, um ícone de bate-papo pode incluir uma notificação com o número de novas mensagens de bate-papo, e um ícone de telefone pode incluir uma notificação com o número de chamadas perdidas. Em modalidades específicas, a GUI do dispositivo exibe apenas cores exceto o preto e o branco para conteúdo gerado por usuário (por exemplo, imagens, arquivos, contatos, notificações ou programações). Outra informação, incluindo itens de menu, pode ser exibida em preto e branco.
[000196] Em modalidades específicas, quando a GUI muda de um elemento (por exemplo, recurso, item de conteúdo, ou ícone) para outro (por exemplo, ao receber entrada de um usuário), a GUI pode exibir efeitos de transição visual. Esses efeitos de transição podem depender, por exemplo, do tipo de entrada recebida a partir de um usuário do dispositivo. Como um exemplo, um único toque no display pode disparar efeitos de transição diferentes, enquanto que uma rotação do anel externo pode disparar um conjunto diferente (potencialmente sobreposto) de efeitos de transição.
[000197] Em modalidades específicas, uma entrada de toque do usuário na camada sensível ao toque pode disparar os efeitos de transição incluindo expansão orientada para o centro, deslizamento direcional, e aumento ou diminuição em escala. A Figura 104A ilustra o modo orientado para o centro ou expansão de função ou escalação. A Figura 114B ilustra o modo orientado para o centro ou função apagando ou reduzindo a escala. A Figura 115A ilustra aumento de escala orientado para o centro de um ícone. A Figura 115B ilustra redução de escala orientada para o centro de um ícone. A Figura 106A ilustra um exemplo de escalação do ícone orientado para o centro com um movimento de torção. A Figura 105B ilustra um exemplo de redução do ícone orientado para o centro com o movimento de torção. A Figura 17A ilustra um exemplo de desdobramento orientado para o centro e expansão no sentido para fora de um ícone. A Figura 17B ilustra um exemplo de dobramento orientado para o centro e apagamento no sentido para dentro de um ícone. A Figura 18A ilustra um exemplo de texto deslizando verticalmente para dentro do display, onde o texto é revelado mediante desmascaramento. A Figura 118B ilustra um exemplo de texto deslizando a partir da esquerda para a direita do display. A Figura 118C ilustra um exemplo de texto deslizando horizontalmente da esquerda para a direita do display dentro de uma região mascarada (por exemplo, uma sobreposição contextuai). A Figura 119A ilustra uma transição de deslizamento horizontal da direita para a esquerda para conteúdo ou para um icone. A Figura 119B ilustra uma transição de deslizamento horizontal da direita para a esquerda, com efeitos de desvanecimento; o icone ou conteúdo saindo da tela são desvanecidos gradualmente quando atingem a borda da tela, e o icone ou conteúdo entrando na tela desvanece gradualmente à medida que cruza a borda da tela. A Figura 119C ilustra um exemplo de uma transição de deslizamento horizontal da direita para a esquerda com efeitos de escalação; o conteúdo ou icone saindo da tela é encolhido, e o conteúdo ou ícone entrando na tela é aumentado para tamanho total.
[000198] Em modalidades específicas, uma rotação pelo usuário do anel externo pode disparar efeitos de transição visual incluindo zooming, deslizamento direcional, mancha, mascaragem, dobradura de página, movimento rotacional, e movimento acelerado. A Figura 120A ilustra um exemplo de uma transição em resposta a uma rotação de baixa aceleração do anel externo. Nesse exemplo, um incremento rotacional único pode corresponder a um único item, de tal modo que um giro (por exemplo, incremento rotacional) no sentido anti-horário faz com que o próximo elemento (por exemplo, ícone ou item de conteúdo) entre na tela a partir da esquerda para a direita, e não ocorre escalada dos elementos. As Figuras 120B-120C ilustram conjuntamente um exemplo de uma transição em resposta a uma rotação de alta aceleração do anel externo. Nesse exemplo, um único giro (por exemplo, incremento rotacional) no sentido anti-horário faz com que a GUI se desloque de forma panoramicamente de forma rápida através de múltiplos elementos (os quais podem estar reduzidos em tamanho, entrar na tela a partir da esquerda, e sair da tela a partir da direita) até que o usuário pare de girar o anel. Quando o usuário para de girar o anel externo, o elemento pode aumentar em tamanho até o tamanho normal, e um único icone ou item de conteúdo pode preencher o display. A Figura 121A ilustra um exemplo de uma transição dentro da GUI na qual o conteúdo é reduzido em tamanho em resposta à rotação do anel externo. A Figura 121B ilustra um exemplo de uma transição dentro da GUI na qual uma primeira tela 1 "dobra" em uma animação, resultando em uma segunda tela 2 (por exemplo, para o próximo recurso ou item de conteúdo) sendo exibida ao usuário.
[000199] Em modalidades especificas, a GUI do dispositivo pode incluir um modelo fisico que considera o movimento do usuário e produz retorno visual refletindo os movimentos do usuário. Como um exemplo, quando houver entrada de ativação (por exemplo, na forma de um gesto especifico) pelo usuário, o movimento do usuário pode ser rastreado continuamente através de entrada a partir de um ou mais dos sensores do dispositivo. O retorno visual pode refletir o movimento do usuário na interface de usuário, enquanto o conteúdo subjacente permanece estático, de modo que os gestos podem ser registrados e paralaxe pode ser usada para distinguir entre recursos de UI ou controles e conteúdo subjacente. Em modalidades especificas, o modelo fisico pode incluir um modelo de mola generalizado com amortecimento. Em tal modelo, os itens podem ser dispostos em camada. A camada mais profunda pode ter uma mola "mais rigida" no modelo fisico retendo os itens no lugar. Isso pode fazer com que as camadas inferiores da interface de usuário se desloquem ligeiramente quando o dispositivo é movido, enquanto que as camadas superiores podem se mover mais, criando uma sensação de paralaxe. Adicionalmente, o modelo de mola pode incluir amortecimento, que causa retardo de movimento, criando um movimento mais suave, variável. A Figura 122 ilustra um exemplo do uso de um modelo fisico na GUI. O usuário usa o dispositivo 100 em seu braço. Quando o usuário move o braço de uma forma no sentido para baixo, o icone 12210 exibido na tela (por exemplo, um bulbo de luz) se desloca de uma maneira refletindo o movimento do usuário. O conteúdo subjacente (por exemplo, a imagem de fundo) na tela, contudo, não se move. Esse tipo de icone flutuante ou item de menu pode, por exemplo, ser útil quando o display é de um tamanho que não permite que muitos ícones ou itens de menu sejam exibidos simultaneamente devido ao ajuntamento visual. Adicionalmente, esse tipo de comportamento flutuante também pode ser usado com meios de notificação para apresentar um evento ao usuário.
[000200] Em modalidades específicas, a GUI do dispositivo pode incluir faces como telas padrão ou papéis de parede para o dispositivo, e essas faces podem ser parte de uma hierarquia de modelo de transição e interação (por exemplo, na camada superior da hierarquia ou como uma tela inicial). Conforme aqui descrito, essas faces podem ser aplicativos que podem ser mudados ou modos que podem responder automaticamente de forma contextual a uma atividade do usuário. Como um exemplo, as faces podem mudar dependendo do ambiente do usuário, necessidades, gostos, localização, atividade, dados de sensor, gestos ou programação. A disponibilidade de uma face (ou a transição na GUI a partir de uma face para outra) pode ser determinada com base na informação contextuai. Como um exemplo, se o usuário tem um evento vindouro programado no seu calendário, a face do dispositivo pode mudar para uma face de calendário que exibe a informação de evento vindouro para o usuário. Como outro exemplo, se for determinado que o usuário se encontre nas proximidades de sua residência (por exemplo, com base em dados de GPS) , a face do dispositivo pode mudar para uma face associada com um aplicativo de automação doméstica. Ainda como outro exemplo, se for determinado que o usuário (por exemplo, com base em vários sensores biométricos tais como batimento cardiaco ou sensores de excitação, ou com base em acelerômetros, esteja se movendo de forma vigorosa, a face do dispositivo pode mudar para um modo de aptidão, mostrando a pulsação medida do usuário, as calorias queimadas, o tempo decorrido desde que iniciou a atividade (por exemplo, uma corrida), e o tempo. Quaisquer dados de sensor, adequados (por exemplo, a partir de sensores incluindo sensores biométricos, sensores de foco, ou sensores que podem determinar a posição da mão de um usuário enquanto dirigindo um carro) podem ser usados para determinar um contexto e face apropriada para exibir ao usuário. A utilização histórica do usuário do dispositivo (por exemplo, uma hora especifica do dia quando o usuário tiver usado seu aplicativo de aptidão, tal como em uma classe de aptidão) também pode determinar qual face é exibida no dispositivo. Como um exemplo, o dispositivo pode antecipar a necessidade do usuário para o modo de aptidão na hora especifica do dia quando o usuário tende a se exercitar. As faces contextuais também podem ser associadas com a supressão de notificações (por exemplo, se for determinado que o usuário esteja dirigindo ou se o dispositivo não estiver sendo usado) ou um a mudança em como as notificações expressas (por exemplo, visualmente ou de forma audivel). Em modalidades especificas, as faces do dispositivo não precisam estar associadas com qualquer aplicativo no dispositivo e podem ser papéis de parede, ou segundos planos no display do dispositivo. As faces podem ser dedicadas a canais específicos de informação (por exemplo, noticias de calendário, notícias de saúde ou atividade, notificações, notícias de condições climáticas, ou noticiário). Como um exemplo, uma notificação ou alerta de condições climáticas severas (recebida, por exemplo, através de uma notícia de condições climáticas) pode fazer com que a face de clima seja exibida no display conjuntamente com a notificação. As faces podem exibir a hora (por exemplo, no formato analógico digital) independentemente do tipo de face. As faces podem ser personalizadas pelo usuário. As customizações ou preferências do usuário podem ser introduzidas explicitamente pelo usuário (por exemplo, para software de gerenciamento no dispositivo ou um dispositivo emparelhado) ou aprendidas diretamente pelo dispositivo (por exemplo, utilizando dados de utilização e sensor para criar um modelo com o passar do tempo). A Figura 23 faces exemplares que incluem um relógio analógico 12310, um relógio analógico com um leiaute de menu circular 12320, uma face de modo saúde 12330, e uma face de condições climáticas 12340. A Figura 124 ilustra um conjunto exemplar de faces 12410-12440 para o dispositivo no qual informação de compromissos e calendário é exibida.
[000201] Em modalidades específicas, o dispositivo pode ser usado em um membro de um usuário (sem obscurecer a face do usuário e sem exigir que o usuário segure o dispositivo) e pode incluir funcionalidade de realidade aumentada (AR). Essa funcionalidade AR pode se basear no uso de movimento do corpo para apontar uma câmera do dispositivo, que pode permitir que se aponte com maior exatidão devido ao sentido de propriocepção do usuário. Esse tipo de sistema pode permitir que o usuário do dispositivo veja um objeto no mundo real ao mesmo tempo em que o usuário visualiza uma versão do objeto (por exemplo, capturada por uma câmera do dispositivo) no display. Um exemplo dessa capacidade AR é ilustrado na Figura 16. Tal sistema AR pode permitir capacidade de "visualização direta" utilizando uma câmera alinhada e sensor em lados opostos de um membro do usuário. Vários aplicativos AR podem ser habilitados por esse tipo de arranjo, descrito aqui. Em modalidades especificas, os aplicativos podem ser projetados especificamente para o dispositivo para permitir uso imediato, oportunista. Adicionalmente, um modelo de delegação pode ser fornecido no dispositivo, permitindo o uso de recursos externos para melhorar a amplitude de aplicativos disponíveis para execução no dispositivo enquanto incorrendo em menos (ou nenhuma) penalidade em termos de exigências de processamento ou uso de energia. Em modalidades especificas, o dispositivo pode controlar ou ser controlado por outros dispositivos (por exemplo, dispositivos próximos descobertos por intermédio de uma rede e emparelhados de forma comunicativa com o dispositivo). Esse tipo de controle pode ser obtido por intermédio de interfaces de proximidade, gestos, ou interfaces tradicionais. Emparelhamento pode ser obtido utilizando-se uma variedade de tecnologias incluindo uma câmera do dispositivo, discutido aqui em detalhe adicional.
[000202] A Figura 125 ilustra um exemplo de um fluxo de decisão de ativação automática de câmera para o dispositivo. Em modalidades especificas, se a câmera é habilitada e se ativação automática da câmera (por exemplo, para reconhecimento de objeto) é habilitada pode depender do aplicativo ou modo no qual atualmente se encontra o dispositivo. Em modalidades especificas, ativação automática de câmera pode ser habilitada no dispositivo 12510. Se esse recurso for habilitado (determinado na etapa 12520) e se houver capacidade suficiente de CPU e energia disponível no dispositivo (por exemplo, para calcular os recursos de interesse a partir de uma imagem, determinado na etapa 12530), então uma câmera do dispositivo (por exemplo, uma câmera voltada no sentido para fora) pode capturar automaticamente, processar, ou exibir 12560 uma ou mais imagens se a câmera for segura de forma estável em uma posição de apontar pelo usuário por um periodo de tempo predeterminado (por exemplo, conforme detectado por uma unidade de medição inercial no dispositivo usável ou como calculado pelo borrão da imagem, determinado na etapa 12540) . Em outras modalidades, a câmera pode ser ativada e procurar por imagens durante todo o tempo. Ainda em outras modalidades, a câmera pode capturar uma imagem e realizar reconhecimento de recursos apenas se o usuário manualmente acionar a captura de imagem (por exemplo, pressionar ou clicar o anel externo, ou bater levemente no display, determinado na etapa 12550). Em modalidades especificas, quando a câmera é ativada (mediante qualquer método adequado), funcionalidade de realidade aumentada (AR) pode ser habilitada. A funcionalidade AR pode ser automaticamente habilitada (dependendo, por exemplo, da capacidade de CPU e energia disponível no dispositivo). Em outras modalidades, a funcionalidade AR pode ser habilitada explicitamente pelo usuário por intermédio de qualquer entrada adequada pelo usuário. O usuário pode, por exemplo, fornecer entrada de toque no display para habilitar a funcionalidade AR. Como um exemplo, um usuário pode capturar um objeto tal como um pássaro (por exemplo, mediante ação de apontar uma câmera do dispositivo para o pássaro), e o usuário pode tocar a imagem do pássaro conforme exibida no display. Essa ação pode habilitar as funções AR do dispositivo, fazendo com que, por exemplo, o dispositivo reconheça o pássaro como um objeto e retorne a informação sobre o pássaro para o usuário. Em outras modalidades, conforme aqui descrito, o usuário pode realizar um ou mais gestos para habilitar a funcionalidade AR, assim como para realizar tarefas utilizando a funcionalidade AR (por exemplo, utilizando um teclado "virtual" mediante realização de gestos de digitação à vista de uma câmera do dispositivo).
[000203] Em modalidades especificas, se o dispositivo não tiver a capacidade de calcular ele próprio os recursos de interesse, o dispositivo pode capturar uma imagem, transferir a imagem para um dispositivo acoplado de forma comunicativa (por exemplo, um dispositivo próximo tal como um telefone ou computador pessoal) ou para um serviço baseado na Internet, onde os recursos de interesse podem ser calculados remotamente. Quando os recursos de interesse forem determinados, um serviço baseado na Internet ou catálogo de dados local pode ser consultado para informação adicional sobre um objeto reconhecido. Se informação for encontrada, os dados relevantes podem ser exibidos ao usuário no dispositivo conjuntamente com o recurso reconhecido.
[000204] O dispositivo pode, em modalidades especificas, ter um pequeno fator de forma, e pode ser limitado em termos de memória disponível, processamento, e energia. Um modelo de delegação pode permitir que o dispositivo delegue porções de uma ou mais tarefas de processamento (por exemplo, tarefas relacionadas à funcionalidade AR) aos dispositivos próximos (por exemplo, computador pessoal ou telefone) ou aos serviços baseados em rede ou baseados na Internet, por exemplo. Como um exemplo, para tarefas que podem ser delegadas, o aplicativo solicitando a tarefa fornece ao sistema (por exemplo, um núcleo do sistema operacional do dispositivo) as características ou um perfil da tarefa, incluindo a sensibilidade de latência da tarefa, exigências de processamento, e tamanho de carga útil de rede. Isso pode ser feito para cada sub-tarefa que possa ser delegada da tarefa que pode ser delegada global. Como as tarefas normalmente são canalizadas, frações continuas da canalização de tarefa podem ser delegadas. 0 sistema pode, em modalidades especificas, realizar medições de, ou construir um modelo de uma ou mais características do dispositivo. As características do dispositivo podem incluir propriedades estáticas do dispositivo, por exemplo, propriedades dos componentes de hardware do dispositivo incluindo a memória total instalada, velocidade máxima da CPU, energia máxima de bateria, ou largura de banda máxima de uma interface de rede. As características do dispositivo também podem incluir propriedades dinâmicas do dispositivo, por exemplo, propriedades de operação do dispositivo incluindo memória disponível, capacidade atual de CPU, energia disponível, conectividade de rede atual, disponibilidade dos serviços baseados em rede, um registro de comportamento médio do usuário entre um ou mais usuários, ou um tempo de processamento previsto ou esperado de uma tarefa (por exemplo, dado um cenário de utilização, especifico). Em modalidades especificas, o dispositivo pode ter um modelo que incorpora medições anteriores e atuais das características de dispositivo para auxiliar na determinação de comportamento futuro do dispositivo. Com base nas características de tarefa ou perfil e essas medições ou modelos, assim como com base em se a tarefa pode ser executada no dispositivo, o sistema pode delegar (ou não delegar) uma ou mais porções da tarefa ou canalização de tarefa. Por exemplo, se a memória disponível no dispositivo não puder suportar o processamento de uma tarefa (por exemplo, a reprodução de um vídeo) , uma ou mais porções da tarefa podem ser delegadas. Como outro exemplo, se a capacidade da CPU do dispositivo não puder suportar o processamento de uma tarefa (por exemplo, se a CPU estiver funcionando em capacidade devido à sua carga existente), uma ou mais porções da tarefa podem ser delegadas. Como outro exemplo, se o nivel de bateria do dispositivo estiver baixo e não for esperado que a bateria forneça energia ao dispositivo por tanto tempo quanto o tempo de processamento esperado da tarefa, uma ou mais porções da tarefa podem ser delegadas. Como outro exemplo, se a conectividade de rede do dispositivo for baixa ou não existente, uma ou mais porções da tarefa podem não ser delegadas (por exemplo, se o dispositivo também tiver memória disponível suficiente, capacidade de CPU, e energia). Como outro exemplo, se um ou mais serviços baseados em rede estiverem disponíveis ao dispositivo (por exemplo, serviços baseados em nuvem para processamento) e o dispositivo tiver conectividade de rede adequada (por exemplo, largura de banda disponível apropriada), uma ou mais porções da tarefa podem ser delegadas. Como outro exemplo, se um usuário do dispositivo tipicamente (por exemplo, historicamente) delegar a reprodução de videos, uma ou mais porções da tarefa de reprodução de um vídeo podem ser delegadas. Como outro exemplo, se um tempo de processamento previsto da tarefa (por exemplo, previsto com base em um modelo incorporando medições anteriores e atuais das características de dispositivo) estiver além de certo limiar (por exemplo, vários minutos), a tarefa pode ser delegada. Quaisquer características adequadas do dispositivo (por exemplo, propriedades estáticas ou dinâmicas) em qualquer combinação adequada podem ser usadas para determinar a delegação de uma tarefa. Além disso, quaisquer características adequadas de uma tarefa do dispositivo (por exemplo, incluindo um perfil de tarefa ou característica da tarefa incluindo sensibilidade de latência, exigências de processamento, ou tamanho de carga útil de rede) podem ser usadas para determinar a delegação de uma tarefa, quer seja individualmente ou em conjunto com as características do dispositivo. Adicionalmente, qualquer modelo do dispositivo (por exemplo, comportamento do dispositivo) pode ser usado, isoladamente ou em conjunto com o dispositivo ou características de tarefa, para determinar se deve ser delegada uma tarefa. Em modalidades especificas, dispositivos emparelhados com o dispositivo também podem incluir um modelo de delegação, de tal modo que o dispositivo emparelhado (por exemplo, um telefone) realize as mesmas tarefas, delegando tarefas com base em seus próprios modelos de energia, conectividade, exigências de tempo de execução, e praticabilidade. A tarefa delegada pode ser processada ou executada para conclusão no dispositivo emparelhado (por exemplo, telefone), e os resultados do processamento da tarefa delegada podem ser retornados ao dispositivo. Em modalidades especificas, o dispositivo pode operar no modo individual (por exemplo, sem delegar quaisquer tarefas de processamento) quando ele não tiver qualquer conectividade ou quando nenhum dispositivo emparelhado estiver ao alcance do dispositivo. Quando o dispositivo obtiver outra vez a conectividade, ou quando um dispositivo estiver emparelhado com o dispositivo, a delegação das tarefas pode ser retomada.
[000205] Um algoritmo exemplar de um modelo de delegação do dispositivo é ilustrado na Figura 126. Nesse exemplo, um processo de tarefa que pode ser delegada começa no dispositivo (12610). O sistema do dispositivo realiza uma análise de uso de energia e predição (12620) (com base, por exemplo, na utilização histórica de energia do usuário 12630 e o tempo esperado até uma carga do dispositivo 12640). Com base nisso, o sistema determina na etapa 12650 se há carga suficiente restante para o tempo de operação exigido da tarefa que pode ser delegada. Se permanecer carga suficiente, o sistema do dispositivo pode aumentar a utilização de energia 12660 e processar a tarefa que pode ser delegada no próprio dispositivo 12670. Se, contudo, o dispositivo não tiver carga suficiente para o tempo de operação exigido, o dispositivo pode consultar um dispositivo emparelhado (por exemplo, um telefone) 12680 para determinar o status de energia do dispositivo emparelhado (12690). Se, no exemplo de um telefone, houver carga suficiente restante no telefone para o tempo de operação exigido, a tarefa pode ser processada no telefone 12694. Se, contudo, não houver carga suficiente no telefone, o sistema pode determinar na etapa 12692 se o dispositivo tem conectividade com um serviço baseado na Internet (por exemplo, nuvem) ou outro serviço baseado em rede. Caso contrário, o dispositivo pode delegar o processo para o telefone 12694. Se houver conectividade, o dispositivo pode delegar o processo para a nuvem 12696, onde a tarefa é processada e os resultados são posteriormente retornados ao dispositivo. Em modalidades especificas, as tarefas que podem ser delegadas podem ser delegadas pelo dispositivo de uma forma dividida para um ou mais dispositivos emparelhados (por exemplo, telefones móveis ou computadores pessoais) ou serviços de rede/Internet. Isto é, as tarefas secundárias que podem ser delegadas de uma tarefa, ou processo que pode ser delegado, podem ser delegados pelo dispositivo para diferentes locais.
[000206] É considerado por essa revelação que um modelo de delegação para um dispositivo especifico (ou para uma familia ou faixa de dispositivos) pode ser dinâmico ou contextuai. Como um exemplo, um modelo de delegação pode considerar a memória disponível, a capacidade de CPU, e a energia disponível de um dispositivo especifico (ou uma familia de dispositivos), fatores que podem todos mudar gradualmente. O modelo de delegação também pode considerar a disponibilidade dos serviços baseados em rede ou baseados em nuvem (e a capacidade de cada um deles), assim como a conectividade de rede (por exemplo, largura de banda e latência) , que também pode mudar gradualmente. Por exemplo, com referência à Figura 127, de acordo com um primeiro modelo de delegação 12710 (o qual pode, por exemplo, ser aplicável aos dispositivos fabricados no próximo ano), a maioria do processamento pode ser dividida igualmente entre o dispositivo e um dispositivo emparelhado (por exemplo, smartphone), com apenas uma pequena quantidade de delegação para um servidor de um serviço baseado em nuvem. De acordo com um segundo modelo de delegação 12720 (o qual pode, por exemplo, ser aplicável para dispositivos fabricados em um periodo de tempo de três anos) a maior parte do processamento pode ser manejada localmente pelo dispositivo (por exemplo, devido aos avanços previstos em memória, CPU, e capacidade de energia em um pequeno fator de forma). Nesse segundo modelo, algum processamento pode ser delegado para um servidor (por exemplo, mais do que no primeiro modelo de delegação, devido à conectividade de rede aperfeiçoada) e apenas uma pequena quantidade de delegação pode ocorrer para o dispositivo localmente emparelhado. De acordo comum terceiro modelo de delegação 12730 (o qual pode, por exemplo, ser aplicável para dispositivos fabricados em um prazo de cinco anos), todas ou quase todas as tarefas de processamento podem ser divididas igualmente entre o dispositivo e um servidor de um serviço baseado em nuvem, com nenhum ou quase nenhum processamento sendo delegado a um dispositivo localmente emparelhado. Qualquer número de modelos de delegação pode ser criado, uma vez que os fatores considerados por um modelo de delegação são dinâmicos. Como um exemplo, todas ou quase todas as tarefas podem ser realizadas localmente no dispositivo de acordo com um modelo de delegação, e todas ou quase todas as tarefas podem ser delegadas pelo dispositivo em outro modelo de delegação.
[000207] O dispositivo pode escolher delegar a funcionalidade para um dispositivo rico de processamento emparelhado (por exemplo, telefone, computador, tablet, televisão, conversor de sinais de frequência, refrigerador, lavadora, ou secadora) ou para a Internet com base nas reservas de energia ou largura de banda de conectividade para cada um desses locais. Por exemplo, um dispositivo com um processador potente pode delegar ao dispositivo emparelhado quando estiver com pouca energia, ou pode optar por delegar para o serviço de Internet quando o dispositivo emparelhado não tiver reservas suficientes de energia. Similarmente, o sistema do dispositivo pode optar por processar localmente se a conexão com a Internet estiver mostrando latência superior para reduzir o tamanho da transferência de dados.
[000208] Em modalidades especificas, um aplicativo inteiro ou uma porção de um aplicativo pode ser delegado por um usuário do dispositivo a um dispositivo emparelhado ou vice-versa. Isso pode ocorrer em uma base por aplicativo. Quando o aplicativo em um dispositivo alvo (por exemplo, uma televisão) estiver para ser delegado ao dispositivo, o dispositivo alvo pode enviar uma solicitação através de conexão emparelhada (possivelmente por intermédio de um dispositivo intermediário, tal como um smartphone ou computador pessoal) para carregar o aplicativo no dispositivo. 0 dispositivo pode então atuar como um cliente para um servidor executando no dispositivo emparelhado (por exemplo, televisão). Similarmente, um aplicativo executando no dispositivo pode ser delegado ao dispositivo emparelhado (por exemplo, um video executando no dispositivo pode ser delegado para executar em uma televisão emparelhada). Por exemplo, se o dispositivo estiver executando em um primeiro aplicativo, e um usuário do dispositivo desejar interagir com o segundo aplicativo, o dispositivo pode automaticamente delegar uma tarefa do primeiro aplicativo a ser processado por outro dispositivo (por exemplo, uma televisão emparelhada).
[000209] A Figura 128 ilustra um exemplo de um fluxo de decisão no dispositivo operando de acordo com um modelo de delegação. Nesse exemplo, um aplicativo de captura de imagem está executando no dispositivo. Uma cena é capturada no dispositivo 12810, e o dispositivo determina 12820 se ele tem capacidade suficiente de CPU para cálculos de recursos de imagem. Se o dispositivo não tiver capacidade suficiente de CPU, ele calcula os recursos de interesse na cena localmente 12830. Se o dispositivo não tiver capacidade suficiente de CPU, ele pode primeiramente determinar 12840 se está emparelhado de forma comunicativa com outro dispositivo com mais capacidade de processamento (por exemplo, um telefone móvel ou um computador pessoal). Se ele estiver emparelhado com tal dispositivo, o dispositivo pode enviar os dados para o dispositivo emparelhado de modo que o dispositivo emparelhado possa calcular os recursos de interesse na imagem 12850. Se o dispositivo não estiver emparelhado com tal dispositivo, ele pode determinar se está conectado a um serviço baseado em Internet (por exemplo, nuvem) 12860. Se não estiver, o dispositivo não realiza ação adicional. Se estiver, o dispositivo pode enviar os dados para o serviço de nuvem de modo que o serviço possa calcular os recursos de interesse na cena 12870. Os recursos de interesse podem ser calculados (sempre que eles forem calculados) utilizando qualquer algoritmo adequado incluindo, por exemplo, SURF. Nesse exemplo, os recursos de interesse podem ser comparados a um catálogo local ou um serviço baseado na Internet para determinar se alguma equiparação é encontrada (e se for o caso, informação relevante de interesse) 12880. Se uma equiparação for encontrada 12890, o resultado pode ser apresentado a um usuário no dispositivo 12895. Se nenhuma equiparação for encontrada, nenhuma ação adicional é realizada.
[000210] Em modalidades especificas, uma câmera ou outro sensor ótico do dispositivo pode ser usado para reconhecer quaisquer gestos realizados pelo usuário (por exemplo, no espaço entre a câmera e um alvo no mundo real). Esses gestos podem, por exemplo, ser usados para atuar nos dados apresentados (por exemplo, o alvo de mundo real, tal como um texto incluindo sinais) ou pode ser usado para apontar para itens específicos sobre os quais funções de realidade aumentada podem ser realizadas. Por exemplo, o usuário pode apontar para uma palavra em um sinal, fazendo com que o dispositivo converta o mesmo e exiba a conversão ao usuário. A Figura 17 ilustra dois exemplos de imagens capturadas por uma câmera do dispositivo. Em um exemplo, um caminhão 1725 e a mão 1720 de um usuário do dispositivo estão ambos dentro do ângulo de visão de uma câmera 1705 do dispositivo e exibido pelo dispositivo (mostrado em 1710). Como tal, os gestos realizados pelo usuário sobre o caminhão podem ser reconhecidos pelo dispositivo e processados pelo dispositivo para fornecer, por exemplo, funcionalidade AR. No segundo exemplo, apenas o caminhão está dentro do ângulo de visão da câmera (mostrada em 1715), e como tal, os gestos realizados pelo usuário não são capturados ou reconhecidos pelo dispositivo. O reconhecimento de gestos pode ser delegado pelo dispositivo.
[000211] Em modalidades especificas, objetos ou imagens podem ser reconhecidos pelo dispositivo quando eles tiverem dentro do quadro de visão de uma câmera do dispositivo. Conforme descrito aqui, pode haver múltiplas formas de o dispositivo reconhecer um objeto. Como um exemplo, um gesto realizado pelo usuário (por exemplo, um gesto de apontar indicando um objeto especifico) pode possibilitar a funcionalidade AR no dispositivo e fazer com que o dispositivo reconheça o objeto. Como outro exemplo, reconhecimento automático de objeto pode ocorrer quando, por exemplo, o usuário posiciona a câmera por certo periodo de tempo em um objeto especifico (por exemplo, uma seção de texto). Como um terceiro exemplo, a funcionalidade AR ou de reconhecimento de objeto pode ser habilitada explicitamente pelo usuário quando, por exemplo, o usuário bate levemente ou toca o display (ou, por exemplo, clica o anel externo) quando a câmera do dispositivo tiver capturado um objeto de interesse. Reconhecimento global de objeto pode, em alguns casos, ser intensivo computacionalmente e tendente a erro. Como tal, em modalidades especificas, um conjunto limitador (por exemplo, as páginas de uma revista ou catálogo ou um catálogo de um tipo especifico de objeto tal como folhas de plantas ou capas de livro) pode ser aplicado para aperfeiçoar a exatidão. Existem algumas opções para cálculo de vetores de recurso a partir de imagens, a partir dos quais o projetista do sistema para o dispositivo pode selecionar. Em alguns casos, a conversão de vetores de recurso entre diferentes abordagens pode ser computacionalmente dispendiosa, de modo que a escolha do banco de dados de possiveis combinações é replicada no dispositivo. 0 cálculo de vetores de recurso pode ser delegado, como descrito aqui.
[000212] Em modalidades especificas, códigos de barra de vários tipos podem ser reconhecidos pelo dispositivo. Esses códigos de barra podem ser usados para consultar serviços baseados na Internet para dados adicionais, assim como opções para comprar, analisar, ou indicar o item com barra de códigos para futura análise. Embora códigos de barra bidimensionais possam geralmente ser lidos diretamente, o sistema do dispositivo pode oferecer um modo de foco próximo adicional para códigos de barra particularmente pequenos ou unidimensionais para aperfeiçoar a taxa de reconhecimento. Se o sistema se ressentir da capacidade de decodificar o código de barras, ele pode simplesmente focalizar a câmera, tirar uma foto, e delegar o reconhecimento a um serviço remoto, conforme aqui descrito. As Figuras 129A-129D ilustram um exemplo de modo de reconhecimento de código de barras. 0 dispositivo pode ser apontado para um item (129A), reconhecer o item (129B), exibir informação adicional obtida a partir da Internet sobre o item (129C) e fornecer ao usuário uma interface para comprar o item (129D).
[000213] Em modalidades especificas, o dispositivo pode realizar conversão. A funcionalidade de conversão pode ser dividida em duas porções: reconhecimento ótico de caracteres (OCR), e conversão de caracteres reconhecidos, palavras ou frases. 0 OCR pode ser concluido no dispositivo ou delegado (por exemplo, para um dispositivo de processamento emparelhado) para reduzir a quantidade de dados a serem convertidos pelo dispositivo. Traduções simples de palavras podem ser realizadas no dispositivo ou delegadas (por exemplo, a um dispositivo de processamento emparelhado) . Como com outra funcionalidade descrita aqui, parte ou todo o processo de reconhecimento ou conversão pode ser delegado conforme necessário. O usuário opcionalmente pode usar um gesto para indicar a palavra a ser traduzida, como mostrado na Figura 130 (por exemplo, a palavra "Aviso"). Como palavras individuais podem ser circunscritas por espaço branco, o sistema pode segmentar a palavra antes de tentar a tradução. Adicionalmente, se o dispositivo puder realizar OCR com baixa latência, ele pode mostrar o texto ao usuário de modo que o usuário saiba quando o dispositivo está visando e reconhecendo corretamente o texto correto. Se OCR automático for habilitado, então o dispositivo pode identificar automaticamente as imagens no ângulo de visão de uma câmera voltada para fora e apresentar no display do dispositivo a informação sobre as imagens identificadas. Se tradução automática for habilitada, então o dispositivo pode traduzir automaticamente o texto no ângulo de visão da câmera voltada para fora e apresentar o texto traduzido no display de dispositivo.
[000214] As Figuras 131A-131D ilustram exemplos do dispositivo operando em vários modos de realidade ampliada aqui descritos, incluindo o modo de reconhecimento de código de barras (131A), o modo de reconhecimento de imagem (131B) , OCR e modo de tradução (131C), e modo de reconhecimento de objeto (131D).
[000215] A Figura 132 ilustra um exemplo do fluxo total de ações para um sistema de realidade aumentada para o dispositivo. Embora esse exemplo ilustre um aplicativo de captura de imagem, qualquer tarefa ou processo adequado no dispositivo pode seguir um fluxo similar. Adicionalmente, qualquer tarefa após o dispositivo capturar uma imagem e antes de o dispositivo exibir os resultados ao usuário pode (conforme adequado) ser delegada pelo dispositivo. Nesse exemplo, uma imagem a partir de uma câmera do dispositivo é capturada (na seção de captura de imagem 13210), pré-processada (na seção 13220), os recursos são extraidos e reconhecidos para produzir resultados de reconhecimento de imagem (na seção 13230), e quaisquer objetos podem ser reconhecidos (na seção 13240) . Os dados de objeto podem ser formatados para a ação por um usuário do dispositivo. 0 usuário pode ativar um modo de realidade aumentada do dispositivo 13211 (por exemplo, por intermédio de um gesto de usuário ou apontando a câmera do dispositivo para um objeto por periodo de tempo predeterminado), e uma imagem no campo de visão da câmera 13212 pode ser capturada (por exemplo, com base em um evento de acionamento tal como uma entrada de usuário ou ativação automática de câmera) pela câmera de dispositivo 13213 para produzir uma imagem de câmera 13214, Nesse ponto, se pode entrar no estágio de pré-processamento 13220. 0 pré-processamento 13220 pode, por exemplo, incluir aperfeiçoamento de contraste, conversão de escala de cinza, nitidez, ou amostragem descendente. Em modalidades especificas, a câmera pode operar em um modo de realidade aumentada geral no qual qualquer coisa na frente da câmera pode ser processada e reconhecida. Em outras modalidades, a câmera pode operar em modos específicos (por exemplo, OCR, código de barras, ou marcador visual) e reconhecer apenas itens específicos quando em tal modo. Em modalidades especificas, se for determinado que a imagem possa incluir formas conhecidas, simbolos, ou organizações de formas ou simbolos (por exemplo, se a câmera ou dispositivo estiver no modo OCR, modo de código de barras ou modo de marcador visual), processamento de imagem AR pode prosseguir em um primeiro caminho. Esse primeiro caminho começa com o processamento preliminar 13221, prossegue para segmentação 13231 (a qual pode, por exemplo, determinar limites de símbolo ou de grupo de simbolos tal como letras ou palavras) , e começa com uma ou mais de reconhecimento ótico de caracteres 13234 (por exemplo, se for determinado que a imagem contenha caracteres, determinando quais sejam esses caracteres) , reconhecimento de código de barras 13235 (por exemplo, se for determinado que a imagem possa conter um código de barras, reconhecendo o código de barras), ou reconhecimento de marcador visual (por exemplo, reconhecendo outros tipos de marcadores visuais) 13236 (por exemplo, para todos os outros tipos de marcadores visuais). Os resultados desse primeiro caminho são enviados para o reconhecedor de objetos 13242. Em se for determinado que a imagem possa incluir recursos que não são necessariamente conhecidos, o processamento de imagem AR pode prosseguir em um segundo caminho. 0 segundo caminho começa com a extração de recurso 13222 (por exemplo, no qual a presença de bordas ou linhas, mudanças em ângulos de linhas, bordas, pontos de interesse ou padrões, são detectados na imagem capturada). 0 segundo caminho prossegue para reconhecimento de imagem 13232, no qual os recursos da imagem são comparados com os dados de recurso a partir de um banco de dados de reconhecimento 13233 (que pode, por exemplo, residir no dispositivo, em um dispositivo localmente emparelhado, ou em um servidor ou computador remoto). Os resultados da comparação de reconhecimento de imagem são fornecidos 13237 e enviados para o reconhecedor de objeto 13242. Na seção de reconhecimento de objeto 13240, o primeiro e o segundo caminho convergem no reconhecedor de objeto 13242. Aqui, os resultados a partir de um banco de dados de objeto 13241 são utilizados para reconhecer os objetos (por exemplo, que um telefone reconhecido utilizando o banco de dados de reconhecimento de imagem 13233 é de uma marca e modelo especifico de telefone). Os dados de objeto 13243 sobre o objeto reconhecido pelo reconhecedor 13242 (por exemplo, o preço do modelo de telefone reconhecido, ou onde o telefone pode estar disponível para compra) podem ser fornecidos. Para texto, pode haver definições ou conversões que ocorrem e são exibidas para o usuário. Para códigos de barra, pode haver informação de produto e links para comprar o objeto reconhecido que é exibido ao usuário. Em modalidades especificas, os dados podem ser puramente descritivos (por exemplo, o preço do telefone) ou podem ser ativos (por exemplo, um link onde o usuário pode comprar o telefone). Se os dados incluírem dados de ação 13244, então um controlador de ação 13250 (o qual controla, formata e emite uma GUI para o usuário do dispositivo) pode mostrar uma UI ao usuário 13255 incluindo os dados ativos (por exemplo, o link para comprar o telefone). Se o usuário selecionar uma ação 13260 (por exemplo, clicando no link) , então o controlador de ação mostra o UI de ação ao usuário 13265 (por exemplo, abrindo o link) , e se a ação for confirmada 13270, então a ação (por exemplo, a abertura efetiva da página de rede associada ao link) é realizada 13275.
[000216] A Figura 133 ilustra um exemplo de um ambiente de rede. Conforme descrito aqui, em modalidades especificas, o dispositivo 13310 pode ser emparelhado com outros dispositivos (por exemplo, dispositivos próximos). O dispositivo pode se conectar diretamente a uma rede de área pessoal 13320 (a qual pode se ligar por intermédio de outros dispositivos na mesma rede ou em uma rede de área local) , ou o dispositivo pode se conectar diretamente a uma rede de área local 13330. A rede de área pessoal pode incluir, por exemplo, uma tecnologia de rádio não WI-FI, tal como BLUETOOTH, NFC ou ZIGBEE. A rede de área pessoal pode, por exemplo, incluir um portal de midia inteligente 13322 (por exemplo, um servidor de midia), uma TV inteligente 13324, outro provedor de processamento 13326, ou um telefone 13328. 0 telefone 13328 pode permitir que o dispositivo se conecte a uma rede celular 13340, e a partir dai com a rede 13350. A rede de área local 13330 pode incluir, por exemplo, WI-FI com ou sem autenticação. A rede de área local pode, por exemplo, incluir um roteador de rede sem fio local 13332, dispositivos de midia inteligente 13334, aparelhos inteligentes 13336, e tecnologia de automação doméstica 13838. A rede de área local pode, por sua vez, se conectar à Internet global 13350 por intermédio, por exemplo, do roteador local 13332 que se conecta a um serviço de Internet (por exemplo, um serviço de nuvem patenteado 13352 ou outros parceiros de serviço de rede 13354). Alguns dispositivos podem ser alcançados pelo dispositivo seja por intermédio de acesso direto (por exemplo, através da rede de área pessoal) ou através da rede de área local. Esses dispositivos que podem ser alcançados pelo dispositivo podem ser emparelhados com o dispositivo e podem ser controlados pelo dispositivo ou controlar o dispositivo. O dispositivo pode se conectar à rede de área pessoal ou a rede de área local utilizando, por exemplo, qualquer tecnologia de RF adequada. Conforme mostrado na Figura 133, emparelhamento a um dispositivo alvo na periferia pode ocorrer primeiramente através da rede de RF. Isso permite que o dispositivo saiba o que está "nas proximidades". Isso pode acontecer através da área de rede pessoal (por exemplo, uma rede ad~hoc ou não hierárquica), ou pode usar uma rede mediada tal como rede sem fio 802.11 (por exemplo, a rede de área local). Quando uma vizinhança é estabelecida, o dispositivo pode solicitar que os dispositivos nas proximidades entrem no modo de emparelhamento. Isso pode ser feito diretamente ou por intermédio de um dispositivo de processamento emparelhado com uma gama maior de opções de conectividade, tal como um telefone móvel. Quando os dispositivos alvo tiverem entrado no modo de emparelhamento, eles podem exibir seus sinais de emparelhamento. Por exemplo, dispositivos com displays podem mostrar um identificador visual em seu display, enquanto outros podem habilitar um identificador NFC permitindo que um escâner identifique os mesmos. Outras abordagens tal como a seleção a partir de uma lista ou por um código pin também podem ser usados. Quando um dispositivo é identificado de forma única como um alvo de emparelhamento, o dispositivo pode permutar um token de segurança com o dispositivo alvo para finalizar o emparelhamento.
[000217] A Figura 134 ilustra um exemplo de diferentes tipos de tecnologia de emparelhamento que podem ser usados para emparelhar um dispositivo alvo com o dispositivo. O dispositivo alvo, o qual pode ser um dispositivo inteligente tal como um telefone, pode incluir identificadores NFC passivos 13402 ou transmissores NFC ativos 13404 (que podem ser reconhecidos por um leitor de identificador NFC 13420 e decodificador NFC 13428 do dispositivo); um decodificador NFC 13406 (o qual pode reconhecer os identificadores NFC gravados pelo gravador de identificador NFC 13422 do dispositivo), identificadores visuais passivos 13408 (por exemplo, rótulos), códigos de barra 13420, ou outra informação de exibição 13412 (a qual pode ser reconhecida por uma câmera 13424 do dispositivo); ou outro sistema de emparelhamento 13416. Um gerador de identificador ativo 13414 do dispositivo alvo pode criar a informação de exibição 13412 ou fornecer informação ao outro sistema de emparelhamento 13416 do dispositivo alvo (o qual é reconhecido por um sistema de emparelhamento invertido 13426 com decodificador de código de emparelhamento 13438 do dispositivo). O dispositivo pode gravar os dados para identificadores NFC (por exemplo, com um gravador de identificador NFC 13422) para transmitir esses dados para outros dispositivos alvos que podem ser então emparelhados ao dispositivo. Identificadores gravados pelo dispositivo podem ser reconhecidos pelos decodificadores de identificador NFC 13406 em um dispositivo alvo. 0 dispositivo pode incluir qualquer um de um número de decodificadores incluindo decodificador de código de barras 13430, decodificador de identificador visual 13432, identificador de imagem 13434, ou outro decodificador baseado em imagem 13436 (por exemplo, um decodificador para códigos QR, logotipos ou padrões de cintilação de LEDs), todos recolhendo entrada a partir da câmera 13424 do dispositivo. Após o dispositivo receber e reconhecer informação de emparelhamento, ele pode decodificar (por exemplo, através de uma variedade de decodificadores) a informação relevante para prosseguir com o emparelhamento com o dispositivo alvo. Em modalidades especificas, o emparelhamento pode ser obtido utilizando um dispositivo alvo sensivel ao movimento (por exemplo, telefone móvel ou remoto) emparelhado com o dispositivo mediante retenção e movimento do dispositivo alvo na mesma mão que o dispositivo (por exemplo, se os dois dispositivos incluírem acelerômetros, o padrão de movimento similar pode ser detectado e usado para emparelhar os dispositivos). Como outro exemplo, um dispositivo alvo fixo pode ser emparelhado com o dispositivo mediante, por exemplo, leve batida no dispositivo alvo fixo com um padrão aleatório enquanto segurando o dispositivo alvo fixo na mesma mão que o dispositivo (por exemplo, se os dois dispositivos incluirem, detecção de toque, o padrão similar da leve batida pode ser detectado e usado para emparelhar os dispositivos). Adicionalmente, o emparelhamento pode ser feito utilizando áudio se o dispositivo e o dispositivo alvo tiverem capacidades de recepção de áudio, um usuário pode fazer um som (por exemplo, dizer uma frase) que os dois dispositivos detectam e então estabelecer um emparelhamento. Qualquer tecnologia adequada (incluindo, por exemplo, funções de realidade aumentada) do dispositivo pode ser usada para emparelhar com e controlar os dispositivos locais. 0 dispositivo e o dispositivo alvo podem se conectar individualmente a outros dispositivos de rede intermediária, possiveis 13440, e também a uma rede de área local 13450.
[000218] A Figura 135 ilustra um processo exemplar para emparelhamento de um dispositivo alvo (por exemplo, utilizando qualquer um dos métodos aqui descritos) com o dispositivo. Quando o modo de emparelhamento for habilitado 13510, o dispositivo determina se a rede de RF contém dispositivos alvo que podem ser emparelhados 13512. Se negativo, nenhuma ação adicional é realizada (por exemplo, o dispositivo pode continuar a realizar a varredura periodicamente). Caso afirmativo, o dispositivo pode solicitar que os dispositivos que podem ser emparelhados entrem no modo de emparelhamento 13514. O dispositivo pode então prosseguir (em qualquer ordem, ou de uma forma em paralelo) para realizar a varredura, por intermédio de diferentes tecnologias diferentes, para dispositivos alvos disponíveis. Esses podem incluir varreduras de identificador NFC 13516, varreduras de identificadores visuais no ângulo de visada da câmera 13518, varreduras de código de barra no ângulo de visada da câmara 13520, ou qualquer outro método 13522. Se um dispositivo alvo for detectado por intermédio de um desses métodos, o dispositivo alvo é emparelhado ao dispositivo 13524. Quando o emparelhamento tiver ocorrido, o dispositivo pode mostrar itens de menu ao usuário para controlar o dispositivo(s) emparelhado. O dispositivo pode permitir controle de gesto visual e também controle de gesto baseado em movimento dos dispositivos emparelhados. Por exemplo, o usuário pode realizar gesto (por exemplo, acenar com sua mão) para mudar os canais em uma televisão emparelhada, ou pode fazer um gesto de apertar para transferir os meios de video a partir do dispositivo para um display emparelhado (utilizando, por exemplo, funcionalidade AR). Controle de dispositivo mediado através de uma rede de RF pode ser tanto local como protegido. A Figura 36 ilustra controles exemplares habilitados no dispositivo para uma televisão emparelhada e controlada incluindo um icone LIGAR/DESLIGAR ativo 13610, canais favoritos 13620, um display de canal atual 13630, e volume 13640. Conforme descrito aqui, qualquer entrada adequada a partir do usuário pode ser usada para controlar a funcionalidade de um dispositivo emparelhado. Por exemplo, entrada de gesto, entrada de clicar ou pressionar, ou entrada de toque pode ser usada, por exemplo, para mudar canais, ajustar volume ou controlar outras funcionalidades da televisão emparelhada.
[000219] Em modalidades especificas, um modelo de emparelhamento e controle para o dispositivo pode incluir as seguintes características. 0 dispositivo pode funcionar como o hospedeiro para um aplicativo que interage com ou controla uma ou mais funções de um dispositivo remoto (por exemplo, um acessório de aplicativo tal como um termostato controlável). Um smartphone (ou outro dispositivo localmente emparelhado), o qual pode ter sido previamente o hospedeiro para o aplicativo, pode agora funcionar apenas como um dispositivo alvo local ao qual o dispositivo pode delegar certas funções relacionadas à interação ou controle do dispositivo remoto (por exemplo, conectividade sem fio de alcance mais longo para o dispositivo remoto, enviando comandos para o dispositivo remoto, recebendo dados a partir do dispositivo remoto, ou processando tarefas). Controle do dispositivo acessório de aplicativo remoto pode ser feito pelo dispositivo utilizando qualquer meio adequado incluindo, por exemplo, meio visual (por exemplo, utilizando a câmera) ou gestos baseados em movimento. Em outras modalidades, o smartphone localmente emparelhado continua a funcionar como o hospedeiro para o aplicativo que interage com o acessório de aplicativo remoto, mas o dispositivo pode fornecer alguma ou toda da interface de usuário para entrada e saida de dados para e a partir do aplicativo (por exemplo, uma versão "leve" do aplicativo hospedado pelo smartphone). Por exemplo, o usuário pode controlar o aplicativo usando o dispositivo, mas o smartphone pode funcionar ainda como o hospedeiro do aplicativo.
[000220] Em modalidades especificas, o dispositivo pode ser operável com um ou mais serviços. Esses serviços podem estar compreendidos nas categorias incluindo segurança, energia, automação doméstica e controle, compartilhamento de conteúdo, cuidados com a saúde, esportes e entretenimento, comércio, veiculos e aplicações sociais.
[000221] Aplicações de segurança, exemplares incluem as seguintes. O dispositivo pode autenticar um usuário (que está usando o dispositivo desbloqueado) junto a outro dispositivo próximo ao usuário (por exemplo, emparelhado com o dispositivo). O dispositivo pode ser desbloqueado com um código introduzido pelo usuário utilizando qualquer entrada adequada incluindo, por exemplo, girar o anel externo do dispositivo. Como um exemplo, enquanto um usuário gira (ou pressiona ou clica) o anel externo, o display pode mostrar dados alfanuméricos ou simbólicos correspondendo à rotação (ou pressão ou clique) pelo usuário. Se, por exemplo, o usuário girar o anel externo em um incremento rotacional em uma direção no sentido horário (ou, por exemplo, clicar ou apertar uma vez o anel externo), o display pode mostrar ao usuário um "1", e se o usuário girar o anel externo em dois incrementos rotacionais (por exemplo, dentro de certo periodo de tempo, tal como um milissegundo) em uma direção no sentido horário (ou, por exemplo, clicar ou apertar duas vezes o anel externo), o display pode mostrar ao usuário um "2". Em modalidades especificas, o display de dados alfanuméricos ou simbólicos correspondendo a uma rotação (ou pressão ou clique) pelo usuário pode permitir que o usuário desbloqueie o dispositivo utilizando a metáfora de um bloqueio em combinação. 0 dispositivo também pode ser desbloqueado utilizando dados biométricos (por exemplo, mediante assinaturas de pele ou osso do usuário).
[000222] Em uma aplicação de energia exemplar, o dispositivo pode automaticamente exibir informação sobre o consumo de energia do ambiente ou outro local no qual o usuário estiver localizado. 0 dispositivo também pode ser capaz de exibir informação sobre o consumo de energia de outros dispositivos emparelhados e atualizar toda essa informação de forma dinâmica à medida que o usuário muda de localização.
[000223] Em um aplicativo de controle doméstico exemplar, o usuário pode selecionar e controlar diretamente os dispositivos de controle doméstico emparelhados utilizando, por exemplo, a rotação do anel externo ou uma entrada de gesto.
[000224] 0 usuário pode usar gestos para controlar o compartilhamento ou transferência de conteúdo para ou a partir do dispositivo (por exemplo, transferindo video em execução no dispositivo para uma televisão emparelhada, conforme aqui descrito). Adicionalmente, informação auxiliar (por exemplo, subtítulos de filmes) pode ser fornecida ao dispositivo para conteúdo mostrado em outro dispositivo maior (por exemplo, tela de televisão reproduzindo o filme).
[000225] O dispositivo pode determinar automaticamente um contexto de cuidados com a saúde (por exemplo, se o usuário estiver se exercitando ou dormindo). Quando ele determinar esse contexto, o dispositivo pode abrir os aplicativos correspondendo ao contexto de cuidados com a saúde (por exemplo, para gravar o batimento cardiaco durante exercício, movimento durante exercício, duração do exercício, oximetria de pulso durante exercício, padrões de sono, duração de sono ou resposta de pele galvânica). O dispositivo pode, por exemplo, medir os dados relacionados à saúde do usuário (por exemplo, batimento cardiaco, movimento ou oximetria de pulso) e enviar alguns ou todos esses dados para um dispositivo emparelhado ou um servidor. Embora ilustrado no contexto de cuidados com a saúde, a determinação de um contexto relevante (por exemplo, baseado em um comportamento do usuário), abertura de aplicativos correspondentes, gravação de dados ou transmissão desses dados, pode ser aplicável em qualquer contexto adequado.
[000226] 0 dispositivo pode auxiliar em aplicações relacionadas a esporte tal como, por exemplo, avaliar automaticamente um movimento de golfe do usuário e sugerir correções.
[000227] Em um cenário comercial, o dispositivo pode identificar automaticamente um produto (por exemplo, utilizando RFID, NFC, reconhecimento de código de barras ou reconhecimento de objetos) quando o usuário pega o produto e pode proporcionar informação sobre o produto (por exemplo, informação de nutrição, informação de origem ou análises) ou a opção de comprar o produto. 0 pagamento pelo produto pode, por exemplo, ser realizado utilizando a tecnologia de código de barras, visual no dispositivo. Em modalidades especificas, o dispositivo pode ser usado para pagar por um produto utilizando NFC, RFID ou qualquer outra forma adequada de comunicação de curta distância. Durante pagamento, a informação do usuário pode, por exemplo, ser autenticada pelo dispositivo, que pode detectar a informação biométrica do usuário (por exemplo, estrutura de osso ou assinatura de pele). 0 dispositivo também pode proporcionar automaticamente uma indicação para o usuário (por exemplo, uma vibração) quando o usuário estiver próximo de um produto em sua lista de compras (por exemplo, armazenado no dispositivo) ou outra lista (por exemplo, uma lista de desejos do amigo do usuário).
[000228] O dispositivo pode funcionar como uma chave para desbloquear ou ligar um ou mais veiculos. O usuário pode, por exemplo, introduzir um código utilizando o anel externo para desbloquear ou ligar o veiculo (por exemplo, utilizando tecnologia NFC), como descrito anteriormente. Em modalidades especificas, a informação biométrica de usuário e um código introduzido pelo usuário podem ser exigidos para desbloquear o carro, permitindo segurança aperfeiçoada para uma aplicação baseada em carro. Adicionalmente, o dispositivo pode incluir perfis para um ou mais usuário, cada perfil contendo configurações de veiculo (por exemplo, temperatura ou posição do banco). Como outro exemplo, informação biométrica de um usuário especifico pode ser usada não apenas para desbloquear o veiculo, mas também para determinar qual perfil de usuário carregar durante a operação do carro. A proximidade do dispositivo com o veiculo pode automaticamente fazer com que o veiculo implemente as configurações de veiculo do perfil do usuário. O dispositivo também pode ser operável para navegação por GPS (quer seja diretamente no dispositivo ou quando emparelhado com um telefone e controlando o mesmo, por exemplo).
[000229] O dispositivo pode acessar e operar em conjunto com um serviço que fornece suporte para jogos de realidade mista ou jogos baseados em realidade de múltiplos jogadores maciçamente. Essa funcionalidade pode, por exemplo, incluir registro, gerenciamento de dados de usuário (por exemplo, perfis de usuário e dados relacionados aos jogos, tais como níveis concluídos ou inventários de suprimentos) , e gerenciamento de listas de realização. A funcionalidade do dispositivo e do serviço também pode incluir gerenciamento de conectividade (por exemplo, funcionalidade de concentrador) que maneja canais de comunicação sem fio, frágeis e proporciona uma API unificada para servidores de jogos de terceiros.
[000230] O dispositivo pode acessar e operar em conjunto com um serviço que permite que um usuário do dispositivo publique localizações, check-ins, ou outros dados baseados em localização que permitem que vários serviços acessem um reservatório consistente da informação mais atual com relação à posição e status do usuário. Como um exemplo, o usuário do dispositivo pode encontrar amigos utilizando dispositivos similares. O serviço e o dispositivo em conjunto podem lidar com atualizações de status, gerenciamento de perfil, permissões de acesso de aplicativo, listas negras, ou permissões de acesso de usuário para usuário. O serviço pode ser um ponto de toque de confiança e centralizado para dados privados. Mediante combinação de acesso a um serviço de localização unificado, a vida útil da bateria e energia podem, em modalidades especificas, ser conservadas. Em modalidades especificas, alguns tokens de funcionalidade podem ser disponibilizados com base na posição do usuário. Um aplicativo pode, por exemplo, se conectar ao dispositivo para verificar se esse token está disponível e atuar em conformidade. Pelo lado do servidor, APIs podem permitir que desenvolvedores vejam o uso dos tokens ou permitam resgate. Em modalidades específicas, informações podem ser distribuídas pelo dispositivo para outros usuários (por exemplo, um único outro usuário, ou em um modo de difusão para múltiplos usuários).
[000231] 0 dispositivo pode acessar e operar em conjunto com um serviço que proporciona uma interface de sondagem unificada que permite que os dispositivos recebam e enviem sondagens. O dispositivo e o serviço em conjunto podem gerenciar listas de distribuição, critérios de escores, e quadros de disponibilidade de sondagem (tanto temporal como geográfico, por exemplo). Esse serviço pode ser exposto no dispositivo e em um servidor de tal modo que terceiros possam utilizar os APIs para gravar aplicativos e receber resultados de volta por intermédio de APIs online.
[000232] Em modalidades específicas, o dispositivo pode acessar e operar em conjunto com um serviço que proporciona otimizações para apresentação de texto, imagens, ou outra informação em um display circular do dispositivo. Como um exemplo, um sítio da rede pode ser renderizado ou formatado para exibição em um monitor de computador, mas um serviço pode customizar a renderização e formatação para um display circular menor mediante ênfase nas imagens e truncamento de texto. A renderização e a formatação customizadas podem, por exemplo, ser uma tarefa que pode ser delegada entre o dispositivo e um ou mais servidores ou dispositivos localmente emparelhados. Esse serviço também pode incluir noticias ou serviços de propaganda.
[000233] A Figura 137 ilustra um sistema de computador exemplar 13700. Em modalidades especificas, um ou mais sistemas de computador 13700 realizam uma ou mais etapas de um ou mais métodos descritos ou ilustrados aqui. Em modalidades especificas, um ou mais sistemas de computador 13700 proporciona a funcionalidade aqui descrita ou ilustrada. Em modalidades especificas, software executando em um ou mais sistemas de computador 13700 realizam uma ou mais etapas de um ou mais métodos descritos ou ilustrados aqui ou proporcionam funcionalidade descrita ou ilustrada aqui. Modalidades especificas incluem uma ou mais porções de um ou mais sistemas de computador 13700. Aqui, referência a um sistema de computador pode abranger um dispositivo de computação, e vice- versa, onde apropriado. Além disso, referência a um sistema de computador pode abranger um ou mais sistemas de computador, onde apropriado.
[000234] Essa revelação considera qualquer número adequado de sistemas de computador 13700. Essa revelação considera sistema de computador 13700 assumindo qualquer forma fisica adequada. Como exemplo, e não como limitação, o sistema de computador 13700 pode ser um sistema de computador integrado, um sistema em chip (SOC) , um sistema de computador de placa única (SBC) (tal como, por exemplo, um computador em módulo (COM) ou sistema em módulo (SOM) ) , um sistema de computador de mesa, um sistema de computador laptop ou notebook, um quiosque interativo, um computador de grande porte, uma rede de sistemas de computador, um telefone móvel, um assistente pessoal digital (PDA), um servidor, um sistema de computador tablet ou uma combinação de dois ou mais dos mesmos. Onde apropriado, o sistema de computador 13700 pode incluir um ou mais sistemas de computador 13700; quer seja unitário ou distribuído; cobrir múltiplos locais; cobrir múltiplas máquinas; cobrir múltiplos centros de dados; ou residir em uma nuvem, que pode incluir um ou mais componentes de nuvem em uma ou mais redes. Onde apropriado, um ou mais sistemas de computador 13700 podem realizar sem limitação espacial ou temporal substancial uma ou mais etapas de um ou mais métodos descritos ou ilustrados aqui. Como um exemplo e não como limitação, um ou mais sistemas de computador 13700 podem realizar em tempo real ou no modo em lote uma ou mais etapas de um ou mais métodos descritos ou ilustrados aqui. Um ou mais sistemas de computador 13700 podem executar em tempos diferentes ou em locais diferentes uma ou mais etapas de um ou mais métodos descritos ou ilustrados aqui, onde apropriado.
[000235] Em modalidades especificas, o sistema de computador 13700 inclui um processador 13702, memória 13704, meio de armazenamento 13706, uma interface de entrada/saida (I/O) 13708, uma interface de comunicação 13710, e um barramento 13712. Embora essa revelação descreva e ilustre um sistema de computador especifico tendo um número especifico de componentes específicos em um arranjo especifico, essa revelação considera qualquer sistema de computador adequado que tenha qualquer número adequado de quaisquer componentes adequados em qualquer arranjo adequado.
[000236] Em modalidades especificas, o processador 13702 inclui hardware para executar instruções, tais como aquelas compondo um programa de computador. Como um exemplo e não como limitação, para executar instruções, o processador 13702 pode recuperar (ou ir buscar) as instruções a partir de um registrador interno, um cache interno, memória 13704, ou meio de armazenamento 13706; decodificar e executar as mesmas; e então gravar um ou mais resultados em um registrador interno, um cache interno, memória 13704, ou meio de armazenamento 13706. Em modalidades especificas, o processador 13702 pode incluir um ou mais caches internos para dados, instruções ou endereços. Essa revelação considera o processador 13702 incluindo qualquer número adequado de qualquer cache interno adequado, onde apropriado. Como um exemplo e não como limitação, o processador 13702 pode incluir um ou mais caches de instrução, um ou mais caches de dados, e um ou mais armazenadores temporários de conversão (TLBs). Instruções nos caches de instrução podem ser cópias de instruções na memória 13704 ou meio de armazenamento 13706, e os caches de instrução podem acelerar a recuperação dessas instruções pelo processador 13702. Os dados nos caches de dados podem ser cópias de dados na memória 13704 ou meio de armazenamento 13706 para instruções executando no processador 13702 a serem operadas; os resultados das instruções anteriores executadas no processador 13702 para acesso por instruções subsequentes executando no processador 13702 ou para gravação na memória 13704 ou meio de armazenamento 13706; ou outros dados adequados. Os caches de dados podem acelerar as operações de leitura ou gravação pelo processador 13702. Os TLBs podem acelerar a conversão de endereço virtual para o processador 13702. Em modalidades específicas, o processador 13702 pode incluir um ou mais registradores internos para dados, instruções, ou endereços. Essa revelação considera o processador 13702 incluindo qualquer número adequado de registradores internos adequados, onde apropriado. Onde apropriado, o processador 13702 pode incluir uma ou mais unidades lógicas aritméticas (ALUs); ser um processador de múltiuplos núcleos; ou incluir um ou mais processadores 13702. Embora essa revelação descreva e ilustre um processador específico, essa revelação considera qualquer processador adequado.
[000237] Em modalidades específicas, a memória 13704 inclui memória principal para armazenar instruções para o processador 13702 que devem ser executadas, ou os dados que devem ser operados pelo processador 13702. Como um exemplo e não como limitação, o sistema de computador 13700 pode carregar instruções a partir do meio de armazenamento 13706 ou outra fonte (tal como, por exemplo, outro sistema de computador 13700) para a memória 13704. O processador 13702 pode então carregar as instruções a partir da memória 13704 para um registrador interno ou cache interno. Para executar as instruções, o processador 13702 pode recuperar as instruções a partir do registrador interno ou cache interno e decodificar as mesmas. Durante ou após a execução das instruções, o processador 13702 pode gravar um ou mais resultados (o qual pode ser resultado intermediário ou final) no registrador interno ou cache interno. O processador 13702 pode então gravar um ou mais desses resultados na memória 13704. Em modalidades específicas, o processador 13702 executa apenas instruções em um ou mais registradores internos ou caches internos ou na memória 13704 (ao contrário do meio de armazenamento 13706 ou em outro lugar) e opera apenas nos dados em um ou mais registradores internos ou caches internos ou na memória 13704 (ao contrário do meio de armazenamento 13706 ou em outro lugar) . Um ou mais barramentos de memória (os quais podem incluir individualmente um barramento de endereço e um barramento de dados) podem acoplar o processador 13702 à memória 13704. O barramento 13712 pode incluir um ou mais barramentos de memória, conforme descrito abaixo. Em modalidades especificas, uma ou mais unidades de gerenciamento de memória (MMUs) residem entre o processador 13702 e a memória 13704 e facilitam acesso à memória 13704 solicitado pelo processador 13702. Em modalidades especificas, a memória 13704 inclui memória de acesso aleatório (RAM) . Essa RAM pode ser memória volátil, onde apropriado, e essa RAM pode ser RAM dinâmica (DRAM) ou RAM estática (SRAM), onde apropriado. Além disso, onde apropriado, essa RAM pode ser RAM de porta única ou de múltiplas portas. Essa revelação considera qualquer RAM adequada. A memória 13704 pode incluir uma ou mais memórias 13704, onde apropriado. Embora essa revelação descreva e ilustre memória especifica, essa revelação considera qualquer memória adequada.
[000238] Em modalidades especificas, o meio de armazenamento 13706 inclui armazenamento em massa para os dados ou instruções. Como um exemplo e não como limitação, o meio de armazenamento 13706 pode incluir uma unidade de disco rigido (HDD), uma unidade de disquete, memória flash, um disco ótico, um disco magneto-ótico, fita magnética ou uma unidade de Barramento Serial Universal (USB) ou uma combinação de dois ou mais dos mesmos. 0 meio de armazenamento 13706 pode incluir midia removivel ou não removivel (ou fixa), onde apropriado. O meio de armazenamento 13706 pode ser interno ou externo ao sistema de computador 13700, onde apropriado. Em modalidades especificas, o meio de armazenamento 13706 é memória não volátil, de estado sólido. Em modalidades especificas, o meio de armazenamento 13706 inclui memória de leitura (ROM). Onde apropriado, essa ROM pode ser ROM programada de máscara, ROM programável (PROM), PROM apagável (EPROM), PROM eletricamente apagável (EEPROM), ROM eletricamente alterável (EAROM), ou memória flash ou uma combinação de duas ou mais das mesmas. Essa revelação considera armazenamento em massa 13706 assumindo qualquer forma física adequada. 0 meio de armazenamento 13706 pode incluir uma ou mais unidades de controle de armazenamento facilitando a comunicação entre o processador 13702 e o meio de armazenamento 13706, onde apropriado. Onde apropriado, o meio de armazenamento 13706 pode incluir um ou mais meios de armazenamento 13706. Embora essa revelação descreva e ilustre meio de armazenamento específico, essa revelação considera qualquer meio de armazenamento adequado.
[000239] Em modalidades específicas, a interface I/O 13708 inclui hardware, software ou ambos, proporcionando uma ou mais interfaces para comunicação entre o sistema de computador 13700 e um ou mais dispositivos I/O. O sistema de computador 13700 pode incluir um ou mais desses dispositivos I/O, onde apropriado. Um ou mais desses dispositivos I/O pode habilitar a comunicação entre uma pessoa e o sistema de computador 13600. Como um exemplo e não como limitação, um dispositivo I/O pode incluir um teclado, bloco de teclas, microfone, monitor, mouse, impressora, escâner, altofalante, câmera estática, caneta, tablet, tela de toque, trackball, câmera de vídeo, outro dispositivo I/O adequado ou uma combinação de dois ou mais dos mesmos. Um dispositivo I/O pode incluir um ou mais sensores. Essa revelação considera qualquer dispositivo I/O adequado e qualquer interface I/O adequada 13708 para os mesmos. Onde apropriado, a interface I/O 13708 pode incluir um ou mais dispositivos ou acionadores de software habilitando o processador 13702 a acionar um ou mais desses dispositivos I/O. A interface I/O 13708 pode incluir uma ou mais interfaces I/O 13708, onde apropriado. Embora essa revelação descreva e ilustre uma interface I/O especifica, essa revelação considera qualquer interface I/O adequada.
[000240] Em modalidades especificas, a interface de comunicação 13710 inclui hardware, software ou ambos, proporcionando uma ou mais interfaces para comunicação (tal como, por exemplo, comunicação baseada em pacotes) entre o sistema de computador 13700 e um ou mais de outros sistemas de computador 13700 ou uma ou mais redes. Como um exemplo e não como limitação, a interface de comunicação 13610 pode incluir um controlador de interface de rede (NIC) ou adaptador de rede para comunicação com uma Ethernet ou outra rede cabeada ou uma NIC sem fio (WNIC) ou adaptador sem fio para comunicação com uma rede sem fio, tal como uma rede WI-FI. Essa revelação considera qualquer rede adequada e qualquer interface de comunicação adequada 13710 para a mesma. Como um exemplo e não como limitação, o sistema de computador 13700 pode se comunicar com uma rede ad-hoc, uma rede de área pessoal (PAN) , uma rede de área local (LAN), uma rede de área remota (WAN), uma rede de área metropolitana (MAN) , uma rede de área de corpo (BAN) , uma ou mais porções da Internet ou uma combinação de duas ou mais das mesmas. Uma ou mais porções de uma ou mais dessas redes podem ser cabeadas ou sem fio. Como um exemplo, o sistema de computador 13700 pode se comunicar com uma PAN sem fio (WPAN) (tal como, por exemplo, uma BLUETOOTH WPAN), uma rede WI-FI, uma rede WI-MAX, uma rede de telefonia celular (tal como, por exemplo, uma rede de Sistema Global para Comunicação Móvel (GSM) ) , ou outra rede sem fio adequada ou uma combinação de duas ou mais das mesmas. O sistema de computador 13700 pode incluir qualquer interface de comunicação adequada 13710 para qualquer uma dessas redes, onde apropriado. O dispositivo de comunicação 13710 pode incluir uma ou mais interfaces de comunicação 13710, onde apropriado. Embora essa revelação descreva e ilustre uma interface de comunicação especifica, essa revelação considera qualquer interface de comunicação adequada.
[000241] Em modalidades especificas, o barramento 13712 inclui hardware, software, ou ambos acoplando componentes do sistema de computador 13700 entre si. Como um exemplo e não como limitação, o barramento 13712 pode incluir uma Porta Gráfica Acelerada (AGP) ou outro barramento gráfico, um barramento de Arquitetura de Padrões Aperfeiçoados da Indústria (EISA), um barramento front-side (FSB), uma interligação HYPERTRANSPORT (HT) , um barramento de Arquitetura de Padrões da Indústria (ISA), uma interligação INFINIBAND, um barramento de baixa contagem de pino (LPC), um barramento de memória, um barramento de Arquitetura de Microcanal (MCA), um barramento de Interligação de Componentes Periféricos (PCI), um barramento PCI-Express (PCIe), um barramento de anexação de tecnologia avançada serial (SATA), um barramento local de Associação de Padrões de Eletrônica de Video (VLB), ou outro barramento adequado ou uma combinação de dois ou mais dos mesmos. O barramento 13712 pode incluir um ou mais barramentos 13712, onde apropriado. Embora essa revelação descreva e ilustre um barramento especifico, essa revelação considera qualquer barramento adequado ou interligação.
[000242] Aqui, um meio ou midia de armazenamento legivel por computador não transitório pode incluir um ou mais circuitos baseados em semicondutor ou outros circuitos integrados (ICs) (tal como, por exemplo, arranjos de portas programáveis no campo (FPGAs), ou ICs de aplicação especifica (ASICs)), unidades de disco rigido (HDDs), unidades de disco hibrido (HHDs), discos óticos, unidades de disco ótico (ODDs), discos magneto-óticos, unidades magneto-óticas, disquetes, unidades de disquete (FDDs), fitas magnéticas, unidades de estado sólido (SSDs), unidades RAM, cartões ou unidades SECURE DIGITAL, qualquer outra midia de armazenamento não transitório legivel por computador adequada, ou qualquer de dois ou mais dos mesmos, onde apropriado. Um meio de armazenamento legivel por computador não transitório pode ser volátil, não volátil ou uma combinação de volátil e não volátil, onde apropriado.
[000243] Aqui, "ou" é inclusivo e não exclusivo, a menos que expressamente indicado de outro modo ou indicado de outro modo pelo contexto. Portanto, aqui, "A ou B" significa "A, B ou ambos", a menos que expressamente indicado de outro modo ou indicado de outro modo pelo contexto. Além disso, "e" significa em conjunto e separado, a menos que expressamente indicado de outro modo ou indicado de outro modo pelo contexto. Portanto, aqui "A e B" significa "A e B, conjuntamente ou de forma separada", a menos que expressamente indicado de outro modo ou indicado de outro modo pelo contexto.
[000244] O escopo dessa revelação abrange todas as mudanças, substituições, variações, alterações e modificações nas modalidades exemplares descritas ou ilustradas aqui que aqueles de conhecimento comum na técnica compreenderão. O escopo dessa revelação não é limitado às modalidades exemplares aqui descritas ou ilustradas. Além disso, embora essa revelação descreva e ilustre modalidades respectivas como incluindo componentes, elementos, aspectos, funções, operações ou etapas específicas, quaisquer dessas modalidades podem incluir qualquer combinação ou permutação de quaisquer dos componentes, elementos, aspectos, funções, operações ou etapas aqui descritos ou ilustrados em outra parte que aqueles de conhecimento comum na técnica compreenderiam. Além disso, referência nas modalidades anexas a um aparelho ou sistema ou a um componente de um aparelho ou sistema sendo adaptado para, arranjado para, capaz de, configurado para, habilitado para, operável para, ou operativo para realizar uma função específica abrange aquele aparelho, sistema, componente, esteja ou não aquela função específica ativada, ligada, ou desbloqueada desde que aquele aparelho, sistema ou componente seja assim adaptado, arranjado, capaz, configurado, habilitado, operável ou operativo.
[000245] Embora essa revelação descreva estruturas, características, instruções, e funcionalidade, específicas, no contexto de um dispositivo usável, essa revelação considera que essas estruturas, características, instruções, ou funcionalidade podem ser aplicadas a, usadas para, ou usadas em qualquer outro dispositivo eletrônico adequado (tal como, por exemplo, um smartphone, tablet, câmera, ou dispositivo de computação pessoal), onde apropriado.

Claims (11)

1. DISPOSITIVO DE COMPUTAÇÃO USÁVEL, caracterizado por compreender: um corpo de dispositivo (105); e uma banda (120) para fixar o corpo do dispositivo (105) a um usuário do dispositivo de computação usável, em que o corpo do dispositivo (105) compreende: uma tela sensível ao toque (110); um elemento rotativo (710) sobre a tela sensível ao toque (110); um codificador (230) para detectar a rotação do elemento rotativo (710); um ou mais sensores (1924); um ou mais processadores (1964); e uma memória acoplada aos processadores e compreendendo instruções executáveis pelos processadores, sendo os processadores operáveis ao executar as instruções para: detectar, pelos um ou mais sensores do dispositivo de computação usável, quando usado em um membro de um usuário, um gesto ativando um componente ou um aplicativo do dispositivo de computação usável; detectar, pelos um ou mais sensores do dispositivo de computação usável quando usado no membro do usuário, uma posição inicial e um movimento do membro; determinar (6225, 6325) um gesto feito pelo usuário com base, pelo menos em parte, no movimento; e processar o gesto como uma entrada para o componente ou a aplicação do dispositivo de computação usável, em que o gesto feito pelo usuário é determinado como um de um movimento de rotação do pulso e um movimento de rotação do cotovelo correspondendo a uma combinação da posição inicial detectada e um raio do movimento do membro.
2. Dispositivo de computação usável, de acordo com a reivindicação 1, caracterizado por os processadores serem ainda operáveis quando executando as instruções para: determinar uma orientação do membro; e determinar o gesto com base, pelo menos em parte, na orientação do membro.
3. Dispositivo de computação usável, de acordo com a reivindicação 2, caracterizado por para determinar o gesto com base pelo menos em parte no movimento, os processadores são ainda operáveis quando executando as instruções para determinar o festo com base pelo menos em parte em: uma orientação inicial do membro; e uma subsequente orientação do membro.
4. Dispositivo de computação usável, de acordo com a reivindicação 3, caracterizado por os processadores serem adicionalmente operáveis quando executando as instruções para: detectar uma ausência de movimento do membro; e determinar o gesto com base ao menos em parte na ausência de movimento
5. Dispositivo de computação usável, de acordo com a reivindicação 1, caracterizado por os processadores serem ainda operáveis ao executar as instruções para determinar o gesto feito pelo usuário com base, pelo menos em parte, na duração do movimento.
6. Dispositivo de computação usável, de acordo com a reivindicação 1, caracterizado por os processadores serem ainda operáveis ao executar as instruções para determinar o gesto feito pelo usuário com base, pelo menos em parte, em uma aceleração do movimento.
7. Dispositivo de computação usável, de acordo com a reivindicação 1, caracterizado por os processadores serem ainda operáveis ao executar as instruções para determinar o gesto feito pelo usuário com base, pelo menos em parte, numa distância do movimento.
8. Dispositivo de computação usável, de acordo com a reivindicação 1, caracterizado por os processadores serem ainda operáveis ao executar as instruções para determinar o gesto com base, pelo menos em parte, em uma configuração especificada por um aplicativo de software associado ao dispositivo de computação usável.
9. Dispositivo de computação usável, de acordo com a reivindicação 1, caracterizado por o um ou mais sensores compreenderem um sensor óptico (125) na banda ou sobre a banda (120) acoplado de forma comunicável à tela sensível ao toque (110).
10. UM OU MAIS MEIOS DE ARMAZENAMENTO NÃO TRANSITÓRIOS LEGÍVEIS POR COMPUTADOR, que incorporam software que é operável por um dispositivo de computação usável, caracterizado por o dispositivo de computação usável compreender: um corpo do dispositivo (105) e uma banda (120) para fixar o corpo do dispositivo (105) a um usuário do dispositivo de computação usável, o corpo do dispositivo (105) compreendendo: uma tela sensível ao toque (110); um elemento rotativo (710) sobre a tela sensível ao toque (110); um codificador (230) para detectar a rotação do elemento rotativo (710); um ou mais sensores (1924); um ou mais processadores (1964); e uma memória acoplada aos processadores e compreendendo instruções executáveis pelos processadores, sendo os processadores operáveis ao executar as instruções para: detectar, pelos um ou mais sensores do dispositivo de computação usável usado em um membro do usuário, um gesto ativando um componente ou uma aplicação do dispositivo de computação usável; detectar (6205, 6305), pelos um ou mais sensores do dispositivo de computação usável usado no membro do usuário, uma posição inicial e um movimento do membro; determinar (6225, 6325) um gesto feito pelo usuário com base, pelo menos em parte, no movimento; e processar o gesto como uma entrada para o componente ou a aplicação do dispositivo de computação usável, em que o gesto feito pelo usuário é determinado como um de um movimento de rotação do pulso e um movimento de rotação do cotovelo correspondendo a uma combinação da posição inicial detectada e um raio do movimento do membro.
11. MÉTODO PARA OPERAR UM DISPOSITIVO DE COMPUTAÇÃO USÁVEL, que compreende um corpo do dispositivo (105) e uma banda (120) para fixar o corpo do dispositivo (105) a um usuário do dispositivo de computação usável, o corpo do dispositivo (105) compreendendo uma tela sensível ao toque (110), um elemento rotativo (710) sobre o monitor sensível ao toque (110), um codificador (230) para detectar a rotação do elemento rotativo (710), um ou mais sensores (1924), um ou mais processadores (1964) e uma memória acoplada aos processadores e compreendendo instruções executáveis pelos processadores, o método caracterizado por compreender: detectar, por um ou mais sensores de um dispositivo de computação usável usado em um membro de um usuário, um gesto ativando um componente ou uma aplicação do dispositivo de computação usável; detectar (6205, 6305), pelos um ou mais sensores do dispositivo de computação usável usado no membro do usuário, uma posição inicial e um movimento do membro; determinar (6225, 6325), pelo dispositivo de computação usável, um gesto feito pelo usuário com base pelo menos em parte no movimento; e processar, pelo dispositivo de computação usável, o gesto como uma entrada para o componente ou a aplicação do dispositivo de computação, em que o gesto feito pelo usuário é determinado como um de um movimento de rotação do pulso e um movimento de rotação do cotovelo correspondendo a uma combinação da posição inicial detectada e um raio do movimento do membro.
BR112015011599-3A 2012-11-20 2013-11-20 Dispositivo de computação usável, e método BR112015011599B1 (pt)

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
US201261728765P 2012-11-20 2012-11-20
US201261728773P 2012-11-20 2012-11-20
US201261728770P 2012-11-20 2012-11-20
US201361773803P 2013-03-06 2013-03-06
US61/773,803 2013-03-06
US201361773817P 2013-03-07 2013-03-07
US201361773813P 2013-03-07 2013-03-07
US201361773815P 2013-03-07 2013-03-07
US61/773,813 2013-03-07
US61/773,815 2013-03-07
US61/773,817 2013-03-07
US201361775688P 2013-03-11 2013-03-11
US201361775687P 2013-03-11 2013-03-11
US201361775686P 2013-03-11 2013-03-11
US61/775,686 2013-03-11
US14/015,926 US10185416B2 (en) 2012-11-20 2013-08-30 User gesture input to wearable electronic device involving movement of device
PCT/KR2013/010555 WO2014081185A1 (en) 2012-11-20 2013-11-20 User gesture input to wearable electronic device involving movement of device

Publications (2)

Publication Number Publication Date
BR112015011599A2 BR112015011599A2 (pt) 2017-07-11
BR112015011599B1 true BR112015011599B1 (pt) 2022-03-29

Family

ID=49641567

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015011599-3A BR112015011599B1 (pt) 2012-11-20 2013-11-20 Dispositivo de computação usável, e método

Country Status (12)

Country Link
US (1) US10185416B2 (pt)
EP (1) EP2733578B1 (pt)
JP (1) JP6323862B2 (pt)
KR (1) KR102186459B1 (pt)
CN (1) CN104919394B (pt)
AU (1) AU2013260688B2 (pt)
BR (1) BR112015011599B1 (pt)
IN (1) IN2013MU03647A (pt)
MX (1) MX346368B (pt)
MY (1) MY177359A (pt)
RU (1) RU2623805C2 (pt)
WO (1) WO2014081185A1 (pt)

Families Citing this family (228)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
EP3594797A1 (en) 2012-05-09 2020-01-15 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
JP6031186B2 (ja) 2012-05-09 2016-11-24 アップル インコーポレイテッド ユーザインタフェースオブジェクトを選択するためのデバイス、方法及びグラフィカルユーザインタフェース
CN108052264B (zh) 2012-05-09 2021-04-27 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
AU2013259630B2 (en) 2012-05-09 2016-07-07 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to gesture
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
US10314492B2 (en) 2013-05-23 2019-06-11 Medibotics Llc Wearable spectroscopic sensor to measure food consumption based on interaction between light and the human body
US9582035B2 (en) 2014-02-25 2017-02-28 Medibotics Llc Wearable computing devices and methods for the wrist and/or forearm
EP2698686B1 (en) * 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
WO2014105276A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for transitioning between touch input to display output relationships
KR102000253B1 (ko) 2012-12-29 2019-07-16 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
WO2014105278A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for determining whether to scroll or select contents
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
US9442570B2 (en) * 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition
US9696802B2 (en) * 2013-03-20 2017-07-04 Microsoft Technology Licensing, Llc Short range wireless powered ring for user interaction and sensing
JP5928397B2 (ja) * 2013-04-03 2016-06-01 株式会社デンソー 入力装置
US20150006385A1 (en) * 2013-06-28 2015-01-01 Tejas Arvindbhai Shah Express transactions on a mobile device
US9805530B2 (en) * 2013-08-07 2017-10-31 McLEAR LIMITED Wearable data transmission device and method
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150095678A1 (en) * 2013-09-27 2015-04-02 Lama Nachman Movement-based state modification
US9541955B2 (en) * 2013-10-23 2017-01-10 Raphael Holtzman System for modular expansion of mobile computer systems
US10019075B2 (en) * 2013-10-24 2018-07-10 Chunsheng ZHU Control input apparatus
CN105849675B (zh) 2013-10-30 2019-09-24 苹果公司 显示相关的用户界面对象
KR102192155B1 (ko) 2013-11-12 2020-12-16 삼성전자주식회사 어플리케이션 정보를 제공하는 방법 및 장치
US10606476B2 (en) * 2013-12-04 2020-03-31 Autodesk, Inc. Techniques for interacting with handheld devices
KR20150065336A (ko) * 2013-12-05 2015-06-15 삼성전자주식회사 전자 장치의 제스처 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US20150193102A1 (en) * 2014-01-08 2015-07-09 Microsoft Corporation Multi-mode display system
JP6297847B2 (ja) * 2014-01-30 2018-03-20 京セラ株式会社 携帯電子機器、表示制御方法及び表示制御プログラム
US9921658B2 (en) * 2014-02-06 2018-03-20 Sony Mobile Communications, Inc. Device and method for detecting gestures on the skin
US20150242024A1 (en) * 2014-02-21 2015-08-27 Polar Electro Oy Radio Frequency Sensor
US10429888B2 (en) 2014-02-25 2019-10-01 Medibotics Llc Wearable computer display devices for the forearm, wrist, and/or hand
FR3018122A1 (fr) * 2014-02-28 2015-09-04 Orange Procede de controle d'acces par retour haptique
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
KR102469752B1 (ko) * 2014-07-31 2022-11-22 삼성전자주식회사 웨어러블 장치 및 그 제어 방법
US10269062B2 (en) 2014-05-08 2019-04-23 Xero Limited Systems and methods of mobile banking reconciliation
US9778757B2 (en) * 2014-05-13 2017-10-03 International Business Machines Corporation Toroidal flexible input device
US9594427B2 (en) 2014-05-23 2017-03-14 Microsoft Technology Licensing, Llc Finger tracking
US10482461B2 (en) 2014-05-29 2019-11-19 Apple Inc. User interface for payments
US10238305B2 (en) 2014-05-30 2019-03-26 Microsoft Technology Licensing, Llc Dynamic operation of optical heart rate sensors
US10698458B2 (en) * 2014-06-02 2020-06-30 Microsoft Technology Licensing, Llc Integrated vapor chamber for thermal management of computing devices
CN105224066A (zh) * 2014-06-03 2016-01-06 北京创思博德科技有限公司 一种基于云端处理的手势识别方法
US10061389B2 (en) * 2014-06-03 2018-08-28 Beijing TransBorder Information Technology Co., Ltd. Gesture recognition system and gesture recognition method
KR20150144668A (ko) * 2014-06-17 2015-12-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US10216274B2 (en) 2014-06-23 2019-02-26 North Inc. Systems, articles, and methods for wearable human-electronics interface devices
WO2015199747A1 (en) * 2014-06-23 2015-12-30 Thalmic Labs Inc. Systems, articles, and methods for wearable human-electronics interface devices
US9731714B2 (en) * 2014-06-25 2017-08-15 Fujitsu Ten Limited Vehicle apparatus
WO2016003365A1 (en) * 2014-07-04 2016-01-07 Loke Kar Kit Bernard A wearable input device
JP5991498B2 (ja) * 2014-07-08 2016-09-14 パナソニックIpマネジメント株式会社 筋電位計測装置及び筋電位計測方法
US9564046B2 (en) 2014-07-11 2017-02-07 International Business Machines Corporation Wearable input device
WO2016017956A1 (en) 2014-07-30 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of operating the same
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
WO2016028629A1 (en) 2014-08-16 2016-02-25 Google Inc. Identifying gestures using motion data
WO2016036552A1 (en) 2014-09-02 2016-03-10 Apple Inc. User interactions for a mapping application
US10660039B1 (en) 2014-09-02 2020-05-19 Google Llc Adaptive output of indications of notification data
PL2993964T5 (pl) * 2014-09-08 2021-09-13 Signify Holding B.V. Sterowanie oświetleniem
US9582076B2 (en) 2014-09-17 2017-02-28 Microsoft Technology Licensing, Llc Smart ring
US9952675B2 (en) 2014-09-23 2018-04-24 Fitbit, Inc. Methods, systems, and apparatuses to display visibility changes responsive to user gestures
KR102271434B1 (ko) * 2014-09-26 2021-07-01 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102296184B1 (ko) * 2014-10-01 2021-08-31 삼성전자주식회사 이동 통신 시스템에서 통신 및 디스커버리 신호 송신 기법
US9696815B2 (en) 2014-10-02 2017-07-04 Futureplay Inc. Method, device, system and non-transitory computer-readable recording medium for providing user interface
WO2016052859A1 (ko) * 2014-10-02 2016-04-07 주식회사 퓨처플레이 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US20160125348A1 (en) * 2014-11-03 2016-05-05 Motion Insight LLC Motion Tracking Wearable Element and System
KR101811691B1 (ko) * 2014-11-12 2017-12-22 주식회사 퓨처플레이 복수의 장치 간의 각도 관계에 기초하여 상기 복수의 장치 중 적어도 하나에 의하여 컨텐츠를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
USD740344S1 (en) 2014-11-18 2015-10-06 Lövepac Converting (Beijing) Co., Ltd. Wearable projection device
US11327711B2 (en) 2014-12-05 2022-05-10 Microsoft Technology Licensing, Llc External visual interactions for speech-based devices
US11119565B2 (en) 2015-01-19 2021-09-14 Samsung Electronics Company, Ltd. Optical detection and analysis of bone
US9830001B2 (en) * 2015-02-03 2017-11-28 Sony Mobile Communications Inc. Method, device and system for collecting writing pattern using ban
US9842329B2 (en) 2015-02-13 2017-12-12 Sony Corporation Body area network for secure payment
US9600680B2 (en) 2015-02-23 2017-03-21 International Business Machines Corporation Unmasking of confidential content
US20160257198A1 (en) 2015-03-02 2016-09-08 Ford Global Technologies, Inc. In-vehicle component user interface
US9747740B2 (en) 2015-03-02 2017-08-29 Ford Global Technologies, Llc Simultaneous button press secure keypad code entry
CN104639765A (zh) * 2015-03-04 2015-05-20 张月妹 一种智能手表控制智能移动终端的方法及系统
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
JP6756087B2 (ja) * 2015-03-10 2020-09-16 カシオ計算機株式会社 生体認証装置およびその駆動制御方法
US9860553B2 (en) * 2015-03-18 2018-01-02 Intel Corporation Local change detection in video
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
CN104836897A (zh) * 2015-03-31 2015-08-12 小米科技有限责任公司 通过可穿戴设备控制终端通信的方法及装置
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
CN104749945A (zh) * 2015-04-13 2015-07-01 深圳市欧珀通信软件有限公司 点亮屏幕的方法、装置及智能手表
US9805183B2 (en) * 2015-04-15 2017-10-31 Motorola Mobility Llc Utilizing radio frequency identification tags to display messages and notifications on peripheral devices
WO2016171467A1 (en) 2015-04-23 2016-10-27 Samsung Electronics Co., Ltd. Electronic device including rotary member and display method thereof
US11373168B2 (en) * 2015-06-05 2022-06-28 Apple Inc. Value added services polling
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9639685B2 (en) * 2015-06-26 2017-05-02 Intel Corporation Authentication of gesture input through RFID scans
US10166123B2 (en) * 2015-06-29 2019-01-01 International Business Machines Corporation Controlling prosthetic devices with smart wearable technology
US9804679B2 (en) 2015-07-03 2017-10-31 Google Inc. Touchless user interface navigation using gestures
US10580160B2 (en) * 2015-07-17 2020-03-03 Koninklijke Philips N.V. Device and method for determining a position of a mobile device in relation to a subject
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
EP4321088A3 (en) 2015-08-20 2024-04-24 Apple Inc. Exercise-based watch face
US10114450B2 (en) 2015-08-31 2018-10-30 Semiconductor Energy Laboratory Co., Ltd. Information processing device
US9914418B2 (en) 2015-09-01 2018-03-13 Ford Global Technologies, Llc In-vehicle control location
US9622159B2 (en) 2015-09-01 2017-04-11 Ford Global Technologies, Llc Plug-and-play interactive vehicle interior component architecture
US9967717B2 (en) 2015-09-01 2018-05-08 Ford Global Technologies, Llc Efficient tracking of personal device locations
KR20170027607A (ko) * 2015-09-02 2017-03-10 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
US9860710B2 (en) 2015-09-08 2018-01-02 Ford Global Technologies, Llc Symmetrical reference personal device location tracking
US9744852B2 (en) 2015-09-10 2017-08-29 Ford Global Technologies, Llc Integration of add-on interior modules into driver user interface
US9866555B2 (en) * 2015-09-17 2018-01-09 Intel Corporation Maintaining user authentications with common trusted devices
JP6170973B2 (ja) * 2015-09-29 2017-07-26 レノボ・シンガポール・プライベート・リミテッド 携帯情報端末、情報処理方法、及び、プログラム
KR102548687B1 (ko) 2015-10-07 2023-06-28 삼성전자주식회사 전자 장치에서 실행된 어플리케이션을 제어하는 웨어러블 전자 장치 및 방법
US11609427B2 (en) 2015-10-16 2023-03-21 Ostendo Technologies, Inc. Dual-mode augmented/virtual reality (AR/VR) near-eye wearable displays
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
KR20170052213A (ko) * 2015-11-04 2017-05-12 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
CN105389654A (zh) * 2015-11-04 2016-03-09 彭亮 可穿戴设备及作业人员实时主动管理控制分析系统
CN105430186A (zh) * 2015-11-27 2016-03-23 东莞酷派软件技术有限公司 一种拒接短信的发送方法及系统
JP6876923B2 (ja) * 2015-11-30 2021-05-26 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
CN105527849A (zh) * 2015-12-01 2016-04-27 芜湖美智空调设备有限公司 基于可穿戴设备的家用电器控制方法及可穿戴设备
KR102437106B1 (ko) * 2015-12-01 2022-08-26 삼성전자주식회사 마찰음을 이용하는 장치 및 방법
US10046637B2 (en) 2015-12-11 2018-08-14 Ford Global Technologies, Llc In-vehicle component control user interface
US10345594B2 (en) 2015-12-18 2019-07-09 Ostendo Technologies, Inc. Systems and methods for augmented near-eye wearable displays
US10578882B2 (en) 2015-12-28 2020-03-03 Ostendo Technologies, Inc. Non-telecentric emissive micro-pixel array light modulators and methods of fabrication thereof
US10452148B2 (en) * 2016-01-19 2019-10-22 Infineon Technologies Ag Wearable consumer device
WO2017134541A1 (en) 2016-02-03 2017-08-10 Semiconductor Energy Laboratory Co., Ltd. Information processing device
TWI621968B (zh) 2016-02-05 2018-04-21 財團法人工業技術研究院 控制電子設備之方法及穿戴裝置
US10082877B2 (en) 2016-03-15 2018-09-25 Ford Global Technologies, Llc Orientation-independent air gesture detection service for in-vehicle environments
US10353203B2 (en) 2016-04-05 2019-07-16 Ostendo Technologies, Inc. Augmented/virtual reality near-eye displays with edge imaging lens comprising a plurality of display devices
US9914415B2 (en) 2016-04-25 2018-03-13 Ford Global Technologies, Llc Connectionless communication with interior vehicle components
US20170311154A1 (en) 2016-04-26 2017-10-26 Samsung Electronics Co., Ltd. Security hub utilizing near field communication to onboard sensors
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US10522106B2 (en) 2016-05-05 2019-12-31 Ostendo Technologies, Inc. Methods and apparatus for active transparency modulation
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
WO2018044880A1 (en) * 2016-08-29 2018-03-08 Georgia Tech Research Corporation Extending interactions of a portable electronic device
US9977510B1 (en) * 2016-09-23 2018-05-22 Wayne A. Moffett Gesture-driven introduction system
US10860199B2 (en) * 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
CN107884001A (zh) * 2016-09-30 2018-04-06 霍尼韦尔国际公司 用于确定周围环境的特性的系统和方法
CN107037955A (zh) 2016-10-24 2017-08-11 阿里巴巴集团控股有限公司 一种显示图像信息的方法及装置
CN106600766A (zh) * 2016-11-30 2017-04-26 捷开通讯(深圳)有限公司 Ar头盔及其解锁方法
US10147243B2 (en) * 2016-12-05 2018-12-04 Google Llc Generating virtual notation surfaces with gestures in an augmented and/or virtual reality environment
CN106648090A (zh) * 2016-12-16 2017-05-10 广东小天才科技有限公司 一种虚拟现实设备的输入方法及装置
CN106686497B (zh) * 2016-12-27 2020-04-24 广东小天才科技有限公司 一种可穿戴设备的音量调整方法及可穿戴设备
CN106600939A (zh) * 2017-01-25 2017-04-26 焦作市兔比科技有限公司 便携可分离式无线控制装置
CN107145254B (zh) * 2017-03-24 2023-05-23 江西合力泰科技有限公司 带压力感应功能的生物识别模组
CN106902508A (zh) * 2017-03-27 2017-06-30 王金锁 跑步测能仪
DK179412B1 (en) * 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
US10691218B2 (en) * 2017-05-31 2020-06-23 City University Of Hong Kong Gesture recognition apparatus and components thereof
CN109003344B (zh) * 2017-06-06 2020-11-06 郑州动量科技有限公司 一种多设备共存点名识别配对方法及系统
EP3419261A1 (en) 2017-06-21 2018-12-26 Vestel Elektronik Sanayi ve Ticaret A.S. Mobile phone and smartwatch interaction
TWI653550B (zh) 2017-07-06 2019-03-11 鴻海精密工業股份有限公司 電子裝置及電子裝置的顯示控制方法
US10558278B2 (en) 2017-07-11 2020-02-11 Apple Inc. Interacting with an electronic device through physical movement
WO2019051082A1 (en) * 2017-09-06 2019-03-14 Georgia Tech Research Corporation SYSTEMS, METHODS AND DEVICES FOR GESTURE RECOGNITION
US10890990B2 (en) * 2017-09-25 2021-01-12 Google Llc Rotation input device for a capacitive sense cord
US10606231B2 (en) * 2017-11-17 2020-03-31 International Business Machines Corporation Computer-mediated reality including physical damping feedback
RU2017144578A (ru) * 2017-12-19 2019-06-20 Александр Борисович Бобровников Способ ввода-вывода информации в пользовательское устройство и конструктивное его выполнение
CN110049228A (zh) * 2018-01-17 2019-07-23 北京林业大学 一种新的基于手势控制拍照的方法和系统
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US10706396B2 (en) * 2018-03-19 2020-07-07 Capital One Services, Llc Systems and methods for translating a gesture to initiate a financial transaction
CN111868666A (zh) * 2018-03-23 2020-10-30 脸谱科技有限责任公司 用于确定虚拟现实和/或增强现实设备的用户的接触的方法、设备和系统
CN108451518A (zh) * 2018-04-10 2018-08-28 迦沃科技(深圳)有限公司 一种可戴在手指上的血氧仪
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
CN108920228B (zh) * 2018-05-28 2021-01-15 云谷(固安)科技有限公司 一种控制指令输入方法和输入装置
US11678141B2 (en) * 2018-09-18 2023-06-13 Pb Inc. Hybrid cellular Bluetooth tracking devices, methods and systems
AU2019359347A1 (en) * 2018-10-09 2021-05-13 Brian Francis Mooney Coaching, assessing or analysing unseen processes in intermittent high-speed human motions, including golf swings
CN109445547A (zh) * 2018-10-25 2019-03-08 努比亚技术有限公司 一种穿戴式设备散热方法、穿戴式设备及可读存储介质
WO2020146046A1 (en) * 2019-01-07 2020-07-16 Leviton Manufacturing Co., Inc. An electrical device with built-in sensors and/or communications
US11204735B2 (en) 2019-02-14 2021-12-21 International Business Machines Corporation Receiving audio from a listening device associated with a selected geographic area
US10908695B2 (en) 2019-04-03 2021-02-02 Google Llc Gesture detection using external sensors
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
JP6921338B2 (ja) 2019-05-06 2021-08-18 アップル インコーポレイテッドApple Inc. 電子デバイスの制限された動作
KR102306392B1 (ko) * 2019-08-19 2021-09-30 한국과학기술연구원 인터랙션 인터페이스의 제어 방법 및 이를 지원하는 장치
US11698684B2 (en) 2019-09-06 2023-07-11 Warner Bros. Entertainment Inc. Gesture recognition device and method for sensing multi-factor assertion
GB2619595A (en) 2019-09-06 2023-12-13 Warner Bros Entertainment Inc Gesture-centric user interface
US10852905B1 (en) 2019-09-09 2020-12-01 Apple Inc. Techniques for managing display usage
US11099635B2 (en) 2019-09-27 2021-08-24 Apple Inc. Blow event detection and mode switching with an electronic device
KR20210039875A (ko) * 2019-10-02 2021-04-12 주식회사 모아이스 골프 스윙에 관한 정보를 추정하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CN112308075B (zh) * 2020-02-26 2022-06-10 北京字节跳动网络技术有限公司 用于识别文本的电子设备、方法、装置和介质
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
CN115552375A (zh) 2020-05-11 2022-12-30 苹果公司 用于管理用户界面共享的用户界面
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
USD951993S1 (en) 2020-06-21 2022-05-17 Apple Inc. Display screen or portion thereof with graphical user interface
USD939570S1 (en) * 2020-06-22 2021-12-28 Apple Inc. Display or portion thereof with graphical user interface or label
US11703958B2 (en) * 2020-09-30 2023-07-18 Benjamin Andrew TRUDEAU System and method of displaying visualizations on a device
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
USD989098S1 (en) * 2021-04-15 2023-06-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN113126771A (zh) * 2021-05-07 2021-07-16 浙江柔灵科技有限公司 一种具有反馈信息功能的肌电手势识别系统
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US20220374085A1 (en) * 2021-05-19 2022-11-24 Apple Inc. Navigating user interfaces using hand gestures
US20230062180A1 (en) * 2021-08-30 2023-03-02 Apple Inc. Using a structural internal element as a capacitive element to sense proximity
WO2023096134A1 (ko) * 2021-11-25 2023-06-01 삼성전자주식회사 전자 장치 내에서 제스처 인식 성능 개선을 위한 러닝 방법
CN114755909A (zh) * 2022-04-21 2022-07-15 浙江安防职业技术学院 配合翻译的多功能手表
WO2024090826A1 (ko) * 2022-10-27 2024-05-02 삼성전자 주식회사 사용자의 제스처를 이용해 인증을 수행하는 전자 장치 및 그 방법

Family Cites Families (480)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2473226A (en) 1946-08-22 1949-06-14 Sheldon Lillian Wrist band
US3062369A (en) 1960-08-30 1962-11-06 Esber E Moubayed Leak-proof variable-volume holder for frozen confections
US3477285A (en) 1967-08-04 1969-11-11 Joseph M Krafft Four-lobed diametral-strain gage
US3915534A (en) 1967-08-15 1975-10-28 Joslyn Mfg & Supply Co Grounded surface distribution apparatus
USD249874S (en) 1976-10-12 1978-10-10 Texas Instruments Incorporated Digital wrist watch
US4757456A (en) 1981-05-19 1988-07-12 Ralph Benghiat Device and method for utility meter reading
US4427303A (en) 1982-06-17 1984-01-24 Hermann Hirsch Leder Und Kunstoffwarenfabrik Electronic wristwatch
USD282914S (en) 1983-10-13 1986-03-11 Jeffrey Maron Indicator watch
USD284949S (en) 1984-04-16 1986-08-05 Kong Hung W Watch frame
USD300828S (en) 1985-08-21 1989-04-25 Divetronic Ag Wrist computer for divers
USD297121S (en) 1985-12-03 1988-08-09 Porsche Design Gmbh Sport watch
US4636047A (en) 1986-03-21 1987-01-13 Green Ronald N Wrist watch mirror accessory
USD302664S (en) 1986-09-08 1989-08-08 Dawson Jr Melvyn H Electronic watch
USD300678S (en) 1987-06-11 1989-04-11 Moulinex, Societe Anonyme Re-charging stand for a cordless electric iron
US4906207A (en) 1989-04-24 1990-03-06 W. L. Gore & Associates, Inc. Dielectric restrainer
USD362396S (en) 1990-06-27 1995-09-19 Chester Edna L Wristwatch
USD335263S (en) 1990-06-28 1993-05-04 Willis John E Wristband
USD351558S (en) 1991-11-06 1994-10-18 Junho Moon Wrist watch
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
USD355132S (en) 1992-02-28 1995-02-07 Kenneth Williams Combined sweatband and watch
USD347589S (en) 1992-03-12 1994-06-07 Labate Joseph A Wrist band and mounting for a tape measure
US5418760A (en) 1992-08-18 1995-05-23 Casio Computer Co., Ltd. Electronic devices with a liquid crystal display
USD356960S (en) 1993-02-03 1995-04-04 Societe Nouvelle Chaumet S.A. Watch with band portions
US5361169A (en) 1993-04-29 1994-11-01 Deal Jerry L Diver's mirror
USD365550S (en) 1993-05-17 1995-12-26 Timex Corporation Personal digital assistant to be worn on a wrist
USD366036S (en) 1993-05-28 1996-01-09 Timex Corporation Personal digital assistant to be worn on a wrist
USD386696S (en) 1995-02-16 1997-11-25 Christophe Walch Multipiece plastic wristwatch
US5832296A (en) 1995-04-26 1998-11-03 Interval Research Corp. Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user
USD372878S (en) 1995-05-09 1996-08-20 Danny Finnegan Workman's magnetic wrist band for holding small metal objects
JPH0985983A (ja) 1995-09-21 1997-03-31 Canon Inc プリンタ制御装置
EP0774730B1 (en) 1995-11-01 2005-08-24 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
USD383985S (en) 1995-12-22 1997-09-23 Doris Davenport Combination watch and pager
US6047301A (en) 1996-05-24 2000-04-04 International Business Machines Corporation Wearable computer
USD384661S (en) 1996-08-28 1997-10-07 Garmin Corporation Portable handheld combination GPS and communication transceiver
JP3321053B2 (ja) 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
US20040210479A1 (en) 1996-10-25 2004-10-21 Ipf, Inc. Internet-based brand marketing communication instrumentation network for deploying, installing and remotely programming brand-building server-side driven multi-mode virtual kiosks on the World Wide Web (WWW), and methods of brand marketing communication between brand marketers and consumers using the same
US6285757B1 (en) 1997-11-07 2001-09-04 Via, Inc. Interactive devices and methods
USD410854S (en) 1997-12-11 1999-06-15 Imus Co., Ltd. Wrist watch
US5915580A (en) 1997-12-24 1999-06-29 Outer Circle Products, Ltd. Container covering
USD401515S (en) 1998-01-23 1998-11-24 Yacov Yida Watch
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
USD404317S (en) 1998-02-05 1999-01-19 Bernice M Cameron Bottle mounted timer
JP2000050133A (ja) 1998-02-10 2000-02-18 Asulab Sa 低電力消費の携帯用物体、特にカメラおよび無線デ―タ伝送手段を含む時計
US6031525A (en) 1998-04-01 2000-02-29 New York University Method and apparatus for writing
JPH11298362A (ja) 1998-04-06 1999-10-29 Sony Corp 小型携帯端末
USD416814S (en) 1998-05-15 1999-11-23 Nancy Lynn Welsh Ring having a time piece mounted within its central finger opening
US6573883B1 (en) * 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US7854684B1 (en) 1998-06-24 2010-12-21 Samsung Electronics Co., Ltd. Wearable device
JP3627531B2 (ja) 1998-09-30 2005-03-09 セイコーエプソン株式会社 情報処理装置
CA2347642A1 (en) 1998-10-28 2000-05-04 Via, Inc. Flex-to-fixed user interface devices and methods
JP3988102B2 (ja) 1998-11-06 2007-10-10 富士フイルム株式会社 腕装着型カメラ
USD413817S (en) 1998-12-18 1999-09-14 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
US7225229B1 (en) 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
USD421919S (en) 1998-12-22 2000-03-28 Gucci Timepieces Sa Wristwatch
US20040209657A1 (en) 1999-01-04 2004-10-21 Yoram Ghassabian Wrist-mounted telephone device
JP2000267797A (ja) 1999-03-15 2000-09-29 Seiko Epson Corp 情報処理装置
US7293231B1 (en) 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
GB2350523B (en) 1999-05-26 2003-11-26 Nokia Mobile Phones Ltd Communication device
US6359837B1 (en) 1999-06-30 2002-03-19 Casio Computer Co., Ltd. Camera, camera system, information recording system, timepiece, and link system for camera and timepiece
ATE322711T1 (de) 1999-08-25 2006-04-15 Swatch Ag Uhr mit berührungsloser steuervorrichtung für eine computer-maus
USD433949S (en) 1999-10-04 2000-11-21 Chanel, Inc. Wrist watch case
US6424743B1 (en) 1999-11-05 2002-07-23 Motorola, Inc. Graphical handwriting recognition user interface
JP2001167054A (ja) 1999-12-09 2001-06-22 Casio Comput Co Ltd 携帯情報機器、認証装置及び認証システム
USD434675S (en) 1999-12-13 2000-12-05 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
JP2001251542A (ja) 1999-12-28 2001-09-14 Casio Comput Co Ltd 携帯型撮像機器
JP2005174356A (ja) 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
GB2365676B (en) 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
US6597345B2 (en) 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
JP2001344039A (ja) 2000-03-31 2001-12-14 Seiko Epson Corp 情報処理装置、情報処理装置の制御方法および情報処理装置の制御プログラム
USD453005S1 (en) 2000-04-26 2002-01-22 Dinh Van Wrist-watch
JP4042340B2 (ja) 2000-05-17 2008-02-06 カシオ計算機株式会社 情報機器
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
USD455356S1 (en) 2000-06-19 2002-04-09 Rainer Saffer Watch
CN1193570C (zh) 2000-06-21 2005-03-16 精工爱普生株式会社 协同处理呼入的移动电话和无线电通信装置
US6714233B2 (en) 2000-06-21 2004-03-30 Seiko Epson Corporation Mobile video telephone system
US7477890B1 (en) 2000-06-30 2009-01-13 International Business Machines Corporation Demand pull—multichannel asynchronous data and application synchronization for pervasive devices
US6556222B1 (en) 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
US6477117B1 (en) 2000-06-30 2002-11-05 International Business Machines Corporation Alarm interface for a smart watch
US7081905B1 (en) 2000-06-30 2006-07-25 International Business Machines Corporation Method and apparatus for dynamically controlling scroller speed employed for a user interface of a wearable appliance
JP3785902B2 (ja) 2000-07-11 2006-06-14 インターナショナル・ビジネス・マシーンズ・コーポレーション デバイス、デバイスの制御方法、ポインタの移動方法
JP2002099476A (ja) 2000-09-26 2002-04-05 Sanyo Electric Co Ltd ソフトウェア配信方法、ソフトウェア配信装置、およびこれらを利用可能なユーザ端末
USD463296S1 (en) 2000-10-23 2002-09-24 Eseoghene Esther Sanomi Wrist radius watch
JP3948260B2 (ja) 2000-11-22 2007-07-25 松下電器産業株式会社 テキスト入力方法及びその装置
JP2002257955A (ja) 2000-12-25 2002-09-11 Seiko Epson Corp 通信機能付腕時計装置、情報表示方法、制御プログラム及び記録媒体
USD460430S1 (en) 2000-12-28 2002-07-16 Seiko Instruments Inc. Mobile phone
US20020135615A1 (en) 2001-01-31 2002-09-26 Microsoft Corporation Overlaid display for electronic devices
US20020101457A1 (en) * 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
US6744427B2 (en) 2001-03-01 2004-06-01 International Business Machines Corporation Character input interface for compact electronic devices
US6447117B1 (en) 2001-03-12 2002-09-10 Rene Estrada Eyeglass lens mounting system
US6937135B2 (en) 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
JP2003018923A (ja) 2001-07-09 2003-01-21 Onga Eng:Kk ハウス開閉装置
US6774796B2 (en) 2001-08-01 2004-08-10 Motorola, Inc. Master authenticator
EP1282018A1 (en) 2001-08-03 2003-02-05 Nokia Corporation A wearable electronic device
USD459352S1 (en) 2001-08-10 2002-06-25 Michael C. Giovanniello Wireless mouse wristband
US20130080143A1 (en) 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop docking behavior with device as master
US20030046228A1 (en) 2001-08-28 2003-03-06 Jean-Marc Berney User-wearable functional jewelry with biometrics and smartcard to remotely sign and/or authenticate to e-services
US7634403B2 (en) 2001-09-05 2009-12-15 Voice Signal Technologies, Inc. Word recognition using word transformation commands
JP4164568B2 (ja) * 2001-10-01 2008-10-15 独立行政法人産業技術総合研究所 文字情報入力装置および文字情報入力方法並びに記録媒体
JP2003131785A (ja) 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
US6990662B2 (en) 2001-10-31 2006-01-24 Hewlett-Packard Development Company, L.P. Method and system for offloading execution and resources for resource-constrained networked devices
US6744423B2 (en) 2001-11-19 2004-06-01 Nokia Corporation Communication terminal having a predictive character editor application
US8176432B2 (en) 2001-11-20 2012-05-08 UEI Electronics Inc. Hand held remote control device having an improved user interface
TWI258647B (en) 2001-12-27 2006-07-21 Asulab Sa Control method for executing functions in a diary watch
GB0201074D0 (en) 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
GB2384395A (en) 2002-01-19 2003-07-23 Hewlett Packard Co Personal article capable of receiving specified items or data
US7111788B2 (en) 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
AU2003239385A1 (en) 2002-05-10 2003-11-11 Richard R. Reisman Method and apparatus for browsing using multiple coordinated device
US8001488B1 (en) 2002-05-31 2011-08-16 Hewlett-Packard Development Company, L.P. User interface dial with display
JP2004021893A (ja) 2002-06-20 2004-01-22 Sony Corp 携帯情報通信端末、プログラムおよび該プログラムを記録した記録媒体
US9886309B2 (en) 2002-06-28 2018-02-06 Microsoft Technology Licensing, Llc Identity-based distributed computing for device resources
US6968508B2 (en) 2002-07-30 2005-11-22 Motorola, Inc. Rotating user interface
JP2004072450A (ja) 2002-08-07 2004-03-04 Casio Comput Co Ltd 電子カメラ
US7386855B2 (en) 2002-08-12 2008-06-10 Ntt Docomo, Inc. Application mobility service
USD474982S1 (en) 2002-08-15 2003-05-27 Nike, Inc. Portion of a watch
US7036007B2 (en) 2002-09-09 2006-04-25 Intel Corporation Firmware architecture supporting safe updates and multiple processor types
JP2004184396A (ja) 2002-10-09 2004-07-02 Seiko Epson Corp 表示装置、時計、表示装置の制御方法、制御プログラムおよび記録媒体
JP2004178584A (ja) 2002-11-26 2004-06-24 Asulab Sa 機能、装置、又は所定の場所にアクセスするためのタッチスクリーンによるセキュリティコードの入力方法、及びその方法を実行するためのデバイス
US7199786B2 (en) 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US20040130581A1 (en) 2003-01-03 2004-07-08 Microsoft Corporation Interaction model
JP2004259063A (ja) 2003-02-26 2004-09-16 Sony Corp 3次元オブジェクトの表示処理装置、表示処理方法およびコンピュータプログラム
JP2004288172A (ja) 2003-03-04 2004-10-14 Sony Corp 入力装置、情報端末装置およびモード切替方法
US7096048B2 (en) 2003-04-01 2006-08-22 Sanders Donald T Portable communications device
KR100617681B1 (ko) 2003-04-15 2006-08-28 삼성전자주식회사 휴대용 단말기의 회전키 장치 사용 방법
CN100551196C (zh) 2003-05-14 2009-10-14 松下电器产业株式会社 点亮高压放电灯的装置及方法
US20040261031A1 (en) 2003-06-23 2004-12-23 Nokia Corporation Context dependent auxiliary menu elements
US7567239B2 (en) 2003-06-26 2009-07-28 Motorola, Inc. Method and system for message and note composition on small screen devices
KR100590528B1 (ko) 2003-06-28 2006-06-15 삼성전자주식회사 착용형 손가락 움직임 감지장치 및 이를 이용한 손가락의움직임 감지방법
US20050001821A1 (en) 2003-07-02 2005-01-06 Low Tse How Option selector and electronic device including such an option selector
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7478390B2 (en) 2003-09-25 2009-01-13 International Business Machines Corporation Task queue management of virtual devices using a plurality of processors
US20050137470A1 (en) 2003-12-08 2005-06-23 Rosenthal Robert D. Method and apparatus for low blood glucose level detection
KR100571428B1 (ko) 2003-12-24 2006-04-17 한국전자통신연구원 착용형 인터페이스 장치
WO2005065404A2 (en) 2003-12-31 2005-07-21 James Marin Rotating bezel watch
US7872669B2 (en) 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
USD546712S1 (en) 2004-02-13 2007-07-17 Cartier Creation Studio Sa Watch
US7398151B1 (en) 2004-02-25 2008-07-08 Garmin Ltd. Wearable electronic device
WO2005083546A1 (en) 2004-02-27 2005-09-09 Simon Richard Daniel Wearable modular interface strap
JP2005244676A (ja) 2004-02-27 2005-09-08 Dowango:Kk リモコンシステム
GB2411337B (en) 2004-02-27 2006-12-06 Simon Richard Daniel Modular interface strap for multi-unit wristband and necklace assemblies
US8886298B2 (en) 2004-03-01 2014-11-11 Microsoft Corporation Recall device
EP1728142B1 (en) 2004-03-23 2010-08-04 Fujitsu Ltd. Distinguishing tilt and translation motion components in handheld devices
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
TWI370979B (en) 2004-05-14 2012-08-21 Ibm Grid computing system, information processing unit, job execution request generation unit, control method, program, and recording medium
US7404146B2 (en) 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
JP4379214B2 (ja) 2004-06-10 2009-12-09 日本電気株式会社 携帯端末装置
JP2006010489A (ja) * 2004-06-25 2006-01-12 Matsushita Electric Ind Co Ltd 情報装置、情報入力方法およびプログラム
US7840681B2 (en) 2004-07-30 2010-11-23 International Business Machines Corporation Method and apparatus for integrating wearable devices within a SIP infrastructure
US20060253010A1 (en) 2004-09-28 2006-11-09 Donald Brady Monitoring device, method and system
USD519396S1 (en) 2004-10-06 2006-04-25 Giochi Preziosi S.P.A. Strap for a watch
US20060092177A1 (en) 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
USD526973S1 (en) 2004-11-17 2006-08-22 Xirrus, Inc. Electronic device housing
WO2006059454A1 (ja) 2004-11-30 2006-06-08 Konica Minolta Holdings, Inc. 情報処理装置
TWM277958U (en) 2004-12-31 2005-10-11 Ind Tech Res Inst An flexible displaying device for electronic information includes a device housing
US20060149652A1 (en) 2005-01-06 2006-07-06 Fellenstein Craig W Receiving bid requests and pricing bid responses for potential grid job submissions within a grid environment
US20060197835A1 (en) 2005-03-04 2006-09-07 Anderson Robert C Wrist-attached display system for unmanned vehicle imagery and communication
USD526912S1 (en) 2005-03-22 2006-08-22 Rolex Watch U.S.A., Inc. Watch frame
JP2006279137A (ja) 2005-03-28 2006-10-12 Sharp Corp リモコンシステム
US20060224766A1 (en) 2005-03-31 2006-10-05 Malackowski Donald W Operating room communication bus and method
US20060288233A1 (en) 2005-04-25 2006-12-21 Douglas Kozlay Attachable biometric authentication apparatus for watchbands and other personal items
ITUD20050074A1 (it) 2005-05-11 2006-11-12 Eurotech S P A Dispositivo di risparmio energetico per un'apparecchiatura elettronica portatile
US8117540B2 (en) 2005-05-18 2012-02-14 Neuer Wall Treuhand Gmbh Method and device incorporating improved text input mechanism
US9606634B2 (en) 2005-05-18 2017-03-28 Nokia Technologies Oy Device incorporating improved text input mechanism
US20060271867A1 (en) 2005-05-27 2006-11-30 Wang Kong Q Mobile communications terminal and method therefore
EP2381341A3 (en) 2005-06-16 2013-03-06 Keyless Systems Ltd Data entry system
US7487467B1 (en) 2005-06-23 2009-02-03 Sun Microsystems, Inc. Visual representation and other effects for application management on a device with a small screen
US20070004969A1 (en) 2005-06-29 2007-01-04 Microsoft Corporation Health monitor
JP2007014471A (ja) 2005-07-06 2007-01-25 Sumitomo Precision Prod Co Ltd 無線センサ端末
USD549602S1 (en) 2005-07-18 2007-08-28 Garmin Ltd. GPS exercise monitoring device
JP2007064758A (ja) 2005-08-30 2007-03-15 Sony Corp 携帯型電子機器、表示制御プログラム、表示制御方法、時計装置
KR100814395B1 (ko) 2005-08-30 2008-03-18 삼성전자주식회사 조그 키와 사방향 키를 이용한 사용자 인터페이스 제어장치 및 그 방법
JP4676303B2 (ja) 2005-10-18 2011-04-27 株式会社日立製作所 端末装置
US20070100244A1 (en) 2005-10-31 2007-05-03 Chin-Shu Lin Wrist-worn monitor for heartbeat detection
US7454841B2 (en) 2005-11-01 2008-11-25 Hunter Engineering Company Method and apparatus for wheel alignment system target projection and illumination
USD547211S1 (en) 2005-11-10 2007-07-24 Dias M Carlos Wrist watch
KR100761262B1 (ko) 2005-12-28 2007-09-28 엘지전자 주식회사 이동통신단말기의 문자입력 장치
CN100514314C (zh) 2005-12-28 2009-07-15 松下电工株式会社 网络设备系统
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
USD537409S1 (en) 2006-01-10 2007-02-27 Sony Corporation Combined charger and infrared ray emitter
JP5220278B2 (ja) 2006-01-27 2013-06-26 任天堂株式会社 ゲーム装置および手書き入力プログラム
USD537371S1 (en) 2006-02-03 2007-02-27 Bell & Ross B.V. Watch
USD529402S1 (en) 2006-02-13 2006-10-03 Nike, Inc. Portion of a watch
USD528928S1 (en) 2006-02-14 2006-09-26 Nike, Inc. Portion of a watch
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
KR100754674B1 (ko) 2006-03-10 2007-09-03 삼성전자주식회사 휴대 단말의 메뉴 선택 방법 및 장치
USD537738S1 (en) 2006-03-17 2007-03-06 Citizen Tokei Kabushiki Kaisha Wrist watch case with band
WO2007107900A2 (en) 2006-03-21 2007-09-27 Koninklijke Philips Electronics N.V. Indication of the condition of a user
USD545305S1 (en) 2006-03-22 2007-06-26 Mulcahy Michael R Personal data assistant, particularly for the visually impaired
JP4516042B2 (ja) 2006-03-27 2010-08-04 株式会社東芝 機器操作装置および機器操作方法
USD574263S1 (en) 2006-03-28 2008-08-05 The British Masters Sa Wristwatch
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
GB2437592A (en) 2006-04-10 2007-10-31 Skype Ltd Indicating communication events on an alternative interface whilst running an application on another interface
US8654868B2 (en) 2006-04-18 2014-02-18 Qualcomm Incorporated Offloaded processing for wireless applications
US7382691B2 (en) 2006-04-21 2008-06-03 Nixon, Inc. Multifunction watch system and method
USD543122S1 (en) 2006-05-10 2007-05-22 Ronald Lafever Combined flexible band and clip-on watch
US7539532B2 (en) 2006-05-12 2009-05-26 Bao Tran Cuffless blood pressure monitoring appliance
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
USD568175S1 (en) 2006-05-19 2008-05-06 Lorenz S.P.A. Wrist watch
EP1860534A1 (en) 2006-05-22 2007-11-28 LG Electronics Inc. Mobile terminal and menu display method thereof
USD554636S1 (en) 2006-06-27 2007-11-06 Qualcomm Incorporated Media display unit
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
USD558207S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558209S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558208S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
US8511890B2 (en) 2006-08-27 2013-08-20 Nike, Inc. Rocking bezel control
USD602858S1 (en) 2006-09-06 2009-10-27 Amx Llc Remote control charging base
US8243017B2 (en) 2006-09-11 2012-08-14 Apple Inc. Menu overlay including context dependent menu icon
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
USD550614S1 (en) 2006-09-22 2007-09-11 10Charge, Inc. Battery charger
US7714839B2 (en) 2006-09-29 2010-05-11 Sony Ericsson Mobile Communications Ab Jog dial for mobile terminal
JP2008089039A (ja) 2006-09-29 2008-04-17 Jtekt Corp 円すいころ軸受及びディファレンシャル装置
US7463557B2 (en) 2006-10-06 2008-12-09 Timex Group B.V. Electronic device with changeable display configurations
US7925986B2 (en) 2006-10-06 2011-04-12 Veveo, Inc. Methods and systems for a linear character selection display interface for ambiguous text input
US7667148B2 (en) 2006-10-13 2010-02-23 Apple Inc. Method, device, and graphical user interface for dialing with a click wheel
US8355709B2 (en) 2006-10-23 2013-01-15 Qualcomm Incorporated Device that determines whether to launch an application locally or remotely as a webapp
USD575289S1 (en) 2006-12-11 2008-08-19 Hon Hai Precision Ind. Co., Ltd. Dock connector
USD545697S1 (en) 2007-01-10 2007-07-03 Nike, Inc. Portion of a watch
KR100896055B1 (ko) 2007-01-15 2009-05-07 엘지전자 주식회사 회전입력장치 구비 이동단말기 및 그 디스플레이 방법
US8311530B2 (en) 2007-01-26 2012-11-13 Research In Motion Limited Touch entry of password on a mobile device
US7966039B2 (en) 2007-02-02 2011-06-21 Microsoft Corporation Bidirectional dynamic offloading of tasks between a host and a mobile device
US8789053B2 (en) 2007-04-05 2014-07-22 Newton Howard Task execution and delegation by autonomous mobile agents based on intent knowledge base
US8401536B2 (en) 2007-04-26 2013-03-19 Nokia Corporation Mobile communication terminal and method
USD590277S1 (en) 2007-04-27 2009-04-14 New Heritage Ltd. Watch case
USD590727S1 (en) 2007-04-27 2009-04-21 New Heritage Ltd. Watch case
CN101689244B (zh) * 2007-05-04 2015-07-22 高通股份有限公司 用于紧凑设备的基于相机的用户输入
USD604643S1 (en) 2007-05-16 2009-11-24 Suunto Oy Multi-function wristwatch
US8442015B2 (en) 2007-07-20 2013-05-14 Broadcom Corporation Method and system for an atomizing function of a mobile device
JP2009005320A (ja) 2007-06-21 2009-01-08 Rumiko Aso 腕時計型携帯電話
US10178965B2 (en) 2007-06-22 2019-01-15 Ipventure, Inc. Activity monitoring system for pregnant women
KR101515089B1 (ko) 2007-08-16 2015-04-24 삼성전자 주식회사 그래픽 사용자 인터페이스 제공 장치 및 방법
US8676273B1 (en) 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
US8593404B2 (en) 2007-08-27 2013-11-26 Blackberry Limited Reduced key arrangement for a mobile communication device
US7778118B2 (en) 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
ES1066912Y (es) 2007-09-13 2008-07-01 Fagor S Coop Dispositivo de control remoto para aparatos electrodomesticos
JP5184018B2 (ja) 2007-09-14 2013-04-17 京セラ株式会社 電子機器
JP4960812B2 (ja) 2007-09-14 2012-06-27 株式会社リコー 画像処理装置、負荷分散システム及び負荷分散プログラム
EP2731037B1 (en) 2007-09-24 2019-08-07 Apple Inc. Embedded authentication systems in an electronic device
KR100949581B1 (ko) 2007-10-08 2010-03-25 주식회사 자코드 통신단말기의 문자/숫자 입력장치 및 입력방법
US8031172B2 (en) 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
US8639214B1 (en) 2007-10-26 2014-01-28 Iwao Fujisaki Communication device
US20090134838A1 (en) 2007-11-27 2009-05-28 Puthalath Koroth Raghuprasad Circular self-powered magnetic generator
USD564367S1 (en) 2007-11-30 2008-03-18 Nike, Inc. Watch
US20090167486A1 (en) 2007-12-29 2009-07-02 Shah Rahul C Secure association between devices
US9467850B2 (en) 2007-12-31 2016-10-11 Intel Corporation Handheld device association via shared vibration
US7946758B2 (en) 2008-01-31 2011-05-24 WIMM Labs Modular movement that is fully functional standalone and interchangeable in other portable devices
RU74259U1 (ru) 2008-02-19 2008-06-20 Татаренков Валерий Владимирович Мобильный телефон-браслет
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9398046B2 (en) 2008-03-06 2016-07-19 Qualcomm Incorporated Image-based man-in-the-middle protection in numeric comparison association models
US20090234967A1 (en) 2008-03-17 2009-09-17 Nokia Corporation Method, system, and apparatus for transferring P2P file distribution tasks between devices
USD585898S1 (en) 2008-04-01 2009-02-03 Sdi Technologies, Inc. Base unit for digital media player
EP2279504A4 (en) 2008-05-08 2013-12-18 Robert P Stratton REMOTE CONTROL SYSTEM AND METHOD
US20090280861A1 (en) 2008-05-09 2009-11-12 Ashana Sabana Nisha Khan Multifunctional all-in-one detachable wrist wireless mobile communication device
US8638229B2 (en) 2008-05-29 2014-01-28 Garmin Switzerland Gmbh Swim watch
US8295879B2 (en) 2008-05-30 2012-10-23 Motorola Mobility Llc Devices and methods for initiating functions based on movement characteristics relative to a reference
DE102008027746A1 (de) 2008-06-11 2009-12-17 Kirner, Markus A. Armbanduhranordnung mit Mobiltelefon
JP2009301485A (ja) 2008-06-17 2009-12-24 Olympus Corp 情報表示システムおよびそれを用いた携帯情報端末
US8112526B2 (en) 2008-06-24 2012-02-07 International Business Machines Corporation Process migration based on service availability in a multi-node environment
US8078873B2 (en) 2008-06-30 2011-12-13 Intel Corporation Two-way authentication between two communication endpoints using a one-way out-of-band (OOB) channel
US20100020033A1 (en) 2008-07-23 2010-01-28 Obinna Ihenacho Alozie Nwosu System, method and computer program product for a virtual keyboard
KR101546774B1 (ko) 2008-07-29 2015-08-24 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
US20100039393A1 (en) 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Text entry on touch screen cellphones by different pressure levels
JP4899108B2 (ja) 2008-08-24 2012-03-21 照彦 矢上 腕時計型電子メモ装置
US8319742B2 (en) 2008-08-26 2012-11-27 Research In Motion Limited Portable electronic device and method of controlling same
KR20100028465A (ko) 2008-09-04 2010-03-12 백상주 포인터의 드래그 방향에 따른 문자 또는 메뉴입력 방법
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
US20100082485A1 (en) 2008-09-30 2010-04-01 Apple Inc. Portable point of purchase devices and methods
US9026462B2 (en) 2008-09-30 2015-05-05 Apple Inc. Portable point of purchase user interfaces
KR101537596B1 (ko) 2008-10-15 2015-07-20 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
US8335993B1 (en) 2008-10-24 2012-12-18 Marvell International Ltd. Enhanced touch sensitive interface and methods and software for making and using the same
JP4506890B2 (ja) 2008-10-28 2010-07-21 トヨタ自動車株式会社 歩行補助装置
USD596610S1 (en) 2008-11-07 2009-07-21 Cheng Uei Precision Industry Co., Ltd. Wrist type mobile phone
US9201582B2 (en) 2008-11-11 2015-12-01 Canon Kabushiki Kaisha Display control apparatus and display control method
US8503932B2 (en) 2008-11-14 2013-08-06 Sony Mobile Comminications AB Portable communication device and remote motion input device
JP5343523B2 (ja) 2008-11-17 2013-11-13 富士通株式会社 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP2010122934A (ja) 2008-11-20 2010-06-03 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9355554B2 (en) 2008-11-21 2016-05-31 Lenovo (Singapore) Pte. Ltd. System and method for identifying media and providing additional media content
AU326155S (en) 2008-12-22 2009-06-01 Swarovski Aktiengesselschaft Wrist watch
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
US20100167646A1 (en) 2008-12-30 2010-07-01 Motorola, Inc. Method and apparatus for device pairing
US9591118B2 (en) 2009-01-01 2017-03-07 Intel Corporation Pose to device mapping
USD596509S1 (en) 2009-01-08 2009-07-21 Seiko Watch Kabushiki Kaisha Watch case
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8326221B2 (en) 2009-02-09 2012-12-04 Apple Inc. Portable electronic device with proximity-based content synchronization
EP2220997A1 (en) 2009-02-24 2010-08-25 Koninklijke Philips Electronics N.V. Device, system and method for monitoring motion sequences
US8098141B2 (en) 2009-02-27 2012-01-17 Nokia Corporation Touch sensitive wearable band apparatus and method
USD596959S1 (en) 2009-03-05 2009-07-28 Zino Davidoff Trading Ag Watch case
AU327459S (en) 2009-03-06 2009-09-03 Rado Uhren Ag Rado Watch Co Ltd Montres Rado Sa Watch
US20100245078A1 (en) 2009-03-26 2010-09-30 Wellcore Corporation Wearable Motion Sensing Device
US20100250789A1 (en) 2009-03-27 2010-09-30 Qualcomm Incorporated System and method of managing memory at a portable computing device and a portable computing device docking station
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
CN102448555B (zh) 2009-04-26 2015-05-20 耐克创新有限合伙公司 运动手表
DE112010001796T5 (de) 2009-04-28 2012-08-09 Mitsubishi Electric Corporation Eingabevorrichtung
US20100289740A1 (en) 2009-05-18 2010-11-18 Bong Soo Kim Touchless control of an electronic device
JP5263833B2 (ja) 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
US8287320B2 (en) 2009-05-22 2012-10-16 John Mezzalingua Associates, Inc. Coaxial cable connector having electrical continuity member
US8294105B2 (en) 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
USD615955S1 (en) 2009-05-26 2010-05-18 Samsung Electronics Co., Ltd. Mobile phone
JP5282661B2 (ja) 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
USD626551S1 (en) 2009-05-26 2010-11-02 Implanet Combined PDA device and base station
WO2010137325A1 (ja) 2009-05-27 2010-12-02 パナソニック株式会社 行動認識装置
US20100304673A1 (en) 2009-05-29 2010-12-02 Junichi Yoshizawa Wireless Communication Apparatus and Wireless Communication Method
US9239740B2 (en) 2009-06-16 2016-01-19 Microsoft Technology Licensing, Llc Program partitioning across client and cloud
US8560465B2 (en) 2009-07-02 2013-10-15 Samsung Electronics Co., Ltd Execution allocation cost assessment for computing systems and environments including elastic computing systems and environments
CH701440A2 (fr) 2009-07-03 2011-01-14 Comme Le Temps Sa Montre-bracelet à écran tactile et procédé d'affichage sur une montre à écran tactile.
WO2011008861A2 (en) 2009-07-14 2011-01-20 Eatoni Ergonomics, Inc Keyboard comprising swipe-switches performing keyboard actions
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
US8245234B2 (en) 2009-08-10 2012-08-14 Avaya Inc. Credit scheduler for ordering the execution of tasks
USD612269S1 (en) 2009-08-13 2010-03-23 P.S.L. Limited Slap-on watch
JP5254906B2 (ja) 2009-08-27 2013-08-07 京セラ株式会社 電子機器
US8060560B2 (en) 2009-08-27 2011-11-15 Net Power And Light, Inc. System and method for pervasive computing
US8572375B2 (en) 2009-09-23 2013-10-29 Microsoft Corporation Device pairing based on graphically encoded data
US8717291B2 (en) * 2009-10-07 2014-05-06 AFA Micro Co. Motion sensitive gesture device
GB2483168B (en) * 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
US8279052B2 (en) 2009-11-04 2012-10-02 Immersion Corporation Systems and methods for haptic confirmation of commands
CN102713794A (zh) 2009-11-24 2012-10-03 奈克斯特控股公司 用于手势识别模式控制的方法和装置
US10095276B2 (en) 2009-11-25 2018-10-09 Visa International Service Association Information access device and data transfer
USD627718S1 (en) 2009-12-11 2010-11-23 Black & Decker Inc. Charger base for a hand-held vacuum cleaner
KR20110069958A (ko) 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
CA135976S (en) 2009-12-23 2011-11-24 Simone Dalla Libera Watch
US9229779B2 (en) 2009-12-28 2016-01-05 Empire Technology Development Llc Parallelizing heterogeneous network communications in smart devices based on selection of task allocation strategy
KR101626621B1 (ko) 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
KR101697937B1 (ko) 2010-01-08 2017-02-01 삼성전자주식회사 멀티프로세서 시스템에서 동적 태스크 마이그레이션을 위한 방법 및 시스템
WO2011096702A2 (ko) 2010-02-03 2011-08-11 고려대학교 산학협력단 문자 입력 장치 및 방법
US8869263B2 (en) 2010-02-26 2014-10-21 Blackberry Limited Wireless communications system providing mobile device authentication bypass based upon user-wearable security device and related methods
US20120194551A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with user-action based command and control of external devices
US20110219427A1 (en) 2010-03-04 2011-09-08 RSSBus, Inc. Smart Device User Authentication
EP2545426A4 (en) 2010-03-12 2017-05-17 Nuance Communications, Inc. Multimodal text input system, such as for use with touch screens on mobile phones
KR101659023B1 (ko) 2010-03-15 2016-09-23 엘지전자 주식회사 와치형 이동 단말기
US8370878B2 (en) 2010-03-17 2013-02-05 Verizon Patent And Licensing Inc. Mobile interface for accessing interactive television applications associated with displayed content
CH702862A1 (fr) 2010-03-30 2011-09-30 Comme Le Temps Sa Montre bracelet à affichage électronique.
US9811385B2 (en) 2010-04-28 2017-11-07 Wind River Systems, Inc. Optimizing task management
JP5681865B2 (ja) 2010-05-10 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ユーザーインターフェース装置
US8683377B2 (en) 2010-05-12 2014-03-25 Adobe Systems Incorporated Method for dynamically modifying zoom level to facilitate navigation on a graphical user interface
US20130057774A1 (en) 2010-05-19 2013-03-07 Sharp Kabushiki Kaisha Reproduction device, display device, television receiver, system, recognition method, program, and recording medium
US20110289519A1 (en) 2010-05-21 2011-11-24 Frost Gary R Distributing workloads in a computing platform
US8750857B2 (en) 2010-06-04 2014-06-10 Qualcomm Incorporated Method and apparatus for wireless distributed computing
US8935317B2 (en) 2010-06-23 2015-01-13 Microsoft Corporation Dynamic partitioning of applications between clients and servers
USD631373S1 (en) 2010-06-29 2011-01-25 Worldwide Watch Company Limited Watch
WO2012009335A1 (en) 2010-07-14 2012-01-19 Dynavox Systems Llc A wearable speech generation device
US9532734B2 (en) 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
JP5234066B2 (ja) 2010-08-25 2013-07-10 横河電機株式会社 機器情報表示装置及び機器情報表示方法
SG187534A1 (en) 2010-08-29 2013-03-28 Vascode Technologies Ltd A system and methods for multi-tasking in a clientless mobile phone
US9007304B2 (en) 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
US9489016B2 (en) 2010-09-08 2016-11-08 Live Lids, Inc. Electronic display wearable item
KR101219933B1 (ko) 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
WO2012037200A2 (en) 2010-09-15 2012-03-22 Spetalnick Jeffrey R Methods of and systems for reducing keyboard data entry errors
USD645360S1 (en) 2010-09-17 2011-09-20 Simpel, LLC Slap band watch
USD669369S1 (en) 2010-09-20 2012-10-23 Daniel Rasumowsky Watch
US8595289B2 (en) 2010-09-21 2013-11-26 Telefonaktiebolaget L M Ericsson (Publ) Cloud phone with distributed processing
US20120075204A1 (en) 2010-09-27 2012-03-29 Google Inc. Using a Touch-Sensitive Display of a Mobile Device with a Host Computer
US20130165180A1 (en) 2010-09-27 2013-06-27 Adobe Systems Incorporated Integrating Operation Of Consumer Electronic Devices
JP2012073830A (ja) 2010-09-29 2012-04-12 Pioneer Electronic Corp インターフェース装置
US8345412B2 (en) 2010-10-01 2013-01-01 Hex Holdings, Llc Wrist band for portable electronic devices
US9462444B1 (en) 2010-10-04 2016-10-04 Nortek Security & Control Llc Cloud based collaborative mobile emergency call initiation and handling distribution system
US8506158B2 (en) 2010-10-12 2013-08-13 P.S.L. Limited Watch
AU334766S (en) 2010-10-13 2011-01-24 Swarovski Ag Case for a wristwatch
US20120096345A1 (en) 2010-10-19 2012-04-19 Google Inc. Resizing of gesture-created markings for different display sizes
US8635630B2 (en) 2010-10-25 2014-01-21 Microsoft Corporation Application lifetime management
JP2012098771A (ja) 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
US9086741B2 (en) 2010-10-29 2015-07-21 Microsoft Corporation User input device
US8814754B2 (en) 2010-11-01 2014-08-26 Nike, Inc. Wearable device having athletic functionality
US8184983B1 (en) 2010-11-12 2012-05-22 Google Inc. Wireless directional identification and subsequent communication between wearable electronic devices
USD640948S1 (en) 2010-11-15 2011-07-05 Hook-Link, LLC Magnetically hooking bracelet
JP2012108771A (ja) 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
US8195313B1 (en) 2010-11-19 2012-06-05 Nest Labs, Inc. Thermostat user interface
JP5733656B2 (ja) 2010-11-25 2015-06-10 公立大学法人会津大学 ジェスチャ認識装置及びジェスチャ認識方法
US9155168B2 (en) 2010-12-03 2015-10-06 Surefire, Llc Wearable lighting device
CN102572565A (zh) 2010-12-15 2012-07-11 深圳市同洲软件有限公司 一种移动终端控制数字电视接收终端方法、装置和系统
USD640936S1 (en) 2011-01-01 2011-07-05 Teresa Teixeia Combined watch and bracelet
USD636686S1 (en) 2011-01-04 2011-04-26 Nike, Inc. Watch
US9436286B2 (en) 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
USD651099S1 (en) 2011-01-10 2011-12-27 Montblanc-Simplo Gmbh Watch case
US9778747B2 (en) 2011-01-19 2017-10-03 Hewlett-Packard Development Company, L.P. Method and system for multimodal and gestural control
US20120209413A1 (en) 2011-02-14 2012-08-16 Microsoft Corporation Background Audio on Mobile Devices
US9645986B2 (en) 2011-02-24 2017-05-09 Google Inc. Method, medium, and system for creating an electronic book with an umbrella policy
USD678081S1 (en) 2011-03-14 2013-03-19 Montblanc-Simplo Gmbh Watchcase
JPWO2012124250A1 (ja) 2011-03-15 2014-07-17 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
US8655027B1 (en) 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
US20120249544A1 (en) 2011-03-29 2012-10-04 Giuliano Maciocci Cloud storage of geotagged maps
WO2012135614A1 (en) 2011-03-31 2012-10-04 Aol Inc. Systems and methods for transferring application state between devices based on gestural input
JP2014518597A (ja) 2011-03-31 2014-07-31 ソニーモバイルコミュニケーションズ, エービー アプリケーションに関連した通信セッションを設立するためのシステム及び方法
US10061387B2 (en) 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US8811964B2 (en) 2011-04-04 2014-08-19 Numera, Inc. Single button mobile telephone using server-based call routing
USD661206S1 (en) 2011-04-06 2012-06-05 Garmin Switzerland Gmbh Electronic device
USD659093S1 (en) 2011-04-08 2012-05-08 The Gillette Company Charger
KR101836403B1 (ko) 2011-04-12 2018-04-19 엘지전자 주식회사 디스플레이 장치의 리모콘 기능을 수행하는 이동 단말기
US9152373B2 (en) 2011-04-12 2015-10-06 Apple Inc. Gesture visualization and sharing between electronic devices and remote displays
US8928589B2 (en) 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
JP5824859B2 (ja) 2011-05-02 2015-12-02 船井電機株式会社 携帯端末
EP3462286A1 (en) 2011-05-06 2019-04-03 Magic Leap, Inc. Massive simultaneous remote digital presence world
JP5988036B2 (ja) 2011-05-18 2016-09-07 パナソニックIpマネジメント株式会社 通信制御システムおよびその方法、ならびに通信装置およびその方法、プログラム
KR101844222B1 (ko) 2011-05-27 2018-04-02 엘지전자 주식회사 이동 단말기 및 이것의 모드 제어 방법
JP2012248067A (ja) 2011-05-30 2012-12-13 Canon Inc 情報入力装置、その制御方法、および制御プログラム
KR20120134732A (ko) 2011-06-03 2012-12-12 삼성전자주식회사 원격제어기를 이용하여 웹 브라우징을 수행하는 장치 및 방법
US20120317024A1 (en) 2011-06-10 2012-12-13 Aliphcom Wearable device data security
US20120316456A1 (en) 2011-06-10 2012-12-13 Aliphcom Sensory user interface
US8194036B1 (en) 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
KR101251250B1 (ko) 2011-07-01 2013-04-08 알서포트 주식회사 원격 디바이스 드라이버를 이용한 원격 제어 시스템 및 원격 디바이스 드라이버를 이용한 원격 제어 방법
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US8184070B1 (en) 2011-07-06 2012-05-22 Google Inc. Method and system for selecting a user interface for a wearable computing device
US8228315B1 (en) 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US20130018659A1 (en) 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US20130021374A1 (en) 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
US9015708B2 (en) 2011-07-28 2015-04-21 International Business Machines Corporation System for improving the performance of high performance computing applications on cloud using integrated load balancing
US9256361B2 (en) 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
USD650706S1 (en) 2011-08-08 2011-12-20 Blue Sky SRL Wrist watch
US8641306B2 (en) 2011-08-16 2014-02-04 Argotext Wristwatch keyboard
USD661275S1 (en) 2011-08-19 2012-06-05 Cox Communications, Inc. Mobile communications device with wrist band
US9720708B2 (en) 2011-08-19 2017-08-01 Advanced Micro Devices, Inc. Data layout transformation for workload distribution
USD654431S1 (en) 2011-08-29 2012-02-21 Eveready Battery Company, Inc. Charger for a lighting device
US9529448B2 (en) 2011-08-31 2016-12-27 Farzan Fallah Data entry systems and methods
US9173090B2 (en) 2011-09-15 2015-10-27 Teletech Holdings, Inc. Method for activating services associated with a product via a service center supporting a variety of products
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
CN103034362B (zh) 2011-09-30 2017-05-17 三星电子株式会社 移动终端中处理触摸输入的方法和设备
US9336687B2 (en) 2011-10-11 2016-05-10 Teletech Holdings, Inc. Method for providing learning courses via a service center supporting a variety of products
US8707211B2 (en) 2011-10-21 2014-04-22 Hewlett-Packard Development Company, L.P. Radial graphical user interface
US8467270B2 (en) 2011-10-26 2013-06-18 Google Inc. Smart-watch with user interface features
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US8935629B2 (en) 2011-10-28 2015-01-13 Flipboard Inc. Systems and methods for flipping through content
US9936036B2 (en) 2011-10-28 2018-04-03 Sharp Laboratories Of America, Inc. Method and system for indirectly establishing a unique communication channel between a plurality of devices
WO2013063767A1 (en) * 2011-11-01 2013-05-10 Intel Corporation Dynamic gesture based short-range human-machine interaction
WO2013067392A1 (en) 2011-11-02 2013-05-10 Hendricks Investment Holdings, Llc Device navigation icon and system, and method of use thereof
US9288229B2 (en) 2011-11-10 2016-03-15 Skype Device association via video handshake
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9007302B1 (en) 2011-11-11 2015-04-14 Benjamin D. Bandt-Horn Device and user interface for visualizing, navigating, and manipulating hierarchically structured information on host electronic devices
US9183658B2 (en) 2011-11-14 2015-11-10 Microsoft Technology Licensing, Llc Animation creation and management in presentation application programs
US20130120106A1 (en) * 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US20130132848A1 (en) 2011-11-18 2013-05-23 Apple Inc. Application interaction via multiple user interfaces
US20140330900A1 (en) 2011-11-23 2014-11-06 Evernote Corporation Encounter-driven personal contact space
US9286901B1 (en) 2011-11-23 2016-03-15 Evernote Corporation Communication using sound
US9162144B2 (en) 2011-12-05 2015-10-20 Microsoft Technology Licensing, Llc Portable device pairing with a tracking system
KR101242390B1 (ko) 2011-12-29 2013-03-12 인텔 코오퍼레이션 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
US9137627B2 (en) 2011-12-30 2015-09-15 Linkedin Corporation Systems and methods for mobile device pairing
USD664881S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
USD664880S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
USD671858S1 (en) 2012-01-18 2012-12-04 Nike, Inc. Wristband
US9134810B2 (en) 2012-01-19 2015-09-15 Blackberry Limited Next letter prediction for virtual keyboard
US9026461B2 (en) 2012-01-23 2015-05-05 Bank Of America Corporation Enhanced mobile application for assisting users at a point of transaction
US9367085B2 (en) 2012-01-26 2016-06-14 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device
US8872849B2 (en) 2012-01-27 2014-10-28 Microsoft Corporation Relational rendering of multi-faceted data
US20130198056A1 (en) 2012-01-27 2013-08-01 Verizon Patent And Licensing Inc. Near field communication transaction management and application systems and methods
JP5193404B2 (ja) 2012-02-10 2013-05-08 オリンパスイメージング株式会社 情報機器
US20130211843A1 (en) * 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
US9186077B2 (en) 2012-02-16 2015-11-17 Google Technology Holdings LLC Method and device with customizable power management
USD687736S1 (en) 2012-02-16 2013-08-13 Christopher D. Wycoff Bracelet with removable chip
WO2013130682A1 (en) 2012-02-27 2013-09-06 5 Examples, Inc. Date entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US20130254705A1 (en) 2012-03-20 2013-09-26 Wimm Labs, Inc. Multi-axis user interface for a touch-screen enabled wearable device
US10332112B2 (en) 2012-03-27 2019-06-25 International Business Machines Corporation Authentication for transactions using near field communication
USD680541S1 (en) 2012-04-11 2013-04-23 Coby Electronics Corp. Docking station for a portable media player
USD672255S1 (en) 2012-04-16 2012-12-11 I'M SpA Watch
US20130300719A1 (en) 2012-05-10 2013-11-14 Research In Motion Limited Method and apparatus for providing stylus orientation and position input
CN102681786B (zh) 2012-05-14 2014-12-24 华为技术有限公司 文本选择的方法及装置
US9256366B2 (en) 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
US9619282B2 (en) 2012-08-21 2017-04-11 Lenovo (Singapore) Pte. Ltd. Task scheduling in big and little cores
US9360997B2 (en) 2012-08-29 2016-06-07 Apple Inc. Content presentation and interaction across multiple displays
US20140078065A1 (en) 2012-09-15 2014-03-20 Ahmet Akkok Predictive Keyboard With Suppressed Keys
US8963806B1 (en) 2012-10-29 2015-02-24 Google Inc. Device authentication
US9373230B2 (en) 2012-10-31 2016-06-21 Wal-Mart Stores, Inc. Customer reprint of a physical receipt from an electronic receipt
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US9030446B2 (en) 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US20140181758A1 (en) 2012-12-20 2014-06-26 Research In Motion Limited System and Method for Displaying Characters Using Gestures
US10063598B2 (en) 2012-12-28 2018-08-28 Nokia Technologies Oy Method and apparatus for establishing, authenticating, and accessing a content channel
EP2956845A2 (en) 2013-02-17 2015-12-23 Keyless Systems Ltd Improved data entry systems
US9274685B2 (en) 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
US20140282274A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a gesture performed with at least two control objects
US20140306898A1 (en) 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Key swipe gestures for touch sensitive ui virtual keyboard
US9022291B1 (en) 2014-07-24 2015-05-05 Apple Inc. Invisible optical label for transmitting information between computing devices
US10326590B2 (en) 2014-11-11 2019-06-18 Intel Corporation Technologies for trusted device on-boarding

Also Published As

Publication number Publication date
AU2013260688A1 (en) 2014-06-05
MX346368B (es) 2017-03-16
US20140139454A1 (en) 2014-05-22
EP2733578A2 (en) 2014-05-21
WO2014081185A1 (en) 2014-05-30
RU2015124021A (ru) 2017-01-10
JP6323862B2 (ja) 2018-05-16
EP2733578A3 (en) 2016-08-24
EP2733578B1 (en) 2021-06-23
JP2014102842A (ja) 2014-06-05
KR102186459B1 (ko) 2020-12-03
US10185416B2 (en) 2019-01-22
AU2013260688B2 (en) 2019-02-14
CN104919394A (zh) 2015-09-16
RU2623805C2 (ru) 2017-06-29
MX2015006359A (es) 2015-10-05
KR20140064693A (ko) 2014-05-28
MY177359A (en) 2020-09-14
BR112015011599A2 (pt) 2017-07-11
IN2013MU03647A (pt) 2015-07-31
CN104919394B (zh) 2018-09-11

Similar Documents

Publication Publication Date Title
JP6804586B2 (ja) 着用式電子デバイスでのgui転移
US11240408B2 (en) Wearable electronic device
US20220121339A1 (en) Controlling Remote Electronic Device with Wearable Electronic Device
BR112015011599B1 (pt) Dispositivo de computação usável, e método
BR112015011601B1 (pt) Aparelho, método, e um ou mais meios de armazenamento, não transitórios, legíveis por computador
US11157436B2 (en) Services associated with wearable electronic device
JP5712269B2 (ja) デバイスの動きを含む、着用式電子デバイスへのユーザジェスチャー入力
AU2013260684B2 (en) Placement of optical sensor on wearble electronic device
US20140143737A1 (en) Transition and Interaction Model for Wearable Electronic Device

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/11/2013, OBSERVADAS AS CONDICOES LEGAIS.