ES2618231T3 - Distintivo interactivo - Google Patents

Distintivo interactivo Download PDF

Info

Publication number
ES2618231T3
ES2618231T3 ES14710079.6T ES14710079T ES2618231T3 ES 2618231 T3 ES2618231 T3 ES 2618231T3 ES 14710079 T ES14710079 T ES 14710079T ES 2618231 T3 ES2618231 T3 ES 2618231T3
Authority
ES
Spain
Prior art keywords
data
piece
output
interaction
wearable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14710079.6T
Other languages
English (en)
Inventor
Stephen Edward Hodges
Norman Timo POHL
John Helmes
Nicolas VILLAR MARTINEZ
Timothy S. Paek
Johnson Tan Apacible
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Application granted granted Critical
Publication of ES2618231T3 publication Critical patent/ES2618231T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un método realizado al menos en parte en al menos un procesador (110), que comprende, detectar una posición de una primera pieza (442) de un dispositivo interactivo usable de múltiples piezas (102) con respecto a una segunda pieza (444) del dispositivo (102), conectada a la primera pieza (442) por un cuerda y un mecanismo sensor y usado por un portador del dispositivo (102) para proporcionar datos de posición, en el que la manipulación de la primera pieza (442) del dispositivo (102) que hace a la primera pieza (442) del dispositivo (102) moverse a la posición comprende al menos parte de una interacción con el dispositivo (102), y representar la salida a través del dispositivo interactivo usable (102) en base a la interacción con el dispositivo (102), incluyendo determinar, en base al menos en parte a los datos de posición, la salida que se representa a través del dispositivo interactivo usable (102).

Description

imagen1
DESCRIPCIÓN
Distintivo interactivo
Antecedentes
La gente quiere acceso rápido, cómodo y móvil a su información digital. Un ejemplo típico es cuando una persona
5 que negocia una reunión próxima quiere ver datos de calendario incluyendo la hora de reunión y la ubicación. Un acceso similar a otra información, tal como correo electrónico, redes sociales y servicios en línea tales como búsqueda, mapas, previsión meteorológica y actualizaciones de tráfico también es deseable para muchos usuarios.
Los dispositivos móviles contemporáneos proporcionan tal información, pero no necesariamente rápida o cómodamente. Por ejemplo, un teléfono inteligente tiene ciertas limitaciones desde un punto de vista de interacción,
10 en la medida que un teléfono inteligente se lleva muy a menudo en un bolsillo o bolso, y por lo tanto necesita ser extraído (y típicamente encendido y/o desbloqueado) antes de que se pueda usar para interacción adicional. Un ordenador portátil u ordenador de dispositivo informático de tableta del mismo modo necesita ser activado. No solamente esto puede ser incómodo y embarazoso a veces, sino que también hay otras veces cuando es social o profesionalmente inaceptable hacerlo así, y/o indeseable llamar la atención sobre uno mismo haciéndolo así.
15 Un método de proporcionar una gestión de potencia basada en gestos para un dispositivo electrónico portátil usable y un sistema para proporcionar una gestión de potencia basada en gestos para un dispositivo electrónico portátil usable con visualizador se ha descrito previamente en Fitzgerald et al. (US2009195497).
Mooring et al. (US2010156676) describe un método y sistemas para proporcionar una interfaz de usuario basada en gestos para un dispositivo portátil usable. Un gesto incluyendo un movimiento del dispositivo portátil usable se
20 recibe, y al menos un carácter asociado con el gesto se identifica y muestra en el dispositivo portátil usable.
El documento US20110018731 describe un método para comunicar información de control por un dispositivo usable. El método incluye determinar un primer movimiento según un primer grado de libertad como que está relacionado con gestos y un segundo movimiento según un segundo grado de libertad como que está relacionado con gestos.
Compendio
25 Este Compendio se proporciona para introducir una selección de conceptos representativos de una forma simplificada que se describen además a continuación en la Descripción Detallada. Este Compendio no se pretende que identifique características clave o características esenciales de la materia objeto reivindicada, ni se pretende que sea usado de ninguna forma que limitase el alcance de la materia objeto reivindicada.
Brevemente, diversos aspectos de la materia objeto descrita en la presente memoria se dirigen hacia una tecnología
30 en la que la posición de un dispositivo interactivo usable con respecto a un portador del dispositivo se detecta como (al menos parte de) interacción con el dispositivo. Se describe una salida de reproducción a través del dispositivo interactivo en base a la interacción con el dispositivo, incluyendo determinar la salida que se representa en base al menos en parte a los datos de posición.
En un aspecto, se proporciona un método realizado al menos en parte en al menos un procesador, que comprende,
35 detectar una posición de una primera pieza de un dispositivo interactivo usable de múltiples piezas con respecto a una segunda pieza del dispositivo, conectada a la primera pieza por un cuerda y un mecanismo sensor y usada por un portador del dispositivo para proporcionar datos de posición, en el cual la manipulación de la primera pieza del dispositivo que hace a la primera pieza del dispositivo moverse a la posición comprende al menos parte de una interacción con el dispositivo, y representar una salida a través del dispositivo interactivo usable en base a la
40 interacción con el dispositivo, incluyendo determinar, en base, al menos en parte, a los datos de posición, la salida que se representa a través del dispositivo interactivo usable.
En un ejemplo se proporciona el uso de datos de contexto para determinar la salida que se representa a través del dispositivo interactivo usable.
En un ejemplo, la detección de la posición del dispositivo interactivo usable para proporcionar los datos de posición 45 comprende detectar las coordenadas que corresponden a una distancia, un ángulo vertical y un ángulo horizontal.
En un ejemplo, obtener datos que corresponden al menos en parte a la salida a ser representada desde un dispositivo remoto, u obtener contenido que corresponde a la salida a ser representada desde una fuente de contenido remota.
En un ejemplo, la salida comprende una representación visualizada de una parte de contenido, y en donde
50 representar la salida en el dispositivo interactivo usable en base a la interacción con el dispositivo, comprende tomar una vista panorámica, desplazarse o hacer zum o cualquier combinación de tomar una vista panorámica, desplazarse o hacer zum para mostrar una representación diferente del contenido a medida que se cambian los datos de posición.
imagen2
En un ejemplo representar la salida a través del dispositivo interactivo usable en base a la interacción con el dispositivo comprende al menos uno de: representar una imagen de distintivo cuando no hay interacción manual o sustancialmente sin interacción manual con el dispositivo, sacar datos de control para controlar un dispositivo remoto
o desbloquear un dispositivo remoto, o tanto controlar como desbloquear un dispositivo remoto, o aumentar una 5 imagen con datos virtuales.
En un segundo aspecto, un entorno informático tiene un sistema que comprende, un dispositivo interactivo usable de múltiples piezas, el dispositivo interactivo usable que incluye un mecanismo de salida configurado para representar contenido de salida, en el que el contenido de salida se representa en base al menos en parte a interacción con el dispositivo interactivo usable que coloca una primera pieza del dispositivo interactivo usable en una posición con
10 respecto a una segunda pieza del dispositivo, conectada a la primera pieza por un cuerda y un mecanismo sensor y usada por un portador del dispositivo usable interactivo.
Por ejemplo, un conjunto de sensores incluye al menos un sensor que detecta la posición.
Por ejemplo, la primera pieza del dispositivo interactivo usable comprende una parte de visualización y la segunda pieza comprende una parte de clip de cinturón o una parte de cordón, y en donde al menos parte del conjunto de
15 sensores se incorpora en la parte de clip de cinturón o la parte de cordón del dispositivo interactivo usable.
En un tercer aspecto, se proporcionan uno o más medios legibles por ordenador que tienen instrucciones ejecutables por ordenador, las cuales cuando se ejecutan realizan pasos, que comprenden: obtener datos de contexto; detectar datos de posición de una primera pieza de un distintivo interactivo usable de múltiples piezas con respecto a una segunda pieza del distintivo, conectada a la primera pieza mediante una cuerda y mecanismo sensor
20 y usada por un portador, incluir datos de detección y datos angulares; determinar contenido en base a los datos de posición y los datos de contexto; y representar el contenido a través del distintivo interactivo usable.
Otras ventajas pueden llegar a ser evidentes a partir de la siguiente descripción detallada cuando se toma en conjunto con los dibujos.
Breve descripción de los dibujos
25 La presente invención se ilustra a modo de ejemplo y no se limita en las figuras anexas en las que números de referencia iguales indican elementos similares y en las que:
La FIG. 1 es un diagrama de bloques que muestra diversos componentes ejemplo de un dispositivo interactivo usable generalmente autónomo tal como un distintivo interactivo que se puede usar para proporcionar una salida pertinente, según una realización ejemplo.
30 La FIG. 2 es un diagrama de bloques que muestra diversos componentes ejemplo de un dispositivo interactivo usable tal como un distintivo interactivo junto con un dispositivo complementario acoplado, el cual se puede usar para proporcionar una salida pertinente, según una realización ejemplo.
Las FIG. 3A y 3B son diagramas de bloques que muestran diversos sensores ejemplo que se pueden usar para proporcionar una entrada pertinente a un dispositivo interactivo usable, según una realización ejemplo.
35 La FIG. 4 es una representación de un dispositivo interactivo usable ejemplo tal como un distintivo interactivo que comprende una parte de visualización y una parte de clip de cinturón, incluyendo un componente de detección, según una realización ejemplo.
Las FIG. 5A y 5B son representaciones de un dispositivo interactivo usable ejemplo tal como un distintivo interactivo en escenarios de uso basados en posicionamiento ejemplo, según una realización ejemplo.
40 La FIG. 6 es un diagrama de flujo que muestra pasos ejemplo tomados para procesar datos de entrada, incluyendo datos de posicionamiento de un dispositivo interactivo usable, en una salida pertinente, según una realización ejemplo.
La FIG. 7 es un diagrama de bloques que representa un entorno informático ejemplo en el cual se pueden incorporar aspectos de la materia objeto descrita en la presente memoria.
45 Descripción detallada
Diversos aspectos de la tecnología descrita en la presente memoria se dirigen de manera general hacia un dispositivo informático interactivo usable (incluyendo usado, sujetado o llevado de otro modo), el cual se puede implementar en forma de un distintivo interactivo, tal como un distintivo de identidad. El distintivo incorpora una pantalla de visualización tal como un visualizador LCD o biestable embebido que se configura para presentar
50 información dinámica al portador.
El dispositivo/distintivo interactivo se puede manipular para cambiar su posición con respecto al portador, y esta posición comprende (al menos parte de) la interacción con el dispositivo; por ejemplo, la posición se puede usar como datos de entrada para determinar qué salida tal como contenido/pieza de mayor contenido representar en la pantalla de visualización. Como se entenderá, el distintivo interactivo proporciona un dispositivo interactivo fácil de usar y fácilmente disponible que complementa otros dispositivos informáticos establecidos, tanto dispositivos móviles como generalmente estacionarios.
imagen3
5 Señalar que como se describe en la presente memoria, el término “distintivo” se usa a menudo para describir el dispositivo interactivo debido a la proliferación de tales distintivos en empresas y la capacidad de usar el dispositivo interactivo como tal distintivo. No obstante, el dispositivo interactivo descrito en la presente memoria no necesita ser usado como un distintivo en el sentido convencional. Por ejemplo, un usuario en una oficina en casa puede querer los beneficios proporcionados por tal dispositivo, por ejemplo, información de un vistazo que se basa en el
10 posicionamiento del dispositivo, sin el inconveniente de desbloquear, incluso aunque tal usuario no tenga necesidad de un distintivo de identificación en casa. Aún más, el “distintivo” interactivo basado en posición se puede implementar en otras formas de usables, tales como gafas, joyería, dispositivos de tipo reloj de muñeca, ropa deportiva (por ejemplo, una pulsera), etc. De esta manera, el término “distintivo” se usa solamente en la presente memoria con respecto a ejemplos de un modelo/escenario de uso, y cualquier uso del término “distintivo” en la
15 presente memoria no se debería usar para limitar el dispositivo interactivo a tal modelo de uso (excepto donde se refiera explícitamente como tal).
Como también se entenderá, el dispositivo informático usable puede operar como un dispositivo autónomo o como un accesorio de un dispositivo complementario (por ejemplo, un teléfono inteligente, ordenador portátil, tableta y/u ordenador personal). En cualquier configuración, el dispositivo informático usable puede proporcionar diversa 20 información a los usuarios (por ejemplo, a través de diversas aplicaciones). En general, la información se proporciona de una forma rápida y cómoda, incluyendo información de un vistazo (“que se puede ver de un vistazo”).
Se debería entender que cualquiera de los ejemplos de la presente memoria es no limitante. Por ejemplo, una realización de distintivo interactivo se ejemplifica en la presente memoria como que se incorpora en un distintivo de identificación (ID) de empresa (por ejemplo, corporación o institución educativa) tradicional, pero tal dispositivo se 25 puede usar o llevar por cualquier razón, incluyendo como una tarjeta de crédito o débito, y de esta manera un “distintivo” no está limitado a conceptos de distintivo convencional. Además, una implementación ejemplo es en forma de distintivo interactivo usable que comprende un dispositivo informático autónomo, no obstante, tal dispositivo puede comprender en su lugar un cliente ligero que comunica con otro dispositivo, tal como un teléfono inteligente, para usar al menos algo de la potencia de cálculo y/o la capacidad de comunicación de datos de otros
30 dispositivos. Por tanto, la presente invención no se limita a ninguna realización, aspecto, concepto, estructura, funcionalidad o ejemplo particular descrito en la presente memoria. Más bien, cualquiera de las realizaciones, aspectos, conceptos, estructuras, funcionalidades o ejemplos descritos en la presente memoria son no limitantes, y la presente invención se puede usar de diversas formas que proporcionan beneficios y ventajas en tecnología informática y de la información en general.
35 La FIG 1 muestra un diagrama de bloques en el que un dispositivo informático usable, interactivo 102 tal como un distintivo de identificación interactivo incluye un visualizador (bloque 104) que saca diverso contenido (por ejemplo, pertinente) como representado por la lógica de control 106. Por ejemplo, el visualizador puede comprender un visualizador biestable que siempre está encendido y solamente usa potencia para actualizar la salida. Un visualizador de muy baja potencia (que básicamente siempre está encendido) también es aceptable para muchos
40 escenarios de uso y puede ser más rápido que un visualizador biestable, (para proporcionar una tasa de cuadros razonable para gráficos dinámicos), que puede ser deseable para ciertas aplicaciones.
Como se muestra también en la FIG. 1 a través del bloque 104 son cero o más otros mecanismos de salida, es decir, otras formas de salida que se pueden detectar por un humano se pueden usar en lugar de o además de visualizar la salida, por ejemplo, otra salida visible a través de LED o similares, salida de audio y/o salida de
45 vibración (háptica).
La lógica de control 106 se puede mantener en una memoria 108 y ejecutar por un procesador 110 (como se representa en la FIG. 1), y/o se puede incorporar en (en todo o en parte) un chip hardware o similar. Como se describe a continuación con referencia a la FIG. 2, algo o la mayoría de la lógica de control 106 puede estar en un dispositivo remoto tal como un teléfono inteligente u ordenador portátil complementario que está en comunicación 50 con el dispositivo 102, por ejemplo, a través de un componente de comunicación de red 112 (software y/o hardware).
El componente de comunicación de red 112 puede usar cualquier tecnología cableada o inalámbrica, por ejemplo, Bluetooth®, Wi-Fi, celular y/o similares. El componente de comunicación de red 112 puede acoplar el dispositivo 102 a una fuente de datos, como Internet, una intranet, etc.; el acoplamiento puede ser a través de un intermediario tal como un dispositivo complementario. Por ejemplo, el componente de comunicación de red puede usar un teléfono
55 inteligente como un punto de acceso.
Como se describe en la presente memoria, la lógica de control 106 recibe datos de interacción de usuario de un componente de detección de interacción 114 o similar. Esto puede incluir una entrada manual 116 en forma de presiones de botón o similares, y posicionamiento manual con respecto al portador incluyendo el movimiento del dispositivo lejos de y de vuelta hacia el usuario, y movimiento vertical y horizontal. Otra detección puede proporcionar datos de inclinación, bandazo, rotación, orientación, etc. Señalar que el dispositivo 102 puede ser un dispositivo de múltiples piezas (por ejemplo, dos), tales como una pieza que proporciona la visualización, y otra pieza que detecta la posición del visualizador; la FIG. 4 muestra tal dispositivo de dos piezas que comprende una parte de visualizador acoplada a una parte de clip de cinturón y que detecta la posición relativa de la parte de
imagen4
5 visualización.
La entrada del usuario puede comprender cualquier dato de entrada recibido, incluyendo a través de una Interfaz de Usuario Natural (NUI), donde NUI se refiere generalmente a cualquier tecnología de interfaz que permita a un usuario interactuar con un dispositivo de una manera “natural”, tal como libre de restricciones artificiales impuestas por dispositivos de entrada tales como ratones, teclados, controles remotos y similares. Ejemplos de NUI incluyen 10 aquéllos basados en reconocimiento de habla, reconocimiento de tacto y lápiz, reconocimiento de gestos tanto en pantalla como adyacentes a la pantalla, gestos al aire, seguimiento de cabeza y ojos, voz y habla, visión, tacto, gestos incluyendo gestos de movimiento e inteligencia de máquina. La detección de gestos de movimiento puede usar acelerómetros/giroscopios, reconocimiento facial, visualizadores 3D, seguimiento de cabeza, ojo y mirada, realidad aumentada inmersiva y sistemas de realidad virtual, que proporcionan una interfaz más natural, así como
15 tecnologías para detectar la actividad cerebral usando electrodos de detección de campo eléctrico (EEG y métodos relacionados).
Usando tal entrada, el dispositivo se puede usar como un dispositivo de entrada de propósito general personalizado. Por ejemplo, el dispositivo puede mostrar un teclado QWERTY o de otro estilo que hace uso de un modelo de lenguaje entrenado en el usuario; se puede implementar del mismo modo reconocimiento de habla entrenado.
20 El dispositivo puede servir como un dispositivo de entrada remoto que actúa como un controlador para otro dispositivo, por ejemplo, uno o más dispositivos de entretenimiento personal, un proyector, uno o más de otros ordenadores (por ejemplo, como un ratón o un puntero), etc. Esto (al menos en parte) puede ser a través de tacto o botones, pero también se puede hacer a través de posicionamiento, gestos de movimiento o habla. Por ejemplo, mover el dispositivo horizontalmente puede cambiar un canal de televisión, mover el dispositivo verticalmente puede
25 cambiar el volumen. Como otro ejemplo, un monitor de ordenador que no es sensible al tacto (o sensible a la proximidad) se puede controlar a través de interacción de gestos de movimiento (por ejemplo, dirigidos hacia el monitor) para simular una pantalla táctil. A modelo de ‘portapapeles’ de GUI de escritorio se puede soportar, donde el contenido sujetado se asocia con ubicaciones específicas del dispositivo interactivo usable y se puede recuperar manteniendo el dispositivo interactivo usable en una posición pertinente antes de seleccionar ‘pegar’ en el escritorio.
30 La detección de posición también se puede usar como una entrada a un dispositivo/aplicación diferente, por ejemplo, para proporcionar navegación de información sin ojos, que entonces es hablada al portador. Direcciones giro a giro a un usuario que se sabe que está conduciendo se pueden sacar, por ejemplo, directamente o a través de comunicación que se habla a través de los altavoces del coche. Otros datos de audio tales como música se pueden mantener en y sacar también desde el dispositivo.
35 La lógica de control 106 puede incluir un motor de reglas u otro modelo (por ejemplo, máquina aprendida) que decide cómo representar contenido en base a la interacción del usuario. El contexto se puede calcular y usar como entrada, y las preferencias de usuario, historial, etc., se pueden usar como datos de entrada en la toma de decisiones. El contenido mostrado puede ser configurable por el usuario en cierta medida; por ejemplo, cuando el dispositivo se mantiene en una cierta posición, un usuario puede querer datos de correo electrónico, mientras otro
40 usuario puede querer ver datos de calendario en esa misma posición; cada usuario puede especificar tales preferencias. El contexto también puede jugar un papel en lo que se saca, por ejemplo, en la misma posición en un fin de semana, el contenido de calendario representado puede mostrar un día completo (por defecto), mientras que, durante un día de la semana, el contenido de calendario representado puede mostrar las horas de trabajo (por defecto). La ubicación también se puede usar como contexto, por ejemplo, si un usuario tiene una reunión en el
45 edificio y entra en él por primera vez (en base al historial), se puede mostrar al usuario el mapa a la sala de reunión; si el usuario no tiene una reunión o ha estado en el edificio antes, entonces se le pueden mostrar datos de calendario. El desplazamiento dentro de una aplicación/representado tal como para ver más horas de datos de calendario o para tomar una vista panorámica de la imagen de mapa se puede consumar mediante un movimiento horizontal y/o vertical del dispositivo interactivo, por ejemplo.
50 El componente de detección de interacción 114 puede proporcionar datos en bruto a la lógica de control 106 para procesamiento, y/o datos que se procesan de algún modo, tales como un identificador de qué botón se presionó, coordenadas del visualizador (por ejemplo, polares o cartesianas) con respecto al portador, por ejemplo, con respecto a un punto fijo asociado con el portador, tal como el cinturón del portador. De esta manera, el componente de detección de interacción 114 puede comprender una interfaz de detección, y puede ser uno que realice algún
55 procesamiento previo.
También mostrados en la FIG. 1 están datos ejemplo (bloques 118-124) que están disponibles para el dispositivo 102 y accesibles de alguna forma por la lógica de control 106, ejemplificados como datos de seguridad 118, datos de calendario 119, datos de correo electrónico 120, datos de redes sociales 121 y datos dinámicos 122 (por ejemplo, tiempo, tráfico, un mapa descargado). Los datos de estado 123, tales como la hora del día, los datos de localización 60 GPS, etc., también pueden estar accesibles de alguna forma para la lógica de control 106. Más aún, otros datos 124
imagen5
tales como datos de preferencia de usuario, datos de historial de usuario y así sucesivamente pueden ser conocidos; el bloque 124 también representa cualquier otro tipo de dato que pueda ser deseable tener y/o mostrar, por ejemplo, datos de mensajería instantánea. El dispositivo 102 también puede incorporar capacidades de teléfono celular y/o de datos.
5 La FIG. 2 representa otra realización ejemplo, en la que muchos de los componentes de la FIG. 1 se incorporan en un dispositivo remoto 205 que está acoplado a un dispositivo usable 203. En general, en el ejemplo de la FIG. 2, el dispositivo usable 203 es básicamente un cliente ligero que recibe (al menos alguna) entrada manual 116 en un componente de detección de interacción 114, (que se puede implementar en una parte separada de un dispositivo de dos piezas como en la FIG 4, por ejemplo). No obstante, en lugar de procesar la entrada detectada, el dispositivo
10 203 transmite los datos de entrada correspondientes a través de un componente de entrada/salida (I/O) 211 y el componente de comunicación de red 112 al dispositivo remoto 205. El dispositivo remoto 205 procesa los datos de entrada, determina qué sacar y devuelve los datos correspondientes a esa salida (que pueden ser pantalla completa y/o datos delta, en cualquier formato adecuado) al dispositivo 203 para la representación. Alguna información se puede almacenar en caché localmente en la parte de visualización del dispositivo 203 en lugar de siempre difundir
15 en forma continua datos en tiempo real desde el dispositivo remoto complementario 205.
Señalar que el dispositivo remoto 205 también puede detectar alguna entrada adicional 117 a través de uno o más sensores detectados mediante detección de sensor 250B (como se describe a continuación con respecto a la FIG. 3B). Por ejemplo, en lugar del dispositivo 203 que tiene un receptor GPS, el dispositivo complementario 205 puede tener un receptor GPS que proporcione datos generales de localización.
20 Como se puede apreciar fácilmente, las FIG. 1 y 2 son solamente ejemplos, y son factibles otros modelos. Por ejemplo, se puede proporcionar un modelo híbrido en el que el dispositivo usable hace la mayor parte del procesamiento de datos, pero no tiene una conexión a Internet, o no a veces, tal como debido a que no tiene una conexión celular a Internet. En tal modelo, (la mayor parte de) los datos a ser procesados para la salida se descargan por el dispositivo remoto (por ejemplo, un teléfono inteligente) y cargan al dispositivo usable según sea
25 necesario, por ejemplo, bajo demanda en base a la entrada detectada con el dispositivo usable, o por anticipado a la necesidad. Por otra parte, el dispositivo interactivo usable se puede implementar a través de una aplicación de “distintivo” o similar que se ejecuta en un teléfono inteligente acoplado a un conjunto de sensores de posicionamiento; la aplicación introduce los datos de posición detectados como (al menos algunos) datos interactivos y usa los datos interactivos para determinar la salida. De este modo, un teléfono inteligente con una
30 aplicación adecuada puede actuar como un distintivo interactivo, con la interacción detectada a través de un conjunto de sensores de posicionamiento.
Las FIG. 3A y 3B representan formas ejemplo en las que se pueden recibir el posicionamiento del usuario y otros datos de entrada. La FIG. 3A puede corresponder a un dispositivo usable tal como el representado en la FIG. 4, en el que el dispositivo usable comprende un componente distintivo/de visualización 442 acoplado a un componente de
35 clip de cinturón 444 que está configurado para ser sujetado al cinturón del portador. Un mecanismo de cuerda y sensor llevado en el cinturón tal contiene un procesador con un convertidor digital a analógico, un módulo Bluetooth® y una batería. En lugar de un componente de clip de cinturón, un componente de cordón puede proporcionar un mecanismo de fijación similar para un componente de distintivo usable.
En una realización ejemplo, un mecanismo de cuerda retráctil permite al portador mover el dispositivo con respecto
40 al componente de clip de cinturón 444, con el movimiento detectado como datos de interacción a través de un conjunto de sensores 446. De este modo, en lugar de mostrar una imagen estática (por ejemplo, la foto del portador), esta versión interactiva del distintivo de ID se puede actualizar dinámicamente en base a la interacción del portador con el dispositivo, (y posiblemente dependiendo del contexto del portador, como se describe a continuación). Señalar que la cuerda puede comprender cableado conductor o similar que transporta señales y/o
45 potencia. Señalar además que el mecanismo de retracción de la cuerda puede residir en la parte de visualización del componente.
En el ejemplo de las FIG. 3A y 4, un conjunto de sensores 446 asociado con el mecanismo de cuerda retráctil (que se usa para unir el distintivo al cinturón del portador) puede detectar la distancia desde el componente distintivo 442 al componente de clip de cinturón 444, y también el ángulo relativo entre el componente de distintivo 442 y el
50 componente de clip de cinturón 444. Esto proporciona seguimiento de coordenadas en tiempo real (por ejemplo, θ,  y Z, o X, Y y Z) de la parte de visualización. A partir de estos datos de posicionamiento, se puede determinar la posición (distancia y ángulo en este ejemplo) del componente de distintivo 442 con respecto al portador.
En una realización ejemplo, la interacción con el distintivo 442 en la dirección Z se puede detectar usando un potenciómetro 330 como se muestra en la FIG. 3A (por ejemplo, un potenciómetro de rotación continua), que detecta 55 a través de rotaciones de bobina hasta qué punto se extiende la cuerda retráctil enrollada. Por ejemplo, extraer toda la longitud de una cuerda (por ejemplo, sesenta cm) provoca ocho rotaciones completas, dando una resolución detectada de aproximadamente 0,3 mm. En la práctica, una resolución de 1,0 mm en la detección de distancia se logra razonablemente incluso sin compensar la no linealidad que existe a partir del diámetro de la cuerda enrollada que disminuye a medida que se extrae, el ruido del sensor y/o las variaciones que resultan en el camino en el que la
60 cuerda se retrae realmente.
imagen6
La detección angular se puede lograr pasando la cuerda a través del centro de una pequeña palanca de mando analógica 332 (FIG. 3A) y detectando las posiciones de la leva como voltajes. Se puede usar un proceso analógico a digital de ocho bits (por ejemplo, el procesador de clip puede contener o estar acoplado a un convertidor analógico a digital) para muestrear las dos posiciones de la leva, proporcionando una resolución de aproximadamente un grado
5 a través de un total de cincuenta grados, por ejemplo.
El botón y/o la detección táctil (bloque 334 en la FIG. 3A) también pueden proporcionar una entrada; la FIG. 4 muestra los botones B1-B15, no obstante, se entiende que cualquier número práctico puede estar presente en una implementación dada como se desee. De hecho, para facilitar la operación con una sola mano, un conjunto de sensores de “apretar” (presión) o similar puede ser más deseable que un botón o múltiples botones. Además, si se
10 usan múltiples botones, algunos o todos los botones pueden tener el mismo significado; por ejemplo, pueden existir solamente dos estados, presionado o no presionado, por lo cual presionar cualquier botón o combinación de botones causa el estado presionado, similar a un estado apretado o no apretado. De esta manera, los bloques 334 y 345 representan cualquier otro tipo de entrada manual que se pueda detectar, incluyendo la proximidad táctil en cualquier parte del dispositivo, incluyendo la pantalla, habla, pulsación de botón, apriete, etc.
15 La FIG. 3B muestra otros sensores 340-345 que se pueden incorporar en un dispositivo usable para detectar alternativamente la interacción y/o interacción extendida adicionalmente (por ejemplo, además de o en lugar de uno
o más de los sensores de la FIG. 3A). Señalar que uno o más de los sensores de la FIG. 3B puede estar en el dispositivo usable, mostrado a través del componente de detección de sensor 150 en la FIG. 1 y 250A, en la FIG. 2, no obstante, uno o más también pueden estar presentes en un dispositivo complementario como un teléfono
20 inteligente. De esta manera, el componente de detección de sensor 350 ejemplificado en la FIG. 3B puede estar en el dispositivo usable, parcialmente en un dispositivo complementario (como en la FIG. 2, donde el componente 250B también detecta alguna entrada) y/o adecuadamente dividido entre ambos.
La FIG. 3B muestra un magnetómetro 340, acelerómetro 341, giroscopio 342, sensor de proximidad 343 y uno o más de otros sensores 344 (tal como un altímetro, un inclinómetro, un potenciómetro, una palanca de mando y/o una 25 almohadilla de control direccional (almohadilla D) y similares). El botón y/o la detección táctil también se muestran a través del bloque 345. No todos estos sensores pueden estar presentes en una realización dada, pero sí están presentes, se pueden usar para determinar la posición relativa de un dispositivo usable. Por ejemplo, la distancia, la dirección, la inclinación y la orientación se pueden detectar mediante una combinación de datos del magnetómetro 340, el acelerómetro 341 y el giroscopio 342; se puede detectar una distancia relativa a un campo electromagnético
30 generado localmente para el seguimiento relativo, por ejemplo. En una realización de cuerda como se muestra en la FIG. 4, la orientación relativa a la cuerda (no solamente las coordenadas relativas al clip) se puede detectar y usar como datos de interacción. El contexto, tal como si una persona está conduciendo, andando o está parada se puede deducir a partir de tales datos de sensor, posiblemente en combinación con uno o más de otros sensores, tales como un sensor GPS.
35 La detección de distancia se puede lograr de otras formas, por ejemplo, una cuerda que alterna entre longitudes negras y blancas (u otros colores) puede desencadenar un sensor que cuenta los cambios de color. Esto puede ser más granular que la distancia proporcionada por un potenciómetro, no obstante, para ciertas aplicaciones esto puede ser suficiente. Por ejemplo, consideremos un distintivo interactivo que tiene solamente tres posiciones de distancia distinguibles, cerca (por ejemplo, retraído), distancia media y distancia alejada (totalmente o casi
40 completamente extendido). Combinados con la detección angular, estos tres ajustes de distancia pueden ser suficientes para proporcionar una cantidad útil de datos de un vistazo. Además, con (o incluso sin) datos angulares, puede ser significativa la cantidad de datos proporcionados con diferenciaciones granulares de distancia. Por ejemplo, un usuario puede sacudir el dispositivo a la misma distancia aproximada, con la sacudida detectada para alternar entre el contenido de aplicación mostrado, tal como datos de calendario, datos de correo electrónico, datos
45 de tráfico, etc., con desplazamiento, toma de vista panorámica, zum, etc. disponibles según sea apropiado para la aplicación seleccionada actualmente si está presente una detección angular.
La detección angular también se puede basar en la palanca de mando y/u otros sensores. Esto puede incluir el ángulo del distintivo con respecto al entorno/gravedad (por ejemplo, detectado con un acelerómetro) y/o el ángulo del dispositivo con respecto a una parte usada, como se describió anteriormente.
50 El contenido mostrado, de esta manera, puede cambiar en base al posicionamiento interactivo del dispositivo para el portador, más que por ejemplo a través de desbloqueo interactivo, seguido por la selección de una aplicación desde una página de inicio o similar, y posiblemente una interacción adicional. Por ejemplo, con el dispositivo interactivo usable, en un escenario de vista rápida, un usuario puede inclinar el dispositivo sin alejarlo mucho de sí mismo, por lo que el contenido para esa posición se representa para proporcionar información que se puede ver de un vistazo
55 rápido (por ejemplo, datos de calendario durante las horas de trabajo, información de tráfico justo antes o después de las horas de trabajo). No obstante, si el usuario separa el dispositivo de sí mismo, se puede mostrar un contenido diferente, tal como un mapa interactivo. El uso de los diversos sensores facilita una transición automática entre los modos de visualización pasiva (que se puede ver de un vistazo) y de visualización activa, por ejemplo, en base a la posición de visualización con respecto al portador.
imagen7
Además, la información que se ve por otros puede diferir de la que se muestra para el consumo personal; usando diversas tecnologías de visualización conocidas, por ejemplo, el portador que ve el dispositivo en un ángulo, por ejemplo, un ángulo oblicuo cuando se retrae al cinturón, puede ver contenido personal, mientras que otros ven el dispositivo en un ángulo más directo en su lugar ven contenido para consumo público, como la salida del distintivo
5 de identidad.
Para una aplicación dada, un usuario puede mover un dispositivo a la derecha, a la izquierda, arriba o abajo para desplazarse como si el dispositivo fuera un puerto de visualización para una pieza más grande de contenido/imagen, por ejemplo, un lienzo virtual. Un usuario puede acercar y alejar, por ejemplo, moviendo el dispositivo en la dirección
Z. Con los sensores apropiados, también se puede usar la entrada de gestos (gestos en la pantalla o de
10 movimiento). Por ejemplo, se puede detectar un movimiento de sacudida y/o movimiento horizontal atrás y delante y/o gesto vertical arriba y abajo con el dispositivo (por ejemplo, que sea demasiado rápido para ser práctico para desplazarse, tomar una vista panorámica o hacer zum) para cambiar el contenido o la aplicación en lugar de desplazarse, tomar una vista panorámica o hacer zum.
De hecho, los ejemplos de la FIG. 3A y/o la FIG. 3B muestran un mecanismo que soporta varias formas de
15 interacción, incluyendo la capacidad de tomar una vista panorámica del visualizador alrededor de una imagen virtual más grande y/o navegar entre diferentes tipos de información digital. Por ejemplo, en otro escenario representado en general en las FIG. 5A y 5B, extender el dispositivo usable 442 a diferentes ángulos facilita la interacción con un mapa interactivo.
En esta aplicación, cuando el distintivo se aleja apropiadamente del cinturón, el sistema activa una aplicación de
20 visualización del plano de planta del edificio que proporciona un mapa virtual de toda la planta de un edificio dispuesta enfrente del usuario a aproximadamente la altura de la cintura. El usuario ve parte del mapa en el visualizador y puede revelar cualquier parte del mapa moviendo el visualizador a la parte asociada del espacio virtual y presionando un botón en el bisel del visualizador. Si se mantiene pulsado el botón, es posible tomar una vista panorámica del visualizador y la vista asociada, y también es posible mover el visualizador arriba y abajo para
25 moverse a una planta diferente en el edificio. Si necesita ser consultada parte del mapa durante más tiempo, se puede usar la liberación del botón para congelar la visualización. Cuando el portador quiere terminar la interacción, liberar el visualizador permite al dispositivo retraerse de vuelta al clip de cinturón, después de lo cual se muestra una imagen de distintivo de identidad una vez más y el distintivo vuelve a un modo de muy baja potencia.
Señalar que la ganancia se puede fijar para hacer el uso más sencillo y puede depender del nivel del zum. Por
30 ejemplo, un movimiento de 1,0 cm del visualizador que provoca el desplazamiento de la imagen 1,0 cm a la izquierda, puede ser útil algunas veces, pero no es ideal en todas las situaciones. Por ejemplo, cuando un usuario está sentado en un escritorio o mesa, el usuario puede querer una ganancia alta para navegar un lienzo virtual relativamente grande sin mover el visualizador grandes distancias. El aumento natural en la resolución de la posición lateral detectada también se puede aprovechar, por ejemplo, cuando el visualizador está más cerca del clip del
35 cinturón, se pueden proporcionar movimientos de interacción más finos de manera que el dispositivo siga siendo fácil de usar cuando el usuario está sentado o en una situación en la que no sean apropiados grandes movimientos.
Además, se pueden proporcionar una serie de técnicas de interacción adicionales, tales como un modelo tradicional de “embrague” usando uno de los botones del bisel. El embrague ocurre cuando el dispositivo está completamente extendido y, de esta manera, no se puede alejar lo suficiente en una dirección tal como más a la izquierda para ver o 40 desplazarse a una parte deseada de una imagen u otro contenido. Manteniendo pulsado un botón, por ejemplo, o apretando, el usuario puede mover el dispositivo de vuelta hacia el centro (hacia la derecha en este ejemplo) sin tomar una vista panorámica o desplazarse; cuando el usuario libera el estado de no toma de vista panorámica, por ejemplo, deja subir el botón o deja de apretar, vuelve la funcionalidad de toma de vista panorámica. El zum, del mismo modo, puede ser congelado temporalmente y puede ser controlable de tal manera. Señalar que se pueden
45 usar otras técnicas en lugar de la interacción de botón o similares; por ejemplo, se puede detectar un gesto de movimiento de parpadeo que impacta en el estado de toma de vista panorámica (o de zum), el usuario puede girar el dispositivo aproximadamente noventa (o ciento y ochenta) grados para entrar en un estado de no toma de vista panorámica y/o sin zum hasta que se vuelve a restaurar, y así sucesivamente. Por ejemplo, un parpadeo derecho puede tomar una vista panorámica más que un movimiento suave a la derecha.
50 Los botones del bisel también se pueden usar como atajos de teclas de acceso rápido que reinician el lienzo virtual a una posición particular (por ejemplo, dependiendo de la tecla de acceso rápido presionada). Cualesquiera de los botones anteriores y otras técnicas se pueden personalizar por el usuario.
Como se puede apreciar fácilmente, otras aplicaciones pueden proporcionar otra salida útil. Por ejemplo, añadiendo una cámara, el dispositivo se puede usar como un visualizador de realidad virtual, por ejemplo, para mostrar texto
55 superpuesto que describe lo que está en la vista de la cámara. Un visualizador de información virtual puede proporcionar acceso a datos de calendario, acceso a contactos, correo electrónico, navegador de notas, mapas, etc., incluyendo a través de información contextual extraída automáticamente tal como la siguiente cita, condiciones de tráfico, nombres de personas, la hora del siguiente autobús, etc.
5
10
15
20
25
30
35
40
45
50
55
60
De esta manera, descritas en la presente memoria están algunas de las muchas posibles técnicas de interacción disponibles a través del posicionamiento del dispositivo y otra interacción, incluyendo tomar una vista panorámica alrededor de una pieza mayor de contenido, con capacidades de embrague si es necesario; zum y orientación de la imagen levantando arriba y abajo y/o extensión/retracción, etc. El zum puede ser semántico, por ejemplo, interacción clásica de “zum” en la que la imagen se aumenta a medida que el visualizador se mueve hacia el ojo se puede aumentar añadiendo más detalles a la imagen en ciertos umbrales de aumento. Otros tipos de información de salida se pueden superponer, tal como en las FIG. 5A y 5B.
Como se puede ver en las FIG. 5A y 5B, el dispositivo no impone requisitos de infraestructura de sistema de localización y, en su lugar, crea naturalmente un espacio de interacción que está ‘fijado’ al portador; a medida que el portador se mueve alrededor del espacio de interacción sigue al portador. Siempre que el clip de cinturón se use en una posición consistente, el usuario puede desarrollar un modelo espacial claro de zonas y capas de interacción, así como otro contenido. Por ejemplo, un usuario puede aprender a extender el dispositivo a la altura de la cintura para mostrar citas de calendario, a la altura del pecho para mostrar correos electrónicos o adyacente a la cadera (con poca extensión) para una actualización de tráfico. El dispositivo interactivo también proporciona funcionalidad adicional. Por ejemplo, consideremos ajustes sociales, en los cuales parte de o todo el visualizador implementa un esquema de color que puede distribuir información a otros, tal como ayudar a reunirse con otros con intereses similares, mostrar gustos y aversiones, etc. El dispositivo también se puede usar para difundir información al portador, por ejemplo, cuando asiste a una reunión grande, un empleado de finanzas ve un visualizador rojo y sabe que se sienta en la sección roja, dado que está reservada para el grupo de finanzas; otros grupos tienen otros colores y ubicaciones de asientos.
Volviendo a los aspectos de seguridad, un distintivo de ID convencional típico proporciona una imagen/foto de la persona que lo usa, y muchas veces el distintivo es legible para permitir el acceso a ubicaciones específicas, tales como edificios y/o salas. El distintivo interactivo puede tener del mismo modo tales características, incluyendo, si se desea, una imagen/foto de ID habitual en la parte posterior o frontal (o viceversa) de manera que el distintivo interactivo funciona aún como distintivo convencional sin alimentación o si algo falla, por ejemplo, la pantalla se agrieta, el visualizador se congela en una imagen no de seguridad, y así sucesivamente. No obstante, debido a la naturaleza interactiva del distintivo/dispositivo interactivo, se pueden proporcionar características de seguridad adicionales.
Por ejemplo, en base al contexto, se puede usar un distintivo como una clave para una sala que de otro modo deniega el acceso del titular del distintivo. La clave (credenciales de entrada) puede comprender una señal digital, un código de barras, un código QR y similares detectados por una cerradura en la puerta. En el visualizador se puede proporcionar un teclado virtual o similar, con el código (que puede ser un código temporal) que necesita ser introducido para activar las credenciales de entrada. El contexto puede incluir la fecha y la hora del día, los asistentes esperados a un evento, un permiso de visitante de una sola vez concedido por un supervisor, etc. Señalar que, si se usa un dispositivo complementario, puede necesitar estar presente tanto el dispositivo principal, así como el dispositivo complementario, para hacer el acceso incluso más desafiante para un usuario inadecuado en caso de robo, independientemente de si se usa utilice también un código introducido.
El distintivo también se puede usar para desbloquear los dispositivos de un usuario. Por ejemplo, en lugar de tener que iniciar sesión/desbloquear un ordenador de oficina, tableta, teléfono inteligente y cualquier otra cosa que necesite credenciales tal como archivos protegidos, la presencia del distintivo interactivo se puede detectar y usar para este propósito. A diferencia de un chip de tarjeta inteligente, la comunicación puede ser automática y regular, por ejemplo, de modo que los dispositivos se bloqueen/cierren sesión automáticamente cuando el distintivo interactivo no está en comunicación. Las contraseñas o similares se pueden intercambiar entre los dispositivos de modo que no necesitan ser hechos cambios en cada dispositivo. La interacción con el distintivo, que se puede basar en el posicionamiento manual como se describe en la presente memoria, puede desencadenar las acciones de desbloqueo/bloqueo.
Además, debido a que el dispositivo está destinado a proporcionar información rápida, que se puede ver de un vistazo, puede ser generalmente indeseable bloquear el distintivo/dispositivo interactivo, al menos para la mayoría de las aplicaciones (puede haber excepciones predeterminadas tales como datos altamente secretos que siempre necesitan credenciales adicionales para acceder). Una forma de proporcionar tal comodidad mientras se mantiene la seguridad es hacer que el dispositivo permanezca desbloqueado mientras el dispositivo está enganchado al cinturón del usuario. Por ejemplo, el usuario puede necesitar desbloquear el dispositivo al comienzo del día cuando une por primera vez el clip, pero a partir de entonces no necesita desbloquear el dispositivo para su uso mientras que el dispositivo permanezca sujetado (o al menos durante algún número de horas), y de esta manera tener acceso cómodo a la información deseada. Un sensor de estado “sujetado” 448 (FIG. 4) puede proporcionar la información de estado al dispositivo 442, tal como a través de latidos cardiacos regulares que aseguran que es detectable cualquier estado no sujetado. Un cordón puede tener del mismo modo un acoplamiento magnético o similar que detecte si el distintivo está aún acoplado al mismo.
Los sensores biométricos, así como otros sensores y datos también se pueden usar en conjunto con el dispositivo interactivo para propósitos de seguridad (y otros). Estos se pueden usar para detectar situaciones atípicas y “levantar banderas” (y probablemente volver a bloquear el dispositivo) si se desencadena una excepción, tal como cuando el dispositivo permanece sujetado al cinturón, pero el usuario ha cambiado de ropa, dejando el dispositivo en un estado desbloqueado. Por ejemplo, se puede detectar la manera de andar de una persona (u otros hábitos de movimiento) y, de esta manera, se puede aprender, por lo cual la detección de una manera de andar diferente puede indicar que otra persona está andando con el dispositivo. El historial de los datos de ubicación frente a la ubicación
imagen8
5 actual se puede comparar, por ejemplo, si el dispositivo se mueve a una ubicación desconocida, el dispositivo puede bloquearse automáticamente y necesitar un procedimiento de desbloqueo manual o biométrico (por ejemplo, huella digital o exploración de retina/iris).
Otras características de los distintivos convencionales se pueden mejorar por la naturaleza interactiva del dispositivo interactivo. Por ejemplo, muchas empresas permiten a un usuario comprar comida en la cafetería de la empresa a
10 través de un distintivo de identidad. El distintivo interactivo se puede usar para hacer lo mismo, pero también para mostrar al usuario el saldo restante si paga por adelantado o debe el saldo actual. De hecho, el dispositivo interactivo se puede usar como una tarjeta de crédito o tarjeta de débito, que permite ver saldos y permite que sean hechos pagos/depósitos/retiradas, etc.
Volviendo a los aspectos relacionados con la potencia, el dispositivo se puede alimentar interna y/o externamente
15 por una batería y/o condensador. El clip de cinturón o cordón también puede contener una fuente de alimentación 450 tal como una batería u otra fuente de energía; aunque se muestra en el componente de clip de cinturón 444, se entiende que solamente una de las dos partes puede necesitar una fuente de alimentación, por ejemplo, la otra se puede alimentar o cargar a través de la cuerda (por ejemplo, con un cable de dos conductores dentro del mismo). La carga puede ser directa o inductiva, y, de hecho, tirar y/o retraer la cuerda puede generar por sí mismo energía que
20 carga la fuente o fuentes de energía. La transferencia de datos (por ejemplo, sincronización) puede ocurrir en cualquier momento, incluyendo cuando se extiende la cuerda. La transferencia de datos puede ser selectiva, por ejemplo, transferir datos de correo electrónico y de tráfico debido a que la cuerda se extiende de manera que uno de los dos (o ambos) sean necesarios a esa distancia de extensión. Para las implementaciones no de cuerda, puede darse una carga basada en contacto cuando se acopla al cinturón o cordón de alguna otra manera, por ejemplo,
25 magnéticamente o inductivamente cuando está suficientemente cerca de un mecanismo de carga.
La FIG. 6 resume algunos de los diversos aspectos descritos en la presente memoria en forma de un diagrama de flujo ejemplo. El paso 602, que por ejemplo puede comenzar en cualquier momento en que el usuario tenga alguna interacción real, detectable con el dispositivo, representa la determinación del contexto actual a partir de diversos datos de entrada, tales como datos de estado y similares. El paso 604 representa la detección y obtención de datos
30 de posición, junto con cualquier otro dato de entrada. Inicialmente, esto puede incluir algún retardo durante el movimiento/posicionamiento manual para permitir al usuario mover el dispositivo a la posición deseada y mantenerlo allí.
El paso 606 representa la determinación de lo que sacar en base a los datos de posición, cualquier otro dato de entrada y el contexto actual. Como se describió anteriormente, la salida puede ser visible, audible y/o táctil, y, por
35 ejemplo, el contexto puede determinar si la salida es visible, audible y/o táctil, así como el contenido que se saca. El paso 608 representa la reproducción de la salida.
El proceso se repite hasta terminar, permitiendo una interacción adicional a través de cambios de posición, cambios de contexto y cualquier otro cambio de entrada, por ejemplo, presiones de botón, gestos, etc. El paso 610 representa la determinación de cuándo el usuario ha terminado, por ejemplo, el usuario libera el dispositivo y retrae
40 a la cuerda o cordón, o la posición se detecta de otro modo, de manera que se sabe que el dispositivo está en su ubicación de salida por defecto “fija” con respecto al usuario. Cuando termine, el paso 612 reproduce la salida de posición fija, por ejemplo, mostrando un distintivo de identificación (aunque como se describió anteriormente, la posición de salida fija por defecto puede depender del ángulo de visión).
Como se puede ver, se describe un tipo de dispositivo informático usable. Si el dispositivo se usa como un
45 dispositivo de identidad interactivo, el dispositivo sustituye a un mecanismo familiar con un dispositivo electrónico interactivo, por el cual la carga de uso del dispositivo es muy baja. La interacción se puede basar en la colocación del dispositivo usable, por ejemplo, detectando el movimiento de una cuerda retráctil que une un distintivo de identidad interactivo al cinturón o cordón del usuario. Este factor de forma hace posible interactuar usando una sola mano, proporcionando un peso ligero y acceso inmediato a una variedad de información, incluyendo cuando no es
50 conveniente recoger, desbloquear e interactuar directamente con otro dispositivo informático tal como un teléfono inteligente. Estando fácilmente a mano y disponible, el dispositivo puede proporcionar una forma más rápida y más fácil de acceder a la información que los dispositivos móviles establecidos y puede cumplir otro papel, por ejemplo, como un distintivo de identidad.
El dispositivo soporta consumo de información que se puede ver de un vistazo con una operación de una sola mano.
55 Por ejemplo, el portador puede manipular rápidamente el visualizador en el espacio 3D para navegar por la información intuitivamente, incluso cuando solamente son deseables un par de segundos de interacción. Los escenarios incluyen acceso a correo electrónico, redes sociales, citas del calendario y servicios en línea tales como búsqueda, mapas, previsión meteorológica y actualizaciones de tráfico. Además, este planteamiento puede proporcionar una alternativa a las notificaciones activas en algunos escenarios mostrando información de una
60 manera más pasiva, que se puede ver de un vistazo.
5
10
15
20
25
30
35
40
45
50
55
En una implementación de cuerda retráctil, simplemente “dejándolo ir” el dispositivo termina la interacción. A diferencia de la interacción basada en tacto, el mecanismo de cuerda retráctil evita la oclusión del visualizador sin restringir indebidamente el rango de entrada.
Ejemplo de entorno de operación
Como se mencionó, ventajosamente, las técnicas descritas en la presente memoria se pueden aplicar a cualquier dispositivo. Se puede entender, por lo tanto, que se contemplan dispositivos de mano, portátiles y otros dispositivos informáticos y objetos informáticos de todo tipo, incluyendo configuraciones de múltiples componentes (que incluyen un componente de visualización, por ejemplo) para uso en conexión con las diversas realizaciones. Por consiguiente, el ordenador remoto de propósito general a continuación descrito a continuación en la FIG. 7 es sin embargo un ejemplo de un dispositivo informático.
Las realizaciones se pueden implementar parcialmente a través de un sistema operativo, para su uso por un desarrollador de servicios para un dispositivo u objeto, y/o incluir dentro del software de aplicación que opera para realizar uno o más aspectos funcionales de las diversas realizaciones descritas en la presente memoria. El software se puede describir en el contexto general de las instrucciones ejecutables por ordenador, tales como módulos de programa, que se ejecutan por uno o más ordenadores, tales como estaciones de trabajo cliente, servidores u otros dispositivos. Los expertos en la técnica apreciarán que los sistemas informáticos tienen una variedad de configuraciones y protocolos que se pueden usar para comunicar datos y, de esta manera, ninguna configuración o protocolo particular se considera limitante.
La FIG. 7 ilustra, de esta manera, un ejemplo de un entorno de sistema informático 700 adecuado en el que se pueden implementar uno o más aspectos de las realizaciones descritas en la presente memoria, aunque como se aclaró anteriormente, el entorno de sistema informático 700 es solamente un ejemplo de un entorno informático adecuado y no se pretende que sugiera ninguna limitación en cuanto al alcance de uso o funcionalidad. Además, el entorno de sistema informático 700 no está destinado a ser interpretado como que tiene ninguna dependencia relacionada con uno o una combinación de los componentes ilustrados en el entorno de sistema informático ejemplo
700.
Con referencia a la FIG. 7, un ejemplo de dispositivo remoto para implementar una o más realizaciones incluye un dispositivo informático de propósito general en forma de un ordenador 710. Los componentes del ordenador 710 pueden incluir, pero no se limitan a, una unidad de procesamiento 720, una memoria de sistema 730 y un bus de sistema 722 que acopla varios componentes del sistema incluyendo la memoria del sistema a la unidad de procesamiento 720.
El ordenador 710 incluye típicamente una variedad de medios legibles por ordenador y puede ser cualquier medio disponible al que se pueda acceder por el ordenador 710. La memoria de sistema 730 puede incluir medios de almacenamiento informáticos en forma de memoria volátil y/o no volátil tales como memoria de sólo lectura (ROM) y/o memoria de acceso aleatorio (RAM). A modo de ejemplo, y no de limitación, la memoria de sistema 730 también puede incluir un sistema operativo, programas de aplicaciones, otros módulos de programa y datos de programa.
Un usuario puede introducir comandos e información en el ordenador 710 a través de los dispositivos de entrada
740. Un monitor u otro tipo de dispositivo de visualización también se conecta al bus de sistema 722 a través de una interfaz, tal como una interfaz de salida 750. Además de un monitor, los ordenadores también pueden incluir otros dispositivos periféricos de salida tales como altavoces y una impresora, los cuales se pueden conectar a través de la interfaz de salida 750.
El ordenador 710 puede operar en un entorno en red o distribuido usando conexiones lógicas a uno o más de otros ordenadores remotos, tales como un ordenador remoto 770. El ordenador remoto 770 puede ser un ordenador personal, un servidor, un encaminador, un PC de red, un dispositivo igual o cualquier otro nodo de red común, o cualquier otro dispositivo de consumo o transmisión de medios remoto, y puede incluir cualquiera de o todos los elementos descritos anteriormente con respecto al ordenador 710. Las conexiones lógicas representadas en la Fig. 7 incluyen una red 772, tal como una red de área local (LAN) o una red de área extensa (WAN), pero también pueden incluir otras redes/buses. Tales entornos de red son comunes en hogares, oficinas, redes informáticas en toda la empresa, intranets e Internet.
Como se mencionó anteriormente, aunque se han descrito realizaciones ejemplo en conexión con diversos dispositivos informáticos y arquitecturas de red, los conceptos subyacentes se pueden aplicar a cualquier sistema de red y cualquier dispositivo o sistema informático en el que se desee mejorar la eficacia del uso de recursos.
También, hay múltiples formas de implementar la misma o similar funcionalidad, por ejemplo, una API apropiada, un kit de herramientas, un código de controlador, un sistema operativo, un control, un objeto software autónomo o descargable, etc., que permiten a las aplicaciones y los servicios aprovecharse de las técnicas proporcionadas en la presente memoria. De esta manera, las realizaciones en la presente memoria se contemplan desde el punto de vista de una API (u otro objeto de software), así como desde un objeto de software o hardware que implementa una o más realizaciones como se describe en la presente memoria. De esta manera, diversas realizaciones descritas en la
5
10
15
20
25
30
35
40
45
presente memoria pueden tener aspectos que están enteramente en hardware, parcialmente en hardware y parcialmente en software, así como en software.
La palabra “ejemplo” se usa en la presente memoria para querer decir servir como ejemplo, caso o ilustración. Para evitar dudas, la materia objeto descrita en la presente memoria no está limitada por tales ejemplos. Además, cualquier aspecto o diseño descrito en la presente memoria como “ejemplo” no tiene necesariamente que ser interpretado como preferido o ventajoso sobre otros aspectos o diseños, ni tampoco significa que excluya estructuras ejemplo equivalentes y técnicas conocidas por los expertos en la técnica. Además, en la medida en que se usan los términos “incluye”, “tiene”, “contiene” y otras palabras similares, para evitar dudas, dichos términos se pretenden que sean inclusivos de una manera similar al término “que comprende” como una palabra de transición abierta sin excluir cualquier elemento adicional u otros elementos cuando se emplea en una reivindicación.
Como se mencionó, las diversas técnicas descritas en la presente memoria se pueden implementar en conexión con hardware o software o, cuando sea apropiado, con una combinación de ambos. Como se usa en la presente memoria, los términos “componente”, “módulo”, “sistema” y similares se pretende del mismo modo que se refieran a una entidad relacionada con el ordenador, o bien hardware, una combinación de hardware y software, software o bien software en ejecución. Por ejemplo, un componente puede ser, pero no se limita a ser, un proceso que se ejecuta en un procesador, un procesador, un objeto, un ejecutable, un hilo de ejecución, un programa y/o un ordenador. A modo de ilustración, tanto una aplicación que se ejecuta en el ordenador como el ordenador pueden ser un componente. Uno o más componentes pueden residir dentro de un proceso y/o hilo de ejecución y un componente se puede localizar en un ordenador y/o distribuir entre dos o más ordenadores.
Los sistemas antes mencionados se han descrito con respecto a la interacción entre varios componentes. Se puede apreciar que tales sistemas y componentes pueden incluir aquellos componentes o subcomponentes especificados, algunos de los componentes o subcomponentes especificados, y/o componentes adicionales, y según diversas permutaciones y combinaciones de los precedentes. Los subcomponentes también se pueden implementar como componentes acoplados comunicativamente a otros componentes en lugar de incluirse dentro de componentes primarios (jerárquicos). Además, se puede señalar que uno o más componentes se pueden combinar en un único componente proporcionando funcionalidad agregada o dividir en varios subcomponentes separados, y que se pueden proporcionar una o más capas intermedias, tales como una capa de gestión, para acoplar comunicativamente a tales subcomponentes a fin de proporcionar una funcionalidad integrada. Cualquier componente descrito en la presente memoria también puede interactuar con uno o más de otros componentes no descritos específicamente en la presente memoria, pero conocidos de manera general por los expertos en la técnica.
En vista de los sistemas ejemplo descritos en la presente memoria, también se pueden apreciar metodologías que se pueden implementar según la materia objeto descrita, con referencia a los diagramas de flujo de las diversas figuras. Aunque con propósitos de simplicidad de explicación, las metodologías se muestran y describen como una serie de bloques, se tiene que entender y apreciar que las diversas realizaciones no están limitadas por el orden de los bloques, en la medida que algunos bloques pueden ocurrir en diferentes órdenes y/o concurrentemente con otros bloques de lo que se representa y describe en la presente memoria. Cuando un flujo no secuencial, o ramificado, se ilustra a través de un diagrama de flujo, se puede apreciar que se pueden implementar otras diversas ramas, caminos de flujo y órdenes de los bloques, los cuales logran el mismo o un resultado similar. Por otra parte, algunos bloques ilustrados son opcionales en la implementación de las metodologías descritas en lo sucesivo.
Conclusión
Aunque la invención es susceptible de diversas modificaciones y construcciones alternativas, ciertas realizaciones ilustradas de la misma se muestran en los dibujos y se han descrito anteriormente en detalle. Se debería entender, no obstante, que no hay intención de limitar la invención a las formas específicas descritas, sino que, por el contrario, la intención es cubrir todas las modificaciones, construcciones alternativas y equivalentes que caen dentro del alcance de la invención.

Claims (8)

  1. imagen1
    REIVINDICACIONES
    1. -Un método realizado al menos en parte en al menos un procesador (110), que comprende, detectar una posición de una primera pieza (442) de un dispositivo interactivo usable de múltiples piezas (102) con respecto a una segunda pieza (444) del dispositivo (102), conectada a la primera pieza (442) por un cuerda y un mecanismo sensor 5 y usado por un portador del dispositivo (102) para proporcionar datos de posición, en el que la manipulación de la primera pieza (442) del dispositivo (102) que hace a la primera pieza (442) del dispositivo (102) moverse a la posición comprende al menos parte de una interacción con el dispositivo (102), y representar la salida a través del dispositivo interactivo usable (102) en base a la interacción con el dispositivo (102), incluyendo determinar, en base al menos en parte a los datos de posición, la salida que se representa a través del dispositivo interactivo usable
    10 (102).
  2. 2.-El método de la reivindicación 1 que además comprende, usar datos de contexto para determinar la salida que se representa a través del dispositivo interactivo usable (102).
  3. 3.-El método de la reivindicación 1 en donde la detección de posición del dispositivo interactivo usable (102) para proporcionar los datos de posición comprende detectar las coordenadas que corresponden a una distancia, un
    15 ángulo vertical y un ángulo horizontal.
  4. 4.-El método de la reivindicación 1 que además comprende, obtener datos que corresponden a al menos parte de la salida a ser representada desde un dispositivo remoto (205), u obtener contenido que corresponde a la salida a ser representada desde una fuente de contenido remota.
  5. 5.-El método de la reivindicación 1 en donde la salida comprende una representación visualizada de una parte de
    20 contenido, y en donde representar la salida del dispositivo interactivo usable (102) en base a la interacción con el dispositivo (102), comprende tomar una vista panorámica, desplazarse o hacer zum, o cualquier combinación de tomar una vista panorámica, desplazarse o hacer zum para mostrar una representación diferente del contenido a medida que se cambian los datos de posición.
  6. 6.-El método de la reivindicación 1 en donde representar la salida a través del dispositivo interactivo usable (102) en
    25 base a la interacción con el dispositivo (102) comprende al menos uno de: representar una imagen de distintivo cuando no hay interacción manual o sustancialmente sin interacción manual con el dispositivo (102), sacar datos de control para controlar un dispositivo remoto (205) o desbloquear un dispositivo remoto (205), o tanto controlar como desbloquear un dispositivo remoto (205), o aumentar una imagen con datos virtuales.
  7. 7.-En un entorno informático, un sistema que comprende, un dispositivo interactivo usable de múltiples piezas (102),
    30 el dispositivo interactivo usable (102) que incluye un mecanismo de salida configurado para representar contenido de salida, en el que el contenido de salida se representa en base al menos en parte a la interacción con el dispositivo interactivo usable (102) que coloca una primera pieza (442) del dispositivo interactivo usable (102) en una posición con respecto a una segunda pieza (444) del dispositivo (102), conectada con la primera pieza (442) por un cuerda y mecanismo sensor y usado por un portador del dispositivo usable interactivo (102).
    35 8.-El sistema de la reivindicación 7 que además comprende un conjunto de sensores (446) que incluyen al menos un sensor que detecta la posición.
    9-. El sistema de la reivindicación 8 en donde la primera pieza (442) del dispositivo interactivo usable (102) comprende una parte de visualización y la segunda pieza (444) comprende una parte de clip de cinturón o una parte de cordón, y en donde al menos parte del conjunto de sensores (446) se incorpora en la parte de clip de cinturón o la
    40 parte de cordón del dispositivo interactivo usable (102).
  8. 10.-Uno o más medios legibles por ordenador que tienen instrucciones ejecutables por ordenador, que cuando se ejecutan realizan pasos, que comprenden:
    obtener datos de contexto;
    detectar datos de posición de una primera pieza (442) de un distintivo interactivo usable de múltiples piezas con
    45 respecto a una segunda pieza (444) del distintivo, conectada a la primera pieza (442) por un cuerda y mecanismo sensor y usada por el portador, incluyendo datos de detección y datos angulares;
    determinar contenido en base a los datos de posición y los datos de contexto; y representar el contenido a través del distintivo interactivo usable (102).
    13
ES14710079.6T 2013-02-15 2014-02-13 Distintivo interactivo Active ES2618231T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/769,070 US9606635B2 (en) 2013-02-15 2013-02-15 Interactive badge
US201313769070 2013-02-15
PCT/US2014/016157 WO2014127079A1 (en) 2013-02-15 2014-02-13 Interactive badge

Publications (1)

Publication Number Publication Date
ES2618231T3 true ES2618231T3 (es) 2017-06-21

Family

ID=50277294

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14710079.6T Active ES2618231T3 (es) 2013-02-15 2014-02-13 Distintivo interactivo

Country Status (6)

Country Link
US (1) US9606635B2 (es)
EP (1) EP2956842B1 (es)
KR (1) KR102213733B1 (es)
CN (1) CN105144029B (es)
ES (1) ES2618231T3 (es)
WO (1) WO2014127079A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410297B2 (en) * 2014-11-03 2019-09-10 PJS of Texas Inc. Devices, systems, and methods of activity-based monitoring and incentivization
US11327711B2 (en) 2014-12-05 2022-05-10 Microsoft Technology Licensing, Llc External visual interactions for speech-based devices
US11163362B2 (en) 2015-06-26 2021-11-02 Microsoft Technology Licensing, Llc Passive haptics as reference for active haptics
US9950897B2 (en) 2016-01-28 2018-04-24 Wipro Limited Apparatus for holding a card
US9990784B2 (en) 2016-02-05 2018-06-05 Hand Held Products, Inc. Dynamic identification badge
US10783546B2 (en) * 2017-05-17 2020-09-22 Blue Storm Media, Inc. Color and symbol coded display on a digital badge for communicating permission to approach and activate further digital content interaction
US20190050608A1 (en) * 2017-08-11 2019-02-14 Abel GONZALEZ Method, apparatus and system for transparent tracking of worker performance
US10338766B2 (en) * 2017-09-06 2019-07-02 Realwear, Incorporated Audible and visual operational modes for a head-mounted display device
CN111459265B (zh) * 2020-03-02 2023-10-13 杭州嘉澜创新科技有限公司 一种交互设备及其操作方法、计算机可读存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6853293B2 (en) * 1993-05-28 2005-02-08 Symbol Technologies, Inc. Wearable communication system
US6814293B2 (en) * 1997-02-10 2004-11-09 Symbol Technologies, Inc. Arrangement for and method of establishing a logical relationship among peripherals in a wireless local area network
US7107539B2 (en) 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6711414B1 (en) 2000-02-25 2004-03-23 Charmed Technology, Inc. Wearable computing device capable of responding intelligently to surroundings
WO2002033541A2 (en) 2000-10-16 2002-04-25 Tangis Corporation Dynamically determining appropriate computer interfaces
US6778066B2 (en) * 2001-06-29 2004-08-17 Hewlett-Packard Development Company, L.P. Personal identification badge that resets on the removal of the badge from the wearer
US7103379B2 (en) * 2003-02-03 2006-09-05 Hewlett-Packard Development Company, L.P. Wearable electronic device
US8639819B2 (en) * 2004-02-05 2014-01-28 Nokia Corporation Ad-hoc connection between electronic devices
US7280096B2 (en) * 2004-03-23 2007-10-09 Fujitsu Limited Motion sensor engagement for a handheld device
US7301526B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Dynamic adaptation of gestures for motion controlled handheld devices
US20060022822A1 (en) * 2004-07-30 2006-02-02 Wong Daniel H Holster for a portable electronic device
US7373608B2 (en) 2004-10-07 2008-05-13 International Business Machines Corporation Apparatus, system and method of providing feedback to an e-meeting presenter
US7499002B2 (en) * 2005-02-08 2009-03-03 International Business Machines Corporation Retractable string interface for stationary and portable devices
US20070136694A1 (en) 2005-12-09 2007-06-14 Microsoft Corporation Color and context-adaptable hardware button
US20070150512A1 (en) 2005-12-15 2007-06-28 Microsoft Corporation Collaborative meeting assistant
KR100786109B1 (ko) 2006-05-01 2007-12-18 김준식 근거리 음파통신을 이용한 휴대단말기 착신 알림 시스템 및방법
JP2009541801A (ja) 2006-06-29 2009-11-26 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガニゼイション 出力を生成するシステムおよび方法
US20080014908A1 (en) 2006-07-17 2008-01-17 Abraham Vasant System and method for coordinating customized mobility services through a network
US20080040187A1 (en) 2006-08-10 2008-02-14 International Business Machines Corporation System to relay meeting activity in electronic calendar applications and schedule enforcement agent for electronic meetings
US8200520B2 (en) 2007-10-03 2012-06-12 International Business Machines Corporation Methods, systems, and apparatuses for automated confirmations of meetings
US20090174633A1 (en) * 2008-01-09 2009-07-09 David Bruce Kumhyr Organic light emitting diode identification badge
US8344998B2 (en) 2008-02-01 2013-01-01 Wimm Labs, Inc. Gesture-based power management of a wearable portable electronic device with display
WO2009137114A2 (en) * 2008-05-09 2009-11-12 Ipowerup, Inc. Portable and universal hybrid-charging apparatus for portable electronic devices
EP2194490A1 (fr) * 2008-11-28 2010-06-09 Gemalto SA Objet portable intelligent comportant des données de personnalisation graphique
US8838461B2 (en) 2008-12-19 2014-09-16 Qualcomm Incorporated Access and management of cross-platform calendars
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
BRPI1015314A2 (pt) 2009-04-26 2016-04-19 Nike International Ltd dispositivo para monitorar o desempenho atlético de um usuário
US9024865B2 (en) 2009-07-23 2015-05-05 Qualcomm Incorporated Method and apparatus for controlling mobile and consumer electronic devices
US20110107236A1 (en) 2009-11-03 2011-05-05 Avaya Inc. Virtual meeting attendee
US20110231493A1 (en) 2010-03-16 2011-09-22 Microsoft Corporation Location-based notification
US20110300804A1 (en) 2010-06-03 2011-12-08 Tung-Lin Lu Structure of incoming call notifying watch
US8812419B1 (en) 2010-06-12 2014-08-19 Google Inc. Feedback system
US8375320B2 (en) 2010-06-22 2013-02-12 Microsoft Corporation Context-based task generation
US8862186B2 (en) * 2010-09-21 2014-10-14 Kopin Corporation Lapel microphone micro-display system incorporating mobile information access system
GB201112458D0 (en) 2010-09-28 2011-08-31 Yota Group Cyprus Ltd device with display screen
US8639719B2 (en) 2011-02-02 2014-01-28 Paul Tepper Fisher System and method for metadata capture, extraction and analysis
US20120260192A1 (en) 2011-04-11 2012-10-11 Detweiler Sean D Automated browser mode based on user and access point
US20120316456A1 (en) * 2011-06-10 2012-12-13 Aliphcom Sensory user interface
US20130050164A1 (en) * 2011-08-23 2013-02-28 Nicholaus R. Rericha Electronic device cases and covers having a reflective display, and methods thereof
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
CN108965498B (zh) * 2011-12-02 2021-07-27 诺基亚技术有限公司 用于在无线设备之间共享通信的方法和装置
US9241248B2 (en) * 2012-02-29 2016-01-19 Qualcomm Incorporated Modified present signal mode for mobile device

Also Published As

Publication number Publication date
WO2014127079A1 (en) 2014-08-21
US9606635B2 (en) 2017-03-28
KR102213733B1 (ko) 2021-02-05
EP2956842A1 (en) 2015-12-23
EP2956842B1 (en) 2016-12-07
CN105144029A (zh) 2015-12-09
KR20150119184A (ko) 2015-10-23
US20140232632A1 (en) 2014-08-21
CN105144029B (zh) 2019-01-08

Similar Documents

Publication Publication Date Title
ES2618231T3 (es) Distintivo interactivo
JP6382312B2 (ja) 異種の表示画面を有する装着型電子装置
KR102350781B1 (ko) 이동 단말기 및 그 제어방법
US10019962B2 (en) Context adaptive user interface for augmented reality display
CN117356116A (zh) 用于定位可穿戴设备和向可穿戴设备递送内容的信标
US11968594B2 (en) User interfaces for tracking and finding items
CN106210252A (zh) 移动终端和具有移动终端的系统
US20160132189A1 (en) Method of controlling the display of images and electronic device adapted to the same
KR102208195B1 (ko) 머리 착용형 디스플레이 장치에서 디스플레이 화면을 제어하는 방법, 및 머리 착용형 디스플레이 장치
KR20150093090A (ko) 복수의 디스플레이들을 제어하는 전자 장치 및 방법
KR20150140043A (ko) 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
KR20160143115A (ko) 사용자 단말 장치 및 이의 제어 방법
KR102245267B1 (ko) 서명 등록 방법, 서명 인증 방법 및 그 장치
KR102522424B1 (ko) 전자 장치에서의 표시를 위한 방법 및 장치
KR20110123141A (ko) 휴대 단말기 및 그 동작 방법
US20220335807A1 (en) User interfaces for location tracking
JP2021192240A (ja) 携帯用通信ターミナル、方向性入力ユニット及びこれと関連した方法
CN107861613A (zh) 显示与内容相关联的导航器的方法和实现其的电子装置
KR102328102B1 (ko) 전자 장치 및 전자 장치의 화면 표시방법
RU118140U1 (ru) Персональный электронный коммуникатор
KR20160026594A (ko) 근접 센서 및 이의 제어 방법
CN117940878A (zh) 通过分布式和连接的真实世界对象建立社交连接
KR20200059018A (ko) 이동 단말기 및 그 제어방법
US20240146350A1 (en) Smart ring
CN117916693A (zh) 用于电子眼镜设备的基于扫描的消息收发