ES2778935T3 - Representación de una notificación en una pantalla montada en la cabeza - Google Patents

Representación de una notificación en una pantalla montada en la cabeza Download PDF

Info

Publication number
ES2778935T3
ES2778935T3 ES15169525T ES15169525T ES2778935T3 ES 2778935 T3 ES2778935 T3 ES 2778935T3 ES 15169525 T ES15169525 T ES 15169525T ES 15169525 T ES15169525 T ES 15169525T ES 2778935 T3 ES2778935 T3 ES 2778935T3
Authority
ES
Spain
Prior art keywords
virtual information
information region
visual notification
head
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15169525T
Other languages
English (en)
Inventor
Jussi Leppänen
Antti Eronen
Arto Lehtiniemi
Lasse Laaksonen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Application granted granted Critical
Publication of ES2778935T3 publication Critical patent/ES2778935T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un método que comprende: determinar (702, 802) la ocurrencia de un evento de región de información virtual, indicando el evento de región de información virtual un cambio de información que está asignado a una región de información virtual (312, 314, 316, 318) que está al menos parcialmente más allá de un campo de visión (308A) de una pantalla montada en la cabeza (252, 262), teniendo la región de información virtual (312, 314, 316, 318) una ubicación de región de información virtual que está en una dirección del campo de visión (308A); provocar la representación (704, 804) de una notificación no visual que es indicativa de la dirección del campo de visión (308A) en respuesta al evento de región de información virtual; recibir (706, 806) información indicativa de una entrada de invocación de notificación visual que es introducida por un usuario (210, 230, 308); determinar (708, 808) una notificación visual (314B) que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual en respuesta a la entrada de invocación de notificación visual; provocar (710, 810) la visualización de la notificación visual en la pantalla montada en la cabeza (252, 262); recibir (712, 812) información indicativa de una entrada de selección de notificación visual introducida por el usuario; y cambiar la ubicación de región de información virtual de la región de información virtual (312, 314, 316, 318) a una ubicación de región de información virtual diferente que está dentro del campo de visión (308A) en respuesta a la entrada de selección de notificación visual.

Description

DESCRIPCIÓN
Representación de una notificación en una pantalla montada en la cabeza
Campo técnico
La presente solicitud se refiere en general a la representación de una notificación en una pantalla montada en la cabeza.
Antecedentes
A medida que los aparatos electrónicos se han vuelto cada vez más frecuentes y generalizados en nuestra sociedad, las personas utilizan cada vez más aparatos electrónicos para ver información. Muchos usuarios pueden utilizar aparatos electrónicos para fines relacionados con visualizar información particular. Como tal, puede ser deseable configurar un aparato electrónico de manera que el aparato electrónico facilite la visualización de información particular de una manera intuitiva y sencilla. El documento US2014/375683 A1 es una publicación que desvela realizaciones que se refieren a la operación de una interfaz de usuario en un dispositivo informático de realidad aumentada que comprende un sistema de pantalla trasparente. Por ejemplo, una realización desvelada incluye identificar uno o más objetos ubicados fuera de un campo de visión de un usuario, y para cada objeto del uno o más objetos, proporcionar al usuario una indicación de información posicional asociada al objeto. En un ejemplo, puede activarse un indicador visual representado como un zarcillo cuando un correspondiente objeto fuera de visión tiene nueva actividad para ser visualizado. Por ejemplo, puede visualizarse un zarcillo para conducir una mirada del observador a una bandeja de entrada de correo electrónico fuera de visión cuando se reciba un nuevo mensaje de correo electrónico. El documento US2012/212414 A1 es una publicación que se refiere a una pieza ocular montada en la cabeza interactiva con un procesador integrado para manejar contenido para su visualización y una fuente de imagen integrada para introducir el contenido en un conjunto óptico a través del cual el usuario ve un entorno circundante y el contenido visualizado, en el que la pieza ocular incluye un control activado por evento y sensor de aplicaciones de la pieza ocular. Un ejemplo implica la colocación (por la pieza ocular) y selección opcional (por el usuario) de un indicador visual en la visión periférica del usuario, como un indicio para el usuario, tal como para reducir la interferencia en la porción estrecha del campo visual del usuario alrededor de la dirección de la mirada donde reside la entrada visual más elevada del ojo. El indicador puede ser un icono, una instantánea, un color, símbolo, un objeto parpadeante y similares, e indica una alerta, un correo electrónico que llega, una llamada telefónica entrante, un evento de calendario, una instalación de procesamiento interna o externa que requiere atención del usuario, y similares. El usuario puede a continuación opcionalmente decidir elevar el contenido asociado al indicio visual para ver más información, tal como mirar a través del indicador visual, y haciendo esto, abrir su contenido.
Sumario
Los aspectos proporcionan un método, un aparato y un medio legible por ordenador como se define respectivamente en las reivindicaciones independientes adjuntas 1, 11 y 13. Se definen realizaciones preferidas adicionales en las reivindicaciones dependientes adjuntas. Diversos aspectos de realizaciones de ejemplo se exponen en el resumen, los dibujos, y la descripción detallada.
Estos aspectos implican la determinación de la ocurrencia de un evento de región de información virtual, indicando el evento de región de información virtual un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá de un campo de visión de una pantalla montada en la cabeza, teniendo la región de información virtual una ubicación de región de información virtual que está en una dirección del campo de visión, provocar la representación de una notificación no visual que es indicativa de la dirección del campo de visión en respuesta al evento de región de información virtual, recibir información indicativa de una entrada de notificación visual que se introduce por un usuario,
determinar una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual en respuesta a la entrada de invocación de notificación visual, provocar la visualización de la notificación visual en la pantalla montada en la cabeza, recibir información indicativa de una región de selección de notificación visual en una ubicación de región de información virtual diferente que está dentro del campo de visión en respuesta a la entrada de selección de notificación visual.
En al menos una realización de ejemplo, un programa está asignado a la región de información virtual y la determinación de la ocurrencia del evento de región de información virtual comprende la determinación de que ha tenido lugar un evento asociado al programa.
En al menos una realización de ejemplo, la determinación de la ocurrencia del evento de región de información virtual comprende la recepción de información por el programa, y la determinación de que la información recibida provoca un cambio de información que está asignado a la región de información virtual.
Una o más realizaciones de ejemplo realizan adicionalmente la asignación del programa a la región de información virtual.
En al menos una realización de ejemplo, estando la región de información virtual al menos parcialmente más allá del campo de visión de la pantalla montada en la cabeza, indica circunstancias donde menos que la totalidad de la región de información virtual está dentro del campo de visión de la pantalla montada en la cabeza.
En al menos una realización de ejemplo, estando la región de información virtual al menos parcialmente más allá del campo de visión de la pantalla montada en la cabeza, indica circunstancias donde la totalidad de la región de información virtual está más allá del campo de visión de la pantalla montada en la cabeza.
En al menos una realización de ejemplo, la ubicación de región de información virtual es una ubicación en un entorno físico que rodea la pantalla montada en la cabeza que está diseñada para la visualización de una representación de información asignada a la región de información virtual en circunstancias donde el campo de visión de la pantalla montada en la cabeza incluye la ubicación del entorno físico.
En al menos una realización de ejemplo, la dirección del campo de visión corresponde con al menos una porción de un límite del campo de visión que está más próximo a la ubicación de región de información virtual.
En al menos una realización de ejemplo, la dirección del campo de visión es al menos una de una dirección hacia la izquierda, una dirección hacia la derecha, una dirección hacia detrás, una dirección hacia arriba, o una dirección hacia abajo.
En al menos una realización de ejemplo, la causa de la representación de la notificación no visual se realiza en ausencia de la visualización de cualquier notificación visual indicativa del evento de región de información virtual. En al menos una realización de ejemplo, la notificación no visual es una notificación de que está ausente de cualquier representación visual indicativa del evento de región de información virtual.
En al menos una realización de ejemplo, la notificación no visual es una notificación háptica.
En al menos una realización de ejemplo, la representación de la notificación háptica comprende el accionamiento de al menos un dispositivo de salida que está en una posición en la pantalla montada en la cabeza que corresponde con la dirección del campo de visión.
En al menos una realización de ejemplo, la notificación no visual es una notificación de audio espacial.
En al menos una realización de ejemplo, la representación de la notificación de audio espacial comprende la representación una señal de audio espacial de manera que una ubicación percibida de la señal de audio espacial corresponde con la dirección del campo de visión.
En al menos una realización de ejemplo, la recepción de información indicativa de la entrada de invocación de notificación visual comprende la recepción de información indicativa de una entrada, y la determinación de que la entrada es la entrada de invocación de notificación visual.
En al menos una realización de ejemplo, la determinación de la notificación visual está basada, al menos en parte, en la determinación de la entrada de invocación de notificación visual.
En al menos una realización de ejemplo, la entrada de invocación de notificación visual comprende una entrada táctil en una posición en la pantalla montada en la cabeza que corresponde con la dirección del campo de visión.
En al menos una realización de ejemplo, la entrada de invocación de notificación visual comprende una entrada de movimiento de la posición en la pantalla montada en la cabeza hacia el campo de visión.
En al menos una realización de ejemplo, la notificación no visual es una notificación háptica representada en la posición en la pantalla montada en la cabeza.
Una o más realizaciones de ejemplo realizan adicionalmente la determinación de que la región de información virtual está más allá del campo de visión.
En al menos una realización de ejemplo, la causa de la representación de la notificación no visual está basada, al menos en parte, en la determinación de que la región de información virtual está más allá del campo de visión. Una o más realizaciones de ejemplo realizan adicionalmente la terminación de la visualización de la notificación visual. Una o más realizaciones de ejemplo realizan adicionalmente la determinación de que ha transcurrido una duración umbral posterior a la visualización de la notificación visual.
En al menos una realización de ejemplo, la terminación de la visualización de la notificación visual se realiza en respuesta a la determinación de que ha transcurrido la duración umbral.
Una o más realizaciones de ejemplo realizan adicionalmente la recepción de información indicativa de una entrada de terminación de notificación.
En al menos una realización de ejemplo, la terminación de la visualización de la notificación visual se realiza en respuesta a la entrada de terminación de notificación.
Una o más realizaciones de ejemplo realizan adicionalmente la determinación, por medio de seguimiento de la mirada, que una mirada del usuario falla al corresponder con la notificación durante una duración umbral.
En al menos una realización de ejemplo, la terminación de la visualización de la notificación visual se realiza en respuesta a la determinación de que la mirada del usuario falla al corresponder con la notificación durante la duración umbral.
Una o más realizaciones de ejemplo realizan adicionalmente la determinación de que una duración umbral ha fallado al transcurrir entre la representación de la notificación no visual y la entrada de invocación de notificación visual.
En al menos una realización de ejemplo, la determinación de la notificación visual está basada, al menos en parte, en la determinación de que la duración umbral ha fallado al transcurrir entre la representación de la notificación no visual y la entrada de invocación de notificación visual.
En al menos una realización de ejemplo, la entrada de selección de notificación visual es una entrada de doble toque en el lateral de la pantalla montada en la cabeza.
Una o más realizaciones de ejemplo realizan adicionalmente la determinación de que ha transcurrido una duración umbral posterior a la recepción de la entrada de selección de notificación visual, y la reversión de la ubicación de región de información virtual diferente de la región de información virtual a la ubicación de región de información virtual en respuesta a la determinación de que ha transcurrido la duración umbral.
Una o más realizaciones de ejemplo realizan adicionalmente antes de la recepción de la información indicativa de la entrada de invocación de notificación visual, la determinación de la ocurrencia de un evento de región de información virtual diferente, indicando el evento de región de información virtual diferente un cambio de información que está asignado a una región de información virtual diferente que está al menos parcialmente más allá del campo de visión, teniendo la región de información virtual diferente una ubicación de región de información virtual diferente que está en una dirección diferente del campo de visión, antes de la recepción de la información indicativa de la entrada de invocación de notificación visual, la causa de la representación de una notificación no visual diferente que es indicativa de la dirección diferente del campo de visión en respuesta al evento de región de información virtual diferente, y la determinación de que la entrada de invocación de notificación visual corresponde con el evento de región de información virtual.
En al menos una realización de ejemplo, la determinación de la notificación visual se realiza en respuesta a la determinación de que la entrada de invocación de notificación visual corresponde con el evento de región de información virtual.
Breve descripción de los dibujos
Para un entendimiento más completo de una o más realizaciones de ejemplo, se hace referencia ahora a las siguientes descripciones tomadas en conjunto con los dibujos adjuntos en los que:
La Figura 1 es un diagrama de bloques que muestra un aparato de acuerdo con al menos una realización de ejemplo;
Las Figuras 2A-2E son diagramas que ilustran pantallas montadas en la cabeza de acuerdo con al menos una realización de ejemplo;
Las Figuras 3A-3G son diagramas que ilustran regiones de información virtual de acuerdo con al menos una realización de ejemplo;
La Figura 4 es un diagrama de flujo que ilustra actividades asociadas a la representación de una notificación en una pantalla montada en la cabeza de acuerdo con al menos una realización de ejemplo;
La Figura 5 es un diagrama de flujo que ilustra actividades asociadas a la recepción de una entrada de notificación visual de acuerdo con al menos una realización de ejemplo;
La Figura 6 es un diagrama de flujo que ilustra actividades asociadas a la terminación de la visualización de una notificación visual de acuerdo con al menos una realización de ejemplo;
La Figura 7 es un diagrama de flujo que ilustra actividades asociadas a la recepción de una entrada de selección de notificación visual de acuerdo con al menos una realización de ejemplo;
La Figura 8 es un diagrama de flujo que ilustra actividades asociadas a la reversión de una ubicación de región de información virtual de acuerdo con al menos una realización de ejemplo; y
La Figura 9 es un diagrama de flujo que ilustra actividades asociadas a la determinación de que una entrada de notificación visual corresponde con un evento de región de información virtual de acuerdo con al menos una realización de ejemplo.
Descripción detallada de los dibujos
Diversas realizaciones de ejemplo y algunas de sus ventajas potenciales se entienden haciendo referencia a las Figuras 1 a 9 de los dibujos.
Algunas realizaciones de ejemplo se describirán ahora adicionalmente en lo sucesivo con referencia a los dibujos adjuntos, en los que se muestran algunas realizaciones de ejemplo, pero no todas. Una o más realizaciones de ejemplo pueden realizarse en muchas formas diferentes y las reivindicaciones no deben interpretarse como que están estrictamente limitadas a las realizaciones de ejemplo expuestas en el presente documento; en su lugar, estas realizaciones de ejemplo se proporcionan de modo que esta divulgación satisfará requisitos legales aplicables. Números de referencia similares hacen referencia a elementos similares a lo largo de todo el presente documento. Como se usa en el presente documento, los términos "datos", "contenido", "información", y términos similares pueden usarse de manera intercambiable para hacer referencia a datos que pueden transmitirse, recibirse y/o almacenarse de acuerdo con una o más realizaciones de ejemplo. Por lo tanto, el uso de cualquiera de tales términos no debe tomarse para limitar el alcance de las realizaciones de ejemplo.
Adicionalmente, como se usa en el presente documento, el término 'circuitería' hace referencia a (a) implementaciones de circuito únicamente de hardware (por ejemplo, implementaciones en circuitería analógica, circuitería digital y/o cualquier combinación de las mismas); (b) combinaciones de circuitos y producto o productos de programa informático que comprenden software y/o instrucciones de firmware almacenadas en una o más memorias legibles por ordenador que funcionan juntas para provocar que un aparato realice una o más funciones descritas en el presente documento; y (c) circuitos, tales como, por ejemplo, unos microprocesadores) o una porción de un microprocesador o microprocesadores, que utilizan software o firmware para su operación incluso si el software o firmware no está físicamente presente. Esta definición de 'circuitería' se aplica a todos los usos de este término en el presente documento, incluyendo en cualesquiera reivindicaciones. Como un ejemplo adicional, como se usa en el presente documento, el término 'circuitería' también incluye una implementación que comprende uno o más procesadores y/o porción o porciones del mismo y software y/o firmware adjunto. Como otro ejemplo, el término 'circuitería' como se usa en el presente documento también incluye, por ejemplo, un circuito integrado de banda base, un circuito integrado de procesador de aplicaciones, un aparato de red celular, otro aparato de red, y/u otro aparato informático.
Como se define en el presente documento, un "medio legible por ordenador no transitorio", que hace referencia a un medio físico (por ejemplo, dispositivo de memoria volátil o no volátil), puede diferenciarse de un "medio legible por ordenador transitorio" que se refiere a una señal electromagnética. En al menos una realización de ejemplo, un medio legible por ordenador no transitorio es un medio legible por ordenador tangible no transitorio.
La Figura 1 es un diagrama de bloques que muestra un aparato, tal como un aparato electrónico 10, de acuerdo con al menos una realización de ejemplo. Debería entenderse, sin embargo, que un aparato electrónico como se ilustra y describe en lo sucesivo es simplemente ilustrativo de un aparato electrónico que podría beneficiarse de una o más realizaciones de ejemplo y, por lo tanto, no debe tomarse para limitar el alcance de las reivindicaciones. Aunque se ilustra el aparato electrónico 10 y se describirá en lo sucesivo para los fines de ejemplo, otros tipos de aparatos electrónicos pueden emplear fácilmente una o más realizaciones de ejemplo. El aparato electrónico 10 puede ser un asistente digital personal (PDA), un buscapersonas, un ordenador móvil, un ordenador de sobremesa, una televisión, una pantalla montada en la cabeza, una pantalla transparente, una pantalla de realidad virtual, una pantalla de realidad aumentada, un aparato llevable, un aparato de juegos, un ordenador portátil, un ordenador de tableta, un reproductor multimedia, una cámara, un grabador de vídeo, un teléfono móvil, un aparato de sistema de posicionamiento global (GPS), un automóvil, un quiosco, una mesa electrónica, y/o cualesquiera otros tipos de sistemas electrónicos. Además, el aparato de al menos una realización de ejemplo no necesita ser todo el aparato electrónico, sino que puede ser un componente o grupo de componentes del aparato electrónico en otras realizaciones de ejemplo. Por ejemplo, el aparato puede ser un circuito integrado, un conjunto de circuitos integrados y/o similares.
Adicionalmente, los aparatos pueden emplear fácilmente una o más realizaciones de ejemplo independientemente de cualquier intento para proporcionar movilidad. En este sentido, incluso aunque pueden describirse algunas realizaciones de ejemplo en conjunto con aplicaciones móviles, debería entenderse que tales realizaciones de ejemplo pueden utilizarse en conjunto con otras diversas aplicaciones, tanto en las industrias de las comunicaciones móviles como fuera de las industrias de las comunicaciones móviles. Por ejemplo, el aparato puede ser, al menos parte de, un aparato no llevable, tal como una televisión de pantalla grande, una mesa electrónica, un quiosco, un automóvil y/o similares.
En al menos una realización de ejemplo, el aparato electrónico 10 comprende al menos un procesador, tal como el procesador 11 y al menos una memoria, tal como la memoria 12. El procesador 11 puede ser cualquier tipo de procesador, controlador, controlador embebido, núcleo de procesador y/o similares. En al menos una realización de ejemplo, el procesador 11 utiliza código de programa informático para provocar que un aparato realice una o más acciones. La memoria 12 puede comprender memoria volátil, tal como Memoria de Acceso Aleatorio (RAM) volátil que incluye un área de caché para el almacenamiento temporal de datos y/u otra memoria, por ejemplo, memoria no volátil, que puede estar embebida y/o puede ser retirable. La memoria no volátil puede comprender una EEPROM, memoria flash y/o similares. La memoria 12 puede almacenar cualquiera de un número de piezas de información, y datos. La información y los datos pueden usarse por el aparato electrónico 10 para implementar una o más funciones del aparato electrónico 10, tal como las funciones descritas en el presente documento. En al menos una realización de ejemplo, la memoria 12 incluye código de programa informático de manera que la memoria y el código de programa informático están configurados para, funcionando con el procesador, provocar que el aparato realice una o más acciones descritas en el presente documento.
El aparato electrónico 10 puede comprender adicionalmente un dispositivo de comunicación 15. En al menos una realización de ejemplo, el dispositivo de comunicación 15 comprende una antena, (o múltiples antenas), un conector alámbrico y/o similares en comunicación operable con un transmisor y/o un receptor. En al menos una realización de ejemplo, el procesador 11 proporciona señales a un transmisor y/o recibe señales de un receptor. Las señales pueden comprender información de señalización de acuerdo con una interfaz de comunicaciones convencional, voz del usuario, datos recibidos, datos generados del usuario y/o similares. El dispositivo de comunicación 15 puede operar con una o más normas de interfaz aérea, protocolos de comunicación, tipos de modulación, y tipos de acceso (por ejemplo, una o más normas en la familia 802 del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) de normas alámbricas e inalámbricas). Por medio de ilustración, el dispositivo de comunicación electrónico 15 puede operar de acuerdo con protocolos de comunicación inalámbricos de la segunda generación (2G) IS-136 (acceso múltiple por división en el tiempo (TDMA)), Sistema Global para Comunicación Móvil (GSM), e IS-95 (acceso múltiple por división de código (CDMA)), con protocolos de comunicación inalámbricos de la tercera generación (3G), tales como el Sistema Universal de Telecomunicaciones Móviles (UMTS), CDMA2000, CDMA de banda ancha (WCd Ma ) y CDMA de división en el tiempo-síncrona (TD-SCDMA), y/o con protocolos de comunicación de la cuarta generación (4G), protocolos de interconexión en red inalámbricos, tales como 802.11, protocolos inalámbricos de corto alcance, tales como Bluetooth y/o similares. El dispositivo de comunicación 15 puede operar de acuerdo con protocolos de línea alámbrica, tal como Ethernet, línea digital de abonado (DSL), modo de transferencia asíncrona (ATM), y/o similares.
El procesador 11 puede comprender medios, tales como circuitería, para implementar funciones de audio, vídeo, comunicación, navegación, lógicas y/o similares, así como para implementar una o más realizaciones de ejemplo que incluyen, por ejemplo, una o más de las funciones descritas en el presente documento. Por ejemplo, el procesador 11 puede comprender medios, tales como un dispositivo de procesador de señales digitales, un dispositivo de microprocesador, un convertidor de analógico a digital, un convertidor de digital a analógico, circuitería de procesamiento y otros circuitos, para realizar diversas funciones que incluyen, por ejemplo, una o más de las funciones descritas en el presente documento. El aparato puede realizar funciones de control y de procesamiento de señal del aparato electrónico 10 entre estos dispositivos de acuerdo con sus respectivas capacidades. El procesador 11 por lo tanto puede comprender la funcionalidad para codificar e intercalar mensajes y datos antes de la modulación y transmisión. El procesador 1 puede comprender adicionalmente un codificador de voz interno, y puede comprender un módem de datos interno. Además, el procesador 11 puede comprender funcionalidad para operar uno o más programas de software, que pueden almacenarse en memoria y que pueden provocar, entre otras cosas, que el procesador 11 implemente al menos una realización que incluye, por ejemplo, una o más de las funciones descritas en el presente documento. Por ejemplo, el procesador 11 puede operar un programa de conectividad, tal como un explorador de Internet convencional. El programa de conectividad puede permitir que el aparato electrónico 10 transmita y reciba contenido de internet, tal como contenido basado en ubicación y/u otro contenido de página web, de acuerdo con un Protocolo de Control de Transmisión (TCP), Protocolo de Internet (IP), Protocolo de Datagrama de Usuario (UDP), Protocolo de Acceso a Mensaje de Internet (IMAP), Protocolo de Oficina Postal (POP), Protocolo de Transferencia de Correo Simple (SMTP), Protocolo de Aplicación Inalámbrica (WAP), Protocolo de Transferencia de Hipertexto (HTTP), y/o similares, por ejemplo.
El aparato electrónico 10 puede comprender una interfaz de usuario para proporcionar salida y/o recibir entrada. El aparato electrónico 10 puede comprender un dispositivo de salida 14. El dispositivo de salida 14 puede comprender un dispositivo de salida de audio, tal como un timbre, un auricular, un altavoz y/o similares. El dispositivo de salida 14 puede comprender un dispositivo de salida táctil, tal como un transductor de vibración, una superficie deformable electrónicamente, una estructura deformable electrónicamente y/o similares. El dispositivo de salida 14 puede comprender un dispositivo de salida visual, tal como una pantalla, una luz y/o similares. En al menos una realización de ejemplo, el aparato provoca la visualización de información, la causa de la visualización puede comprender visualizar la información en una pantalla comprendida por el aparato, que envía la información a un aparato separado y/o similares. Por ejemplo, el aparato puede enviar la información a una pantalla separada, a un ordenador, a un portátil, a un aparato móvil y/o similares. Por ejemplo, el aparato puede ser un servidor que provoca la visualización de la información por medio del envío de la información a un aparato cliente que visualiza la información. De esta manera, la causa de la visualización de la información puede comprender el envío de uno o más mensajes al aparato separado que comprenden la información, enviar por flujo continuo la información al aparato separado y/o similares. El aparato electrónico puede comprender un dispositivo de entrada 13. El dispositivo de entrada 13 puede comprender un sensor de luz, un sensor de proximidad, un micrófono, un sensor táctil, un sensor de fuerza, un botón, un teclado numérico, un sensor de movimiento, un sensor de campo magnético, una cámara y/o similares. Un sensor táctil y una pantalla pueden estar caracterizados como una pantalla táctil. En una realización que comprende una pantalla táctil, la pantalla táctil puede estar configurada para recibir entrada desde un único punto de contacto, múltiples puntos de contacto y/o similares. En una realización de este tipo, la pantalla táctil y/o el procesador pueden determinar la entrada basándose, al menos en parte, en la posición, movimiento, velocidad, área de contacto y/o similares. En al menos una realización de ejemplo, el aparato recibe una indicación de una entrada. El aparato puede recibir la indicación de un sensor, un controlador, un aparato separado y/o similares. La información indicativa de la entrada puede comprender información que transporta información indicativa de la entrada, indicativa de un aspecto de la entrada indicativo de la ocurrencia de la entrada y/o similares.
El aparato electrónico 10 puede incluir cualquiera de diversas pantallas táctiles que incluyen aquellas que están configuradas para posibilitar el reconocimiento táctil mediante cualquiera de técnicas resistivas, capacitivas, de infrarrojos, galga extensiométrica, onda superficial, formación de imágenes ópticas, tecnología de señal dispersiva, reconocimiento de pulso acústico u otras, y para proporcionar a continuación señales indicativas de la ubicación y otros parámetros asociados al toque. Adicionalmente, la pantalla táctil puede estar configurada para recibir una indicación de una entrada en forma de un evento táctil que puede definirse como un contacto físico real de un objeto de selección (por ejemplo, un dedo, lápiz óptico, bolígrafo, lápiz, u otro dispositivo apuntador) y la pantalla táctil. Como alternativa, un evento táctil puede definirse como proporcionar el objeto de selección en proximidad a la pantalla táctil, flotar sobre un objeto visualizado o acercarse a un objeto dentro de una distancia predefinida, incluso aunque no se haga contacto físico con la pantalla táctil. Como tal, una entrada táctil puede comprender cualquier entrada que se detecte por una pantalla táctil, que incluye eventos táctiles que implican el contacto físico real y eventos táctiles que no implican contacto físico pero que se detectan de otra manera por la pantalla táctil, tal como un resultado de la proximidad del objeto de selección a la pantalla táctil. Una pantalla táctil puede recibir información asociada a fuerza aplicada a la pantalla táctil en relación con la entrada táctil. Por ejemplo, la pantalla táctil puede diferenciar entre una entrada táctil de presión fuerte y una entrada táctil de presión ligera. En al menos una realización de ejemplo, una pantalla puede visualizar información bidimensional, información tridimensional y/o similares.
En realizaciones de ejemplo que incluyen un teclado numérico, el teclado numérico puede comprender teclas numéricas (por ejemplo, 0-9), teclas de símbolos (por ejemplo, #, *), teclas alfabéticas y/o similares para operar el aparato electrónico 10. Por ejemplo, el teclado numérico puede comprender una disposición de teclado numérico QWERTY convencional. El teclado numérico puede comprender también diversas teclas programables con funciones asociadas. Además, o como alternativa, el aparato electrónico 10 puede comprender un dispositivo de interfaz tal como una palanca de mandos u otra interfaz de entrada de usuario.
El dispositivo de entrada 13 puede comprender un elemento de captura de medios. El elemento de captura de medios puede ser cualquier medio para capturar una imagen, vídeo, y/o audio para su almacenamiento, visualización o transmisión. Por ejemplo, en al menos una realización de ejemplo en la que el elemento de captura de medios es un módulo de cámara, el módulo de cámara puede comprender una cámara digital que puede formar un fichero de imagen digital de una imagen capturada. Como tal, el módulo de cámara puede comprender hardware, tal como una lente u otro componente o componentes ópticos, y/o software para crear un fichero de imagen digital de una imagen capturada. Como alternativa, el módulo de cámara puede comprender únicamente el hardware para visualizar una imagen, mientras que un dispositivo de memoria del aparato electrónico 10 almacena instrucciones para su ejecución por el procesador 11 en forma de software para crear un fichero de imagen digital de una imagen capturada. En al menos una realización de ejemplo, el módulo de cámara puede comprender adicionalmente un elemento de procesamiento que está separado del procesador 11 para procesar datos, tales como datos de imagen. El módulo de cámara puede proporcionar datos, tales como datos de imagen, en uno o más de diversos formatos. En al menos una realización de ejemplo, el módulo de cámara comprende un codificador, un decodificador y/o similares para comprimir y/o descomprimir datos de imagen. El codificador y/o decodificador pueden codificar y/o decodificar de acuerdo con un formato convencional, por ejemplo, un formato de la norma del Grupo Mixto de Expertos en Fotografía (JPEG).
Las Figuras 2A-2E son diagramas que ilustran pantallas montadas en la cabeza de acuerdo con al menos una realización de ejemplo. Los ejemplos de las Figuras 2A-2E son simplemente ejemplos y no limitan el alcance de las reivindicaciones. Por ejemplo, el tipo de pantalla puede variar, la configuración de la pantalla puede variar, la forma de la pantalla puede variar y/o similares.
En muchas circunstancias, un usuario puede desear interactuar con un dispositivo electrónico. En tales circunstancias, a menudo puede ser deseable que el usuario interactúe con un aparato electrónico por medio de una pantalla montada en la cabeza. Por ejemplo, el usuario puede interactuar con una pantalla de interacción de programa asociada a un programa. En algunas circunstancias, puede ser deseable que una pantalla montada en la cabeza sea una pantalla transparente. En al menos una realización de ejemplo, una pantalla transparente es una pantalla que presenta información a un usuario, pero a través de la cual pueden observarse los objetos en un lado opuesto de la visualización del usuario. Una pantalla transparente puede estar comprendida por una ventana, un parabrisas, un visor, gafas y/o similares. Una pantalla montada en la cabeza puede ser, por ejemplo, una pantalla que puede montarse en la cabeza, una pantalla que está acoplada a un elemento que es llevable en una ubicación en y/o próxima a la cabeza de un usuario, una pantalla que es llevable en una ubicación en y/o próxima a la cabeza de un usuario y/o similares. En al menos una realización de ejemplo, una pantalla montada en la cabeza es una pantalla montada en la cabeza transparente.
La FIGURA 2A es un diagrama que ilustra la pantalla 202 de acuerdo con al menos una realización de ejemplo. En el ejemplo de la Figura 2A, se ilustra una pantalla 202 como una pantalla transparente, aunque la pantalla 202 puede ser cualquier tipo de pantalla. Por ejemplo, la pantalla 202 puede ser una pantalla no transparente. En al menos una realización de ejemplo, una pantalla transparente es una pantalla cerca del ojo. Una pantalla cerca del ojo puede ser una pantalla transparente que está situada próxima a un ojo del usuario. El ejemplo de la Figura 2A ilustra la pantalla 202 como gafas que comprenden una pantalla cerca del ojo en cada lente. En el ejemplo de la Figura 2A, la pantalla cerca del ojo derecho está visualizando la información 204A y 206A, y la pantalla cerca del ojo izquierdo está visualizando la información 204B y 206B. En al menos una realización de ejemplo, la información 204A puede estar asociada a la información 204B. Por ejemplo, el contenido de la información 204A puede ser idéntico al contenido de la información 204B. En algunas circunstancias, incluso aunque el contenido pueda ser idéntico entre 204A y 204B, la posición de la información 204A en la pantalla cerca del ojo derecho puede variar de la posición de la información 204B en la pantalla cerca del ojo izquierdo. De esta manera, el aparato puede variar la posición de la información entre la pantalla cerca del ojo izquierdo y pantalla cerca del ojo derecho para variar la paralaje de la información percibida por el usuario. De esta manera, el aparato puede variar la profundidad percibida de la información por el usuario.
La Figura 2B es un diagrama que ilustra la pantalla transparente 212 de acuerdo con al menos una realización de ejemplo. En al menos una realización de ejemplo, visualizar información en una pantalla transparente de modo que la información corresponda con uno o más objetos que pueden visualizarse a través de la pantalla transparente se denomina como realidad aumentada. En el ejemplo de la Figura 2B, el usuario 210 puede percibir los objetos 224 y 226 a través de la pantalla transparente 212. En al menos una realización de ejemplo, la pantalla transparente puede visualizar información al usuario. Por ejemplo, la pantalla 212 puede visualizar la información 214 y la información 216. La información 214 y la información 216 pueden estar situadas en la pantalla 212 de manera que la información corresponde con uno o más objetos que pueden visualizarse a través de la pantalla transparente 212, tal como el objeto 224. En un ejemplo de este tipo, la información 214 puede estar asociada a, identificar y/o similares, el objeto 224. Por ejemplo, la información 214 puede indicar una identidad del objeto 224. En al menos una realización de ejemplo, la pantalla 212 puede estar comprendida de una pantalla montada en la cabeza.
La Figura 2C es un diagrama que ilustra la pantalla 232 de acuerdo con al menos una realización de ejemplo. En al menos una realización de ejemplo, visualizar información en una pantalla de modo que la información corresponde con una o más representaciones de objetos visualizados en la pantalla se denomina como realidad aumentada. En algunas circunstancias, una representación de un objeto puede hacer referencia a una imagen de un objeto. Por ejemplo, un módulo de cámara puede capturar información de cámara que comprende información indicativa del objeto. La información de cámara puede comprender información de vídeo, información de imagen y/o similares. Esta información de cámara puede visualizarse a continuación en una pantalla de manera que la información de cámara es una representación del objeto. En el ejemplo de la Figura 2C, el usuario 230 puede percibir las representaciones 254 y 256 visualizadas en la pantalla 232. Las representaciones 254 y 256 pueden ser imágenes de objetos capturadas por un aparato. Por ejemplo, un módulo de cámara puede capturar información de cámara indicativa de los objetos 244 y 246 de manera que la información de cámara se visualiza en la pantalla 232 como las representaciones 254 y 256. En al menos una realización de ejemplo, la pantalla puede visualizar información al usuario. Por ejemplo, la pantalla 232 puede visualizar la información 234 y la información 236. La información 234 y la información 236 pueden situarse en la pantalla 232 de manera que la información corresponde con una o más representaciones de objetos visualizados en la pantalla 232, tal como la representación 254. En un ejemplo de este tipo, la información 234 puede estar asociada a, identificar y/o similares, la representación 254. Por ejemplo, la información 234 puede indicar una identidad de la representación 254. En al menos una realización de ejemplo, la pantalla 232 puede estar comprendida de una pantalla montada en la cabeza.
Como se ha descrito anteriormente, en algunas circunstancias, un aparato electrónico puede comprender un dispositivo de entrada tal como un sensor táctil, un sensor de fuerza, un sensor de movimiento y/o similares. En algunas circunstancias, puede ser deseable ubicar un dispositivo de entrada en una posición particular en un aparato. Por ejemplo, si el aparato electrónico es una pantalla montada en la cabeza que comprende gafas similares como se representan en el ejemplo de la Figura 2A, puede ser deseable ubicar uno o más dispositivos de entrada en cualquiera o ambas de las sienes de la pantalla montada en la cabeza. Por ejemplo, puede ser intuitivo que un usuario introduzca entradas táctiles en las sienes de una pantalla montada en la cabeza que comprende gafas, montar un dispositivo de entrada en una pantalla montada en la cabeza puede reducir el tamaño y/o el espacio ocupado de un aparato electrónico que comprende la pantalla y/o similares. Por ejemplo, puede ser fácil que un usuario alcance el lado de la cabeza del usuario, el usuario puede hallar la realización de una entrada táctil, tal como un deslizamiento en una sien de las gafas, que es un movimiento natural y/o similares. En al menos una realización, una pantalla montada en la cabeza comprende un dispositivo de entrada.
La Figura 2D es un diagrama que ilustra la pantalla 252 de acuerdo con al menos una realización de ejemplo. En el ejemplo de la Figura 2D, la pantalla 252 se ilustra como una pantalla montada en la cabeza que comprende gafas, aunque la pantalla 252 puede ser cualquier tipo de pantalla montada en la cabeza. El ejemplo de la Figura 2D ilustra la pantalla 252 como gafas que comprenden un dispositivo de entrada 254 en la sien derecha, y el dispositivo de entrada 256 en la sien izquierda. Los dispositivos de entrada 254 y 256 pueden ser similares como se describe con respecto al dispositivo de entrada 13 de la Figura 1. Por ejemplo, los dispositivos de entrada 254 y/o 256 pueden comprender un sensor táctil. De esta manera, un usuario de la pantalla 252 puede interactuar con la pantalla 252 por medio de la introducción de una entrada táctil por medio del dispositivo de entrada 254 y/o 256.
Como se ha descrito anteriormente, en algunas circunstancias, un aparato electrónico puede comprender un dispositivo de salida tal como un auricular, un altavoz, un transductor de vibración y/o similares. En algunas circunstancias, puede ser deseable ubicar un dispositivo de salida en una posición particular en un aparato. Por ejemplo, si el aparato electrónico es una pantalla montada en la cabeza que comprende gafas similares como se representa en el ejemplo de la Figura 2A, puede ser deseable ubicar uno o más dispositivos de salida en cualquiera o ambas de las sienes de la pantalla montada en la cabeza. Por ejemplo, un usuario puede detectar fácilmente vibraciones de un transductor de vibración montado en la pantalla montada en la cabeza, montar altavoces en una pantalla montada en la cabeza en posiciones particulares puede facilitar la representación de audio espacial y/o similares. El audio espacial puede ser, por ejemplo, audio que se percibe para proyectarse desde una cierta ubicación en el espacio físico, audio que se percibe para emanar desde una fuente y/o dirección ubicada particular y/o similares. En al menos una realización, una pantalla montada en la cabeza comprende un dispositivo de salida. En al menos una realización de ejemplo, un dispositivo de salida es un dispositivo de salida háptica. Un dispositivo de salida háptica puede hacer referencia a un dispositivo de salida táctil similar como se describe con respecto a la Figura 1. En al menos una realización de ejemplo, un dispositivo de salida es un dispositivo de audio espacial. Un dispositivo de audio espacial puede hacer referencia a un dispositivo que puede representar una señal de audio espacial. Una señal de audio espacial puede hacer referencia a una señal de audio con un origen percibido. Por ejemplo, un dispositivo de audio espacial puede comprender múltiples altavoces de audio, tales como un altavoz izquierdo y un altavoz derecho. Un usuario de un dispositivo de audio espacial puede percibir sonido representado en el altavoz izquierdo como que tiene lugar desde la izquierda del usuario, sonido representado desde el altavoz derecho como que tiene lugar desde la derecha del usuario y/o similares. Un dispositivo de audio espacial puede utilizar auriculares, altavoces y/o similares para representar un campo de audio espacial para el usuario usando audio binaural que representa técnicas, funciones de transferencia relacionadas con la cabeza y/o similares. Un dispositivo de audio espacial puede utilizar técnicas de seguimiento de la cabeza para ayudar a la representación de audio espacial. Un dispositivo de audio espacial puede utilizar más de dos altavoces, tal como un sistema de sonido envolvente, puede utilizar algoritmos de ubicación de sonido para simular un origen particular de una ubicación de sonido y/o similares. En algunas circunstancias, un origen percibido de un sonido puede diferir del origen real del sonido.
La Figura 2E es un diagrama que ilustra la pantalla 262 de acuerdo con al menos una realización de ejemplo. En el ejemplo de la Figura 2E, la pantalla 262 se ilustra como una pantalla montada en la cabeza que comprende gafas, aunque la pantalla 262 puede ser cualquier tipo de pantalla montada en la cabeza. El ejemplo de la Figura 2E ilustra la pantalla 262 como gafas que comprenden los dispositivos de salida 264A, 264B, 264C, y 264D en la sien derecha, y los dispositivos de salida 266A, 266B, 266C, y 266D en la sien izquierda. Los dispositivos de salida 264A-264D y 266A-266D pueden ser similares como se describe con respecto al dispositivo de salida 14 de la Figura 1. Por ejemplo, los dispositivos de salida 264A-264D y/o 266A-266D pueden comprender uno o más altavoces, uno o más transductores de vibración y/o similares. De esta manera, la pantalla 262 puede representar la salida por medio de los dispositivos de salida 264A-264D y/o 266A-266D.
En algunas situaciones, un usuario de un aparato electrónico puede dirigir su atención al aparato electrónico. Por ejemplo, un usuario que lleva una pantalla montada en la cabeza puede desear interactuar con aplicaciones visualizadas en una pantalla montada en la cabeza, ver información visualizada en una pantalla montada en la cabeza y/o similares. Por ejemplo, el usuario puede fijarse en una pantalla del aparato electrónico, puede fijarse en información particular visualizada por el aparato electrónico, puede interactuar con el aparato electrónico y/o similares. En tales situaciones, el usuario puede dirigir incidentemente su atención lejos del entorno que rodea al usuario, al menos parte del entorno que rodea al usuario, de otra información visualizada en el aparato y/o similares. En tales situaciones, el usuario puede desear poder percibir los acontecimientos que pueden haber ocurrido en relación con al menos parte del entorno circundante del usuario mientras la atención del usuario se dirigía lejos de la parte del entorno, dirigida hacia una parte diferente del entorno y/o similares. Por ejemplo, el usuario puede desear que el aparato electrónico del usuario monitorice la dirección de la atención del usuario y provocar la realización de ciertas funciones predeterminadas basándose en la dirección de la atención del usuario.
En algunas circunstancias, puede ser deseable determinar una dirección de la atención del usuario basándose, al menos en parte, en una dirección que está mirando el usuario, una profundidad a la que está mirando el usuario y/o similares. Por ejemplo, el usuario que mira en una dirección particular puede indicar que la atención del usuario se dirige en la dirección particular. Por ejemplo, la atención de un usuario que lleva una pantalla montada en la cabeza puede dirigirse a una aplicación visualizada en una pantalla montada en la cabeza, dirigirse en información visualizada en una pantalla montada en la cabeza y/o similares. En otro ejemplo, la mirada del usuario en el aparato electrónico del usuario puede indicar que la atención del usuario se dirige lejos de al menos parte del entorno que rodea al usuario. Por ejemplo, cuando la atención del usuario de una pantalla montada en la cabeza se centra en información visualizada en la pantalla, el usuario puede no estar visualizando objetos en el entorno circundante. En otro ejemplo más, el usuario que mira a una parte particular de una pantalla puede indicar que la atención del usuario se dirige lejos de una parte de la pantalla diferente. Por ejemplo, el usuario puede estar viendo una aplicación particular visualizada en una parte particular de la pantalla, y no viendo otra aplicación visualizada en una parte diferente de la pantalla. En al menos una realización de ejemplo, un aparato determina una dirección de una atención del usuario basándose, al menos en parte, en una posición de la mirada del usuario. En al menos una realización de ejemplo, un aparato determina una posición de la mirada de un usuario. La determinación de la posición de la mirada, la dirección de una atención del usuario y/o similares pueden denominarse como seguimiento de la mirada. En al menos una realización de ejemplo, un aparato que comprende una pantalla montada en la cabeza realiza seguimiento de la mirada.
Las Figuras 3A-3G son diagramas que ilustran regiones de información virtual de acuerdo con al menos una realización de ejemplo. Los ejemplos de las Figuras 3A-3G son simplemente ejemplos y no limitan el alcance de las reivindicaciones. Por ejemplo, la ubicación de las regiones de información virtual puede variar, la información asignada a las regiones de información virtual puede variar, el aparato que utiliza regiones de información virtual puede variar y/o similares.
Como se ha descrito anteriormente, un usuario puede llevar una pantalla montada en la cabeza, interactuar con una pantalla montada en la cabeza y/o similares. En muchas circunstancias, una pantalla montada en la cabeza puede tener un campo de visión. Por ejemplo, una pantalla montada en la cabeza transparente puede tener un campo de visión que está delimitado por uno o más marcos de pantalla, biseles, límites, bordes y/o similares. Los objetos, el entorno y/o similares que pueden observarse por un usuario de una pantalla montada en la cabeza transparente fuera de tales límites pueden considerarse fuera del campo de visión de la pantalla montada en la cabeza transparente. En algunas circunstancias (por ejemplo, la pantalla montada en la cabeza es una pantalla montada en la cabeza encerrada), un usuario que ve una imagen en una pantalla montada transparente en la cabeza puede no ser capaz de percibir objetos del mundo real, el entorno exterior y/o similares más allá del campo de visión de la pantalla montada en la cabeza mientras está llevando la pantalla montada en la cabeza. En algunas circunstancias, un usuario puede no ser capaz de ver imágenes visualizadas en una pantalla montada en la cabeza dentro del campo de visión de la pantalla montada en la cabeza cuando la pantalla montada en la cabeza no se lleva por el usuario.
La Figura 3A es un diagrama que ilustra el campo de visión 302 de una pantalla montada en la cabeza de acuerdo con al menos una realización de ejemplo. En el ejemplo de la Figura 3A, el campo de visión 302 se ilustra como un campo de visión a través de una pantalla montada en la cabeza transparente, aunque campo de visión 302 puede ser representativo de un campo de visión de una pantalla no transparente. En el ejemplo de la Figura 3A, puede observarse que el campo de visión 302 está delimitado en la parte superior, la inferior, izquierda y la derecha. De esta manera, un objeto del mundo real que no puede visualizarse dentro de los límites del campo de visión 302 está más allá del campo de visión del campo de visión 302. En el ejemplo de la Figura 3A, la información 304 se visualiza dentro del campo de visión 304. La información 304 puede ser similar como se describe con respecto a las Figuras 2A-2E, o puede ser cualquier otro tipo de información, imágenes y/o similares que pueden visualizarse en una pantalla. En el ejemplo de la Figura 3A, el objeto 306 puede visualizarse a través de la pantalla montada en la cabeza del campo de visión 302. El objeto 306 puede ser similar como se describe con respecto a los objetos 224 y 226 de la Figura 2B, los objetos 244 y 246 de la Figura 2C, o puede ser cualquier objeto, porción de un entorno y/o similares.
Cuando se visualiza información en una pantalla montada en la cabeza, un usuario puede percibir la información como que está asociada a una ubicación particular en un entorno. Por ejemplo, si la pantalla montada en la cabeza es una pantalla transparente, el usuario puede percibir información visualizada a través de la pantalla montada en la cabeza como que aparece dentro de una región particular del entorno del mundo real que puede visualizarse a través de la pantalla montada en la cabeza. De manera similar, si la pantalla montada en la cabeza es una pantalla no transparente, el usuario puede percibir la información a visualizarse dentro de una región particular de un entorno virtual. Una región dentro de un entorno en el que parece aparecer la información visualizada en una pantalla montada en la cabeza puede denominarse como una región de información virtual. La ubicación de una región de información virtual dentro de un entorno puede denominarse como una ubicación de región de información virtual. En al menos una realización de ejemplo, una ubicación de región de información virtual es una ubicación en un entorno físico que rodea una pantalla montada en la cabeza que está diseñada para la visualización de una representación de información asignada a la región de información virtual. En al menos una realización de ejemplo, una pantalla montada en la cabeza visualiza una representación de información asignada a una región de información virtual en circunstancias donde el campo de visión de la pantalla montada en la cabeza incluye la ubicación del entorno físico.
La Figura 3B es un diagrama que ilustra una vista en perspectiva de arriba hacia abajo del usuario 308 que ve un entorno del mundo real mientras está llevando la pantalla montada en la cabeza transparente de la Figura 3A. Incluso aunque el ejemplo de la Figura 3B ilustra un entorno del mundo real, el ejemplo de la Figura 3B puede ser análogo a un usuario que ve un entorno virtual en una pantalla montada en la cabeza no transparente. En el ejemplo de la Figura 3B, el usuario 308 tiene un campo de visión de usuario 308A que incluye el campo de visión 302 de la Figura 3A, que puede visualizarse a través de la pantalla montada en la cabeza. El campo de visión de un usuario puede ser una porción del entorno que rodea al usuario que el usuario puede percibir de manera natural dentro de la visión del usuario, visión periférica y/o similares. En algunas circunstancias, el campo de visión de un usuario puede diferir del campo de visión de una pantalla montada en la cabeza. En el ejemplo de la Figura 3B, el campo de visión del usuario 308A es aproximadamente equivalente al campo de visión 302 de la Figura 3A. Por ejemplo, puede observarse que la porción del objeto 306 que es visible dentro del campo de visión 302 de la Figura 3A cae dentro de los límites del campo de visión del usuario 308A en el ejemplo de la Figura 3B. De esta manera, en el ejemplo de la Figura 3B, el usuario 308 puede ver información 304 de la Figura 3A.
En el ejemplo de la Figura 3B, se ilustran diversas regiones en el entorno. Por ejemplo, puede observarse que el entorno comprende las regiones 310, 312, 314, 316, y 318 en diversas ubicaciones dentro del entorno. Puede observarse que en el ejemplo de la Figura 3B, la región 310 aparece dentro del campo de visión del usuario 308A. De esta manera, el usuario 308 puede percibir la información 304 según aparece en la ubicación de la región 310 cuando visualiza la información 304. De esta manera, la región 310 puede ser una región de información virtual. En el ejemplo de la Figura 3B, puede observarse que las regiones 312, 314, 316, y 318 tienen ubicaciones que caen fuera del campo de visión del usuario 308. De esta manera, en el ejemplo de la Figura 3B, las regiones 312, 314, 316, y 318 están más allá del campo de visión de la pantalla montada en la cabeza llevada por el usuario 308.
En algunas circunstancias, cuando un usuario está llevando una pantalla montada en la cabeza, un usuario puede asociar una región de un entorno más allá de un campo de visión de una pantalla montada en la cabeza, tal como una región de información virtual, como que tiene una dirección del campo de visión de la pantalla montada en la cabeza. Por ejemplo, un usuario de una pantalla montada en la cabeza puede asociar una región como que está hacia arriba, hacia abajo, hacia la izquierda, hacia la derecha y/o similares del campo de visión de una pantalla montada en la cabeza. Por ejemplo, el usuario puede percibir el entorno como un panorama de 360 grados. En al menos una realización de ejemplo, una dirección del campo de visión es una de una dirección hacia la izquierda, una dirección hacia la derecha, una dirección hacia detrás, una dirección hacia arriba, dirección hacia atrás y/o similares.
El ejemplo de la Figura 3C ilustra una representación panorámica de 360 grados del entorno de la Figura 3B centrado aproximadamente en el centro de la pared dentro del campo de visión del usuario 308 de la Figura 3B. En la representación panorámica de la Figura 3C, puede observarse que las regiones 312 y 314 se ilustran a la derecha del campo de visión 308A, y que las regiones 316 y 318 aparecen a la izquierda del campo de visión 308A. Como se ha descrito anteriormente, debería entenderse que el campo de visión 308A es aproximadamente equivalente al campo de visión 302 de la Figura 3A. De esta manera, el usuario 308 puede asociar las regiones 312 y 314 como que tienen una dirección hacia la derecha del campo de visión 302 de la Figura 3A, y el usuario 308 puede asociar las regiones 316 y 318 como que tienen una dirección hacia la izquierda del campo de visión 302 de la Figura 3A. En algunas circunstancias, una dirección percibida de una región de un campo de visión puede diferir de una dirección real de una región de un campo de visión. Por ejemplo, incluso aunque el usuario 308 de la Figura 3B pueda percibir la región 314 como que tiene una dirección hacia la derecha del campo de visión 302 de la Figura 3A, puede observarse que la región 314 está hacia atrás del campo de visión del usuario 308A en el ejemplo de la Figura 3B. En al menos una realización de ejemplo, la dirección de una región de información virtual de un campo de visión corresponde con al menos una porción de un límite del campo de visión que está más próximo a la ubicación de región de información virtual.
En algunas circunstancias, una región de información virtual puede oscurecerse por un objeto entre un campo de visión de una pantalla montada en la cabeza y la región de información virtual. Por ejemplo, la región de información virtual puede ser una región detrás de una pared situada entre la región de imagen virtual y la pantalla montada en la cabeza. En circunstancias tales como estas, la región de información virtual puede describirse como que está en una dirección hacia delante del campo de visión de la pantalla montada en la cabeza.
En algunas circunstancias, un usuario puede desear que una pantalla montada en la cabeza impida visualizar información particular cuando la pantalla montada en la cabeza tenga un punto de vista particular. Por ejemplo, una pantalla montada en la cabeza puede visualizar información asociada a un programa, y la información puede estar asociada a un objeto del mundo real. El usuario puede desear que la visualización impida la visualización de la información cuando el objeto del mundo real esté más allá del campo de visión de la pantalla montada en la cabeza. En circunstancias tales como estas, puede ser deseable asignar la información a una región de información virtual. Por ejemplo, una pantalla montada en la cabeza puede determinar la orientación de la pantalla montada en la cabeza, la posición de la pantalla montada en la cabeza en el entorno, la mirada del usuario, el campo de visión de la pantalla montada en la cabeza y/o similares y determinar que una región de información virtual está más allá del campo de visión de la pantalla montada en la cabeza. De esta manera, la pantalla montada en la cabeza puede impedir la visualización de información asignada a la región de información virtual cuando el campo de visión de la región de información virtual está más allá del campo de visión de la pantalla montada en la cabeza.
Por ejemplo, la información 304 de la Figura 3A puede asignarse a la región 310 de las Figuras 3B y 3C. Como tal, en este ejemplo, la región 310 es una región de información virtual. De esta manera, si el usuario 308 tuviera que cambiar posiciones de manera que la región 310 ya no cayera más dentro del campo de visión del usuario 308A, la pantalla montada en la cabeza que visualiza la información 304 puede terminar la visualización de la información 304. De manera similar, en este ejemplo, la pantalla montada en la cabeza puede provocar la visualización de información 304 si la región 310 cae una vez más de nuevo dentro del campo de visión del usuario 308A. En al menos una realización de ejemplo, una región de información virtual que está al menos parcialmente más allá del campo de visión de la pantalla montada en la cabeza indica circunstancias donde menos que la totalidad de la región de información virtual está dentro del campo de visión de la pantalla montada en la cabeza. En al menos una realización de ejemplo, una región de información virtual que está al menos parcialmente más allá del campo de visión de la pantalla montada en la cabeza indica circunstancias donde la totalidad de la región de información virtual está más allá del campo de visión de la pantalla montada en la cabeza. La información, programas, y/o similares pueden asignarse a una región de información virtual de diversas maneras. Por ejemplo, un programa puede tener información virtual predeterminada, un usuario puede asignar una región de información virtual a un programa por medio de una entrada (por ejemplo arrastrando el programa a una ubicación particular), el programa puede asignarse a sí mismo a una región de información virtual basándose en el campo de visión de la pantalla montada en la cabeza cuando se lanza el programa y/o similares.
Como se ha descrito anteriormente un usuario puede llevar una pantalla montada en la cabeza. Por ejemplo, el usuario puede llevar una pantalla montada en la cabeza para percibir información, interactuar con un programa y/o similares. En algunas circunstancias, un evento puede estar asociado a la funcionalidad de un aparato electrónico, tal como un aparato electrónico que comprende la pantalla montada en la cabeza. Por ejemplo, un aparato puede recibir un mensaje de entrada. En circunstancias tales como estas, puede ser deseable que el aparato determine la ocurrencia del evento. Por ejemplo, puede ser deseable que el aparato alerte al usuario del evento. Por ejemplo, si el evento de entrada es una llamada telefónica, puede ser deseable alertar al usuario de la llamada telefónica de entrada. En al menos una realización de ejemplo, el aparato determina la ocurrencia de un evento de software. En al menos una realización de ejemplo, el evento de software es la recepción de un mensaje. En un ejemplo de este tipo, la determinación de la ocurrencia del evento de software puede comprender la recepción del mensaje. En al menos una realización de ejemplo, el evento de software es la ocurrencia de un evento de calendario. Un evento de calendario de este tipo puede estar asociado a una entrada de calendario. En un ejemplo de este tipo, la determinación de la ocurrencia del evento de software puede comprender la determinación de que un tiempo actual corresponde con un tiempo de ocurrencia de la entrada de calendario. En al menos una realización de ejemplo, el evento de software es una recepción de una llamada. En un ejemplo de este tipo, la determinación de la ocurrencia del evento de software puede comprender la recepción de la llamada.
Como se ha descrito anteriormente, el aparato puede determinar la ocurrencia de un evento de software, tal como la recepción de un mensaje, la ocurrencia de un evento de calendario, recepción de una llamada y/o similares. En un ejemplo de este tipo, el aparato puede determinar una notificación a representarse basándose, al menos en parte, en el evento de software. De esta manera, la notificación puede comprender información indicativa del evento de software. Por ejemplo, en circunstancias donde el evento de software sea la recepción de un mensaje, la notificación puede comprender información indicativa de un emisor del mensaje, tal como información de contacto, información de nombre, información de dirección, información de número de teléfono y/o similares. En otro ejemplo, en circunstancias donde el evento de software sea la ocurrencia de un evento de calendario, la notificación puede comprender información indicativa de un título de la entrada de calendario, un tiempo de ocurrencia de la entrada de calendario y/o similares. En otro ejemplo más, en circunstancias donde el evento de software sea la recepción de una llamada, la notificación puede comprender información indicativa de un llamante de la llamada, información indicativa de que se está recibiendo una llamada, información indicativa de que se ha recibido una llamada y/o similares. La información indicativa de un llamante de la llamada puede ser cualquier información que indique el llamante, tal como información de contacto, información de nombre, información de dirección, información de número de teléfono y/o similares.
En al menos una realización de ejemplo, la notificación comprende una notificación visual, una notificación audible, una notificación táctil y/o similares. Una notificación visual puede comprender información visual indicativa de la notificación. Por ejemplo la indicación visual puede comprender información de texto, información gráfica, información de vídeo y/o similares. Una notificación audible puede comprender información audible indicativa de la notificación. Por ejemplo, la notificación audible puede comprender información de voz audible, información de música, información de tono o cualquier otra información que corresponda con un sonido que pueda accionarse por un aparato. Una notificación táctil puede comprender información táctil indicativa de la notificación. Por ejemplo, la notificación táctil puede ser información que defina una señal de vibración, una textura, una temperatura y/o similares.
En al menos una realización de ejemplo, la causa de la representación de la notificación comprende la causa de la visualización de una notificación visual, la causa del accionamiento de una notificación audible, la causa del accionamiento de una notificación táctil y/o similares. En al menos una realización de ejemplo, el accionamiento de una notificación audible comprende la causa del accionamiento de un transductor de audio, tal como un altavoz, de manera que el transductor genera una señal de audio que corresponde con la notificación audible. Por ejemplo, la notificación audible puede ser una canción, y el accionamiento de la canción puede comprender enviar información indicativa de la canción a un altavoz de manera que el altavoz genera una señal de audio que corresponde con la canción. En al menos una realización de ejemplo, el accionamiento de una notificación táctil comprende el accionamiento de un transductor táctil, tal como un transductor de vibración, un elemento de calefacción, un elemento de refrigeración, una deformación de aparato controlada electromecánicamente, una textura controlada electromecánicamente y/o similares. Por ejemplo, la notificación táctil puede ser una señal de vibración que signifique el evento de software. En un ejemplo de este tipo, la representación de la notificación táctil puede comprender el accionamiento de un transductor de vibración de una manera que corresponda con la señal de vibración de manera que el usuario puede percibir la señal de vibración.
Como se ha descrito anteriormente, en algunas circunstancias, la información puede asignarse a una región de información virtual. Por ejemplo, un usuario puede desear ver información asociada a un programa de correo electrónico en una pantalla montada en la cabeza cuando la pantalla montada en la cabeza tiene un campo de visión particular. Por ejemplo, un usuario puede asociar una pared particular en la casa del usuario (por ejemplo una pared con un escritorio) con correo electrónico, y puede desear ver su correo electrónico cuando visualiza la pared a través de la pantalla montada en la cabeza. Como se ha descrito anteriormente, en algunas circunstancias, un aparato puede determinar la ocurrencia de un evento. Por ejemplo, un programa de correo electrónico puede recibir un mensaje nuevo. En circunstancias donde un evento está asociado a información asignada a una región de información virtual, el evento puede denominarse como un evento de región de información virtual.
En algunas circunstancias, como se ha descrito anteriormente, el aparato puede notificar al usuario del evento por medio de una notificación visual. Por ejemplo, si el evento es un evento de software, un aparato puede cambiar la apariencia de información visual asociada al software. Por ejemplo, si el software es un programa de correo electrónico, la apariencia de una ventana de bandeja de entrada asociada al programa de correo electrónico puede codificarse para reflejar el mensaje recibido. En algunas circunstancias, por ejemplo cuando la información asociada al programa de software está asignada a una región de información virtual, el usuario del aparato puede no percibir la notificación visual. Por ejemplo si la notificación visual comprende cambiar la apariencia de información visual asociada a la región de información virtual, la información puede no visualizarse en una pantalla montada en la cabeza. Por ejemplo, si el campo de visión de una pantalla montada en la cabeza falla al abarcar una región de información virtual, la pantalla montada en la cabeza puede impedir la causa de la visualización de la información. En circunstancias tales como estas, puede ser deseable alertar al usuario del evento de región de información virtual por una notificación distinta de un cambio de información asignada a la región de información virtual. Por ejemplo, puede ser deseable que la pantalla montada en la cabeza visualice una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual. Por ejemplo, la notificación puede indicar qué tipo de evento tuvo lugar, un programa asociado al evento y/o similares. En al menos una realización de ejemplo, un aparato determina una notificación visual que es visualmente descriptiva de al menos un aspecto de un evento de región de información virtual. En al menos una realización de ejemplo, un aparato provoca la visualización de una notificación visual en una pantalla montada en la cabeza en respuesta a la determinación de la ocurrencia del evento de región de información virtual. En al menos una realización de ejemplo, el evento de región de información virtual indica un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá del campo de visión de la pantalla montada en la cabeza.
La Figura 3D es un diagrama que ilustra el campo de visión 302 de la Figura 3A, que comprende adicionalmente la visualización de la información 314A y 314B. En el ejemplo de la Figura 3D, la información 314A y 314B puede ser indicativa de un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá del campo de visión de la pantalla montada en la cabeza. Por ejemplo, un programa de correo electrónico puede estar asociado a la región 314 de las Figuras 3B-3C. En un ejemplo de este tipo, la información 314A puede ser indicativa de un cambio de información asignado al programa de correo electrónico, y la información 314B puede ser visualmente descriptiva de al menos un aspecto de un evento de región de información virtual del programa de correo electrónico. Por ejemplo, puede observarse que la información 314B indica "correo electrónico de", que puede indicar que el programa de correo electrónico recibió un nuevo correo electrónico de un emisor particular, un nuevo correo electrónico con una línea de asunto particular y/o similares. En al menos una realización de ejemplo, un programa está asignado a una región de información virtual y la determinación de la ocurrencia de un evento de región de información virtual comprende la determinación de que ha tenido lugar un evento asociado al programa. En al menos una realización de ejemplo, la determinación de la ocurrencia del evento de región de información virtual comprende la recepción de información por el programa, y la determinación de que la información recibida provoca un cambio de información que está asignado a la región de información virtual.
En algunas circunstancias, cuando un evento de región de información virtual tiene lugar en una región de información virtual que está más allá de un campo de visión de una pantalla montada en la cabeza, puede no ser deseable representar una notificación visual. Por ejemplo, una notificación visual puede distraer a un usuario que está centrado visualmente en una tarea no relacionada con el evento de región de información virtual, una notificación visual puede interferir la pantalla y/o similares. En circunstancias tales como estas, puede ser deseable provocar la representación de una notificación no visual que es indicativa de la dirección del campo de visión en respuesta al evento de región de información virtual. Por ejemplo, tras la recepción de la notificación no visual, el usuario puede cambiar su posición en una dirección indicada por la notificación no visual de manera que la región de información virtual asociada al evento de región de información virtual aparece dentro del campo de visión. De esta manera, la pantalla montada en la cabeza puede visualizar la información asignada a la región de pantalla de información virtual. En al menos una realización de ejemplo, un aparato provoca la representación de una notificación no visual que es indicativa de una dirección de una región de información virtual de un campo de visión de una pantalla montada en la cabeza en respuesta a un evento de región de información virtual. En al menos una realización de ejemplo, la causa de la representación de la notificación no visual está basada, al menos en parte, en a la determinación de que la región de información virtual está más allá del campo de visión de la pantalla montada en la cabeza.
Por ejemplo, en el ejemplo de la Figura 3C, la pantalla montada en la cabeza puede recibir un evento de región de información virtual asociado a una región de información virtual que corresponde con la región 312. En un ejemplo de este tipo, el aparato montado en la cabeza puede comprender una pluralidad de dispositivos de salida similares como se describe con respecto a 262 de la Figura 2E. El aparato puede provocar la representación de una notificación no visual por un dispositivo de salida montado en el lado derecho de la pantalla montada en la cabeza para indicar que la región de información virtual que corresponde con la región 312 tiene una dirección que es hacia la derecha del campo de visión de la pantalla montada en la cabeza. En otro ejemplo, la pantalla montada en la cabeza puede recibir un evento de región de información virtual asociado a una región de información virtual que corresponde con la región 318. El aparato puede provocar la representación de una notificación no visual por un dispositivo de salida montado en el lado izquierdo de la pantalla montada en la cabeza para indicar que la región de información virtual que corresponde con la región 318 tiene una dirección que es hacia la izquierda del campo de visión de la pantalla montada en la cabeza. En al menos una realización de ejemplo, la causa de la representación de la notificación no visual se realiza en ausencia de la visualización de cualquier notificación visual indicativa del evento de región de información virtual. En al menos una realización de ejemplo, la notificación no visual es una notificación de que está ausente de cualquier representación visual indicativa del evento de región de información virtual.
Como se ha descrito anteriormente, un dispositivo de salida puede ser un dispositivo de salida háptica. Una notificación representada por un dispositivo de salida háptica puede denominarse como una notificación háptica. Por ejemplo, una notificación táctil puede ser una notificación háptica. En al menos una realización de ejemplo, una notificación no visual es una notificación háptica. En al menos una realización de ejemplo, la representación de una notificación háptica comprende el accionamiento de al menos un dispositivo de salida háptico que está en una posición en una pantalla montada en la cabeza que corresponde con una dirección de un campo de visión de la pantalla montada en la cabeza. Por ejemplo, una notificación háptica puede representarse en el lado derecho de una pantalla montada en la cabeza para indicar que la notificación háptica corresponde con un campo de visión que está a la derecha de la pantalla montada en la cabeza.
Como se ha descrito anteriormente, un dispositivo de salida puede ser un dispositivo de audio espacial. Una notificación representada por un dispositivo de audio espacial puede denominarse como una notificación de audio espacial. Por ejemplo, una notificación de audio representada en un altavoz particular de una pluralidad de altavoces puede ser una notificación de audio espacial. En al menos una realización de ejemplo, una notificación no visual es una notificación de audio espacial. En al menos una realización de ejemplo, la representación de la notificación de audio espacial comprende la representación una señal de audio espacial de manera que una ubicación percibida de la señal de audio espacial corresponde a la dirección de un campo de visión de una pantalla montada en la cabeza. Por ejemplo, una notificación de audio espacial puede representarse de manera que un usuario pueda percibir la ubicación de la señal de audio espacial como que emana del lado izquierdo de una pantalla montada en la cabeza para indicar que la notificación de audio espacial corresponde con un campo de visión que está a la izquierda de la pantalla montada en la cabeza.
En algunas circunstancias, un usuario puede desear que una pantalla montada en la cabeza provoque la visualización de una notificación visual en la pantalla montada en la cabeza. Por ejemplo, el usuario puede haber percibido una notificación no visual en respuesta a un evento, y una notificación visual puede proporcionar más información acerca del evento. Por ejemplo, una notificación de audio puede indicar que el usuario recibió un correo electrónico, y una notificación visual puede revelar desde quién era el correo electrónico. En circunstancias tales como estas, el usuario puede introducir una entrada de invocación de notificación visual. Por ejemplo, un usuario puede introducir una entrada de voz, una entrada táctil, una presión de botón y/o similares en respuesta a la percepción de una notificación no visual. Una entrada particular puede ser indicativa de una entrada de notificación visual. Una entrada de notificación visual puede hacer referencia a una entrada indicativa de un deseo del usuario para que una pantalla provoque la visualización de una notificación visual. En al menos una realización de ejemplo, un aparato determina que una entrada es una entrada de notificación visual. En al menos una realización de ejemplo, una pantalla montada en la cabeza recibe información indicativa de una entrada de invocación de notificación visual. En al menos una realización de ejemplo, un aparato provoca la visualización de una notificación visual en una pantalla montada en la cabeza en respuesta a una entrada de invocación de notificación visual.
Como se ha descrito anteriormente, una notificación no visual puede corresponder con una dirección de una región de información virtual de un campo de visión de una pantalla montada en la cabeza. En algunas circunstancias, puede representarse más de una notificación no visual. Por ejemplo, los eventos de región de información virtual pueden tener lugar en regiones de notificación visual diferentes. En circunstancias tales como estas, un usuario puede desear ver una notificación visual que es visualmente descriptiva de al menos un aspecto de una región de evento de información virtual particular. Un usuario puede indicar qué evento de región de información virtual desea ver el usuario de una notificación visual a través de una entrada particular. Por ejemplo, el usuario puede introducir una entrada de invocación de notificación visual que comprende una entrada táctil en una posición en la pantalla montada en la cabeza que corresponde con la dirección del campo de visión. Por ejemplo, si el usuario desea ver una notificación visual que es visualmente descriptiva de al menos un aspecto de un evento de región de información virtual con una ubicación de región de información virtual que está a la izquierda del campo de visión de la pantalla, el usuario puede introducir una entrada de invocación de notificación visual en un sensor táctil ubicado en el lado izquierdo de la pantalla montada en la cabeza. En otro ejemplo, si el usuario desea ver una notificación visual que es visualmente descriptiva de al menos un aspecto de un evento de región de información virtual con una ubicación de región de información virtual que está a la derecha del campo de visión de la pantalla, el usuario puede introducir una entrada de invocación de notificación visual en un sensor táctil ubicado en el lado derecho de la pantalla montada en la cabeza. Por ejemplo, el usuario puede introducir una entrada táctil tocando un sensor táctil montado en una sien derecha de una pantalla montada en la cabeza que comprende gafas. En al menos una realización de ejemplo, un aparato determina una notificación visual que es visualmente descriptiva de al menos un aspecto de un evento de región de información virtual en respuesta a una entrada de invocación de notificación visual. En al menos una realización de ejemplo, la entrada de invocación de notificación visual comprende una entrada táctil en una posición en la pantalla montada en la cabeza que corresponde con la dirección del campo de visión. En al menos una realización de ejemplo, la entrada de invocación de notificación visual comprende una entrada táctil en una posición de una notificación háptica representada en la posición en la pantalla montada en la cabeza. En al menos una realización de ejemplo, la entrada de invocación de notificación visual comprende una entrada táctil en una posición de una ubicación percibida de una señal de audio espacial en una pantalla montada en la cabeza.
La Figura 3E es un diagrama que ilustra una entrada táctil realizada en un sensor táctil comprendido por la pantalla 340. Debería entenderse que en el ejemplo de la Figura 3E la pantalla 340 es una pantalla montada en la cabeza que comprende gafas. Puede observarse que la entrada táctil de la Figura 3E es una entrada de deslizamiento desde la parte trasera de la sien derecha de la pantalla 340, a la parte frontal de la sien derecha de la pantalla 340. De esta manera, la entrada de deslizamiento del ejemplo de la Figura 3E comprende un movimiento introducido desde una posición en la pantalla montada en la cabeza hacia un campo de visión de la pantalla montada en la cabeza. Debería entenderse que la entrada táctil del ejemplo de la Figura 3E puede ser una entrada de invocación de notificación visual que comprende una entrada táctil en una posición en la pantalla 340 que corresponde con la dirección del campo de visión. Por ejemplo, la entrada táctil puede corresponder con una región de información virtual con una dirección hacia la derecha del campo de visión de la pantalla 340. En al menos una realización de ejemplo, una entrada de invocación de notificación visual comprende una entrada de movimiento de una posición en la pantalla montada en la cabeza hacia el campo de visión.
En algunas circunstancias, un aparato puede provocar la representación de una notificación no visual asociada a una región de información virtual y un usuario puede no introducir una entrada de invocación de notificación visual de una manera oportuna. Esto puede indicar que el usuario no desea ver una notificación visual. En circunstancias tales como estas, puede ser deseable que el aparato espere durante una duración umbral (por ejemplo 5 segundos, 20 segundos, y/o similares) después de la cual el aparato no determinará una notificación visual. Una duración umbral de este tipo puede denominarse como una duración umbral de espera de entrada. De esta manera, si el usuario introduce una entrada de notificación visual después de la duración umbral, el aparato puede determinar que la entrada de notificación visual puede no corresponder con la notificación no visual. En al menos una realización de ejemplo, un aparato determina que una duración umbral ha fallado al transcurrir entre la representación de una notificación no visual y la entrada de invocación de notificación visual. En al menos una realización de ejemplo, la determinación de la notificación visual está basada, al menos en parte, en la determinación de que la duración umbral ha fallado al transcurrir entre la representación de la notificación no visual y la entrada de invocación de notificación visual. En al menos una realización de ejemplo, una duración umbral es una duración umbral de espera de entrada.
En algunas circunstancias, un aparato puede provocar la representación de una notificación asociada a una región de información virtual, y el aparato puede provocar la representación de una notificación diferente asociada a una región de información virtual diferente antes de que un usuario responda a la notificación asociada a la región de información virtual. Por ejemplo, un evento de región de información virtual puede haber tenido lugar asociado a la región de información virtual, y un evento de región de información virtual diferente puede haber tenido lugar asociado a la región de información virtual diferente. En circunstancias tales como estas, el usuario puede desear introducir una entrada de invocación de notificación visual posterior a la representación de la notificación y a la notificación diferente para invocar una notificación visual asociada al primer evento de región de información virtual. En circunstancias donde la región de información virtual y la información virtual diferente tienen una dirección diferente del campo de visión de la pantalla montada en la cabeza, el aparato puede representar las notificaciones indicativas de las direcciones, similares como se ha descrito anteriormente. De esta manera, el usuario puede introducir la entrada de invocación de notificación visual de una manera que selecciona la región de información virtual en lugar de la región de información virtual diferente. Por ejemplo, si la pantalla montada en la cabeza es similar como se describe con respecto a la Figura 3E, el usuario puede introducir una entrada táctil en el lado izquierdo de la pantalla en circunstancias donde la región de información virtual está a la izquierda del campo de visión, y la región de información virtual diferente está en la derecha del campo de visión. De esta manera, la entrada de invocación de notificación visual corresponde con el evento de región de información virtual, y la determinación de la notificación visual puede realizarse en respuesta a la determinación de que la entrada de invocación de notificación visual corresponde con el evento de región de información virtual.
En algunas circunstancias, puede ser deseable terminar la visualización de una notificación visual. Por ejemplo, un usuario puede ya no desear visualizar la notificación visual, el usuario puede haber detenido la visualización de la notificación visual, una duración umbral de visualización puede haber transcurrido después de la visualización de la notificación visual y/o similares. En al menos una realización de ejemplo, un aparato provoca la terminación de la visualización de una notificación visual.
Como se ha descrito anteriormente, un usuario puede ya no desear ver una notificación visual. En circunstancias tales como estas, puede ser deseable que una pantalla montada en la cabeza esté visualizando la notificación para recibir una indicación del usuario que el usuario ya no desea ver la notificación. De esta manera, la pantalla montada en la cabeza puede terminar la visualización de la notificación. Un usuario puede realizar, por ejemplo, una entrada de terminación de notificación para indicar el deseo del usuario para que la pantalla montada en la cabeza termine la visualización de la notificación. Por ejemplo, un usuario puede introducir una entrada de voz, una entrada táctil, una presión de botón y/o similares para indicar al usuario que ya no desea ver una notificación visual. Una entrada particular puede ser indicativa de una entrada de terminación de notificación. En al menos una realización de ejemplo, una pantalla montada en la cabeza recibe una información indicativa de una entrada de terminación de notificación. En al menos una realización de ejemplo, la terminación de la visualización de la notificación visual se realiza en respuesta a la entrada de terminación de notificación.
La Figura 3F es un diagrama que ilustra una entrada táctil realizada en un sensor táctil comprendido por la pantalla 360. Debería entenderse que en el ejemplo de la Figura 3F la pantalla 360 es una pantalla montada en la cabeza que comprende gafas. Puede observarse que la entrada táctil de la Figura 3F es una entrada de deslizamiento desde la parte delantera de la sien derecha de la pantalla 360, a la parte trasera de la sien derecha de la pantalla 360. De esta manera, la entrada de deslizamiento del ejemplo de la Figura 3F comprende un movimiento introducido desde una posición en la pantalla montada en la cabeza lejos de un campo de visión de la pantalla montada en la cabeza. Debería entenderse que la entrada táctil del ejemplo de la Figura 3F puede ser una entrada de terminación de notificación que comprende una entrada táctil en una posición en la pantalla 360 que corresponde con la dirección del campo de visión. Por ejemplo, la entrada táctil puede corresponder con una región de información virtual con una dirección hacia la derecha del campo de visión de la pantalla 360. En al menos una realización de ejemplo, una entrada de terminación de notificación comprende una entrada de movimiento de una posición en la pantalla montada en la cabeza lejos del campo de visión.
Como se ha descrito anteriormente, puede ser deseable terminar la visualización de una notificación visual cuando ha transcurrido una duración umbral de visualización después de la visualización de la notificación visual. Por ejemplo, un ajuste puede indicar que una notificación visual debe visualizarse únicamente durante una cantidad predeterminada de tiempo (por ejemplo, 5 segundos, 10 segundos, etc.). En al menos una realización de ejemplo, un aparato determina que ha transcurrido una duración umbral posterior a la visualización de una notificación visual. En al menos una realización de ejemplo, la terminación de la visualización de la notificación visual se realiza en respuesta a la determinación de que ha transcurrido la duración umbral. En al menos una realización de ejemplo, una duración umbral es una duración umbral de visualización.
Como se ha descrito anteriormente, un usuario puede haber detenido la visualización de una notificación visual. Por ejemplo, el usuario pude reanudar la visualización de otra información que se visualizó previamente en una pantalla montada en la cabeza después de visualizar una notificación visual. En circunstancias tales como estas, puede ser deseable que el aparato determine que el usuario ya no está viendo la notificación visual. Por ejemplo, después de que el usuario deja de visualizar la notificación durante un periodo de tiempo predeterminado, el aparato puede provocar la terminación de la visualización de la notificación visual. El aparato puede determinar que un usuario ya no está viendo una notificación por medio del seguimiento de la mirada, similar a como se ha descrito anteriormente. En al menos una realización de ejemplo, un aparato determina, que una mirada del usuario falla al corresponder con la notificación durante una duración umbral. En al menos una realización de ejemplo, la terminación de la visualización de la notificación visual se realiza en respuesta a la determinación de que la mirada del usuario falla al corresponder con la notificación durante la duración umbral.
En algunas circunstancias, un usuario puede desear ver información asignada a una región de información virtual que está más allá del campo de visión de una pantalla montada en la cabeza. Por ejemplo, el usuario puede haber percibido una notificación de un evento de región de información virtual asociada a una región de información virtual que está más allá del campo de visión de la pantalla montada en la cabeza. En circunstancias tales como estas, el usuario puede desear cambiar la ubicación de región de información virtual a una ubicación de región de información virtual diferente que está dentro del campo de visión de la pantalla montada en la cabeza. De esta manera, el usuario puede ver la información sin cambiar el campo de visión de la pantalla montada en la cabeza. En circunstancias tales como estas, puede ser deseable que la pantalla montada en la cabeza reciba una notificación del intento del usuario para cambiar una ubicación de región de información virtual a una ubicación de región de información virtual diferente. Por ejemplo, un usuario puede introducir una entrada de selección de notificación visual. Por ejemplo, un usuario puede introducir una entrada de voz, una entrada táctil, una presión de botón y/o similares para indicar que el usuario desea cambiar una ubicación de región de información virtual a una ubicación de región de información virtual diferente. Una entrada particular puede ser indicativa de una entrada de selección de notificación visual. En al menos una realización de ejemplo, una pantalla montada en la cabeza recibe información indicativa de una entrada de selección de notificación. En al menos una realización de ejemplo, un aparato cambia una ubicación de región de información virtual de una región de información virtual a una ubicación de región de información virtual diferente que está dentro del campo de visión de una pantalla montada en la cabeza en respuesta a la entrada de selección de notificación visual. En al menos una realización de ejemplo, la entrada de selección de notificación visual es una entrada de doble toque en el lateral de la pantalla montada en la cabeza.
La Figura 3G es un diagrama que ilustra el campo de visión 302 de la Figura 3A, que comprende adicionalmente la visualización de la información 320. En el ejemplo de la Figura 3G, la información 320 puede ser representativa de la información que se asignó previamente a una región de información virtual que tiene una ubicación de región de imagen virtual más allá del campo de visión 302 en el ejemplo de la Figura 3A. Por ejemplo, la información 320 puede haberse asignado previamente a una región de información virtual que tiene una ubicación de región de información virtual que corresponde con la región 314 de la Figura 3B. Un usuario de una pantalla montada en la cabeza puede haber introducido una entrada de selección de notificación visual (por ejemplo, en respuesta a la percepción de una notificación de un evento de región de información virtual asociada a la información 320), y la pantalla montada en la cabeza puede haber cambiado la ubicación de región de información virtual anterior a la que se asignó la información 320 a la ubicación de región de información virtual actual de la información 320. De esta manera, un usuario de la pantalla montada en la cabeza puede ver la información 320 mientras que la pantalla montada en la cabeza mantiene el campo de visión 302. Como tal, en el ejemplo de la Figura 3G, ambas de las informaciones 304 y 320 son al menos parcialmente visibles cuando la pantalla montada en la cabeza tiene el campo de visión 302.
En algunas circunstancias, un usuario puede ya no desear ver información asignada a una región de información virtual que está dentro del campo de visión de una pantalla montada en la cabeza, el usuario puede haber detenido la visualización de la información, puede haber transcurrido una duración umbral de visualización después de la visualización de la información y/o similares. En circunstancias tales como estas, la información puede haberse asignado previamente a una región de información virtual más allá del campo de visión de la pantalla montada en la cabeza. Por ejemplo, un usuario puede tener asignada temporalmente la información a la ubicación de región de información virtual actual para percibir rápidamente la información que de otra manera requeriría que el usuario girara su cabeza, y puede desear revertir la asignación a la ubicación de región de información virtual anterior después de que se haya visualizado la información. De esta manera, el usuario puede percibir rápidamente la información que requeriría de otra manera que el usuario girara su cabeza, se moviera a una habitación diferente y/o similares. En estas circunstancias, puede ser deseable revertir la ubicación de región de información virtual actual de la región de información virtual a la que está asignada tal información a la ubicación de región de información virtual anterior a la que se asignó la información. De esta manera, la pantalla montada en la cabeza puede dejar de realizar la visualización de la información del campo actual de la vista.
Por ejemplo, en el ejemplo de la Figura 3G, un usuario puede ya no desear ver la información 320, puede haber transcurrido una duración umbral después de la recepción de una entrada de selección de notificación visual que estableció la ubicación de región de información virtual actual de la región de información virtual a la que está asignada la información 320 y/o similares. Como se ha descrito en un ejemplo anterior, la información 320 puede haberse asignado previamente a una región de información virtual que tiene una ubicación de región de información virtual que corresponde con la región 314 de la Figura 3B. La ubicación de región de información virtual actual de la información 320 puede revertirse a la ubicación de región de información virtual anterior. De esta manera, la pantalla montada en la cabeza dejará de visualizar la información 320 cuando la pantalla montada en la cabeza tenga el campo de visión 302, similar como se ilustra en el ejemplo de la Figura 3A. En al menos una realización de ejemplo, un aparato determina que ha transcurrido una duración umbral posterior a la recepción de una entrada de selección de notificación visual. En al menos una realización de ejemplo, un aparato se revierte de una ubicación de región de información virtual actual de la región de información virtual a la ubicación de región de información virtual anterior en respuesta a la determinación de que ha transcurrido la duración umbral.
La Figura 4 es un diagrama de flujo que ilustra actividades asociadas a la representación de una notificación en una pantalla montada en la cabeza de acuerdo con al menos una realización de ejemplo. En al menos una realización de ejemplo, hay un conjunto de operaciones que corresponde con las actividades de la Figura 4. Un aparato, por ejemplo aparato electrónico 10 de la Figura 1, o una porción del mismo, puede utilizar el conjunto de operaciones. El aparato puede comprender medios, que incluyen, por ejemplo, el procesador 11 de la Figura 1, para la realización de tales operaciones. En una realización de ejemplo, un aparato, por ejemplo, aparato electrónico 10 de la Figura 1, se transforma teniendo memoria, por ejemplo, la memoria 12 de la Figura 1, que comprende código informático configurado para, funcionando con un procesador, por ejemplo el procesador 11 de la Figura 1, provocar que el aparato realice el conjunto de operaciones de la Figura 4.
Como se ha descrito anteriormente, en algunas circunstancias, puede ser deseable visualizar una notificación visual en una pantalla montada en la cabeza.
En el bloque 402, el aparato determina la ocurrencia de un evento de región de información virtual. En al menos una realización de ejemplo, el evento de región de información virtual indica un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá de un campo de visión de una pantalla montada en la cabeza. En al menos una realización de ejemplo, la región de información virtual tiene una ubicación de región de información virtual que está en una dirección del campo de visión. La determinación, el evento de región de información virtual, el cambio de información, la región de información virtual, el campo de visión, la pantalla montada en la cabeza, la ubicación de región de información virtual, y la dirección del campo de visión pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 404, en respuesta al evento de región de información virtual, el aparato provoca la representación de una notificación no visual que es indicativa de la dirección del campo de visión. La representación y la notificación no visual pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3f .
En el bloque 406, el aparato recibe información indicativa de una entrada de invocación de notificación visual. La recepción y la entrada de invocación de notificación visual pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 408, en respuesta a la entrada de invocación de notificación visual, el aparato determina una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual. La determinación y la notificación visual pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 410, el aparato provoca la visualización de la notificación visual en la pantalla montada en la cabeza. La provocación de la visualización puede ser similar como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
La Figura 5 es un diagrama de flujo que ilustra actividades asociadas a la recepción de una entrada de notificación visual de acuerdo con al menos una realización de ejemplo. En al menos una realización de ejemplo, hay un conjunto de operaciones que corresponde con las actividades de la Figura 5. Un aparato, por ejemplo aparato electrónico 10 de la Figura 1, o una porción del mismo, puede utilizar el conjunto de operaciones. El aparato puede comprender medios, que incluyen, por ejemplo, el procesador 11 de la Figura 1, para la realización de tales operaciones. En una realización de ejemplo, un aparato, por ejemplo, aparato electrónico 10 de la Figura 1, se transforma teniendo memoria, por ejemplo, la memoria 12 de la Figura 1, que comprende código informático configurado para, funcionando con un procesador, por ejemplo el procesador 11 de la Figura 1, provocar que el aparato realice el conjunto de operaciones de la Figura 5.
Como se ha descrito anteriormente, en algunas circunstancias, un aparato puede recibir una entrada. Como se ha descrito anteriormente, en algunas circunstancias, puede ser deseable determinar si la entrada es una entrada de notificación visual.
En el bloque 502, el aparato determina la ocurrencia de un evento de región de información virtual, de manera similar como se describe con respecto al bloque 402 de la Figura 4. En al menos una realización de ejemplo, el evento de región de información virtual indica un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá de un campo de visión de una pantalla montada en la cabeza. En al menos una realización de ejemplo, la región de información virtual tiene una ubicación de región de información virtual que está en una dirección del campo de visión. En el bloque 504, el aparato provoca la representación de una notificación no visual que es indicativa de la dirección del campo de visión, de manera similar como se describe con respecto al bloque 404 de la Figura 4.
En el bloque 506, el aparato recibe información indicativa de una entrada. La recepción y la entrada pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 508, el aparato determina si la entrada es una entrada de invocación de notificación visual. Si el aparato determina que la entrada es una entrada de invocación de notificación visual, el flujo continúa al bloque 508. Si el aparato determina que la entrada falla al ser una entrada de invocación de notificación visual, el flujo continúa al bloque 515. La determinación y la entrada de invocación de notificación visual pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 510, el aparato determina una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual, de manera similar como se describe con respecto al bloque 408 de la Figura 4. En el bloque 512, el aparato provoca la visualización de la notificación visual en la pantalla montada en la cabeza, de manera similar como se describe con respecto al bloque 410 de la Figura 4. En el bloque 514, el aparato impide la determinación de una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual. La determinación, la notificación visual, y el evento de región de información virtual pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
La Figura 6 es un diagrama de flujo que ilustra actividades asociadas a la terminación de la visualización de una notificación visual de acuerdo con al menos una realización de ejemplo. En al menos una realización de ejemplo, hay un conjunto de operaciones que corresponde con las actividades de la Figura 6. Un aparato, por ejemplo aparato electrónico 10 de la Figura 1, o una porción del mismo, puede utilizar el conjunto de operaciones. El aparato puede comprender medios, que incluyen, por ejemplo, el procesador 11 de la Figura 1, para la realización de tales operaciones. En una realización de ejemplo, un aparato, por ejemplo, aparato electrónico 10 de la Figura 1, se transforma teniendo memoria, por ejemplo, la memoria 12 de la Figura 1, que comprende código informático configurado para, funcionando con un procesador, por ejemplo el procesador 11 de la Figura 1, provocar que el aparato realice el conjunto de operaciones de la Figura 6.
Como se ha descrito anteriormente, en algunas circunstancias puede ser deseable terminar la visualización de una notificación visual.
En el bloque 602, el aparato determina la ocurrencia de un evento de región de información virtual, de manera similar como se describe con respecto al bloque 402 de la Figura 4. En al menos una realización de ejemplo, el evento de región de información virtual indica un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá de un campo de visión de una pantalla montada en la cabeza. En al menos una realización de ejemplo, la región de información virtual tiene una ubicación de región de información virtual que está en una dirección del campo de visión. En el bloque 604, el aparato provoca la representación de una notificación no visual que es indicativa de la dirección del campo de visión, de manera similar como se describe con respecto al bloque 404 de la Figura 4. En el bloque 606, el aparato recibe información indicativa de una entrada de invocación de notificación visual, de manera similar como se describe con respecto al bloque 406 de la Figura 4. En el bloque 608, el aparato determina una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual, de manera similar como se describe con respecto al bloque 408 de la Figura 4. En el bloque 610, el aparato provoca la visualización de la notificación visual en la pantalla montada en la cabeza, de manera similar como se describe con respecto al bloque 410 de la Figura 4.
En el bloque 612, el aparato determina que ha transcurrido una duración umbral. La determinación y la duración umbral pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 614, en respuesta a la determinación de que ha transcurrido la duración umbral, el aparato termina la visualización de la notificación visual. La terminación puede ser similar como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
La Figura 7 es un diagrama de flujo que ilustra actividades asociadas a la recepción de una entrada de selección de notificación visual de acuerdo con al menos una realización de ejemplo. En al menos una realización de ejemplo, hay un conjunto de operaciones que corresponde con las actividades de la Figura 7. Un aparato, por ejemplo aparato electrónico 10 de la Figura 1, o una porción del mismo, puede utilizar el conjunto de operaciones. El aparato puede comprender medios, que incluyen, por ejemplo, el procesador 11 de la Figura 1, para la realización de tales operaciones. En una realización de ejemplo, un aparato, por ejemplo, aparato electrónico 10 de la Figura 1, se transforma teniendo memoria, por ejemplo, la memoria 12 de la Figura 1, que comprende código informático configurado para, funcionando con un procesador, por ejemplo el procesador 11 de la Figura 1, provocar que el aparato realice el conjunto de operaciones de la Figura 7.
Como se ha descrito anteriormente, en algunas circunstancias, un aparato puede recibir una entrada de selección de notificación visual. Como se ha descrito anteriormente, en circunstancias tales como estas, puede ser deseable cambiar una ubicación de región de información virtual a una ubicación de región de información virtual diferente.
En el bloque 702, el aparato determina la ocurrencia de un evento de región de información virtual, de manera similar como se describe con respecto al bloque 402 de la Figura 4. En al menos una realización de ejemplo, el evento de región de información virtual indica un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá de un campo de visión de una pantalla montada en la cabeza. En al menos una realización de ejemplo, la región de información virtual tiene una ubicación de región de información virtual que está en una dirección del campo de visión. En el bloque 704, el aparato provoca la representación de una notificación no visual que es indicativa de la dirección del campo de visión, de manera similar como se describe con respecto al bloque 404 de la Figura 4. En el bloque 706, el aparato recibe información indicativa de una entrada de invocación de notificación visual, de manera similar como se describe con respecto al bloque 406 de la Figura 4. En el bloque 708, el aparato determina una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual, de manera similar como se describe con respecto al bloque 408 de la Figura 4. En el bloque 710, el aparato provoca la visualización de la notificación visual en la pantalla montada en la cabeza, de manera similar como se describe con respecto al bloque 410 de la Figura 4.
En el bloque 712, el aparato recibe información indicativa de una entrada de selección de notificación visual. La recepción y la entrada de selección de notificación visual pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 714, en respuesta a la entrada de selección de notificación visual, el aparato cambia la ubicación de región de información virtual de la región de información virtual a una ubicación de región de información virtual diferente que está dentro del campo de visión. El cambio y la ubicación de región de información virtual diferente pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
La Figura 8 es un diagrama de flujo que ilustra actividades asociadas a la reversión de una ubicación de región de información virtual de acuerdo con al menos una realización de ejemplo. En al menos una realización de ejemplo, hay un conjunto de operaciones que corresponde con las actividades de la Figura 8. Un aparato, por ejemplo aparato electrónico 10 de la Figura 1, o una porción del mismo, puede utilizar el conjunto de operaciones. El aparato puede comprender medios, que incluyen, por ejemplo, el procesador 11 de la Figura 1, para la realización de tales operaciones. En una realización de ejemplo, un aparato, por ejemplo, aparato electrónico 10 de la Figura 1, se transforma teniendo memoria, por ejemplo, la memoria 12 de la Figura 1, que comprende código informático configurado para, funcionando con un procesador, por ejemplo el procesador 11 de la Figura 1, provocar que el aparato realice el conjunto de operaciones de la Figura 8.
Como se ha descrito anteriormente, en algunas circunstancias, puede ser deseable cambiar la ubicación de región de información virtual de una región de información virtual a una ubicación de región de información virtual diferente. Como se ha descrito anteriormente, en algunas circunstancias puede ser deseable revertir de la ubicación de región de información virtual diferente de la región de información virtual a la ubicación de región de información virtual.
En el bloque 802, el aparato determina la ocurrencia de un evento de región de información virtual, de manera similar como se describe con respecto al bloque 402 de la Figura 4. En al menos una realización de ejemplo, el evento de región de información virtual indica un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá de un campo de visión de una pantalla montada en la cabeza. En al menos una realización de ejemplo, la región de información virtual tiene una ubicación de región de información virtual que está en una dirección del campo de visión. En el bloque 804, el aparato provoca la representación de una notificación no visual que es indicativa de la dirección del campo de visión, de manera similar como se describe con respecto al bloque 404 de la Figura 4. En el bloque 806, el aparato recibe información indicativa de una entrada de invocación de notificación visual, de manera similar como se describe con respecto al bloque 406 de la Figura 4. En el bloque 808, el aparato determina una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual, de manera similar como se describe con respecto al bloque 408 de la Figura 4. En el bloque 810, el aparato provoca la visualización de la notificación visual en la pantalla montada en la cabeza, de manera similar como se describe con respecto al bloque 410 de la Figura 4. En el bloque 812, el aparato recibe información indicativa de una entrada de selección de notificación visual de manera similar como se describe con respecto al bloque 712 de la Figura 7. En el bloque 814, el aparato cambia la ubicación de región de información virtual de la región de información virtual a una ubicación de región de información virtual diferente que está dentro del campo de visión de manera similar como se describe con respecto al bloque 714 de la Figura 7.
En el bloque 816, el aparato determina que ha transcurrido una duración umbral. La determinación y la duración umbral pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 818, en respuesta a la determinación de que ha transcurrido la duración umbral, el aparato se revierte de la ubicación de región de información virtual diferente de la región de información virtual a la ubicación de región de información virtual. La determinación puede ser similar como se ha descrito con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
La Figura 9 es un diagrama de flujo que ilustra actividades asociadas a la determinación de que una entrada de notificación visual corresponde con un evento de región de información virtual de acuerdo con al menos una realización de ejemplo. En al menos una realización de ejemplo, hay un conjunto de operaciones que corresponde con las actividades de la Figura 9. Un aparato, por ejemplo aparato electrónico 10 de la Figura 1, o una porción del mismo, puede utilizar el conjunto de operaciones. El aparato puede comprender medios, que incluyen, por ejemplo, el procesador 11 de la Figura 1, para la realización de tales operaciones. En una realización de ejemplo, un aparato, por ejemplo, aparato electrónico 10 de la Figura 1, se transforma teniendo memoria, por ejemplo, la memoria 12 de la Figura 1, que comprende código informático configurado para, funcionando con un procesador, por ejemplo el procesador 11 de la Figura 1, provocar que el aparato realice el conjunto de operaciones de la Figura 9.
Como se ha descrito anteriormente, en algunas circunstancias, una entrada de notificación visual puede corresponder con una región de información virtual particular.
En el bloque 902, el aparato determina la ocurrencia de un evento de región de información virtual, de manera similar como se describe con respecto al bloque 402 de la Figura 4. En al menos una realización de ejemplo, el evento de región de información virtual indica un cambio de información que está asignado a una región de información virtual que está al menos parcialmente más allá de un campo de visión de una pantalla montada en la cabeza. En al menos una realización de ejemplo, la región de información virtual tiene una ubicación de región de información virtual que está en una dirección del campo de visión. En el bloque 904, el aparato provoca la representación de una notificación no visual que es indicativa de la dirección del campo de visión, de manera similar como se describe con respecto al bloque 404 de la Figura 4.
En el bloque 906, el aparato determina la ocurrencia de un evento de región de información virtual diferente. En al menos una realización de ejemplo, el evento de región de información virtual diferente indica un cambio de información que está asignado a una región de información virtual diferente que está al menos parcialmente más allá del campo de visión. En al menos una realización de ejemplo, la región de información virtual diferente tiene una ubicación de región de información virtual diferente que está en una dirección diferente del campo de visión. La determinación, el evento de región de información virtual diferente, el cambio de información, la región de información virtual diferente, y la dirección diferente pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 908, en respuesta al evento de región de información virtual diferente, el aparato provoca la representación de una notificación no visual diferente que es indicativa de la dirección diferente del campo de visión. La representación y la notificación no visual diferente pueden ser similares como se describe con respecto a las Figuras 2A-2E y a las Figuras 3A-3F. En el bloque 910, el aparato recibe información indicativa de una entrada de invocación de notificación visual, de manera similar como se describe con respecto al bloque 406 de la Figura 4.
En el bloque 912, el aparato determina que la entrada de invocación de notificación visual corresponde con el evento de región de información virtual. La determinación puede ser similar como se ha descrito con respecto a las Figuras 2A-2E y a las Figuras 3A-3F.
En el bloque 914, en respuesta a la determinación de que la entrada de invocación de notificación visual corresponde con el evento de región de información virtual, el aparato determina una notificación visual que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual, de manera similar como se describe con respecto al bloque 408 de la Figura 4. En el bloque 916, el aparato provoca la visualización de la notificación visual en la pantalla montada en la cabeza, de manera similar como se describe con respecto al bloque 410 de la Figura 4.
Una o más realizaciones de ejemplo pueden implementarse en software, hardware, lógica de aplicación o una combinación de software, hardware, y lógica de aplicación. El software, lógica de aplicación y/o hardware pueden residir en el aparato, un dispositivo separado, o una pluralidad de dispositivos separados. Si se desea, parte del software, lógica de aplicación y/o hardware puede residir en el aparato, parte del software, lógica de aplicación y/o hardware pueden residir en un dispositivo separado, y parte del software, lógica de aplicación y/o hardware puede residir en una pluralidad de dispositivos separados. En una realización de ejemplo, la lógica de aplicación, software o un conjunto de instrucciones se mantienen en uno cualquiera de diversos medios legibles por ordenador.
Si se desea, las diferentes funciones analizadas en el presente documento pueden realizarse en un orden diferente y/o de manera concurrente entre sí. Por ejemplo, el bloque 710 de la Figura 7 puede realizarse después del bloque 712 de la Figura 7. Adicionalmente, si se desea, una o más de las funciones anteriormente descritas pueden ser opcionales o combinarse. Por ejemplo, el bloque 708 de la Figura 7 puede ser opcional y/o combinarse con el bloque 710 de la Figura 7.
Aunque se exponen diversos aspectos de la materia objeto de la presente divulgación en las reivindicaciones independientes, otros aspectos de la materia objeto de la presente divulgación comprenden otras combinaciones de características de las realizaciones de ejemplo descritas y/o de las reivindicaciones dependientes con las características de las reivindicaciones independientes, y no solamente las combinaciones explícitamente expuestas en las reivindicaciones, que definen el alcance de la invención.
Se observa también en el presente documento que mientras que lo anterior describe realizaciones de ejemplo, estas descripciones no deberían observarse en un sentido limitante. En su lugar, hay variaciones y modificaciones que pueden realizarse sin alejarse del alcance de la materia objeto de la presente divulgación.

Claims (13)

REIVINDICACIONES
1. Un método que comprende:
determinar (702, 802) la ocurrencia de un evento de región de información virtual, indicando el evento de región de información virtual un cambio de información que está asignado a una región de información virtual (312, 314, 316, 318) que está al menos parcialmente más allá de un campo de visión (308A) de una pantalla montada en la cabeza (252, 262), teniendo la región de información virtual (312, 314, 316, 318) una ubicación de región de información virtual que está en una dirección del campo de visión (308A);
provocar la representación (704, 804) de una notificación no visual que es indicativa de la dirección del campo de visión (308A) en respuesta al evento de región de información virtual;
recibir (706, 806) información indicativa de una entrada de invocación de notificación visual que es introducida por un usuario (210, 230, 308);
determinar (708, 808) una notificación visual (314B) que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual en respuesta a la entrada de invocación de notificación visual; provocar (710, 810) la visualización de la notificación visual en la pantalla montada en la cabeza (252, 262); recibir (712, 812) información indicativa de una entrada de selección de notificación visual introducida por el usuario; y
cambiar la ubicación de región de información virtual de la región de información virtual (312, 314, 316, 318) a una ubicación de región de información virtual diferente que está dentro del campo de visión (308A) en respuesta a la entrada de selección de notificación visual.
2. El método de la reivindicación 1, en el que la causa de la representación de la notificación no visual se produce en ausencia de la visualización de cualquier notificación visual indicativa del evento de región de información virtual.
3. El método de cualquiera de las reivindicaciones 1-2, en el que la notificación no visual es una notificación háptica.
4. El método de la reivindicación 3, en el que la representación de la notificación háptica comprende el accionamiento de al menos un dispositivo de salida háptica que está en una posición en la pantalla montada en la cabeza (252, 262) que corresponde con la dirección del campo de visión (308A).
5. El método de cualquiera de las reivindicaciones 1-4, en el que la notificación no visual es una notificación de audio espacial.
6. El método de la reivindicación 5, en el que la representación de la notificación de audio espacial comprende la representación de una señal de audio espacial de manera que una ubicación percibida de la señal de audio espacial se corresponde con la dirección del campo de visión (308A).
7. El método de cualquiera de las reivindicaciones 1-6, que comprende adicionalmente la terminación (614) de la visualización de la notificación visual.
8. El método de la reivindicación 7, que comprende adicionalmente determinar (612) que ha transcurrido una duración umbral posterior a la visualización de la notificación visual, en donde la terminación (614) de la visualización de la notificación visual se realiza en respuesta a la determinación de que ha transcurrido la duración umbral.
9. El método de cualquiera de las reivindicaciones 1-8, que comprende adicionalmente:
determinar (816) que ha transcurrido una duración umbral posterior a la recepción de la entrada de selección de notificación visual; y
revertir (818) de la ubicación de región de información virtual diferente de la región de información virtual a la ubicación de región de información virtual en respuesta a la determinación de que ha transcurrido la duración umbral.
10. El método de cualquiera de las reivindicaciones 1-9, que comprende adicionalmente:
antes de la recepción de la información indicativa de la entrada de invocación de notificación visual, determinar (906) la ocurrencia de un evento de región de información virtual diferente, indicando el evento de región de información virtual diferente un cambio de información que está asignado a una región de información virtual diferente que está al menos parcialmente más allá del campo de visión, teniendo la región de información virtual diferente una ubicación de región de información virtual diferente que está en una dirección diferente del campo de visión;
antes de la recepción de la información indicativa de la entrada de invocación de notificación visual, provocar la representación (908) de una notificación no visual diferente que es indicativa de la dirección diferente del campo de visión (308A) en respuesta al evento de región de información virtual diferente; y
determinar (912) que la entrada de invocación de notificación visual se corresponde con el evento de región de información virtual, en donde la determinación de la notificación visual se realiza en respuesta a la determinación de que la entrada de invocación de notificación visual se corresponde con el evento de región de información virtual.
11. Un aparato (10) que comprende medios para:
determinar (702, 802) la ocurrencia de un evento de región de información virtual, indicando el evento de región de información virtual un cambio de información que está asignado a una región de información virtual (312, 314, 316, 318) que está al menos parcialmente más allá de un campo de visión (308A) de una pantalla montada en la cabeza (252, 262), teniendo la región de información virtual (312, 314, 316, 318) una ubicación de región de información virtual que está en una dirección del campo de visión (308A);
provocar la representación (704, 804) de una notificación no visual que es indicativa de la dirección del campo de visión (308A) en respuesta al evento de región de información virtual;
recibir (706, 806) información indicativa de una entrada de invocación de notificación visual que es introducida por un usuario (210, 230, 308);
determinar (708, 808) una notificación visual (314B) que es visualmente descriptiva de al menos un aspecto del evento de región de información virtual en respuesta a la entrada de invocación de notificación visual; provocar (710, 810) la visualización de la notificación visual en la pantalla montada en la cabeza (252, 262); recibir (712, 812) información indicativa de una entrada de selección de notificación visual introducida por el usuario; y
cambiar la ubicación de región de información virtual de la región de información virtual (312, 314, 316, 318) a una ubicación de región de información virtual diferente que está dentro del campo de visión (308A) en respuesta a la entrada de selección de notificación visual.
12. El aparato (10) de la reivindicación 11, en el que los medios comprenden al menos un procesador (11) y al menos una memoria (12), comprendiendo la memoria (12) instrucciones legibles por máquina, que cuando se ejecutan por el al menos un procesador (11) provocan que el aparato (10) realice el método de cualquiera de las reivindicaciones 1­ 10.
13. Al menos un medio legible por ordenador que comprende instrucciones que, cuando se ejecutan por un procesador, realizan el método de cualquiera de las reivindicaciones 1-10.
ES15169525T 2015-05-28 2015-05-28 Representación de una notificación en una pantalla montada en la cabeza Active ES2778935T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP15169525.1A EP3098690B1 (en) 2015-05-28 2015-05-28 Rendering of a notification on a head mounted display

Publications (1)

Publication Number Publication Date
ES2778935T3 true ES2778935T3 (es) 2020-08-12

Family

ID=53396208

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15169525T Active ES2778935T3 (es) 2015-05-28 2015-05-28 Representación de una notificación en una pantalla montada en la cabeza

Country Status (4)

Country Link
US (1) US10459226B2 (es)
EP (1) EP3098690B1 (es)
ES (1) ES2778935T3 (es)
WO (1) WO2016189204A1 (es)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2778935T3 (es) * 2015-05-28 2020-08-12 Nokia Technologies Oy Representación de una notificación en una pantalla montada en la cabeza
EP3113470B1 (en) * 2015-07-02 2020-12-16 Nokia Technologies Oy Geographical location visual information overlay
WO2017036953A1 (en) * 2015-09-02 2017-03-09 Thomson Licensing Method, apparatus and system for facilitating navigation in an extended scene
US9584653B1 (en) * 2016-04-10 2017-02-28 Philip Scott Lyren Smartphone with user interface to externally localize telephone calls
KR20170126295A (ko) * 2016-05-09 2017-11-17 엘지전자 주식회사 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
US10585480B1 (en) 2016-05-10 2020-03-10 Apple Inc. Electronic device with an input device having a haptic engine
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US10339900B2 (en) * 2017-01-04 2019-07-02 International Business Machines Corporation Remediating interference of an instance of a visual notification with an output of an application on a display device
US20180373325A1 (en) * 2017-06-22 2018-12-27 Immersion Corporation Haptic dimensions in a variable gaze orientation virtual environment
EP3422744B1 (en) 2017-06-30 2021-09-29 Nokia Technologies Oy An apparatus and associated methods
KR102582961B1 (ko) * 2018-03-28 2023-09-26 삼성전자주식회사 디스플레이를 보호하는 웨어러블 장치 및 그 방법
US10966007B1 (en) * 2018-09-25 2021-03-30 Apple Inc. Haptic output system
US10602302B1 (en) * 2019-02-06 2020-03-24 Philip Scott Lyren Displaying a location of binaural sound outside a field of view
CN112423190A (zh) * 2019-08-20 2021-02-26 苹果公司 用于头戴式设备的基于音频的反馈
US11347312B1 (en) * 2019-09-23 2022-05-31 Apple Inc. Ultrasonic haptic output devices
US10824390B1 (en) * 2019-09-24 2020-11-03 Facebook Technologies, Llc Methods and system for adjusting level of tactile content when presenting audio content
US10970036B1 (en) * 2019-09-24 2021-04-06 Facebook Technologies, Llc Methods and system for controlling tactile content
US11733789B1 (en) * 2019-09-30 2023-08-22 Snap Inc. Selectively activating a handheld device to control a user interface displayed by a wearable device
US11024135B1 (en) 2020-06-17 2021-06-01 Apple Inc. Portable electronic device having a haptic button assembly
EP4182777A1 (en) * 2020-07-15 2023-05-24 InterDigital VC Holdings, Inc. Closed-loop extended reality stimulus presentation and perception feedback using multi-channel physiological signals

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112010001366T5 (de) * 2009-03-20 2012-10-11 Magna International Inc. Radaufhängungsarm/-strebe für ein Kraftfahrzeug und Verfahren zum Herstellen desselben/derselben
US20110061100A1 (en) * 2009-09-10 2011-03-10 Nokia Corporation Method and apparatus for controlling access
US9285589B2 (en) * 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
WO2012164149A1 (en) * 2011-05-31 2012-12-06 Nokia Corporation Method and apparatus for controlling a perspective display of advertisements using sensor data
US9176582B1 (en) * 2013-04-10 2015-11-03 Google Inc. Input system
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
KR20150010432A (ko) * 2013-07-19 2015-01-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
GB2517143A (en) * 2013-08-07 2015-02-18 Nokia Corp Apparatus, method, computer program and system for a near eye display
US10915161B2 (en) * 2014-12-11 2021-02-09 Intel Corporation Facilitating dynamic non-visual markers for augmented reality on computing devices
ES2778935T3 (es) * 2015-05-28 2020-08-12 Nokia Technologies Oy Representación de una notificación en una pantalla montada en la cabeza

Also Published As

Publication number Publication date
EP3098690B1 (en) 2020-01-08
EP3098690A1 (en) 2016-11-30
US20180164588A1 (en) 2018-06-14
WO2016189204A1 (en) 2016-12-01
US10459226B2 (en) 2019-10-29

Similar Documents

Publication Publication Date Title
ES2778935T3 (es) Representación de una notificación en una pantalla montada en la cabeza
US9947080B2 (en) Display of a visual event notification
TWI488112B (zh) 行動終端機,控制行動終端機的方法,及顯示行動終端機影像的方法
ES2938201T3 (es) Visualización de información de vídeo
US10466796B2 (en) Performance of an operation based at least in part on tilt of a wrist worn apparatus
US10429653B2 (en) Determination of environmental augmentation allocation data
US11347301B2 (en) Display of information on a head mounted display
CN112136096B (zh) 将物理输入设备显示为虚拟对象
JP6367953B2 (ja) ビューの視覚表現のディスプレイ
EP3010252A1 (en) A necklace apparatus
EP3040893B1 (en) Display of private content
US20150169047A1 (en) Method and apparatus for causation of capture of visual information indicative of a part of an environment
US9646084B2 (en) Causation of storage of handshake greeting audio information