ES2765640T3 - Máscara de orientación de dirección de realidad aumentada - Google Patents

Máscara de orientación de dirección de realidad aumentada Download PDF

Info

Publication number
ES2765640T3
ES2765640T3 ES11712743T ES11712743T ES2765640T3 ES 2765640 T3 ES2765640 T3 ES 2765640T3 ES 11712743 T ES11712743 T ES 11712743T ES 11712743 T ES11712743 T ES 11712743T ES 2765640 T3 ES2765640 T3 ES 2765640T3
Authority
ES
Spain
Prior art keywords
viewer
virtual mask
target element
variation
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11712743T
Other languages
English (en)
Inventor
Virginia Keating
Joel Bernarte
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2765640T3 publication Critical patent/ES2765640T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Un procedimiento para mostrar la orientación entre un espectador (210) y un elemento objetivo (220) en una pantalla (112) de una plataforma móvil (100) que comprende además una cámara (120), comprendiendo el procedimiento: visualizar (308) una imagen tomada por la cámara (120) en una dirección en la que esté orientado el espectador (210), en el que el espectador (210) está apuntando la cámara (120) en la dirección en la que está orientado el espectador (210); determinar (304) la dirección en la que está orientado el espectador (210); generar (306) una máscara virtual (200) que rodee al espectador (210), teniendo la máscara virtual (200) una variación que proporciona información sobre la dirección hacia un elemento objetivo (220), estando la variación en la máscara virtual (200) asociada con la posición del elemento objetivo (220) de modo que no cambie la orientación de la variación en la máscara virtual (200) con respecto al elemento objetivo (220); visualizar (310) sobre la imagen una porción de la máscara virtual (200) que está en la dirección en la que está orientado el espectador (210), en el que la variación en la máscara virtual (200) es visible en la pantalla (112) para proporcionar información al espectador (210) sobre la dirección del elemento objetivo (220), en el que la variación en la máscara virtual (200) no se visualiza cuando el espectador (210) está orientado directamente hacia el elemento objetivo (220) o directamente lejos del elemento objetivo (220).

Description

DESCRIPCIÓN
Máscara de orientación de dirección de realidad aumentada
Antecedentes
[0001] Un medio común para determinar la localización de un dispositivo es el uso de un sistema de posición por satélite (SPS), tales como el conocido Sistema de Posicionamiento Global por Satélite (GPS) o el Sistema de Navegación Global por Satélite (GNSS), que emplean un número de satélites que están en órbita alrededor de la Tierra. Las mediciones de posición que usan SPS se basan en mediciones de tiempos de retardo de propagación de señales SPS difundidas desde varios satélites en órbita a un receptor SPS. Una vez que el receptor SPS ha medido los retardos de propagación de la señal para cada satélite, se puede determinar el rango de cada satélite y se puede determinar entonces información de navegación precisa que incluya la posición tridimensional, la velocidad y la hora del día del receptor SPS usando los rangos medidos y las localizaciones conocidas de los satélites.
[0002] El conocimiento de la localización de un dispositivo tiene muchos usos, uno de los cuales se conoce como realidad aumentada. La realidad aumentada combina imágenes del mundo real con datos generados por ordenador, tales como gráficos o información textual. La realidad aumentada puede ser útil para actividades como la navegación o simplemente para orientarse dentro de un entorno.
[0003] Uno de los primeros y más difíciles pasos en la navegación y en el descubrimiento de información es orientarse físicamente en la dirección correcta. Para hacer uso de los datos en realidad aumentada, el usuario necesita en general encontrar y orientar el elemento objetivo con la cámara. Para datos o enlaces, el elemento objetivo no es visible a menos que la cámara esté orientada en la dirección correcta. Para la navegación, la orientación incorrecta da como resultado que el usuario inicie la navegación en la dirección incorrecta.
[0004] Los procedimientos actuales de realidad aumentada para dirigir al usuario para girarse para orientarse hacia el elemento objetivo incluyen el uso de elementos direccionales tales como flechas. Por ejemplo, los sistemas de realidad aumentada pueden usar flechas bidimensionales o tridimensionales en el centro o en el borde de la vista del usuario, lo que indica rotar a la izquierda o a la derecha. Otro elemento direccional que se usa actualmente es una visualización de tipo de radar de vista superior que indica la distancia y la dirección relativas a los elementos objetivo.
[0005] Sin embargo, los procedimientos actuales para proporcionar información de orientación tienen varios problemas. Por ejemplo, las flechas direccionales no proporcionan información con respecto a qué tan lejos se debería girar para orientarse hacia el elemento objetivo. En consecuencia, es difícil saber hasta dónde girar. Además, si el usuario gira rápidamente, no hay indicación de cuándo reducir la velocidad para no disparar en exceso el elemento objetivo o la dirección deseada. Además, el uso de pantallas de radar de vista superior está distrayendo, ya que a los usuarios les resulta difícil interpretar o determinar su relevancia y relacionar la vista superior con el entorno real del usuario. Cuando se usan para la navegación, los procedimientos de orientación actuales le dan al usuario la urgencia de orientarse hacia el elemento objetivo, lo que causa que el usuario participe en un comportamiento potencialmente peligroso, por ejemplo, sin orientarse en la dirección de viaje.
Se llama la atención sobre el documento de F. Biocca et al.: "Attention Funnel: Omnidirectional 3D Cursor for Mobile Augmented Reality Platforms", CHI '06, Actas de la Conferencia SGCHI sobre factores humanos en sistemas informáticos, páginas 1115-1122, ACM 2006. Divulga una guía basada en túneles de la atención del usuario en una pantalla montada en la cabeza. También se llama la atención sobre el documento de Feiner S. et al.: "Knowledgebased Augmented Reality", Comunicaciones de la ACM, vol. 36(7), páginas 53-62, julio de 1993. Divulga una máscara virtual que rodea al espectador para visualizar elementos de realidad aumentada en un dispositivo óptico transparente.
Sumario
[0006] En el contexto de la presente invención se proporcionan un procedimiento como se expone en la reivindicación 1, un sistema como se expone en la reivindicación 12 y un producto de programa informático como se expone en la reivindicación 13.
[0007] Los modos de realización de la invención se reivindican en las reivindicaciones dependientes. Se considera que los modos de realización o ejemplos de la siguiente descripción, que no están cubiertos por las reivindicaciones adjuntas, no forman parte de la presente invención.
[0008] Un dispositivo de realidad aumentada proporciona una máscara virtual que rodea al espectador e incluye una variación que proporciona información sobre la dirección hacia un elemento objetivo. La variación, que puede ser una variación en la transparencia, el color, la forma geométrica, la textura, el material, la iluminación o el sombreado, está asociada con la posición del elemento objetivo, de modo que la orientación de la variación en la máscara virtual no cambia con respecto a la dirección del elemento objetivo. Una porción de la máscara virtual que está en la dirección en la que está orientado el espectador se visualiza sobre la imagen del mundo real con la variación en la máscara virtual que proporciona información al espectador sobre la dirección del elemento objetivo. Cuando el espectador rota con respecto al elemento objetivo, se muestra una porción diferente de la máscara virtual que está en el campo de visión actual. Cuando el espectador está orientado directamente hacia el elemento objetivo o directamente lejos de él, la variación en la máscara virtual no se visualiza.
Breve descripción del dibujo
[0009]
La Fig. 1 ilustra un ejemplo de un dispositivo de realidad aumentada en forma de una plataforma móvil que proporciona una máscara virtual superpuesta sobre una imagen del mundo real para proporcionar información de orientación al usuario.
Las Figs. 2 y 3 ilustran esquemáticamente la colocación de una máscara virtual alrededor de un usuario.
Las Figs. 4 y 5 ilustran esquemáticamente la colocación de una máscara virtual alrededor de un usuario y muestran el efecto sobre la máscara virtual a medida que el usuario se mueve lateralmente con respecto a un elemento objetivo.
La Fig. 6 es un diagrama de bloques de la plataforma móvil que puede usar la máscara virtual.
La Fig. 7 es un diagrama de flujo que muestra un procedimiento para mostrar la orientación entre un espectador y un elemento objetivo en una pantalla usando una máscara virtual.
Las Figs. 8, 9, 10 y 11 ilustran ejemplos de una imagen de realidad aumentada, incluyendo una máscara virtual.
Las Figs. 12, 13, 14 y 15 ilustran diferentes ejemplos de máscaras virtuales cilíndricas que se pueden usar.
Descripción detallada
[0010] La Fig. 1 ilustra un ejemplo de un dispositivo de realidad aumentada en forma de una plataforma móvil 100 que proporciona una máscara virtual sutil superpuesta sobre la imagen en la pantalla 112 para proporcionar información de orientación al usuario. La plataforma móvil 100 se puede usar para la navegación en base a determinar su latitud y su longitud usando señales de un sistema de posicionamiento por satélite (SPS), que incluye vehículos satelitales 102, o cualquier otra fuente apropiada para determinar la posición que incluya las torres celulares 104 o los puntos de acceso de comunicación inalámbrica 106. La plataforma móvil 100 incluye una cámara 120 para generar imágenes del entorno físico del mundo real, así como sensores 130, tales como una brújula digital, acelerómetros o giroscopios, que se pueden usar para determinar la orientación de la plataforma móvil 100.
[0011] La máscara virtual que se superpone sobre la imagen mostrada en la pantalla 112 es un ordenador generado, un cilindro o una esfera tridimensional que se centra en la plataforma móvil 100 y se alinea con un elemento objetivo. Por ejemplo, la máscara puede proporcionar una visión clara de la imagen del mundo real cuando la plataforma móvil 100 está orientada hacia el elemento objetivo. La máscara puede proporcionar una vista cada vez más alterada de la imagen del mundo real a medida que la plataforma móvil 100 rota lejos del elemento objetivo. Por ejemplo, los lados angulados del área despejada de la máscara se pueden usar para proporcionar información al usuario sobre la localización del elemento objetivo con respecto a la orientación actual de la plataforma móvil. En consecuencia, se proporciona al usuario información de orientación fácil de interpretar pero sutil y que no distrae.
[0012] Como se usa en el presente documento, una plataforma móvil se refiere a un dispositivo tal como un dispositivo móvil u otro dispositivo de comunicación inalámbrica, un dispositivo de un sistema de comunicación personal (PCS), un dispositivo de navegación personal (PND), un Gestor de Información Personal (PIM), un Asistente Digital Personal (PDA), un ordenador portátil u otro dispositivo móvil adecuado que pueda proporcionar una visión de realidad aumentada del entorno del usuario. La plataforma móvil puede ser total o parcialmente móvil, por ejemplo, una plataforma móvil se puede mantener en una posición fija pero se le permite rotar. La plataforma móvil puede ser capaz de recibir señales de comunicación y/o de navegación inalámbricas, tales como señales de posicionamiento de navegación. El término "plataforma móvil" también pretende incluir dispositivos que se comunican con un dispositivo de navegación personal (PND), tal como mediante una conexión inalámbrica de corto alcance, una conexión mediante infrarrojos, una conexión por cable u otra conexión, independientemente de si la recepción de señales de satélites, la recepción de datos de asistencia y/o el procesamiento relacionado con la posición se llevan a cabo en el dispositivo o en el PND. También, "estación móvil" está previsto para incluir todos los dispositivos, incluyendo dispositivos de comunicación inalámbrica, ordenadores, ordenadores portátiles, etc., que se puedan comunicar con un servidor, tal como por medio de Internet, WiFi u otra red, e independientemente de si la recepción de señales de satélites, la recepción de datos de asistencia y/o el procesamiento relacionado con la posición se llevan a cabo en el dispositivo, en un servidor o en otro dispositivo asociado con la red. Cualquier combinación operativa de lo anterior también se considera "estación móvil".
[0013] Un sistema de posicionamiento por satélite (SPS) que se puede usar con la plataforma móvil 100 incluye típicamente un sistema de transmisores situados para permitir que las entidades determinen su localización en o sobre la Tierra, en base, al menos en parte, a señales recibidas de los transmisores. Dicho transmisor transmite típicamente una señal marcada con un código de ruido pseudoaleatorio (PN) repetitivo de un número establecido de chips y se puede localizar en estaciones de control terrestres, en equipos de usuario y/o en vehículos espaciales. En un ejemplo particular, dichos transmisores se pueden localizar en vehículos satelitales (SV) 102 que orbitan la Tierra, ilustrados en la Fig. 1. Por ejemplo, un SV en una constelación del Sistema de Navegación Global por Satélite (GNSS), tal como el Sistema de Posicionamiento Global (GPS), Galileo, Glonass o Compass, puede transmitir una señal marcada con un código PN que se puede distinguir de códigos PN transmitidos por otros SV en la constelación (por ejemplo, usando diferentes códigos PN para cada satélite, como en GPS, o usando el mismo código en diferentes frecuencias, como en Glonass).
[0014] De acuerdo con determinados aspectos, la determinación de la posición de la plataforma móvil 100 no se limita a usar los sistemas globales (por ejemplo, GNSS) para SPS. Por ejemplo, las técnicas proporcionadas en el presente documento se pueden aplicar a, o su uso se puede permitir de otro modo en diversos sistemas regionales, tales como, por ejemplo, el Sistema de Satélites Cuasicenitales (QZSS) en Japón, el Sistema Indio de Satélites de Navegación Regional (IRNSS) en la India, Beidou en China, etc., y/o diversos sistemas de aumento (por ejemplo, un Sistema de Aumento Basado en Satélites (SBAS)) que pueden estar asociados con, o su uso se puede permitir de otro modo en, uno o más sistemas de satélites de navegación global y/o regional. A modo de ejemplo, pero no de limitación, un SBAS puede incluir uno o varios sistemas de aumento que proporcione(n) información de integridad, correcciones diferenciales, etc., tales como, por ejemplo, el Sistema de Aumento de Área Extensa (WAAS), el Servicio Europeo de Superposición de Navegación Geoestacionaria (EGNOS), el Sistema de Aumento por Satélite Multifuncional (MSAS), la Navegación Geoaumentada y Asistida por GPS, o el Sistema de Navegación Geoaumentada y con GPS (GAGAN), y/o similares. Por tanto, tal y como se usa en el presente documento, un SPS puede incluir cualquier combinación de uno o más sistemas de satélites de navegación global y/o regional y/o sistemas de aumento, y las señales del SPS pueden incluir señales del SPS, señales de tipo SPS y/u otras señales asociadas con dichos uno o más SPS.
[0015] Además, la plataforma móvil 100 no se limita a su uso con un SPS, pero puede usar las técnicas de determinación de posición implementadas en conjunción con diversas redes de comunicación inalámbrica, incluyendo las torres celulares 104 y de los puntos de acceso de comunicación inalámbrica 106, tales como una red de área extensa inalámbrica (WWAN), una red de área local inalámbrica (WLAN), una red de área personal inalámbrica (WPAN), etc. También se pueden usar procedimientos alternativos de determinación de posición, tal como el reconocimiento de objetos usando técnicas de "visión por ordenador". Los términos "red" y "sistema" se usan a menudo de forma intercambiable. Una WWAN puede ser una red de Acceso Múltiple por División de Código (CDMA), una red de Acceso Múltiple por División de Tiempo (TDMA), una red de Acceso Múltiple por División de Frecuencia (FDMA), una red de Acceso Múltiple por División Ortogonal de Frecuencia (OFDMA), una red de Acceso Múltiple por División de Frecuencia de Portadora Única (SC-FDMA), la Evolución a Largo Plazo (LTE), etc. Una red de CDMA puede implementar una o más tecnologías de acceso por radio (RAT), tales como cdma2000, CDMA de banda ancha (W-CDMA), etc. La cdma2000 incluye los estándares IS-95, IS-2000 e IS-856. Una red de TDMA puede implementar el Sistema Global de Comunicaciones Móviles (GSM), el Sistema Telefónico Móvil Avanzado Digital (D-AMPS) o alguna otra RAT. El GSM y el W-CDMA se describen en documentos de un consorcio llamado "Proyecto de Colaboración de Tercera Generación" (3GPP). La Cdma2000 se describe en documentos de un consorcio llamado "Proyecto 2 de Colaboración de Tercera Generación" (3GPP2). Los documentos del 3GPP y del 3GPP2 están a disposición del público. Una WLAN puede ser una red de 802.11x del IEEE y una WPAN puede ser una red Bluetooth, una red de 802.15x del IEEE o algún otro tipo de red. Las técnicas también se pueden implementar junto con cualquier combinación de WWAN, WLAN y/o WPAN.
[0016] Las Figs. 2 y 3 ilustran esquemáticamente la colocación de una máscara virtual 200 alrededor de un usuario 210 por la plataforma móvil 100. Se deberá entender que las Figs. 2 y 3 no ilustran lo que se mostrará en la pantalla 112 de la plataforma móvil 100, sino que ilustra funcionalmente cómo funciona la máscara 200. Las Figs. 2 y 3 muestran que la máscara 200 está centrada en el usuario 210 e incluye una característica, tal como una variación en la transparencia de la máscara, que indica la dirección hacia el elemento objetivo 220. El elemento objetivo 220 puede ser un lugar, un objeto, una dirección general, una persona u otro elemento similar y puede ser estacionario o estar en movimiento. Como se ilustra en las Figs. 2 y 3, la porción más transparente 202 (ilustrada como la porción blanca) de la máscara 200 se dirige hacia el elemento objetivo 220 desde la posición del usuario 210. La variación en el nivel de transparencia de la máscara 200 está prevista para ilustrar la función de proporcionar información de orientación al usuario 210 y no necesariamente cómo se proporciona la información de orientación, es decir, incrementando/disminuyendo la transparencia de la visión. Por ejemplo, si se desea, el nivel de transparencia se puede mantener constante, pero el área de transparencia puede variar. El campo de visión del usuario, es decir, el campo de visión de la cámara 120, se ilustra con las líneas 206, y solo la porción de la máscara 200 que está dentro del campo de visión 206 del usuario, es decir, la porción transparente 202 en la Fig. 2 y la porción menos transparente 204 en la Fig. 3, se visualizarán sobre la imagen del mundo real producida por la cámara 120 en la pantalla 112. Como se puede ver en las Figs. 2 y 3, la orientación de la máscara 200 es independiente de la orientación del usuario 210. Por ejemplo, en la Fig. 2, el usuario 210 está orientado hacia el elemento objetivo 220, mientras que, en la Fig. 3, el usuario está orientado a 90 grados del elemento objetivo 220 y, por lo tanto, está orientado hacia una porción 204 menos transparente de la máscara 200. Sin embargo, tanto la Fig. 1 como la Fig. 2 ilustran que la porción transparente 202 de la máscara 200 está asociada con el elemento objetivo 220 en el sentido de que está alineada con el elemento objetivo y la alineación se conserva independientemente de la orientación del usuario.
[0017] Las Figs. 4 y 5 son similares a las Figs. 2 y 3, pero muestran el efecto sobre la máscara 200 a medida que el usuario 210 viaja a lo largo de una dirección de viaje 212. Como se puede ver, la máscara 200 permanece centrada en el usuario 210 y, por tanto, se mueve con el usuario más allá del elemento objetivo 220. La porción transparente 202 de la máscara 200, sin embargo, continúa alineada con el elemento objetivo 220 a medida que el usuario 210 y la máscara 200 pasan el elemento objetivo 220. Por tanto, en la Fig. 4, la porción transparente 202 de la máscara 200 se muestra aproximadamente a 45 grados de la dirección de desplazamiento 212 y está ligeramente fuera del campo de visión 206 del usuario. En consecuencia, en la Fig. 4, la porción 203 de la máscara 200 se visualizará sobre la imagen del mundo real. En la Fig. 5, la porción transparente 202 está a casi 90 grados del campo de visión 206 del usuario 210 y, por tanto, se visualizará una porción diferente 205 sobre la imagen del mundo real mostrada en la pantalla 112.
[0018] La alineación de la porción de la máscara virtual 200 que se visualiza se puede bloquear verticalmente a la pantalla 112 o bloquear al horizonte. En otras palabras, si un usuario cambia la orientación vertical de la cámara 120, la porción de la máscara virtual 200 que se muestra en la pantalla 112 puede permanecer constante (suponiendo que no haya rotación horizontal) cuando se bloquea en la pantalla de visualización 112. De forma alternativa, cuando la máscara virtual 200 está bloqueada en el horizonte, se muestran diferentes porciones de la máscara virtual a medida que cambia la orientación vertical de la cámara 120, lo que puede ser en particular deseable cuando la máscara virtual sea una esfera tridimensional.
[0019] La máscara virtual 200 permite al usuario mantener un sentido de posición relativa a la dirección del elemento objetivo. Además, la máscara sugiere sutilmente la corrección de dirección, pero no la exige ni la requiere para la orientación del usuario. Las técnicas convencionales de orientar a un usuario en visiones de realidad aumentada, por otro lado, no mantienen la relevancia entre el usuario y el elemento objetivo a medida que el usuario progresa y proporciona un sentido de urgencia para corregir la orientación del usuario, lo que puede no ser seguro. Por ejemplo, si una tienda al otro lado de la calle y bajo el bloque del usuario es el elemento objetivo, sería inseguro que el usuario estuviera orientado directamente hacia la tienda durante gran parte del viaje. El usuario deberá avanzar por la acera en el lado opuesto de la calle y cruzar la calle perpendicular al tráfico. Sin embargo, el uso de técnicas de orientación convencionales proporciona al usuario una sensación de urgencia para orientarse hacia el elemento objetivo mientras viaja, lo que causa que el usuario ignore el tráfico potencialmente peligroso de peatones o vehículos.
[0020] La Fig. 6 es un diagrama de bloques de la plataforma móvil 100 que puede usar la máscara virtual 200. Como se ilustra en la Fig. 6, la plataforma móvil incluye un medio para producir una imagen, tal como la cámara 120, que puede producir imágenes fijas o en movimiento que se visualizan en la plataforma móvil 100. La plataforma móvil 100 también incluye un medio para determinar la dirección en la que está orientado el espectador, tal como un sensor de orientación 130, por ejemplo, una brújula con corrección de inclinación que incluye un magnetómetro, un acelerómetro o un giroscopio.
[0021] La plataforma móvil 100 puede incluir un receptor 140, tal como incluye un receptor de sistema de posicionamiento por satélite (SPS) que recibe señales de un satélite SPS 102 (Fig. 1) por medio de una antena 144. La plataforma móvil 100 también incluye un transceptor inalámbrico 145, que puede ser, por ejemplo, un módem celular o un receptor/transmisor de radio de red inalámbrica que puede enviar y recibir comunicaciones hacia y desde una torre celular 104 o desde un punto de acceso inalámbrico 106, respectivamente, por medio de la antena 144 (o de una antena separada). Si se desea, la plataforma móvil 100 puede incluir transceptores separados que sirven de módem celular y de receptor/transmisor de radio de red inalámbrica.
[0022] El sensor de orientación 130, la cámara 120, el receptor de SPS 140 y el transceptor inalámbrico 145 están conectados a y se comunican con un control de plataforma móvil 150. El control de plataforma móvil 150 acepta y procesa datos desde el sensor de orientación 130, la cámara 120, el receptor SPS 140 y el transceptor inalámbrico 145 y controla el funcionamiento de los dispositivos. El control de plataforma móvil 150 se puede proporcionar por un procesador 152 y una memoria asociada 154, un reloj 153, hardware 156, software 158 y firmware 157. La plataforma móvil 150 también puede incluir un medio para generar la máscara virtual, tal como un motor gráfico 155, que puede ser, por ejemplo, un motor de videojuegos, que se ilustra por separado del procesador 152 para mayor claridad, pero puede estar dentro del procesador 152. El motor gráfico 155 calcula la posición y la orientación de la máscara virtual 200 que se visualiza en una imagen producida por la cámara 120. Se entenderá como se usa en el presente documento que el procesador 152 puede, pero no necesariamente incluye, uno o más microprocesadores, procesadores integrados, controladores, circuitos integrados específicos de la aplicación (ASIC), procesadores de señales digitales (DSP) y similares. El término procesador está previsto para describir las funciones implementadas por el sistema en lugar de un hardware específico. Además, como se usa en el presente documento, el término "memoria" se refiere a cualquier tipo de medio de almacenamiento informático, incluyendo memoria a largo plazo, a corto plazo u otra memoria asociada a la plataforma móvil, y no está limitado a ningún tipo particular de memoria o número de memorias, ni al tipo de medio en el que se almacena la memoria.
[0023] La plataforma móvil 100 incluye también una interfaz de usuario 110 que está en comunicación con el control de plataforma móvil 150, por ejemplo, el control de plataforma móvil 150 acepta datos y controla la interfaz de usuario 110. La interfaz de usuario 110 incluye un medio para visualizar las imágenes producidas por la cámara 120 junto con la máscara generada por ordenador 200 superpuesta, tal como una pantalla digital 112. El procesador 152 controla la posición y la orientación de la máscara generada por ordenador 200 en la imagen en base a la posición y a la orientación de la plataforma móvil con respecto a un elemento objetivo. La pantalla 112 puede visualizar además menús de control e información posicional. La interfaz de usuario 110 incluye además un medio para identificar el elemento objetivo, tal como un teclado 114 u otro dispositivo de entrada a través del cual el usuario puede introducir información en la plataforma móvil 100. En un modo de realización, el teclado 114 se puede integrar en la pantalla 112, tal como una pantalla táctil. La interfaz de usuario 110 también puede incluir, por ejemplo, un micrófono y un altavoz, por ejemplo, cuando la plataforma móvil 100 sea un teléfono móvil.
[0024] Las metodologías descritas en el presente documento se pueden implementar por diversos medios que dependen de la aplicación. Por ejemplo, estas metodologías se pueden implementar en hardware 156, firmware 157, software 158 o en cualquier combinación de los mismos. Para una implementación en hardware, las unidades de procesamiento se pueden implementar en uno o más circuitos integrados específicos de la aplicación (ASIC), procesadores de señales digitales (DSP), dispositivos de procesamiento de señales digitales (DSPD), dispositivos lógicos programables (PLD), matrices de puertas programables por campo (FPGA), procesadores, controladores, microcontroladores, microprocesadores, dispositivos electrónicos, otras unidades electrónicas diseñadas para desempeñar las funciones descritas en el presente documento, o en una combinación de los mismos.
[0025] En una implementación en firmware y/o software, las metodologías se pueden implementar con módulos (por ejemplo, procedimientos, funciones, etc.) que realizan las funciones descritas en el presente documento. Cualquier medio legible por máquina que realice instrucciones de forma tangible se puede usar para implementar las metodologías descritas en el presente documento. Por ejemplo, los códigos de software se pueden almacenar en la memoria 154 y ejecutarse por el procesador 152. La memoria se puede implementar dentro de la unidad de procesador o ser externa a la unidad de procesador. Como se usa en el presente documento, el término "memoria" se refiere a cualquier tipo de memoria no volátil, volátil, a corto plazo, a largo plazo o a otro tipo de memoria, y no está limitado a ningún tipo particular de memoria o número de memorias, ni al tipo de medio en el que se almacena la memoria.
[0026] Por ejemplo, los códigos de software 158 se pueden almacenar en la memoria 154 y ejecutarse por el procesador 152 y se pueden usar para ejecutar el procesador y para controlar el funcionamiento de la plataforma móvil 100 como se describe en el presente documento. Por ejemplo, un código de programa almacenado en un medio legible por ordenador, tal como la memoria 158, puede incluir un código de programa para determinar una dirección en la que esté orientado el espectador; para generar una máscara virtual; y para visualizar una imagen de la dirección en la que esté orientado un espectador y una porción de la máscara virtual que esté en la dirección en la que esté orientado el espectador. El código de programa también puede determinar que la dirección en la que está orientado el espectador ha cambiado y visualizar una porción diferente de la máscara virtual en respuesta. Además, el código de programa puede determinar que la posición del espectador con respecto al elemento objetivo ha cambiado y visualizar una porción diferente de la máscara virtual en respuesta.
[0027] Si se implementan en firmware y/o software, las funciones se pueden almacenar como una o más instrucciones o código en un medio legible por ordenador. Los ejemplos incluyen medios legibles por ordenador codificados con una estructura de datos y medios legibles por ordenador codificados con un programa informático. Los medios legibles por ordenador incluyen medios de almacenamiento informáticos físicos. Un medio de almacenamiento puede ser cualquier medio disponible al que se pueda acceder mediante un ordenador. A modo de ejemplo, y no de limitación, dichos medios legibles por ordenador pueden comprender RAM, ROM, EEPROM, CD-ROM u otro almacenamiento de disco óptico, almacenamiento de disco magnético u otros dispositivos de almacenamiento magnético, o cualquier otro medio que se pueda usar para almacenar el código de programa deseado en forma de instrucciones o estructuras de datos y al que se pueda acceder mediante un ordenador; como se usa en el presente documento, un disco incluye un disco compacto (CD), un disco láser, un disco óptico, un disco versátil digital (DVD), un disco flexible y un disco Blu-ray, donde unos discos reproducen normalmente datos de forma magnética, mientras que otros reproducen datos de forma óptica con láser. Las combinaciones de lo anterior se deberían incluir también dentro del alcance de los medios legibles por ordenador.
[0028] Además de almacenarse en un medio legible por ordenador, las instrucciones y/o los datos se pueden proporcionar como señales en medios de transmisión incluidos en un aparato de comunicación. Por ejemplo, un aparato de comunicación puede incluir un transceptor que tenga señales que indiquen instrucciones y datos. Las instrucciones y los datos están configurados para causar que uno o más procesadores implementen las funciones esbozadas en las reivindicaciones. Es decir, el aparato de comunicación incluye medios de transmisión con señales indicativas de información para realizar las funciones divulgadas. En un primer momento, los medios de transmisión incluidos en el aparato de comunicación pueden incluir una primera porción de la información para realizar las funciones divulgadas, mientras que, en un segundo momento, los medios de transmisión incluidos en el aparato de comunicación pueden incluir una segunda porción de la información para realizar las funciones divulgadas.
[0029] La Fig. 7 es un diagrama de flujo que muestra un procedimiento para mostrar la orientación entre un espectador, como se indica mediante la visión de la cámara, y un elemento objetivo en una pantalla usando una máscara virtual. Como se ilustra en la Fig. 7, se identifica (302) el elemento objetivo. El elemento objetivo se puede identificar mediante la selección del usuario, por ejemplo, por medio de la interfaz 110 o por una fuente externa. La identificación del elemento objetivo incluye determinar la posición del elemento objetivo con respecto al espectador. Por ejemplo, la posición, por ejemplo, la latitud y la longitud, del espectador se puede determinar usando un sistema SPS, por ejemplo, los datos de un sistema SPS se reciben por el receptor SPS 140 (Fig. 6) desde el cual el procesador 152 calcula la posición. Si se desea, la posición se puede determinar usando otras técnicas y dispositivos, incluyendo el uso de datos de otras diversas redes de comunicación inalámbrica, incluyendo las torres celulares 104 y desde los puntos de acceso de comunicación inalámbrica 106 o mediante el reconocimiento de objetos usando técnicas de visión por ordenador. La posición del elemento objetivo también se puede determinar, por ejemplo, recuperando la posición de un servidor en una red por medio del transceptor inalámbrico 145. Por ejemplo, un usuario puede indicar mediante menús de control y teclado 114 que se desea un destino específico. La plataforma móvil 100 puede recuperar entonces la posición, por ejemplo, la latitud y la longitud, del destino deseado desde un servidor en una red por medio del transceptor inalámbrico 145. Entonces, se puede determinar la posición del elemento objetivo con respecto al espectador.
[0030] La dirección en la que está orientado el espectador se determina (304), por ejemplo, usando el sensor de orientación 130. Deberá entenderse, para los propósitos de este documento de patente, que se supone que el espectador está orientado en la misma dirección que en la que está orientada la cámara, es decir, el espectador está apuntando la cámara en la dirección en la que está orientado el usuario. Se genera una máscara virtual 200 para rodear al espectador (306), por ejemplo, mediante el motor gráfico 155 mostrado en la Fig. 6, en la posición determinada del espectador. La máscara virtual generada 200 incluye una variación que proporciona información sobre la dirección hacia el elemento objetivo. La variación en la variación de máscara virtual está asociada con la posición del elemento objetivo identificado (306) y es independiente de la dirección en la que está orientado el espectador. Además, la máscara virtual generada 200 está asociada con la posición del espectador, de modo que, si el espectador se mueve, la máscara virtual se mueve con el espectador mientras se mantiene la orientación entre la variación asociada en la máscara y el elemento objetivo. Se visualiza (308) una imagen de la dirección en la que está orientado el espectador, por ejemplo, tal como la produce la cámara 120, y una porción de la máscara virtual que está en la dirección en la que está orientado el espectador se visualiza sobre la imagen con la variación en la máscara que muestra la dirección hacia el elemento objetivo (310). La máscara virtual se puede visualizar sobre la visión de la cámara. Si se desea, la visión de la cámara se puede eliminar, por ejemplo, de modo que la visión esté en blanco o llena, pero la máscara virtual puede permanecer como una brújula direccional. A medida que el espectador rota o cambia de posición, la variación asociada en la máscara permanece orientada hacia el elemento objetivo y, por tanto, la máscara virtual se actualiza para que se visualice una porción diferente de la máscara virtual.
[0031] La máscara virtual 200 se puede producir como un objeto tridimensional, por ejemplo, un cilindro virtual o una esfera, que rodee al espectador en el espacio virtual. De forma alternativa, la máscara virtual 200 se puede producir como una imagen en mosaico bidimensional que se coloca en la capa de interfaz de usuario bidimensional. La imagen en mosaico bidimensional se desliza, por ejemplo, hacia la izquierda y hacia la derecha, a medida que el usuario rota para emular la implementación virtual tridimensional, es decir, el software emula manteniendo la máscara virtual quieta en el espacio mientras la cámara rota.
[0032] A modo de ejemplo, las Figs. 8, 9, 10 y 11 ilustran ejemplos de una imagen de realidad aumentada, incluyendo una máscara virtual 200, que se visualiza al usuario en la pantalla 112. La Fig. 8, por ejemplo, ilustra una imagen y una máscara virtual 200 cuando el usuario está orientado casi directamente hacia el elemento objetivo 220, que en este ejemplo es un edificio. Como se puede ver en la Fig. 8, se puede ver una pequeña parte de la máscara virtual 220 en las esquinas de la imagen visualizada porque el usuario está orientado hacia el elemento objetivo 220. Si se desea, se pueden visualizar datos aumentados adicionales, tales como una flecha 230 que apunta hacia el elemento objetivo 220 y la distancia 240 hacia el elemento objetivo 220.
[0033] Las Figs. 9 y 10 ilustran diferentes imágenes y diferentes porciones de la máscara virtual 200 a medida que el usuario se aleja (a la derecha) del elemento objetivo (el elemento objetivo ya no se ve en las Figs. 9 y 10). Como se puede ver, la porción de la máscara 200 muestra cambios basados en la orientación del usuario con respecto al elemento objetivo, siendo más visible la máscara cuanto más se aleja el usuario del objetivo. En un modo de realización, la máscara virtual es al menos parcialmente transparente de modo que la imagen del mundo físico se pueda ver debajo de la máscara 200. Como se puede ver, la máscara proporciona información sobre la dirección del elemento objetivo, en este ejemplo por los bordes inclinados de la máscara, lo que sugiere que el elemento objetivo está hacia la parte más clara de la imagen. Por ejemplo, se puede determinar fácilmente que la Fig. 10 muestra el usuario girado más a la derecha con respecto al elemento objetivo que en la Fig. 9. La Fig. 11 ilustra un ejemplo de una imagen visualizada de la máscara virtual 200 (sin la imagen subyacente) cuando el usuario está orientado directamente lejos del elemento objetivo.
[0034] Las Figs. 12, 13, 14 y 15 ilustran diferentes ejemplos de máscaras virtuales cilíndricas que se pueden usar. Se pueden usar máscaras esféricas con características similares si se desea. Como se puede ver, las máscaras virtuales proporcionan alguna indicación de dirección en base a una variación en la máscara. La variación en la máscara puede ser la transparencia de las máscaras, el color, la forma geométrica, la textura, el material, la iluminación, el sombreado, etc. La máscara no necesita oscurecer completamente la imagen subyacente, pero puede alterar la imagen para que la máscara sea fácilmente discernible en la pantalla.
[0035] Una porción de la máscara siempre puede ser visible para mantener la orientación relevante para el usuario. La máscara 200, por tanto, proporciona una indicación clara de la orientación entre el usuario y un elemento objetivo y, en general, qué tan lejos de la dirección del elemento objetivo está el usuario. También se puede proporcionar información adicional, ya sea por separado o cambiando la máscara para dar una indicación de la distancia al elemento objetivo.
[0036] Aunque la presente invención se ilustra en relación con modos de realización específicos con propósitos de instrucción, la presente invención no se limita a los mismos. Sin embargo, se entenderá que se pueden realizar diversas adaptaciones y modificaciones sin apartarse del alcance de la invención. Por lo tanto, el alcance de las reivindicaciones adjuntas no debería limitarse a la descripción precedente.

Claims (13)

REIVINDICACIONES
1. Un procedimiento para mostrar la orientación entre un espectador (210) y un elemento objetivo (220) en una pantalla (112) de una plataforma móvil (100) que comprende además una cámara (120), comprendiendo el procedimiento:
visualizar (308) una imagen tomada por la cámara (120) en una dirección en la que esté orientado el espectador (210), en el que el espectador (210) está apuntando la cámara (120) en la dirección en la que está orientado el espectador (210);
determinar (304) la dirección en la que está orientado el espectador (210);
generar (306) una máscara virtual (200) que rodee al espectador (210), teniendo la máscara virtual (200) una variación que proporciona información sobre la dirección hacia un elemento objetivo (220), estando la variación en la máscara virtual (200) asociada con la posición del elemento objetivo (220) de modo que no cambie la orientación de la variación en la máscara virtual (200) con respecto al elemento objetivo (220);
visualizar (310) sobre la imagen una porción de la máscara virtual (200) que está en la dirección en la que está orientado el espectador (210), en el que la variación en la máscara virtual (200) es visible en la pantalla (112) para proporcionar información al espectador (210) sobre la dirección del elemento objetivo (220), en el que la variación en la máscara virtual (200) no se visualiza cuando el espectador (210) está orientado directamente hacia el elemento objetivo (220) o directamente lejos del elemento objetivo (220).
2. El procedimiento de la reivindicación 1, que comprende además determinar que la dirección del espectador (210) ha cambiado y visualizar sobre la imagen una porción diferente de la máscara virtual (200).
3. El procedimiento de la reivindicación 1, que comprende además determinar que la posición del espectador (210) con respecto al elemento objetivo (220) ha cambiado y visualizar sobre la imagen una porción diferente de la máscara virtual (200).
4. El procedimiento de la reivindicación 1, que comprende además identificar (302) el elemento objetivo (220) y determinar la posición del elemento objetivo (220) con respecto al espectador (210).
5. El procedimiento de la reivindicación 1, en el que la máscara virtual (200) es uno de un cilindro o una esfera tridimensional que reside en un espacio virtual tridimensional.
6. El procedimiento de la reivindicación 1, en el que la máscara virtual (200) comprende un objeto bidimensional que se desliza para representar el movimiento de un cilindro o de una esfera tridimensional y que reside en una capa de interfaz de usuario.
7. El procedimiento de la reivindicación 1, en el que la variación en la máscara virtual (200) es al menos una de transparencia, color, forma geométrica, textura, material, iluminación y sombreado.
8. El procedimiento de la reivindicación 1, en el que se visualiza una indicación visual adicional (230, 240) para proporcionar información con respecto al elemento objetivo (220).
9. El procedimiento de la reivindicación 8, la indicación visual adicional (230, 240) incluye al menos una de una flecha (230) que muestra la localización del elemento objetivo (220) y de una indicación (240) de la distancia hacia el elemento objetivo (220), siendo la indicación (240) de la distancia al menos uno de un cambio en la variación de la máscara virtual (200), un valor numérico y un cambio en una indicación visual adicional.
10. El procedimiento de la reivindicación 1, en el que la alineación de la porción de la máscara virtual (200) visualizada está bloqueada verticalmente a la pantalla de visualización o al horizonte.
11. El procedimiento de la reivindicación 1, en el que la máscara virtual (200) se muestra sobre la visión de la cámara o sobre un fondo en blanco o relleno.
12. Un sistema (100) para acceder a y actualizar información posicional para una plataforma móvil que comprende:
medios (120) para producir una imagen tomada por los medios (120) para producir una imagen en una dirección en la que está orientado un espectador (210), en el que el espectador (210) está apuntando los medios (120) para producir una imagen en la dirección en la que está orientado el espectador (210);
medios (130) para determinar la dirección en la que está orientado el espectador (210);
medios para generar una máscara virtual (200) que rodee al espectador (210), teniendo la máscara virtual (200) una variación que proporciona información sobre la dirección hacia un elemento objetivo (220), estando asociada la variación en la máscara virtual (200) con la posición del elemento objetivo (220) de modo que no cambie la orientación de la variación en la máscara virtual (200) con respecto al elemento objetivo (220);
medios (112) para visualizar la imagen de la dirección en la que esté orientado el espectador (210) y visualizar una porción de la máscara virtual (200) que esté en la dirección en la que esté orientado el espectador (210), en el que la variación en la máscara virtual (200) es visible en los medios (112) para visualizar para proporcionar información al espectador (210) sobre la dirección del elemento objetivo (220), en el que la variación en la máscara virtual (200) no se visualiza cuando el espectador (210) está orientado directamente hacia el elemento objetivo (220) o directamente alejado del elemento objetivo (220).
13. Un medio legible por ordenador (154) que incluye el código de programa (158) almacenado en el mismo, que comprende un código de programa que, cuando se ejecuta por ordenador, realiza el procedimiento de una cualquiera de las reivindicaciones 1 a 11.
ES11712743T 2010-04-02 2011-03-29 Máscara de orientación de dirección de realidad aumentada Active ES2765640T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/753,701 US8570344B2 (en) 2010-04-02 2010-04-02 Augmented reality direction orientation mask
PCT/US2011/030397 WO2011123472A2 (en) 2010-04-02 2011-03-29 Augmented reality direction orientation mask

Publications (1)

Publication Number Publication Date
ES2765640T3 true ES2765640T3 (es) 2020-06-10

Family

ID=44625698

Family Applications (1)

Application Number Title Priority Date Filing Date
ES11712743T Active ES2765640T3 (es) 2010-04-02 2011-03-29 Máscara de orientación de dirección de realidad aumentada

Country Status (9)

Country Link
US (2) US8570344B2 (es)
EP (1) EP2553662B1 (es)
JP (2) JP5738975B2 (es)
KR (1) KR101435310B1 (es)
CN (1) CN102918568B (es)
BR (1) BR112012024828A2 (es)
ES (1) ES2765640T3 (es)
HU (1) HUE046828T2 (es)
WO (1) WO2011123472A2 (es)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2955007B1 (fr) * 2010-01-04 2012-02-17 Sagem Defense Securite Estimation de mouvement global et dense
US8570344B2 (en) 2010-04-02 2013-10-29 Qualcomm Incorporated Augmented reality direction orientation mask
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
JP2013235080A (ja) * 2012-05-08 2013-11-21 Sony Corp 画像表示装置、画像表示プログラム及び画像表示方法
WO2014005066A1 (en) * 2012-06-28 2014-01-03 Experience Proximity, Inc., Dba Oooii Systems and methods for navigating virtual structured data relative to real-world locales
US20140214585A1 (en) * 2013-01-30 2014-07-31 Moveline Group, Inc Telepresence assisted item transport facilitation
US20140278053A1 (en) * 2013-03-14 2014-09-18 Samsung Electronics Co., Ltd. Navigation system with dynamic update mechanism and method of operation thereof
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
WO2015182290A1 (ja) * 2014-05-28 2015-12-03 株式会社Screenホールディングス 経路案内装置、経路案内方法、および経路案内プログラム
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10451875B2 (en) * 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9508195B2 (en) * 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment
US20160178906A1 (en) * 2014-12-19 2016-06-23 Intel Corporation Virtual wearables
US9733881B2 (en) * 2015-08-28 2017-08-15 International Business Machines Corporation Managing digital object viewability for a transparent display system
CN105389847B (zh) * 2015-11-06 2018-01-26 网易(杭州)网络有限公司 一种3d场景的绘制系统及方法、终端
CN105389848B (zh) * 2015-11-06 2019-04-09 网易(杭州)网络有限公司 一种3d场景的绘制系统及方法、终端
CN105854296A (zh) * 2016-04-21 2016-08-17 苏州探寻文化科技有限公司 一种基于增强现实的互动体验系统
US9928630B2 (en) 2016-07-26 2018-03-27 International Business Machines Corporation Hiding sensitive content visible through a transparent display
KR102650572B1 (ko) 2016-11-16 2024-03-26 삼성전자주식회사 전자 장치 및 그의 제어 방법
CN109274977B (zh) * 2017-07-18 2022-03-25 腾讯科技(深圳)有限公司 虚拟道具分配方法、服务器及客户端
JP2020014361A (ja) * 2018-07-20 2020-01-23 中国電力株式会社 情報処理装置及び情報処理システム
US10777087B2 (en) 2018-12-07 2020-09-15 International Business Machines Corporation Augmented reality for removing external stimuli
CN110111411A (zh) * 2019-04-02 2019-08-09 贝壳技术有限公司 一种三维模型的浏览处理方法及装置
DE102022132417A1 (de) * 2022-12-06 2024-06-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Aufmerksamkeitslenkung eines Nutzers einer AR-, MR- oder VR-Anzeigevorrichtung auf ein Zielobjekt

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005627A (ja) * 2001-06-19 2003-01-08 Canon Inc 情報処理装置及びその方法、プログラム
JP3893983B2 (ja) * 2002-01-17 2007-03-14 ソニー株式会社 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP4710217B2 (ja) * 2003-07-03 2011-06-29 ソニー株式会社 情報提示装置及び情報提示方法、情報提示システム、並びにコンピュータ・プログラム
CN100595519C (zh) * 2005-01-26 2010-03-24 松下电器产业株式会社 引导装置及引导方法
US20070035563A1 (en) 2005-08-12 2007-02-15 The Board Of Trustees Of Michigan State University Augmented reality spatial interaction and navigational system
US8068121B2 (en) 2007-06-29 2011-11-29 Microsoft Corporation Manipulation of graphical objects on a display or a proxy device
US8570344B2 (en) 2010-04-02 2013-10-29 Qualcomm Incorporated Augmented reality direction orientation mask

Also Published As

Publication number Publication date
JP5992573B2 (ja) 2016-09-14
US20110242090A1 (en) 2011-10-06
KR20130028094A (ko) 2013-03-18
US20140055451A1 (en) 2014-02-27
BR112012024828A2 (pt) 2016-06-07
WO2011123472A2 (en) 2011-10-06
JP5738975B2 (ja) 2015-06-24
CN102918568A (zh) 2013-02-06
JP2013524344A (ja) 2013-06-17
EP2553662B1 (en) 2019-11-13
CN102918568B (zh) 2016-01-20
US8570344B2 (en) 2013-10-29
WO2011123472A3 (en) 2012-10-11
EP2553662A2 (en) 2013-02-06
US8941649B2 (en) 2015-01-27
KR101435310B1 (ko) 2014-09-02
HUE046828T2 (hu) 2020-03-30
JP2015172941A (ja) 2015-10-01

Similar Documents

Publication Publication Date Title
ES2765640T3 (es) Máscara de orientación de dirección de realidad aumentada
EP2583446B1 (en) User interface transition between camera view and map view
US9429438B2 (en) Updating map data from camera images
US8775069B1 (en) Methods, systems, and devices for condition specific alerts
ES2800624T3 (es) Sugerencia de ruta en tiempo real para un dispositivo móvil con localización habilitada
ES2869956T3 (es) Indicador de posición adaptable
CN103376442B (zh) 信息显示装置以及信息显示方法
US20070225904A1 (en) Display based on location information
CA2762743C (en) Updating map data from camera images
US20160178368A1 (en) Portable gnss survey system
CN104101348B (zh) 导航系统以及在导航系统上显示地图的方法
US20110115671A1 (en) Determination of elevation of mobile station
WO2020055281A1 (ru) Способ и система для формирования изображений совмещенной реальности
KR100774591B1 (ko) 네비게이션 시스템 및 이를 이용한 네비게이션 방법
US8838375B2 (en) Electronic device with object guiding function and an object guiding method thereof
US11175803B2 (en) Remote guidance for object observation
JP5203411B2 (ja) 携帯型地図表示装置及びその表示制御方法
Patias et al. Robust pose estimation through visual/GNSS mixing
JP2024140312A (ja) 仮想案内表示装置、及び仮想案内表示方法
Suurinkeroinen Centimeter-level real-time position tracking options with a short initialization time for outdoor applications
Markoski et al. Aerial Photogrammetric Imagery and Satellite Systems and Images
Kotsakis et al. Advancing Security & Anti-fraud by means of Info-mobility and Navigation Technologies (SAINT) System Preliminary Design