ES2896704T3 - Dispositivo de visualización, método de visualización, programa y medio de almacenamiento de información legible por ordenador no temporal - Google Patents

Dispositivo de visualización, método de visualización, programa y medio de almacenamiento de información legible por ordenador no temporal Download PDF

Info

Publication number
ES2896704T3
ES2896704T3 ES18928946T ES18928946T ES2896704T3 ES 2896704 T3 ES2896704 T3 ES 2896704T3 ES 18928946 T ES18928946 T ES 18928946T ES 18928946 T ES18928946 T ES 18928946T ES 2896704 T3 ES2896704 T3 ES 2896704T3
Authority
ES
Spain
Prior art keywords
avatar
display device
external controller
relative position
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18928946T
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of ES2896704T3 publication Critical patent/ES2896704T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Dispositivo (100) de visualización que comprende: un elemento (111) de aceptación que acepta una entrada de instrucción que indica una dirección de movimiento, proporcionándose la entrada de instrucción a un controlador (220) externo; un detector (113) que detecta un cambio en la orientación del dispositivo (100) de visualización; un almacenamiento (121) que almacena una posición de observación de avatar, una dirección de observación de avatar y una dirección de base de avatar en un espacio virtual; un elemento (112) de actualización de posición de observación que actualiza, tras la aceptación de la entrada de instrucción, la posición de observación de avatar de modo que la posición de observación de avatar se mueve en la dirección de movimiento indicada por la entrada de instrucción con respecto a la dirección de base de avatar; un elemento (114) de actualización de dirección de observación que actualiza la dirección de observación de avatar según el cambio detectado en la orientación del dispositivo (100) de visualización; un elemento (115) de obtención que obtiene una posición relativa entre el controlador (220) externo y el dispositivo (100) de visualización; un elemento (116) de actualización de dirección de base que actualiza la dirección de base de avatar, basándose en la dirección de observación de avatar y en la posición relativa obtenida; caracterizado por comprender además un emisor de luz que emite luz en un patrón predeterminado, en el que el elemento (115) de obtención obtiene a partir del controlador (220) externo la posición relativa que se identifica por el controlador (220) externo basándose en una posición del emisor de luz en una imagen tomada por una cámara (222) incluida en el controlador (220) externo y en el patrón.

Description

DESCRIPCIÓN
Dispositivo de visualización, método de visualización, programa y medio de almacenamiento de información legible por ordenador no temporal
Campo técnico
La presente divulgación se refiere a un dispositivo de visualización, a un método de visualización y a un medio de almacenamiento de información legible por ordenador no temporal.
Técnica anterior
Para un sistema de realidad virtual que proporciona al usuario un espacio virtual a través de un elemento de visualización montado en la cabeza, se ponen a disposición métodos para manejar un personaje (avatar), que es el alter ego del usuario, incluyendo, por ejemplo, detectar la dirección de los ojos del usuario y mover el avatar hacia la posición a la que se reconoce que está mirando el usuario, basándose en la dirección de los ojos detectada (véase el documento de patente 1, por ejemplo).
Lista de referencias
Bibliografía de patentes
PTL 1: publicación denominada “Kokai” de solicitud de patente japonesa n.° 2018-72992
El documento US 2017/083084 A1 se refiere a un dispositivo de visualización de imágenes configurado para visualizar una imagen de punto de vista libre que sigue el movimiento de la cabeza y el tronco del observador. La dirección de línea de visión y la orientación del tronco del usuario se orientan de manera individual en un espacio de punto de vista libre visualizado en un dispositivo de visualización basándose en información de postura de la cabeza y el tronco del usuario, que se obtienen respectivamente a partir de un dispositivo de seguimiento del movimiento de la cabeza y un dispositivo de seguimiento del movimiento del tronco. Un comportamiento que es natural en el espacio real puede representarse moviendo una línea de visión hacia una dirección delantera del tronco en un espacio en un estado en el que la línea de visión no coincide con la dirección delantera del tronco. Se impide una UI no natural que va en línea recta hacia la dirección de línea de visión independientemente de la orientación del tronco.
El documento US 9 268 136 B1 se refiere a un sistema que implica un elemento de visualización montable en la cabeza (HMD) o un dispositivo asociado que determina la orientación de la cabeza de una persona con respecto a su cuerpo. Para hacer esto, métodos y sistemas de ejemplo pueden comparar datos de sensor procedentes de1HMD con datos de sensor correspondientes procedentes de un dispositivo de seguimiento que se espera que se mueva de una manera que siga el cuerpo del usuario, tal como un teléfono móvil que está ubicado en el bolsillo del usuario de1HMD. El documento US 2017/357333 A1 se refiere a un aparato dirigido a un controlador inercial portátil inalámbrico con seguimiento óptico e inercial pasivo en un factor de forma delgado, para su uso con un dispositivo de visualización de realidad virtual o aumentada montado en la cabeza (HMD), que funciona con seis grados de libertad fusionando datos relacionados con la posición del controlador derivados a partir de un sensor óptico orientado hacia delante ubicado en el HMD con datos relacionados con la orientación del controlador derivados a partir de una unidad de medición inercial ubicada en el controlador.
Sumario de la invención
Problema técnico
Mientras tanto, el usuario a veces puede querer mover el avatar en una dirección diferente de la dirección de los ojos del usuario, tal como, por ejemplo, cuando el avatar está andando a lo largo de una pared mientras que observa cuadros en la pared en un espacio virtual que reproduce una galería de arte. Un método habitual para controlar el movimiento de un personaje en un espacio virtual puede ser usar un dispositivo terminal tal como un controlador operado por el usuario para proporcionar una instrucción sobre una dirección de movimiento particular para el personaje. Sin embargo, se supone, por ejemplo, que el cuerpo del usuario está orientado hacia delante excepto por la cabeza del usuario que está orientada hacia un lado, y que el usuario proporciona intuitivamente a través de un dispositivo terminal una instrucción sobre la dirección de movimiento con respecto a la orientación del torso del usuario. En este caso, cuando sólo puede detectarse la orientación del elemento de visualización montado en la cabeza, la instrucción sobre la dirección de movimiento se considera como que se ha proporcionado con respecto a la dirección de observación del avatar que se identifica basándose en la orientación del elemento de visualización montado en la cabeza. Como resultado, el avatar puede moverse en una dirección diferente de la dirección de movimiento que el usuario ha especificado intuitivamente.
Se pretende que la presente divulgación resuelva los problemas mencionados anteriormente, y un objetivo de la presente divulgación es proporcionar un dispositivo de visualización, un método de visualización, un programa y un medio de almacenamiento de información legible por ordenador no temporal para permitir que la posición de observación en un espacio virtual se mueva según una entrada de instrucción intuitiva proporcionada por un usuario.
Solución al problema
El objetivo de la invención se consigue mediante el objeto de las reivindicaciones independientes. En las reivindicaciones dependientes se definen realizaciones ventajosas.
Efectos ventajosos de la invención
La presente divulgación permite que la posición de observación en un espacio virtual se mueva según una entrada de instrucción intuitiva proporcionada por un usuario.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques esquemático que ilustra una configuración de hardware de un dispositivo de visualización según una realización;
la figura 2 es una vista desde arriba del dispositivo de visualización y un usuario en el espacio real antes de que se cambien las orientaciones del dispositivo de visualización y el usuario;
la figura 3A es una vista desde arriba del usuario y el dispositivo de visualización después de que se cambien sus orientaciones en el espacio real al hacer rotar el usuario la orientación sólo de la cabeza;
la figura 3B es una vista desde arriba del usuario y el dispositivo de visualización después de que se cambien sus orientaciones en el espacio real al hacer rotar el usuario la orientación sólo del torso;
la figura 4 es una vista desde arriba de un espacio virtual antes de que se cambien las orientaciones del dispositivo de visualización y el usuario en el espacio real;
la figura 5A es una vista desde arriba del espacio virtual después de que se cambien las orientaciones del dispositivo de visualización y el usuario en el espacio real al hacer rotar el usuario la orientación sólo de la cabeza;
la figura 5B es una vista desde arriba del espacio virtual después de que se cambien las orientaciones del dispositivo de visualización y el usuario en el espacio real al hacer rotar el usuario la orientación sólo del torso;
la figura 6 es un diagrama de bloques esquemático que ilustra una configuración funcional del dispositivo de visualización según una realización;
la figura 7 es una vista frontal de un controlador según una realización;
la figura 8 es una vista externa del dispositivo de visualización llevado por el usuario según un ejemplo no cubierto por la invención reivindicada;
la figura 9A es una vista desde arriba del dispositivo de visualización y el controlador cuando una posición relativa es de 0;
la figura 9B es una imagen tomada por el controlador en el estado ilustrado en la figura 9A;
la figura 10A es una vista desde arriba del dispositivo de visualización y el controlador cuando la posición relativa es 91;
la figura 10B es una imagen tomada por el controlador en el estado ilustrado en la figura 10A;
la figura 11 es un diagrama de flujo que ilustra un flujo de un procedimiento de visualización ejecutado por una unidad de control incluida en el dispositivo de visualización según una realización; y
la figura 12 es una vista desde arriba del dispositivo de visualización y el usuario en el espacio real antes de que se cambien sus orientaciones según una variación.
Descripción de realizaciones
Ahora se describirán realizaciones de la presente divulgación. Las realizaciones se presentan sólo con propósitos de explicación y no limitan el alcance de la presente divulgación. Por consiguiente, expertos en la técnica pueden adoptar realizaciones en las que cualquiera o la totalidad de los elementos en las siguientes realizaciones se sustituyen por equivalentes de los mismos, y tales realizaciones adoptadas se incluyen en el alcance de la presente divulgación. Para explicar realizaciones de la presente divulgación haciendo referencia a los dibujos, se proporcionan símbolos de referencia idénticos a partes idénticas o equivalentes a lo largo de los dibujos.
La figura 1 es un diagrama de bloques esquemático que ilustra una configuración de hardware de un dispositivo 100 de visualización según la presente realización. El dispositivo 100 de visualización incluye, por ejemplo, un elemento de visualización montado en la cabeza que tiene diversos tipos de sensores y un dispositivo de control. El elemento de visualización montado en la cabeza puede construirse montando un teléfono inteligente, un ordenador tipo tableta, un tabletófono o similares en un accesorio. En este caso, el dispositivo 100 de visualización se implementa ejecutando un programa que hace que un ordenador tal como un teléfono inteligente funcione como los componentes mencionados anteriormente en el ordenador tal como un teléfono inteligente. Tal como se ilustra en la figura 1, el dispositivo 100 de visualización incluye una unidad 101 de control, una memoria 102 de sólo lectura (ROM), una RAM 103, un elemento 104 de visualización, un sensor 105, un elemento 106 de operación y un elemento 107 de comunicación, que están conectados por un bus 108.
La unidad 101 de control, que incluye, por ejemplo, una unidad central de procesamiento (CPU), controla el dispositivo 100 de visualización en su conjunto.
La ROM 102 es una memoria no volátil que almacena programas y diversos tipos de datos necesarios para que la unidad 101 de control controle el dispositivo 100 de visualización en su conjunto.
La RAM 103 es una memoria volátil para almacenar temporalmente información generada por la unidad 101 de control y datos necesarios para generar la información.
El elemento 104 de visualización, que incluye una pantalla de cristal líquido (LCD), una retroiluminación y así sucesivamente, está bajo el control de la unidad 101 de control para mostrar, por ejemplo, una imagen a la que da salida la unidad 101 de control.
El sensor 105, que puede incluir un sensor de actitud y un sensor de aceleración, detecta la orientación del dispositivo 100 de visualización. El sensor 105 da salida a una señal que indica la orientación detectada del dispositivo 100 de visualización a la unidad 101 de control.
El elemento 106 de operación incluye un dispositivo de entrada tal como un botón, un teclado y un panel táctil. El elemento 106 de operación acepta operaciones introducidas por el usuario del dispositivo 100 de visualización y da salida a señales correspondientes a las operaciones de entrada aceptadas a la unidad 101 de control.
El elemento 107 de comunicación incluye una interfaz de comunicación para comunicarse con un controlador 220, que se describirá a continuación. El elemento 107 de comunicación se comunica con el controlador 220 con una norma de comunicación inalámbrica tal como Bluetooth®.
A continuación se describe una relación posicional entre el dispositivo 100 de visualización y el usuario 202 en un espacio 201 real y en un espacio 301 virtual mostrado en el dispositivo 100 de visualización según la presente realización. La figura 2 es una vista desde arriba del espacio 201 real (en el tiempo ta) antes de que se cambien las orientaciones y posiciones del dispositivo 100 de visualización y el usuario 202. La figura 4 es una vista desde arriba del espacio 301 virtual (en el tiempo ta) antes de que se cambien las orientaciones y posiciones del dispositivo 100 de visualización y el usuario 202 en el espacio 201 real. Las figuras 3A y 3B son vistas desde arriba del espacio 201 real (en el tiempo tb) después de que se cambien las orientaciones y posiciones del dispositivo 100 de visualización y el usuario 202. La figura 3A muestra el espacio 201 real después de que se cambie la orientación del dispositivo 100 de visualización al hacer rotar el usuario 202 la orientación sólo de la cabeza 203. La figura 3B muestra el espacio 201 real después de que el usuario 202 cambie la orientación sólo del torso 204. Las figuras 5A y 5B son vistas desde arriba del espacio 301 virtual (en el tiempo tb) después de que se cambien las orientaciones y posiciones del dispositivo 100 de visualización y el usuario 202 en el espacio 201 real. La figura 5A muestra el espacio 301 virtual después de que el usuario 202 cambie la orientación del dispositivo 100 de visualización al hacer rotar la orientación sólo de la cabeza 203. La figura 5B muestra el espacio 301 virtual después de que el usuario 202 cambie la orientación sólo del torso 204. La siguiente descripción se proporciona con referencia a estas figuras. Se añaden letras en minúsculas a estas figuras según sea apropiado para expresar un transcurso de tiempo desde el tiempo ta hasta el tiempo tb. Estas letras en minúsculas se omiten en la siguiente descripción si resulta apropiado.
Tal como se ilustra en las figuras 2, 3A y 3B, el usuario 202 lleva puesto el dispositivo 100 de visualización colocado en frente de los ojos del usuario 202 en el espacio 201 real. Cuando el usuario 202 lleva puesto el dispositivo 100 de visualización, la dirección 205 de visualización del dispositivo 100 de visualización es opuesta a la dirección 303 de observación de un avatar 401, que se describirá a continuación, en el espacio 301 virtual tal como se ilustra en las figuras 4, 5A y 5B.
En el espacio 201 real, el usuario 202 está sujetando el controlador 220. El controlador 220 es un dispositivo terminal para manejar el avatar 401, que se coloca en el espacio 301 virtual y se visualiza en el dispositivo 100 de visualización.
El avatar 401 es un objeto creado usando infografía para representar un alter ego del usuario 202 en el espacio 301 virtual. Tal como se ilustra en las figuras 4, 5A y 5B, en la presente realización, el avatar 401 tiene forma de humano, y la posición de la cabeza 402 del avatar 401 corresponde a una posición 302 de observación, la dirección de los ojos de la cabeza 402 corresponde a una dirección 303 de observación, y la dirección hacia delante del torso 403 corresponde a una dirección 304 de base. El controlador 220 puede comunicarse de manera inalámbrica con el dispositivo 100 de visualización usando Bluetooth®, por ejemplo. Por ejemplo, el usuario 202 introduce una entrada de instrucción que indica una dirección de movimiento del avatar 401 al controlador 220 haciendo funcionar una tecla o un panel táctil incluido en el controlador 220. El controlador 220 transmite entonces la entrada de instrucción aceptada al dispositivo 100 de visualización. Tal como se describe a continuación, el dispositivo 100 de visualización actualiza la posición 303 de observación, la dirección 303 de observación y la dirección 304 de base del avatar 401 en el espacio 301 virtual, basándose en la entrada de instrucción recibida desde el controlador 220 y en la orientación del dispositivo 100 de visualización.
Obsérvese que direcciones 211 acimutales en el espacio 201 real pueden coincidir o no con direcciones 311 acimutales en el espacio 301 virtual. En la presente realización, las direcciones acimutales difieren entre el espacio real y el espacio virtual.
La figura 6 es un diagrama de bloques esquemático que ilustra una configuración funcional del dispositivo 100 de visualización según la realización de la presente divulgación. Tal como se muestra en la figura 6, el dispositivo 100 de visualización incluye un elemento 111 de aceptación, un elemento 112 de actualización de posición de observación, un detector 113, un elemento 114 de actualización de dirección de observación, un elemento 115 de obtención, un elemento 116 de actualización de dirección de base, un generador 117, una unidad 118 de visualización y un almacenamiento 121 de información de estado.
El almacenamiento 121 de información de estado almacena la posición 302 de observación, la dirección 303 de observación y la dirección 304 de base del avatar 401 en el espacio 301 virtual. Tal como se describe a continuación, la posición 302 de observación, la dirección 303 de observación y la dirección 304 de base se actualizan mediante el elemento 112 de actualización de posición de observación, el elemento 114 de actualización de dirección de observación y el elemento 116 de actualización de dirección de base, respectivamente. El almacenamiento 121 de información de estado se implementa mediante la RAM 103.
El elemento 111 de aceptación acepta una entrada de instrucción que se proporciona al controlador 220 para indicar una dirección de movimiento. Por ejemplo, el elemento 111 de aceptación recibe, desde el controlador 220 a través del elemento 107 de comunicación, una señal que indica una entrada de instrucción aceptada por el controlador 220. En la presente realización, la unidad 101 de control y el elemento 107 de comunicación colaboran entre sí para funcionar como elemento 111 de aceptación.
Cuando el elemento 111 de aceptación acepta una entrada de instrucción, el elemento 112 de actualización de posición de observación actualiza la posición 302 de observación de modo que la posición de observación se mueve en la dirección indicada por la instrucción de entrada con respecto a la dirección 304 de base. Como ejemplo, se supone que el elemento 111 de aceptación ha recibido desde el controlador 220 una entrada de instrucción para moverse hacia delante, es decir, para moverse en la dirección 206a hacia delante del torso 204a desde el tiempo ta hasta el tiempo tb, tal como se ilustra en la figura 2. Después, el elemento 112 de actualización de posición de observación actualiza, tal como se ilustra en las figuras 5A y 5B, la posición 302a de observación actual almacenada en el almacenamiento 121 de información de estado a la posición 302b de observación, a la que la posición 302a de observación se moverá hacia delante a lo largo de la dirección 304a de base a la velocidad V con respecto a la dirección 304a de base actual almacenada en el almacenamiento 121 de información de estado. Dicho de otro modo, el elemento 112 de actualización de posición de observación actualiza a la posición 302b de observación, que es hacia delante alejándose de la posición 302a de observación una distancia V x (tb - ta).
El intervalo de tiempo entre el tiempo ta y el tiempo tb puede determinarse según una aplicación deseada. Por ejemplo, el intervalo de refresco (tal como un periodo de sincronización vertical) para el elemento 104 de visualización en el dispositivo 100 de visualización puede usarse como el intervalo de tiempo. El tiempo tb en una unidad de repetición se toma como el tiempo ta en la siguiente unidad de repetición porque el procedimiento se repite tal como se describe a continuación.
En la presente realización, la unidad 101 de control funciona como elemento 112 de actualización de posición de observación.
El detector 113 detecta un cambio en la orientación del dispositivo 100 de visualización en el espacio 201 real. Por ejemplo, a partir de mediciones proporcionadas por el sensor 105, el detector 113 detecta un cambio en la dirección 205 de visualización del dispositivo 100 de visualización con respecto al eje de referencia en el espacio 201 real. Como eje de referencia en el espacio 201 real, se adopta normalmente o bien la dirección de la fuerza de la gravedad en el espacio 201 real o bien la dirección vertical del elemento 104 de visualización en el dispositivo 100 de visualización.
En la presente realización, la unidad 101 de control y el sensor 105 colaboran entre sí para funcionar como detector 113.
El elemento 114 de actualización de dirección de observación actualiza la dirección 303 de observación en el espacio 301 virtual, según la orientación del dispositivo 100 de visualización tal como se detecta por el detector 113. Por ejemplo, el elemento 114 de actualización de dirección de observación comienza con la obtención de una cantidad de rotación 0 alrededor del eje de referencia en el espacio 201 real, con respecto al cambio en la dirección 205 de visualización del dispositivo 100 de visualización tal como se detecta por el detector 113 desde el tiempo ta hasta el tiempo tb. Específicamente, la figura 2 muestra que el dispositivo 100a de visualización está orientado hacia el usuario 202 en la dirección 205a de visualización antes de que el usuario 202 cambie la orientación de la cabeza 203a. La figura 3A muestra que el dispositivo 100b de visualización está orientado hacia el usuario 202 en la dirección 205b de visualización después de que el usuario 202 cambie la orientación de la cabeza 203b. El ángulo formado entre la dirección 205a de visualización y la dirección 205b de visualización es la cantidad de rotación 0 alrededor del eje de referencia. La cantidad de rotación 0 es equivalente al denominado ángulo de guiñada.
Después, tal como se ilustra en la figura 5A, el elemento 114 de actualización de dirección de observación actualiza la dirección 303a de observación a la dirección 303b de observación al hacer rotar la dirección 303a de observación, que se almacena en el almacenamiento 121 de información de estado, alrededor del eje de referencia de la posición 302a de observación en el espacio 301 virtual por la cantidad de rotación 0.
En la presente realización, la unidad 101 de control funciona como elemento 114 de actualización de dirección de observación.
El elemento 115 de obtención obtiene a parir del controlador 220 la posición relativa entre el controlador 220 y el dispositivo 100 de visualización.
A continuación se describe un método de ejemplo para obtener la posición relativa en la presente realización. La figura 7 es una vista frontal del controlador 220 según la presente realización. El controlador 220 según la presente realización es un teléfono inteligente que incluye un panel 221 táctil y una cámara 222, ambos dispuestos en la cara delantera tal como se ilustra en la figura 7. El panel 221 táctil acepta una entrada de instrucción proporcionada por el usuario 202 que indica una dirección de movimiento. Por ejemplo, cuando el usuario 202 desliza un dedo del usuario 202 sobre el panel 221 táctil, el panel 221 táctil detecta la dirección de deslizamiento y reconoce que se ha aceptado una entrada de instrucción que indica la dirección de movimiento correspondiente a la dirección de deslizamiento detectada. La cámara 222, que es un ejemplo de un sensor para detectar el dispositivo 100 de visualización, toma imágenes de una escena en frente de la cámara 222. Específicamente, la cámara 222 toma imágenes de una escena que incluye el dispositivo 100 de visualización, estando la cámara 222 sujetada por el usuario 202 tal como se ilustra en las figuras 2 y 3. Basándose en la posición del dispositivo de visualización que aparece en una imagen tomada por la cámara 222, el controlador 220 identifica la posición relativa entre el controlador 220 y el dispositivo 100 de visualización.
A continuación se describe con detalle un método de ejemplo no cubierto por la invención reivindicada para identificar la posición relativa basándose en la posición del dispositivo de visualización en una imagen tomada por la cámara 222. La figura 8 es una vista externa del dispositivo 100 de visualización llevado puesto por el usuario según un ejemplo no cubierto por la invención reivindicada. Tal como se muestra en la figura 8, el dispositivo 100 de visualización incluye marcadores 501 y 502 dispuestos en los extremos derecho e izquierdo de la parte inferior. El controlador 220 reconoce los marcadores 501 y 502 en una imagen tomada por la cámara 220 para identificar la posición relativa basándose en las posiciones de los marcadores 501 y 502 en la imagen. En la siguiente descripción, se supone que el controlador 220 siempre está posicionado en frente del usuario 202, y la posición relativa 9 que va a identificarse se define como un ángulo formado entre la dirección 205 de visualización y una dirección 207 de referencia, que es la dirección 205 de visualización del dispositivo 100 de visualización llevado puesto por el usuario 202 que está orientado hacia delante. Las figuras 9A, 9B, 10A y 10B muestran ejemplos de la posición relativa entre el dispositivo 100 de visualización y el controlador 220 y ejemplos de imágenes tomadas por la cámara 220 en la posición relativa. La figura 9A es una vista desde arriba del dispositivo 100 de visualización y el controlador 220 cuando la posición relativa 9 es de 0. En esta posición relativa, el controlador 220 toma una imagen 601 tal como se ilustra en la figura 9B. La figura 9B muestra que los marcadores 501 y 502 están posicionados para presentar simetría lineal con respecto a un eje vertical de simetría en la imagen 601.
La figura 10A es una vista desde arriba del dispositivo 100 de visualización y el controlador 220 cuando la posición relativa 9 = 91 (91 > 0). En esta posición relativa, el controlador 220 toma una imagen 602 tal como se ilustra en la figura 10B. La figura 10B muestra que los marcadores 501 y 502 están desviados a la derecha desde las posiciones de los marcadores 501 y 502 en la imagen 601 en la figura 9B.
El controlador 220 es capaz de identificar la posición relativa 9 a partir de relaciones posicionales de los marcadores 501 y 502 en una imagen tomada por la cámara 222, almacenando de antemano una posición relativa 9 y relaciones posicionales de los marcadores 501 y 502 en una imagen tomada por la cámara 222 en la posición relativa 9 tal como se ilustra en las figuras 9A y 9B y en las figuras 10A y 10B. El controlador 220 transmite la posición relativa identificada 9 al dispositivo 100 de visualización. Por tanto, el elemento 115 de obtención en el dispositivo 100 de visualización puede obtener la posición relativa 9 a partir del controlador 220 a través del elemento 107 de comunicación.
En la presente realización, la unidad 101 de control y el elemento 107 de comunicación colaboran entre sí para funcionar como elemento 115 de obtención.
El elemento 116 de actualización de dirección de base actualiza la dirección 304 de base, basándose en la dirección 303 de observación y en la posición relativa obtenidas por el elemento 115 de obtención.
A modo de ejemplo, a continuación se describe una actualización de la dirección de base en el caso en que el elemento 115 de obtención ha obtenido, a partir del controlador 220, una posición relativa 9, que es un ángulo formado entre la dirección 207 de referencia y la dirección 205 de visualización. Por ejemplo, cuando el elemento 115 de obtención obtiene a partir del controlador 220 la posición relativa 9 = 91 en el tiempo tb, el elemento 116 de actualización de dirección de base determina la dirección 304b de base para formar un ángulo 91 con la dirección 303b de observación tal como se ilustra en la figura 5B, debido a que una posición relativa 9 corresponde a un ángulo formado entre la dirección 303 de observación y la dirección 304 de base en el espacio 301 virtual. Dicho de otro modo, el elemento 116 de actualización de dirección de base actualiza la dirección 304a de base a la dirección 304b de base al rotar, por una posición relativa de 91, la dirección 303b de observación, que se almacena en el almacenamiento 121 de información de estado, alrededor del eje de referencia de la posición 302a de observación, que se almacena en el almacenamiento 121 de información de estado.
En la presente realización, la unidad 101 de control funciona como elemento 116 de actualización de dirección de base.
Basándose en la posición 302 de observación y la dirección 303 de observación que se almacenan en la información 121 de estado, el generador 117 genera una imagen del espacio 301 virtual tal como se observa desde la posición 302 de observación en la dirección 303 de observación. Específicamente, el generador 117 genera una imagen de objetos (no ilustrados) colocados en el espacio virtual, tal como se observa desde la posición 302 de observación en la dirección 303 de observación, usando una técnica tal como proyección en perspectiva, basándose en formas y posiciones predeterminadas de los objetos en el espacio 301 virtual. Por ejemplo, tal como se ilustra en la figura 3A, en el caso en que el usuario 202 cambia la orientación del dispositivo 100 de visualización cambiando la orientación sólo de la cabeza 203, el generador 117 genera, en el tiempo ta, una imagen del espacio 301 virtual observado desde la posición 302a de observación en la dirección 303a de observación indicada en la figura 5A, y genera, en el tiempo tb, una imagen del espacio 301 virtual observado desde la posición 302b de observación en la dirección 303b de observación indicada en la figura 5A. En el caso en que el usuario 202 sólo cambia la orientación del torso 204 tal como se ilustra en la figura 3B, el generador 117 genera, en el tiempo ta, una imagen del espacio 301 virtual observado desde la posición 302a de observación en la dirección 303a de observación indicada en la figura 5B, y genera, en el tiempo tb, una imagen del espacio 301 virtual observado desde la posición 302b de observación en la dirección 303b de observación indicada en la figura 5B.
En la presente realización, la unidad 101 de control funciona como generador 117.
La unidad 118 de visualización muestra una imagen generada por el generador 117 en el elemento 104 de visualización.
En la presente realización, la unidad 101 de control y el elemento 104 de visualización colaboran entre sí para funcionar como unidad 118 de visualización.
A continuación se describen operaciones del dispositivo 100 de visualización según la realización de la presente divulgación. La figura 11 es un diagrama de flujo que ilustra un flujo de un procedimiento de visualización ejecutado por la unidad 101 de control en el dispositivo 100 de visualización. El inicio del procedimiento se activa, por ejemplo, mediante la aceptación de una instrucción para iniciar el procedimiento a través del elemento 106 de operación.
En primer lugar, el dispositivo 100 de visualización inicializa la posición 302 de observación y la dirección 303 de observación en el espacio 301 virtual a una posición y dirección predeterminadas, y almacena la posición 302 de observación y la dirección 303 de observación en el almacenamiento 121 de información de estado (etapa S101).
A continuación, el dispositivo 100 de visualización inicializa el espacio 301 virtual (etapa S102). Durante la inicialización, el dispositivo 100 de visualización realiza ajustes, incluyendo, por ejemplo, obtener y establecer la posición, forma, orientación y aspecto de un objeto que va a colocarse en el espacio 301 virtual, y obtener y establecer una imagen del fondo que se supone que va a colocarse a una distancia infinita en el espacio 301 virtual.
El dispositivo 100 de visualización determina entonces si se ha aceptado una entrada de instrucción desde el controlador 220 (etapa S103). Si no se ha aceptado ninguna entrada de instrucción desde el controlador (No en la etapa S103), el dispositivo 100 de visualización va a la etapa S105.
Si se ha aceptado una entrada de instrucción desde el controlador (Sí en la etapa S103), el dispositivo 100 de visualización actualiza la posición 302 de observación, que se almacena en el almacenamiento 121 de información de estado, a la posición 302 de observación, a la que la posición de observación se moverá una distancia determinada en la dirección de movimiento indicada por la entrada de instrucción aceptada (etapa S104).
Después, el dispositivo 100 de visualización determina si se ha detectado un cambio en la orientación del dispositivo 100 de visualización (etapa S105). Si no se ha detectado ningún cambio en la orientación del dispositivo 100 de visualización (No en la etapa S105), el dispositivo 100 de visualización va a la etapa S107.
Si se ha detectado un cambio en la orientación del dispositivo 100 de visualización (Sí en la etapa S105), el dispositivo 100 de visualización actualiza la dirección 303 de observación, que se almacena en el almacenamiento 121 de información de estado, según la cantidad de rotación 0 que representa el cambio detectado en la orientación del dispositivo 100 de visualización (etapa S106).
A continuación, el dispositivo 100 de visualización obtiene la posición relativa entre el controlador 220 y el dispositivo 100 de visualización (etapa S107). Basándose en la dirección 303 de observación, que se almacena en el almacenamiento 121 de información de estado, y en la posición relativa obtenida, el dispositivo 100 de visualización actualiza la dirección 304 de base, que se almacena en el almacenamiento 121 de información de estado (etapa S108).
Después, el dispositivo 100 de visualización genera una imagen del espacio 301 virtual observado en la dirección 303 de observación desde la posición 302 de observación, tal como se almacena en el almacenamiento 121 de información de estado (etapa S109).
Después de esto, el dispositivo 100 de visualización espera hasta que se produce una interrupción de sincronización vertical en el elemento 104 de visualización (etapa S110) y después transfiere la imagen generada al elemento 104 de visualización para presentar la imagen al usuario (etapa S111).
Después, el dispositivo 100 de visualización actualiza el estado del espacio 301 virtual (etapa S112). Por ejemplo, en el caso en que el espacio 301 virtual se crea mediante infografías que cambian con el tiempo, el dispositivo 100 de visualización lleva a cabo una simulación física mediante la cual se actualizan la posición y orientación de un objeto según la velocidad, aceleración, velocidad angular, aceleración angular y similares que se establecen para el objeto, o deforma un objeto según condiciones predeterminadas.
El dispositivo 100 de visualización vuelve entonces al procesamiento en la etapa S103. El dispositivo 100 de visualización repite el procedimiento anterior hasta que, por ejemplo, se acepta una instrucción para salir del procedimiento a través del elemento 106 de operación. Puesto que el dispositivo 100 de visualización espera en la etapa S110, el periodo de ciclo para este procedimiento es un periodo de sincronización vertical.
Tal como se describió anteriormente, tras la aceptación de una entrada de instrucción que indica la dirección de movimiento proporcionada a través del controlador 220, el dispositivo 100 de visualización según la realización de la presente divulgación actualiza la posición de observación del avatarde modo que la posición de observación se mueve en la dirección de movimiento indicada por la entrada de instrucción con respecto a la dirección de base del avatar 401. Además, el dispositivo 100 de visualización obtiene la posición relativa entre el controlador 220 y el dispositivo 100 de visualización identificando la posición del dispositivo 100 de visualización que aparece en una imagen tomada por la cámara 222 incluida en el controlador 220. Después, el dispositivo 100 de visualización actualiza la dirección de base, basándose en la dirección de observación del avatar 401 tal como se actualiza según el cambio en la orientación del dispositivo de visualización detectado por el sensor 105 y en la posición relativa obtenida. Por tanto, la dirección 302 de observación, que representa la orientación de la cabeza 402 del avatar 401 en el espacio 301 virtual, y la dirección 304 de base, que representa la orientación del torso 403 del avatar, se gestionan independientemente por el dispositivo 100 de visualización. Por tanto, aunque el usuario introduzca de manera intuitiva en el controlador 220 una entrada de instrucción que indica la dirección de movimiento con respecto a la dirección hacia delante 206 del torso 204 del usuario, el dispositivo 100 de visualización es capaz de mover la posición 302 de observación en el espacio virtual según tal entrada de instrucción intuitiva proporcionada por el usuario.
Además, el dispositivo 100 de visualización obtiene a partir del controlador 220 la posición relativa identificada por el controlador 220 basándose en la posición del dispositivo 100 de visualización que aparece en una imagen tomada por la cámara 222. Por tanto, el dispositivo 100 de visualización puede obtener la posición relativa sin usar un dispositivo externo tal como una cámara para tomar una imagen que incluye imágenes del controlador 220 y el dispositivo 100 de visualización. Por tanto, el dispositivo 100 de visualización puede implementarse en una configuración de menor coste.
Anteriormente se han descrito realizaciones de la presente divulgación, pero estas realizaciones son sólo ejemplos y el alcance de la presente divulgación no se limita a las mismas. Dicho de otro modo, la presente divulgación permite diversas aplicaciones y cada realización posible se incluye en el alcance de la presente divulgación.
Por ejemplo, en un ejemplo no cubierto por la invención reivindicada, el dispositivo 100 de visualización incluye dos marcadores 501 y 502, pero el número de marcadores incluidos en el dispositivo 100 de visualización no se limita a dos. El dispositivo 100 de visualización puede incluir un único marcador o puede incluir al menos tres marcadores.
En el ejemplo mencionado no cubierto por la invención reivindicada, la cámara 222 incluida en el controlador 220 reconoce los marcadores 501 y 502 incluidos en el dispositivo 100 de visualización, mediante los cuales el controlador 220 identifica la posición relativa entre el controlador 220 y el dispositivo 100 de visualización y transmite la posición relativa identificada al dispositivo 100 de visualización. Sin embargo, según la invención reivindicada, el dispositivo 100 de visualización incluye, en lugar de los marcadores 501 y 502, un emisor de luz tal como un diodo emisor de luz (LED). En este caso, el dispositivo 100 de visualización hace que el emisor de luz parpadee en un patrón predeterminado de modo que el controlador 220 puede reconocer el emisor de luz en una imagen tomada por la cámara 222, identificando de ese modo la posición relativa basándose en la posición del emisor de luz.
Según la invención reivindicada, el controlador 220 identifica la posición relativa y transmite la posición relativa identificada al dispositivo 100 de visualización, mediante lo cual el dispositivo 100 de visualización obtiene la posición relativa. En otro ejemplo no cubierto por la invención reivindicada, el dispositivo 100 de visualización incluye una cámara y el controlador 220 incluye marcadores, la cámara incluida en el dispositivo 100 de visualización, en lugar de la cámara 222 incluida en el controlador 220, puede tomar una imagen del controlador 220, y el dispositivo 100 de visualización puede identificar la posición relativa a partir de las posiciones de los marcadores que aparecen en la imagen tomada. Dicho de otro modo, un sensor incluido en uno del controlador 220 y el dispositivo 100 de visualización detecta el otro del controlador 220 y el dispositivo 100 de visualización, estando el sensor incluido en al menos uno del controlador 220 y el dispositivo 100 de visualización, mediante lo cual puede obtenerse la posición relativa entre el controlador 220 y el dispositivo 100 de visualización.
Cuando la cámara 222 en el controlador 220 es incapaz de detectar el dispositivo 100 de visualización en la realización anterior, tal como, por ejemplo, cuando los marcadores 501 y 502 no se reconocen basándose en una imagen tomada por la cámara 222 en el controlador 220, el dispositivo 100 de visualización puede obtener una posición relativa estimada a partir de una diferencia entre una primera orientación detectada por un sensor de actitud incluido en el controlador 220 y una segunda orientación detectada por un sensor de actitud incluido en el sensor 105 en el dispositivo 100 de visualización. Se supone que, tal como se ilustra en un ejemplo en la figura 12, en el tiempo ta, el sensor de actitud en el controlador 220 detecta la primera orientación, que es una dirección 208a de visualización del controlador 220, mientras que el sensor de actitud incluido en el sensor 105 en el dispositivo 100 de visualización detecta una dirección 205a de visualización. Después, el controlador 220 puede transmitir la dirección 208a de visualización detectada al dispositivo 100 de visualización, y el dispositivo 100 de visualización puede estimar la posición relativa 9 a partir de una diferencia entre la dirección 208a de visualización recibida y la dirección 205a de visualización detectada. Alternativamente, el dispositivo 100 de visualización puede transmitir la dirección 205a de visualización detectada al controlador 220, y el controlador 220 puede estimar la posición relativa 9 a partir de una diferencia entre la dirección 208a de visualización detectada y la dirección 205a de visualización recibida. En este caso, el controlador 220 transmite la posición relativa estimada 9 al dispositivo 100 de visualización, mediante lo cual el dispositivo 100 de visualización puede obtener la posición relativa 9.
Pueden proporcionarse funciones según la presente divulgación en forma del dispositivo 100 de visualización previamente configurado para implementar estas funciones y, además, un aparato existente tal como un ordenador personal o un dispositivo terminal de información puede funcionar como dispositivo 100 de visualización según la presente divulgación cuando se aplica un programa al aparato. Dicho de otro modo, aplicando un programa para implementar los componentes funcionales individuales del dispositivo 100 de visualización ilustrado en la realización anterior a un ordenador personal existente o un dispositivo terminal de información de tal manera que el programa puede ejecutarse por la CPU o similar que controla el ordenador personal existente o el dispositivo terminal de información, el ordenador personal o el dispositivo terminal de información puede funcionar como dispositivo 100 de visualización según la presente divulgación. Puede implementarse un método de visualización según la presente divulgación usando el dispositivo 100 de visualización.
Además del método mencionado anteriormente, el programa puede aplicarse mediante cualquier método apropiado. Por ejemplo, puede aplicarse el programa almacenado en un medio de almacenamiento legible por ordenador (una memoria de sólo lectura de disco compacto (CD-ROM), un disco versátil digital (DVD), un disco magnetoóptico (MO) y así sucesivamente) o puede descargarse el programa almacenado en un almacenamiento en una red tal como Internet para aplicarse.
La memoria descriptiva y los dibujos deben considerarse en un sentido ilustrativo en vez de restrictivo. Por tanto, esta descripción detallada no debe interpretarse en un sentido limitativo, y el alcance de la invención se define sólo mediante las reivindicaciones incluidas.
Aplicabilidad industrial
La presente divulgación consigue proporcionar un dispositivo de visualización, un método de visualización, un programa y un medio de almacenamiento de información legible por ordenador no temporal para visualizar imágenes.
Lista de signos de referencia
100 (100a, 100b) Dispositivo de visualización
101 Unidad de control
102 ROM
103 RAM
104 Elemento de visualización
105 Sensor
106 Elemento de operación
107 Elemento de comunicación
108 Bus
111 Elemento de aceptación
112 Elemento de actualización de posición de observación
113 Detector
114 Elemento de actualización de dirección de observación
115 Elemento de obtención
116 Elemento de actualización de dirección de base
117 Generador
118 Unidad de visualización
121 Almacenamiento de información de estado
201 Espacio real
202 Usuario
203 (203a, 203b) Cabeza del usuario
204 (204a, 204b) Torso del usuario
205 (205a, 205b) Dirección de visualización del dispositivo de visualización 206 (206a, 206b) Dirección hacia delante
207 (207a, 207b) Dirección de referencia
208a Dirección de visualización del controlador
211 Direcciones acimutales en el espacio real
220 Controlador
221 Panel táctil
222 Cámara
301 Espacio virtual
302 (302a, 302b) Posición de observación
(303a, 303b) Dirección de observación (304a, 304b) Dirección de base Direcciones acimutales en el espacio virtual (401a, 401b) Avatar
(402a, 402b) Cabeza del avatar
(403a, 403b) Torso del avatar
, 502 Marcador
,602 Imagen

Claims (1)

  1. REIVINDICACIONES
    Dispositivo (100) de visualización que comprende:
    un elemento (111) de aceptación que acepta una entrada de instrucción que indica una dirección de movimiento, proporcionándose la entrada de instrucción a un controlador (220) externo;
    un detector (113) que detecta un cambio en la orientación del dispositivo (100) de visualización;
    un almacenamiento (121) que almacena una posición de observación de avatar, una dirección de observación de avatar y una dirección de base de avatar en un espacio virtual;
    un elemento (112) de actualización de posición de observación que actualiza, tras la aceptación de la entrada de instrucción, la posición de observación de avatar de modo que la posición de observación de avatar se mueve en la dirección de movimiento indicada por la entrada de instrucción con respecto a la dirección de base de avatar;
    un elemento (114) de actualización de dirección de observación que actualiza la dirección de observación de avatar según el cambio detectado en la orientación del dispositivo (100) de visualización;
    un elemento (115) de obtención que obtiene una posición relativa entre el controlador (220) externo y el dispositivo (100) de visualización;
    un elemento (116) de actualización de dirección de base que actualiza la dirección de base de avatar, basándose en la dirección de observación de avatar y en la posición relativa obtenida;
    caracterizado por comprender además
    un emisor de luz que emite luz en un patrón predeterminado,
    en el que el elemento (115) de obtención obtiene a partir del controlador (220) externo la posición relativa que se identifica por el controlador (220) externo basándose en una posición del emisor de luz en una imagen tomada por una cámara (222) incluida en el controlador (220) externo y en el patrón.
    Dispositivo (100) de visualización según la reivindicación 1,
    en el que el elemento (115) de obtención obtiene la posición relativa a través de una detección realizada por un sensor (222) incluido en el controlador (220) externo para detectar el dispositivo (100) de visualización. Dispositivo de visualización según la reivindicación 1,
    en el que el elemento (115) de obtención obtiene la posición relativa estimada a partir de una diferencia entre una primera orientación detectada por un primer sensor de actitud incluido en el controlador (220) externo y una segunda orientación detectada por un segundo sensor de actitud incluido en el dispositivo (100) de visualización.
    Método de visualización ejecutado por un dispositivo (100) de visualización que comprende un almacenamiento (121) que almacena una posición de observación de avatar, una dirección de observación de avatar y una dirección de base de avatar en un espacio virtual, comprendiendo el método de visualización: una etapa de aceptación de aceptar una entrada de instrucción que indica una dirección de movimiento, proporcionándose la entrada de instrucción a un controlador (220) externo;
    una etapa de detección de detectar un cambio en la orientación del dispositivo (100) de visualización; una etapa de actualización de posición de observación de actualizar, tras la aceptación de la entrada de instrucción, la posición de observación de avatar de modo que la posición de observación de avatar se mueve en la dirección de movimiento indicada por la entrada de instrucción con respecto a la dirección de base de avatar;
    una etapa de actualización de dirección de observación de actualizar la dirección de observación de avatar según el cambio detectado en la orientación del dispositivo (100) de visualización;
    una etapa de obtención de obtener una posición relativa entre el controlador (220) externo y el dispositivo (100) de visualización;
    una etapa de actualización de dirección de base de actualizar la dirección de base de avatar, basándose en la dirección de observación de avatar y en la posición relativa obtenida;
    caracterizado por comprender además
    una etapa de emisión de emitir, mediante un emisor de luz, luz en un patrón predeterminado,
    en el que en la etapa de obtención se obtiene la posición relativa basándose en una posición del emisor de luz en una imagen tomada por una cámara (222) incluida en el controlador (220) externo y en el patrón. Medio de almacenamiento de información legible por ordenador no temporal que registra un programa que hace que un ordenador que comprende un almacenamiento (121) que almacena una posición de observación de avatar, una dirección de observación de avatar y una dirección de base de avatar en un espacio virtual funcione como:
    un elemento (111) de aceptación que acepta una entrada de instrucción que indica una dirección de movimiento, proporcionándose la entrada de instrucción a un controlador (220) externo;
    un detector (113) que detecta un cambio en orientación de un dispositivo de visualización;
    un elemento (112) de actualización de posición de observación que actualiza, tras la aceptación de la entrada de instrucción, la posición de observación de avatar de modo que la posición de observación de avatar se mueve en la dirección de movimiento indicada por la entrada de instrucción con respecto a la dirección de base de avatar;
    un elemento (114) de actualización de dirección de observación que actualiza la dirección de observación de avatar según el cambio detectado en la orientación del dispositivo (100) de visualización;
    un elemento (115) de obtención que obtiene una posición relativa entre el controlador (220) externo y el dispositivo (100) de visualización;
    un elemento (116) de actualización de dirección de base que actualiza la dirección de base de avatar, basándose en la dirección de observación de avatar y en la posición relativa obtenida;
    caracterizado por comprender además
    un emisor de luz que emite luz en un patrón predeterminado,
    en el que el elemento (115) de obtención obtiene a partir del controlador (220) externo la posición relativa que se identifica por el controlador (220) externo basándose en una posición del emisor de luz en una imagen tomada por una cámara (222) incluida en el controlador (220) externo y en el patrón.
ES18928946T 2018-08-01 2018-08-01 Dispositivo de visualización, método de visualización, programa y medio de almacenamiento de información legible por ordenador no temporal Active ES2896704T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/028874 WO2020026380A1 (ja) 2018-08-01 2018-08-01 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Publications (1)

Publication Number Publication Date
ES2896704T3 true ES2896704T3 (es) 2022-02-25

Family

ID=66625545

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18928946T Active ES2896704T3 (es) 2018-08-01 2018-08-01 Dispositivo de visualización, método de visualización, programa y medio de almacenamiento de información legible por ordenador no temporal

Country Status (5)

Country Link
US (1) US11321920B2 (es)
EP (1) EP3677995B1 (es)
JP (1) JP6518028B1 (es)
ES (1) ES2896704T3 (es)
WO (1) WO2020026380A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7517161B2 (ja) * 2021-01-15 2024-07-17 オムロン株式会社 情報提示システム、端末装置およびプログラム
US11977672B2 (en) * 2022-06-03 2024-05-07 Qualcomm Incorporated Distributed pose prediction

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9268136B1 (en) 2012-09-28 2016-02-23 Google Inc. Use of comparative sensor data to determine orientation of head relative to body
JP2015223334A (ja) * 2014-05-28 2015-12-14 株式会社デンソー 表示システム
KR102420313B1 (ko) * 2014-06-30 2022-07-13 소니그룹주식회사 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 그리고 화상 처리 시스템
JP2016158795A (ja) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10146334B2 (en) * 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Passive optical and inertial tracking in slim form-factor
US20180024623A1 (en) * 2016-07-22 2018-01-25 Google Inc. Detecting user range of motion for virtual reality user interfaces
JP6523233B2 (ja) 2016-10-26 2019-05-29 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2018072604A (ja) * 2016-10-31 2018-05-10 株式会社コロプラ Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置
AU2018355441B2 (en) * 2017-10-27 2023-11-09 Magic Leap, Inc. Virtual reticle for augmented reality systems

Also Published As

Publication number Publication date
JPWO2020026380A1 (ja) 2020-08-06
JP6518028B1 (ja) 2019-05-22
EP3677995A4 (en) 2020-09-30
EP3677995B1 (en) 2021-10-06
WO2020026380A1 (ja) 2020-02-06
US20200279437A1 (en) 2020-09-03
EP3677995A1 (en) 2020-07-08
US11321920B2 (en) 2022-05-03

Similar Documents

Publication Publication Date Title
JP6674703B2 (ja) ヘッドマウントディスプレイにおけるメニューナビゲーション
US10096167B2 (en) Method for executing functions in a VR environment
US10565725B2 (en) Method and device for displaying virtual object
CN105209959B (zh) 用于头戴式显示器的用户界面
ES2935124T3 (es) Sistema de visualización de imágenes, procedimiento de control del sistema de visualización de imágenes, sistema de distribución de imágenes y dispositivo de visualización montado en la cabeza
ES2779600T3 (es) Procedimiento para operar un sistema de realidad virtual y sistema de realidad virtual
US9678349B2 (en) Transparent type near-eye display device
CN106468950B (zh) 电子系统、便携式显示装置及导引装置
US20170371184A1 (en) Smart Contact Lens With Orientation Sensor
JP6523233B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
WO2014144035A1 (en) Method and system for representing and interacting with augmented reality content
JP2019125215A (ja) 情報処理装置、情報処理方法、及び記録媒体
JP2019105678A (ja) 表示装置、及び画像表示方法
ES2926035T3 (es) Aplicación de seguimiento ocular en realidad virtual y realidad aumentada
ES2896704T3 (es) Dispositivo de visualización, método de visualización, programa y medio de almacenamiento de información legible por ordenador no temporal
US20190011981A1 (en) Information processing method, system for executing the information processing method, and information processing system
JP6409644B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
US20200143774A1 (en) Information processing device, information processing method, and computer program
JPWO2016121883A1 (ja) 電子機器
JP6227732B1 (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
CN116648683A (zh) 用于选择对象的方法和系统
KR20180026919A (ko) 증강현실 또는 가상현실 시스템
KR102155103B1 (ko) 가상 환경에서 한글 문자를 입력할 수 있는 시스템 및 방법
KR20180060403A (ko) 영상 기반의 드론 제어장치
KR20230070308A (ko) 웨어러블 장치를 이용한 제어가능한 장치의 위치 식별