ES2945138T3 - Sistema de representación de caracteres virtuales y método del mismo - Google Patents

Sistema de representación de caracteres virtuales y método del mismo Download PDF

Info

Publication number
ES2945138T3
ES2945138T3 ES18726170T ES18726170T ES2945138T3 ES 2945138 T3 ES2945138 T3 ES 2945138T3 ES 18726170 T ES18726170 T ES 18726170T ES 18726170 T ES18726170 T ES 18726170T ES 2945138 T3 ES2945138 T3 ES 2945138T3
Authority
ES
Spain
Prior art keywords
light source
virtual
virtual character
light
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18726170T
Other languages
English (en)
Inventor
De Sluis Bartel Van
Dzmitry Aliakseyeu
Dirk Engelen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Application granted granted Critical
Publication of ES2945138T3 publication Critical patent/ES2945138T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Se divulga un método (600) de representación de objetos virtuales. El método (600) comprende obtener (602) un conjunto de parámetros, comprendiendo el conjunto de parámetros un color y/o brillo actual de la luz emitida por una fuente de luz (120), seleccionar (604) un objeto virtual de una base de datos de objetos virtuales (106), cuyo objeto virtual está asociado con el conjunto de parámetros, y representación (606) del objeto virtual en un dispositivo de representación de imágenes (104). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema de representación de caracteres virtuales y método del mismo
Campo de la invención
La invención se refiere a un método para representar objetos virtuales y a un producto de programa informático para ejecutar el método. La invención además se refiere a un sistema de representación de objetos virtuales.
Antecedentes
Los recientes avances en realidad virtual (RV) y realidad aumentada (RA) permiten a los usuarios interactuar con objetos virtuales. Estos objetos virtuales se pueden mostrar como una superposición sobre el mundo físico, por ejemplo, en un teléfono inteligente o en gafas de RA. Esta tecnología permite muchos tipos diferentes de aplicaciones, por ejemplo, juegos de búsqueda del tesoro basados en la posición. Cuando se juega a un juego de ese tipo, un usuario puede moverse por el mundo físico para "cazar" (buscar) tesoros virtuales. Otro ejemplo de aplicación es la de representar archivos de datos virtuales tales como presentaciones, documentos y agendas en entornos de oficina. Los recientes avances en RA y en tecnología de luz codificada permiten nuevos paradigmas en la selección e interacción con dichos objetos virtuales.
El documento US 20140267412 A1 divulga técnicas para aumentar la apariencia de un objeto en un escenario mediante la inserción de objetos virtuales en el escenario. La apariencia del objeto se aumenta utilizando información de iluminación ambiental, que se basa, por ejemplo, en la posición de una fuente de luz dentro de un entorno en el que está ubicado el dispositivo de realidad aumentada, en un ángulo de la fuente de luz, en un color de la fuente de luz, en una intensidad de la fuente de luz y en un valor de reflectividad del primer objeto físico. El documento EP 1439649 A1 divulga un sistema de comunicación de datos, un transmisor de datos y un receptor de datos. Un transmisor formado por dos o más secciones emisoras de luz, tales como unos LED, que están físicamente colocadas de una manera predeterminada, se dispone en el objeto del mundo real y cada sección emisora de luz transmite datos destellando en un patrón de destellos que representa los datos de transmisión de una longitud de bit predeterminada. Un receptor, por otro lado, incluye una sección fotorreceptora formada a partir de una superficie fotorreceptora bidimensional, decodifica los datos de transmisión en función del patrón de destello fotorrecibido y reconoce la información espacial de un objeto en función de la posición del destello en la superficie fotorreceptora bidimensional. Por lo tanto, la información, tal como un ID, se puede obtener del objeto en el mundo real, así como, se puede reconocer, al mismo tiempo, la posición espacial del objeto. Según un ejemplo de aplicación 1 del documento EP 1439649 A1 de un sistema de realidad aumentada de superposición de vídeo, un transmisor en el que se utiliza un LED como fuente de luz se dispone en un letrero, una iluminación, una lámpara de un edificio, un dispositivo de señalización, etc., en un espacio real. Cuando un usuario mira un letrero de un restaurante en un terminal de información tal como una PDA en la que está incorporado (o se conecta) el receptor, el usuario puede obtener el objeto ID del restaurante, transmitido desde el transmisor. Asimismo, buscando en una base de datos este ID de objeto, es posible extraer información tal como el menú del restaurante y mostrarla en la pantalla de la PDA.
Sumario de la invención
Un objetivo de la presente invención consiste en proporcionar un nuevo paradigma para la interacción y selección de objetos virtuales.
Según un primer aspecto de la presente invención, el objetivo se alcanza mediante un método de representación de caracteres virtuales, comprendiendo el método:
- obtener un conjunto de parámetros, comprendiendo el conjunto de parámetros un color y/o brillo actual de luz emitida por una fuente de luz,
- comparar el conjunto de parámetros con conjuntos de parámetros asociados con caracteres virtuales almacenados en una base de datos de objetos virtuales,
- determinar si el conjunto de parámetros corresponde a un conjunto de parámetros almacenados,
- seleccionar un carácter virtual asociado con el conjunto de parámetros almacenados, y
- representar el carácter virtual en un dispositivo de representación de imágenes.
El método permite representar un carácter virtual que está asociado con el ajuste de luz que se aplica actualmente a la fuente de luz. El color y/o brillo actual de la luz emitida por la fuente de luz se pueden obtener, por ejemplo, recibiendo información sobre el ajuste de luz de la fuente de luz, desde un sistema de control central tal como un concentrador, servidor o puente, desde una aplicación de control de iluminación que funciona en un dispositivo móvil, y/o puede obtenerse capturando y analizando una o más imágenes de la fuente de luz para determinar el color y/o brillo actual de la luz emitida por la fuente de luz. La base de datos de objetos virtuales comprende una pluralidad de objetos virtuales, estando cada uno de ellos asociado con un conjunto de parámetros almacenados (que son al menos un color y/o brillo de luz) y comparando el conjunto de parámetros (actuales) (que son el color y/o brillo actual de la luz emitida por la fuente de luz ) con los conjuntos de parámetros almacenados, el carácter virtual se selecciona si el conjunto de parámetros actuales corresponde a un conjunto de parámetros almacenados. Un usuario puede, por ejemplo, controlar la luz emitida por la fuente de luz (p. ej., por un dispositivo de control de iluminación tal como un interruptor, un teléfono inteligente, etc.). Esto es beneficioso, porque permite al usuario determinar/seleccionar qué carácter(es) virtual(es) se representarán. Como alternativa, la fuente de luz puede, por ejemplo, controlarse automáticamente (p. ej., mediante una aplicación que funciona en un dispositivo inteligente personal), lo que permite que la aplicación determine qué carácter(es) virtual(es) se representarán en el dispositivo de representación de imágenes.
El dispositivo de representación de imágenes puede, por ejemplo, ser una pantalla de un dispositivo móvil y el carácter virtual puede representarse en la pantalla. El carácter virtual puede representarse como una superposición en un entorno físico en donde está ubicado el dispositivo móvil. El dispositivo móvil puede comprender un dispositivo de captura de imágenes configurado para capturar imágenes. El método además puede comprender las etapas de representar las imágenes capturadas por el dispositivo de captura de imágenes en la pantalla y representar el carácter virtual en la pantalla como una superposición sobre las imágenes. Como alternativa, el dispositivo móvil puede ser unas gafas inteligentes, por ejemplo, gafas inteligentes de realidad aumentada/mixta, y el dispositivo de representación de imágenes puede ser un proyector configurado para proyectar el carácter virtual en las gafas inteligentes o directamente en la retina del usuario, como una superposición en un entorno físico en donde está ubicado el dispositivo móvil. El método además puede comprender proyectar el carácter virtual sobre al menos uno de los cristales del par de gafas inteligentes como una superposición en el entorno físico en donde está ubicado el dispositivo móvil.
El conjunto de parámetros además puede comprender una hora actual del día. Cada uno de los caracteres virtuales almacenados en la base de datos de objetos virtuales además puede estar asociado con una hora del día (p. ej., un período de tiempo tal como 07:00 a. m.-08:00 a. m.). El método además puede comprender la etapa de obtención de la hora actual del día. La hora actual del día se puede obtener accediendo a un reloj, que podría, por ejemplo, estar comprendido en un dispositivo móvil que esté ejecutando el método. Tras obtener la hora del día, se puede comparar con horas del día almacenadas que estén asociadas con caracteres virtuales y, si la hora actual del día corresponde a una hora del día almacenada asociada con un carácter virtual, se puede seleccionar ese carácter virtual. Por tanto, la selección del carácter virtual además puede ser en función de la hora del día. Esto es beneficioso, porque podría ser necesario que algunos caracteres virtuales solo se representen durante momentos específicos a lo largo del tiempo (por ejemplo, un carácter virtual que se asemeje a un murciélago solo se puede representar por la noche).
El conjunto de parámetros además puede comprender una ubicación de la fuente de luz. Cada uno de los caracteres virtuales almacenados en la base de datos de objetos virtuales además puede estar asociado con una ubicación. El método además puede comprender la etapa de obtención de una ubicación de la fuente de luz. La ubicación de la fuente de luz puede, por ejemplo, recibirse de un sistema de posicionamiento (de interiores). Adicionalmente o como alternativa, la ubicación de la fuente de luz se puede determinar en función de un código comprendido en la luz emitida por la fuente de luz, código que comprende información sobre la ubicación indicativa de la ubicación de la fuente de luz.
El dispositivo de reproducción de imágenes puede estar comprendido en un dispositivo móvil, y el método además puede comprender: determinar la ubicación de la fuente de luz con respecto al dispositivo móvil. El dispositivo móvil puede comprender un dispositivo de captura de imágenes (p. ej., una cámara o una cámara de profundidad) para capturar una imagen del entorno, y la fuente de luz puede ubicarse en la imagen, y la ubicación de la fuente de luz puede determinarse con respecto al dispositivo móvil, por ejemplo, analizando la imagen o detectando un código incrustado en la salida de luz de la fuente de luz, código que puede ser indicativo de la ubicación de la fuente de luz, ubicación que se puede comparar con la ubicación (y orientación) del dispositivo móvil. Tras obtener la ubicación de la fuente de luz, la ubicación de la fuente de luz se puede comparar con ubicaciones almacenadas que estén asociadas con caracteres virtuales, y, si la ubicación de la fuente de luz corresponde a una ubicación almacenada asociada con un carácter virtual, se puede seleccionar ese carácter virtual.
Representar un carácter virtual en función de la ubicación de la fuente de luz es beneficioso, porque permite representar determinados caracteres virtuales solo cuando una fuente de luz específica está emitiendo una luz que tenga un color y/o brillo. Si, por ejemplo, una bombilla ubicada en el techo emite luz azul, se pueden representar caracteres virtuales que se asemejan a pájaros, mientras que cuando una bombilla emite luz azul ubicada al nivel del suelo, se pueden representar caracteres virtuales que se asemejan a peces.
El método además puede comprender: determinar si la fuente de luz está en un campo de visión de un dispositivo de captura de imágenes del dispositivo móvil, y representar el objeto virtual en el dispositivo de representación de imágenes si la fuente de luz está en el campo de visión del dispositivo de captura de imágenes. El dispositivo móvil puede comprender un dispositivo de captura de imágenes (p. ej., una cámara o una cámara de profundidad) para capturar una imagen del entorno. Al determinar si la fuente de luz está ubicada en la imagen, se puede determinar si la fuente de luz está en el campo de visión de la imagen. Adicionalmente o como alternativa, la luz emitida por la fuente de luz puede comprender un código incrustado, y la etapa de determinación de si la fuente de luz está en el campo de visión del dispositivo de captura de imágenes puede comprender: detectar el código incrustado, recuperar un identificador del código incrustado e identificar la fuente de luz en función del identificador. Por tanto, la detección del código incrustado con el dispositivo de captura de imágenes permite determinar si la fuente de luz está en el campo de visión del dispositivo de captura de imágenes.
El método además puede comprender:
- determinar una primera posición de la fuente de luz (120) en una imagen capturada por el dispositivo de captura de imágenes, y
- representar el carácter virtual en una segunda posición en el dispositivo de representación de imágenes (104) en función de la primera posición de la fuente de luz (120) en la imagen. Por tanto, la fuente de luz se puede utilizar como ancla para representar el carácter virtual. Esto es beneficioso, porque permite representar el carácter virtual en una posición con respecto a la posición de la fuente de luz. La relación entre la primera posición y la segunda posición puede estar predefinida. La segunda posición puede, por ejemplo, estar ubicada cerca de la primera posición, alejada de la primera posición o ser la misma que la primera posición.
Como alternativa, el método puede comprender:
- identificar un objeto en una imagen capturada por el dispositivo de captura de imágenes,
- determinar una primera posición del objeto en la imagen, y
- representar el carácter virtual en una segunda posición en el dispositivo de representación de imágenes en función de la primera posición del objeto en la imagen. Por tanto, el objeto se puede utilizar como ancla para representar el carácter virtual. Esto es beneficioso, porque permite representar el carácter virtual en una posición con respecto a la posición del objeto. La relación entre la primera posición y la segunda posición puede estar predefinida. La segunda posición puede, por ejemplo, estar ubicada cerca de la primera posición, alejada de la primera posición o ser la misma que la primera posición.
El método además puede comprender obtener la ubicación de la fuente de luz con respecto a un entorno en donde está ubicada la fuente de luz. La ubicación de la fuente de luz puede, por ejemplo, recibirse directamente de la fuente de luz, obtenerse accediendo a una memoria que almacena ubicaciones de fuentes de luz o recibirse de un sistema adicional, tal como un sistema de posicionamiento (de interiores). Cada uno de los caracteres virtuales almacenados en la base de datos de objetos virtuales además puede asociarse con una ubicación (p. ej., un conjunto de coordenadas o un descriptor de ubicación tal como "sala de estar"). Tras obtener la ubicación de la fuente de luz, se puede comparar con ubicaciones almacenadas que estén asociadas con caracteres virtuales y, si la ubicación de la fuente de luz corresponde a una ubicación almacenada asociada con un carácter virtual, se puede seleccionar ese carácter virtual. Por tanto, la selección del carácter virtual además puede ser en función de la ubicación de la fuente de luz. Esto es beneficioso, porque podría ser necesario que algunos caracteres virtuales solo se reproduzcan cuando la luz de una fuente de luz en una ubicación específica emita un color y/o brillo.
El método además puede comprender las etapas de seleccionar un archivo de audio de una base de datos de archivos de audio, archivo de audio que está asociado con el conjunto de parámetros y/o asociado con el carácter virtual seleccionado y reproducir archivo de audio. Similar a la selección del carácter virtual, se puede seleccionar un archivo de audio en función del conjunto de parámetros. Como alternativa, el archivo de audio puede estar ya asociado con el carácter virtual y/o con un comportamiento específico del carácter virtual.
El método además puede comprender cambiar el color y/o brillo de la luz emitida por la fuente de luz durante un período de tiempo cuando el carácter virtual se ha seleccionado de la base de datos de objetos virtuales y/o cuando el carácter virtual se ha representado en el dispositivo de representación de imágenes. Esto es beneficioso, porque proporciona un indicador al usuario que informa al usuario que el carácter virtual seleccionado puede ser/ha sido representado por el dispositivo de representación de imágenes.
El método además puede comprender:
- determinar una apariencia del carácter virtual seleccionado en función del conjunto de parámetros, y
- representar el carácter virtual en el dispositivo de representación de imágenes según la apariencia.
La apariencia del carácter virtual está relacionada con el aspecto del objeto virtual. La apariencia puede, por ejemplo, estar relacionada con un tamaño, forma, color y/o transparencia de al menos una parte del carácter virtual. La determinación de la apariencia del objeto virtual en función del conjunto de parámetros (que son al menos un color y/o brillo de luz) permite al usuario controlar la apariencia del objeto virtual simplemente cambiando la salida de luz de la fuente de luz.
El método además puede comprender:
- determinar un comportamiento del carácter virtual seleccionado en función del conjunto de parámetros, en donde el comportamiento está relacionado con un comportamiento espacial y temporal del carácter virtual en un entorno virtual, y
- representar el carácter virtual en el dispositivo de representación de imágenes según el comportamiento.
El comportamiento puede, por ejemplo, estar relacionado con un movimiento, una velocidad de movimiento, una trayectoria de movimiento y/o un tiempo de vida del carácter virtual. La determinación del comportamiento del carácter virtual en función del conjunto de parámetros (que son al menos un color y/o brillo de luz) permite al usuario controlar el comportamiento del carácter virtual simplemente cambiando la salida de luz de la fuente de luz.
El conjunto de parámetros además puede comprender un tipo de fuente de luz. Cada uno de los caracteres virtuales almacenados en la base de datos de objetos virtuales además se puede asociar con un tipo de fuente de luz (p. ej., una bombilla, una tira de LED, etc.). El método además puede comprender la etapa de obtención del tipo de fuente de luz. El tipo de fuente de luz puede, por ejemplo, recibirse directamente de la fuente de luz, obtenerse accediendo a una memoria que almacena tipos de fuentes de luz o recibirse de un sistema adicional. Tras obtener el tipo de fuente de luz, este se puede comparar con tipos de fuente de luz almacenadas que estén asociadas con caracteres virtuales y, si el tipo de fuente de luz corresponde a un tipo de fuente de luz almacenado que está asociado con un carácter virtual, se puede seleccionar ese carácter virtual. Por tanto, la selección del carácter virtual además puede ser en función del tipo de fuente de luz. Esto es beneficioso, porque podría ser necesario que algunos caracteres virtuales solo se representen en fuentes de luz específicas. Por ejemplo, se puede representar un carácter virtual que se asemeje a una serpiente cuando la fuente de luz es una tira de LED, mientras que un carácter virtual que se asemeja a un mono se puede representar cuando la fuente de luz es (parte de) una luminaria colgante.
Según un segundo aspecto de la presente invención, el objetivo se alcanza mediante un producto de programa informático para un dispositivo informático, comprendiendo el producto de programa informático un código de programa informático para llevar a cabo el método de una cualquiera de las reivindicaciones mencionadas anteriormente cuando el producto de programa informático funciona en una unidad de procesamiento del dispositivo informático.
Según un tercer aspecto de la presente invención, el objetivo se alcanza mediante un sistema de representación de caracteres virtuales, comprendiendo el sistema:
- un dispositivo de reproducción de imágenes,
- un procesador configurado para obtener un conjunto de parámetros, comprendiendo el conjunto de parámetros un color y/o brillo actual de luz emitida por una fuente de luz, comparar el conjunto de parámetros con conjuntos de parámetros asociados con caracteres virtuales almacenados en una base de datos de objetos virtuales (106), determinar si el conjunto de parámetros corresponde a un conjunto de parámetros almacenados, seleccionar un carácter virtual asociado con el conjunto de parámetros almacenados, y representar el carácter virtual en el dispositivo de representación de imágenes.
Se debe entender que el producto de programa informático reivindicado y el sistema pueden tener formas de realización y ventajas similares y/o idénticas a las del método reivindicado.
Breve descripción de los dibujos
Lo anterior, así como objetivos, características y ventajas adicionales de los sistemas, dispositivos móviles y métodos divulgados se entenderán mejor a través de la siguiente descripción detallada ilustrativa y no limitativa de las realizaciones de los dispositivos y métodos, con referencia a los dibujos adjuntos, en los que:
la Figura 1 muestra esquemáticamente una realización de un sistema de representación de objetos virtuales; las Figuras 2 y 3 muestran esquemáticamente realizaciones de un sistema que comprende un dispositivo móvil para representar objetos virtuales;
las Figuras 4a y 4b muestran esquemáticamente realizaciones de un sistema que comprende un dispositivo móvil para representar objetos virtuales;
las Figuras 5a-c muestran esquemáticamente una realización de un dispositivo móvil para representar un objeto virtual en función de las imágenes capturadas de una tira de LED; y
la Figura 6 muestra esquemáticamente un método de representación de objetos virtuales.
Todas las figuras son esquemáticas, no están necesariamente a escala y, generalmente, solo muestran partes que son necesarias para entender la invención, en donde otras partes pueden estar omitidas o meramente sugeridas.
Descripción detallada de las realizaciones
La Figura 1 muestra esquemáticamente una realización de un sistema 100 de representación de objetos virtuales. En este sistema, el sistema 100 comprende un dispositivo de reproducción de imágenes 104 y un procesador 102 configurado para obtener un conjunto de parámetros, comprendiendo el conjunto de parámetros un color y/o brillo actual de luz emitida por una fuente de luz 120, para seleccionar un objeto virtual de una base de datos de objetos virtuales 106, objeto virtual que está asociado con el conjunto de parámetros, y para representar el objeto virtual en el dispositivo de representación de imágenes 104.
El procesador 102 (p. ej., un microcontrolador, una circuitería, un microchip, etc.) está configurado para obtener un conjunto de parámetros, comprendiendo el conjunto de parámetros un color y/o brillo actual de luz emitida por una fuente de luz 120. El color y/o brillo actual de la luz emitida por la fuente de luz 120, en otras palabras, el ajuste de luz de la fuente de luz 120, se puede obtener, por ejemplo, recibiendo información sobre el ajuste de luz desde la fuente de luz 120, desde un sistema de control central tal como un concentrador, servidor o puente. La información sobre el ajuste de luz se puede recibir a través de una unidad de comunicación del sistema 100 o a través de un código incrustado en la luz 122 emitida por la fuente de luz 120 detectada por un detector de luz tal como un fotodiodo o una cámara (no mostrada). El color y/o brillo actual de la luz emitida por la fuente de luz 120 también se puede recibir de una aplicación o dispositivo de control de iluminación (p. ej., un dispositivo de control de iluminación tal como el Hue Bridge de Philips). El color y/o brillo actual de la luz emitida por la fuente de luz 120 también se puede obtener capturando y analizando una o más imágenes de la fuente de luz para determinar el color y/o brillo actual de la luz emitida por la fuente de luz.
El procesador 102 además está configurado para seleccionar un objeto virtual de una base de datos de objetos virtuales 106, objeto virtual que está asociado con el conjunto de parámetros. El sistema 100 puede comprender la base de datos de objetos virtuales 106. La base de datos de objetos virtuales 106 puede comprender una memoria configurada para almacenar una pluralidad de objetos virtuales. Cada uno de la pluralidad de objetos virtuales almacenados puede estar asociado con un conjunto de parámetros almacenados (que son al menos un color y/o brillo de luz). El procesador 102 puede acceder a la base de datos de objetos virtuales 106 y comparar el conjunto de parámetros (actuales) (que son el color actual y/o brillo de luz emitida por la fuente de luz 120) con los conjuntos de parámetros almacenados para seleccionar un objeto virtual de los que los parámetros almacenados corresponden a los parámetros actuales. La base de datos de objetos virtuales 106 puede comprender, por ejemplo, una tabla de búsqueda que comprenda objetos virtuales, cada uno asociado con un conjunto de uno o más parámetros.
El procesador 102 se puede configurar para recibir ajustes de luz (conjuntos de parámetros relacionados con el color y/o brillo) de una pluralidad de fuentes de luz, que, colectivamente, se pueden describir como la "escena de luz". El procesador 102 se puede configurar para seleccionar un objeto virtual de la base de datos de objetos virtuales 106, objeto virtual que está asociado con la escena de luz. Por ejemplo, un objeto virtual (p. ej., que se asemeja a un cielo estrellado virtual) se puede asociar con una escena de luz "nocturna", en donde una pluralidad de fuentes de luz emite luz azul oscuro.
El procesador 102 está configurado para representar el objeto virtual en el dispositivo de representación de imágenes 104. El procesador 102 puede representar el objeto virtual en el dispositivo de representación de imágenes 104 continuamente, tras la detección del código incrustado, o solo mientras se esté detectando el código incrustado (continuamente). El procesador 102 puede representar el objeto virtual independientemente del entorno físico en donde esté presente el sistema móvil 100. Como alternativa, el procesador 102 se puede configurar para representar el objeto virtual como una superposición sobre el entorno físico para aumentar el entorno físico.
En unas realizaciones, el procesador 102 además se puede configurar para generar y/o recibir un mapa de un entorno virtual sobre el entorno físico, en donde las ubicaciones en el entorno virtual corresponden a ubicaciones en el entorno físico. El procesador 102 puede recibir este mapa desde un dispositivo adicional, tal como un servidor remoto. Adicionalmente o como alternativa, el procesador 102 además se puede configurar para generar el mapa, por ejemplo, en función de las imágenes recibidas de un dispositivo de captura de imágenes y/o basado en información de construcción (p. ej., un trazado de una construcción 2D/3D). El procesador 102 puede aplicar algoritmos de procesamiento de imágenes para determinar ubicaciones de objetos y el trazado del entorno físico (que puede, por ejemplo, en función de la información de profundidad recibida de una cámara/escáner 3D) para generar el mapa del entorno virtual sobre el entorno físico. El mapa puede, por ejemplo, ser un mapa de coordenadas virtuales sobre coordenadas físicas en un espacio 3D. El procesador 102 además se puede configurar para determinar una posición del dispositivo móvil 110 en el entorno físico, por ejemplo, en función de las señales de posicionamiento recibidas de un sistema de posicionamiento (de interiores). Además, esto permite que el procesador 102 posicione la fuente de luz 120 en el entorno virtual. Esto, a su vez, permite que el procesador 102 determine una posición/trayectoria del objeto virtual en el entorno virtual y represente el objeto virtual en consecuencia en el entorno virtual como una superposición sobre el entorno físico.
Como se ilustra en la Figura 4a, el sistema 100 puede comprender un dispositivo móvil 400a tal como un teléfono inteligente, una tableta PC, un reloj inteligente, unas gafas inteligentes, etc., que comprenda una pantalla 404a. El dispositivo móvil 400a puede comprender un dispositivo de captura de imágenes (p. ej., una cámara (de profundidad)) con un campo de visión 406a. El procesador (no mostrado) se puede configurar para reproducir imágenes capturadas por el dispositivo de captura de imágenes en la pantalla 404a del dispositivo móvil 400a. El procesador además puede obtener un color y/o brillo actual de la luz emitida por la fuente o fuentes de luz 420a y/o 422a, seleccionar un objeto virtual de una base de datos de objetos virtuales y representar el objeto virtual seleccionado 402a en la pantalla 404a. Como se ilustra en la Figura 4b, el sistema puede comprender un dispositivo móvil 400b, por ejemplo, un par de gafas inteligentes que comprendan una o más lentes, que comprenda un elemento transparente 404b. El procesador (no mostrado) se puede configurar para obtener un color y/o brillo actual de luz emitida por la fuente o fuentes de luz 420b y/o 422b, seleccionar un objeto virtual de una base de datos de objetos virtuales y representar el objeto virtual seleccionado 402b, por ejemplo, sobre el elemento transparente 404b. El dispositivo de reproducción de imágenes puede ser un proyector configurado para proyectar el objeto virtual sobre al menos una de las una o más lentes inteligentes, o directamente sobre la retina del usuario, como una superposición en un entorno físico en donde está ubicado el dispositivo móvil 400b.
Las Figuras 5a-5c ilustran otro ejemplo en donde un objeto virtual 502 se representa como una superposición sobre el mundo físico. En este ejemplo, el procesador (no mostrado) del dispositivo móvil 500 puede representar el objeto virtual 502 en una pantalla 504 según una trayectoria que corresponda a una posición iluminada en una tira de LED 520. La tira de LED 520 puede ser un dispositivo de iluminación con fuentes de luz individuales y controlables que se controlan de tal manera que un elemento de efecto de luz se mueve por la tira de LED y, desde el punto de vista de un usuario del dispositivo móvil 500, el objeto virtual 502 se mueve a lo largo de las fuentes de luz representando el elemento de efecto de luz en movimiento.
El objeto virtual puede ser cualquier tipo de objeto virtual. Unos ejemplos de objetos virtuales incluyen, pero sin limitación, objetos inanimados tales como muebles virtuales, edificios y plantas, objetos animados tales como (un juego) caracteres y animales, archivos de datos tales como presentaciones, documentos y agendas, señalización, etc.
La fuente de luz 120 puede ser cualquier tipo de fuente de luz configurada para recibir comandos de control de iluminación. La fuente de luz 120 puede colocarse para proporcionar iluminación general, iluminación de una tarea, iluminación ambiental, iluminación de atmósfera, iluminación acentuada, iluminación de interiores, Iluminación exterior, etc. La fuente de luz 120 se puede instalar en una luminaria o en un aparato de iluminación o puede ser un dispositivo independiente tal como una tira de LED, etc. La fuente de luz puede estar comprendida en un dispositivo de iluminación portátil (p. ej., un dispositivo del tamaño de una mano, tal como un cubo LED, una esfera LED, un dispositivo de iluminación con forma de objeto/animal, etc.) o un dispositivo de iluminación ponible (p. ej., una pulsera luminosa, un collar luminoso, etc.).
El conjunto de parámetros además puede comprender una hora actual del día. Cada uno de los objetos virtuales almacenados en la base de datos de objetos virtuales además puede asociarse con una hora del día y/o un día del año (p. ej., un período de tiempo tal como de 07:00 p.m.-08:00 p.m. o un mes específico, por ejemplo, enero). El procesador 102 además se puede configurar para obtener la hora actual del día, por ejemplo, accediendo a un reloj, que podría, por ejemplo, estar comprendido en el sistema 100. Tras obtener la hora actual del día, el procesador 102 puede comparar la hora actual del día con las horas de luz del día almacenadas que están asociadas con objetos virtuales, y, si la hora actual del día corresponde a una hora actual del día almacenada que está asociada con un carácter virtual, el procesador 102 puede seleccionar ese objeto virtual. El procesador 102 puede, por ejemplo, obtener una hora actual del día a las 07:30 a.m. y un ajuste de luz actual (es decir, el color y/o brillo actual) de la fuente de luz 120, por ejemplo, un ajuste de luz de despertador. El procesador 102 puede entonces seleccionar un objeto virtual de la base de datos de objetos virtuales que está asociado con estos parámetros (el ajuste de luz de despertador y la hora del día, 07/30 a.m.). El objeto virtual asociado a estos parámetros puede, por ejemplo, ser una agenda de un usuario de ese día específico, que puede ser representado por el procesador 102 en un dispositivo de representación de imágenes 104 del sistema 100 del usuario.
El conjunto de parámetros además puede comprender una ubicación de la fuente de luz 120. Cada uno de los objetos virtuales almacenados en la base de datos de objetos virtuales además puede estar asociado con una ubicación. El procesador 102 además se puede configurar para obtener una ubicación de la fuente de luz 120 (p. ej., un conjunto de coordenadas, una descripción de un espacio en donde está presente la fuente de luz, etc.). La ubicación de la fuente de luz 120 puede, por ejemplo, recibirse desde un sistema de posicionamiento (de interiores), que puede almacenar/monitorizar las ubicaciones de las fuentes de luz. Adicionalmente o como alternativa, el sistema 100 puede comprender un detector de luz configurado para detectar un código incrustado en la luz 122 emitida por la fuente de luz 120. El detector de luz puede, por ejemplo, ser un fotodiodo o una cámara. El código puede comprender información de ubicación indicativa de la ubicación de la fuente de luz 120. Tras obtener la ubicación de la fuente de luz 120, el procesador 102 puede comparar la ubicación con ubicaciones almacenadas de fuentes de luz asociadas con objetos virtuales y, si la ubicación de la fuente de luz corresponde a una ubicación almacenada asociada con un objeto virtual, ese objeto virtual puede ser seleccionado por el procesador 102. El procesador 102 puede, por ejemplo, obtener una ubicación de una fuente de luz (la fuente de luz puede estar ubicada en el jardín) y un ajuste de luz actual (es decir, el color y/o brillo actual) de esa fuente de luz, por ejemplo, un ajuste de luz verde. El procesador 102 puede entonces seleccionar un objeto virtual de la base de datos de objetos virtuales que esté asociado con estos parámetros (el ajuste de luz verde y siendo la ubicación el jardín). El objeto virtual asociado a estos parámetros puede, por ejemplo, ser un carácter virtual que se asemeja a un animal que vive en una jungla (entorno verde) que puede ser representado por el procesador 102 en un dispositivo de representación de imágenes 104 del sistema 100 del usuario. Si, en este ejemplo, la ubicación de la fuente de luz 120 fuera, por ejemplo, la sala de estar y el ajuste de luz fuera el mismo, el objeto virtual seleccionado en función de estos parámetros podría, por ejemplo, ser una planta virtual.
El conjunto de parámetros además puede comprender un tipo de fuente de luz 120. Cada uno de los objetos virtuales almacenados en la base de datos de objetos virtuales además se puede asociar con un tipo de fuente de luz 120 (p. ej., una bombilla, una tira de LED, una matriz LED, un tipo de luminaria, etc.). El procesador 102 además se puede configurar para obtener el tipo de fuente de luz 120. El tipo de fuente de luz 120 puede, por ejemplo, recibirse directamente de la fuente de luz 120, obtenerse accediendo a una memoria que almacena tipos de fuentes de luz o recibirse desde un sistema adicional, tal como un sistema de control central. Tras obtener el tipo de fuente de luz 120, el procesador 102 puede comparar el tipo con los tipos de fuentes de luz almacenados que están asociados con objetos virtuales y, si el tipo de fuente de luz corresponde a un tipo de fuente de luz almacenado que está asociado con un objeto virtual, ese objeto virtual puede ser seleccionado por el procesador 102. El procesador 102 puede, por ejemplo, obtener un tipo de fuente de luz (la fuente de luz puede ser una matriz de LED) y un ajuste de luz actual de esa fuente de luz, por ejemplo, un ajuste de luz amarilla parpadeante en donde las fuentes de luz individuales de la matriz de LED parpadean aleatoriamente. El procesador 102 puede entonces seleccionar un objeto virtual de la base de datos de objetos virtuales que esté asociado con estos parámetros (el ajuste de luz amarilla y siendo el tipo la matriz LED). El objeto virtual asociado a estos parámetros puede, por ejemplo, asemejarse a un enjambre de luciérnagas que se representa en un dispositivo de representación de imágenes 104 del sistema 100 del usuario. Si, en este ejemplo, el tipo de fuente de luz 120 fuera, por ejemplo, una bombilla y el ajuste de luz fuera el mismo (un ajuste de luz amarilla parpadeante), el objeto virtual seleccionado en función de estos parámetros podría, por ejemplo, ser un relámpago virtual.
Las Figuras 2 y 3 muestran esquemáticamente configuraciones de un sistema según la invención que comprende un dispositivo móvil 110 que comprende un dispositivo de representación de imágenes 104 para representar objetos virtuales. En el ejemplo de sistema de la Figura 2, el dispositivo móvil 110 puede comprender el procesador 102. El dispositivo móvil 110 además puede comprender la base de datos de objetos virtuales 106 o comprender una unidad de comunicación 108 para comunicarse con una base de datos de objetos virtuales 106 remota. La unidad de comunicación 108 además se puede configurar para comunicarse con otros dispositivos, tales como la fuente de luz 120. En el ejemplo de sistema de la Figura 3, el procesador 102 puede estar ubicado (parcialmente) remoto. El dispositivo móvil 110 puede comprender una unidad de comunicación 108 para comunicarse con el procesador remoto 102. El dispositivo móvil además puede comprender un procesador secundario 102'. El procesador 102 se puede configurar para obtener el conjunto de parámetros, para seleccionar el objeto virtual de la base de datos de objetos virtuales 106 remota y para comunicar información sobre el objeto seleccionado al dispositivo móvil, que puede recibir la información a través de la unidad de comunicación 108, y el procesador secundario 102' puede representar el objeto virtual en el dispositivo de representación de imágenes 104. Cabe señalar que las configuraciones ilustradas en las Figuras 2 y 3 son meros ejemplos del sistema 100 según la invención y que el experto en la materia podrá concebir muchas alternativas sin desviarse del alcance de las reivindicaciones adjuntas.
El dispositivo móvil 110 puede comprender una unidad de comunicación 108. La unidad de comunicación 108 se puede configurar para comunicarse a través de uno o más protocolos de comunicación con otros dispositivos. La unidad de comunicación 108 puede utilizar varios protocolos de comunicación, por ejemplo, Ethernet, Bluetooth, Wifi, LiFi, 3G, 4G o ZigBee.
El dispositivo móvil 110 además puede comprender una cámara o un detector de luz 112 configurado para detectar un código incrustado en la luz 122 emitida por la fuente de luz 120. El detector de luz 112 puede, por ejemplo, ser un fotodiodo o una cámara. El código puede crearse mediante cualquier principio conocido de incrustación de un código en la luz, por ejemplo, controlando una corriente modulada y variable en el tiempo en una o más fuentes de luz para producir variaciones en la salida de luz, modulando la amplitud y/o el ciclo de trabajo de los pulsos de luz, etc. El procesador 102 además se puede configurar para recuperar el código incrustado de la luz. El código puede comprender información sobre la fuente de luz 120. El código puede comprender un identificador de la fuente de luz 120, lo que permite que el procesador 102 identifique la fuente de luz 120. El código además puede comprender información sobre la salida de luz actual (p. ej., el color y/o brillo) de la fuente de luz 120, lo que permite que el procesador 102 obtenga el color y/o brillo actual de la luz emitida por una fuente de luz 120. Como alternativa, el procesador 102 se puede configurar para utilizar un identificador de la fuente de luz 120 incrustado en su luz para identificar la fuente de luz 120 y acceder a una memoria que almacena el ajuste de luz actual de la fuente de luz 120 para obtener el color y/o brillo actual de luz emitida por la fuente de luz 120.
El procesador 102 además se puede configurar para determinar una ubicación de la fuente de luz 120 con respecto al dispositivo móvil 110. El dispositivo móvil 110 puede comprender un dispositivo de captura de imágenes (p. ej., una cámara o una cámara de profundidad) para capturar una imagen del entorno. El procesador 102 puede utilizar el análisis de imágenes para determinar si la fuente de luz 120 está ubicada en la imagen. El procesador 102 puede determinar la ubicación de la fuente de luz 120 con respecto al dispositivo móvil 120 analizando la imagen o detectando un código incrustado en la salida de luz de la fuente de luz 120. Tras obtener la ubicación de la fuente de luz 120, el procesador puede comparar la ubicación de la fuente de luz 120 con ubicaciones almacenadas con respecto al dispositivo móvil 110 asociadas con objetos virtuales, y, si la ubicación de la fuente de luz 120 con respecto al dispositivo móvil 110 corresponde a una ubicación almacenada asociada con un objeto virtual, se puede seleccionar ese objeto virtual. Por ejemplo, si una fuente de luz está ubicada en una esquina superior izquierda de una imagen capturada por el procesador 102, se puede seleccionar un objeto virtual asociado con esa ubicación específica (y el color y/o brillo de esa fuente de luz) en base a ello. El objeto virtual asociado con una ubicación superior izquierda con respecto al dispositivo móvil 110 y un ajuste de luz amarilla puede ser, por ejemplo, una representación virtual del sol, mientras que otro objeto virtual asociado con una ubicación de centro abajo con respecto al dispositivo móvil 110 y un ajuste de luz amarilla puede ser, por ejemplo, una representación virtual de arena (amarilla).
El procesador 102 además se puede configurar para (solo) representar el objeto virtual si la fuente de luz está en un campo de visión del dispositivo de captura de imágenes del dispositivo móvil 110. El procesador 102 se puede configurar para determinar si la fuente de luz está en el campo de visión del dispositivo de captura de imágenes del dispositivo móvil 110 capturando una imagen del entorno con el dispositivo de captura de imágenes (p. ej., una cámara o una cámara de profundidad). El procesador 102 puede analizar la imagen para determinar si la fuente de luz 102 está en el campo de visión del dispositivo de captura de imágenes del dispositivo móvil 110. Adicionalmente, la luz emitida por la fuente de luz 120 puede comprender un código incrustado, y el procesador 102 puede recuperar el código incrustado de la luz capturada por el detector de luz 112 del dispositivo móvil 110 y determinar que la fuente de luz está ubicada en el campo de visión del detector de luz 112 del dispositivo móvil 110. Por tanto, la detección del código incrustado con el dispositivo de captura de imágenes y/o el detector de luz 112 (que puede ser el mismo elemento, p. ej., una cámara) permite determinar si la fuente de luz 120 está en el campo de visión del dispositivo móvil 110.
El procesador 102 además se puede configurar para determinar dónde representar el objeto virtual en el dispositivo de representación de imágenes 104 en función de la posición de la fuente de luz 120 en el campo de visión del dispositivo móvil 110. El procesador 102 puede, por ejemplo, determinar una primera posición de la fuente de luz 120 en el campo de visión del dispositivo de captura de imágenes (p. ej., analizando una imagen capturada por el dispositivo de captura de imágenes), determinar una segunda posición para el objeto virtual en el campo de visión del dispositivo de captura de imágenes, en donde la segunda posición está relacionada con la primera posición, mapear el campo de visión del dispositivo de captura de imágenes en el dispositivo de representación de imágenes y representar el objeto virtual en el dispositivo de representación de imágenes en la segunda posición. Al mapear el campo de visión del dispositivo de captura de imágenes (p. ej., una cámara (de profundidad)) en el dispositivo de reproducción de imágenes 104 (p. ej., una pantalla, un proyector que proyecta sobre una o varias lentes de unas gafas inteligentes, etc.) el procesador 102 puede representar el objeto virtual en la segunda posición que está relacionada con la posición de la fuente de luz en el campo de visión. La segunda posición puede, por ejemplo, ser la misma que la primera posición (representando de ese modo el objeto virtual, desde la perspectiva de un usuario, como una superposición sobre la fuente de luz 120), estar junto a la primera posición (representando de ese modo el objeto virtual, desde la perspectiva de un usuario, cerca de la fuente de luz), estar alejada de la primera posición (el objeto virtual puede, por ejemplo, ser representado de tal manera que se mueva hacia la primera posición), etc.
El procesador 102 además se puede configurar para obtener la ubicación de la fuente de luz 120 con respecto a un entorno en donde está ubicada la fuente de luz 120. El procesador 120 puede, por ejemplo, recibir la ubicación de la fuente de luz 120 directamente desde la fuente de luz 120. Adicionalmente o como alternativa, el procesador 102 puede obtener la ubicación accediendo a una memoria (remota) que almacena ubicaciones de fuentes de luz. Adicionalmente o como alternativa, el procesador 102 puede recibir la ubicación de la fuente de luz 120 desde un sistema adicional, tal como un sistema de posicionamiento (de interiores). Cada uno de los objetos virtuales almacenados en la base de datos de objetos virtuales 106 además puede asociarse con una ubicación (p. ej., un conjunto de coordenadas o un descriptor de ubicación tal como una "sala de estar"). Tras obtener la ubicación de la fuente de luz 120 con respecto al entorno, el procesador 102 puede comparar la ubicación con ubicaciones almacenadas que estén asociadas con objetos virtuales y, si la ubicación de la fuente de luz 120 corresponde a una ubicación almacenada asociada con un objeto virtual, se puede seleccionar ese objeto virtual. Si, por ejemplo, una bombilla ubicada en una oficina emite luz blanca con una temperatura de color alta (p. ej., >5000 K), se pueden representar documentos de la oficina virtual en el dispositivo de representación de imágenes 104, mientras que cuando una bombilla ubicada en una habitación infantil emite la misma luz, se pueden representar caracteres virtuales en el dispositivo de representación de imágenes 104.
El procesador 102 además se puede configurar para seleccionar un archivo de audio de una base de datos de archivos de audio, archivo de audio que está asociado con el conjunto de parámetros y/o asociado con el objeto virtual seleccionado y/o los comportamientos del objeto virtual. De manera similar a la selección del objeto virtual, el procesador 102 puede seleccionar el archivo de audio en función del conjunto de parámetros. Por ejemplo, se puede asociar un archivo de audio con un color y/o brillo de la luz, y, opcionalmente, con una hora del día, una ubicación de una fuente de luz, un tipo de dispositivo de iluminación, etc. Como alternativa, el archivo de audio puede estar ya asociado con el objeto virtual.
El procesador 102 además se puede configurar para cambiar el color y/o brillo de la luz emitida por la fuente de luz 106 durante un período de tiempo cuando se ha seleccionado el objeto virtual de la base de datos de objetos virtuales 106. El procesador 102 puede, por ejemplo, generar un comando de control de iluminación que comprende instrucciones para que la fuente de luz cambie el color y/o brillo de la luz emitida por la fuente de luz 106 durante el período de tiempo. El comando de control de iluminación se puede comunicar a la fuente de luz 120 a través de la unidad de comunicación 108. El comando de control de iluminación puede, por ejemplo, comprender instrucciones de control para hacer parpadear (brevemente) la luz con un color determinado para informar a un usuario de la presencia del objeto virtual. Esto permite al usuario, por ejemplo, apuntar un dispositivo de captura de imágenes/detector de luz 112 a la fuente de luz para que el objeto virtual se reproduzca, o encender su dispositivo móvil 110 al ver el cambio de luz.
El procesador 102 además se puede configurar para determinar una apariencia del objeto virtual seleccionado en función del conjunto de parámetros. La apariencia puede, por ejemplo, estar relacionada con un tamaño, forma, color y/o transparencia de al menos una parte del objeto virtual. El procesador 102 además puede representar el objeto virtual en el dispositivo de representación de imágenes 104 según la apariencia. El objeto virtual puede, por ejemplo, ser un carácter virtual. Cuando se ha seleccionado el objeto virtual de la base de datos de objetos virtuales 106, el procesador 102 puede cambiar su apariencia en función del conjunto de parámetros. Por ejemplo, se puede cambiar un color de un objeto virtual en función del color de la luz para adaptarse mejor al ajuste de luz actual, se puede cambiar el tamaño de un objeto virtual en función del brillo de la luz, se puede cambiar la forma de un objeto virtual en función del tipo/ubicación de la fuente de luz para, por ejemplo, que coincida con la forma de la fuente de luz, que un color de un objeto virtual pueda ser en función de una hora actual del día, etc.
El procesador 102 además se puede configurar para determinar un comportamiento del objeto virtual seleccionado en función del conjunto de parámetros. El comportamiento puede, por ejemplo, estar relacionado con un movimiento, una velocidad de movimiento, una trayectoria de movimiento y/o un tiempo de vida del objeto virtual. El procesador 102 además puede representar el objeto virtual en el dispositivo de representación de imágenes 104 según el comportamiento. Además, el procesador 102 puede reproducir un archivo de audio según el comportamiento. El archivo de audio puede, por ejemplo, reproducirse en el dispositivo móvil o en un dispositivo de reproducción de audio que esté integrado o ubicado junto a la fuente de luz.
Cuando se ha seleccionado el objeto virtual de la base de datos de objetos virtuales 106, el procesador 102 puede cambiar su comportamiento en función del conjunto de parámetros. Por ejemplo, se puede cambiar el tiempo de vida (es decir, la duración del tiempo de representación del objeto virtual en el dispositivo de representación de imágenes 104) de un objeto virtual en función del brillo de la luz, se puede cambiar la trayectoria de un objeto virtual en movimiento en función de la ubicación de (una o más) fuentes de luz, una velocidad de movimiento de un objeto virtual puede ser en función de una hora actual del día, etc.
La figura 6 muestra esquemáticamente un método 600 de representación de objetos virtuales. El método comprende:
- obtener 602 un conjunto de parámetros, comprendiendo el conjunto de parámetros un color y/o brillo actual de luz emitida por una fuente de luz 120,
- seleccionar 604 un objeto virtual de una base de datos de objetos virtuales 106, objeto virtual qué está asociado con el conjunto de parámetros, y
- representar 606 el objeto virtual en un dispositivo de representación de imágenes 104.
El método 600 se puede ejecutar mediante el código de programa informático de un producto de programa informático cuando el producto de programa informático funciona en una unidad de procesamiento de un dispositivo informático, tal como el procesador 102 del sistema 100.
Cabe destacar que las realizaciones mencionadas anteriormente ilustran en lugar de limitar la invención y que los expertos en la materia podrán concebir muchas realizaciones alternativas sin desviarse del alcance de las reivindicaciones adjuntas.
En las reivindicaciones, cualquier signo de referencia colocado entre paréntesis no deberá interpretarse como una limitación de la reivindicación. La utilización del verbo "comprender" y sus conjugaciones no excluye la presencia de elementos o etapas diferentes a los establecidos en una reivindicación. El artículo "un" o "una" antes de un elemento no excluye la presencia de una pluralidad de tales elementos. La invención se puede implementar por medio de hardware que comprenda varios elementos diferenciados y por medio de una unidad de procesamiento u ordenador debidamente programado. En la reivindicación de dispositivo que enumera varios medios, varios de estos medios pueden estar implementados en un único y mismo equipo de hardware. El mero hecho de que se enumeren determinadas medidas en diferentes reivindicaciones mutuamente dependientes no indica que no pueda utilizarse ventajosamente una combinación de tales medidas.
Los aspectos de la invención se pueden implementar en un producto de programa informático, que puede ser una colección de instrucciones de programas informáticos almacenadas en un dispositivo de almacenamiento legible por ordenador que puede ser ejecutado por un ordenador. Las instrucciones de la presente invención pueden estar en cualquier mecanismo de código interpretable o ejecutable, incluyendo, pero sin limitación, secuencias de comandos, programas interpretables, bibliotecas de enlaces dinámicos (DLL) o clases de Java. Las instrucciones se pueden proporcionar como programas ejecutables completos, programas ejecutables parciales, como modificaciones de programas existentes (p. ej., actualizaciones) o ampliaciones de programas existentes (p. ej., plugins). Es más, partes del procesamiento de la presente invención pueden estar distribuidos en múltiples ordenadores o procesadores.
Los medios de almacenamiento adecuados para almacenar instrucciones de programa informático incluyen todas las formas de memoria no volátil, incluyendo, pero sin limitación, EPROM, EEPROM y dispositivos de memoria flash, discos magnéticos, tales como las unidades de disco duro internas y externas, discos extraíbles y discos CD-ROM. El producto del programa informático puede estar distribuido en dicho medio de almacenamiento o puede ofrecerse para su descarga a través de HTTP, FTP, correo electrónico o a través de un servidor conectado a una red, tal como Internet.

Claims (15)

REIVINDICACIONES
1. Un método (600) de representación de caracteres virtuales, comprendiendo el método (600):
- obtener (602) un conjunto de parámetros, comprendiendo el conjunto de parámetros un color y/o brillo actual de luz emitida por una fuente de luz (120),
- comparar el conjunto de parámetros con conjuntos de parámetros asociados con caracteres virtuales almacenados en una base de datos de objetos virtuales (106),
- determinar si el conjunto de parámetros corresponde a un conjunto de parámetros almacenados,
- seleccionar (604) un carácter virtual asociado con el conjunto de parámetros almacenados, y
- representar (606) el carácter virtual en un dispositivo de representación de imágenes (104).
2. El método de la reivindicación 1, en donde el conjunto de parámetros además comprende una hora actual del día.
3. El método de una cualquiera de las reivindicaciones anteriores, en donde el conjunto de parámetros además comprende una ubicación de la fuente de luz (120).
4. El método de la reivindicación 3, en donde el dispositivo de reproducción de imágenes (104) está comprendido en un dispositivo móvil, y en donde el método además comprende determinar la ubicación de la fuente de luz (120) con respecto al dispositivo móvil.
5. El método de la reivindicación 4, que además comprende:
- determinar si la fuente de luz (120) está en un campo de visión de un dispositivo de captura de imágenes del dispositivo móvil, y
- representar el carácter virtual en el dispositivo de representación de imágenes (104) si la fuente de luz (120) está en el campo de visión del dispositivo de captura de imágenes.
6. El método de la reivindicación 5, en donde la luz emitida por la fuente de luz (120) comprende un código incrustado (122), y en donde la etapa de determinación de si la fuente de luz (120) está en el campo de visión del dispositivo de captura de imágenes comprende:
- detectar el código incrustado,
- recuperar un identificador del código incrustado, e
- identificar la fuente de luz (120) en función del identificador.
7. El método de la reivindicación 5 o 6, que además comprende:
- determinar una primera posición de la fuente de luz (120) en una imagen capturada por el dispositivo de captura de imágenes, y
- representar el carácter virtual en una segunda posición en el dispositivo de representación de imágenes (104) en función de la primera posición de la fuente de luz (120) en la imagen.
8. El método de la reivindicación 3, que además comprende obtener la ubicación de la fuente de luz (120) con respecto a un entorno en donde está ubicada la fuente de luz (120).
9. El método de una cualquiera de las reivindicaciones anteriores, que además comprende:
- seleccionar un archivo de audio de una base de datos de archivos de audio (106), archivo de audio que está asociado con el conjunto de parámetros y/o asociado con el carácter virtual seleccionado, y
- reproducir el archivo de audio.
10. El método de una cualquiera de las reivindicaciones anteriores, que además comprende:
- cambiar el color y/o brillo de la luz emitida por la fuente de luz (120) durante un período de tiempo cuando el carácter virtual se ha seleccionado de la base de datos de objetos virtuales (106) y/o cuando el carácter virtual se ha representado en el dispositivo de reproducción de imágenes (104).
11. El método de una cualquiera de las reivindicaciones anteriores, en donde el conjunto de parámetros además comprende un tipo de fuente de luz (120).
12. El método de una cualquiera de las reivindicaciones anteriores, que además comprende:
- determinar una apariencia del carácter virtual seleccionado en función del conjunto de parámetros, y
- representar el carácter virtual en el dispositivo de representación de imágenes según la apariencia.
13. El método de una cualquiera de las reivindicaciones anteriores, que además comprende:
- determinar un comportamiento del carácter virtual seleccionado en función del conjunto de parámetros, en donde el comportamiento está relacionado con un comportamiento espacial y temporal del carácter virtual en un entorno virtual, y
- representar el carácter virtual en el dispositivo de representación de imágenes según el comportamiento.
14. Un producto de programa informático para un dispositivo informático, comprendiendo el producto de programa informático un código de programa informático para llevar a cabo el método de una cualquiera de las reivindicaciones 1-13 cuando el producto de programa informático funciona en una unidad de procesamiento del dispositivo informático.
15. Un sistema (100) para representar caracteres virtuales, comprendiendo el sistema (100):
- un dispositivo de reproducción de imágenes (104),
- un procesador (102) configurado para obtener un conjunto de parámetros, comprendiendo el conjunto de parámetros un color y/o brillo actual de luz emitida por una fuente de luz (120), comparar el conjunto de parámetros con conjuntos de parámetros asociados con caracteres virtuales almacenados en una base de datos de objetos virtuales (106), determinar si el conjunto de parámetros corresponde a un conjunto de parámetros almacenados, seleccionar un carácter virtual asociado con el conjunto de parámetros almacenados, y representar el carácter virtual en el dispositivo de representación de imágenes (104).
ES18726170T 2017-06-01 2018-05-29 Sistema de representación de caracteres virtuales y método del mismo Active ES2945138T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17173978 2017-06-01
PCT/EP2018/064095 WO2018219962A1 (en) 2017-06-01 2018-05-29 A system for rendering virtual objects and a method thereof

Publications (1)

Publication Number Publication Date
ES2945138T3 true ES2945138T3 (es) 2023-06-28

Family

ID=59093358

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18726170T Active ES2945138T3 (es) 2017-06-01 2018-05-29 Sistema de representación de caracteres virtuales y método del mismo

Country Status (6)

Country Link
US (1) US10976905B2 (es)
EP (1) EP3631599B1 (es)
JP (1) JP6730537B1 (es)
CN (1) CN110663013B (es)
ES (1) ES2945138T3 (es)
WO (1) WO2018219962A1 (es)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10768704B2 (en) 2015-03-17 2020-09-08 Whirlwind VR, Inc. System and method for modulating a peripheral device based on an unscripted feed using computer vision
CN110044334B (zh) * 2018-01-16 2020-04-21 京东方科技集团股份有限公司 基于维诺图的室内空间定位
JP7261121B2 (ja) * 2019-08-15 2023-04-19 Kddi株式会社 情報端末装置及びプログラム
US11861798B2 (en) * 2020-07-24 2024-01-02 Stephen Wilkes Reactive augmented reality
CN113918014A (zh) * 2021-09-28 2022-01-11 深圳市慧鲤科技有限公司 虚拟物体控制方法、装置、设备及存储介质
CN116503520A (zh) * 2022-10-20 2023-07-28 腾讯科技(深圳)有限公司 光照控制方法、装置、计算机设备和存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3918813B2 (ja) * 2001-10-23 2007-05-23 ソニー株式会社 データ通信システム、データ送信装置、並びにデータ受信装置
US20110234631A1 (en) 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
JP2013003848A (ja) * 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 仮想物体表示装置
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US8872853B2 (en) * 2011-12-01 2014-10-28 Microsoft Corporation Virtual light in augmented reality
US10465882B2 (en) 2011-12-14 2019-11-05 Signify Holding B.V. Methods and apparatus for controlling lighting
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9418629B2 (en) * 2013-03-15 2016-08-16 Disney Enterprises, Inc. Optical illumination mapping
KR101845350B1 (ko) * 2013-03-26 2018-05-18 세이코 엡슨 가부시키가이샤 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
CN103500465B (zh) * 2013-09-13 2017-01-18 西安工程大学 基于增强现实技术的古代文物场景快速渲染方法
CN106133796B (zh) * 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
US20150325048A1 (en) 2014-05-06 2015-11-12 Mobile R&D Inc. Systems, methods, and computer-readable media for generating a composite scene of a real-world location and an object
WO2016206991A1 (en) * 2015-06-23 2016-12-29 Philips Lighting Holding B.V. Gesture based lighting control
DE102015010789A1 (de) 2015-08-20 2017-02-23 Trw Automotive Gmbh Verfahren zum Zusammenlegen eines Gassacks, Pressvorrichtung zum Formen von Gassackpaketen sowie Gassackpaket
US10625153B2 (en) 2015-08-20 2020-04-21 Signify Holding B.V. Lighting for video games
WO2018035362A1 (en) * 2016-08-19 2018-02-22 Pcms Holdings, Inc. System and methods for communications in mixed reality applications
CN106383587B (zh) * 2016-10-26 2020-08-04 腾讯科技(深圳)有限公司 一种增强现实场景生成方法、装置及设备

Also Published As

Publication number Publication date
CN110663013A (zh) 2020-01-07
JP2020524838A (ja) 2020-08-20
EP3631599B1 (en) 2023-03-29
WO2018219962A1 (en) 2018-12-06
EP3631599A1 (en) 2020-04-08
US10976905B2 (en) 2021-04-13
US20200192553A1 (en) 2020-06-18
JP6730537B1 (ja) 2020-07-29
CN110663013B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
ES2945138T3 (es) Sistema de representación de caracteres virtuales y método del mismo
US10004984B2 (en) Interactive in-room show and game system
ES2845565T3 (es) Sistema y método para rastrear una varita pasiva y accionar un efecto con base en una ruta de varita detectada
US11234312B2 (en) Method and controller for controlling a plurality of lighting devices
ES2748608T3 (es) Método para controlar un dispositivo de iluminación
US20120121128A1 (en) Object tracking system
JP7155135B2 (ja) 仮想オブジェクトをレンダリングするためのポータブルデバイス及び方法
CN106465522A (zh) 内容显示系统
ES2751023T3 (es) Un módulo de iluminación dispuesto para conectarse a una luminaria
JP2022066314A (ja) 照明システム
EP4101267A1 (en) A controller for controlling a plurality of lighting units in a space and a method thereof
US11094091B2 (en) System for rendering virtual objects and a method thereof
EP4020392A1 (en) Optical tracking system and marker for optical tracking system
US10785850B2 (en) Controller for indicating a presence of a virtual object via a lighting device and a method thereof
CN106663213A (zh) 编码光的检测
Kocsi Using reconstructed visual reality in ant navigation research
JP2018163566A (ja) 生成装置及び情報処理システム