ES2334079A1 - Expositor virtual. - Google Patents
Expositor virtual. Download PDFInfo
- Publication number
- ES2334079A1 ES2334079A1 ES200700749A ES200700749A ES2334079A1 ES 2334079 A1 ES2334079 A1 ES 2334079A1 ES 200700749 A ES200700749 A ES 200700749A ES 200700749 A ES200700749 A ES 200700749A ES 2334079 A1 ES2334079 A1 ES 2334079A1
- Authority
- ES
- Spain
- Prior art keywords
- image
- user
- virtual
- virtual display
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title abstract description 4
- 239000011521 glass Substances 0.000 claims description 5
- 238000011161 development Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims 1
- 239000000203 mixture Substances 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 19
- 230000001815 facial effect Effects 0.000 abstract description 7
- 230000003993 interaction Effects 0.000 abstract description 6
- 230000004048 modification Effects 0.000 abstract description 2
- 238000012986 modification Methods 0.000 abstract description 2
- 230000004807 localization Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 208000029152 Small face Diseases 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- PICXIOQBANWBIZ-UHFFFAOYSA-N zinc;1-oxidopyridine-2-thione Chemical class [Zn+2].[O-]N1C=CC=CC1=S.[O-]N1C=CC=CC1=S PICXIOQBANWBIZ-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G06K9/00221—
-
- G06K9/00228—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
La presente invención hace referencia a un expositor virtual que permite la interacción hombre-máquina con el objetivo de que el usuario obtenga en tiempo real una imagen de sí mismo a la cuál se le pueda añadir de forma virtual complementos de carácter estético. El expositor virtual está constituido por un soporte multimedia y multimodal que consta de una cámara de video digital de alta resolución, una computadora, un software de reconocimiento y tratamiento de imágenes y una pantalla táctil que permiten la realización de las tareas de detección y localización, en coordenadas de la imagen, de las características faciales del usuario, elección de artículos de la librería de imágenes y modificación del menú de interacción hombre-máquina. Por lo tanto, el principal problema que resuelve este dispositivo es el tiempo que se pierde a la hora de probarse distintos complementos hasta encontrar el adecuado. La principal aplicación industrial de esta invención es la de promoción y venta de distintos complementos tanto para el hombre como para la mujer, en áreas comerciales y de pública concurrencia.
Description
Expositor virtual.
La invención se encuadra en el sector técnico de
las tecnologías de la información y las telecomunicaciones, más
concretamente en el área de la interacción
hombre-máquina.
El análisis de imágenes por medio de ordenadores
es una ciencia que crece rápidamente. Se encuentra en pleno
desarrollo, ya no ofrece solamente soluciones al área de la
robótica o del control de calidad, continuamente surgen nuevas
aplicaciones como por ejemplo el reconocimiento automático de
facciones o del iris.
La detección de caras es un preproceso necesario
para cualquier sistema de reconocimiento facial o de análisis de la
expresión facial. Sin embargo, ha sido un problema poco tratado, o
considerado menor dentro de los sistemas categóricos:
reconocimiento y análisis de expresiones. Tal es así que distintos
sistemas de reconocimiento asumen que la cara ha sido ya detectada
antes de realizar la comparación con los modelos conocidos.
Recientemente el marco de detección descrito en
[ViolaOl-cvpr] y ya integrado en la biblioteca
OpenCV, permite trabajar a partir de rutinas veloces y efectivas de
detección. En este marco se dispone de un detector para la
detección de rostros mostrados en vista frontal y boca.
Los sistemas de tiempo real son sistemas
informáticos que se encuentran en multitud de aplicaciones, desde
la electrónica de consumo hasta el control de procesos industriales
complejos. Están presentes en prácticamente todos los aspectos de
nuestra sociedad, como teléfonos móviles, automóviles, control del
tráfico, procesos automáticos de fabricación, etc... Además cada
vez se fabrica un mayor número de máquinas que incluyen sistemas
controlados por computador.
El sistema planteado, sobre el que se reivindica
la patente, es un sistema de tiempo real empotrado, es decir, el
sistema informático se encuentra físicamente incluido en un sistema
de ingeniería más complejo. Este sistema presenta una solución
basada en la integración de distintos dispositivos entre los cuáles
destaca el uso de elementos que forman parte de un sistema de
visión por computador y que incluye un módulo de detección de
características faciales, un módulo de seguimiento de ojos y un
módulo gráfico para la adición de los elementos digitales que
forman el cuerpo de esta tecnología. La tecnología planteada
permite la interacción hombre-máquina con el
objetivo que el usuario obtenga en tiempo real una imagen de sí
mismo a la cuál puede añadirle de forma virtual complementos de
carácter
estético.
estético.
La presente invención implementada por ordenador
hace referencia a un expositor virtual conformado por una serie de
dispositivos y por un software que detecta y localiza, en
coordenadas de la imagen, las características faciales del usuario
mediante técnicas basadas en visión por computador y realiza una
adición automática de elementos sintéticos a la imagen del
usuario.
El expositor virtual está constituido por un
soporte multimedia y multimodal en el cuál el usuario puede
probarse virtualmente determinados artículos o complementos. Para
ello la imagen es captada por una cámara de vídeo de alta resolución
y procesada por un ordenador mediante un software de tratamiento de
imágenes.
El software procesa la imagen captada por la
cámara mediante la detección y localización, en coordenadas de la
imagen, de las características faciales del usuario mediante
técnicas basadas en visión por computador. Una vez detectadas, se
realiza una adición de elementos sintéticos a la imagen del
usuario, de tal manera que este obtenga la ilusión óptica de llevar
algún determinado tipo de artículo puesto. La imagen, una vez
procesada, es mostrada en el monitor para ser vista en tiempo real
por el usuario y alcanzar el efecto de espejo.
Dentro de la gama de artículos, pertenecientes a
la librería y a la base de datos, que pueden ser mostrados
digitalmente junto con la imagen del usuario, podemos encontrar
gafas, pendientes, collares, maquillaje, etc...
La adquisición de las imágenes comienza con la
digitalización de las caras a procesar mediante una cámara de vídeo
digital de alta resolución (1), como se muestra en la figura 2.
Estas imágenes son transferidas a la computadora (2) en el tamaño y
frecuencias adecuadas.
Mediante un software instalado en la computadora
se lleva a cabo el procesamiento de las imágenes. Este software
realiza la detección de las diferentes características faciales
necesarias para la detección precisa de los ojos.
La aproximación basada en visión por computador
normalmente divide la detección de los ojos en dos tareas, en
primer lugar se localiza una ventana con los ojos, es decir una
pequeña área de la imagen donde probablemente se encuentran los
ojos. Después de esto se aplican una o más técnicas de
aproximación. Nuestra propuesta hace uso de un sistema de detección
de la cara que proporciona en tiempo real múltiples detecciones a
diferentes resoluciones. Una vez que la cara es detectada, se
localizan los ojos. El detector de caras muestra dos etapas, la
primera se centra en la búsqueda de la cara y la segunda, una vez
que esta ha sido detectada, realiza su seguimiento.
Al comienzo de una sesión de interacción, cuando
no hay individuos en el campo de visión, o no se ha detectado
presencia en un intervalo de tiempo, la aproximación hace uso de
dos detectores de cambio de ventanas que se basan en la detección
del marco del objeto. Estos dos detectores, integrados en la
versión OpenCV, son los detectores de la vista frontal de la cara y
del contexto local basado en el detector de la cara. El último logra
mejores ratios de reconocimiento para imágenes con bajas
resoluciones, si la cabeza y los hombros están visibles. El tamaño
mínimo buscado es de 24x24 y 20x20 pixels. Para no malgastar tiempo
de proceso, los detectores se ejecutan
alternativamente.
alternativamente.
Para cualquier cara que se haya detectado, el
sistema intenta detectar los ojos asumiendo que es una vista
frontal de la misma, y por tanto su localización verificaría alguna
restricción de apariencia y geométrica. Las tareas que se realizan
para localizarlos son:
- \sqbullet
- Detección de la piel. Una vez detectada la cara, se modela su color de piel utilizando espacio de color normalizado rojo-verde, considerando justo el centro de la cara que haya sido proporcionado por cualquiera de los detectores basados en los de Viola-Jones. El sistema, de forma heurística, elimina los elementos que no son parte de la cara, por ejemplo el cuello, y le hace corresponder una elipse, para posteriormente poder rotar verticalmente su posición.
- \sqbullet
- Localización de los ojos. En este punto la aproximación busca candidatos a ojos en las áreas en las que hay más probabilidad de encontrarlos dentro de la zona de la cara, considerando que la misma presenta una vista frontal. Se testean varios pares de candidatos de acuerdo a su apariencia y se elige uno de ellos. Las tareas utilizadas para esto son:
- a)
- Áreas negras: Los ojos son más negros que el resto de piel que se encuentra a su alrededor.
- b)
- Detectores de ojos basados en los detectores de Viola-Jones: Como la posición de los ojos puede ser más o menos estimada y por tanto limitada, un detector de ojos basado en el de Viola-Jones ofrece resultados rápidos. El detector busca ojos con un tamaño mínimo de 16x12 pixels. Para caras pequeñas, se realiza un aumento a escala antes de realizar la búsqueda.
- c)
- Detectores de pares de ojos basados en los detectores de Viola-Jones: Si alguna de las anteriores falla, el par de ojos detectados puede dar otra aproximación para la posición de los mismos, y así luego aplicar los pasos a) y b) de nuevo. El tamaño mínimo del patrón buscado es 22x5 pixels.
Cada cara detectada muestra distintas
características Xi=<pos, size, color, eyespos, eyespattern,
facepattern>. Las normas se aplican de acuerdo a estas
características y en un orden que tiene en cuenta el coste de
cómputo y la fiabilidad. Las normas consideradas son:
- \sqbullet
- Seguimiento de ojos: Un algoritmo de seguimiento de ojos rápido se aplica en el área previamente detectada que los rodea.
- \sqbullet
- Detector de cara: Se aplica un detector de cara de Viola-Jones en un área que cubre la detección anterior.
- \sqbullet
- Detector del contexto local de la cara: Si las técnicas anteriores fallan, el detector de contexto local se aplica en un área que incluye la detección previa.
- \sqbullet
- Color de la piel: Se busca el color de la piel en la ventana de búsqueda que contiene la detección previa, y se testean los nuevos tamaños y posiciones.
- \sqbullet
- Seguimiento de la cara: Si cualquiera de las anteriores falla, el patrón de cara previamente almacenado se busca en un área que cubre la detección previa.
Estas técnicas se aplican siguiendo este orden
hasta que una de ellas encuentra la cara que se buscaba. Cuando se
detecta la cara, el color de la piel se utiliza para la detección
de los ojos, de forma similar al procedimiento ya descrito.
Una vez localizados los ojos se lleva a cabo el
seguimiento de estos para mantener sus coordenadas en la imagen
continuamente ubicadas, según se muestra en la figura 3.
Por último se realiza una superposición de la
imagen digital de un artículo sobre la imagen de su cara, como
muestra la figura 1, para lograr la sensación visual de llevarlo
puesto.
Mediante un monitor se muestra, al usuario, la
imagen ya procesada que será reflejada 90 grados una vez incida
sobre el cristal espejo para su correcta visualización.
El cristal espejo es un elemento, perteneciente
al expositor virtual, que permite lograr el efecto de espejo desde
la perspectiva del usuario. Según se muestra en la figura 2 la
parte identificada como (4a) se corresponde con la parte del
cristal, y la parte designada como (4b) se corresponde con la parte
del espejo.
Desde su posición, tal y como se muestra en la
figura 2, el usuario podrá visualizar su imagen reflejada con el
artículo seleccionado superpuesto de forma virtual. Además a través
de una pantalla táctil el usuario podrá seleccionar los diferentes
modelos de artículos que pertenecen a la librería.
Se hace uso de una librería de mezcla multimedia
(MML), de desarrollo propio, implementada en DirectShow. DirectShow
es una API (Application Programming Interface - Interfaz de
programación de aplicaciones) estándar desarrollado por Microsoft
para el almacenamiento, codificación y traducción de contenidos
multimedia como vídeo y audio que se toman como origen. Se realiza
mediante el uso de una estructura de filtros interconectados, que
se clasifican en tres categorías: fuente u origen, transformación y
filtros de traducción. La librería multimedia implementada está
desarrollada con Microsoft DirectShow ampliándolo para ofrecer un
solapamiento de diferentes capas y cambiar su orden de acuerdo a
algún tipo de prioridad en tiempo de ejecución. Cada capa puede ser
una imagen, vídeo previamente almacenado, vídeo capturado
on-line desde una cámara, o modelos de animación en
3D. En la figura 4 se muestra un gráfico con los filtros del
DirectShow.
La arquitectura del software está diseñada como
un gráfico más de los filtros del DirectShow, donde el filtro del
vídeo fuente corresponde a la imagen de entrada del usuario. La
detección de las características de la cara y las rutinas de
seguimiento también se encuentran encapsuladas dentro del filtro
que proporciona la posición de los ojos en coordenadas (x,y). Con
esta localización el filtro MML fija o encaja el artículo
seleccionado por el usuario, mediante la pantalla táctil, en el
lugar correcto de la imagen.
En la figura 1 se ilustra cómo la imagen de uno
de los artículos de la librería es superpuesto a la imagen real del
usuario.
En la figura 2 se representa el esquema
funcional de la invención constituido por un soporte multimedia y
multimodal, con una cámara de vídeo digital de alta resolución, una
computadora, un software de reconocimiento y tratamiento de
imágenes, una pantalla táctil y un cristal espejo; que permiten la
realización de las tareas de identificación de caracteres faciales,
elección de artículos de la librería de imágenes, modificación del
menú para interacción entre el usuario y la computadora y procesado
de imágenes.
En la figura 3 se describe el procedimiento de
seguimiento de los ojos para mantener sus coordenadas en la imagen
continuamente ubicadas.
Para describir el procedimiento propuesto
denotaremos p como un punto que corresponde a la
representación visual de un objeto en \phi en un tiempo t,
por ejemplo: p corresponde a la plantilla T en el
espacio definido por R^{mxn} Se establece una distancia
d en \phi. La distancia d entre dos puntos
p_{1} y p_{2} se calcula de acuerdo a la norma
L_{2}. Esta distancia se utilizará en la imagen de entrada
y la plantilla para obtener la mejor correspondencia posible.
Después de aplicar la función distancia entre la
imagen y el patrón deslizando la plantilla sobre la ventana de
búsqueda, aparecerá un número variable de mínimos locales, entre
ellos el que nos interesa.
En \phi el vector p corresponde al
patrón de referencia, esto es, la vista del objeto que nos
interesa. El vector m_{1} corresponderá al mínimo absoluto
considerando que es el objeto visual que más se asemeja al objeto
de interés. La existencia de más mínimos locales, m_{2} y
m_{3}, implica que hay objetos que se asemejan en cierto
grado al objeto de interés. Son los llamados objetos de contexto.
Estos objetos, de la misma manera que el objeto de interés, también
tienen su propia curva de transformación visual incluida en su copia
en el espacio próximo. Aunque por simplicidad estos objetos de
contexto permanecerán estáticos.
La curva de transformación visual del objeto que
centra nuestro interés es el lugar geométrico de los puntos
correspondientes a la diferencia mínima después del proceso de
correspondencia en imágenes de entrada, en un tiempo determinado.
Esta curva se compondrá de los vectores más cercanos
m_{1}, m'_{1}, m''_{1}, ... al patrón de
referencia p. Por tanto m_{1} corresponde al punto
más cercano a p en el momento t=0, m'_{1}
corresponde al punto más cercano a p en t=1, etc. Sin
embargo si existiera al menos un objeto en el contexto,
m_{2}, y el patrón de referencia p no se
actualizara, esto podría ocurrir después de un determinado número
de encuadres, el mínimo absoluto no se correspondería con el objeto
real de interés sino con el objeto que más se asemeja del contexto,
tal y como muestra la figura 3. De este modo el área de la ventana
de búsqueda correspondiente al punto m_{2} se tomará como
el objeto de interés, dando como resultado un error en el proceso
de seguimiento, este es un error muy común de técnicas de
actualización que no actualizan el patrón. El origen del problema
está en la falta de actualización o actualización con un
coeficiente inapropiado del patrón de referencia.
En la figura 4 se muestra un gráfico con los
filtros del DirectShow.
La principal aplicación industrial de esta
invención es la de promoción y venta de distintos complementos
tanto para el hombre como para la mujer, en áreas comerciales y de
pública concurrencia.
Claims (3)
1. Expositor virtual para servicios en áreas
comerciales y con fines de atracción al público en general.
Constituido por un soporte multimedia y multimodal, con una cámara
de vídeo digital de alta resolución, una computadora, un software
de procesado de imágenes y gestión y una pantalla táctil,
caracterizado porque muestra, en tiempo real, la imagen
original del usuario a la que se le han añadido virtualmente y de
forma realista artículos elegidos por él mismo desde el menú como:
gafas, pendientes, collares, maquillajes, y cualquier clase de
complemento estético sobre el busto del usuario.
2. Expositor virtual según reivindicación 1 en
el cuál el software, de desarrollo propio, cargado y ejecutado en
la computadora es el encargado del procesamiento de la imagen del
usuario e integrarle a la misma el elemento seleccionado.
3. Expositor virtual según reivindicación 1 en
el cuál la librería de mezcla multimedia, de desarrollo propio,
permite la superposición de diferentes capas y cambia su orden de
acuerdo a algún tipo de prioridad en tiempo de ejecución. Cada capa
puede ser una imagen, vídeo previamente almacenado, vídeo capturado
on-line desde una cámara o modelos de animación en
3D.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200700749A ES2334079B1 (es) | 2007-03-09 | 2007-03-09 | Expositor virtual. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200700749A ES2334079B1 (es) | 2007-03-09 | 2007-03-09 | Expositor virtual. |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2334079A1 true ES2334079A1 (es) | 2010-03-04 |
ES2334079B1 ES2334079B1 (es) | 2010-10-13 |
Family
ID=41683653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200700749A Active ES2334079B1 (es) | 2007-03-09 | 2007-03-09 | Expositor virtual. |
Country Status (1)
Country | Link |
---|---|
ES (1) | ES2334079B1 (es) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1215618A2 (en) * | 2000-12-14 | 2002-06-19 | Eastman Kodak Company | Image processing method for detecting human figures in a digital image |
US20030174869A1 (en) * | 2002-03-12 | 2003-09-18 | Suarez Anthony P. | Image processing apparatus, image processing method, program and recording medium |
EP1447973A1 (en) * | 2003-02-12 | 2004-08-18 | Omron Corporation | Image editing apparatus, image editing method and program |
US20050141771A1 (en) * | 2003-10-02 | 2005-06-30 | Hitoshi Yamakado | Generation of decorative picture suitable for input picture |
-
2007
- 2007-03-09 ES ES200700749A patent/ES2334079B1/es active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1215618A2 (en) * | 2000-12-14 | 2002-06-19 | Eastman Kodak Company | Image processing method for detecting human figures in a digital image |
US20030174869A1 (en) * | 2002-03-12 | 2003-09-18 | Suarez Anthony P. | Image processing apparatus, image processing method, program and recording medium |
EP1447973A1 (en) * | 2003-02-12 | 2004-08-18 | Omron Corporation | Image editing apparatus, image editing method and program |
US20050141771A1 (en) * | 2003-10-02 | 2005-06-30 | Hitoshi Yamakado | Generation of decorative picture suitable for input picture |
Also Published As
Publication number | Publication date |
---|---|
ES2334079B1 (es) | 2010-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111833458B (zh) | 图像显示方法及装置、设备、计算机可读存储介质 | |
US20240177480A1 (en) | Systems and methods for personalized augmented reality view | |
US20150378433A1 (en) | Detecting a primary user of a device | |
CN112148118A (zh) | 生成物理环境中的人的姿势信息 | |
CN105354792B (zh) | 一种虚拟眼镜试戴方法及移动终端 | |
CN106575450A (zh) | 通过反照率模型、系统和方法的增强现实内容渲染 | |
CN109559371A (zh) | 一种用于三维重建的方法和装置 | |
US20200257121A1 (en) | Information processing method, information processing terminal, and computer-readable non-transitory storage medium storing program | |
CN110709897A (zh) | 用于插入到图像中的图像内容的阴影生成 | |
KR102209745B1 (ko) | 광고 및 쇼핑 등 정보를 표시하기 위하여 사용자의 투영 영상 인식을 통한 미러 디스플레이의 정보 표시 장치 및 방법 | |
CN114332374A (zh) | 一种虚拟显示方法、设备以及存储介质 | |
CN110717391A (zh) | 一种基于视频图像的身高测量方法、系统、装置和介质 | |
CN109635752A (zh) | 人脸关键点的定位方法、人脸图像处理方法和相关装置 | |
CN108629248A (zh) | 一种实现增强现实的方法及设备 | |
CN105989573A (zh) | 一种基于360度数字全景技术提供展馆导览信息的方法及系统 | |
CN111627117A (zh) | 画像展示特效的调整方法、装置、电子设备及存储介质 | |
CN113359986A (zh) | 增强现实数据展示方法、装置、电子设备及存储介质 | |
US20160284127A1 (en) | Individualized content in augmented reality systems | |
US20140371634A1 (en) | Method and apparatus for tracking hand and/or wrist rotation of a user performing exercise | |
JP2009104426A (ja) | インタラクティブ看板システム | |
CN111862340A (zh) | 增强现实数据呈现方法、装置、显示设备和存储介质 | |
CN114153548A (zh) | 一种展示方法、装置、计算机设备及存储介质 | |
Orhei et al. | A novel edge detection operator for identifying buildings in augmented reality applications | |
Li et al. | A tutorial explaining a machine vision model that emulates human performance when it recovers natural 3D scenes from 2D images | |
ES2334079B1 (es) | Expositor virtual. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EC2A | Search report published |
Date of ref document: 20100304 Kind code of ref document: A1 |
|
FG2A | Definitive protection |
Ref document number: 2334079B1 Country of ref document: ES |