ES2718493T3 - Procedimiento de captura y visualización de aspectos - Google Patents

Procedimiento de captura y visualización de aspectos Download PDF

Info

Publication number
ES2718493T3
ES2718493T3 ES13864385T ES13864385T ES2718493T3 ES 2718493 T3 ES2718493 T3 ES 2718493T3 ES 13864385 T ES13864385 T ES 13864385T ES 13864385 T ES13864385 T ES 13864385T ES 2718493 T3 ES2718493 T3 ES 2718493T3
Authority
ES
Spain
Prior art keywords
image
user
mirror
camera
transformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13864385T
Other languages
English (en)
Inventor
Nissi Vilcovsky
Ofer Saban
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EYESMATCH Ltd
Original Assignee
EYESMATCH Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/843,001 external-priority patent/US8982109B2/en
Application filed by EYESMATCH Ltd filed Critical EYESMATCH Ltd
Application granted granted Critical
Publication of ES2718493T3 publication Critical patent/ES2718493T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G1/00Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
    • A47G1/02Mirrors used as equipment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J13/00Panoramas, dioramas, stereoramas, or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47FSPECIAL FURNITURE, FITTINGS, OR ACCESSORIES FOR SHOPS, STOREHOUSES, BARS, RESTAURANTS OR THE LIKE; PAYING COUNTERS
    • A47F7/00Show stands, hangers, or shelves, adapted for particular articles or materials
    • A47F7/19Show stands, hangers, or shelves, adapted for particular articles or materials for garments
    • A47F2007/195Virtual display of clothes on the wearer by means of a mirror, screen or the like
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/22Optical, colour, or shadow toys

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

DESCRIPCIÓN
Procedimiento de captura y visualización de aspectos
La presente solicitud reivindica el beneficio de prioridad de la solicitud de EE.UU. n° 13/843.001, presentada el 15 de marzo de 2013, y de la solicitud provisional de EE.UU. n° 61/738.957, presentada el 18 de diciembre de 2012.
La invención se refiere, en general, a sistemas de formación de imágenes y visualización, y, más concretamente, a monitores y visualizaciones interactivas, por ejemplo, en entornos de venta al por menor y/o de servicios, situaciones médicas o domésticas, videoconferencias, juegos, etc. Las implementaciones específicas se refieren a hacer que una pantalla plana parezca un espejo. Otra implementación concreta se refiere a hacer que una pantalla plana proporcione un vídeo de una persona mirándose a los ojos para crear una videoconferencia con contacto visual. El documento US 2012/257 000 A1 da a conocer un sistema para un espejo de maquillaje en un dispositivo electrónico portátil con una cámara CCD orientada hacia al usuario que tiene una función de maquillaje que, cuando se activa, activa la cámara orientada hacia el usuario en el dispositivo, la cámara captura imágenes de la cara del usuario y muestra imágenes en directo de la cara del usuario en la pantalla, en el que el dispositivo funciona como un espejo de maquillaje para el usuario. La función de maquillaje opera sobre las imágenes capturadas para recortar y enfocar digitalmente las imágenes para mostrar imágenes ampliadas de la cara del usuario, de este modo el dispositivo funciona como un espejo para la cara para el cuidado personal y la aplicación de cosméticos. El dispositivo tiene una característica para poner en espera una función de comunicación cara a cara, mientras el usuario usa la función de maquillaje para el cuidado personal y la aplicación de cosméticos. El dispositivo está equipado con una luz orientada hacia el usuario que se activa para iluminar la cara para la cámara.
El documento US 2011/210970 A1 da a conocer un aparato de espejo digital que puede reducir la incómoda sensación que siente un usuario que está trabajando al mismo tiempo que mira la imagen mostrada en la dirección horizontal y que puede reducir la tensión en el usuario. El aparato de espejo digital es para mostrar una imagen de un usuario, que incluye una unidad de identificación de postura que determina si una imagen a mostrar debe ser o no una imagen de la espalda del usuario, y genera información de postura que indica un resultado de la determinación, una unidad de generación de imagen que genera la imagen a mostrar renderizando los datos del modelo tridimensional del usuario, y una unidad de visualización que muestra la imagen generada mediante la unidad (103) de generación de imagen, y la unidad de generación de imagen genera, como la imagen a mostrar, una de una imagen que incluye una imagen del usuario invertida de izquierda a derecha y una imagen que incluye una imagen del usuario no invertida de izquierda a derecha, según la información de postura generada mediante la unidad de identificación de postura.
El documento WO 2006/0927893 A2 muestra sistemas, dispositivos y/o procedimientos que permiten la comparación de aspectos. El sistema puede incluir al menos una estación interactiva de formación de imágenes y visualización. La estación puede incluir, por ejemplo, un dispositivo de espejo-visualización capaz de operar de forma seleccionable en uno o ambos de un modo de espejo o un modo de visualización; un dispositivo de formación de imágenes para capturar uno o varios aspectos que aparecen en un campo de visión delante del dispositivo de espejo-visualización; y/o una unidad de control de imagen para seleccionar el modo de operación del dispositivo de espejo-visualización según un comando del usuario.
Según el documento US 2007/040033 A1, se da a conocer un sistema de espejo digital que simula un espejo tradicional mostrando imágenes de vídeo en tiempo real de un usuario situado delante del mismo. El sistema de espejo digital proporciona una pluralidad de modos de espejo digital, incluyendo un modo de espejo tradicional y un modo de espejo de tercera persona. El sistema de espejo digital proporciona una pluralidad de características de espejo digital, incluyendo una característica de congelación de imagen, una característica de ampliación de imagen y una característica de almacenamiento temporal de imagen. El sistema de espejo digital proporciona una pluralidad de estados operacionales, incluyendo un estado de espejo digital y un estado alternado, incluyendo el estado alternado un estado de ahorro de energía y/o un estado de trama de imagen digital.
En el documento US 2009/051779 A1 se dan a conocer varias realizaciones dirigidas a modificar y mejorar la percepción visual. Una realización está dirigida a una cámara que incluye un sistema de lentes para capturar imágenes y a un sistema de iluminación que proporciona luz principal por encima del sistema de lentes y proporciona luz de relleno por debajo del sistema de lentes. Un procesador controla una o varias operaciones de la cámara, incluyendo mejorar automáticamente las imágenes capturadas y presentar las imágenes mejoradas en una pantalla. El sistema y el procedimiento para modificar la percepción visual también se pueden dirigir a un sistema de espejo de videocámara, un sistema de asiento, un paquete de cosmética, un paquete de barra de labios, un espejo polarizado, un cepillo cosmético iluminado, un sistema de gestión de fotografías de retratos personales y un sistema de iluminación para modificar la percepción visual.
Los clientes pueden comprar bienes de consumo, por ejemplo, indumentaria tal como ropa, por ejemplo, camisas, pantalones, chaquetas y otras prendas, así como zapatos, gafas y/o cualquier otro elemento o producto, tal como cosméticos, muebles y similares. Las compras normalmente tienen lugar en instalaciones comerciales, por ejemplo, en tiendas de venta al por menor. Antes de tomar una decisión sobre qué artículo comprar, un cliente puede probarse varios artículos (por ejemplo, indumentaria, cosméticos) y/o posar con otros artículos del entorno (por ejemplo, muebles), y puede ver para cada prueba un aspecto del usuario delante de un espejo, que puede estar situado, por ejemplo, en una zona de prueba de la tienda de venta al por menor. Por ejemplo, el cliente puede probarse un primer artículo, por ejemplo, un traje, y ver para esa primera prueba el aspecto del usuario delante del espejo. A continuación, el cliente puede probarse un segundo artículo, por ejemplo, otro traje. Entonces, el cliente puede necesitar memorizar el aspecto del usuario de la primera prueba con el fin de realizar una comparación mental entre el primer artículo y el segundo artículo, para evaluar así cuál de los dos artículos podría ser el más idóneo para el cliente.
Desafortunadamente, dado que el cliente puede probarse numerosos artículos y/o dado que la segunda prueba puede tener lugar un tiempo considerable después de la primera prueba, o incluso en una tienda diferente, es posible que el cliente no recuerde su aspecto de cada prueba y, por lo tanto, sea necesario que se pruebe repetidamente artículos, por ejemplo, elementos de indumentaria, que ya se probó anteriormente. Esto puede dar como resultado una experiencia de compra frustrante e ineficiente.
El espejo convencional (es decir, una superficie reflejante) es la herramienta común y más fiable para que un individuo explore su propio aspecto actual, en tiempo real. La técnica anterior ha propuesto algunas alternativas en torno a la combinación de una cámara y una pantalla para sustituir al espejo convencional. Sin embargo, estas técnicas no son convincentes y todavía no se aceptan como una imagen fiable del individuo como si estuviese mirándose en un espejo convencional. Esto se debe principalmente a que la imagen generada mediante una cámara es muy diferente de una imagen generada mediante un espejo.
Cuando un usuario se mira en el espejo, lo que realmente ve es su propio reflejo como si estuviese situado a una distancia que es el doble de la distancia desde él mismo hasta el espejo. Esto se ilustra en la figura 5A, en la que el usuario situado a una distancia D1 se ve a sí mismo a una distancia igual al doble de D1. Del mismo modo, como se muestra en la figura 5B, un usuario situado a una distancia D2 se verá a sí mismo a una distancia 2xD2. Además, el ángulo del campo de visión (Field of View, FOV) del usuario cambia cuando el usuario cambia la distancia, por ejemplo, se acerca, al espejo. El FOV está limitado por el ángulo de reflexión especular (p) desde el espejo hasta el ojo del usuario y hasta el borde de la imagen visible en todos los lados del espejo (cuatro lados para un espejo rectangular o cuadrado). En la figura 5B, la parte inferior del FOV vertical se ilustra como el doble del ángulo (p) formado por las líneas que conectan los ojos del usuario con la parte inferior del espejo y que reflejan los zapatos del usuario. En consecuencia, como se ilustra en la figura 5B, cuando el usuario se acerca al espejo, el ángulo del FOV aumenta, por lo que continúa viendo el reflejo del mismo tamaño (FOV1 < FOV2), de tal manera que el usuario realmente se ve a sí mismo aproximadamente con el mismo tamaño, pero más cerca. Esta es una diferencia notable con una cámara, en la que, cuando el usuario se acerca a la cámara, aparece más grande en la imagen. Esto se debe principalmente a que el FOV de una cámara es fijo y está determinado principalmente por el tamaño de la lente de la cámara, o distancia focal.
Existen otros fenómenos a tener en cuenta con respecto al reflejo de un espejo. Por ejemplo, cuando el usuario se acerca al espejo, el reflejo de sus ojos siempre estará en la misma línea virtual en el espejo. Por el contrario, dependiendo de la altura de la cámara, cuando el usuario se acerca a la cámara, los ojos del usuario pueden aparecer a diferentes niveles. Otra diferencia con una cámara es que cuando uno se mira en un espejo, la imagen parece estar invertida (por ejemplo, si uno levanta su mano derecha, en el espejo parecerá que levanta su mano izquierda). Sin embargo, un espejo no intercambia la izquierda y la derecha más de lo que intercambia la parte superior y la parte inferior. Un espejo invierte el eje delante/detrás (es decir, lo que está delante del espejo parece estar detrás del espejo), e izquierda y derecha se definen con respecto a delante y detrás. Además, debido a que la imagen en el espejo es virtual, el espejo puede ser más pequeño que todo el cuerpo y el usuario seguirá viendo la reflexión de todo su cuerpo. El motivo es que la reflexión especular (en la figura 5A el ángulo de incidencia p es igual al ángulo de reflexión p) puede aumentar el campo de visión eficaz cuando el usuario se acerca al espejo. Además, aunque el espejo es un objeto bidimensional, el usuario ve su aspecto en tres dimensiones.
Debido a por lo menos algunos de los motivos observados anteriormente, hasta ahora no se ha dado a conocer ningún sistema para imitar un espejo de manera convincente. Imitar un espejo puede tener muchas aplicaciones en el comercio al por menor y en otros campos, y abre la posibilidad de incorporar experiencias de la vida real con experiencias de la vida virtual, tales como compartir en las redes sociales y otras tecnologías móviles.
Para el objetivo anterior, el procedimiento de la invención comprende las características de la reivindicación 1. Las realizaciones preferentes de la invención se caracterizan en las reivindicaciones secundarias.
Según algunas realizaciones demostrativas de la invención, un sistema que permite la comparación de aspectos puede incluir al menos una estación interactiva de formación de imágenes y visualización. La estación puede incluir, por ejemplo, un dispositivo de espejo-visualización capaz de operar en uno o ambos de un modo de espejo o un modo de visualización; un dispositivo de formación de imágenes para capturar uno o varios aspectos de un campo de visión delante del dispositivo de espejo-visualización; y/o una unidad de control de imagen para seleccionar el modo de operación del dispositivo de espejo-visualización según un comando de usuario. El dispositivo de espejo-visualización puede ser en la forma de una TV plana, en la que durante el modo de espejo la TV presenta una señal de vídeo transpuesto en directo suministrado desde la cámara, mientras que durante el modo de visualización presenta un vídeo transpuesto realizado en un momento anterior y obtenido de una memoria.
Según algunas realizaciones demostrativas de la invención, la unidad de control de imagen puede incluir un dispositivo de entrada para recibir el comando del usuario.
Según algunas realizaciones demostrativas de la invención, la unidad de control de imagen puede incluir un dispositivo de almacenamiento para almacenar datos de una o varias imágenes que pueden corresponder a uno o varios aspectos.
Según algunas realizaciones demostrativas de la invención, el dispositivo de espejo-visualización puede ser capaz de dividirse en al menos una primera y una segunda ventanas que se pueden reproducir simultáneamente. La primera ventana se puede operar de forma seleccionable, por ejemplo, tanto en un modo de espejo como en un modo de visualización. La segunda ventana se puede operar, por ejemplo, en un modo de espejo.
Según algunas realizaciones demostrativas de la invención, el dispositivo de formación de imágenes puede ser capaz de capturar imágenes tridimensionales de los aspectos.
Según algunas realizaciones demostrativas de la invención, el dispositivo de espejo-visualización puede ser capaz de mostrar imágenes de aspectos a secuencias predefinidas.
Según algunas realizaciones demostrativas de la invención, la unidad de control de imagen puede ser capaz de permitir de forma selectiva un acceso del usuario a imágenes de aspectos autorizadas para el usuario, por ejemplo, basándose en datos de identificación de usuario recibidos del usuario.
Según algunas realizaciones demostrativas de la invención, el al menos un sistema interactivo de formación de imágenes y visualización puede incluir dos o más estaciones interactivas de formación de imágenes y visualización capaces de comunicarse a través de una red. Por ejemplo, las dos o más estaciones pueden ser capaces de comunicar entre sí datos que representan imágenes de aspectos.
Según algunas realizaciones demostrativas de la invención, la unidad de control de imagen puede controlar el dispositivo de espejo-visualización para que muestre, por ejemplo, durante el modo de visualización, una o varias imágenes correspondientes a los aspectos. La una o varias imágenes pueden incluir, por ejemplo, uno o varios aspectos reflejados. Los aspectos reflejados se obtienen transponiendo las imágenes o la señal de vídeo obtenidas de una cámara para generar imágenes y vídeo que, cuando se presentan en un monitor, se parecen a un aspecto en un espejo.
Según algunas realizaciones demostrativas de la invención, un procedimiento que permite la comparación de aspectos puede comprender usar un modo de operación de espejo de un dispositivo de espejo-visualización capaz de operarse de forma seleccionable en un modo de espejo o en un modo de visualización; capturar una imagen correspondiente a un aspecto de una primera prueba delante del dispositivo de espejo-visualización; almacenar la imagen de la primera prueba; seleccionar el modo de operación de visualización del dispositivo de espejo-visualización; y/o recuperar la imagen de la primera prueba y mostrar la imagen en el dispositivo de espejo-visualización.
Según otras realizaciones, se dan a conocer procedimientos y aparatos que utilizan una cámara y una pantalla plana para crear un aspecto de espejo convincente.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La materia objeto considerada como la invención se muestra particularmente y se reivindica claramente en la porción concluyente de la memoria descriptiva. Sin embargo, la invención, tanto en lo que se refiere a la organización como al procedimiento de operación, junto con las características y ventajas de la misma, se puede comprender mejor con referencia a la siguiente descripción detallada cuando se lee con los dibujos adjuntos, en los que:
La figura 1 es una ilustración esquemática de un sistema interactivo que permite la comparación de aspectos según algunas realizaciones demostrativas de la invención;
las figuras 2A y 2B son ilustraciones esquemáticas de dos etapas secuenciales de la comparación de aspectos cuando se utiliza un sistema interactivo según algunas realizaciones demostrativas de la invención; y
las figuras 3A, 3B y 3C son ilustraciones esquemáticas de tres etapas secuenciales de la comparación de aspectos cuando se utiliza un sistema interactivo según algunas realizaciones demostrativas de la invención; y
la figura 4 es un diagrama de flujo esquemático de un procedimiento que permite la comparación de uno o varios aspectos del usuario según algunas realizaciones demostrativas de la invención.
Las figuras 5A y 5B ilustran esquemáticamente el reflejo de un espejo.
La figura 6 ilustra una realización que tiene una cámara o múltiples cámaras en una disposición vertical al nivel del ojo del usuario, con el fin de obtener una baja distorsión de imagen.
La figura 7 es una representación esquemática que ilustra qué ocurre cuando el usuario se acerca al espejo o se aleja del mismo cuando se usa una cámara montada sobre la pantalla y orientada horizontalmente.
La figura 8 es una representación esquemática que ilustra un sistema en el que la cámara está situada sobre una pantalla de monitor y está inclinada hacia abajo.
La figura 9 es un diagrama de bloques de una realización de la invención que realiza una transformación de la imagen para generar una imagen que imita un espejo.
Las figuras 10A y 10B son representaciones esquemáticas que ilustran procesos de calibración según realizaciones de la invención.
La figura 11 es un diagrama de bloques que ilustra un proceso según una realización de la invención.
La figura 12 es un diagrama de bloques que ilustra módulos y procesos para realizar la calibración y la transformación de imagen según una realización de la invención.
La figura 13 ilustra otra realización, en la que la calibración y la correlación de transformación se realizan in situ después de la instalación del sistema.
La figura 14 ilustra una realización para extraer datos de la imagen de la cámara.
La figura 15 ilustra una realización en la que se realiza la concatenación (stitching) de imágenes de n cámaras. La figura 16 ilustra una realización para presentar los ojos completamente, imitando a un usuario que se mira directamente en el espejo.
Se apreciará que, por simplicidad y claridad de ilustración, los elementos mostrados en las figuras no se han dibujado necesariamente con precisión o a escala. Por ejemplo, las dimensiones de algunos de los elementos pueden exagerarse con respecto a otros elementos para mayor claridad, o varios componentes físicos pueden ser incluidos en un elemento. Además, si se considera apropiado, los números de referencia pueden repetirse entre las figuras para indicar elementos correspondientes o análogos. Se apreciará que estas figuras presentan ejemplos de realizaciones de la presente invención y no pretenden limitar el alcance de la invención.
DESCRIPCIÓN DETALLADA
En la siguiente descripción se describirán diversos aspectos de la presente invención. Con fines explicativos, se exponen configuraciones específicas y detalles con el fin de proporcionar una comprensión completa de la presente invención. Sin embargo, para los expertos en la materia será evidente que la presente invención puede llevarse a la práctica sin los detalles específicos presentados en la presente memoria. Asimismo, algunas características de la invención que se basan en principios e implementaciones conocidas en la técnica pueden omitirse o simplificarse para evitar oscurecer la presente invención.
Algunas realizaciones demostrativas de la invención pueden incluir un sistema interactivo que permite a un usuario comparar uno o varios aspectos, por ejemplo, comparar entre diferentes aspectos, por ejemplo, como se describe con más detalle a continuación.
El término "aspecto del usuario" como se usa en la presente memoria puede referirse al aspecto de un cliente cuando prueba un artículo de consumo. El artículo puede incluir, por ejemplo, indumentaria, tal como ropa, zapatos, gafas, prendas, corbatas y similares; un artículo, por ejemplo, muebles, situado en las proximidades del cliente; así como otros elementos, artículos, diseños o productos tales como, por ejemplo, cosméticos, gorros, cortes de pelo, etc. De igual modo, las realizaciones pueden emplearse para uso técnico, por ejemplo, para diseñadores de moda que deseen ver versiones de los diseños, pueden ser para el uso de personas que estén creando en casa un álbum de por vida de los miembros de la familia a tamaño real, etc.
Según algunas realizaciones demostrativas de la invención, el sistema puede incluir un dispositivo de formación de imágenes capaz de capturar aspectos del usuario y un dispositivo de espejo-visualización, capaz de operar de forma seleccionable como un espejo o como una pantalla. Cuando está en el modo de espejo, el dispositivo de espejo-visualización puede permitir que el usuario evalúe y/o vea un aspecto del usuario de una prueba actual de un bien de consumo. Como se describirá con más detalle más adelante, esto se puede hacer usando vídeo en directo suministrado a una pantalla plana, en el que la señal de vídeo se modifica antes de la presentación en la pantalla, de tal manera que simula un espejo. Cuando está en el modo de visualización, el dispositivo de espejo-visualización puede permitir que el usuario evalúe y/o vea uno o varios aspectos del usuario, por ejemplo, como el capturado previamente mediante el dispositivo de formación de imágenes, de una prueba anterior, por ejemplo, como se describe con más detalle a continuación.
Se hace referencia a la figura 1, que ilustra esquemáticamente un sistema -100- interactivo según algunas realizaciones demostrativas de la invención.
Según algunas realizaciones demostrativas de la invención, el sistema -100- puede incluir una estación -110- interactiva de formación de imágenes y visualización, que puede incluir una unidad -120- de control de imagen, un dispositivo -130- de formación de imágenes (por ejemplo, una cámara de foto fija o una videocámara) y un dispositivo -140- de espejo-visualización (por ejemplo, una pantalla plana). La unidad -120- de control de imagen puede incluir un controlador -121-, una interfaz -122- de red, un dispositivo -123- de almacenamiento, un dispositivo -124- de entrada, todos dichos elementos se describen en detalle a continuación.
Los aspectos de la invención se describen en la presente memoria en el contexto de realizaciones demostrativas de un dispositivo de formación de imágenes, por ejemplo, el dispositivo -130- de formación de imágenes, un dispositivo de espejo-visualización, por ejemplo, el dispositivo -140- de espejo-visualización, y/o una unidad de control de imagen, por ejemplo, la unidad -120- de control de imagen, siendo unidades independientes de un sistema de comparación de aspectos, por ejemplo, el sistema -100-. Sin embargo, los expertos en la materia apreciarán que la invención no está limitada en este sentido, y que, según otras realizaciones de la invención, el sistema puede incluir cualquier configuración, combinación y/o disposición apropiada del dispositivo de formación de imágenes, el dispositivo de espejo-visualización y/o la unidad de control de imagen. Por ejemplo, el sistema puede incluir un módulo integrado que incluye el dispositivo de espejo-visualización, el dispositivo de formación de imágenes y/o la unidad de control de imagen. Por ejemplo, el dispositivo de formación de imágenes y/o la unidad de control de imagen pueden implementarse como una parte integral del dispositivo de espejo-visualización.
Según algunas realizaciones demostrativas de la invención, el dispositivo -140- de espejo-visualización puede configurarse y/o puede incluir componentes y mecanismos que permiten que el dispositivo -140- de espejo-visualización opere de forma seleccionable en dos modos de operación. En un primer modo de operación (el "modo de espejo"), el dispositivo -140- de espejo-visualización puede operar como un espejo. En un segundo modo de operación (el "modo de visualización"), el dispositivo -140- de espejo-visualización puede operar como una pantalla. Cuando el dispositivo -140- de espejo-visualización opera en el modo de espejo, un usuario -111- del sistema -100- puede evaluar y/o ver un aspecto del usuario de una primera prueba de un bien de consumo, como puede reflejarse mediante el dispositivo -140- de espejo-visualización en tiempo real. El dispositivo -130- de formación de imágenes puede capturar una imagen del aspecto del usuario de la primera prueba. La imagen capturada puede almacenarse, por ejemplo, mediante el dispositivo -123- de almacenamiento, por ejemplo, como se describe a continuación. El usuario -111- puede posar entonces delante del dispositivo -140- de espejo-visualización probando un segundo artículo, y el dispositivo -130- de formación de imágenes puede capturar una segunda imagen del aspecto del usuario de la segunda prueba. El usuario puede ser capaz de ver el segundo artículo en tiempo real usando el dispositivo -140- de espejo-visualización ajustado en el modo de espejo. Cuando el dispositivo -140- de espejo-visualización se cambia al modo de visualización, el dispositivo -140- de espejo-visualización puede controlarse para mostrar una o varias imágenes capturadas anteriormente. Debido a la capacidad del dispositivo -140- de espejo-visualización de operar de forma seleccionable en el modo de espejo o de visualización, el usuario -111- puede ser capaz de comparar de forma simultánea o secuencial entre los aspectos del usuario de la primera y la segunda pruebas, como se describe en detalle a continuación.
En algunas realizaciones demostrativas de la invención, por ejemplo, como se muestra en las figuras 1, 2A, 2B, 3A y/o 3B, el controlador -121- puede controlar el dispositivo -140- para que muestre, durante el modo de operación de visualización, una imagen de espejo de los aspectos. Sin embargo, los expertos en la materia apreciarán que la invención no está limitada en este sentido, y que en otras realizaciones el controlador puede controlar el dispositivo -140- para que muestre, durante el modo de operación de visualización, cualquier otra imagen correspondiente al aspecto, por ejemplo, un aspecto girado, un aspecto invertido, un aspecto, por ejemplo, frontal, sin modificar sustancialmente, un aspecto renderizado y similares, por ejemplo, como se describe a continuación.
El dispositivo -140- puede incluir cualquier configuración y/o mecanismo apropiado para permitir operar de forma seleccionable el dispositivo -140- de espejo-visualización en el primer y el segundo modos de operación. Por ejemplo, en una realización, el dispositivo -140- puede incluir una disposición de elementos de cristal líquido (LC), que pueden cambiar sus atributos ópticos, tales como, por ejemplo, la reflectividad, el índice de refracción y similares, dependiendo de, por ejemplo, un voltaje aplicado a los cristales líquidos. Por ejemplo, aplicar un primer voltaje puede dar como resultado el cambio en los atributos ópticos de los cristales líquidos de tal manera que el dispositivo -140- de espejo-visualización pueda operar como un espejo; y un segundo voltaje puede dar como resultado el cambio en los atributos ópticos de los cristales líquidos de tal manera que el dispositivo -140- de espejo-visualización pueda operar como una pantalla de cristal líquido.
En otra realización de la invención, por ejemplo, el dispositivo -140- de espejo-visualización puede incluir un dispositivo de pantalla de cristal líquido (LCD) integrado en un espejo semireflejante o unidireccional. En consecuencia, si la LCD se cambia a un modo de operación inactivo, el espejo-visualización -140- puede reflejar de forma pasiva suficiente luz incidente en el mismo para permitir que el usuario vea los aspectos del usuario con una calidad y brillo razonables. Por el contrario, cuando la LCD se cambia a un modo de operación activo, el usuario -111- puede ver las imágenes mostradas mediante el dispositivo LCD porque pueden ser significativamente más brillantes que los reflejos residuales de la superficie del espejo-visualización. En otras realizaciones, el sistema se implementa en un ordenador autónomo, sin la propia pantalla, de tal manera que el comprador del sistema puede proporcionar su propia pantalla o tener configuraciones en las que el sistema se usa sin pantallas, pero se controla de forma remota mediante los dispositivos móviles o tabletas de los clientes, de tal manera que puedan ver sus aspectos en su móvil y controlar de forma remota la grabación.
Además, en algunos casos, la cámara puede estar lejos de la pantalla, por ejemplo, las marcas de lujo pueden integrar la pantalla en la pared y colocar la cámara con lentes apropiadas en una ubicación remota.
Según algunas realizaciones demostrativas de la invención, el dispositivo -140- de espejo-visualización se puede implementar mediante una TV de espejo LCD preparada para HD tal como, por ejemplo, el modelo n° 32PM8822/10 disponible en la firma Royal Philips Electronics, por ejemplo, como se describe en el sitio de Internet <http://www.research.philips.com/newscenter/archive/2003/mirrortv.html- >. Un dispositivo de este tipo puede incluir, por ejemplo, una pantalla de diodo orgánico de emisión de luz (OLED) basada en polímeros. El dispositivo -140- de espejo-visualización puede incluir cualquier otro dispositivo apropiado que implemente cualquier tecnología de visualización apropiada. Por ejemplo, el dispositivo -140- puede incluir una pantalla nanoemisora (NED); un panel de pantalla de plasma (PDP); una pantalla de tubo de rayos catódicos (CRT); una pantalla de procesamiento digital de luz (DLP); una pantalla de emisiones de electrones dirigidos (SED); una pantalla de tableta; una SED plana; una pantalla electrónica orgánica; papel electrónico; una pantalla tridimensional, por ejemplo, una pantalla de hologramas; una pantalla de transistores de película fina (TFT); una pantalla TFT óptica; una pantalla LED de matriz de puntos; una lCd con capacidades CCD, por ejemplo, de tal manera que el espejo-visualización -140- pueda ser capaz de realizar la funcionalidad del dispositivo -130- de formación de imágenes; una LCD para pintar; una pantalla de emisiones de electrones dirigidos (SED); una pantalla de televisión de alta definición (HDTV); un dispositivo de pantalla de proyector trasero, y similares.
Según algunas realizaciones demostrativas de la invención, el dispositivo -130- de formación de imágenes se puede adaptar para capturar uno o varios aspectos del campo de visión (FOV) delante del dispositivo -140- de espejo-visualización. El FOV delante del dispositivo -140- de espejo-visualización puede incluir, por ejemplo, un campo, área, escena, zona y/o región delante del dispositivo -140- de espejo-visualización. Por ejemplo, el FOV puede incluir al menos una parte de un campo, área, escena, zona y/o región capturada mediante el dispositivo -140- de espejo-visualización cuando está en el modo de espejo.
Aunque el alcance de la presente invención no está limitado en este sentido, el dispositivo -130- de formación de imágenes puede ser o puede incluir, por ejemplo, una cámara CCD, una videocámara, una cámara y/o una configuración de cámara que permita capturar imágenes 3D, por ejemplo, una cámara estereoscópica y similares. Una cámara estereoscópica se puede adaptar, por ejemplo, para capturar una imagen 3D del aspecto del usuario. La cámara estereoscópica puede incluir, por ejemplo, dos lentes que tienen una distancia entre sí que puede corresponder a una distancia entre dos ojos humanos. En consecuencia, la cámara estereoscópica puede ser capaz de simular la visión binocular humana, también conocida como estereofotografía, siendo capaz por tanto de capturar una imagen 3D.
Según algunas realizaciones demostrativas de la invención, la estación -110- puede ser una unidad autónoma, que puede estar situada en un área de comparación de aspectos de una ubicación deseada, por ejemplo, una oficina, una casa, o una tienda, por ejemplo, una tienda de ropa.
Según otras realizaciones demostrativas de la invención, la estación -110- puede conectarse, por ejemplo, mediante la interfaz -122- de red, a una red, por ejemplo, una red -150-, permitiendo así la comunicación entre la estación -110- y una o varias estaciones asociadas con la red -150-, tales como, por ejemplo, la estación -160- y/o la estación -170-.
Según algunas realizaciones demostrativas de la invención, la estación -110- puede incluir una interfaz -122- de red, que se puede adaptar para interactuar con la red -150-, para enviar y recibir información de otras estaciones en la red -150-, como se describe en la presente memoria. Dicha información puede incluir, pero no está limitada a, datos correspondientes a imágenes de usuarios capturadas en varias estaciones del sistema -100-, por ejemplo, la estación -160- y/o -170-, así como información de identificación de los usuarios para permitir el acceso seguro al sistema, como se describe con más detalle a continuación. La red -150- puede incluir, por ejemplo, una red de área local (LAN), una red de área amplia (WAN), una red de comunicación global, por ejemplo, Internet, una red de comunicación inalámbrica tal como, por ejemplo, una red de comunicación LAN inalámbrica (WLAN), una red de Bluetooth, una red privada virtual (VPN) inalámbrica, una red de comunicación celular, por ejemplo, del proyecto de asociación de tercera generación (3GPP), tal como, por ejemplo, una red de duplexado en el dominio de la frecuencia (FDD), una red del sistema global para comunicaciones móviles (GSM), una red de comunicación celular de acceso múltiple por división de código de banda ancha (WCDMA), y similares.
Según algunas realizaciones demostrativas de la invención, una o varias de las estaciones -160- y -170- pueden ser dispositivos portátiles. Ejemplos no limitativos de dichos dispositivos portátiles pueden incluir un teléfono móvil, un ordenador portátil, una agenda electrónica, un ordenador móvil, un ordenador de tableta, un dispositivo de sistemas de comunicación personal (PCS), asistentes digitales personales (PDA), un dispositivo de comunicación inalámbrica, un dispositivo p Da que incorpora un dispositivo de comunicación inalámbrica, un teléfono celular, un teléfono inalámbrico, una tarjeta inteligente, un testigo de autenticación, una tarjeta de memoria, una unidad de memoria, y similares. En algunas realizaciones de la invención, una o varias de las estaciones -160- y -170- pueden ser dispositivos no portátiles, tales como, por ejemplo, un ordenador de sobremesa, un aparato de televisión, un ordenador servidor, y similares.
Según algunas realizaciones de la invención, el sistema -100- también puede incluir un centro -190- de control, que puede estar conectado a las estaciones -110-, -160- y/o -170-, por ejemplo, a través de la red -150-. El centro -190- de control puede recibir y almacenar datos, que pueden representar, por ejemplo, datos y/o imágenes de aspectos del usuario, recibidos de una o varias de las estaciones -110-, -160- y/o -170-.
Según algunas realizaciones de la invención, las estaciones -110-, -160- y/o -170- pueden estar situadas en diferentes ubicaciones, tales como, por ejemplo, diferentes tiendas de una cadena de comercios. Además, las estaciones -110-, -160- y/o -170- pueden estar situadas en diferentes ubicaciones dentro de un edificio, por ejemplo, diferentes plantas, diferentes secciones en la misma planta, y similares. Dichas ubicaciones pueden incluir, por ejemplo, tiendas de ropa, tiendas de calzado, puntos de venta, salas de exposición conceptuales, presentaciones, galerías comerciales, tiendas de accesorios ópticos, tiendas de cosméticos, clubs deportivos, institutos de salud, gimnasios, aeropuertos, estaciones de tren, cafeterías, restaurantes, hoteles, casas, y similares. Una o varias de las estaciones -110-, -160- y -170- también se pueden usar para anuncios en carteles publicitarios interactivos. Por ejemplo, el dispositivo -130- de formación de imágenes puede, por ejemplo, capturar imágenes que se pueden mostrar en un anuncio de un cartel publicitario (no mostrado). El sistema -100- puede permitir que el usuario -111- elija una imagen a mostrar en el anuncio del cartel publicitario de entre una pluralidad de imágenes de, por ejemplo, varias pruebas de indumentaria anteriores.
Según algunas realizaciones demostrativas de la invención, las imágenes de aspectos del usuario se pueden ver en diferentes ubicaciones. Por ejemplo, el dispositivo -130- de formación de imágenes puede capturar una imagen de la primera prueba. La imagen se puede enviar entonces desde la interfaz -122- de red a través de la red -150- usando las señales -151- y -152-, por ejemplo, hasta la estación -160-. En consecuencia, el usuario -111- puede ser capaz de ver la imagen del primer aspecto del usuario en la estación -160-. Por lo tanto, el usuario -111- puede ser capaz de ver, por ejemplo, el aspecto del usuario de la primera prueba en una primera tienda de una cadena de comercios al por menor, por ejemplo, una tienda asociada con la estación -110-; y puede comparar el aspecto del usuario de la primera prueba con un aspecto del usuario de una segunda prueba, que puede tener lugar en una segunda tienda de la misma cadena o de una cadena asociada, por ejemplo, una tienda asociada con la estación -160-; y/o en un momento diferente, por ejemplo, una o varias horas, días o semanas después de la primera prueba.
Según otra realización demostrativa de la invención, el dispositivo -130- de formación de imágenes puede capturar una imagen de un aspecto del usuario de una primera prueba, y enviar la imagen mediante la interfaz -122- de red a través de la red -150- al centro -190- de control, donde la imagen puede almacenarse para su posterior recuperación. En consecuencia, el usuario -111- puede obtener acceso a las imágenes de la primera prueba accediendo a cualquier estación, por ejemplo, la estación -160-, conectada a través de la red -150- con el centro -190- de control.
Según algunas realizaciones demostrativas de la invención, el dispositivo -123- de almacenamiento puede incluir, por ejemplo, una unidad de disco duro, una unidad de disco flexible, una unidad de disco compacto (CD), una unidad de CD-ROM, una unidad de disco versátil digital (DVD) u otras unidades de almacenamiento extraíbles o no extraíbles apropiadas.
Según algunas realizaciones demostrativas de la invención, el controlador -121- puede ser o puede incluir, por ejemplo, una unidad de procesamiento central (CPU), un procesador de señales digitales (DSP), un microprocesador, un controlador, un chip, un microchip, un circuito integrado (IC), o cualquier otro procesador o controlador de uso múltiple o específico apropiado, por ejemplo, como se conocen en la técnica.
El dispositivo -124- de entrada puede incluir, por ejemplo, un teclado; un control remoto; un sensor de movimiento, un dispositivo de apuntamiento tal como, por ejemplo, un puntero láser; un ratón; un panel táctil; una pantalla táctil, que puede estar integrada, por ejemplo, en el dispositivo -140- de espejo-visualización, o puede implementarse mediante cualquier otra unidad apropiada, por ejemplo, independiente del dispositivo -140-; un dispositivo de entrada biométrico, por ejemplo, un escáner de huellas digitales, y/o una cámara para escanear una cara; y/o cualquier otro dispositivo de apuntamiento o dispositivo de entrada apropiado. El dispositivo -124- de entrada se puede adaptar para recibir datos de identificación del usuario, por ejemplo, para permitir el acceso, por ejemplo, el acceso seguro, del usuario -111- al sistema -100-, como se describe en detalle a continuación.
Según algunas realizaciones demostrativas de la invención, el usuario -111- puede proporcionar comandos de usuario al dispositivo -124- de entrada para operar el dispositivo -130- de formación de imágenes. El dispositivo -124- de entrada puede incluir, por ejemplo, una interfaz para permitir al usuario -111- del sistema -100- definir parámetros operacionales del dispositivo -130- de formación de imágenes. El controlador -121- puede recibir las entradas del usuario -111- mediante las señales -131- y controlar la operación del dispositivo -130- de formación de imágenes consecuentemente. Los comandos del usuario pueden incluir, por ejemplo, comandos relativos a la temporización para capturar una imagen, el posicionamiento del dispositivo -130- de formación de imágenes, por ejemplo, según un algoritmo de seguimiento automático que puede seguir, por ejemplo, la posición del usuario -111-, y/o atributos de la formación de imágenes tales como el foco, la posición de la cámara, el ángulo de captura, el rango dinámico y similares. Los comandos del usuario también pueden incluir comandos para definir modos de operación de captura de imágenes del dispositivo -130- de formación de imágenes tales como, por ejemplo, un modo de captura de vídeo, un modo fotográfico y similares. Según algunas realizaciones de la invención, el dispositivo -130- de formación de imágenes puede incluir un dispositivo de entrada de sonido, por ejemplo, un micrófono y/o un dispositivo de salida de sonido, por ejemplo, un altavoz. En consecuencia, el dispositivo de formación de imágenes puede recibir señales de audio, por ejemplo, señales de voz generadas por el usuario -111-, que pueden grabarse y almacenarse, por ejemplo, en el dispositivo -123- de almacenamiento, y reproducir las señales de audio a través del dispositivo de salida de sonido. El dispositivo de salida de sonido puede ser capaz de reproducir cualquier otro tipo de señales de audio, tales como, programas de radio, grabaciones de discos compactos y similares.
Según algunas realizaciones demostrativas de la invención, el controlador -121- puede, por ejemplo, ajustar el modo de operación del dispositivo -140- de espejo-visualización según el comando recibido del usuario -111-. Por ejemplo, si el dispositivo -140- de espejo-visualización opera en el modo de espejo, el usuario del sistema -100- puede proporcionar al dispositivo de entrada un comando de cambio, por ejemplo, pulsando un botón designado en el dispositivo -124- de entrada, para cambiar el dispositivo -140- de espejo-visualización al modo de visualización. El controlador -121- puede recibir la entrada del dispositivo -124- de entrada y puede controlar el dispositivo -140- para cambiar al modo de operación de visualización, por ejemplo, usando las señales -141 -.
Según algunas realizaciones demostrativas de la invención, el dispositivo -130- de formación de imágenes se puede montar en varias posiciones, tales como, por ejemplo, en la parte superior, debajo o en el lateral del dispositivo -140- de espejo-visualización, capturando así una imagen de un aspecto del usuario que puede ser una imagen de una prueba de indumentaria dada, una imagen del usuario -111- con varios artículos, por ejemplo, muebles y/o posando con diferentes prendas y similares. En algunas realizaciones de la invención, el dispositivo -130- de formación de imágenes puede capturar un aspecto del usuario como aparece en el dispositivo -140- de espejo-visualización, es decir, una imagen de espejo del aspecto del usuario. En otras realizaciones, el dispositivo -130- de formación de imágenes puede capturar el aspecto, y el controlador -121- puede generar una imagen de espejo correspondiente al aspecto capturado mediante el dispositivo -130- de formación de imágenes. Por ejemplo, el almacenamiento -123- puede almacenar instrucciones que, cuando se ejecutan mediante el controlador, pueden dar como resultado cualquier procedimiento o algoritmo adecuados de girar, invertir y/o reflejar el aspecto capturado mediante el dispositivo -130- de formación de imágenes, para generar así los datos de imagen que representan la imagen girada, invertida y/o reflejada de la imagen capturada mediante el dispositivo -130-. Según estas realizaciones, el controlador -121- puede controlar el dispositivo -140- de espejo-visualización para que muestre, durante el modo de operación de visualización, la imagen girada, invertida y/o reflejada. En otras realizaciones, el controlador -121- puede controlar el dispositivo -140- de espejo-visualización para que muestre, durante el modo de operación de visualización, una imagen correspondiente a la imagen capturada mediante el dispositivo -130-, por ejemplo, una imagen no reflejada, no girada y/o no invertida. En algunas realizaciones, el dispositivo -130- de formación de imágenes puede no ser visible para el usuario -111-, puede estar situado detrás del dispositivo -140- de visualización, y/o puede estar integrado en el dispositivo -140- de espejo-visualización, que puede ser o puede incluir, por ejemplo, un dispositivo LCD-CCD capaz tanto de mostrar como de capturar imágenes. Por ejemplo, en una realización demostrativa de la invención, el dispositivo -140- puede incluir una disposición, pantalla o superficie, por ejemplo, que incluya cristales líquidos, para realizar la funcionalidad de espejo-visualización, por ejemplo, como se ha descrito anteriormente, así como la funcionalidad de formación de imágenes del dispositivo -130- de formación de imágenes, por ejemplo, el dispositivo -140- puede incluir un dispositivo de espejo-formación de imágenes-visualización.
En algunas realizaciones demostrativas de la invención, una o varias de las estaciones -110-, -160- y/o -170- pueden no incluir el dispositivo -130- de captura de imágenes; y/o una o varias de las estaciones -110-, -160- y/o -170- pueden no incluir el espejo-visualización -140-. Por ejemplo, una primera estación del sistema -100- puede incluir solo el dispositivo -130- de formación de imágenes, y puede no incluir, por ejemplo, el dispositivo -140- de espejo-visualización. El usuario -111- puede usar la primera estación para capturar la imagen de la primera prueba del aspecto del usuario, por ejemplo, sin ser capaz de ver en la primera estación la imagen resultante de la primera prueba. El usuario -111- puede ver posteriormente la imagen capturada de la primera prueba en otra estación del sistema -100-, que puede incluir el dispositivo -140- de espejo-visualización.
Según algunas realizaciones demostrativas de la invención, el dispositivo -130- de formación de imágenes se puede situar de tal manera que permite capturar una imagen y/o una secuencia de imágenes, vídeos o similares, de una escena que tiene lugar delante del dispositivo -140- de espejo-visualización. De forma adicional o alternativa, el dispositivo -130- de formación de imágenes se puede situar de tal manera que permite capturar una imagen reflejada del dispositivo -140- de espejo-visualización. Por ejemplo, el dispositivo -130- de formación de imágenes puede ser capaz de capturar una imagen del usuario -111- posando delante del dispositivo -140- de espejo-visualización. Mientras posa delante del dispositivo -140- de espejo-visualización, el usuario -111- puede comprobar su aspecto de, por ejemplo, una primera prueba de ropa. Según una entrada proporcionada por el usuario -111- en el dispositivo -124- de entrada, el dispositivo -130- de formación de imágenes puede capturar la imagen del aspecto de usuario que puede ser, por ejemplo, una prueba de indumentaria dada, por ejemplo, una prenda y similares. Se debe observar que las pruebas del usuario -111- también pueden incluir al usuario -111- interactuando con varios objetos, que pueden estar situados en las proximidades del usuario -111-, tales como, muebles, montaje de estudio y similares. En consecuencia, el dispositivo -130- de formación de imágenes puede capturar imágenes de aspectos del usuario de, por ejemplo, una primera prueba, una segunda prueba, etc., y puede enviar las imágenes capturadas respectivas al dispositivo -123- de almacenamiento a través de las señales -131- y las señales -30-. El usuario -111- puede ser capaz de recuperar la imagen capturada de, por ejemplo, la primera prueba, en un momento posterior, por ejemplo, después de la segunda prueba u otras pruebas subsiguientes, y puede comparar entre la primera y la segunda u otra prueba, por ejemplo, como se describe a continuación con referencia a las figuras 2A, 2B y 2C.
Según algunas realizaciones demostrativas de la invención, el dispositivo -123- de almacenamiento se puede adaptar para recibir datos que representan imágenes capturadas mediante el dispositivo -130- de formación de imágenes, y para almacenar imágenes de aspectos, y, más concretamente, aspectos del usuario de, por ejemplo, pruebas de indumentaria dadas, capturadas mediante el dispositivo -130- de formación de imágenes. Las imágenes de pruebas dadas de aspectos del usuario pueden recuperarse del dispositivo -123- de almacenamiento, por ejemplo, mediante el controlador -121-, y visualizarse mediante la pantalla -140-. El usuario -111- puede comparar entre las imágenes mostradas, por ejemplo, como se describe en detalle a continuación.
Según algunas realizaciones demostrativas de la invención, el dispositivo -123- de almacenamiento puede incluir datos que representan, por ejemplo, algoritmos de software, que requieren y/o verifican datos de identificación del usuario tales como el identificador del usuario, la contraseña, la hora de inicio de sesión, datos biométricos y similares, para permitir el acceso seguro a la estación -110-, como se describe en detalle a continuación. Por ejemplo, el controlador -121- puede controlar el dispositivo -140- de espejo-visualización para mostrar imágenes correspondientes a una identidad del usuario -111-, por ejemplo, basándose en los datos de identidad proporcionados por el usuario -111-. Por ejemplo, el usuario -111- puede proporcionar una entrada -124- con una entrada de identificación del usuario, que puede incluir, por ejemplo, una entrada biométrica tal como un reconocimiento facial, una huella de la mano, una huella digital, una huella ocular, reconocimiento de voz y similares. La entrada de identificación del usuario puede incluir cualquier otra entrada apropiada, por ejemplo, una tarjeta de crédito, un número de identificación personal (PIN), una contraseña, una tarjeta inteligente, una tarjeta de cliente, una tarjeta de club, o similares. El controlador -121- comprueba, por ejemplo, basándose en cualquier procedimiento y/o algoritmo apropiado, si la entrada de identificación del usuario proporcionada en el dispositivo -124- de entrada coincide con los datos de identificación del usuario que pueden estar almacenados, por ejemplo, en el dispositivo -123- de almacenamiento o en el centro -190- de control. El software con capacidad de verificar una entrada biométrica puede ser, por ejemplo, "Active ID FaceVision technology" proporcionado por Geometric Inc. Si el controlador -121- compara la entrada del usuario -111- con los datos de identificación del usuario almacenados, el controlador -121- puede permitir al usuario -111- acceder a datos que representan, por ejemplo, imágenes de aspectos anteriores del usuario -111-.
Según algunas realizaciones demostrativas de la invención, el dispositivo -123- de almacenamiento puede incluir datos que representan, por ejemplo, algoritmos de software que permiten características del sistema adicionales tales como, por ejemplo, renderizar efectos virtuales en el dispositivo -140- de espejo-visualización. Por ejemplo, el controlador -121- puede ser capaz de renderizar una imagen en el dispositivo -140- de espejo-visualización de aspectos del usuario unidos y/o combinados con artículos virtuales, tales como, por ejemplo, ropas, colecciones, gorros, cortes de pelo, muebles y similares. Además, el controlador -121- puede ser capaz de renderizar una imagen en el dispositivo -140- de espejo-visualización de aspectos del usuario que tienen diferentes formas corporales para simular, por ejemplo, pérdida de peso, ganancia de peso del usuario -111- y similares. Por ejemplo, el usuario -111- puede elegir en una primera prueba un artículo específico, tal como un traje de una colección, y el controlador -121- puede ajustar virtualmente la colección a una imagen del usuario -111- que aparece en el dispositivo -140- de espejo-visualización. El controlador -121- puede almacenar la imagen de la primera prueba en el dispositivo -123- de almacenamiento y puede realizar la misma etapa en una segunda prueba. En consecuencia, el usuario -111- del sistema -100- puede ser capaz de comparar entre aspectos del usuario de la primera y la segunda pruebas de la colección.
Según algunas realizaciones demostrativas de la invención, el controlador -121- puede proporcionar, por ejemplo, capacidades de navegación de imagen y/o vídeo, funciones de reproducción de imagen y/o vídeo, cuyas capacidades y funciones pueden estar predefinidas por el sistema -100- o pueden definirse, por ejemplo, sobre la marcha, según uno o varios comandos de usuario recibidos del usuario -111- mediante el dispositivo -124- de entrada. Por ejemplo, el controlador -121- puede ser capaz de recuperar una o varias imágenes de aspectos del usuario anteriores y mostrar las imágenes en el dispositivo -140- de espejo-visualización en varias secuencias. Por ejemplo, las imágenes de pruebas anteriores pueden mostrarse en una secuencia sustancialmente continua hacia delante, hacia atrás, o mezclada, por ejemplo, accesible de forma aleatoria, y/o puede ser una secuencia por etapas o en cualquier otra secuencia. Asimismo, las imágenes de pruebas anteriores pueden mostrarse simultáneamente en el dispositivo -140- de espejo-visualización, por ejemplo, como se describe a continuación. El controlador -121- también puede ser capaz de borrar aspectos del usuario capturados anteriormente, limitar la cantidad de datos que se pueden guardar en el dispositivo -123- de almacenamiento y similares, y también puede controlar una forma, tamaño, color, etc., de la imagen mostrada en el dispositivo -140- de espejo-visualización.
Según algunas realizaciones demostrativas de la invención, el usuario -111- puede usar un dispositivo -180- de almacenamiento portátil capaz de almacenar una o varias de las imágenes capturadas. El dispositivo de almacenamiento portátil puede incluir cualquier dispositivo de almacenamiento portátil apropiado, por ejemplo, una tarjeta inteligente, un dispositivo de disco en llave, y similares. El usuario -111- puede descargar, por ejemplo, imágenes representadas mediante, por ejemplo, las señales -50-, de una primera prueba de aspectos del usuario del dispositivo -123- de almacenamiento, por ejemplo, mediante una interfaz -125- de almacenamiento o mediante cualquier otra conexión de datos apropiada. El usuario -111- puede cargar entonces en un momento posterior la imagen de, por ejemplo, la primera prueba, en otra ubicación, por ejemplo, en casa -111- del usuario, u otra estación del sistema -100-, por ejemplo, la estación -170-.
En algunas realizaciones de la invención, la estación -110- puede incluir más de un dispositivo de espejo-visualización o puede incluir un dispositivo -140- de espejo-visualización, que puede dividirse simultáneamente en dos ventanas, como se describe más adelante en la presente memoria con referencia a las figuras 2A y 2B.
Según algunas realizaciones demostrativas de la invención, el controlador -121- puede grabar o almacenar, por ejemplo, en el almacenamiento -123-, parámetros que caracterizan al usuario -111-. Por ejemplo, el sistema -100- puede incluir una báscula, conectada a, por ejemplo, el dispositivo -123- de almacenamiento mediante el controlador -121-. El controlador -121- puede ser capaz de grabar, por ejemplo, el peso del usuario -111- durante, por ejemplo, una prueba de un artículo. En consecuencia, el usuario -111- puede recuperar posteriormente el parámetro, que puede ser, por ejemplo, el peso del usuario -111-.
A continuación, se hace referencia a las figuras 2A y 2B, que ilustran esquemáticamente las etapas de comparar entre aspectos usando un sistema interactivo según algunas realizaciones demostrativas de la invención.
Según algunas realizaciones demostrativas de la invención, el dispositivo -140- de espejo-visualización puede dividirse en dos ventanas, en el que una ventana puede operar como una ventana -192- de espejo y otra ventana -191 - puede operar de forma seleccionable como un espejo y como una ventana de visualización. Como se muestra en la figura 2A, el usuario -111- puede posar delante de la ventana -192- de espejo en una primera prueba, que puede capturarse mediante el dispositivo -130- de formación de imágenes y almacenarse en el dispositivo -123- de almacenamiento. Desde entonces, como se indica en la figura 2B, el usuario -111- puede ver simultáneamente en la ventana -191- la imagen del aspecto del usuario de la primera prueba y/o cualquier otro aspecto del usuario, por ejemplo, los aspectos del usuario almacenados en el dispositivo -123- de almacenamiento y/o recibidos a través de la red -150- (figura 1), en paralelo con el aspecto de espejo normal de una segunda prueba en la ventana -192-, y comparar entre la primera y la segunda pruebas.
A continuación, se hace referencia a las figuras 3A, 3B y 3C, que ilustran esquemáticamente tres etapas secuenciales de comparar entre aspectos usando un sistema interactivo según algunas realizaciones demostrativas de la invención.
Como se muestra en la figura 3A, el usuario del sistema -100- puede ver una primera prueba de un aspecto del usuario en el dispositivo -140- de espejo-visualización operando en su modo de espejo. El controlador -121- puede recibir, por ejemplo, del dispositivo -124- de entrada, una entrada del usuario, que puede incluir una petición para usar el dispositivo -130- de formación de imágenes para capturar una primera prueba del aspecto del usuario. En consecuencia, el dispositivo -130- de formación de imágenes puede capturar una imagen de la primera prueba del aspecto del usuario y el dispositivo -123- de almacenamiento puede almacenar la imagen capturada.
Como se muestra en la figura 3B, el usuario -111- puede ver una segunda prueba del aspecto del usuario en el dispositivo -140- de espejo-visualización, que puede operar en el modo de operación de espejo. Entonces, cuando el usuario -111- desea ver un aspecto anterior, por ejemplo, para comparar, el controlador -121- puede recibir una entrada del usuario mediante el dispositivo -124- de entrada solicitando ver la primera prueba. En este punto, como se muestra en la figura 3C, el controlador -121- puede cambiar el modo operacional del dispositivo -140- de espejo-visualización al modo de visualización usando las señales -141-. El controlador -121- también puede controlar el dispositivo -140- para mostrar la primera prueba. Por lo tanto, cambiando entre los modos de operación del dispositivo -140- de espejo-visualización, el usuario -111- puede comparar el aspecto del usuario de la segunda prueba con el aspecto del usuario de la primera prueba y/o cualquier otro aspecto del usuario almacenado anteriormente en el dispositivo -123- de almacenamiento.
A continuación, se hace referencia a la figura 4, que ilustra esquemáticamente un diagrama de flujo de un procedimiento que permite comparar entre uno o varios aspectos diferentes según algunas realizaciones demostrativas de la invención. Aunque la invención no está limitada en este sentido, una o varias operaciones del procedimiento de la figura 4 pueden realizarse mediante uno o varios elementos del sistema -100- (figura 1).
Como se indica en el bloque -410-, el procedimiento puede incluir, por ejemplo, ajustar el modo de operación de un dispositivo de espejo-visualización. Por ejemplo, el usuario -111- (figura 1) puede ajustar inicialmente el modo de operación del dispositivo -140- de espejo-visualización (figura 1) al modo de espejo. De forma alternativa, la pantalla -140- (figura 1) puede estar diseñada para operar en el modo de espejo de forma predeterminada siempre que un nuevo usuario inicie sesión en el sistema -100- (figura 1).
Como se indica en el bloque -420-, el procedimiento también puede incluir, por ejemplo, posar delante del dispositivo de espejo-visualización. Por ejemplo, el usuario -111- (figura 1) puede posar delante del dispositivo -140- de espejo-visualización (figura 1) y comprobar el aspecto del usuario de una primera prueba de, por ejemplo, ropa, zapatos y/o cualquier otra indumentaria.
Como se indica en el bloque -430-, el procedimiento también puede incluir, por ejemplo, capturar una imagen del aspecto del usuario de la primera prueba. Por ejemplo, el usuario -111- (figura 1) puede proporcionar un comando de usuario al dispositivo -120- (figura 1) que indica al dispositivo -130- de formación de imágenes (figura 1) que capture una imagen del aspecto del usuario de la primera prueba.
Como se indica en el bloque -440-, el procedimiento también puede incluir, por ejemplo, posar delante del dispositivo de espejo-visualización en un aspecto del usuario diferente. Por ejemplo, el usuario -111- (figura 1) puede cambiar uno o varios elementos del entorno, tales como, por ejemplo, muebles o indumentaria, posar una vez más delante del dispositivo -140- de espejo-visualización, que puede operar en el modo de espejo, y ver un segundo aspecto del usuario.
Como se indica en el bloque -450-, el procedimiento también puede incluir, por ejemplo, cambiar entre los modos de operación del dispositivo de espejo-visualización. Por ejemplo, el usuario -111- (figura 1) puede cambiar el dispositivo -140- de espejo-visualización (figura 1) entre el modo de espejo y el modo de visualización. En consecuencia, el usuario -111- (figura 1) puede ser capaz de comparar entre el aspecto del usuario de la primera prueba, y/o cualquier otro aspecto del usuario, por ejemplo, aspectos del usuario almacenados en el dispositivo -123- de almacenamiento y/o recibidos a través de la red -150- (figura 1), y el aspecto del usuario de la segunda prueba.
Según algunas realizaciones demostrativas de la invención, el usuario -111- (figura 1) puede indicar, y/o la estación -110- (figura 1) puede ser capaz de almacenar, por ejemplo, automáticamente, para cada prueba, parámetros, por ejemplo, que incluyen parámetros de compra, tales como, por ejemplo, el nombre de la tienda, la dirección de la tienda, el precio, la hora y/o la fecha de la prueba de indumentaria, el nombre del vendedor, y similares. El usuario -111- (figura 1) puede, por ejemplo, almacenar las imágenes capturadas de los aspectos del usuario en un dispositivo de almacenamiento extraíble o portátil, por ejemplo, como se ha descrito anteriormente con referencia a la figura 1, y puede revisar posteriormente las imágenes de los aspectos del usuario al mismo tiempo que puede atribuir cada imagen a, por ejemplo, una tienda específica y similares. Además, el usuario -111- puede definir, y/o el controlador -121- (figura 1) puede ser capaz de generar, y/o almacenar en el dispositivo -123- de almacenamiento, recordatorios, por ejemplo, alarmas sobre, por ejemplo, descuentos, ofertas de final de temporada y similares.
A continuación, se presentan análisis relativos a la realización de usar una imagen capturada mediante una cámara, por ejemplo, una cámara de foto fija digital o una videocámara, y de manipular la imagen de tal manera que cuando se proyecta en una pantalla se parece a una imagen de espejo, es decir, una imagen que el usuario habría visto si la pantalla fuese realmente un espejo estándar.
La figura 6 es una ilustración esquemática para comprender las siguientes realizaciones, que incluye una pantalla digital -640-, una cámara -630- y un procesador -645- de imagen computarizada, que podría crear una experiencia de espejo convincente. En una situación ideal, la cámara podría moverse en un plano paralelo detrás de la pantalla, en correspondencia con la ubicación de los ojos del usuario, para crear una experiencia de contacto visual convincente. Sin embargo, no es práctico colocar una cámara detrás de una pantalla común, sencillamente porque bloqueará la visión de la cámara. En teoría, es posible superar este problema usando una pantalla semitransparente o múltiples agujeros del tamaño de un alfiler con múltiples cámaras, aunque su implementación puede ser demasiado costosa y compleja. Una solución más sencilla es colocar la cámara sobre la pantalla de visualización y manipular la imagen capturada con el fin de imitar un espejo. A continuación, se proporcionan ejemplos de manipulaciones apropiadas.
Se requiere un FOV adaptativo con el fin de compensar los cambios en las distancias entre el usuario y la pantalla, de tal manera que el usuario verá su imagen al mismo tamaño, igual que en un espejo. Según una realización, esto se soluciona usando el zoom de la cámara (digital y/o mecánico). Las cámaras tradicionales tienen un FOV fijo o un FOV configurable mecánicamente. Con el fin de crear un FOV adaptativo, es decir, variable continuamente, el sistema necesita manipular la resolución, o controlar el zoom y el enfoque de la cámara en tiempo real, basándose en el seguimiento del usuario.
Además, es necesario voltear la imagen verticalmente, para admitir el comportamiento de derecha a izquierda del espejo. Esta transformación de la imagen puede realizarse de forma relativamente sencilla manipulando las direcciones de los píxeles de una imagen digital.
Como se ha explicado con respecto a la figura 1, el espejo puede ser más pequeño que el usuario y seguir mostrando un reflejo de cuerpo entero. Esto se puede conseguir combinando una selección apropiada del FOV y una selección apropiada del tamaño de la pantalla. La idea es proyectar una imagen en la pantalla, que tiene un FOV que ofrece la percepción de que el usuario ve un reflejo al doble de la distancia al espejo, de tal manera que todo el cuerpo es visible incluso si la pantalla digital es más pequeña que la altura del usuario. Esto se ejemplifica mediante las imágenes A, B y C de la figura 6, que muestran una imagen del usuario capturada a diferentes distancias al espejo, pero que muestran el cuerpo del usuario al mismo tamaño mediante, entre otros, la manipulación del FOV. En algunas realizaciones, la resolución de la imagen también cambia según la distancia del usuario al espejo. Por ejemplo, para distancias cercanas, una realización puede usar una disposición de cámaras y el manipulador de imagen usaría la concatenación para reducir la distorsión de la imagen.
Con el fin de admitir la formación de imágenes tridimensionales, la configuración requerirá dos cámaras a una distancia correspondiente a la distancia entre los ojos del usuario, o una cámara con dos puntos de visión virtuales eficaces. Una experiencia 3D convincente también requerirá la implementación de un procedimiento de bucle cerrado adaptativo que pueda cambiar la creación de una imagen 3D en función de la distancia. Cuando el usuario mira su reflejo en el espejo, se ve en 3D, aunque cuando se acerca o se aleja del espejo, el ángulo desde sus ojos hasta su reflejo cambia, lo que también cambia la profundidad de la imagen 3D.
Como se explica con referencia a la figura 6, sería demasiado complejo o costoso colocar la cámara detrás de la pantalla al nivel de los ojos. Por lo tanto, en las siguientes realizaciones se da a conocer un procedimiento práctico para implementar el sistema ideal descrito anteriormente con una o varias cámaras montadas de forma fija y situadas en el perímetro de la pantalla y orientadas hacia el usuario. El reto principal es cómo compensar las distorsiones de la imagen adaptativamente y en tiempo real, con el fin de crear una experiencia de usuario similar a la que se obtendría en la configuración ideal. Las figuras 7 y 8 muestran algunos ejemplos de los retos de usar la configuración práctica con la cámara colocada sobre la pantalla digital, es decir, sin corresponder al nivel de los ojos del usuario.
La figura 7 representa lo que ocurre cuando el usuario se acerca al espejo o se aleja del mismo cuando se usa una cámara montada sobre la pantalla y apuntada horizontalmente. Suponiendo que el sistema está calibrado con el rango dinámico central, cuando el usuario está lejos la imagen es más pequeña y más alta (escenario C en la figura 7) y cuando el usuario está más cerca de la pantalla (escenario A) la imagen del usuario es más grande y el FOV de la cámara corta la imagen del usuario. Además, cuando el usuario se acerca a la pantalla, se vuelve perceptible una distorsión de la proyección, lo que significa que el usuario no percibirá que está mirándose en un espejo.
Para poder capturar el cuerpo entero del usuario a cualquier distancia, en una realización la cámara se sitúa en la parte superior de la pantalla y se inclina hacia abajo para permitir el rango dinámico máximo del movimiento del usuario delante de la pantalla. Como se representa en la figura 8, debido a que la cámara está inclinada hacia abajo, la distorsión de la proyección es mucho más grande y perceptible. Cuanto más cerca está el usuario de la cámara, más distorsionada se vuelve su imagen. La naturaleza de la distorsión es principalmente distorsión de la proyección, el usuario parece más bajo y la parte superior del cuerpo parece más grande. En esta configuración, la imagen del usuario también se hacía más pequeña a medida que se alejaba de la pantalla. Por otra parte, el FOV efectivo/usable de la cámara cubrirá un área más grande delante de la pantalla, y permitirá que el usuario se acerque mucho más a la pantalla y se siga viendo una imagen de cuerpo entero.
Para poder generar una experiencia de espejo convincente (aumentada) a partir de una cámara situada delante del usuario y con un desplazamiento espacial de la pantalla, se usa un procedimiento computarizado para manipular la imagen capturada antes de su presentación en la pantalla. El procedimiento computarizado puede operar en tiempo real o no en tiempo real, dependiendo del modo operacional de la pantalla.
El procedimiento computarizado recibe como una entrada la imagen capturada mediante la cámara y realiza una transformación de la imagen para corregir el punto de visión y el campo de visión de la cámara para adaptarlo al punto de visión que se produciría con un espejo convencional. Es decir, cuando el usuario se acerca o se aleja del espejo, el punto de visión que se habría reflejado en el espejo habría sido diferente del capturado mediante la cámara. Las realizaciones del procedimiento computarizado de la invención incorporan un POV (point of view, punto de visión) adaptativo y módulos de FOV adaptativo basándose en el seguimiento de la posición del usuario.
Específicamente, intentar resolver el problema del espejo virtual solo volteando la imagen verticalmente como se proponía en la técnica anterior es insuficiente para crear una experiencia de espejo. Cuando se usa una cámara, una vez que el usuario se acerca a la cámara/pantalla, la imagen del usuario se vuelve más grande, y viceversa, al contrario que en un espejo convencional, en el que el usuario siempre se verá aproximadamente del mismo tamaño con un FOV ligeramente diferente, independientemente de su distancia al espejo. Además, acercarse a la cámara introduce una distorsión de la imagen que es necesario corregir con un procedimiento computarizado mucho más avanzado. Realizar un POV adaptativo y un FOV adaptativo antes de mostrar la imagen en la pantalla da como resultado una imagen que imita un reflejo de un espejo situado en la ubicación de la pantalla. Además, para obtener una experiencia de espejo aún más convincente, también se pueden incorporar las siguientes características.
Según una realización, el procedimiento computarizado realiza, además, la concatenación de imágenes adaptativa dinámica de las imágenes obtenidas a partir de una pluralidad de cámaras. Según esta realización, el sistema incorpora múltiples cámaras, por ejemplo, situadas en diferentes ubicaciones y/o basándose en múltiples tecnologías/características, con el fin de mejorar la resolución de la imagen, la precisión de la imagen, extender el FOV de una única cámara, reducir la distorsión para diferentes usuarios y diferentes orientaciones del usuario y crear un mejor modelo para la masa corporal del usuario para compensar la distorsión de la cámara. Por ejemplo, debido a que la imagen pierde resolución a medida que el usuario se aleja de la pantalla (menos píxeles capturan la imagen del usuario), tiene sentido aumentar ópticamente y volver a enfocar la cámara. El problema es que esto se realiza a expensas de reducir el FOV de la cámara. Con el fin de mejorar la resolución al mismo tiempo que se mantiene el FOV, se puede implementar simultáneamente una concatenación o zoom dinámico.
Como se ha mencionado en el párrafo anterior, para transmitir de manera adecuada una experiencia de espejo, el sistema puede implementar también un zoom óptico adaptativo. El zoom óptico adaptativo mejora la calidad/resolución de la imagen/vídeo, basándose en el seguimiento de la distancia, es decir, el seguimiento continuo de la distancia al usuario. Además, reduce la distorsión asimétrica que se puede producir si la cámara se monta en el lateral de la pantalla.
Con el fin de garantizar la precisión de la transposición de la imagen, la plataforma se puede calibrar en punteros discretos y el procedimiento computarizado puede interpolar y extrapolar la transformación correcta en diferentes posiciones delante de la pantalla. Según una realización, la distorsión de la proyección se puede calcular de una forma analítica basándose en el seguimiento del usuario y la ubicación de la cámara. Según otra realización, la distorsión de la imagen se mide delante de la pantalla, y esta información de medición se usa en lugar del cálculo de la proyección directa.
El procedimiento computarizado se optimiza para reducir el retardo todo lo posible usando, por ejemplo, cálculo en paralelo y/o calculando la transformación por distancia con antelación fuera de línea, de tal manera que cuando se mide una distancia a un usuario, la correlación de transformación está preparada por adelantado. Según otra realización, se usa una solución directa sin calibración, creando analíticamente una transformación de la proyección por punto de visión calculado/medido del usuario.
A continuación, se presenta una descripción de alto nivel de los módulos que, en conjunto, proporcionan la transformación de la imagen de espejo. El módulo de adquisición de vídeo realiza: capturar el vídeo, realizar mejoras del vídeo, ajustar y controlar la optimización de la cámara para obtener la mejor calidad de vídeo con las limitaciones del hardware disponible. El módulo de mediciones geométricas mide o estima cualquier combinación de distancia al usuario, la altura del usuario, identifica la posición de los ojos y la postura de la cabeza, realiza una estimación de la masa corporal en 3D, etc. El módulo de control de la cámara ajusta la cámara para la calidad de imagen/vídeo y la máxima resolución. En el caso de múltiples cámaras, la optimización del FOV para obtener la máxima resolución se realizará basándose en la distancia del usuario a cada cámara.
El módulo de transformación geométrica toma el vídeo trama a trama, y la información de posición geométrica/orientación del usuario relevante, y asigna las imágenes originales a la ubicación correcta y rellena los píxeles ciegos, si hay alguno. Por ejemplo, la transformación geométrica se realiza para hacer coincidir los ojos como si el usuario estuviese mirando al espejo. Es decir, el procedimiento computarizado calcula la transformación geométrica correcta para distorsionar el vídeo de entrada de tal manera que el usuario se mirará y percibirá que se está mirando a los ojos. Esta transformación también es útil en otra situación. Por ejemplo, cuando se realiza una videoconferencia usando ordenadores, dado que la cámara está situada sobre el monitor o la pantalla del ordenador, la imagen resultante siempre muestra al usuario mirando hacia abajo, ya que el usuario está mirando realmente al monitor del ordenador y no a la cámara. Usando la transformación geométrica dada a conocer, dicha situación daría como resultado una imagen del usuario como si estuviese mirando a la cámara, cuando en realidad todavía está mirando a la pantalla. Esto daría como resultado un entorno de conferencia más personalizado. En la aplicación de videoconferencia, la corrección geométrica es similar a la aplicación de espejo, aunque no es necesario voltear la imagen de izquierda a derecha.
El módulo de correlación de transformación se puede implementar usando varias realizaciones. Según una realización, se usa una solución de escalado, en la que se usan suposiciones geométricas para realizar la corrección de escalado por distancia al usuario, con el fin de adaptarlo al tamaño de la imagen que el usuario vería en un espejo. Según otra realización, se usa una solución de proyección y escalado de la imagen, en la que, basándose en la distancia del usuario, el desplazamiento espacial y la ubicación de los ojos por distancia y desplazamiento, se calcula o se mide el error de transformación de la proyección entre el usuario/los ojos del usuario y la ubicación de la cámara. Se puede realizar una transformación adicional para corregir la distorsión óptica.
Según otra realización más, se usa una solución de registro, que se ha demostrado que proporciona resultados bastante precisos. Según esta solución, la transformación se programa previamente basándose en una técnica de registro auténtico fuera de línea de una imagen original de una cámara desplazada/proyectada/orientada hacia atrás con una imagen que se tomó delante del usuario con los ojos del usuario mirando hacia la cámara. La imagen de referencia se puede generar a partir de una o múltiples cámaras con concatenación. Por ejemplo, una cámara de referencia estará situada a una altura y distancia similar que reducirá la mayor parte de la distorsión óptica, por ejemplo, al nivel de los ojos y a 2-3 m del usuario. El registro proporcionará la mejor transformación para hacer coincidir los ojos y el cuerpo entero basándose en múltiples punteros. En un ejemplo, múltiples punteros, por ejemplo, puntos blancos, en un objetivo de calibración 2D o 3D, por ejemplo, objetivo humano/maniquí, formarán una cuadrícula bidimensional alrededor del cuerpo central. Por ejemplo, se pueden colocar pegatinas circulares en las piernas, en el pecho, en los hombros, en los ojos, etc. Para mejorar la precisión, este registro se puede repetir para múltiples ubicaciones/posiciones del usuario delante de la pantalla, para tener en cuenta, por ejemplo, múltiples desplazamientos espaciales laterales, múltiples alturas, múltiples distancias, etc. Para cada ubicación, se crea la mejor correlación posible, suponiendo múltiples distorsiones (proyección, barril, ojo de pez o cualquier combinación, etc.) que se pueden corregir con múltiples técnicas de registro (por ejemplo, proyección, transformación afín, similitud, polinómica o cualquier combinación, etc.).
Las realizaciones descritas anteriormente se pueden implementar junto con la siguiente mejora adicional. El concatenado de imágenes puede usarse con múltiples cámaras que están situadas de tal manera que mejoran la calidad de la resolución, minimizan la distorsión de una única cámara o aumentan el campo de visión. El elemento de concatenación de imágenes será una concatenación integrada basada en la ubicación geométrica del usuario. Cada cámara tendrá su propia corrección de la transformación, ya que el desplazamiento relativo con respecto a la ubicación de los ojos virtuales será diferente. Las múltiples cámaras también se pueden usar para generar una vista tridimensional para mejorar la experiencia de usuario.
También se puede generar una imagen de infrarrojos tridimensional (3D IR). Dicha imagen se puede usar para generar un modelo virtual preciso del usuario, que se puede usar entonces para permitir una API para probadores virtuales y realidad aumentada. Usando la realidad aumentada, se puede cambiar el entorno, insertar objetos, realizar el probado virtual de ropa diferente, etc. Esto también se puede usar para analizar el lenguaje corporal del usuario y enlazarlo con las aplicaciones de realidad aumentada, aplicaciones de probador virtual, juegos, videoconferencias, etc.
Dado que el sistema graba la imagen, ya sea fija o en vídeo, se pueden realizar diversos análisis sobre las imágenes. Por ejemplo, los análisis de vídeo y/o los análisis de almacenamiento se pueden usar para recopilar información sobre el usuario o el rendimiento de la tienda, por ejemplo, cuántas veces sonrió, si disfrutó de la experiencia, edad estimada, sexo, origen étnico, etc. Se pueden usar diversas entradas para la plataforma de análisis de comportamiento que pueden ayudar a integrar el comercio electrónico en la experiencia real de probarse ropa, o como un complemento para cualquier otra aplicación. Por ejemplo, el sistema puede analizar el elemento o elementos de ropa que se ha probado el usuario y enlazarlos con el inventario de la tienda, la impresión 3D y la web de comercio electrónico, el estilista de comercio electrónico, las redes sociales, etc.
A continuación, se hace referencia a la figura 9, que es un diagrama de bloques de una realización de la invención que realiza una transformación de la imagen para generar una imagen que imita un espejo. Los diversos módulos del sistema ilustrado en la figura 9 se pueden implementar en un ordenador de propósito general, DSP, CPU, GPU, DSP/ASIC de cámara, DSP/ASIC de pantalla, dispositivo de cálculo autónomo, tarjeta FPGA, dispositivo DSP, ASIC, cálculo paralelo en la nube programados, etc.
El bloque -930- representa una o varias cámaras 1:n, que transmiten de forma continua las imágenes al módulo -932- captador de imágenes. El bloque -930- puede incluir cámaras de foto fija y/o de vídeo, cámara IR, disposiciones de cámaras bidimensionales y/o tridimensionales. También se puede incluir un buscador de alcance, por ejemplo, un buscador de alcance electroacústico o electrónico.
El módulo -932- captador de imágenes captura las imágenes transmitidas de forma continua desde el bloque -930-, y puede aplicar filtros para mejorar la calidad de la imagen. Además, puede realizar el recorte o el redimensionamiento de la imagen según se necesite para la optimización de la imagen. Si se usan múltiples cámaras, el módulo -932- captador aplica la concatenación de imágenes según sea necesario para una mejor calidad o un campo de visión eficaz más amplio.
El módulo -960- de evento de activación es un proceso en paralelo que puede obtener su entrada directamente del módulo -932- captador de imágenes, aunque también puede obtener las imágenes después del módulo -934- de coincidencia con los ojos. La entrada se puede optimizar en tamaño, ancho de banda y velocidad para realizar la funcionalidad requerida. Ejemplos de elementos que pueden residir en el módulo -960- de evento de activación incluyen los siguientes. Identificar que un usuario se encuentra delante de la cámara -930-, por ejemplo, basándose en deducciones del entorno y cambios en una zona predefinida, reconocimiento de patrones, etc. Medir la distancia al usuario mediante, por ejemplo, la correlación entre cámaras estéreo, cámara 3D IR, etc. Según otra realización, la distancia al usuario se estima usando una medición de una única cámara, realizando algunas suposiciones geométricas, por ejemplo, el usuario está situado aproximadamente delante del espejo y en un suelo plano, de tal manera que la distancia, la altura del usuario o el punto de visión teórico del usuario en un espejo, por ejemplo, se pueden deducir midiendo la ubicación de los zapatos del usuario y el desplazamiento espacial del usuario del lateral de la pantalla.
Se puede incluir un módulo de reconocimiento facial con el fin de facilitar la identificación de la interfaz del usuario. En operación, después del registro la plataforma debería guardar la información para cada usuario y, una vez que el sistema reconoce al usuario, el sistema puede subir los datos del usuario, realizar actualizaciones, sugerir elementos, etc. Con el reconocimiento facial el usuario no tiene que identificarse, lo que ahorra tiempo y mejora la facilidad de uso. El reconocimiento facial puede ser el evento de activación para la grabación automática de los aspectos. En algunas realizaciones, la longitud de la grabación de cada sesión está predefinida y puede comenzar una vez que el reconocimiento facial es correcto. En otras realizaciones se pueden usar técnicas de control remoto como activación, tal como una función en una aplicación móvil o en una tableta/móvil/otros dispositivos de control remoto dedicados.
Otros elementos que pueden residir en el módulo -960- de evento de activación incluyen análisis de vídeo (para crear una realimentación significativa, por ejemplo, estimar la edad, el sexo, el estado de ánimo, otros elementos populares, etc.), reconocimiento de elementos (de tal manera que el sistema pueda enlazar fácilmente los elementos para probarse de la tienda, mejorar el inventario y la plataforma de comercio electrónico para una mejor recomendación y un pago y una planificación del inventario más rápidos), y la identificación gestual (para el control integrado del usuario sin un dispositivo de entrada).
El módulo -934- de transformación de coincidencia con los ojos realiza la transformación de la imagen antes de mostrarla en la(s) pantalla(s) -940-. Obtiene como una entrada la imagen del módulo -932- captador, y, además, puede recibir la distancia o la distancia y la altura calculadas o el punto de visión real del usuario. El módulo -934- de transformación de coincidencia con los ojos calcula la correlación requerida. La correlación requerida se puede calcular directamente basándose en el cálculo de la diferencia del ángulo de proyección entre la cámara y el punto de visión teórico del usuario, por ejemplo, haciendo coincidir la escala y la situación de la imagen requeridas. Alternativamente, se puede usar una solución de coincidencia real que utiliza un proceso de calibración de fábrica que se puede usar para crear una transformación muy precisa entre la cámara y el punto de visión calculado en ubicaciones discretas delante del espejo. Además, también se pueden usar las imágenes de base y la transformación que se crearon por uno o varios parámetros diferentes, por ejemplo, distancia, altura, pose, mediciones realizadas en la fábrica, o en tiempo real cuando el usuario está situado delante de la pantalla.
Basándose en la distancia del usuario o en la combinación de la distancia del usuario y el punto de visión de los ojos, el módulo -934- de transformación de coincidencia con los ojos crea una interpolación de la transformación en cualquier ubicación delante de la cámara. Dado que la distancia de varias partes del cuerpo del usuario a la cámara no es uniforme, la distorsión de la proyección crea un efecto en el que las partes del cuerpo más cercanas, como la cabeza, están representadas por más píxeles que las partes del cuerpo alejadas, como las piernas. En consecuencia, el usuario aparece con las piernas más cortas y una cabeza grande, es decir, las partes del cuerpo más cercanas parecen más grandes y las partes del cuerpo más alejadas parecen más pequeñas. Esta correlación no es lineal, es decir, cada píxel representa una longitud y anchura (dx, dy) de área diferente, de tal manera que será necesario realizar un relleno de píxeles/diezmado por submuestreo para mantener la proporción del eje. La solución de relleno puede ser cualquier interpolación (cercana, lineal, cúbica, polinómica, etc.) o un relleno más complejo a partir de la proyección de cámaras diferentes. Por ejemplo, las cámaras de encima y debajo de la pantalla pueden complementar y estimar mejor los píxeles faltantes o la orientación correcta de los ojos. Una opción adicional es realizar algunos de los análisis de óptica directa (lente/prisma especial) que corregirá la mayor parte de la distorsión de la proyección y mejorará la resolución. Parte del problema de redimensionado que afecta a la calidad también se puede compensar ópticamente mediante el zoom mecánico.
Se puede incluir un módulo -936- de probador virtual/realidad aumentada opcional para mejorar la experiencia de usuario. El módulo -936- obtiene su entrada del módulo -934- de coincidencia con los ojos o del módulo -938- de grabación. El módulo -934- de coincidencia con los ojos realiza una transformación de la imagen, y se explicará con más detalle a continuación. El módulo -934- de coincidencia con los ojos se puede usar en diversas aplicaciones distintas del espejo, tal como para videocámaras, videoconferencias, etc. Además, el módulo -936- puede obtener elementos de entrada a renderizar de la CPU que mantiene un enlace activo con el inventario, una base de datos, una impresora 3D, una base de datos de comercio electrónico, etc. Usando los datos de entrada, el módulo -936- puede renderizar imágenes digitales a combinar con la imagen transpuesta. Por ejemplo, el módulo -936- se puede usar para cambiar el color de un elemento basándose en una prueba real y el inventario disponible o la personalización del usuario. Se debe apreciar que la renderización del módulo -936- es diferente del probador virtual común, en que el módulo -936- realiza la renderización en un elemento del que se forma una imagen mientras está en el cuerpo del usuario. Así pues, por ejemplo, renderizar el elemento en un color diferente no cambia el aspecto físico del elemento que lleva puesto el usuario, sino solo su color. En consecuencia, el usuario puede percibir el elemento real en su cuerpo, ver cómo modifica y cambia realmente la forma y el aspecto de su cuerpo, ver los pliegues y la elasticidad reales, etc. El módulo -936- también se puede usar para añadir accesorios a la imagen real del usuario o añadir la capacidad de probador virtual real a la plataforma. De igual modo, el módulo -936- se puede usar para aumentar el entorno para cambiar o crear diferentes entornos que se adapten al elemento que lleva puesto el usuario, por ejemplo, entorno de playa para un bañador, entorno de club nocturno para un vestido de noche, etc.
El módulo -938- de grabación de vídeo/fotos fijas recibe su vídeo/fotos fijas del captador -932- de la cámara directamente, del módulo -934- de coincidencia con los ojos o del módulo -936- de probador virtual/realidad aumentada. Además, obtiene señales de control del módulo -962- de control, que indica cuándo iniciar/detener la grabación, qué información almacenar por usuario, y en qué vídeo/fotos fijas se debe procesar la transformación/realidad aumentada/probador virtual/mejora de calidad, etc. adicionales fuera de línea. El procedimiento que se puede usar para la grabación sin cargar los recursos del sistema (CPU/BUS/GPU) puede incluir capacidades de codificación/descodificación en las tarjetas de la GPU.
Además de tener una copia local del vídeo/imágenes en la memoria del espejo (estación), las imágenes se pueden replicar automáticamente en un servicio en la nube y se pueden codificar automáticamente para cualquier tamaño necesario.
El proceso de grabación también puede modificar la velocidad de trama, la compresión, el recorte, cambiar los formatos y modificar los efectos de vídeo y color.
Además de la grabación, opcionalmente el sistema puede proporcionar la transmisión continua en directo del vídeo de espejo. Por ejemplo, el sistema será capaz de mostrar en la web en tiempo real la transmisión continua de cualquier espejo, lo que significa que cualquier dispositivo será capaz de ver la transmisión continua, incluyendo de espejo a espejo.
El módulo -962- de control controla la operación del resto de módulos. El módulo -962- de control configura todos los elementos de hardware y software del sistema, incluyendo las cámaras -930-, la pantalla -940-, el DSP, etc. El módulo -962- de control incluye una interfaz, que sirve como un enlace entre la estación local y el comercio electrónico -950- basado en la nube, otras aplicaciones -952- web, aplicaciones -954- de teléfono inteligente, etc. La información que se grabará en el módulo -938- de grabación se pueden entregar al usuario inmediatamente mediante señales inalámbricas/IR/cable, o se pueden entregar mediante la autorización del usuario a una aplicación basada en la nube como Facebook, Google u otras, o al servidor de la compañía, que puede estar enlazado con la aplicación de comercio electrónico.
El módulo -964- de calibración de fábrica se utiliza cuando la transformación se basa en transformaciones de imágenes reales. La orientación de la cámara con respecto a la geometría de la pantalla se puede determinar/medir en la fábrica, o se puede medir in situ, y los desplazamientos pueden adaptar la calibración con el estado de fábrica. Además, la corrección se puede adaptar a la altura o al ángulo de la configuración del espejo con respecto al suelo. El proceso de calibración se puede implementar como sigue. La primera etapa es crear una referencia de espejo de cómo se debe ver la imagen en el espejo a diferentes distancias discretas, orientaciones espaciales, diferentes ubicaciones de reflexión de los ojos (es decir, punto de visión teórico). La referencia se puede tomar de múltiples formas:
1. Como se ilustra en la figura 10A, la cámara -14- está situada en la ubicación del "supuesto" espejo y a la altura de los ojos del usuario o cerca de la misma. Un usuario o un maniquí con punteros (por ejemplo, puntos -10- adhesivos blancos) está situado a una distancia de la cámara, de tal manera que eliminará la mayor parte de la distorsión de la cámara al mirar a la cámara. El escalado de la imagen se puede adaptar y recortar para representar el tamaño real de un supuesto reflejo en un espejo, o ligeramente más pequeño. Es decir, la imagen de referencia generada debe coincidir con el tamaño real del usuario en un espejo situado en la ubicación de la cámara, o ser más pequeña para adaptarse a la pantalla si se prefiere (depende del tamaño de la pantalla).
2. En la figura 10B, un usuario o un maniquí con los punteros se sitúa delante de un espejo -12- convencional. La cámara se sitúa en la ubicación del usuario y se coloca al nivel de los ojos del usuario, y forma la imagen del reflejo en el espejo. La imagen de referencia también se puede tomar con una disposición de cámaras, por ejemplo, delante del usuario en una línea vertical, para eliminar la distorsión. Posteriormente, las múltiples imágenes se concatenan para obtener una imagen uniforme con alta resolución y baja distorsión. Las gafas de Google también pueden ser una opción para la calibración en este escenario. El usuario/objetivo con la cámara tomará una foto de sí mismo delante de un espejo común. Dado que el FOV es fijo, lo único que es necesario hacer es redimensionar la imagen a tamaño real.
Una vez que se obtiene la imagen de referencia, se toma otra imagen colocando la cámara en su ubicación de servicio real, por ejemplo, sobre la pantalla, lo que se denominará en la presente memoria la imagen real. Entonces se realiza un registro de la imagen de referencia y la real, haciendo coincidir los punteros de la imagen real con los de la imagen de referencia. A partir de la información de registro, se extrae la transformación que mejor puede llevar la imagen distorsionada a la orientación correcta de los ojos y el cuerpo. Además, basándose en la geometría de la instalación real in situ, se pueden añadir desplazamientos o correcciones a la transformación. Basándose en la distancia del usuario y el punto de visión de los ojos, se puede crear una interpolación de la transformación en cualquier ubicación delante de la cámara.
La figura 11 es un diagrama de bloques que ilustra un proceso según una realización de la invención, que se puede usar en los sistemas descritos en la presente memoria. El proceso comienza en -1100-, con un procedimiento de calibración de fábrica, que se puede implementar usando las siguientes etapas como un ejemplo. Se selecciona un objetivo de calibración, por ejemplo, un maniquí, un usuario, un tablero, etc. Los punteros del objetivo se colocan entonces en el objetivo, por ejemplo, las pegatinas -10- ilustradas en la figura 10A. Entonces la cámara se monta en su ubicación de servicio, por ejemplo, sobre la pantalla, y se inclina hacia abajo como se ilustra en la figura 8, y se ajusta para capturar el máximo alcance. Se toman instantáneas del objetivo en múltiples ubicaciones (es decir, distancias, alturas, desplazamientos, etc.). Por otra parte, por simplicidad, tomar imágenes a múltiples distancias a lo largo de la línea virtual central situada delante de la pantalla debería ser suficiente. Entonces se obtienen una o varias imágenes de referencia mediante, por ejemplo, uno de los procedimientos mostrados en las figuras 10A o 10B. Como un ejemplo, la cámara está situada al nivel de los ojos en la misma ubicación de la pantalla. Entonces se toman una o varias instantáneas del mismo objetivo, usando los mismos punteros asignados. Si solo se toma una imagen, debe tomarse a una distancia razonable para evitar la distorsión de la cámara. Si se toman múltiples imágenes de referencia, deben tomarse a múltiples distancias con el fin de capturar los pequeños cambios que se producen cuando el usuario se acerca al espejo. Sin embargo, se debe observar que, si se obtienen múltiples imágenes del objetivo y múltiples imágenes de referencia, sería aconsejable tomarlos a las mismas distancias y en las mismas posiciones, para generar mejores transformaciones. Las imágenes de referencia se pueden redimensionar para representar un tamaño real en la pantalla, es decir, para imitar el tamaño que se reflejaría en un espejo situado en la ubicación de la pantalla.
Una vez que se obtienen las imágenes del objetivo y de referencia, las imágenes del objetivo distorsionadas que se tomaron con la cámara inclinada se registran en la(s) imagen(es) de referencia usando los punteros, con el fin de representar cómo se vería el usuario en un espejo situado en la ubicación de la pantalla. La salida del registro es un operador de transformación, por ejemplo, un conjunto de punteros, cada uno de los cuales tiene dos coordenadas: una en la imagen de entrada y otra en la imagen de referencia. Se pueden probar varias transformaciones sobre múltiples imágenes del objetivo y de referencia. Por ejemplo, se pueden aplicar múltiples funciones de distorsión para obtener el mejor rendimiento de coincidencia. Las funciones principales serían la proyección, el redimensionamiento, la traslación XY (desplazamiento) y el volteo de izquierda a derecha. Se selecciona la mejor combinación de transformación y se crea la transformación de correlación para cada punto de calibración. Esta transformación de correlación es la calibración de fábrica según la cual se transformarían las imágenes en directo in situ para imitar una imagen en un espejo. Se debe apreciar que la correlación puede incluir diferentes transformaciones para cada píxel o cada sección de la imagen en directo, con el fin de proporcionar la mejor representación de un reflejo en un espejo.
Como se puede comprender, la etapa -1100- se puede implementar en la fábrica, antes de enviar el sistema. Por otra parte, este procedimiento también se puede realizar in situ, especialmente si la cámara y la pantalla se proporcionan como elementos independientes, de tal manera que en diferentes situaciones la cámara puede colocarse en diferentes ubicaciones con respecto a la pantalla. En dichas circunstancias, sería beneficioso dotar al sistema de un objetivo de calibración, por ejemplo, un maniquí (3er objetivo) o un tablero con marcas de calibración (2° objetivo), de tal manera que el usuario pueda realizar la calibración in situ usando un objetivo estándar. Entonces el sistema se programaría previamente para realizar el proceso de calibración y generar la correlación de transformación in situ.
Una vez que el sistema está instalado en su ubicación de servicio, el proceso está en la etapa -1105-, en la que se obtiene imagen o vídeo en directo de un usuario y se captura mediante, por ejemplo, un captador de tramas. Al mismo tiempo, se mide la ubicación del usuario, de tal manera que se determina el punto de visión del usuario. Esto se puede hacer usando tecnología de medición IR, o usando los sensores disponibles, tales como, por ejemplo, Kinect®, disponible en la firma Microsoft®. En la etapa -1115-, si es necesario, se aplica opcionalmente un factor de escalado para hacer coincidir el tamaño de la pantalla y la altura del usuario.
En la etapa -1120- se selecciona la correlación de transformación apropiada, o se interpola una correlación calibrada en fábrica estándar para crear la correlación correcta para la ubicación particular del usuario delante de la pantalla. La correlación de transformación se aplica entonces mediante el módulo de coincidencia con los ojos al vídeo en directo. En este contexto, el término "en directo" también se refiere a una señal de vídeo que se capturó mediante un captador de tramas y puede residir en una memoria intermedia antes de enviarse a la pantalla del monitor para su presentación. Además, si es necesario debido a la transformación, en la etapa -1125- se rellenan los píxeles faltantes mediante una técnica de interpolación. En la etapa -1130- la imagen se envía desde la memoria intermedia a la pantalla para su visualización. Se debe apreciar que, debido a los rápidos procesadores disponibles comercialmente, las etapas -1105- -1130- se pueden realizar en tiempo real, de tal manera que el usuario no puede percibir ningún retardo en la presentación de la imagen en la pantalla, lo que se denomina en la presente memoria presentación "en tiempo real" o "en directo".
El módulo de coincidencia con los ojos se puede usar para proporcionar un entorno más natural que se adapte más a la interacción diaria. Por ejemplo, al realizar una videollamada usando un PC, tal como al usar Skype®, dado que la cámara normalmente está colocada sobre el monitor, el interlocutor a menudo parece apartar la mirada de la cámara, ya que el interlocutor en realidad está mirando a la pantalla. Esto da lugar a una conversación poco natural, ya que los interlocutores no se están mirando mientras hablan. El módulo de coincidencia con los ojos se puede usar en dicha aplicación para aplicar una transformación de tal manera que la imagen mostrada en el monitor aparezca como si el interlocutor estuviese mirando directamente a la videocámara, incluso si el interlocutor estuviese mirando realmente a la pantalla, y, por lo tanto, apartando la mirada de la videocámara. La transformación se puede hacer en el ordenador del emisor o bien del receptor. Por ejemplo, un usuario que usa Skype® puede tener el módulo de coincidencia con los ojos instalado en su ordenador, de tal manera que siempre que la videocámara se active para una videoconferencia, el módulo de coincidencia con los ojos intercepte la señal de la videocámara y aplique la transformación antes de dejar que el vídeo se transmita de forma continua al otro usuario a través de la aplicación Skype. Cuando el otro usuario recibe la señal de vídeo, ésta ya se ha transpuesto de tal manera que el otro usuario ve la imagen como si el interlocutor estuviese mirando directamente a la videocámara. Se puede implementar lo mismo en sistemas de videoconferencia estándar tales como WebEx, Polycom, etc.
La figura 12 es un diagrama de bloques que ilustra módulos y procesos para realizar la calibración y la transformación de imagen según una realización de la invención. El bloque -1230- representa el módulo de adquisición de imagen, que puede incluir una o varias cámaras de foto fija o de vídeo, una cámara IR o sensor de medición de distancia, una disposición de cámaras 3D, etc. El módulo -1232- controla los ajustes de optimización de la cámara, por ejemplo, para obtener el FOV apropiado, formar la imagen de la zona apropiada delante de la pantalla, ajustar el enfoque y/o la resolución, etc. El módulo -1260- es el módulo de evento de activación, que se puede usar para identificar la presencia de un usuario delante de la pantalla e iniciar el proceso de adquisición de imagen y transformación. En otros momentos, el sistema se puede ajustar como inactivo, mostrando solo una imagen de fondo en la pantalla hasta que se detecta un usuario.
La llave -1360- abarca el procedimiento de calibración, que se describirá en la presente memoria para un sistema configurado para una instalación in situ en la que la cámara -1230- está situada sobre la pantalla -1240- de visualización, como también se ejemplifica en la figura 1. La calibración -1260- se puede realizar en la fábrica antes del envío o in situ después de la instalación. En -1261-, se coloca un objetivo con punteros, y en -1262- se obtiene un conjunto de imágenes de referencia (usando, por ejemplo, la cámara al nivel de los ojos y mirando hacia delante) y se obtiene un conjunto correspondiente de imágenes de entrada (por ejemplo, usando la cámara en su posición de instalación in situ sobre la pantalla y apuntando hacia abajo). En -1263- los punteros de cada imagen de entrada se correlacionan con los punteros correspondientes en la imagen de referencia correspondiente. Con el fin de generar vectores de transformación. Dependiendo de la calidad de la representación del espejo buscada, opcionalmente los vectores correspondientes a zonas en torno a los ojos de un usuario se ajustan con precisión en -1264-.
Usando la coincidencia de los punteros de las imágenes de entrada con las imágenes de referencia, en -1265- se pueden determinar y seleccionar los parámetros de la transformación que conducen a la mejor coincidencia de imagen. Los parámetros que se pueden usar para la transformación incluyen los siguientes. Un parámetro de transformación altamente efectivo es una transformación de inclinación. La transformación de inclinación corrige la distorsión en la imagen causada porque la cámara está inclinada hacia abajo. La transformación de inclinación modifica una imagen de entrada tomada con la cámara mirando hacia abajo y transforma la imagen para que parezca como si la cámara estuviese apuntada horizontalmente (el motor de vídeo también puede corregir el error de azimut). Otro parámetro de transformación es la traslación de la elevación. La transformación de la traslación espacial de la elevación modifica linealmente el desplazamiento en una imagen tomada con una cámara situada externamente a la pantalla, por ejemplo, sobre la pantalla, y transforma la imagen para que parezca como si la imagen se tomase desde la ubicación de la pantalla al nivel de los ojos del usuario (hace coincidir la altura de los ojos con la imagen en la altura de la pantalla). También se puede aplicar una traslación horizontal para corregir desalineaciones entre la cámara y el centro de la pantalla. Otra transformación importante para imitar a un espejo es la escala. Como se ha explicado anteriormente, en un reflejo de espejo real el usuario ve muy pocos cambios en el tamaño de la imagen del cuerpo a medida que el usuario se acerca al espejo. Por el contrario, en una imagen de cámara el tamaño cambia considerablemente con la distancia a la cámara. Una transformación de escala reduce el efecto del cambio de tamaño con la distancia a la pantalla, de tal manera que el usuario ve un tamaño casi constante de sí mismo en la pantalla, independientemente de la distancia a la pantalla. Dependiendo de la posición y el FOV de la cámara, también se puede necesitar una traslación x-y de la imagen.
En la práctica, se ha mostrado que realizar traslaciones de inclinación, elevación y escala proporciona una imagen bastante convincente, que solo debe invertirse de derecha a izquierda para imitar de forma muy eficaz un reflejo en un espejo. Para más mejoras, se puede usar la transformación de efecto barril y la transformación de ojo de pez. Además, se puede añadir percepción de profundidad a la imagen proyectada añadiendo iluminación y sombreado, ya sea de forma artificial operando sobre la intensidad y/o el tono de los píxeles de la imagen, o bien de forma física controlando elementos de iluminación tales como LED estratégicamente situados en torno a la pantalla o el usuario. Además, se puede crear un efecto 3D con el uso de gafas 3D o bien usando tecnología 3D sin gafas. En la tecnología 3D sin gafas se proyectan diferentes conjuntos de imágenes en cada ojo. Dado que en las realizaciones descritas se mide o se estima la distancia al usuario y la ubicación de los ojos del usuario, es más sencillo proyectar una imagen 3D al usuario proyectando diferentes conjuntos de las imágenes en cada ojo del usuario.
En la etapa -1266- se genera y almacena una correlación de transformación. Esta correlación de transformación se usará en -1234- para transformar las señales de vídeo en directo de la formación de imágenes -1230-, utilizando la distancia estimada al usuario. Dependiendo de la operación de correlación de transformación, puede ser necesario el relleno de píxeles. Por ejemplo, usar una cámara en la parte superior de la pantalla e inclinada hacia abajo requeriría transformaciones de inclinación y elevación que proporcionarían una imagen que se puede mejorar usando relleno de píxeles. Esto se puede hacer en -1237-, y la imagen resultante se presentaría en la pantalla en -1240-. Aplicar la transformación y el relleno de píxeles a la señal de vídeo en directo se puede hacer de forma sencilla en tiempo real usando la capacidad de procesamiento apropiada.
La figura 13 ilustra otra realización, en la que la calibración y la correlación de transformación se realiza in situ después de la instalación del sistema. En el ejemplo de la figura 13, la cámara -14- está situada sobre la pantalla -12- de vídeo y está inclinada hacia abajo. La cámara -14- y la pantalla -12- están en comunicación con y se controlan mediante el controlador -18-. Se proporciona al usuario un dispositivo -16- de entrada, que puede estar en comunicación con el controlador -18- usando tecnología cableada o inalámbrica. El usuario se sitúa en una ubicación apropiada, por ejemplo, a 2-3 metros de la pantalla -12-, y habilita el proceso de calibración, por ejemplo, introduciendo un comando "calibrar" desde el dispositivo -16- de entrada remoto. Durante el proceso de calibración, se suministra un flujo de vídeo en directo desde la cámara -14- al controlador -18-, y el controlador "voltea" la imagen sobre un eje vertical central (de izquierda a derecha) antes de mostrarla en la pantalla -12-. Usando el dispositivo de entrada, el usuario actúa en las diversas funciones de transformación. Por ejemplo, el dispositivo de entrada puede incluir botones de entrada para corregir la inclinación, la elevación y la escala, como se muestra esquemáticamente en la figura 13. Los comandos de entrada del usuario se transmiten al controlador -18-, que entonces aplica las transformaciones en tiempo real a la señal de vídeo, de tal manera que la imagen cambia en tiempo real delante del usuario. El usuario puede cambiar la cantidad de cada función de transformación hasta que el usuario vea una imagen convincente en la pantalla, momento en el que el usuario puede pulsar un botón de entrada que indica que el proceso de calibración se ha completado. El controlador -18- guarda entonces los parámetros de calibración apropiados y usa estos parámetros de transformación para todas las señales de vídeo en directo futuros.
Otra característica ilustrada en la figura 13 es el cálculo de la distancia. Dado que la posición y la inclinación de la cámara -14- con respecto a la pantalla -12- son conocidas (por ejemplo, debido al soporte fijo que fija la cámara a la parte superior de la pantalla), la imagen capturada mediante la cámara -14- se puede usar para la triangulación y el cálculo de la distancia. Por ejemplo, cuando un usuario aparece en una trama de un flujo de vídeo en directo capturado mediante la cámara -14-, se puede realizar la triangulación a las puntas de los zapatos del usuario con el fin de calcular la distancia del usuario a la pantalla -12-. Esta operación se puede hacer cualquier número fijo, n, de tramas, de tal manera que la distancia del usuario a la pantalla se puede actualizar de forma continua para capturar el movimiento del usuario. El entorno se puede actualizar una vez que no hay ningún usuario delante del espejo - procedimiento de entorno adaptativo.
Una característica adicional ilustrada en la figura 13 es el uso de iluminación para crear profundidad y/o atmósfera. Específicamente, se pueden colocar varias fuentes -17- de luz, por ejemplo, disposiciones de LED, en diferentes ubicaciones en torno a la pantalla -12-, y se pueden controlar mediante el controlador -18-. Las fuentes -17- de luz se pueden operar con el fin de crear más profundidad en la imagen, por ejemplo, añadiendo sombras y zonas altamente iluminadas. Las fuentes -17- de luz pueden ser de diferentes colores, con el fin de mejorar la iluminación existente y crear la "temperatura" global apropiada de la imagen mostrada. Las fuentes de luz también se pueden ajustar según la distancia al usuario, con el fin de crear una imagen uniforme y eliminar los artefactos creados por la iluminación de la tienda. De forma alternativa o adicional, los cambios de color e iluminación se pueden hacer directamente mediante el controlador en la imagen digital recibida de la cámara -14-. Por ejemplo, la transformación de color se puede usar para mejorar el aspecto de espejo de la imagen, por ejemplo, operar sobre parámetros proporcionando una imagen que sea: brillante, definida, nítida, mate, metálica, etc. El controlador -18- también puede añadir puntos de luz virtuales y/o sombras en la imagen para crear más profundidad en la imagen. Además, se proporciona un recubrimiento antireflectante delante de la pantalla con el fin de eliminar y reducir los reflejos que normalmente están asociados con las pantallas planas. La disposición de LED se puede conectar a un sensor de luz y/o a un sensor de temperatura de luz, y se puede predefinir para permanecer en niveles concretos de luz y temperaturas de luz, y se ajustará automáticamente.
Según otras realizaciones, la formación de imágenes 3D se implementa con dos cámaras a una distancia D entre sí. La distancia D se calcula como una distancia promedio entre los ojos humanos, denominada en general distancia interpupilar (IPD), que para adultos es de aproximadamente 54-68 mm. La transformación se calculará a partir del registro de la imagen obtenida de la cámara de entrada a una distancia D con una imagen obtenida a partir de dos cámaras (base) de referencia a una distancia espacial que también es similar a la distancia entre los ojos del usuario. La base para el registro se puede tomar usando un Kinect® o cualquier cámara IR 3D. Las gafas de Google también pueden ser una opción para la calibración, en la que el usuario/objetivo que lleva las gafas de Google tomará una foto de sí mismo delante de un espejo común. Dado que el FOV es fijo, lo único que es necesario hacer es redimensionar la imagen a tamaño real. Un módulo de transformación de imagen, tal como el controlador -18-, también puede aplicar el redimensionamiento de imagen para su aumento/reducción para permitir al usuario adaptar la imagen a la pantalla o para enfocar alguna parte.
Como se puede entender, aunque algunas de las realizaciones anteriores se refieren a construir la correlación de transformación registrando imágenes o con otros procedimientos empíricos, alternativamente se pueden realizar cálculos directos de la distorsión entre la cámara y el punto de visión teórico del usuario basándose en análisis. El uso de análisis anula la necesidad de un procedimiento de registro. En cambio, se crea una correlación de transformación analítica para corregir las distorsiones.
Otra característica más ilustrada en la figura 13 es el uso de Internet o la nube para proporcionar servicios relacionados con la transformación y las presentaciones de espejo. Por ejemplo, según una realización, la transformación puede realizarse realmente en la nube, si existe una conexión suficientemente rápida. En dicho caso, la señal de la cámara -14- se puede suministrar al servidor -181 -, que aplica la transformación y la vuelve a enviar al controlador -18- para su visualización en la pantalla -11- del monitor. Según otra realización, las imágenes de la cámara -14- o las imágenes transformadas de la cámara -14- se pueden almacenar en la nube y transmitirse de forma continua a dispositivos, tales como un teléfono inteligente -183-, una tableta -187- y otra pantalla -189- de monitor, tal como una TV plana. Esto se puede hacer en tiempo real mientras el usuario está probándose ropa, de tal manera que el usuario puede compartir la experiencia y obtener entradas de otros en ubicaciones remotas. Además, una vez que el usuario deja la tienda, el usuario puede tener acceso a todas las imágenes tomadas usando un teléfono inteligente, una tableta, un ordenador, etc. Se debe observar que, para mayor sencillez de la interfaz de usuario, como se muestra en el monitor -189- de la figura 13, se pueden mostrar imágenes en miniatura de varias pruebas junto con la imagen actual, para permitir al usuario elegir entre vistas.
La figura 14 ilustra una realización para extraer datos de la imagen de la cámara -1430-. El módulo -1450- de evento de activación detecta la presencia de un usuario y activa el proceso para extraer los datos. Un módulo -1432- de optimización de la cámara se puede usar para controlar la cámara para obtener la mejor imagen para la extracción de datos. En esta realización, cuando la cámara -1430- se sitúa sobre la pantalla y se apunta hacia abajo, puede ver los zapatos del usuario desde, por ejemplo, 1 m a 4 m de la pantalla. Sin embargo, dado que la cámara está apuntada hacia abajo y los zapatos están a gran distancia de la cámara en comparación con la cabeza del usuario, la distorsión está en el máximo. Con la correlación de transformación analizada anteriormente, se consigue una mejora de la distorsión convincente a todas las distancias.
Además, según esta realización, la imagen del usuario se separa del entorno en -1462-. En -1464-, se calcula la masa central multiplicando la imagen binaria del usuario solo por la matriz de índices, y, a continuación, tomando el valor medio del índice de los píxeles. Además, se determina el píxel mínimo del cuerpo por debajo de la masa central (J,k) abriendo una ventana en torno a k (masa central) y buscando el índice activo más bajo, que se puede suponer que representa el borde de los zapatos. En -1468- se calcula la altura del usuario buscando la parte superior de la cabeza y, basándose en la distancia, la resolución de la cámara, el FOV y la inclinación geométrica de la cámara, se estima la altura del usuario.
La figura 15 ilustra una realización en la que se realiza la concatenación de las imágenes de n cámaras. La concatenación es particularmente beneficiosa para mejorar la resolución de la imagen y el FOV cuando el usuario se acerca a la pantalla. En la realización de la figura 15, se concatenan las señales -1530-, -1532- en directo de n cámaras, 1:n. El módulo -1560- de evento de activación se puede usar para activar la concatenación cuando se detecta un usuario delante de la pantalla. Además, se puede proporcionar una medición de la distancia, ya sea un único valor que representa una distancia promedio al usuario, o bien múltiples valores, por ejemplo, un valor de distancia para cada cámara. Por el contrario, o de manera adicional, se pueden proporcionar múltiples valores de distancia para indicar diferentes distancias de diferentes partes del cuerpo.
Cada cámara puede experimentar una optimización de la cámara independiente, -1533-, -1536-, y las señales de cada cámara pasarán por una transformación geométrica diferente, -1560-, -1562-, dado que la ubicación y la orientación de las cámaras son diferentes con respecto al punto de visión del usuario, -1564-, -1562-. La decisión -1570- de solapamiento es el elemento de decisión que determina dónde será mejor realizar la concatenación. Si se está tratando con un escenario con dos cámaras, una situada encima y otra debajo de la pantalla, la decisión de solapamiento indicará el índice del mejor corte. Dado que se tiene una medición de la distancia de forma constante, es posible mantener la línea de concatenación casi fija una vez que el usuario se acerca al espejo. Para un rendimiento máximo, es necesario optimizar la concatenación -1572- basándose en la distancia del usuario a las cámaras. Es necesario un suavizado -1574- para filtrar las líneas que se pueden generar en las intersecciones de diferentes imágenes de diferentes cámaras. Las imágenes de diferentes cámaras serían ligeramente diferentes debido a las diferencias en la calidad absoluta y en la iluminación, y debido a la diferente corrección de la distorsión para cada cámara. Se puede usar entrelazado entre las imágenes en múltiples filas para suavizar el efecto de la iluminación. La imagen concatenada se genera en -1576-.
En las realizaciones descritas anteriormente, la correlación de transformación corregía la imagen obtenida mediante las cámaras y proporcionaba una imagen que imita una imagen que se habría reflejado en un espejo. La siguiente realización, ilustrada en la figura 16, mejora la calidad de la presentación de los ojos. La idea detrás de esta realización es sustituir la zona de los ojos, o solo los ojos, con píxeles modificados que crearán la sensación de visión lateral, es decir, presentar los ojos completamente imitando al usuario mirándose directamente en el espejo. Como se puede entender, el usuario estaría mirándose directamente a sí mismo proyectado en la pantalla, pero, dado que la cámara no está situada al nivel de los ojos apuntando horizontalmente, el ojo del usuario capturado mediante la cámara no se vería mirando hacia delante. La realización de la figura 16 corrige este problema.
La mayoría de los elementos de la figura 16 son similares a los de la figura 12, y tienen la misma referencia, excepto que están en la serie -16xx-. Estos elementos no se describirán aquí de nuevo. En cambio, se dirige la atención al elemento -1680-, que es responsable de la corrección de los ojos. Dado que el escalado ya se ha corregido mediante los elementos anteriores, lo que se necesita hacer en esta etapa es corregir y/o reconstruir los elementos internos de los ojos, por ejemplo, pupila, iris, etc. con el fin de representar la imagen apropiada.
El módulo -1680-, en primer lugar, localiza los ojos en la imagen y se asegura de que el usuario realmente mira a la pantalla. La información para esta etapa y para las correcciones se puede deducir a partir de imágenes históricas, estimaciones de proporciones estadísticas de los ojos comunes o una medición real cuando el usuario mira directamente a la cámara o una vez que el usuario está situado lo suficientemente lejos de la pantalla, donde la distorsión es relativamente baja después de la correlación de transformación. Si se detecta que el usuario está mirando a la pantalla, los píxeles correspondientes a la zona de los ojos se transforman o bien se sustituyen realmente por píxeles que colocan el iris y la pupila en el centro del ojo, mirando hacia delante. Además, la esclerótica se puede agrandar, para imitar la visión hacia delante, especialmente si la cámara está situada por encima y apuntando hacia abajo.
Otra característica que se puede implementar en cualquiera de las realizaciones descritas anteriormente es la frecuencia de actualización de los parámetros de transformación. Es decir, a veces el usuario puede preferir una imagen estable que imite al espejo cuando está parado delante de la pantalla. Hacer que el motor de correlación de transformación cambie mientras el usuario está parado puede crear una sensación incómoda. Por el contrario, cuando el usuario se está moviendo más rápido acercándose o alejándose de la pantalla, sería correcto actualizar los parámetros de transformación más rápido. En consecuencia, según esta característica, se establecen múltiples zonas de comportamiento. Según una realización, las zonas de comportamiento se establecen solo según la distancia. Por ejemplo, cuando el usuario se está moviendo más que una distancia establecida, se actualiza el motor de vídeo. Según una realización, si el usuario se mueve una cantidad de menos de, por ejemplo, 25 cm, la correlación de transformación se realiza a una velocidad más baja, por ejemplo, cada x segundos, mientras que, si el usuario se mueve más de 25 cm, la correlación de transformación actualiza los parámetros a una segunda velocidad más rápida. Según otra realización, las zonas se establecen según la velocidad de movimiento del usuario. Por ejemplo, si se determina que el usuario se está moviendo menos de x cm/s, entonces se implementa una primera frecuencia de actualización de la transformación, mientras que, si el usuario se mueve más rápido, se usa una segunda frecuencia de actualización más rápida.
Así pues, como se puede comprender a partir de lo anterior, aunque se puede usar un motor de vídeo en tiempo real para formar la imagen del usuario, la transformación de la presentación en la pantalla del monitor puede no cambiar necesariamente en tiempo real, dependiendo del comportamiento del usuario. Por ejemplo, si el usuario está relativamente parado o se mueve muy despacio, los parámetros transformados pueden variar en tiempo semireal. Entonces, cuando el usuario comienza a moverse más rápido o una gran distancia, el motor de vídeo se puede actualizar con más frecuencia.
Se debe apreciar que las realizaciones descritas anteriormente pueden implementarse usando una cámara (por ejemplo, de vídeo) digital y un monitor, en el que las imágenes de la cámara se suministran a un procesador. El procesador aplica la correlación de transformación a las imágenes y muestra imágenes en un modo de pantalla o en un modo de espejo en el monitor. A partir de la descripción anterior, se debe apreciar que el modo de espejo se puede implementar mostrando en el monitor la señal de vídeo en directo, modificado mediante la correlación de transformación. Es decir, en el modo de espejo la imagen que se está mostrando en el monitor es una imagen/vídeo del usuario tomados en tiempo real. Por el contrario, en el modo de visualización la imagen que se está mostrando es una imagen/vídeo obtenidos en el pasado y tomados del almacenamiento. Las imágenes almacenadas pueden ser las imágenes originales suministradas por la cámara o bien las imágenes ya transformadas. En cualquiera de los dos casos, las imágenes anteriores que se están mostrando en un modo de visualización son imágenes transformadas. Por lo tanto, si las imágenes almacenadas son las imágenes originales, el procesador aplica la correlación de transformación antes de mostrar las imágenes en el monitor.
Si el sistema opera en un modo de visualización o de espejo se puede considerar como una cuestión temporal: durante el modo de espejo, la imagen que se está mostrando en el monitor es una imagen transformada de lo que la cámara ve en un momento particular (o en un momento anterior de minimis o imperceptible), mientras que durante el modo de visualización la imagen que se está mostrando es una imagen transformada de lo que la cámara u otra cámara vio anteriormente y es diferente de lo que la cámara ve ahora. Esta cuestión también se refiere a la percepción: durante el modo de espejo, dado que el monitor muestra una imagen transformada de lo que la cámara ve ahora, el usuario que observa el monitor tiene la percepción de que está mirando a un espejo, mientras que durante el modo de visualización el usuario que observa el monitor tiene la percepción de observar un vídeo de eventos que tuvieron lugar en el pasado.
Se debe apreciar que el sistema se puede implementar de forma independiente y sin tener en cuenta la pantalla del monitor. Por ejemplo, en algunas ubicaciones (por ejemplo, un probador), solo se puede instalar la pantalla del monitor, sin ninguna cámara. El monitor se configura para comunicarse con el sistema con el fin de descargar y mostrar imágenes almacenadas. El usuario puede interactuar con el monitor para ver imágenes tomadas anteriormente, por ejemplo, para comparar con la ropa actual. Como otro ejemplo, todas las imágenes tomadas se pueden subir a la nube, de tal manera que un usuario puede ver las imágenes en un ordenador o dispositivo móvil, tal como usando una aplicación en una tableta.
Como se puede comprender a partir de la descripción anterior, varias realizaciones de la invención dan a conocer un aparato de transformación de imagen que comprende un puerto de entrada de imagen para recibir imágenes digitales de una cámara; un puerto de salida de imagen transpuesta para emitir imágenes transpuestas a mostrar en un monitor o a almacenar en memoria; y un módulo de transposición que está programado para recibir imágenes del puerto de entrada y aplicar una transformación a las imágenes, en el que la transformación incluye al menos voltear la imagen sobre un eje vertical con el fin de invertir los lados derecho e izquierdo de la imagen; aplicar una correlación de transformación a la imagen para modificar la imagen de tal manera que parezca imitar un reflejo de un espejo; redimensionar la imagen para reducir las variaciones causadas por cambios en la distancia del objeto a la cámara. En otras realizaciones, se da a conocer un programa que, cuando se opera en un ordenador, hace que el ordenador transponga una imagen digital obtenida de una cámara, de tal manera que la imagen transpuesta se parece a un reflejo de un espejo, incluyendo la transposición al menos voltear la imagen sobre un eje vertical con el fin de invertir los lados derecho e izquierdo de la imagen; aplicar una correlación de transformación a la imagen para modificar la imagen de tal manera que parezca imitar un reflejo de un espejo; redimensionar la imagen para reducir las variaciones causadas por cambios en la distancia del objeto a la cámara. El programa se puede operar en cualquier ordenador de propósito general, tal como un servidor, un PC, una tableta, un teléfono inteligente, etc.
Según otras realizaciones, se da a conocer un sistema que permite a un usuario ver su propia imagen en una pantalla digital haciendo que la pantalla digital proyecte una imagen que imita la imagen de un espejo. El sistema incluye una cámara digital que genera un flujo de imágenes del usuario; un controlador que tiene un puerto de entrada de imágenes para recibir el flujo de imágenes de la cámara y que aplica una transformación a las imágenes para generar las imágenes transformadas que imitan un reflejo del usuario en un espejo; teniendo el controlador un puerto de salida para emitir un flujo de imágenes transpuestas a mostrar en un monitor; y un equipo de almacenamiento para almacenar las imágenes transformadas. El controlador tiene, además, una conexión a Internet para subir el flujo de imágenes traspuestas a la nube. El sistema tiene, además, clientes que permiten la descarga y la visualización de las imágenes transformadas desde la nube.
En varias realizaciones, un controlador aplica una transformación a un flujo de imágenes, lo que incluye: voltear la imagen sobre un eje vertical con el fin de invertir los lados derecho e izquierdo de la imagen; aplicar una correlación de transformación a la imagen para modificar la imagen de tal manera que parezca imitar el reflejo de un espejo; y redimensionar la imagen para reducir las variaciones causadas por cambios en la distancia del objeto a la cámara. La correlación esencialmente reasigna nuevas direcciones a cada píxel de la imagen original. La correlación de transformación renderiza una imagen que parece haberse tomado desde una cámara situada a la altura del nivel de los ojos y apuntando horizontalmente. La correlación de transformación comprende al menos una transformación de inclinación y una transformación de elevación, en la que una transformación de inclinación transforma la imagen para que imite la inclinación de la cámara y la transformación de elevación transforma la imagen para que imite el cambio de elevación de la cámara.
La correlación de transformación puede ser una que incluya ángulo, inclinación, azimut, escala, traslación espacial (es decir, desplazamiento lineal de elevación o desplazamiento horizontal), etc. La transformación final es una multiplicación matricial de la transformación individual para generar las distorsiones individuales.
En otras realizaciones se da a conocer un sistema para mejorar la videoconferencia o la videollamada. El sistema incluye un motor de transformación para transformar un flujo de imágenes tomadas de una videocámara situada sobre una periferia de una pantalla de monitor, de tal manera que las imágenes de un usuario que mira directamente a la pantalla representan a un usuario que no mira directamente a la cámara. El motor de transformación recibe el flujo de imágenes y transforma las imágenes con el fin de proporcionar imágenes que muestren al usuario mirando directamente a la cámara. La transformación incluye cualquier combinación de correcciones para el ángulo, la inclinación, el azimut, la escala, la traslación espacial (es decir, desplazamiento lineal de elevación o desplazamiento horizontal), etc. La transformación también puede incluir sustituir la zona de los ojos, o solo los ojos, por píxeles modificados que crearán la sensación de visión lateral, es decir, presentando los ojos completamente imitando al usuario mirando directamente a la cámara.
En varias implementaciones, el procedimiento comprende, además, calcular la distancia a un usuario que aparece en la imagen siguiendo la distancia entre los ojos del usuario o el tamaño de la cabeza, y escalando la imagen consecuentemente. Por ejemplo, según una realización, el sistema se programa con una distancia esperada entre los ojos del usuario, es decir, la distancia interpupilar (IPD), a una distancia promedio de la cámara. El percentil 95 de hombres adultos en EE.UU. tiene una IPD de 70 mm, mientras que para mujeres es de 65 mm. Cuando se detecta un usuario delante de la cámara, el sistema puede determinar en primer lugar si es un hombre o una mujer, o sencillamente ir directamente al programa de medición de la distancia y usar un número de IPD promedio, por ejemplo, 68 mm. Para la medición del alcance, el sistema identifica las pupilas en la imagen, y escala la imagen con el fin de que coincida con la IPD esperada. A medida que las imágenes de vídeo siguen transmitiéndose de forma continua, el sistema escala la imagen para mantener la IPD constante y coincidir con la IPD esperada. De esta manera, cuando el usuario se aleja o se acerca a la cámara, el tamaño del usuario en la imagen proyectada en la pantalla del monitor permanecerá aproximadamente igual, imitando así el reflejo en un espejo. Como se puede comprender, el sistema puede usar otras mediciones estándar, tales como la distancia entre las orejas, etc., pero usar los ojos lo facilita, ya que el sistema puede reconocer los ojos fácilmente. Sin embargo, si el usuario lleva gafas, el sistema puede tener que recurrir a otras mediciones basadas en otras partes del cuerpo. Este cambio se puede hacer dinámicamente, es decir, si el sistema encuentra los ojos, usa la IPD, pero si no, recurre a otras partes del cuerpo.
Además, se pueden aplicar filtros de efectos, tales como el efecto de filtro de iluminación, el efecto de textura reflejante, el filtro de espectro de color para crear una sensación metálica, etc. De igual modo, se puede controlar la temporización del obturador de la cámara, la ganancia del sensor, el balance de blancos y cualquiera de sus combinaciones para modificar la imagen resultante. En varias realizaciones, estos parámetros se controlan basándose en una zona dinámica de interés (RIO dinámica), de tal manera que los cambios aplicados a los parámetros se refieren solo a una zona seleccionada en la imagen, y no a toda la imagen. Por ejemplo, los parámetros pueden modificarse y actualizarse basándose en la distancia al usuario y limitarse a una ROI, que es una ventana en torno al usuario. Por ejemplo, la imagen del usuario puede estar separada del entorno, y los parámetros se aplican solo a los píxeles pertenecientes a la imagen del usuario.
En otras implementaciones, se implementa el efecto de vídeo en tiempo real mejorado, por ejemplo, grabando un vídeo con una cámara de alta resolución a una primera velocidad de trama, y manipulando la visualización en una velocidad de trama mayor con el fin de suavizar el vídeo. Adicionalmente, el entorno del flujo de vídeo recibido se puede sustituir por un entorno artificial almacenado en el sistema. Se puede usar un procesamiento de vídeo adicional para añadir o cambiar el color o la textura de accesorios u otros elementos en la imagen. Además, para videoconferencia y otras aplicaciones, la transformación se puede realizar sin el volteo vertical de la imagen.
Aunque en la presente memoria se han ilustrado y descrito ciertas características de la invención, a los expertos en la materia se les pueden ocurrir muchas modificaciones, sustituciones, cambios y equivalentes.

Claims (16)

REIVINDICACIONES
1. Procedimiento para operar un sistema que tiene un monitor (11), una cámara (14) y un procesador (18), con el fin de mostrar una imagen que imita un espejo en el monitor (11),
caracterizado por que realiza las etapas no ordenadas que comprenden:
obtener una imagen digital de una cámara (14);
voltear la imagen sobre un eje vertical con el fin de invertir los lados derecho e izquierdo de la imagen;
aplicar una correlación de transformación a la imagen para modificar la inclinación, la elevación y la escala de la imagen hasta que parezca imitar un reflejo de un espejo, en el que modificar la escala comprende identificar las pupilas en la imagen y escalar la imagen con el fin de que coincida con la distancia interpupilar esperada; rellenar los píxeles faltantes mediante una técnica de interpolación; mostrar la imagen en el monitor (11) después de realizar el volteo, la correlación de transformación y el relleno.
2. Procedimiento, según la reivindicación 1, en el que el escalado se realiza para mantener la distancia interpupilar constante, de tal manera que, cuando un usuario se aleja o se acerca a la cámara, el tamaño del usuario en la imagen proyectada en el monitor permanece igual.
3. Procedimiento, según la reivindicación 1, que comprende, además, sustituir los ojos en la imagen por píxeles modificados que crean una vista lateral que presenta los ojos completamente e imitan al usuario mirando directamente a la cámara.
4. Procedimiento, según la reivindicación 1, que comprende, además, las etapas de:
obtener una imagen de referencia;
realizar un registro de la imagen digital con la imagen de referencia;
usar los datos obtenidos del registro para generar la correlación de transformación.
5. Procedimiento, según la reivindicación 1, que comprende, además, aplicar una transformación de traslación para mover la imagen dentro del área de visualización del monitor (11).
6. Procedimiento, según la reivindicación 1, que comprende, además, cambiar la intensidad de iluminación de píxeles individuales o grupos de píxeles del monitor (11), con el fin de mejorar el sombreado o la iluminación en la imagen.
7. Procedimiento, según la reivindicación 1, que comprende, además, aplicar al menos una de una transformación de efecto barril y una transformación de ojo de pez.
8. Procedimiento, según la reivindicación 1, que comprende, además:
determinar la distancia desde la cámara (14) a un usuario que aparece en la imagen; y,
variar la resolución de la imagen según la distancia.
9. Procedimiento, según la reivindicación 1, en el que la imagen de píxeles se extrapola en píxeles vacíos que quedan después de aplicar la correlación de transformación.
10. Procedimiento, según la reivindicación 1, que comprende, además, las etapas de:
obtener una segunda imagen digital de una segunda cámara;
voltear la segunda imagen sobre un eje vertical con el fin de invertir los lados derecho e izquierdo de la segunda imagen;
aplicar una correlación de transformación a la segunda imagen para modificar la segunda imagen de tal manera que parezca imitar el reflejo de un espejo;
redimensionar la segunda imagen para reducir las variaciones causadas por cambios en la distancia del objeto a la segunda cámara;
concatenar la imagen y la segunda imagen después de realizar el volteo, la correlación de transformación y redimensionar, para obtener así una imagen concatenada;
mostrar la imagen concatenada en el monitor (11), si los campos de visión de la cámara (14) y de la segunda cámara se solapan.
11. Procedimiento, según la reivindicación 10, que comprende, además, una operación de suavizado para corregir los artefactos causados por la etapa de concatenación.
12. Procedimiento, según la reivindicación 1, que comprende, además, las etapas de:
obtener una segunda imagen digital de una segunda cámara;
voltear la segunda imagen sobre un eje vertical con el fin de invertir los lados derecho e izquierdo de la segunda imagen;
aplicar una correlación de transformación a la segunda imagen para modificar la segunda imagen de tal manera que parezca imitar el reflejo de un espejo;
redimensionar la segunda imagen para reducir las variaciones causadas por cambios en la distancia del objeto a la segunda cámara;
mostrar la imagen y la segunda imagen después de realizar el volteo, la correlación de transformación y el redimensionado, para obtener así una imagen tridimensional en el monitor (11).
13. Procedimiento, según la reivindicación 1, en el que las etapas no ordenadas se realizan en una serie de imágenes de una señal de vídeo en directo de la cámara (14).
14. Procedimiento, según la reivindicación 13, que comprende, además:
determinar la velocidad de movimiento o la distancia de movimiento de un usuario que aparece en la señal de vídeo en directo; y,
variar la velocidad a la que se realizan las etapas no ordenadas en la serie de imágenes según la velocidad de movimiento o la distancia de movimiento.
15. Procedimiento, según la reivindicación 13, que comprende, además, las etapas de: almacenar la señal de vídeo en directo en un dispositivo de almacenamiento digital y operar de forma selectiva el sistema en uno de un modo de espejo o un modo de visualización, en el que durante el modo de espejo se muestran en el monitor (11) imágenes transformadas de lo que la cámara (14) ve en ese momento particular, mientras que durante el modo de visualización se muestran en el monitor (11) imágenes transformadas de lo que la cámara (14) vio en el pasado y obtenidas del dispositivo de almacenamiento digital.
16. Procedimiento, según la reivindicación 1, que comprende, además, transformar o sustituir los píxeles pertenecientes a los ojos del usuario para colocar el iris y la pupila en el centro de cada ojo y agrandar la esclerótica.
ES13864385T 2012-12-18 2013-12-18 Procedimiento de captura y visualización de aspectos Active ES2718493T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261738957P 2012-12-18 2012-12-18
US13/843,001 US8982109B2 (en) 2005-03-01 2013-03-15 Devices, systems and methods of capturing and displaying appearances
PCT/US2013/076253 WO2014100250A2 (en) 2012-12-18 2013-12-18 Devices, systems and methods of capturing and displaying appearances

Publications (1)

Publication Number Publication Date
ES2718493T3 true ES2718493T3 (es) 2019-07-02

Family

ID=50979397

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13864385T Active ES2718493T3 (es) 2012-12-18 2013-12-18 Procedimiento de captura y visualización de aspectos

Country Status (10)

Country Link
EP (3) EP4184443A1 (es)
JP (1) JP6441231B2 (es)
KR (1) KR102265996B1 (es)
CN (2) CN105210093B (es)
AU (2) AU2013361507A1 (es)
BR (1) BR112015014629A2 (es)
ES (1) ES2718493T3 (es)
IL (1) IL239508B (es)
RU (1) RU2656817C2 (es)
WO (1) WO2014100250A2 (es)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9269157B2 (en) 2005-03-01 2016-02-23 Eyesmatch Ltd Methods for extracting objects from digital images and for performing color change on the object
US8976160B2 (en) 2005-03-01 2015-03-10 Eyesmatch Ltd User interface and authentication for a virtual mirror
US8982109B2 (en) 2005-03-01 2015-03-17 Eyesmatch Ltd Devices, systems and methods of capturing and displaying appearances
US8982110B2 (en) 2005-03-01 2015-03-17 Eyesmatch Ltd Method for image transformation, augmented reality, and teleperence
US11083344B2 (en) 2012-10-11 2021-08-10 Roman Tsibulevskiy Partition technologies
RU2612328C2 (ru) * 2014-04-04 2017-03-07 Сергей Евгеньевич Денискин Система игровая обучающая
CN105426376B (zh) * 2014-09-22 2019-04-23 联想(北京)有限公司 一种信息处理方法和电子设备
EP3198913A4 (en) 2014-09-24 2018-05-23 Princeton Identity, Inc. Control of wireless communication device capability in a mobile device with a biometric key
CA2969331A1 (en) 2014-12-03 2016-06-09 Princeton Identity, Inc. System and method for mobile device biometric add-on
US9858719B2 (en) 2015-03-30 2018-01-02 Amazon Technologies, Inc. Blended reality systems and methods
JP6461679B2 (ja) * 2015-03-31 2019-01-30 大和ハウス工業株式会社 映像表示システム及び映像表示方法
KR101692755B1 (ko) * 2015-05-08 2017-01-04 스타일미러 주식회사 양방향 통신으로 사진, 동영상 공유가 가능한 미러 시스템 및 방법
US9930248B2 (en) * 2015-11-17 2018-03-27 Eman Bayani Digital image capturing device system and method
CN105472308A (zh) * 2015-12-14 2016-04-06 湖北工业大学 多视角裸眼3d视频会议系统
CN108475107B (zh) 2015-12-24 2021-06-04 荷兰联合利华有限公司 增强型镜子
WO2017108702A1 (en) * 2015-12-24 2017-06-29 Unilever Plc Augmented mirror
WO2017108700A1 (en) * 2015-12-24 2017-06-29 Unilever Plc Augmented mirror
WO2017123702A1 (en) 2016-01-12 2017-07-20 Princeton Identity, Inc. Systems and methods biometric analysis
US10304002B2 (en) 2016-02-08 2019-05-28 Youspace, Inc. Depth-based feature systems for classification applications
US10423060B2 (en) * 2016-03-03 2019-09-24 Salih Berk Ilhan Smile mirror
US10373008B2 (en) 2016-03-31 2019-08-06 Princeton Identity, Inc. Systems and methods of biometric analysis with adaptive trigger
WO2017173228A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Biometric enrollment systems and methods
CN114040153B (zh) * 2016-05-09 2024-04-12 格拉班谷公司 用于在环境内计算机视觉驱动应用的系统
CA2963108A1 (en) * 2016-06-29 2017-12-29 EyesMatch Ltd. System and method for digital makeup mirror
FR3053509B1 (fr) * 2016-06-30 2019-08-16 Fittingbox Procede d’occultation d’un objet dans une image ou une video et procede de realite augmentee associe
KR102178566B1 (ko) * 2016-06-30 2020-11-13 주식회사 엘지생활건강 전자 거울 장치 및 그 제어 방법
US20180077437A1 (en) * 2016-09-09 2018-03-15 Barrie Hansen Parallel Video Streaming
JP6931757B2 (ja) * 2016-09-23 2021-09-08 株式会社インテロール サイネージ装置、表示方法、およびプログラム
KR20180035434A (ko) * 2016-09-29 2018-04-06 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
JP6853475B2 (ja) * 2016-10-14 2021-03-31 フリュー株式会社 写真作成ゲーム機および表示方法
TWI610571B (zh) 2016-10-26 2018-01-01 緯創資通股份有限公司 顯示方法及其系統與電腦可讀取記錄媒體
US10303259B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Systems and methods for gesture-based interaction
US10303417B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Interactive systems for depth-based input
US10437342B2 (en) 2016-12-05 2019-10-08 Youspace, Inc. Calibration systems and methods for depth-based interfaces with disparate fields of view
CN108268227B (zh) 2017-01-04 2020-12-01 京东方科技集团股份有限公司 显示设备
US10607096B2 (en) 2017-04-04 2020-03-31 Princeton Identity, Inc. Z-dimension user feedback biometric system
US10325184B2 (en) 2017-04-12 2019-06-18 Youspace, Inc. Depth-value classification using forests
CN108881981A (zh) * 2017-05-08 2018-11-23 Tcl新技术(惠州)有限公司 一种跨屏显示方法、存储设备及电子设备
EP3462284A4 (en) * 2017-06-12 2019-07-17 Midea Group Co., Ltd. CONTROL METHOD, CONTROL DEVICE, INTELLIGENT MIRROR AND COMPUTER READABLE STORAGE MEDIUM
US10902104B2 (en) 2017-07-26 2021-01-26 Princeton Identity, Inc. Biometric security systems and methods
FR3071723B1 (fr) * 2017-10-04 2022-08-26 Dessintey Dispositif pour la mise en œuvre de la therapie miroir et procede correspondant
CN107970625A (zh) * 2017-12-07 2018-05-01 宁波梅霖文化科技有限公司 魔术虚拟设备
KR101944297B1 (ko) * 2017-12-29 2019-01-31 김정현 스마트 윈도우를 이용한 광고 시스템
KR102116526B1 (ko) * 2018-02-12 2020-06-05 김치현 스마트 거울
JP6684303B2 (ja) * 2018-04-20 2020-04-22 緯創資通股▲ふん▼有限公司Wistron Corporation インタラクティブな衣服及びアクセサリのフィッティング方法及びその表示システム
CN110874133B (zh) * 2018-08-31 2023-04-21 阿里巴巴集团控股有限公司 基于智能显示设备的交互方法、智能显示设备及存储介质
CA3114040A1 (en) 2018-09-26 2020-04-02 Guardian Glass, LLC Augmented reality system and method for substrates, coated articles, insulating glass units, and/or the like
CN109827646A (zh) * 2018-12-21 2019-05-31 太原重工股份有限公司 用于粉体物料的称重方法及称重装置
KR20200114860A (ko) 2019-03-29 2020-10-07 삼성전자주식회사 광각 고해상도 거리 측정 장치
JP7343760B2 (ja) * 2019-08-08 2023-09-13 富士通株式会社 画像処理プログラム、画像処理方法および画像処理装置
KR102275172B1 (ko) * 2019-08-21 2021-07-08 주식회사 디지털포토 술통형 왜곡 보정 및 배경교체 기능 기반 셀프 증명사진 촬영이 가능한 사진 촬영 서비스 제공 방법
CN112926288B (zh) * 2019-12-06 2023-07-18 北京阿博茨科技有限公司 一种商业智能数据可视化方法、系统、设备以及可读存储介质
EP4137930A4 (en) * 2020-05-13 2023-10-18 Huawei Technologies Co., Ltd. IMAGE DISPLAY METHOD AND DEVICE, TERMINAL DEVICE, STORAGE MEDIUM AND PROGRAM PRODUCT
CN111654621B (zh) * 2020-05-26 2021-04-16 浙江大学 一种基于卷积神经网络模型的双焦相机连续数字变焦方法
CN111631569A (zh) * 2020-05-28 2020-09-08 青岛谷力互联科技有限公司 一种基于物联网的多功能ai智能化妆镜
CN112001303A (zh) * 2020-08-21 2020-11-27 四川长虹电器股份有限公司 一种电视留影的装置及方法
CN112422821B (zh) * 2020-11-01 2022-01-04 艾普科创(北京)控股有限公司 一种基于互联网的智能终端图片拍摄与发布方法及系统
WO2022177007A1 (ja) * 2021-02-22 2022-08-25 株式会社楽日 拡張現実デザイン印刷システム
CN112887430B (zh) * 2021-03-12 2022-12-20 深圳市环阳通信息技术有限公司 居家健康管理装置
TWI828115B (zh) * 2021-06-07 2024-01-01 仁寶電腦工業股份有限公司 互動式電子裝置及其控制方法
WO2023157124A1 (ja) * 2022-02-16 2023-08-24 楽天モバイル株式会社 ライブ配信中に映像を表示する配信者端末、表示方法、および、記録媒体
WO2024055965A1 (zh) * 2022-09-16 2024-03-21 北京字跳网络技术有限公司 一种图像显示方法、扩展现实空间中镜像显示方法、装置、电子设备和介质

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572248A (en) * 1994-09-19 1996-11-05 Teleport Corporation Teleconferencing method and system for providing face-to-face, non-animated teleconference environment
JP2947726B2 (ja) * 1995-03-01 1999-09-13 鹿島建設株式会社 遠隔操作支援用画像システム
JPH112859A (ja) * 1997-06-12 1999-01-06 Minolta Co Ltd カメラ
JP3232408B2 (ja) * 1997-12-01 2001-11-26 日本エルエスアイカード株式会社 画像生成装置,画像呈示装置及び画像生成方法
US6417850B1 (en) * 1999-01-27 2002-07-09 Compaq Information Technologies Group, L.P. Depth painting for 3-D rendering applications
JP2000306092A (ja) * 1999-04-16 2000-11-02 Nadeisu:Kk デジタル画像処理により実現される鏡及びその処理をコンピュータに行わせるためのプログラムを内蔵した媒体
US6803928B2 (en) * 2000-06-06 2004-10-12 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Extended virtual table: an optical extension for table-like projection systems
JP3505575B2 (ja) * 2001-03-23 2004-03-08 独立行政法人産業技術総合研究所 デジタルミラー装置
GB0109720D0 (en) * 2001-04-20 2001-06-13 Koninkl Philips Electronics Nv Display apparatus and image encoded for display by such an apparatus
US20020196333A1 (en) * 2001-06-21 2002-12-26 Gorischek Ignaz M. Mirror and image display system
US20030063187A1 (en) * 2001-10-01 2003-04-03 Frank Pagano Computerized video imaging device
ATE375570T1 (de) * 2002-06-10 2007-10-15 Accenture Global Services Gmbh Interaktiver anproberaum
JP4154178B2 (ja) * 2002-06-21 2008-09-24 キヤノン株式会社 ビデオカメラ
JP2004297734A (ja) * 2003-03-28 2004-10-21 Aruze Corp 電子鏡システム
JP2005010356A (ja) * 2003-06-18 2005-01-13 Pioneer Electronic Corp 表示装置および画像処理システム
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
CN101156434B (zh) * 2004-05-01 2010-06-02 雅各布·伊莱泽 具有非均匀图像分辨率的数码相机
US7171114B2 (en) * 2004-07-12 2007-01-30 Milton Curtis A Mirror-mimicking video system
US8982109B2 (en) * 2005-03-01 2015-03-17 Eyesmatch Ltd Devices, systems and methods of capturing and displaying appearances
EP1859432A4 (en) * 2005-03-01 2011-09-14 Nissi Vilcovsky DEVICES, SYSTEMS AND METHOD FOR RECORDING AND DISPLAYING APPEARANCE PICTURES
JP2007006016A (ja) * 2005-06-22 2007-01-11 Sharp Corp 撮影装置
US20070040033A1 (en) * 2005-11-18 2007-02-22 Outland Research Digital mirror system with advanced imaging features and hands-free control
JP4297111B2 (ja) * 2005-12-14 2009-07-15 ソニー株式会社 撮像装置、画像処理方法及びそのプログラム
RU2398362C2 (ru) * 2006-06-16 2010-08-27 Эрикссон Аб Соединение независимых мультимедийных источников в конференц-связь
WO2009026399A1 (en) * 2007-08-20 2009-02-26 Matthew Rolston Photographer, Inc. Modifying visual perception
CN101779460B (zh) * 2008-06-18 2012-10-17 松下电器产业株式会社 电子镜装置
JP5074322B2 (ja) * 2008-08-05 2012-11-14 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
JP2010087569A (ja) * 2008-09-29 2010-04-15 Panasonic Electric Works Co Ltd 姿見装置
US8416282B2 (en) * 2008-10-16 2013-04-09 Spatial Cam Llc Camera for creating a panoramic image
CN101383001B (zh) * 2008-10-17 2010-06-02 中山大学 一种快速准确的正面人脸判别方法
CN101770352B (zh) * 2008-12-30 2012-12-26 广达电脑股份有限公司 电子式即时显像系统及方法
US20120162356A1 (en) * 2009-09-11 2012-06-28 Koninklijke Philips Electronics N.V. Image processing system
JP2011146857A (ja) * 2010-01-13 2011-07-28 Canon Inc 画像処理装置、画像処理方法及びプログラム
EP2577963A1 (en) * 2010-05-26 2013-04-10 Ramot at Tel Aviv University, Ltd. Method and system for correcting gaze offset
KR101852811B1 (ko) * 2011-01-05 2018-04-27 엘지전자 주식회사 영상표시 장치 및 그 제어방법
US8452081B2 (en) * 2011-01-11 2013-05-28 Eastman Kodak Company Forming 3D models using multiple images
JP4934758B1 (ja) * 2011-03-07 2012-05-16 株式会社ノングリッド 電子ミラーシステム
US8767030B2 (en) * 2011-04-07 2014-07-01 Tara Chand Singhal System and method for a grooming mirror in a portable electronic device with a user-facing camera
JP5875248B2 (ja) * 2011-04-27 2016-03-02 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2012244196A (ja) * 2011-05-13 2012-12-10 Sony Corp 画像処理装置及び方法

Also Published As

Publication number Publication date
AU2019246856A1 (en) 2019-10-31
EP2936439B1 (en) 2019-02-20
KR102265996B1 (ko) 2021-06-16
AU2013361507A2 (en) 2015-07-16
WO2014100250A2 (en) 2014-06-26
EP4184443A1 (en) 2023-05-24
IL239508A0 (en) 2015-08-31
RU2018118815A3 (es) 2021-09-08
CN109288333B (zh) 2021-11-30
RU2656817C2 (ru) 2018-06-06
KR20150102054A (ko) 2015-09-04
IL239508B (en) 2018-11-29
EP2936439A4 (en) 2016-08-03
CN109288333A (zh) 2019-02-01
JP2016509683A (ja) 2016-03-31
BR112015014629A2 (pt) 2020-09-15
AU2013361507A1 (en) 2015-07-09
WO2014100250A3 (en) 2014-08-14
EP2936439A2 (en) 2015-10-28
CN105210093B (zh) 2021-06-08
CN105210093A (zh) 2015-12-30
EP3404619A1 (en) 2018-11-21
RU2018118815A (ru) 2018-11-05
JP6441231B2 (ja) 2018-12-19
RU2015127905A (ru) 2017-01-25
WO2014100250A4 (en) 2014-10-09
AU2019246856B2 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
ES2718493T3 (es) Procedimiento de captura y visualización de aspectos
US8982109B2 (en) Devices, systems and methods of capturing and displaying appearances
CN106797460B (zh) 三维视频的重建
RU2668408C2 (ru) Устройства, системы и способы виртуализации зеркала
CN108292489B (zh) 信息处理装置和图像生成方法
AU2016262576B2 (en) Privacy-sensitive consumer cameras coupled to augmented reality systems
CN106415444B (zh) 注视滑扫选择
US9268406B2 (en) Virtual spectator experience with a personal audio/visual apparatus
KR20180101496A (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
US20050083248A1 (en) Mobile face capture and image processing system and method
US10602033B2 (en) Display apparatus and method using image renderers and optical combiners
US11960146B2 (en) Fitting of glasses frames including live fitting
US20120120071A1 (en) Shading graphical objects based on face images
CN109799899B (zh) 交互控制方法、装置、存储介质和计算机设备
CN112601067B (zh) 增强现实显示装置及其显示方法
RU2793157C2 (ru) Устройства, системы и способы захвата и отображения внешнего вида
CN116941239A (zh) 三维环境内的图像显示