ES2692391T3 - Servicio mejorado de simulación de prueba virtual - Google Patents

Servicio mejorado de simulación de prueba virtual Download PDF

Info

Publication number
ES2692391T3
ES2692391T3 ES12709059.5T ES12709059T ES2692391T3 ES 2692391 T3 ES2692391 T3 ES 2692391T3 ES 12709059 T ES12709059 T ES 12709059T ES 2692391 T3 ES2692391 T3 ES 2692391T3
Authority
ES
Spain
Prior art keywords
garment
dimensional
image
silhouette
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12709059.5T
Other languages
English (en)
Inventor
Alexandra Bell
Erik PERNOD
Alex RECHE MARTINEZ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Belcurves Ltd
Original Assignee
Belcurves Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Belcurves Ltd filed Critical Belcurves Ltd
Application granted granted Critical
Publication of ES2692391T3 publication Critical patent/ES2692391T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Método para crear un modelo tridimensional de un cuerpo único; comprendiendo dicho método: obtener un modelo tridimensional de un cuerpo estándar; obtener una imagen bidimensional del cuerpo único que se va a modelar; determinar una ubicación del cuerpo único en dicha imagen (12); usar los datos de ubicación determinados para obtener una silueta bidimensional del cuerpo único a partir de la imagen bidimensional (13); en el que la etapa de obtener una silueta bidimensional del cuerpo único comprende: detectar un contorno del cuerpo único en la imagen bidimensional; calcular las derivadas del contorno; y perfeccionar el contorno detectado usando dichas derivadas de contorno moviendo cada vértice de la silueta aproximada al punto de cruce por cero más cercano; y seleccionar una medida para la cual se debe calcular un valor para el cuerpo único; calcular un valor de dicha medida seleccionada a partir de la silueta bidimensional obtenida; usar dicho valor calculado de la medida seleccionada para actualizar una medida correspondiente en el modelo tridimensional de un cuerpo estándar; y generar el modelo tridimensional actualizado de un cuerpo estándar como un modelo tridimensional del cuerpo único.

Description

5
10
15
20
25
30
35
40
45
50
55
60
DESCRIPCION
Servicio mejorado de simulacion de prueba virtual
La invencion comprende un servicio mejorado de simulacion y visualizacion de prueba virtual 3D de prendas de vestir. En particular, proporciona una seleccion de tamano y estilo basada en un modelo corporal creado a partir de medidas y proporciones de un cliente individual, que se obtienen de imagenes domesticas/de cliente; y un modelo de prenda de vestir creado a partir de datos de diseno de prendas de vestir.
Antecedentes
Existe una industria masiva en todo el mundo de venta al por menor de ropa y prendas de vestir. Un modelo tradicional de venta al por menor consiste en vender prendas de vestir de una tienda o almacen donde particulares pueden ir a la tienda, probarse varias prendas y despues comprar la prenda o prendas seleccionadas. Con el aumento del ritmo de la vida moderna y la demanda de una mayor seleccion al por menor por parte de los clientes, independientemente de su propia ubicacion geografica o disponibilidad, la compra de ropa en linea se ha hecho popular.
Existen muchos comerciantes al por menor en linea que permiten al usuario ver prendas en linea antes de comprarlas. A menudo se proporcionan imagenes de modelos que llevan puestas las prendas para dar una idea de como van a quedar en la practica. Sin embargo, esto puede tener un valor limitado ya que los modelos utilizados en tales imagenes suelen tener un tipo de cuerpo determinado o puede haber una breve lista de “tipos de cuerpo” donde elegir que se parezcan mas al del cliente, pero las opciones ofrecidas seran limitadas y, por tanto, diferentes a los cuerpos reales de los clientes que utilizan el servicio de venta al por menor en linea.
La oferta de servicios en linea es una opcion atractiva para el comerciante al por menor ya que puede introducirse en nuevos sectores sin la necesidad de abrir una tienda fisica. Sin embargo, un problema para los comerciantes al por menor es que se les devuelve hasta el 50 % de todas las prendas compradas en linea. Por ejemplo, las mujeres piden a menudo el mismo vestido en dos tallas, se prueban las dos tallas en casa y devuelven la que no les va bien, y se las prueban en casa para ver como les sienta y la caida que tiene. Esta tasa de devolucion del 50 % puede suponer hasta alrededor de entre 10 y 25 % de los ingresos del comerciante al por menor en linea, lo que equivale a un gasto de miles de millones de dolares en todo el mundo, ya que a los comerciantes al por menor se les devuelve la mercancia no deseada y ellos la reenvasan y reponen para su reventa. Por tanto, ademas de la venta original perdida, el comerciante al por menor sufre debido a los recursos, tiempo y gastos adicionales involucrados en el proceso de devolucion. Este es un problema importante para los comerciantes al por menor en linea.
Enfrentarse a los problemas de la venta al por menor de ropa en linea de manera adecuada ayudaria a mejorar la eficiencia del negocio del comerciante al por menor, aumentaria la satisfaccion y la experiencia del cliente y tendria un impacto positivo en las emisiones de carbono si se devolvieran menos articulos. Se conocen varias propuestas para mejorar la fiabilidad de la venta al por menor en linea para los clientes. La solicitud de patente internacional WO 2009/090391, que se incorpora aqui como referencia, describe un sistema y un metodo de generacion de filtro de prendas de vestir. El metodo incluye introducir datos corporales que representan una pluralidad de puntos sobre o debajo de la superficie de un cuerpo, derivar al menos una proporcion corporal a partir de los mismos y comparar esos datos de la proporcion corporal con datos de la prenda para filtrar prendas que no sean adecuadas para que las lleve puestas una persona con esas proporciones. Aunque es util, el metodo descrito se basa en el uso de un escaner corporal tridimensional para obtener informacion de medidas para un cuerpo. Otros comerciantes al por menor en linea tambien cuentan con escaneres corporales para el ajuste de prendas de vestir en linea o se basan en unas pocas medidas estandar introducidas por el usuario para su cuerpo (por ejemplo, solo altura/cintura/caderas/busto) lo que resulta restrictivo. El pequeno numero de medidas utilizadas deriva en una falta de precision y, como se utiliza intervencion humana, esta propuesta esta abierta a errores del usuario. Algunos sistemas en linea ofrecen solo visualizacion, para una “prueba”. Esto no es analogo a probarse la ropa, sino que proporciona una imagen de la ropa mapeada en un cuerpo en 3D. Los graficos por ordenador para la industria de los efectos especiales de pelicula han visualizado personajes en 3D con ropa 3D durante muchos anos. No existe un sistema o metodo conocido que pueda simular fielmente la prueba de una prenda por parte de un usuario de una manera directa y rentable que permita a un publico normal su uso en el hogar. En WONSOOK LEE ET AL: Generating animatable 3D virtual humans from prhotographs”, XP002257872, se describe una metodologia de clonacion corporal completa facil, practica y eficiente. Este sistema utiliza fotos tomadas desde la parte frontal, lateral y posterior de una persona en cualquier entorno de imagen dado sin requerir un fondo especial o una condicion de iluminacion controlada. Se utiliza un cuerpo generico sin costuras determinado en el formato VRML H- Anim 1.1 para generar un ser humano virtual individualizado. La solucion segun la invencion se basa en las caracteristicas de las reivindicaciones independientes. De acuerdo con una realizacion, se proporciona un metodo para crear un modelo tridimensional de un cuerpo unico; comprendiendo dicho metodo obtener un modelo tridimensional de un cuerpo estandar, obtener una imagen bidimensional del cuerpo unico que se va a modelar, determinar una ubicacion del cuerpo unico en dicha imagen y usar los datos de ubicacion determinados para obtener una silueta dimensional del cuerpo unico a partir de una imagen bidimensional. El metodo comprende ademas seleccionar una medida para la que se va a calcular un valor para el cuerpo unico, calcular un valor de dicha medida seleccionada a partir de la silueta bidimensional obtenida, usar dicho valor calculado de la medida predeterminada
5
10
15
20
25
30
35
40
45
para actualizar una medida correspondiente en el modelo tridimensional de un cuerpo estandar y producir el modelo tridimensional actualizado de un cuerpo estandar como un modelo tridimensional del cuerpo unico.
Se describe un metodo, que no forma parte de la invencion, para crear un modelo de una prenda, comprendiendo dicho metodo definir una pluralidad de partes componentes de la prenda, obtener datos geometricos para la prenda, siendo dichos datos geometricos suficientes para que la prenda sea fabricada a partir de sus partes componentes, obtener datos de referencia para la prenda, comprendiendo dichos datos de referencia al menos un indicador para determinar la posicion de una conexion para realizar entre las partes primera y segunda de la prenda y utilizar dichos datos geometricos y datos de referencia para generar un modelo de partes componentes de la prenda.
Se describe un metodo, que no forma parte de la invencion, para modelar una prenda para simular el ajuste de esa prenda en un cuerpo, comprendiendo dicho metodo obtener un modelo tridimensional del cuerpo y definir una cuadricula que rodea dicho cuerpo tridimensional, en donde las celdas individuales de la cuadricula incluyen diferentes partes respectivas del cuerpo modelado. El metodo comprende ademas obtener un modelo de la prenda que va a ajustarse, incluyendo dicho modelo partes primera y segunda de la prenda separadas entre si, colocar dichas partes primera y segunda de la prenda en celdas seleccionadas de la cuadricula, en donde dichas celdas se seleccionan segun una relacion entre las partes incluidas del cuerpo modelado y las partes primera y segunda de la prenda de vestir; y alinear dichas partes primera y segunda de la prenda para prepararlas para unirlas alrededor del cuerpo modelado.
Tambien se describe un metodo, que no forma parte de la invencion, para simular el ajuste de una prenda en un cuerpo unico, que comprende obtener un modelo tridimensional del cuerpo unico, obtener un modelo tridimensional de la prenda que se va a ajustar, implementar una colision entre dicho modelo tridimensional del cuerpo unico y dicho modelo tridimensional de la prenda; y producir una visualizacion del ajuste como resultado de dicha colision.
Figuras
A continuacion, se describen realizaciones y ejemplos con respecto a las figuras, en las que:
La figura 1 muestra una vision general de gran calidad de un proceso de ajuste de prendas en linea;
La figura 2a muestra un organigrama para crear modelos tridimensionales a partir de imagenes obtenidas del usuario;
La figura 2b muestra un organigrama para generar archivos de prendas de vestir;
La figura 2c muestra un organigrama para una prueba virtual;
Las figuras 3 y 4 muestran los resultados de la deteccion de contorno de una imagen con el fondo eliminado;
Las figuras 5 y 6 muestran la obtencion de un contorno detectado a partir de la imagen de la figura 3;
La figura 7 muestra la comparacion de un contorno detectado con una pluralidad de formas de una base de datos;
La figura 8 muestra la proyeccion de una imagen corporal y un patron sobre un plano para la deteccion de la altura del cuerpo;
La figura 9 muestra una posible clasificacion de region para un cuerpo;
La figura 10 muestra el cambio de una longitud en un esqueleto 3D estandar basado en datos medidos del usuario;
La figura 11 muestra un cambio en un contorno de un esqueleto tridimensional estandar basado en datos medidos del usuario;
La figura 12 muestra un archivo de prenda con la prenda desmontada y con referencias indicadas en ella;
La figura 13 muestra un archivo de prenda que incluye datos de referencia;
La figura 14 muestra un modelo corporal 3D agrupado por una cuadricula dispersa;
Las figuras 15a a 15c muestran la colocacion automatica de las partes de la prenda en la cuadricula dispersa que se muestra en la figura 14;
La figura 16 muestra un vestido colocado alrededor del cuerpo que se muestra en la figura 14, en donde el vestido se ha mallado usando una triangulacion de Delaunay;
La figura 17 muestra un mapeo aproximado de un modelo corporal 3D en partes cilindricas;
Las figuras 18a y 18b muestran el mapeo de mallas triangulares de un vestido en el cuerpo que se muestra en la figura 17;
5
10
15
20
25
30
35
40
45
50
55
La figura 19 muestra un proceso de union de piezas y de piezas que forman los bordes del vestido que se muestra en las figuras 18a y 18b;
Las figuras 20a y 20b muestran los resultados de las piezas que se unen para el vestido que se muestra en la figura 19;
La figura 21 muestra un mapa de distancias de un modelo corporal al que se ha unido una prenda como se muestra en las figuras 20a y 20b; y
La figura 22 muestra la malla de un vestido despues de que sus piezas se hayan unido.
Vision general
En una vision general, se proporciona un metodo y un sistema que permiten a los clientes “probarse” prendas de vestir en un entorno virtual, por ejemplo, en linea, para obtener una simulacion realista de como una prenda encajaria, pareceria y caeria en el cuerpo de ese cliente antes de tomar una decision de si pedir o comprar dicha prenda.
Para lograr esto, se crea una replica fiel del cuerpo del cliente utilizando un software de procesamiento adecuado. El cuerpo se replica en forma de modelo digital tridimensional (3D). Como se describe en detalle a continuacion, para formar el modelo 3D, se utilizan las medidas reales del ser humano, en lugar de medidas estandar, tales como el tamano del pecho, la cintura y la cadera, como utilizan otros sistemas.
Una vez creado el modelo tridimensional del ser humano, las prendas pueden probarse virtualmente en una simulacion efectiva. Para que esto sea asi, los modelos de prendas se crean en 3D utilizando la geometria real de las piezas que conforman el diseno de la prenda segun lo creado por el disenador. La prenda 3D se prueba en el cuerpo 3D, es decir, se drapea sobre el cuerpo del modelo para mostrar como encajaria en la practica, durante la simulacion. El modelo de prenda que se usa es una version de drapeado tridimensional de la prenda. Se prueba utilizando la fisica real, incluida la dinamica fisica del comportamiento de la tela con la gravedad y las colisiones de tela contra la forma del cuerpo. En lugar de proporcionar una visualizacion simplemente superponiendo la imagen de una prenda sobre el modelo corporal en 3D, por ejemplo, usando deformacion 2D o transformacion, la prueba simulada utiliza calculos dinamicos para simular completamente la fisica real del usuario probandose la prenda. Por tanto, el sistema no se basa simplemente en mapas bidimensionales o imagenes de prendas, sino que realmente puede proporcionar una simulacion tridimensional completa de como la prenda se va a ajustar y va a caer sobre el cuerpo en la vida real.
Para hacer que el servicio de ajuste de prenda sea accesible, las medidas del cuerpo humano para la creacion del modelo 3D digital se pueden capturar utilizando equipos disponibles nacionalmente tales como una camara digital, un grabador de video o una camara web. Como se describe en detalle a continuacion, las medidas a partir de las cuales se va a crear el modelo tridimensional se obtienen de las imagenes reales capturadas en esa camara, grabadora, camara web o cualquier otro dispositivo de adquisicion de imagenes. Por tanto, se obtiene y utiliza un conjunto realista de datos, incluidas las medidas y proporciones corporales que realmente colaboran con la simulacion de como encajan o caen las prendas en ese individuo.
A diferencia de los metodos de la tecnica anterior, los presentes metodo y sistema pueden capturar un numero suficiente de medidas que reproduciran una copia fiel de un cuerpo humano en un modelo 3D digital. El modelo incluira la forma unica del cuerpo de la persona en cuestion, incluidas sus curvas particulares que pueden afectar a las opciones de ajuste y estilo, no solo a las medidas que se requieren convencionalmente para el tamano de la prenda, tales como el tamano del busto, la cintura y la cadera. El metodo no requiere el uso de un escaner corporal o de cualquier otro equipo costoso o inaccesible. En su lugar, puede utilizar equipos que se encuentran en muchas casas y que estan disponibles para una gran parte del publico para producir un modelo tridimensional reconocible para el cliente.
Las imagenes obtenidas a partir de un dispositivo de adquisicion de imagenes de cliente se analizan para obtener de ellas medidas precisas que forman la base de la construccion del modelo tridimensional, recreando en primer lugar la forma del cuerpo y curvas convexas y concavas del ser humano. Las medidas tambien se tienen en cuenta para dar sentido a las curvas virtuales durante el proceso de drapeado, como se describe con mas detalle a continuacion. El proceso de drapeado tiene en cuenta factores del mundo real tales como la gravedad en las curvas corporales, peso de la tela, textura y elasticidad, para que el usuario pueda obtener una simulacion altamente precisa y util de como una prenda particular le quedaria antes de comprar o incluso de ver la prenda en la vida real.
Descripcion detallada
La figura 1 proporciona una vision general de gran calidad de un proceso de ajuste de prendas virtual;
Desde la perspectiva de un usuario, cuando el usuario esta comprando en linea 100 y quiere simular la prueba de la prenda, la primera etapa del proceso es obtener una copia de la creacion del modelo 3d a partir de un software de imagen de cliente 110. La aplicacion se puede descargar de una tienda en linea, a traves de un enlace al sitio web, de una memoria de almacenamiento de hardware extraible, tal como un CD o una memoria USB o a traves de
5
10
15
20
25
30
35
40
45
50
55
cualquier otro medio adecuado. Aunque a continuacion se hace referencia al uso de un “ordenador”, la aplicacion puede ejecutarse en cualquier medio de procesamiento adecuado, tal como un ordenador, un telefono inteligente u otro dispositivo de procesamiento portatil. Una vez que la aplicacion se ha descargado en el ordenador del usuario, este puede comenzar a usar el software para crear un modelo 3D de si mismo. Para hacerlo, debe capturar una imagen 120 o preferiblemente un conjunto de imagenes de si mismo. Como se menciona anteriormente, esto se puede hacer utilizando cualquier equipo adecuado, tal como una camara digital o un grabador de video conectado a un ordenador. Alternativamente, se puede hacer utilizando una camara web o un telefono u otro dispositivo de adquisicion de imagenes del cliente. Por ejemplo, dispositivos de captura de imagenes estereo que utilizan camaras para tomar una imagen estereoscopica en 3D. Algunos usuarios tambien pueden tener acceso a dispositivos avanzados de adquisicion de imagenes tales como un dispositivo de adquisicion de profundidad, un telemetro o un dispositivo de rayos X, que pueden obtener medidas corporales del usuario incluso aunque el cliente este vestido, sin embargo, tales dispositivos avanzados no son necesarios para un funcionamiento exitoso de los presentes dispositivo y sistema.
Cuando el software de la aplicacion se ejecuta en el ordenador del usuario o en otro hardware, puede proporcionar instrucciones al usuario para capturar imagenes adecuadas. Las instrucciones pueden ser interactivas y pueden comprender una demostracion, tal como una demostracion de video o una interaccion de personaje animado. Las instrucciones incluyen, entre otras cosas, como debe vestirse el usuario para la captura de imagenes. Por ejemplo, se le puede indicar al usuario que se vista con ropa interior, traje de bano o leotardos y mallas con el pelo recogido retirado del cuello y de la cara, para que su cuerpo pueda verse y no encubra las imagenes. Las instrucciones tambien pueden incluir consejos sobre como usar una referencia de calibracion para fines de calibrado, como se analiza mas adelante.
Volviendo a la figura 1, una vez capturado el conjunto de imagenes de acuerdo con las instrucciones proporcionadas por el software, son enviadas al software para su procesamiento individual. Las imagenes pueden ser adquiridas directamente por el ordenador cargado desde el ordenador del cliente o enviadas de otra manera adecuada. Las imagenes son analizadas despues. Como se describe en detalle a continuacion, este analisis implica la obtencion de datos de las imagenes para que puedan calcularse 140 las medidas. No es necesario cargar las imagenes en un servidor web para la etapa de calculo 140. Esto es conveniente desde la perspectiva de la privacidad del cliente.
Las medidas calculadas se usan con dos propositos. En primer lugar, se utilizan para generar 150 un modelo tridimensional unico representativo de las medidas reales del cliente, al que se hace referencia en este documento como “clon” 150. En segundo lugar, se usan para llevar un registro de las medidas del cuerpo del cliente 160 que pueden usarse en combinacion con un modelo tridimensional convencional durante el proceso de prueba virtual. Como se analiza en la vision general anterior y de nuevo con mas detalle a continuacion, la simulacion de prueba virtual comprende graficos tridimensionales que representan prendas seleccionadas en el modelo tridimensional del usuario.
Calibracion
Para obtener medidas de las imagenes que debe proporcionar el sistema, se debe proporcionar informacion del factor de cuantificacion de las imagenes. Como se muestra en la figura 2a de este documento, una propuesta para hacer esto es proporcionar una referencia de calibracion. Alternativamente, se puede omitir la calibracion y, en su lugar, se puede calibrar el factor de cuantificacion de imagen utilizando una medida estandar, por ejemplo, una longitud de una cinta o regla de medicion. Alternativamente, el tamano del objeto, visible en la imagen, puede ser conocido por el procesador y/o puede introducirse manualmente. Sin embargo, omitir el proceso de calibracion puede dar como resultado medidas de menor precision, por lo que en este ejemplo usamos una referencia de calibracion.
En la practica, cuando un usuario descarga una aplicacion para ejecutar el sistema de simulacion de prueba en linea en su ordenador, puede estar provista de un grafico que representa una cuantificacion o una referencia de calibracion que se debe colocar en la imagen o imagenes de si mismo, visible para la lente de la camara, para proporcionarselo al sistema. Al incluirse una cuantificacion o referencia de calibracion de esta manera, el sistema puede reconocer las distancias entre el usuario y su camara u otro dispositivo de captura de imagenes y, por tanto, puede evaluar con precision el tamano real del cuerpo del usuario a partir de las imagenes.
El sistema puede incluir instrucciones de como deberia posar el cliente para sus imagenes. Por ejemplo, puede mostrar como lograr varias posiciones requeridas usando un clip o video instructivo que acompana a la aplicacion. Por ejemplo, si el usuario esta utilizando una camara web para capturar su imagen, es posible que pueda alinear la imagen capturada por la camara web con una silueta de un cuerpo en una posicion determinada, como muestra el sistema en la pantalla, maximizando asi la utilidad de las imagenes tomadas por el usuario.
Preferiblemente, las imagenes deben tomarse usando iluminacion domestica y con un fondo neutro. Las fotos de las diferentes posiciones de usuario requeridas para la creacion del modelo tridimensional deben tomarse en una sola sesion. Si el dispositivo de adquisicion de imagenes lo permite, las fotos las debe tomar, es decir, disparar, el ordenador en el que se esta ejecutando el sistema. Esto mejora la interactividad del proceso, haciendo que sea mas facil de usar.
5
10
15
20
25
30
35
40
45
50
55
De acuerdo con una realizacion, en una implementacion cliente/servidor del sistema, las mismas imagenes no se cargan en el servidor, sino que permaneceran en el dispositivo del cliente y, por tanto, permaneceran privadas. En lugar de obtener las imagenes reales, el sistema obtendra datos de esas imagenes como datos de medidas, datos de proporcion, datos de tonos de piel y cabello y forma de los ojos. Solo esa informacion obtenida se cargara despues para su procesamiento a fin de crear el modelo tridimensional. En una implementacion completamente en linea del sistema, las imagenes pueden cargarse en el servidor del sistema y eliminarse inmediatamente despues del procesamiento y de la obtencion de datos.
Como se muestra en figura 2a, el proceso incluye de preferencia una calibracion interna 7 y una calibracion externa. La calibracion interna 7 implica calibrar la cuenta del dispositivo de adquisicion de imagenes para la deformacion que el mismo dispositivo genera en las imagenes adquiridas. Las tecnicas conocidas de vision por ordenador pueden usarse para encontrar los parametros internos de un dispositivo de adquisicion. Normalmente, esos parametros internos incluyen distancia focal, angulos de vision vertical y horizontal, tamano y resolucion de sensor, distorsion de lente, correccion de color y ruido de sensor. Los parametros internos obtenidos para el dispositivo de adquisicion de imagenes pueden utilizarse para corregir cualquier deformacion geometrica o colorimetrica que pueda ser anadida a las imagenes obtenidas por el propio dispositivo de adquisicion. Opcionalmente, el sistema puede incluir una interfaz a traves de la cual el usuario puede introducir detalles del dispositivo de adquisicion de imagenes utilizado para ayudar en el proceso de calibracion interna.
En figura 2a hay una etapa de “busqueda de patron” 5 que se muestra como parte del proceso de calibracion interna. Segun una realizacion, se puede requerir que el usuario capture una imagen de un patron, por ejemplo, una que pueda imprimir el usuario una vez que la aplicacion para el servicio de prueba simulado haya sido descargada en su ordenador o una que se imprima profesionalmente y se proporcione al usuario por correo o en la tienda o por otros medios adecuados. Al observarse una imagen capturada por el dispositivo de adquisicion de imagenes del usuario con un patron conocido, el ordenador u otro procesador puede derivar parametros internos para el dispositivo.
De forma similar, se debe llevar a cabo una calibracion externa 9 de modo que se conozca la posicion y la orientacion del dispositivo de adquisicion de imagenes con respecto a cuerpos externos. De nuevo, pueden usarse tecnicas de vision por ordenador conocidas para calcular los parametros externos del dispositivo de adquisicion de imagenes del usuario. Esos parametros externos incluyen la posicion y la rotacion del dispositivo de adquisicion con respecto al cuerpo que se forma como una imagen. De acuerdo con una realizacion, se puede instruir al usuario para que coloque un patron en el suelo cerca de donde esta colocado para el proceso de adquisicion de imagenes. Si se usan los parametros internos y externos de la camara, el sistema puede ubicar con precision el patron en el espacio 3D. Por tanto, si el usuario se coloca junto o sobre el patron en el suelo, el sistema puede saber donde esta el suelo en la imagen, ubicando asi los pies del usuario y proporcionando una indicacion de la distancia entre el usuario y el dispositivo de adquisicion de imagenes. Esa distancia se puede usar para calcular un factor de cuantificacion para la imagen. Este factor de cuantificacion se puede aplicar a las medidas obtenidas de la imagen para obtener medidas 3D reales de la persona representada en esas imagenes.
Como se apreciara a partir de la siguiente descripcion, la informacion de calibracion externa 9 obtenida para el dispositivo de adquisicion de imagenes del usuario se puede usar cada vez que haya una conversion de datos bidimensionales a tridimensionales y viceversa durante el funcionamiento del sistema.
De acuerdo con una realizacion, el patron de calibracion que se va a usar para la calibracion del dispositivo de adquisicion de imagenes comprende un cuadrado negro con bordes gruesos en fondo blanco. El centro del cuadrado incluye un dibujo de calibracion en color con colores basicos tales como rojo, verde y azul. El tamano del cuadrado, asi como el grosor del borde y el diseno del color son conocidos por el sistema. Debido a que el sistema conoce el tamano del cuadrado, asi como el grosor de su borde y el diseno del color, puede ubicar el patron en una imagen cuando aparece en cualquier posicion aleatoria, usando tecnicas estandar de procesamiento de imagenes. Por tanto, el patron de calibracion permite que el sistema ubique al usuario en el espacio desde el interior de una imagen capturada, asi como obtener medidas del cuerpo del usuario a partir de tal imagen.
Dependiendo del tipo y el modelo de dispositivo de adquisicion de imagenes utilizado, el sistema puede realizar una calibracion interna para encontrar automaticamente parametros internos del dispositivo de adquisicion. Si se puede, el patron de calibracion mencionado anteriormente solo se usa para la calibracion externa a fin de permitir que el sistema ubique al usuario en el espacio. Sin embargo, si el sistema no puede o no realiza la calibracion interna automaticamente, puede usar el patron para obtener parametros internos del dispositivo de adquisicion de imagenes ya que el sistema conoce el patron y por tanto el sistema puede ver si el dispositivo de adquisicion ha deformado el patron y como lo ha deformado, en las imagenes proporcionadas por el usuario. Las etapas de calibracion interna 7 y externa 9 se pueden repetir con la frecuencia necesaria para garantizar la precision, como se muestra en la figura 2a.
Una vez que se han llevado a cabo las etapas de calibracion interna y externa, el sistema puede comenzar de nuevo a procesar las imagenes del usuario como preparacion para crear un modelo tridimensional.
Eliminacion del fondo
5
10
15
20
25
30
35
40
45
50
55
60
Como se menciona anteriormente, de manera ideal las imageries de un usuario deberian tomarse usando iluminacion domestica y se deberia usar un fondo neutro. Sin embargo, independientemente del tipo de fondo que se utilice, el sistema no debe incluir el fondo en el modelo tridimensional del cuerpo. Conocer el fondo ayuda al sistema a reconocer el sujeto en una imagen y a detectar que parte de la imagen son sombras.
Las tecnicas de eliminacion de fondo seran conocidas para el lector experto. El presente sistema puede utilizar cualquier tecnica adecuada para la eliminacion de fondo. Debido a que el usuario captura una serie de imagenes, el sistema puede determinar la diferencia entre el fondo y el usuario, es decir, el cuerpo central en la imagen, para cada una de una serie de imagenes. Si la parte de la imagen que se identifica como fondo varia demasiado entre las diferentes imagenes respectivas, el sistema puede solicitar al usuario que recapture imagenes y/o que proporcione imagenes adicionales para mejorar el proceso de eliminacion de fondo. Por ejemplo, una de las imagenes solicitadas por el sistema podria ser una imagen solo del fondo, sin que el usuario este tambien presente.
Una vez que el sistema ha detectado el fondo con un grado de precision aceptado, puede comenzar el proceso de eliminacion de fondo. El sistema funciona de modo que una entrada al proceso de eliminacion de fondo 12 es una serie de imagenes calibradas proporcionadas por el usuario, en las que el contenido per se de las imagenes es desconocido y la salida es una imagen en la que solo se conserva la parte o partes de la imagen que no se han identificado como parte del fondo. El modelo de eliminacion de fondo dentro del sistema funciona para eliminar el fondo de las imagenes, dejando solo el objeto (es decir, la persona que se esta formado como una imagen) sin sombras.
Forma
La siguiente etapa del proceso de creacion de modelo es la deteccion de forma 13. La entrada a la etapa de deteccion de forma es una imagen en la que solo se ven objetos que no forman parte del fondo. Para el proposito del servicio de prueba virtual simulado descrito en este documento, sera una imagen de la persona sin sombras y sin el fondo procedente de sus imagenes originales. La salida del modelo de deteccion de forma es el contorno del objeto central principal de la imagen procesada. Nuevamente, para el proposito del servicio simulado de prueba, ese sujeto es la persona para la cual se va a crear el modelo tridimensional.
Debido a que la etapa de deteccion de forma 13 es una etapa preparatoria para la creacion de un modelo tridimensional, el contorno detectado debe ser lo suficientemente preciso como para que la forma de la persona pueda ser reconocida con precision.
Para mejorar el proceso de deteccion de forma, el presente sistema preferiblemente no lleva a cabo una mera clasificacion de pixeles. En su lugar, realiza la deteccion de contorno en la imagen eliminada que ha sido una salida al final de la etapa del proceso de eliminacion de fondo 12. Dado que la eliminacion de fondo ha eliminado casi todos los detalles del fondo de la imagen original, dicho proceso de deteccion de contorno puede concentrarse alrededor del sujeto deseado, es decir, la persona que se esta formando como una imagen, y puede proporcionar una buena representacion de su forma. Si falta algun pixel en la imagen de la persona que pueda producir espacios vacios en el contorno del sujeto, se puede realizar una serie de ampliaciones y reducciones. Para garantizar que solo se utilicen los contornos de la persona, no los contornos del fondo, el sistema puede seleccionar contornos particulares para su posterior procesamiento. Preferiblemente, el sistema enfocara los contornos que estan cerrados, que tienen un parametro establecido con relacion al tamano total de la imagen y que estan situados alrededor del centro de la imagen. La aplicacion de tales criterios permite que se eliminen de la imagen todos los contornos detectados, excepto los contornos del cuerpo de la persona.
El proceso de deteccion de contorno realizado de esta manera es lo suficientemente preciso como para permitir que el sistema decida si la persona que se muestra en la imagen esta colocada en una postura o posicion particular. Por ejemplo, la figura 5 muestra la imagen del cuerpo que se muestra en figura 3, aqui despues de que el procesamiento de contorno se haya aplicado a la misma. La imagen en la figura 5 es lo suficientemente detallada y precisa como para que el sistema determine que los brazos del sujeto se extienden hacia fuera, en lugar de caer hacia los lados. Por tanto, el sistema puede usar esta informacion para clasificar la postura que se muestra en la imagen. Como se menciona anteriormente, las instrucciones para el sistema pueden incluir instrucciones para que el usuario capture imagenes en diferentes poses. El sistema puede usar las poses predeterminadas a partir de sus instrucciones para ayudar a determinar la posicion o la postura del usuario en las imagenes a las que se ha aplicado la deteccion de contorno. Como se analiza con mas detalle a continuacion, el sistema puede decidir en cualquiera de una serie de etapas del proceso si va a usar una imagen particular para la creacion de un modelo 3D a partir de las mismas. Si el sistema decide que usara una imagen particular, puede perfeccionar aun mas el contorno en la misma con el fin de obtener las mejores medidas posibles a partir de la misma.
Despues de la deteccion de forma, la siguiente etapa del proceso que se muestra en figura 2a es la etapa de reconocimiento de forma 14. El sistema incluye preferiblemente una base de datos de posibles poses humanas como formas. Por ejemplo, estas formas pueden ser codificadas en el programa. La forma del sujeto detectado, por ejemplo, como se muestra en figura 6 en este documento, se compara con las formas de la base de datos. Se ejecuta un algoritmo de comparacion adecuado y devuelve un valor para mostrar la similitud de la forma de la imagen con varias formas de la base de datos. En los ejemplos que se muestran en figura 7, la salida del algoritmo es un valor en el rango de 0 a 1 en donde, cuanto mas cerca de 0 este ese valor, mas similares seran las dos formas
7
5
10
15
20
25
30
35
40
45
50
55
entre si. Si la comparacion devuelve 0, las formas son identicas. Con el fin de evitar posibles falsos negativos debido a problemas de cuantificacion, la generacion de forma de la etapa de deteccion de forma 13 se cuantifica para que tenga el mismo tamano que las formas de la base de datos antes de realizar la comparacion. La forma en la base de datos con el mejor resultado de comparacion se asigna a la imagen asociada como posible candidato para una clasificacion de imagen, que se analizara mas adelante.
Caracteristicas
Ademas de reconocer la forma de la persona que se forma como una imagen, es importante que el sistema pueda detectar sus caracteristicas humanas para asegurarse de que haya una persona frente a la camara y reconocer mejor sus poses y posiciones corporales. El sistema puede usar tecnicas de deteccion de caracteristicas conocidas 15 para encontrar caracteristicas tales como la cara, las manos o los pies de una persona, etc. En el ejemplo de las caras, se pueden detectar diferentes tipos de caras, tales como la cara de frente y el perfil. Detectar una de esas caracteristicas no solo informa al sistema de que un humano esta frente a la camara, sino que tambien especifica en que direccion esta orientado el cuerpo. Se podria hacer un procesamiento similar detectando las manos para poder definir mejor la posicion de los brazos.
En esta etapa del proceso, este sistema conoce al menos aproximadamente donde esta colocado el sujeto en la imagen y, por tanto, puede crear una region de interes en la que se puede estar seguro de que se encuentra la caracteristica que se esta buscando, en este ejemplo la cara.
Clasificacion
Antes de generar el clon para representar al usuario para la prueba virtual de una prenda, el sistema tiene que tomar una decision dependiendo de dos preguntas: ^hay una persona frente a la camara? y Ja persona que posa esta en una posicion aceptable? siendo una posicion aceptable una de las posiciones que el sistema necesita para un procesamiento posterior. Para responder a esas preguntas, el sistema utilizara los diferentes datos recopilados durante el reconocimiento de forma 14 y la deteccion de caracteristicas 15, etapas descritas anteriormente.
Es importante que el sistema pueda obtener una cantidad suficiente de datos y pueda tener suficiente confianza en la precision de esos datos antes de usarlos para la creacion de un modelo tridimensional. Por tanto, se requiere una clasificacion determinada de las imagenes procesadas. En 16, mostrado en figura 2a, se aplica logica de clasificacion a la imagen procesada. A modo de ejemplo, el sistema puede aplicar una etiqueta a una o mas imagenes con respecto a cada una de las etapas anteriores del proceso para indicar un valor de confianza correspondiente. Por tanto, una etiqueta puede indicar confianza con respecto a la deteccion de forma 13 y otra puede indicar confianza con respecto a la deteccion de caracteristicas 15. Una etiqueta unica con un unico valor de confianza global para una imagen como un todo puede generarse a partir de una pluralidad de etiquetas de etapa de proceso. Si la confianza global con respecto a una imagen es escasa, en lugar de producir una etiqueta, se puede producir una salida que indique que no hay suficiente informacion disponible para tomar una buena decision para el modelado tridimensional a partir de esa imagen. Si la aplicacion tiene suficiente confianza con respecto a una pose particular que se muestra en una imagen, esa imagen puede etiquetarse y procesarse para crear despues el modelo tridimensional.
En 17, figura 2a, se plantea una pregunta sobre si se han establecido etiquetas. Si es asi, esto indica que el usuario ha proporcionado al menos una imagen a partir de la cual el sistema puede generar un modelo tridimensional. Si no se han establecido etiquetas, entonces no hay imagenes que se hayan procesado en un grado adecuado para que se cree el modelo tridimensional en ese momento. En tal caso, se puede pedir al cliente que envie imagenes nuevas para su procesamiento de acuerdo con las etapas 13 a 17. Preferiblemente, las imagenes que no estan “bien” para procesarse se rechazan y nunca se vuelven a usar. Cada imagen proporcionada por un usuario se procesara por separado de acuerdo con las etapas 5 a 17 que se muestran en la figura 2a. Cuando una imagen es aceptada o rechazada, las etapas pueden repetirse para otra imagen.
Creacion del modelo tridimensional (humano)
Aunque la deteccion de forma y contorno 13/14 analizada anteriormente es util para clasificar la pose en la que se coloca una persona en una imagen particular, no puede usarse como una silueta real de la persona para el calculo o la obtencion de medidas. De manera ventajosa, el presente sistema esta dispuesto para realizar etapas adicionales con el fin de crear una silueta de alta precision de la persona, que puede tener una precision de hasta una decima de pixel, a partir de la cual pueden obtenerse y calcularse medidas de manera fiable.
De acuerdo con una realizacion, se usan dos propuestas para obtener una mejor estimacion de la silueta de la persona. La primera comprende calcular las derivadas de contorno y mover cada vertice de la silueta aproximada al punto de cruce por 0 mas cercano. Se sabe que las derivadas de contorno otorgan una precision mucho mayor al estimar un contorno que un contorno en si mismo. Un contorno puede estimarse a partir de derivadas de contorno con al menos una precision de una decima de pixel.
Para perfeccionar aun mas el contorno y para tener en cuenta cualquier imperfeccion que quede debido a detalles de fondo o a detalles de la prenda usada en la imagen, ocultando la silueta real, se lleva a cabo una etapa de
5
10
15
20
25
30
35
40
45
50
55
60
perfeccionamiento adicional. La etapa de perfeccionamiento adicional comprende corregir cualquiera de tales imperfecciones calculando un histograma de curvatura para una silueta y comparando y corrigiendo anomalfas del histograma al suprimir y anadir puntos a la silueta donde se detecten anomalfas. Se puede usar un algoritmo de estimacion de curvatura que tenga en cuenta el posible ruido que podrfa tener la silueta, lo que permite calcular la curvatura en cada punto de la silueta. El proceso de deteccion de anomalfas empleado por el sistema puede usar conocimientos generales comunes sobre la pose adoptada por la persona en la imagen que se analiza. Por ejemplo, si la pose actual consiste en que la persona mire hacia la camara con los brazos extendidos y las piernas ligeramente abiertas, los unicos lugares donde deberfa producirse una curvatura concava pronunciada son en la entrepierna y debajo de ambos brazos. En una persona con sobrepeso, las curvaturas concavas pronunciadas tambien se pueden encontrar en las rodillas y alrededor de las caderas y la cintura. Mientras que los puntos de curvatura convexa pronunciada solo se pueden encontrar en la punta de los dedos. Durante el funcionamiento del presente sistema, cuando se detecta un punto de la silueta como una anomalfa o irregularidad, se elimina. Una vez que se han eliminado todas las anomalfas, el sistema puede rellenar cualquier espacio restante estimando nuevos puntos utilizando la curvatura a cada lado del espacio vacfo.
Por tanto, el sistema emplea un proceso de perfeccionamiento inteligente. Como se describe anteriormente, el proceso preferiblemente implica hacer uso de derivadas de contorno para reposicionar puntos o vertices en la silueta aproximada para mejorar su precision. Ademas, comprende preferiblemente la deteccion de anomalfas, en particular la deteccion de anomalfas que hace uso del conocimiento general comun de formas corporales en poses particulares. Por tanto, el sistema hace uso de caracterfsticas conocidas de formas y poses del cuerpo en una etapa adecuada del proceso de creacion del modelo sin perjudicar la precision del procesamiento de la imagen. De hecho, se ha reconocido aquf que el uso del conocimiento comun en esta etapa del proceso mejora realmente el procesamiento de la imagen y mejora la precision de la silueta del cuerpo. De forma similar, se ha identificado en este documento que la estimacion de nuevos puntos utilizando la curvatura en ambos lados de un espacio vacfo hace que el contorno general sea mas preciso que usar una anomalfa resultante de las etapas anteriores en el metodo de procesamiento de imagenes. Como resultado de ello, se puede generar una silueta de alta definicion del usuario.
Una vez que la silueta de alta definicion se ha generado 18, la forma del cliente se puede capturar como etapa 19. Esta salida se puede usar para alinear un modelo tridimensional estandar con la forma del cliente, como se muestra en 29 en la figura 2a y como se analiza mas adelante.
Clasificacion de region
La silueta de alta definicion generada por el sistema tambien se puede usar para la clasificacion de region, por lo que el sistema separa la imagen en regiones probabilfsticas.
Como etapa inicial, en el proceso de clasificacion de region, el sistema puede determinar la altura de la persona que se muestra en la imagen. Para ayudar con esto, la aplicacion (que se ejecuta en el hardware del usuario para implementar el sistema como se describe en este documento) puede incluir una interfaz a traves de la cual el usuario puede introducir sus detalles de altura. Independientemente de si se han introducido o no esos detalles de altura, el sistema puede encontrar la altura de la persona que se forma como una imagen. Esto se puede hacer primero colocando los pies buscando la parte mas baja del contorno en la imagen. Debido a que las imagenes se calibran, el punto mas bajo del contorno se puede encontrar facilmente con referencia al suelo, por ejemplo, usando un patron conocido colocado en el suelo durante la etapa de calibracion externa analizada anteriormente. El punto mas bajo del contorno de un cuerpo podrfan ser los dedos del pie derecho o del pie izquierdo si la imagen en procesamiento incluye una persona que mire hacia la camara. Alternativamente, la parte mas baja del contorno puede ser el talon derecho o el izquierdo si la persona esta de espaldas a la camara. O el punto mas bajo del contorno podrfan ser los dedos de los pies o el talon del pie derecho o el pie izquierdo si la persona se muestra de perfil a la camara.
La figura 8 muestra un ejemplo de como se pueden proyectar los puntos mas bajos y mas altos del contorno sobre un plano y comparar con la proyeccion del patron conocido que se usa para la calibracion externa analizada anteriormente. Como la distancia entre el punto mas alto en el contorno y el punto mas bajo en el contorno define la altura de la persona, siempre que el patron este en el suelo, la parte mas baja del contorno se proyectara sobre el mismo plano que el patron. El punto mas alto en el contorno se puede proyectar entonces sobre un plano perpendicular al suelo, orientado hacia la camara y situado en la proyeccion 3d del punto mas bajo.
Una vez que la altura de la persona se ha calculado a partir de la imagen o imagenes del usuario, la imagen o imagenes pueden dividirse ademas en las regiones 20 en las que la probabilidad de encontrar medidas particulares es la mas alta. Por ejemplo, se puede definir o clasificar una region en la que es probable que se encuentre la medida de la cintura. Preferiblemente, el sistema usa imagenes de dos poses diferentes para el mismo usuario con el fin de definir regiones de maxima confianza para localizar tipos de medidas particulares.
Una vez que se ha creado la silueta de alta definicion y se han definido las regiones probabilfsticas, el sistema puede calcular medidas 21 a partir de la imagen procesada del usuario. Aunque la imagen se ha procesado hasta cierto punto antes de que se calculen las medidas, las medidas se obtienen de la misma imagen en lugar de obtenerse de un modelo generico. Las medidas no se basan en las entradas numericas del usuario, aunque el
9
5
10
15
20
25
30
35
40
45
50
55
60
sistema puede incluir una interfaz para que el usuario introduzca tales medidas. Tampoco el sistema se basa en la estimacion de las medidas basadas en modelos genericos u otra informacion de bases de datos.
Como se apreciara a partir de la descripcion anterior, en el punto en el que comienza el calculo de medidas, el sistema deberia conocer la pose de la persona en la imagen que se analiza y deberia haber definido un conjunto de regiones en las que pueden establecerse medidas particulares. Tambien puede haber incluido una base de datos con cualquier medida que ya se haya detectado, tal como la altura de la persona analizada anteriormente.
Se apreciara que cada imagen de un individuo sera diferente y cada pose requiere diferentes etapas de procesamiento respectivas para obtener informacion de medidas de esta. Sin embargo, el principio de obtencion de medidas a partir de las imagenes, como se describe en el presente documento, se aplica a diferentes tipos de imagenes y de poses. Al comienzo de la obtencion de medidas, puede aplicarse una de dos situaciones a un valor de medidas particular. En primer lugar, la colocacion de las medidas puede ser completamente desconocida para el sistema. Alternativamente, la colocacion de las medidas puede ya conocerse a partir de otra imagen o a partir de una etapa de procesamiento previa. En el primer caso, las regiones de probabilidad definidas en 20 del proceso mostrado en figura 2a se pueden usar para encontrar la posicion de las medidas en cuestion. En esta ultima situacion, las medidas se pueden encontrar de forma mas precisa a partir de la informacion ya disponible para el sistema. En la situacion en la que ya se conoce la ubicacion precisa de las medidas, los datos de medidas se pueden obtener a partir de la silueta de alta definicion, por ejemplo, midiendo una anchura bidimensional en la misma. Se puede utilizar un modelo 3D estandar en combinacion con la silueta de alta definicion del individuo para ayudar en la obtencion de medidas. Esto se analiza mas adelante.
En la situacion en la que aun no se conoce la posicion precisa de unas medidas en particular, el sistema puede analizar la region probabilistica donde se supone que debe tener lugar la medicion rasterizando una linea a traves de la region. La rasterizacion es una tecnica de escaneo que sera conocida por el lector experto. En el presente sistema, en cada etapa de la rasterizacion, se registra la interseccion de la linea de rasterizacion horizontal con ambos lados del contorno del cuerpo del cliente y las distancias entre esas intersecciones se identifican como la anchura de una parte del cuerpo. La variacion de esa anchura a traves del proceso de rasterizacion define un area donde las concavidades y/o convexidades de la silueta de alta definicion dan lugar a una anchura con un valor minimo o maximo. El sistema puede seleccionar una anchura maxima o minima dependiendo de las medidas que busca, por ejemplo, la medida de la cadera requiere una anchura maxima mientras que la medida de la cintura requiere una anchura minima. Los dos puntos de interseccion asociados al valor de anchura maximo o minimo seleccionado se proyectan luego en el espacio 3D para calcular la anchura 3D de la medida. Este valor 3D calculado se registra como una de las anchuras 3D para esa medida en cuestion. La posicion 3D de la medida se calcula en funcion de la colocacion de las dos intersecciones proyectadas.
En caso de que el sistema no pueda encontrar una anchura con un valor maximo o minimo en la region probabilistica identificada para una medida particular, puede decidir ignorar esa imagen y usar en su lugar otra imagen para obtener los datos de medidas. Esto puede implicar evaluar imagenes introducidas previamente por el usuario y/o solicitar al usuario que introduzca imagenes adicionales.
Despues de que se hayan procesado todas las imagenes y se hayan calculado las medidas a partir de esas imagenes, el sistema tendra un conjunto de valores 3D para representar una serie de contornos y longitudes del modelo que se va a crear. Ejemplos de contornos y longitudes para los que el sistema puede obtener valores 3D incluyen de talon a dedos de los pies, de tobillo a rodilla, de rodilla a muslo, de muslo a cadera y de cadera a cintura. El valor final para cada medida particular (contorno o longitud) que se debe usar en el modelo tridimensional creado es una combinacion de dos o mas de esas anchuras 3D obtenidas a partir de los datos de imagen para esa medida. Por ejemplo, si se calculan diferentes longitudes de talon a dedos de los pies a partir de diferentes imagenes para el mismo individuo, el valor medio puede calcularse para su uso en el modelo tridimensional y la desviacion estandar de las medidas puede mantenerse como una medida de error posible. Para contornos, el sistema debe tener en cuenta valores de forma, asi como de longitud. El sistema puede adaptarse a esto al equiparar formas corporales con formas geometricas. Por ejemplo, la forma de una cintura se puede asemejar a una elipse. Se ha encontrado que tal semejanza es suficientemente precisa como para crear el modelo tridimensional. La semejanza de la elipse se puede implementar separando todas las longitudes medidas para el individuo en dos modulos o grupos, para cada uno de los cuales se calcula la desviacion media y la desviacion estandar. Las dos medias se usan como las longitudes de un eje de dos elipses y la desviacion estandar se usa para controlar la forma de la elipse, como resultado de lo cual se puede crear una representacion precisa del individuo. La desviacion estandar proporciona informacion referente a la forma. Por ejemplo, una desviacion estandar de 0 indica que la forma es un ovalo perfecto, mientras que una gran desviacion indica que la forma es mas rectangular que la eliptica.
Al final de este proceso, que se muestra como etapa 21 en figura 2a, el sistema puede generar un conjunto de medidas corporales para utilizar mas adelante en el proceso para crear el modelo tridimensional unico o “clon”. Los datos de medidas proceden de las propias imagenes del usuario y, por tanto, van a ser utiles para crear un modelo tridimensional realista de ese usuario y para mostrar como se van a adaptar las prendas a ese usuario durante el proceso de simulacion de prueba.
Preparacion de modelo base
5
10
15
20
25
30
35
40
45
50
55
El sistema usa un modelo base especialmente preparado para crear el “clon” de usuario. Preferiblemente, el modelo base comprende un esqueleto tridimensional que se puede adaptar a los datos de medidas obtenidos directamente de las imagenes del usuario para la creacion del clon. Para preparar el esqueleto, se ajusta un esqueleto generico en la malla que representa un modelo corporal 3D estandar. El sistema puede usar cualquier tecnica adecuada de ajuste de esqueleto de modelo tridimensional estandar que sera conocida para el lector experto para ajustar el esqueleto en la malla.
El proceso de creacion de malla para el modelo corporal 3D estandar puede funcionar de acuerdo con una serie de limitaciones. Por ejemplo, puede requerirse que la malla este completamente cerrada, que no contenga ningun borde duplicado o triangulos muy deformados o que cualquier vertice del modelo pueda llegar a cualquier otro vertice. La reconstruccion de malla puede implementarse usando cualquier software conocido adecuado. Tambien se debe poder controlar la complejidad de generacion del modelo, manteniendo el volumen coherente y haciendo que el modelo corporal sea independiente de la complejidad de la importacion. Una vez que se crea la malla, el esqueleto se coloca en el modelo 3D estandar.
Una vez que se ha creado una malla 3D estandar y el esqueleto correspondiente, el esqueleto se puede modificar o restringir manualmente. Esto se hace antes de que el software sea suministrado al usuario final ya que el esqueleto no es especifico del usuario. El esqueleto se usara mas adelante para introducir en el modelo estandar las medidas obtenidas previamente de las imagenes del usuario. Por esa razon, es importante que el esqueleto del modelo estandar use la misma interpretacion que hacen los procesos de analisis de imagenes durante la obtencion de los datos de las imagenes.
Transformacion de Modelo 3D
El esqueleto 3D que se creo originalmente a partir de un modelo 3D estandar se adapta a las medidas tomadas de imagenes de un usuario individual como se muestra en la etapa 25 en la figura 2a. A continuacion, ese esqueleto se puede usar para crear un nuevo modelo tridimensional o “clon”, que se deforma en comparacion con el modelo 3D estandar, donde esas deformaciones reflejan las medidas reales obtenidas de las imagenes del usuario. Como se muestra en figura 9 en este documento, se pueden usar definiciones de referencia para adaptar las medidas obtenidas a partir de los datos de imagen del usuario a partes del esqueleto para crear el modelo corporal deformado.
Debido a que el esqueleto y el modelo que se va a crear a partir del mismo son tridimensionales, la adaptacion la debe realizar un sistema de adaptacion en dos etapas, en el que se adapta una longitud o anchura y tambien se adapta un contorno.
La figura 10 muestra un ejemplo de un proceso de adaptacion de longitud o anchura. Como se muestra en este documento, la longitud original del esqueleto tridimensional tal como se formo a partir del modelo estandar desde el pie a la cabeza se puede cambiar en funcion de los datos de medidas reales para el usuario tal como se obtienen a partir de sus imagenes.
La figura 11 muestra un proceso de adaptacion de contorno. Durante ese proceso, los vertices corporales para una parte determinada del cuerpo se mueven en una direccion no lineal. El esqueleto que se muestra en la figura 11 no define un centro de contorno, sino que define un “punto bloqueado” de contorno y todos los vertices se mueven de atras hacia adelante o viceversa, con respecto al punto fijo de bloqueo. Este movimiento de los vertices funciona en el supuesto de que los musculos y la grasa del cuerpo siempre se extiendan principalmente en una direccion y no en una direccion circular uniforme.
El ejemplo particular que se muestra en figura 11 es un corte transversal de una parte del cuerpo, por ejemplo, la cintura o la parte inferior de una pierna. El sistema puede incluir informacion preprogramada con respecto a la direccion principal para deformar la longitud en una direccion particular que depende de la parte del cuerpo que se esta tratando. Por ejemplo, para la cintura, la direccion principal es hacia delante, mientras que para la parte inferior de la pierna es hacia atras. Por tanto, el sistema puede hacer una seleccion inteligente para deformar el esqueleto tridimensional estandar a fin de que se parezca mas al usuario real en cuestion en funcion de las limitaciones reales del cuerpo y el esqueleto.
Como se puede entender a partir de la figura 2a, si todas las medidas requeridas son obtenidas a partir de los datos de imagen por el sistema, esas medidas pueden ser suficientes para deformar el esqueleto lo suficiente como para que el modelo resultante sea un modelo preciso del usuario y, por tanto, para que el modelo tridimensional o “clon” pueda ser generado como se muestra en la etapa 27 en figura 2a. Ademas de generarse el clon a partir del esqueleto deformado, las medidas exactas del cuerpo se pueden obtener del esqueleto deformado para el cuerpo del usuario. Como se aprecia a partir de la descripcion anterior, esas medidas exactas obtenidas del modelo deformado seran muy precisas para el usuario dado que los datos de medidas reales del usuario, tal como se obtienen de sus imagenes, se han utilizado para deformar un modelo estandar con el fin de producir el modelo deformado a partir del cual se obtienen esas medidas. Del mismo modo, el modelo tridimensional generado como una imagen visual en la etapa 27 de figura 2a sera muy preciso.
Otro metodo para crear un modelo con medidas
5
10
15
20
25
30
35
40
45
50
55
En caso de que no se puedan obtener todas las medidas requeridas a partir de las imagenes del usuario, como se muestra en la etapa 23 en figura 2a, el sistema puede usar la informacion de calibracion externa obtenida previamente para obtener cualquier informacion adicional requerida.
Para hacerlo, y tal como se muestra en la etapa 28 en figura 2a de este documento, el sistema hace uso de la informacion de calibracion externa obtenida previamente para el dispositivo de adquisicion de imagenes del usuario con el fin de alinear las imagenes del usuario con un modelo tridimensional estandar. Para hacerlo, el sistema coloca en primer lugar camaras virtuales en las mismas posiciones que el dispositivo de adquisicion de imagenes del usuario con respecto al suelo en cada una de las imagenes proporcionadas por el usuario. Una vez que se han establecido las posiciones de la camara virtual, se coloca un modelo 3D estandar frente a cada camara virtual, a la misma distancia a la que el usuario se coloco del dispositivo de adquisicion de imagenes reales en la imagen correspondiente y en la misma pose de usuario. Por tanto, la posicion del modelo 3D estandar se alinea con el usuario que posa en cada una de sus imagenes, como se muestra en la etapa 29 en figura 2a de este documento.
Una vez que se ha completado la alineacion 29 del modelo estandar y las imagenes del usuario, con las camaras virtuales y reales alineadas entre si, el modelo tridimensional estandar se puede transformar 30 en la forma del cuerpo del usuario.
El proceso de transformacion del modelo tridimensional a la forma del cliente se puede ejecutar utilizando un algoritmo iterativo. El sistema puede seleccionar un parametro particular o un conjunto de parametros para ser modificados. Despues de cada modificacion de parametro, o despues de un numero predeterminado de modificaciones de parametro, el contorno del modelo 3D en cada camara virtual se compara con la silueta de la persona en las imagenes reales. Los parametros pueden variarse hasta que la diferencia entre la silueta virtual y la silueta real descienda por debajo de un umbral minimo predeterminado. El sistema puede seleccionar que parametros variar y en que proporcion, para transformar el modelo tridimensional estandar de la manera que mejor represente al usuario.
Para mejorar aun mas el proceso de transformacion, la variacion de parametro se aplicara por separado al modelo tridimensional estandar en diferentes poses y posiciones respectivas con respecto a las camaras virtuales, que corresponden a las poses y posiciones en las diferentes imagenes de usuario.
Preferiblemente, la modificacion de un parametro particular para una posicion del modelo tendra el mismo efecto para todas sus posiciones, ya que todas forman parte del mismo modelo 3D.
Una vez que se ha creado un modelo tridimensional transformado acordado, las medidas exactas para el usuario se pueden obtener del mismo encontrando la posicion de cada medida requerida en el valor transformado y midiendo su valor a partir del mismo. Tambien se puede generar un “clon” visual o el modelo tridimensional del usuario.
El conjunto de medidas del cuerpo del usuario obtenidas del modelo 3-d estandar deformado deben coincidir sustancialmente con las medidas calculadas previamente obtenidas de las imagenes del usuario en la etapa 21 de la figura 2a. El sistema puede verificar esto y puede repetir cualquiera de las etapas del proceso descritas anteriormente para alcanzar un nivel aceptable de coincidencia entre los dos conjuntos de medidas.
Una vez que el sistema esta satisfecho con las medidas del cuerpo que se han obtenido, el usuario puede comenzar a usar su modelo tridimensional o “clon” para la simulacion de prueba virtual de ropa.
Como se muestra en la etapa 34 en la figura 2, el usuario en la practica puede tener que grabar su clon para comenzar a usarlo para el proceso de ajuste de prendas de vestir. Esta es una etapa administrativa y no es esencial para la creacion del clon como se describe anteriormente.
Accesorios para el modelo 3D unico del usuario
El usuario debe poder anadir detalles a su clon. Por ejemplo, debe poder elegir entre una opcion de peinado para probar que se parezca mucho a su propio cabello o a un cabello que le gustaria probar tal como una peluca. Tales detalles pueden ayudar a generar un modelo tridimensional que, por ejemplo, este vestido y complementado con ropa y accesorios en capas. El modelo debe poder girar hasta 360°. El sistema deberia ser capaz de mostrar el modelo tridimensional del usuario en animacion, por ejemplo, caminando y en diferentes lugares o escenas fisicas. El sistema tambien debe poder permitir que el modelo de cada usuario se muestre interactuando con otros modelos 3D animados.
El usuario debe poder utilizar el modelo tridimensional exclusivo en redes sociales y en comunidades en linea como su imagen de perfil. El modelo puede comprender animacion facial y animacion corporal. Opcionalmente, el modelo tridimensional puede ser capaz de hablar y/o interactuar. La voz podria ser proporcionada por el cliente a traves de un microfono utilizando el protocolo de voz por Internet (VOIP). El clon puede convertirse en el representante del cliente en mundos en virtuales.
Opcionalmente, el sistema debe poder usar la imagen de la cara del cliente y mapearla sobre el modelo tridimensional para que se parezca al cliente. Adicional o alternativamente, el sistema debe poder analizar las
5
10
15
20
25
30
35
40
45
50
55
caracteristicas y proporciones faciales, el color del cabello, el tono de la piel y/o el peinado para actualizar aun mas el modelo y/o para proporcionar una filtracion de ropa y consejos de estilo para el usuario.
Creacion de un modelo de prenda de vestir
Convencionalmente en la industria textil, los disenadores proporcionan suficiente informacion a partir de la cual se puede cortar la tela y se pueden confeccionar prendas en cualquier fabrica. Por lo general, esto se produce en archivos CAD, de diferentes formatos, pero se puede usar cualquier otro formato de archivo. El sistema descrito aqui permite al disenador o a otro grupo anadir informacion adicional a la informacion estandar proporcionada por los disenadores en su archivo de diseno para automatizar la creacion de prendas tridimensionales virtuales.
Ademas de los datos de geometria para una prenda (las piezas), que se pueden obtener a partir del archivo CAD del disenador, se requiere informacion sobre las especificaciones tecnicas de la prenda (a las que se hace referencia aqui como metadatos). Los metadatos describen aspectos visuales y caracteristicas de comportamiento de la prenda, tales como el material de la tela, la textura, el color, el patron, la elasticidad, la transparencia, etc. Una fotografia del material tambien se puede usar para crear un mapa de textura de la tela.
Como se muestra en la etapa 36 en la figura 2b de este documento, el presente sistema puede definir metadatos para guiar a los disenadores para introducir datos adicionales referentes a sus prendas para el servicio virtual de simulacion de prueba en 3D. Los metadatos proporcionados por los disenadores se pueden anadir al archivo CAD convencional para una prenda en particular.
Ademas de metadatos, el sistema define referencias de posicion para prendas. El objetivo de las referencias es poder orientar las prendas de vestir de la manera correcta e identificar que bordes coser entre si para formar una prenda 3D, tal como cuando el corte real de piezas y bordes coincidentes y costuras se realiza normalmente en una fabrica. Las costuras que hay que coser pueden incluir bordes externos, trozos entre los lados posterior y frontal de una prenda, trozos en esquinas tales como hombros, costuras internas u otras de referencias que representan costuras directas en el mismo lado del cuerpo. La figura 12 muestra un ejemplo de papel creado manualmente de las piezas componentes de una prenda, en este caso, una camisa, y las referencias en la misma etiquetadas de acuerdo con diferentes costuras para unir. Por ejemplo, los tipos que comienzan con “T” indican una costura entre la parte posterior de la camisa y la parte delantera de la camisa.
La informacion de referencias para una prenda se puede crear de forma manual o semiautomaticamente en la etapa de diseno o despues, e importarla al archivo de la prenda que va a utilizar el presente sistema. Una vez que se han combinado los datos estandar, los metadatos y la informacion de referencias, un archivo adecuado para la prueba virtual esta listo y puede cargarse en la base de datos del servidor, este es el archivo de Belcurves mencionado anteriormente.
La informacion estandar disponible de un disenador en un archivo CAD describe la geometria de la prenda. Normalmente, el archivo describira una prenda, aunque en diferentes tamanos. Cuando se solicita una simulacion, el sistema puede seleccionar un tamano particular, por ejemplo, 12 y seleccionar las piezas relevantes de la prenda que, cuando se cosen entre si, van a componer la prenda completa de tamano 12 a partir de ese archivo CAD particular. Ademas, o alternativamente, si hay varias partes simetricas en una prenda, por ejemplo, mangas derecha e izquierda, el sistema puede almacenar una imagen solo de una de esas partes y puede duplicarla posteriormente durante el proceso de prueba virtual. El sistema puede actualizar automaticamente una imagen almacenada de una prenda o parte de una prenda basandose en metadatos y/o informacion de referencias introducidos. Alternativamente, el sistema puede basarse en una actualizacion manual de los datos de geometria de la prenda basados en datos de referencias y/o metadatos.
El archivo de la prenda (denominado “archivo CAD de Belcurves”) generado en la etapa 40 que se muestra en la figura 2b debe incluir una representacion geometrica de la prenda en formato tridimensional para cada tamano de prenda diferente. Tambien se debe incluir informacion adicional, tal como donde estan situados puntadas, bolsillos, botones, pliegues, punos u otros detalles de diseno, en el mismo archivo o en uno adicional, especialmente si tales detalles no son inmediatamente evidentes a partir de la geometria de la prenda. Ademas, el archivo de la prenda va a incluir informacion sobre el color, la textura y el patron, el grosor y la textura del material y otras propiedades del material, tales como la rigidez y la division porcentual de los materiales utilizados en la prenda.
El archivo debe incluir una imagen de la prenda y preferiblemente tambien un conjunto de imagenes de la tela incluyendo cualquier forro que puede ser de un color o tejido diferente a la parte principal del articulo. Tambien debe incluir una tabla de consulta que muestre las medidas para los tamanos estandar del disenador (por ejemplo, 10, 12, 14, etc.).
Simulacion de prueba virtual
Una vez que el cliente ha creado un “clon”, ahora puede seleccionar una prenda para probar a partir de una lista o conjunto de imagenes de la prenda, por ejemplo, disponible en una tienda online. Antes de proporcionar una visualizacion de un ajuste de prenda, el presente sistema puede ayudar al usuario filtrando tipos o tamanos de prenda que a primera vista no serian adecuados. Como primera comprobacion, el sistema puede comparar las
5
10
15
20
25
30
35
40
45
50
55
medidas corporales obtenidas del “clon” unico o modelo tridimensional para un usuario con informacion predeterminada en la tabla de consulta. El sistema usa el “clon” para comparar las medidas reales del cliente con el sistema de tallas del fabricante por prenda. Como resultado de la comparacion, cuando el usuario selecciona una prenda (por ejemplo, un vestido negro), el sistema seleccionara automaticamente el primer tamano bueno para una simulacion.
Se pueden proporcionar diferentes tamanos de prendas sugeridos dependiendo del tipo particular de prenda que este buscando un usuario. Por ejemplo, un tamano puede aplicarse a prendas para la mitad inferior del cuerpo del usuario y otro tamano puede aplicarse a prendas para la mitad superior. Ademas, o alternativamente, el tamano sugerido de la prenda puede diferir entre el estilo de la prenda y/o entre diferentes marcas de prenda. El sistema puede funcionar de modo que, si unas medidas dadas para una prenda la hacen inadecuada para el usuario de acuerdo con las medidas y proporciones de su modelo tridimensional, esa prenda no se usara en una simulacion. Por ejemplo, si la longitud del hombro de una prenda determinada es mas corta que la medida del hombro del cuerpo del modelo tridimensional, el programa no permitira que esta prenda se ajuste al modelo. Esto es lo mismo que pedirle a un dependiente un tamano determinado para llevar al vestuario.
Como se muestra en la figura 2c, una vez que el sistema ha seleccionado un tamano de prenda sugerido para la simulacion, puede procesar/buscar los archivos de prendas almacenados y obtener un subconjunto de prendas sugeridas a partir de la seleccion o selecciones de prendas iniciales del usuario.
Preparacion de prendas para simulacion
Para comenzar a simular la prueba de una prenda en el modelo tridimensional del usuario, primero se genera una cuadricula como se muestra en la etapa 45 en figura 2c.
El proposito del proceso de generacion de cuadricula es colocar piezas de una prenda alrededor del modelo tridimensional del cuerpo del usuario unico. La colocacion y el tamano de las celdas de la cuadricula reflejan la distribucion natural de las regiones corporales del modelo. Para ser mas exactos, las celdas de esta cuadricula se basan en el esqueleto y en las medidas corporales adquiridas en la etapa anterior. Por tanto, el tamano y la forma de esas celdas variaran de acuerdo con el usuario individual que se modele. Por ejemplo, los nodos correspondientes al tobillo y la rodilla del esqueleto se utilizan para delimitar la longitud de la celda que se va a vincular a la parte inferior de la pierna. La anchura y el contorno de la pantorrilla se usan para crear los tamanos (anchura y profundidad) de la celda. Se puede usar cualquier numero adecuado de celdas de cuadricula, ya que va a depender de la complejidad del esqueleto del cuerpo.
La prenda se puede colocar aproximadamente alrededor del cuerpo usando la cuadricula, como se muestra en figura 14, en combinacion con la informacion de referencias previamente determinadas para esa prenda. De acuerdo con una realizacion, la primera etapa en el proceso de colocacion consiste en colocar una primera pieza de la prenda en una celda correspondiente. La celda seleccionada para esta primera pieza dependera del tipo de prenda y de la division de las celdas de la cuadricula con respecto al modelo. Una vez que el sistema ha colocado una primera pieza, se pueden anadir otras piezas de acuerdo con las referencias predefinidas. Por ejemplo, si una referencia define un vinculo directo entre dos piezas de una prenda, la pieza adyacente puede colocarse en una celda adyacente a la primera. De manera similar, si una referencia define un vinculo en el lado opuesto del cuerpo, se usa la cara opuesta de la misma celda. Este proceso puede continuar hasta que todas las piezas de la prenda hayan sido asignadas a una celda. Este proceso se puede entender mejor a partir de las figuras 15a a 15c.
Para que el proceso de ajuste de ropa sea realista, las prendas deben ser mas que simples formas. Por tanto, el sistema recrea mallas superficiales que pueden simular mecanicamente el drapeado y el montaje fisico de tela para la prenda. Tambien puede preparar virtualmente los bordes de las piezas de la prenda para coserlos entre si creando el mismo numero de puntos de costura en ambos. Para hacer esto, el sistema define todos los bordes de cada pieza de la prenda, lo que se puede hacer usando las referencias previamente definidas. Tambien puede identificar bordes para coser entre si y discretizarlos con el mismo numero de intervalos.
El proceso de generacion de malla para ropa puede necesitar combinar dos bordes que tengan diferentes longitudes respectivas para un intervalo o parte particular de la prenda. Se puede utilizar cualquier proceso de muestreo o interpolacion adecuado para unir tales longitudes diferentes para calcular el borde de la prenda. Los nuevos puntos en la prenda, definidos por los bordes unidos, son almacenados por el sistema y se pueden usar para simulaciones futuras del comportamiento de la prenda, como se describe mas adelante. De hecho, esos bordes representan las costuras de la prenda, por lo que se aplicara una especificacion de material especial en esos puntos de la malla. Finalmente, el proceso para transformar piezas de prenda de mera forma a mallas superficiales utilizara el metodo de generacion de malla conocido por el lector experto y por tanto no se describe mas aqui.
La figura 16 muestra un ejemplo de una prenda mallada alrededor de un modelo tridimensional. En este ejemplo, un vestido se ha mallado utilizando una triangulacion Delaunay y se ha colocado alrededor de un cuerpo.
Al final de la etapa de mallado de la prenda, las piezas de la prenda deberian estar bien colocadas alrededor del modelo tridimensional del cuerpo del usuario, aunque las prendas todavia incluiran un conjunto de planos. Se ha reconocido aqui que, para comenzar a cerrar la tela para ajustar la prenda al modelo tridimensional, se debe realizar
5
10
15
20
25
30
35
40
45
50
55
una predeformacion geometrica en las piezas de la prenda. La predeformacion geometrica adicional se lleva a cabo antes de que se realice la combinacion automatica y el drapeado mecanico de la prenda en el cuerpo del clon.
Para realizar este proceso de deformacion inicial, el sistema mapea aproximadamente el modelo tridimensional del usuario unico como un conjunto de cilindros. Esto se muestra a modo de ejemplo en la figura 17. Tal como se muestra aqui, se puede definir un cilindro independiente para cada uno de: el tronco superior del cuerpo, el tronco inferior del cuerpo, cada pierna, cada brazo y mano y la cabeza del usuario. En la practica, se puede usar cualquier cantidad de cilindros para este proceso de mapeo.
Una vez que el modelo tridimensional ha sido mapeado de manera aproximada como se muestra en la figura 17, el sistema identifica con que cilindro debe coincidir cada pieza de la prenda. La informacion previamente identificada con respecto a la colocacion de la prenda, que se muestra como la etapa 46 en figura 2c de este documento, se puede usar como parte de este proceso de identificacion. El sistema mapea despues las piezas de la prenda de acuerdo con coordenadas de cilindro. La informacion del eje y el radio de los cilindros del cuerpo se puede usar para transformar las piezas de las prendas en coordenadas cilindricas y mapear esas coordenadas en los cilindros del cuerpo. Debido a que se realiza una transformacion de coordenadas convencionales (xyz) a coordenadas cilindricas (r, theta, z), las piezas de la prenda se pueden mapear en el cuerpo sin cambiar ninguna medida de longitud. Por tanto, el sistema mantiene la precision y puede funcionar de manera eficiente para el proceso de ajuste de prenda.
Inicializacion fisica de ajuste simulado de prenda
Como se apreciara a partir de las figuras 18a y 18b, una vez que las piezas de la prenda han sido mapeadas en los cilindros que rodean el cuerpo tridimensional, la preparacion de la tela esta casi completa. Lo que queda es unir las piezas de la prenda. Es importante que no se introduzcan errores en esta etapa. En particular, la prenda debe cerrarse sin introducir un error con respecto a la longitud de la tela, lo que seria de gran importancia para el cliente para la precision del tamano. Ademas, el proceso de combinacion debe simular con precision la costura completa del articulo terminado. Preferiblemente, el sistema realiza la union de la prenda al lograr una unica triangulacion que se simulara mecanicamente con un metodo de elementos finitos triangulares. Como es sabido por el lector experto, esta es una forma comun de simular tela calculando su comportamiento al nivel de cada triangulo de su malla.
El proceso de union se realiza topologicamente. Cuando se tienen que coser piezas de prendas de vestir, se eliminan puntos previamente definidos en los bordes de la prenda y se modifica la estructura de la prenda en esas areas. Por ejemplo, si se tienen que coser dos bordes etiquetados a y b, los puntos del borde b se pueden mover a distancias medias entre los bordes a y b. Los puntos del borde a se pueden eliminar y la estructura de la prenda se puede actualizar para que todos los triangulos u otras formas definidas dentro de la prenda que previamente incluian puntos en los bordes a esten usando puntos del borde b. Todos los otros bordes se pueden actualizar de manera similar para permitir que se muestren puntos consecutivos. La figura 19 muestra un ejemplo de este proceso para unir partes delantera y trasera de una prenda. Las figuras 20a y 20b muestran otro ejemplo con fotos del antes y el despues de un vestido que se esta uniendo.
Como se muestra en la etapa 52 en figura 2c, los datos triangulares deformados obtenidos durante el proceso de union pueden ser guardados por el sistema y utilizados mas adelante en el proceso.
Una vez que las piezas de una prenda se han unido como se muestra en las figuras 19 a 20b, la prenda debe interactuar con el “clon” del usuario mediante colision de una manera precisa y realista. Para calcular mecanicamente la colision entre dos objetos, se deben mapear en modelos de colision. A medida que se fija el cuerpo, se puede usar un mapa de distancias o una transformacion de distancias, en donde la distancia de todos los puntos del cuerpo desde el origen de la escena tridimensional se calcula y almacena en una tabla de consulta. A menudo, el almacenamiento puede optimizarse, por ejemplo, agrupando entre si puntos de la misma region. Esto se representa en la figura 21 de este documento. Un mapa de distancias del cuerpo tridimensional como resultado de este proceso. El mapa de distancias no depende de la cantidad de elementos que contenga, ya que puede muestrearse y remuestrearse segun lo requiera el sistema.
A medida que las piezas de la prenda se mueven durante la simulacion del drapeado, se deben usar otros modelos de colision para la prenda. La malla de la prenda se puede mapear en modelos de colision triangulares y/o en puntos. Esto significa que el sistema se verifica en cada repeticion de la simulacion si un punto o un triangulo de la malla de la prenda se cruza con otros modelos de colision de otros objetos en la escena. En este caso, el otro objeto es el modelo tridimensional del cuerpo del usuario. El sistema usara el mapa de distancias generado para saber donde estan los puntos del cuerpo y, por tanto, detectar la colision con la prenda.
Una vez que se ha establecido un mapa de distancias para el “clon” de modelo tridimensional y se han establecido modelos de colision para la prenda, el sistema puede implementar una simulacion de colision y luego simular el comportamiento real de la prenda en un cuerpo simulando la prenda, haciendo uso, por ejemplo, del metodo de elementos finitos triangulares. En este metodo, se realizan calculos en cada uno de los triangulos de la pluralidad para simular propiedades del material de la prenda, tales como elasticidad, flexion, etc. Ademas, todos los triangulos tienen una forma inicial y una rigidez para que se puedan deformar, aunque tambien para intentar converger en su forma inicial.
5
10
15
20
25
30
35
40
45
50
55
Debido a que la prenda se ha definido como un numero de partes componentes, y se ha proporcionado informacion con respecto a la costura de esas partes entre sf, la triangulacion funciona bien para la simulacion de ajuste de prenda. Las formas iniciales de los triangulos deformados que corresponden a las partes componentes de la prenda que se han almacenado, se usan en el metodo de elementos finitos en su inicializacion para informar al sistema de que esos triangulos ya estan deformados. El resultado es que esos triangulos se retraeran simulando la costura de la prenda. La figura 22 muestra un ejemplo de una malla triangular de vestido despues de la union.
Debido a que los datos de la prenda se procesan para que la prenda intente recuperar su forma inicial durante el proceso de union, aunque al mismo tiempo se vea forzada a encajar alrededor del modelo tridimensional del cuerpo del usuario, se realiza una simulacion realista de como se ajusta mecanicamente la prenda al usuario.
Ademas, debido a que la malla del clon del cuerpo del usuario y la malla de la prenda cerrada se crean en funcion de medidas del mundo real para la simulacion, la malla de la prenda cerrada se puede comparar con la malla del modelo corporal tridimensional. Esto proporciona un segundo metodo para medir el tamano correcto de la prenda para el cliente. Por ejemplo, si el numero de intersecciones entre las dos mallas es mayor que un nivel predeterminado, esto indica que la prenda es demasiado pequena. Si la prenda es demasiado pequena, el sistema puede repetir el proceso de ajuste para otro tamano.
El cliente no hace nada durante la simulacion de ajuste de prenda. En cambio, el sistema puede encontrar el tamano de prenda correcto con su proceso de comprobacion de multiples niveles. Preferiblemente, cada simulacion solo dura unos segundos, por lo que el proceso es eficiente para el cliente. Por ejemplo, el cliente puede buscar colecciones de ropa para encontrar prendas que le gustarfa probarse a continuacion al mismo tiempo.
Como siguiente etapa, el sistema puede verificar que la prenda no queda demasiado apretada en ninguna parte del cuerpo. La verificacion de “demasiado apretada” es diferente de “demasiado pequena”. En este caso, el usuario en realidad podrfa ponerse la prenda, pero quedarfa demasiado apretada. El nivel de malla de prenda se puede analizar para evaluar hasta que punto presiona el cuerpo. Si el sistema calcula una cantidad de presion por encima de un nivel predeterminado, significara que la prenda es demasiado estrecha para el cuerpo. Una vez mas, el sistema obtendra las piezas de una prenda de mayor tamano.
Una vez que las mallas de prenda y cuerpo se han comparado entre sf y se ha abordado cualquier problema obvio tal como un tamano incorrecto, un ajuste incorrecto o un estilo incorrecto teniendo en cuenta otra talla de prenda u otra prenda e ignorando esa prenda para el usuario, el modelo tridimensional del usuario unico puede mostrarse visualmente llevando puesta la prenda. Se puede visualizar en cualquier formato, tal como 3D, para webGL o 2D. Se puede mostrar visualmente en cualquier interfaz adecuada, tal como un telefono o un ordenador y en cualquier plataforma o entorno que pueda soportar 3D.
Despues de todos los calculos de simulacion, se pueden visualizar multiples prendas usadas como capas con compresion y montaje realistas. Por ejemplo, una camisa puede mostrarse metida en los pantalones vaqueros, una con un cinturon y asf sucesivamente.
En la practica, el funcionamiento del sistema descrito en este documento se puede ejecutar y controlar utilizando cualquier hardware o software adecuado. Las instrucciones para controlar el funcionamiento se pueden grabar en un soporte de grabacion digital o analogico o en un medio legible por ordenador. El soporte de grabacion puede comprender medios de almacenamiento opticos tales como un disco legible o tal vez en forma de una senal tal como un haz de laser enfocado. Tambien se puede usar un soporte de grabacion magnetico tal como un disco duro de ordenador para el almacenamiento de instrucciones a fin de controlar el sistema descrito aquf. Alternativamente, puede emplearse almacenamiento en estado solido o cualquier grabacion de senal adecuada.
Se puede programar un ordenador u otro medio de procesamiento adecuado, por ejemplo, una CPU, para ejecutar instrucciones para poner en marcha el sistema. Los medios de procesamiento tambien se pueden usar para grabar y/o almacenar datos relacionados con el sistema y su metodo de funcionamiento.
Aunque la descripcion anterior se refiere a formatos de archivo especfficos, se puede usar cualquier formato de archivo adecuado. El sistema puede ejecutarse en lfnea o fuera de lfnea. Se puede usar en combinacion con cualquier comercio minorista en lfnea o pagina web adecuado.
Aunque aquf se describe el ajuste de prendas en un cuerpo humano, los principios descritos se pueden aplicar a otros tipos de cuerpos, incluidos los animales.
Aunque la creacion de un modelo tridimensional de un cuerpo unico, la creacion de un modelo tridimensional de una prenda de vestir y la simulacion de una prenda que se ajusta a un cuerpo se han descrito aquf en combinacion, uno o mas de estos procesos se pueden ejecutar de forma independiente de otro u otros, en combinacion con cualquier otro proceso adecuado.
Las medidas del cuerpo y las regiones que se van a utilizar para la simulacion de modelado y ajuste de prenda no estan limitadas a los ejemplos particulares dados aquf. Se puede crear un modelo tridimensional del cuerpo de un individuo en funcion de cualquier medida seleccionada de ese cuerpo, tal como se obtiene a partir de imagenes bidimensionales del cuerpo. Las imagenes bidimensionales se pueden capturar utilizando cualquiera de una amplia
16
gama de equipos de adquisicion de imageries. No es necesario utilizar equipos profesionales de formacion de imageries o escaneo.
Por tanto, se proporciona un servicio de creacion de modelo y de ajuste virtual facil de usar. Permite al usuario ver un modelo realista de si mismo y ajustar prendas en el mismo con el fin de mostrar como quedaria la prenda cuando 5 el usuario la llevara en persona. El modelo de prenda usado puede mostrar propiedades fisicas reales, tales como caida, textura, ajuste y movimiento del material de la prenda. Por tanto, el usuario puede ajustar con precision su seleccion de prendas cuando utiliza un servicio de venta al por menor en linea. Como resultado de ello, el minorista en linea podra operar de manera mas eficiente, experimentar una mayor satisfaccion del cliente y requerir menos tiempo y menos recursos para hacer frente a la devolucion de productos no satisfactorios.
10

Claims (14)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    REIVINDICACIONES
    1. Metodo para crear un modelo tridimensional de un cuerpo unico; comprendiendo dicho metodo: obtener un modelo tridimensional de un cuerpo estandar;
    obtener una imagen bidimensional del cuerpo unico que se va a modelar; determinar una ubicacion del cuerpo unico en dicha imagen (12);
    usar los datos de ubicacion determinados para obtener una silueta bidimensional del cuerpo unico a partir de la imagen bidimensional (13);
    en el que la etapa de obtener una silueta bidimensional del cuerpo unico comprende: detectar un contorno del cuerpo unico en la imagen bidimensional; calcular las derivadas del contorno; y
    perfeccionar el contorno detectado usando dichas derivadas de contorno moviendo cada vertice de la silueta aproximada al punto de cruce por cero mas cercano; y
    seleccionar una medida para la cual se debe calcular un valor para el cuerpo unico; calcular un valor de dicha medida seleccionada a partir de la silueta bidimensional obtenida;
    usar dicho valor calculado de la medida seleccionada para actualizar una medida correspondiente en el modelo tridimensional de un cuerpo estandar; y
    generar el modelo tridimensional actualizado de un cuerpo estandar como un modelo tridimensional del cuerpo unico.
  2. 2. Metodo segun la reivindicacion 1, que comprende repetir dicha etapa de calculo de valor para una pluralidad de medidas seleccionadas, actualizar ademas las medidas correspondientes en el modelo tridimensional de un cuerpo estandar; y producir el modelo actualizado adicional como un modelo tridimensional del cuerpo unico.
  3. 3. Metodo segun la reivindicacion 1 o la reivindicacion 2, en el que la etapa de obtener una silueta bidimensional del cuerpo unico comprende al menos uno de: detectar un fondo en la imagen bidimensional y eliminar una parte de un fondo de la imagen bidimensional.
  4. 4. Metodo segun cualquiera de las reivindicaciones anteriores, en el que la etapa de obtener una silueta bidimensional del cuerpo unico a partir de la imagen bidimensional incluye identificar una anomalia en la silueta obtenida y eliminar dicha anomalia.
  5. 5. Metodo segun la reivindicacion 4, que comprende ademas reemplazar la anomalia eliminada por una parte de silueta de reemplazo, calculandose una curvatura de dicha parte de silueta de reemplazo usando una curvatura de al menos una parte adyacente en la silueta.
  6. 6. Metodo segun la reivindicacion 4 o la reivindicacion 5, que comprende ademas reemplazar la anomalia eliminada por una parte de silueta de reemplazo, calculandose una curvatura de dicha parte de silueta de reemplazo usando informacion predeterminada referente a las formas corporales.
  7. 7. Metodo segun cualquiera de las reivindicaciones 1 a 6, en el que el cuerpo unico que se va a modelar es un cuerpo humano.
  8. 8. Metodo segun cualquiera de las reivindicaciones 1 a 7, en el que la imagen bidimensional se obtiene usando cualquiera de: una camara digital, una camara web, un telefono inteligente, un dispositivo electronico portatil, un dispositivo de captura de imagenes estereo, un dispositivo de adquisicion de profundidad, un telemetro o un dispositivo de rayos X.
  9. 9. Medio de procesamiento programado y que se puede utilizar para ejecutar instrucciones para llevar a cabo el metodo de acuerdo con cualquiera de las reivindicaciones 1 a 8.
  10. 10. Soporte de grabacion que tiene instrucciones almacenadas en el mismo para ser ejecutadas por un medio de procesamiento para llevar a cabo el metodo de acuerdo con cualquiera de las reivindicaciones 1 a 8.
  11. 11. Soporte de grabacion segun la reivindicacion 10, en el que dicho soporte de grabacion incluye un medio de almacenamiento optico, magnetico o de estado solido o una senal legible.
  12. 12. Programa informatico que incluye instrucciones ejecutables por un medio de procesamiento para llevar a cabo el metodo de acuerdo con cualquiera de las reivindicaciones 1 a 8.
  13. 13. Sistema que comprende una memoria y un procesador, en el que el procesador esta dispuesto para realizar el metodo de las reivindicaciones 1 a 8.
  14. 14. Medio legible por ordenador que tiene instrucciones ejecutables por ordenador adaptadas para hacer que un sistema informatico realice el metodo segun cualquiera de las reivindicaciones 1 a 8.
ES12709059.5T 2011-03-14 2012-03-09 Servicio mejorado de simulación de prueba virtual Active ES2692391T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB201104312 2011-03-14
GBGB1104312.2A GB201104312D0 (en) 2011-03-14 2011-03-14 Improved virtual try on simulation service
PCT/EP2012/054069 WO2012123346A2 (en) 2011-03-14 2012-03-09 Improved virtual try on simulation service

Publications (1)

Publication Number Publication Date
ES2692391T3 true ES2692391T3 (es) 2018-12-03

Family

ID=43980976

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12709059.5T Active ES2692391T3 (es) 2011-03-14 2012-03-09 Servicio mejorado de simulación de prueba virtual

Country Status (8)

Country Link
US (1) US9990764B2 (es)
EP (1) EP2686834B1 (es)
DK (1) DK2686834T3 (es)
ES (1) ES2692391T3 (es)
GB (1) GB201104312D0 (es)
PL (1) PL2686834T3 (es)
TR (1) TR201815349T4 (es)
WO (1) WO2012123346A2 (es)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130170715A1 (en) * 2012-01-03 2013-07-04 Waymon B. Reed Garment modeling simulation system and process
US9361411B2 (en) 2013-03-15 2016-06-07 Honeywell International, Inc. System and method for selecting a respirator
TWI484437B (zh) * 2013-10-07 2015-05-11 Teknowledge Dev Corp 人體服飾配件的搭配方法
US9773274B2 (en) * 2013-12-02 2017-09-26 Scott William Curry System and method for online virtual fitting room
US10169795B2 (en) * 2013-12-10 2019-01-01 Google Technology Holdings LLC Sizing wearable items by device scanning
US9699123B2 (en) * 2014-04-01 2017-07-04 Ditto Technologies, Inc. Methods, systems, and non-transitory machine-readable medium for incorporating a series of images resident on a user device into an existing web browser session
RU2551731C1 (ru) * 2014-07-02 2015-05-27 Константин Александрович Караваев Способ виртуального подбора одежды
US20160092956A1 (en) * 2014-09-30 2016-03-31 Jonathan Su Garment size mapping
JP6423964B2 (ja) * 2014-11-18 2018-11-14 セント・ジュード・メディカル,カーディオロジー・ディヴィジョン,インコーポレイテッド 幾何学的構造のパッチ表面モデルを生成するための方法およびシステム
US9307360B1 (en) 2015-01-09 2016-04-05 NinthDecimal, Inc. Systems and methods to identify a predefined geographical region in which a mobile device is located
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN208569223U (zh) 2015-04-30 2019-03-01 奥克利有限公司 三维取向的校正眼镜
US10373244B2 (en) * 2015-07-15 2019-08-06 Futurewei Technologies, Inc. System and method for virtual clothes fitting based on video augmented reality in mobile phone
US20170046769A1 (en) * 2015-08-10 2017-02-16 Measur3D, Inc. Method and Apparatus to Provide A Clothing Model
US20200250892A1 (en) * 2015-08-10 2020-08-06 Measur3D, Llc Generation of Improved Clothing Models
US10636206B2 (en) * 2015-08-14 2020-04-28 Metail Limited Method and system for generating an image file of a 3D garment model on a 3D body model
GB2546572B (en) * 2015-08-14 2019-12-04 Metail Ltd Method and system for generating an image file of a 3D garment model on a 3D body model
US10168152B2 (en) 2015-10-02 2019-01-01 International Business Machines Corporation Using photogrammetry to aid identification and assembly of product parts
US11615462B2 (en) 2016-02-16 2023-03-28 Ohzone, Inc. System for virtually sharing customized clothing
US10127717B2 (en) 2016-02-16 2018-11-13 Ohzone, Inc. System for 3D Clothing Model Creation
US10373386B2 (en) 2016-02-16 2019-08-06 Ohzone, Inc. System and method for virtually trying-on clothing
US20170263031A1 (en) * 2016-03-09 2017-09-14 Trendage, Inc. Body visualization system
KR101763361B1 (ko) * 2016-07-21 2017-08-01 (주)클로버추얼패션 3d 의상 착장 시뮬레이션 방법 및 장치
CN106251200B (zh) * 2016-07-27 2019-10-18 华北电力大学 基于实例的虚拟试衣方法
WO2018027549A1 (zh) * 2016-08-09 2018-02-15 深圳市赛亿科技开发有限公司 一种虚拟试衣的系统及方法
JP6836038B2 (ja) * 2016-09-07 2021-02-24 和人 林 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム
FR3058250B1 (fr) * 2016-10-28 2019-07-05 Guillaume Vandevoorde Procede pour simuler le tombe d’un vetement sur une representation numerique d’un sujet, produit programme d’ordinateur et serveur associes
CN109891464B (zh) * 2017-01-06 2023-03-07 深圳市三维人工智能科技有限公司 一种3d人体模型的建立方法和系统
JP6904731B2 (ja) * 2017-03-01 2021-07-21 株式会社Zozo サイズ測定装置、管理サーバ、ユーザ端末及びサイズ測定システム
US11145138B2 (en) * 2017-04-28 2021-10-12 Linden Research, Inc. Virtual reality presentation of layers of clothing on avatars
US11094136B2 (en) 2017-04-28 2021-08-17 Linden Research, Inc. Virtual reality presentation of clothing fitted on avatars
US10777018B2 (en) * 2017-05-17 2020-09-15 Bespoke, Inc. Systems and methods for determining the scale of human anatomy from images
US10628997B2 (en) 2017-08-24 2020-04-21 Emilio Santos Method for generating three-dimensional models from constrained sketches and an instruction set
EP3704656A1 (en) 2017-11-02 2020-09-09 Measur3D, LLC Clothing model generation and display system
US11069116B2 (en) * 2018-02-21 2021-07-20 Autodesk, Inc. Hybrid structural-geometric technique for performing draping simulation of woven fabric composites
US11352739B2 (en) * 2018-02-27 2022-06-07 Levi Strauss & Co. Creating three-dimensional apparel imagery in an apparel design system
CN108665530B (zh) * 2018-04-25 2021-12-14 厦门大学 基于单张图片的三维建模实现方法
CN108629138A (zh) * 2018-05-14 2018-10-09 广东工业大学 装备动作库的建立方法、装备知识库和产品数据管理系统
JP7224112B2 (ja) * 2018-05-21 2023-02-17 Juki株式会社 縫製システム
EP3807905A4 (en) * 2018-06-13 2022-04-27 Vital Mechanics Research Inc. METHODS AND SYSTEMS FOR COMPUTER-ASSISTED PREDICTION OF CLOTHING FIT AND FUNCTION ON FLEXIBLE BODIES
CN110176063B (zh) * 2019-05-07 2022-05-27 浙江凌迪数字科技有限公司 一种基于人体拉普拉斯变形的服装变形方法
CN114667530A (zh) 2019-08-29 2022-06-24 利惠商业有限公司 具有服装和精加工的虚拟预览的数字陈列室
WO2021150056A1 (en) * 2020-01-23 2021-07-29 Clo Virtual Fashion Inc. Automatic determination of sewing lines for assembling pattern pieces of garment
US11461968B2 (en) * 2020-01-30 2022-10-04 Unity Technologies Sf Method of inferring microdetail on skin animation
US20210342931A1 (en) * 2020-05-04 2021-11-04 Meazure Me Custom HD, LLC Methods and systems for automated selection and ordering of hair products
US20230306699A1 (en) * 2022-03-22 2023-09-28 Amazon Technologies, Inc. Virtual garment wrapping for draping simulation
WO2024018431A1 (en) * 2022-07-21 2024-01-25 Sharma Devansh A smart system for producing realistic visual motion based apparel experience
CN116645494B (zh) * 2023-06-29 2024-02-23 云创设计(深圳)集团有限公司 基于模型矫正的虚拟试衣系统及方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0101371D0 (en) * 2001-01-19 2001-03-07 Virtual Mirrors Ltd Production and visualisation of garments
WO2002076251A2 (en) * 2001-03-08 2002-10-03 Saint Laurie, Ltd. A system and method for fitting clothing
GB0800958D0 (en) 2008-01-18 2008-02-27 Bell Alexandra Garment filter generation system and method
EP2369992A1 (en) * 2008-12-04 2011-10-05 Real Imaging Ltd. Method apparatus and system for determining a thermal signature
US20100151430A1 (en) * 2008-12-12 2010-06-17 Kit Jones Consulting Limited Identifying a body shape
EP2383696A1 (en) * 2010-04-30 2011-11-02 LiberoVision AG Method for estimating a pose of an articulated object model
EP2580708A4 (en) * 2010-06-10 2016-11-16 Univ Brown PARAMETRIZED 2D HUMAN MODEL WITH RACES

Also Published As

Publication number Publication date
US20140225888A1 (en) 2014-08-14
EP2686834A2 (en) 2014-01-22
WO2012123346A3 (en) 2012-11-08
EP2686834B1 (en) 2018-08-08
US9990764B2 (en) 2018-06-05
DK2686834T3 (en) 2018-11-05
GB201104312D0 (en) 2011-04-27
WO2012123346A2 (en) 2012-09-20
TR201815349T4 (tr) 2018-11-21
PL2686834T3 (pl) 2019-03-29

Similar Documents

Publication Publication Date Title
ES2692391T3 (es) Servicio mejorado de simulación de prueba virtual
US10573091B2 (en) Systems and methods to create a virtual object or avatar
RU2551731C1 (ru) Способ виртуального подбора одежды
US8571698B2 (en) Simple techniques for three-dimensional modeling
US11640672B2 (en) Method and system for wireless ultra-low footprint body scanning
US10628666B2 (en) Cloud server body scan data system
D'Apuzzo 3D body scanning technology for fashion and apparel industry
KR101707707B1 (ko) 인체 모델을 이용한 가상 아이템 피팅 방법 및 가상 아이템의 피팅 서비스 제공 시스템
CN107924579A (zh) 生成个性化3d头部模型或3d身体模型的方法
ES2693028T3 (es) Sistema y método para derivar mediciones de talla de cuerpo precisas a partir de una secuencia de imágenes en 2D
US9715759B2 (en) Reference object for three-dimensional modeling
CN106373178A (zh) 生成人工图像的装置和方法
US20110298897A1 (en) System and method for 3d virtual try-on of apparel on an avatar
KR101499698B1 (ko) 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 장치 및 방법
WO2014081394A1 (en) Method, apparatus and system for virtual clothes modelling
JP2013190974A (ja) 情報処理装置および情報処理方法、ならびに、プログラム
JP5476471B2 (ja) 複雑なおよび/または変形可能なオブジェクトの表現および着用できるオブジェクトの仮想フィッティング
KR101557492B1 (ko) 깊이 정보 기반으로 사용자의 3차원 신체 모델을 생성하는 방법 및 장치
AU2017260525B2 (en) Method and system for body scanning and display of biometric data
KR101499699B1 (ko) 깊이 정보 기반으로 사용자의 3차원 신체 모델을 생성하는 방법 및 장치
Lim Three dimensional virtual try-on technologies in the achievement and testing of fit for mass customization
RU2615911C1 (ru) Способ и система построения реалистичного 3d аватара покупателя для виртуальной примерочной
WO2018182938A1 (en) Method and system for wireless ultra-low footprint body scanning
Ami-Williams et al. Digitizing traditional dances under extreme clothing: The case study of eyo
Siegmund et al. Virtual Fitting Pipeline: Body Dimension Recognition, Cloth Modeling, and On-Body Simulation.