KR20210130420A - System for smart three dimensional garment fitting and the method for providing garment fitting service using there of - Google Patents

System for smart three dimensional garment fitting and the method for providing garment fitting service using there of Download PDF

Info

Publication number
KR20210130420A
KR20210130420A KR1020200048598A KR20200048598A KR20210130420A KR 20210130420 A KR20210130420 A KR 20210130420A KR 1020200048598 A KR1020200048598 A KR 1020200048598A KR 20200048598 A KR20200048598 A KR 20200048598A KR 20210130420 A KR20210130420 A KR 20210130420A
Authority
KR
South Korea
Prior art keywords
dimensional
texture
avatar
user
clothes
Prior art date
Application number
KR1020200048598A
Other languages
Korean (ko)
Inventor
박신지
Original Assignee
주식회사 애딧
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 애딧 filed Critical 주식회사 애딧
Priority to KR1020200048598A priority Critical patent/KR20210130420A/en
Publication of KR20210130420A publication Critical patent/KR20210130420A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0609Buyer or seller confidence or verification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a smart three-dimensional (3D) clothes fitting system and a clothes fitting service providing method using the same and, more specifically, to a smart 3D clothes fitting system by combination between a 3D avatar file and a 3D texture file and a clothes fitting service providing method using the same. To this end, a 3D avatar wearing a 3D costume is generated by using a user's 3D avatar generated by a 3D avatar generation system and a 3D texture of clothes generated by a 3D texture generation system are generated, and an image in which the user is wearing clothes in reality can be provided by using the user's 3D avatar. Accordingly, a user can view various user's wearing appearances autonomously.

Description

스마트 삼차원 의류 피팅 시스템 및 이를 이용한 의류 피팅 서비스 제공 방법{System for smart three dimensional garment fitting and the method for providing garment fitting service using there of}A smart three-dimensional garment fitting system and a method for providing a garment fitting service using the same {System for smart three dimensional garment fitting and the method for providing garment fitting service using there of}

본 발명은 삼차원 피팅 시스템 및 이를 이용한 의류 피팅 서비스 제공방법을 제공하는 것으로, 보다 자세하게는 삼차원 아바타 파일, 삼차원 텍스처 파일 사이의 결합에 의한 스마트 삼차원 피팅 시스템 및 이를 이용한 의류 피팅 서비스 제공 방법에 관한 것이다.The present invention provides a three-dimensional fitting system and a method for providing a clothing fitting service using the same, and more particularly, to a smart three-dimensional fitting system by combining a three-dimensional avatar file and a three-dimensional texture file, and a method for providing a clothing fitting service using the same.

소비자는 전통적으로 의류 구매를 하기 위하여 직접 의류 매장을 방문하여 마음에 드는 옷을 확인하고 피팅룸에 들어가서 옷을 직접 착용하여 어울리는지 확인하였다. 최근 인터넷 기술의 발전과 스마트 폰과 같은 모바일 단말기를 이용하여 직접 의류 매장에 방문하지 않고 쇼핑몰 사이트에서 판매자가 업로드한 제품의 이미지 또는 동영상을 시청하여 구매하는 경향이 증가하였다. 오프라인 대비 온라인을 통한 의류 구매의 장점은 직접 매장을 방문하지 않고 손쉽게 옷을 구입할 수 있게 되었다는 점이나, 반대로 실제 옷을 착용하지 않고 구매하기 때문에 집 또는 회사에서 제품을 받은 후 착용하였을 때 옷이 맞지 않거나, 어울리지 않음을 뒤늦게 알게 되는 문제가 발생하였고, 반품의 원인이 되었다. 이러한 문제점을 해결하기 위하여 가상 모델을 이용한 제품으로 코디네이트 하여 착용 또는 시연할 수 있는 서비스가 제공되고 있다.Consumers traditionally visit a clothing store to purchase clothing, check the clothes they like, and then enter a fitting room to check if they fit by wearing them. Recently, with the development of Internet technology, there has been an increase in the tendency to purchase products by viewing images or videos uploaded by sellers from a shopping mall site instead of directly visiting a clothing store using a mobile terminal such as a smart phone. The advantage of buying clothes online compared to offline is that you can easily purchase clothes without visiting a store. There was a problem that it was found late or that it was not suitable, and it was the cause of the return. In order to solve this problem, a service that can be worn or demonstrated by coordinating a product using a virtual model is provided.

대한민국 등록특허 제10-1775327호Republic of Korea Patent No. 10-1775327

종래의 가상 착용서비스는 이미지로서 사용자에게 어울리는지에 대하여 시연을 제공하는 것에 불과하였고, 그 이후에 개발된 삼차원 아바타 이미지의 경우에도 삼차원 아바타에 착용하여 아바타와 의류 사이의 충돌 정도를 산출하여 해당 충돌 수가 최소가 되는 경우에 배치 위치를 산출하는 방식으로 피팅 그 자체에만 촛점이 맞춰졌을 뿐 해당 의류가 어떠한 방식으로 피팅(Fitting)되는지, 옷이 몸에 딱 맞거나 옷이 작을 경우 어떻게 표현하여 사용자에게 자신의 착용 모습을 제공하지는 못하였다. The conventional virtual wearing service only provides a demonstration of whether the user is suitable as an image, and even in the case of a three-dimensional avatar image developed after that, the degree of collision between the avatar and clothing is calculated by calculating the number of collisions. In the minimum case, the focus is only on the fitting itself by calculating the placement position, and how the clothing is fitted, and if the clothing fits the body or the clothing is small, how can it be expressed to the user? Could not provide the appearance of wearing.

따라서 본 발명의 실시예를 통하여 어떠한 옷의 크기라 하더라도 착용자가 실제 입은 것과 같은 효과를 나타낼 수 있는 니즈를 충족하여 사용자에게 다양한 형태의 옷의 종류에 따른 착용을 구현할 수 있도록 하여 해당 착용 모습을 제공할 수 있고, 이를 통하여 사이트와 서버 사이의 의상 판매를 위한 비즈니스 모델(Business Model)을 제공하고자 한다.Therefore, through the embodiment of the present invention, the wearer can realize the wearing according to various types of clothes by satisfying the needs that the wearer can exhibit the same effect as the actual wearing regardless of the size of the clothes through the embodiment of the present invention. Through this, we want to provide a business model for selling clothes between the site and the server.

기존 선행 발명의 경우 삼차원 아바타를 구성하여 입체의류를 아바타에 그대로 덧입히고(Interpose), 의류와 신체 사이에 접촉하는 지점을 최소화하거나 그러한 해가 없을 경우 신체를 전부 덮을 수 있는 정도까지 의류를 전체적으로 확대하는 것을 개시하고 있을 뿐, 사용자에 대한 삼차원 아바타에 해당 의류가 어떠한 식으로 피팅(Fitting)되는지, 만약 의류가 몸에 딱 맞거나 옷이 작을 경우 사용자에게 타이트하게 나타나는지 사용자에게 자신의 의상 착용 모습을 다양하게 보여주지 못하고 있다. 본원 발명은 상기와 같은 문제점을 해결하기 위해 사용자에게 착용 모습을 제공하고, 이를 통하여 사이트-서버 간의 의상 판매를 위한 비즈니스 모델도 제공할 수 있다. In the case of existing prior inventions, three-dimensional clothing is interposed on the avatar by composing a three-dimensional avatar, and the contact point between the clothing and the body is minimized or the entire clothing is expanded to the extent that it can cover the entire body in the absence of such harm. How the clothes fit to the 3D avatar for the user, and if the clothes fit the body or appear tight to the user if the clothes are small It doesn't show a lot of variety. The present invention provides a wearing appearance to a user in order to solve the above problems, and through this, a business model for selling clothes between a site and a server can also be provided.

이러한 종래 기술의 문제를 해결하기 위한 본 발명의 일 실시예에 따른 스마트 삼차원 아바타 생성 시스템은, 사용자의 이차원 사진을 입력받아 상기 사용자의 삼차원 아바타 사진을 생성하는 장치에 있어서, 사용자의 신체를 촬영하여 이차원 사진을 생성하는 카메라; 및In order to solve the problems of the prior art, a smart three-dimensional avatar generating system according to an embodiment of the present invention is an apparatus for generating a three-dimensional avatar photo of a user by receiving a user's two-dimensional picture as an input. a camera that produces a two-dimensional picture; and

상기 이차원 사진을 입력받아 삼차원 아바타를 생성하는 아바타 생성 모듈을 포함할 수 있다.and an avatar generating module configured to receive the two-dimensional picture and generate a three-dimensional avatar.

또한, 상기 이차원 사진상의 사용자 신체 특정 부분들을 터치로 입력받아 지정하거나, 사용자의 키를 입력받을 수 있는 입력 모듈을 더 포함할 수 있다.In addition, the input module may further include an input module capable of receiving and designating specific parts of the user's body on the two-dimensional photo by touch, or receiving a user's key.

또한, 상기 아바타 생성 모듈은, 상기 사용자의 상기 이차원 사진상에서 미리 지정된 신체 부위 들의 수치를 계산하는 수치계산 모듈을 포함할 수 있다.In addition, the avatar generating module may include a numerical calculation module for calculating values of predetermined body parts on the two-dimensional picture of the user.

또한, 상기 입력 모듈은, 상기 수치계산 모듈에 의해 자동으로 계산된 상기 수치들을 갱신할 수 있는 새로운 수치들을 입력받을 수 있는 것을 포함할 수 있다.Also, the input module may include receiving new numerical values capable of updating the numerical values automatically calculated by the numerical calculation module.

또한, 상기 아바타 생성 모듈은, 상기 이차원 사진 및 상기 수치들 또는 상기 새로운 수치들을 이용해서 뼈대(skeleton) 및 표면 텍스처(texture)를 생성하고, 상기 이차원 사진상의 사용자의 머리 및/또는 얼굴 부분을 이용한 두상 텍스처를 적용하여 최종적인 삼차원 아바타를 생성하는 것을 포함할 수 있다.In addition, the avatar generating module generates a skeleton and a surface texture using the two-dimensional picture and the numerical values or the new numerical values, and uses the head and/or face part of the user on the two-dimensional image. This may include applying the head texture to generate the final three-dimensional avatar.

또한, 상기 뼈대는 직립형 자세를 포함한 여러 자세를 구현하는 것을 포함할 수 있다.In addition, the skeleton may include implementing various postures including an upright posture.

본 발명의 다른 일 실시예에 따른 삼차원 텍스처 생성 시스템은 의상의 이차원 사진을 입력받아 상기 의상의 삼차원 텍스처 사진을 생성하는 시스템으로서, 의상을 촬영하여 이차원 사진을 생성하는 카메라; 및 상기 이차원 사진을 입력받아 상기 의상의 삼차원 텍스처 사진을 생성하는 텍스처 생성 모듈을 포함할 수 있다.A three-dimensional texture generating system according to another embodiment of the present invention is a system for receiving a two-dimensional picture of clothes and generating a three-dimensional texture picture of the clothes, the system comprising: a camera for photographing the clothes to generate a two-dimensional picture; and a texture generating module configured to receive the two-dimensional photo and generate a three-dimensional texture photo of the garment.

또한, 상기 의상의 이차원 사진상에 미리 지정된 특정 부분들을 터치로 입력받고, 상기 의상의 상하 길이 및 상기 의상의 탄성 계수를 입력받을 수 있는 입력 모듈을 더 포함할 수 있다.The apparatus may further include an input module configured to receive input of predetermined specific portions on the two-dimensional photo of the garment by touch, and input the upper and lower lengths of the garment and the elastic modulus of the garment.

또한, 상기 텍스처 생성 모듈은, 상기 의상의 상기 이차원 사진상에서 미리 지정된 부위들의 수치들을 계산하고, 상기 계산된 수치 및 상기 탄성 계수를 이용해서 상기 의상의 확장 가능 크기에 대응하는 확장수치 들을 계산하는 수치 계산 모듈을 포함할 수 있다.In addition, the texture generation module calculates numerical values of predetermined parts on the two-dimensional photo of the garment, and calculates expansion values corresponding to the expandable size of the garment using the calculated numerical value and the elastic modulus It may include a calculation module.

또한, 상기 입력 모듈은, 상기 수치 계산 모듈에 의해 자동으로 계산된 상기 수치들 및 상기 확장 수치들을 갱신할 수 있는 새로운 수치들을 입력 받을 수 있는 것을 포함할 수 있다. Also, the input module may include receiving new numerical values capable of updating the numerical values automatically calculated by the numerical calculation module and the expanded numerical values.

또한, 상기 텍스처 생성 모듈은, 상기 의상의 이차원 사진 및 상기 수치들을 이용해서 상기 의상의 삼차원 텍스처 사진을 생성하고, 상기 의상의 이차원 사진 및 상기 확장 수치들을 이용해서 상기 의상의 확장 삼차원 텍스처 사진을 생성하는 것을 포함할 수 있다. In addition, the texture generation module is configured to generate a 3D texture picture of the garment by using the 2D picture of the garment and the numerical values, and generate an extended 3D texture picture of the garment by using the 2D picture of the garment and the expanded numeric values. may include doing

본 발명의 다른 일 실시예에 따른 삼차원 피팅 생성 시스템은 상기 삼차원 아바타 생성 시스템에 의해 생성된 인체의 삼차원 아바타 및 상기 삼차원 텍스처 생성 시스템에 의해 생성된 의상의 삼차원 텍스처를 입력받는 수신 모듈, 및 상기 입력된 삼차원 아바타에 상기 입력된 삼차원 텍스처를 적용하는 렌더링을 수행하여 삼차원 의상을 입은 삼차원 아바타를 생성하는 삼차원 피팅 모듈을 포함할 수 있다.A three-dimensional fitting generating system according to another embodiment of the present invention includes a receiving module that receives a three-dimensional avatar of a human body generated by the three-dimensional avatar generating system and a three-dimensional texture of clothes generated by the three-dimensional texture generating system, and the input and a three-dimensional fitting module for generating a three-dimensional avatar wearing a three-dimensional costume by performing rendering by applying the input three-dimensional texture to the three-dimensional avatar.

또한, 상기 삼차원 피팅 모듈은, 상기 삼차원 아바타의 지정된 부분들에 대한 둘레 수치들 (아바타 수치)과 상기 삼차원 텍스처의 지정된 부분들에 대한 둘레 수치들(텍스처 수치) 및 상기 확장 삼차원 텍스처의 지정된 부분들에 대한 둘레 수치들(확장 텍스처 수치)을 비교해서, 상기 아바타 수치와 상기 텍스처 수치의 차이가 미리 지정된 오차 범위 내에 있으면, 상기 삼차원 텍스처를 상기 삼차원 아바타에 적용하여 렌더링하고 의상이 몸에 맞는다는 신호를 생성하고, 만일 상기 텍스처 수치가 상기 아바타 수치보다 상기 미리 지정된 오차 범위보다 크면, 상기 삼차원 아바타에 일정한 크기의 더미를 추가하고 난 후에 상기 삼차원 텍스처를 적용하여 렌더링하고 의상이 몸보다 크다는 신호를 생성하며, 만일 상기 아바타 수치가 상기 텍스처 수치보다 상기 미리 지정된 오차 범위보다 크지만 상기 확장 텍스처 수치보다는 작으면, 상기 삼차원 아바타에 상기 확장 삼차원 텍스처를 적용하여 렌더링하고 의상이 몸에 딱 맞는다는 신호를 생성하며, 만일 상기 아바타 수치가 상기 텍스처 수치보다 상기 미리 지정된 오차 범위보다 크면서 상기 확장 텍스처 수치보다 크면, 상기 삼차원 아바타에 상기 확장 삼차원 텍스처를 차별적인 형태로 적용하여 렌더링하고 의상이 몸보다 작다는 신호를 생성하도록 구현될 수 있다.In addition, the three-dimensional fitting module is configured to provide perimeter values (avatar values) for designated parts of the three-dimensional avatar, perimeter figures for designated parts of the three-dimensional texture (texture values), and designated parts of the extended three-dimensional texture. Comparing the perimeter values (extended texture values) for , if the difference between the avatar value and the texture value is within a predetermined error range, the 3D texture is applied to the 3D avatar for rendering and a signal that the clothes fit the body and, if the texture value is larger than the avatar value and the predetermined error range, after adding a dummy of a certain size to the three-dimensional avatar, the three-dimensional texture is applied to render, and a signal that the costume is larger than the body is generated and if the avatar value is greater than the texture value but greater than the predetermined error range but smaller than the extended texture value, the extended 3D texture is applied to the 3D avatar for rendering, and a signal indicating that the clothes fit the body is generated and, if the avatar value is greater than the texture value and greater than the predetermined error range and greater than the extended texture value, the 3D avatar is rendered by applying the extended 3D texture in a differential form, and a signal that the clothes are smaller than the body can be implemented to create

본 발명의 다른 일 실시예에 따른 인터넷을 통한 의상 서비스의 제공방법은 인터넷을 통한 의상 서비스 제공 방법에 있어서, 디스플레이한 의상에 대한 가상 피팅 서비스를 이용하고자 하는 사용자의 서비스 요청을 사이트또는 앱을 통해서 입력 받는 단계; 서비스 요청한 사용자의 아이디 및 암호를 입력받고 로그인을 허용하는 단계; 상기 사용자에 대한 정보 및 상기 의상에 대한 정보를 서버의 DB로부터 가져온 후 각각 상기 사용자에 대한 삼차원 아바타와, 상기 의상에 대한 삼차원 텍스처 또는 확장 삼차원 텍스처를 구성하는 단계; 상기 구성된 삼차원 아바타와 상기 삼차원 텍스처 또는 상기 확장 삼차원 텍스처를 렌더링하여 그 결과를 디스플레이하는 단계;를 포함할 수 있다.According to another embodiment of the present invention, a method of providing a clothing service through the Internet is a method of providing a clothing service through the Internet, wherein a service request of a user who wants to use a virtual fitting service for displayed clothing is requested through a site or an app. receiving input; receiving the ID and password of the user who requested the service and allowing login; retrieving the information about the user and the information about the clothes from a DB of a server, and then configuring a 3D avatar for the user and a 3D texture or an extended 3D texture for the clothes; and rendering the configured 3D avatar and the 3D texture or the extended 3D texture and displaying a result thereof.

또한, 상기 인터넷을 통한 의상 서비스의 제공방법은 주문 요청을 입력받으면, 상기 사용자의 신체 사이즈 데이터가 상기 서버 또는 제3의 서버로 전달되는 단계;를 더 포함할 수 있다. Also, the method of providing the clothes service through the Internet may further include, when receiving an order request, transmitting the body size data of the user to the server or a third server.

또한, 상기 서버 또는 상기 제3의 서버에서 전송된 의상 제작 완료 신호를 상기 사이트 또는 상기 앱에서 표시하는 단계;를 더 포함할 수 있다.In addition, the method may further include; displaying, on the site or the app, a signal of completion of garment production transmitted from the server or the third server.

본 발명의 효과에 있어 상기의 내용을 참고하면 다음과 같다.The effect of the present invention is as follows with reference to the above.

본 발명의 일 실시예를 통하여 어떠한 옷의 크기라 하더라도 착용자가 실제 입은 것과 같은 효과를 나타낼 수 있도록 다양한 형태의 옷의 종류에 따른 착용을 구현할 수 있도록 한다.According to an embodiment of the present invention, it is possible to implement wearing according to various types of clothes so that the wearer can exhibit the same effect as the actual wearer regardless of the size of the clothes.

위 실시예를 이용하여 사이트와 서버 사이의 의상 판매를 위한 비즈니스 모델을 제공할 수 있다.Using the above embodiment, it is possible to provide a business model for selling clothes between the site and the server.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effect according to the present invention is not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 본 발명의 일 실시예에 따른 의류 피팅 생성시스템에 대한 모듈 배치도이다.
도 2는 본 발명의 일 실시예에 따른 스마트 의류 피팅 방법에 대한 전체 도식순서도이다.
도 3은 본 발명의 일 실시예에 따른 스마트 아바타 생성방법에 대한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 스마트 아바타 생성방법에 대한 순서도이다.
도 5a는 본 발명의 일 실시예에 따른 스마트 아바타 생성 예시도이다.
도 5b는 본 발명의 일 실시예에 따른 스마트 아바타 생성 예시도이다.
도 6은 본 발명의 일 실시예에 따른 삼차원 텍스처 이미지 생성방법에 대한 순서도이다.
도 7은 본 발명의 일 실시예에 따른 삼차원 텍스처 이미지 생성방법에 대한 순서도이다.
도 8a는 본 발명의 일 실시예에 따른 삼차원 텍스처 이미지 생성에 대한 예시도이다.
도 8b는 본 발명의 일 실시예에 따른 삼차원 텍스처 이미지 생성에 대한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 삼차원 피팅 생성기의 예시도이다.
도 10은 본 발명의 일 실시예에 따른 옷 사이즈 계산 공식을 개선하는 방법이다.
도 11은 본 발명의 일 실시예에 따른 옷 사이즈 계산 공식을 개선하는 방법이다.
도 12는 본 발명의 일 실시예에 따른 AI를 이용한 피팅 적합도에 대한 학습도이다.
1 is a module layout diagram for a clothing fitting generating system according to an embodiment of the present invention.
2 is an overall schematic flowchart of a smart clothing fitting method according to an embodiment of the present invention.
3 is a flowchart of a method for generating a smart avatar according to an embodiment of the present invention.
4 is a flowchart of a method for generating a smart avatar according to an embodiment of the present invention.
5A is an exemplary diagram for creating a smart avatar according to an embodiment of the present invention.
5B is an exemplary diagram for creating a smart avatar according to an embodiment of the present invention.
6 is a flowchart of a method for generating a three-dimensional texture image according to an embodiment of the present invention.
7 is a flowchart of a method for generating a three-dimensional texture image according to an embodiment of the present invention.
8A is an exemplary diagram for generating a three-dimensional texture image according to an embodiment of the present invention.
8B is an exemplary diagram for generating a three-dimensional texture image according to an embodiment of the present invention.
9 is an exemplary diagram of a three-dimensional fitting generator according to an embodiment of the present invention.
10 is a method of improving a clothing size calculation formula according to an embodiment of the present invention.
11 is a method for improving a clothing size calculation formula according to an embodiment of the present invention.
12 is a learning diagram for fitting fitness using AI according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예 들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예 들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예 들은 본 발명의 개시가 완전하게 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments published below, but may be implemented in various different forms, and only these embodiments complete the disclosure of the present invention, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.

본 명세서에서 사용된 용어는 실시예 들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprise” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components.

본 명세서에서 컴퓨터는 연산처리를 수행하여 사용자에 결과를 제공할 수 있는 다양한 장치들이 모두 포함되며, 예컨대 컴퓨터는 데스크탑, 랩탑, 스마트폰, 태블릿 컴퓨터 등을 포함한다. 또한, 컴퓨터는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버일 수 있다.In the present specification, the computer includes all of various devices capable of providing a result to a user by performing arithmetic processing. For example, the computer includes a desktop, a laptop, a smart phone, a tablet computer, and the like. Also, the computer may be a server that receives a request from a client and performs information processing.

본 명세서에서 의류는 사람에 착용할 수 있는 것을 모두 포함하며, 의류는 상의(예컨대, 와이셔츠, 티셔츠, 폴라, 재킷, 코트 등), 하의(장바지, 반바지, 치마 등), 모자, 양말, 신발 등을 포함한다. 상의 또는 하의는 그 종류에 따라 슬림 핏(Slim Fit) 또는 루즈 핏(Loose Fit)일 수 있고 다양한 디자인의 옷을 포함한다. In the present specification, clothing includes all things that can be worn by a person, and clothing includes tops (eg, shirts, T-shirts, polas, jackets, coats, etc.), bottoms (jeans, shorts, skirts, etc.), hats, socks, shoes, etc. The top or bottom may be a slim fit or a loose fit depending on the type, and includes clothes of various designs.

이하, 도면을 참조하여 본 발명의 실시예 들에 따른 스마트 삼차원 아바타 생성 시스템 및 이의 아바타 생성방법, 스마트 삼차원 의류 텍스처 생성 시스템 및 이의 텍스처 생성방법, 스마트 삼차원 피팅(fitting) 생성 시스템 및 이의 텍스처 생성방법 및 인터넷을 통한 의상 서비스 제공방법에 대해 설명하기로 한다.Hereinafter, with reference to the drawings, a smart three-dimensional avatar generating system and an avatar generating method thereof, a smart three-dimensional clothing texture generating system and a texture generating method thereof, a smart three-dimensional fitting generating system and a texture generating method thereof according to embodiments of the present invention with reference to the drawings and a method of providing a clothing service through the Internet will be described.

도 1은 본 발명의 일 실시예에 따른 의류 피팅 생성시스템에 대한 모듈 배치도이다.1 is a module layout diagram for a clothing fitting generating system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 스마트 의류 피팅 방법에 대한 전체 도식 순서도이며, 도 3 및 도 4은 본 발명의 일 실시예에 따른 스마트 아바타 생성방법에 대한 순서도이며, 도 5a 내지 도 5b는 스마트 아바타 생성과 관련한 예시도이다.2 is an overall schematic flowchart of a smart clothing fitting method according to an embodiment of the present invention, FIGS. 3 and 4 are flowcharts of a smart avatar creation method according to an embodiment of the present invention, and FIGS. 5A to 5B is an exemplary diagram related to smart avatar creation.

도 1 내지 도 5b를 참조하면, 본 발명의 일 실시예에 따른 의류 피팅 시스템(10)은 삼차원 아바타 생성시스템(100), 삼차원 텍스처 생성시스템(200) 및 삼차원 피팅 생성시스템(300)을 포함한다. 1 to 5B , a clothing fitting system 10 according to an embodiment of the present invention includes a three-dimensional avatar generating system 100 , a three-dimensional texture generating system 200 , and a three-dimensional fitting generating system 300 . .

본 발명의 일 실시예에 따른 삼차원 아바타 생성 시스템(100)은 카메라, 입력 모듈(110), 수치계산 모듈(120) 및 아바타 생성 모듈(130)을 포함한다.The three-dimensional avatar generating system 100 according to an embodiment of the present invention includes a camera, an input module 110 , a numerical calculation module 120 , and an avatar generating module 130 .

본 발명의 일 실시예에 따른 스마트 의류 피팅방법은, 사용자 신체정보로부터 삼차원(3차원) 아바타를 생성하는 단계(S100); 사용자가 특정한 의류로부터 필요한 치수 정보들로부터 삼차원 텍스처 데이터를 생성하는 단계(S200); 상기 삼차원 아바타와 삼차원 텍스처를 피팅하는 단계(S300);를 포함한다. 아래에는 본 발명의 일 실시예에 따른 각 단계를 순서대로 설명한다.A smart clothing fitting method according to an embodiment of the present invention includes: generating a three-dimensional (three-dimensional) avatar from user body information (S100); generating 3D texture data from dimension information required by the user from specific clothes (S200); and fitting the three-dimensional avatar and the three-dimensional texture (S300). Below, each step according to an embodiment of the present invention will be described in order.

본 발명의 일 실시예에 따른 스마트 삼차원 아바타 생성시스템(100)은 사용자의 이차원(2차원) 사진을 입력 받아 상기 사용자의 삼차원(3차원) 아바타 사진을 생성하는 시스템으로서, 사용자의 신체를 촬영하여 이차원 사진을 생성하는 카메라; 및 상기 이차원 사진을 입력 받아 삼차원 아바타를 생성하는 아바타 생성 모듈을 포함한다. 본 명세서 및 청구범위에 기술되는 '모듈(module)'은 컴퓨터의 저장장치에서 로딩되어 메인 메모리에 상주하며 컴퓨터의 CPU에 의해 실행되는 프로시져(procedure), 함수(function) 또는 라이브러리(library) 등 컴퓨터내에서 특정한 목표를 위해 실행되는 프로그램(또는 프로그램들의 집합)을 의미하는 광의의 의미이며 상황에 따라 유닛(unit)이란 용어와 혼동되어 사용될 수도 있다. 상기 아바타 생성시스템(100)은 입력 모듈(110)으로 사용자의 신체의 특정 부분에 대하여 터치로 입력 받아 지정할 수 있다. 예컨대 엉덩이(둔부)의 둘레를 측정하기 위하여 사용자의 정면 사진의 엉덩이 양 외측에서 가장 돌출된 지점을 터치할 수 있으며, 측면 사진에서도 마찬가지로 가장 돌출된 두 지점을 터치하여 지정하면 컴퓨터가 이를 계산하여 해당 데이터 값을 산출할 수 있다. 여기에 사용자가 입력한 사용자의 신체와 컴퓨터에 입력된 사용자의 사진을 비교하여 사이즈에 대한 값을 측정한다. 이와 같은 아바타 생성시스템(100)은 사용자의 이차원 사진 상에서 미리 지정된 신체 부위의 수치를 계산하는 수치계산 모듈(120)로 실시할 수 있다. 한편 사용자는 자신이 직접 측정한 수치를 입력할 수 있으며 이는 삼차원 아바타 생성시스템(100)의 입력 모듈을 통하여 구현할 수 있다. 사용자는 그의 신체 수치들이 시간적으로 가변적일 수 있으므로 체중이 늘거나 감소하는 경우, 사용자의 특정 신체 부위의 수치도 달라질 수 있으므로 해당 수치들을 갱신할 수 있는 새로운 수치를 입력하여 반영시킬 수 있다. 이와 같은 사용자의 가변적인 신체는 이차원 사진을 이용하여 산출하는 것도 가능하다. 또한, 아바타 생성시스템의 아바타 생성 모듈(130)은 사용자의 이차원 사진(정면, 측면, 후면) 및 상기 수치들 또는 사용자가 직접 입력한 갱신된 수치들을 이용하여 뼈대(스켈레톤)를 생성시킬 수 있다. 상기 뼈대(스켈레톤)는 통상적으로 사용자의 직립형 자세로부터 시작할 수 있으나, 그에 한정하지 아니하며, 사용자의 뼈대의 이동으로 도출되는 다양한 자세를 구현할 수 있다. 또한 사용자의 뼈대를 중심으로 사용자의 외관을 형성시키는 표면 텍스처를 생성할 수 있다. 상기 표면 텍스처 역시 사용자의 다양한 움직임을 모두 반영할 수 있어 뼈대의 움직임에 호응하여 표면 텍스처가 달라질 수 있다. 특히 두 텍스처 사이의 접촉과 그러한 접촉 이상의 압력이 가해지는 경우 표면 텍스처의 형상이 달라지도록 할 수 있다. 예컨대, 사용자가 팔짱을 끼거나 양 다리를 굽혀 다리의 후면부위가 서로 겹쳐지면서 살이 찌그러지거나 수축될 수 있는 모습을 반영하여 삼차원으로 이를 구현할 수 있다.The smart three-dimensional avatar generating system 100 according to an embodiment of the present invention is a system for generating a three-dimensional (three-dimensional) avatar photo of the user by receiving a two-dimensional (two-dimensional) photo of the user. a camera that produces a two-dimensional picture; and an avatar generating module that receives the two-dimensional picture and generates a three-dimensional avatar. A 'module' described in this specification and claims is a computer, such as a procedure, a function, or a library, which is loaded from the storage device of the computer and resides in the main memory and executed by the CPU of the computer. It has a broad meaning meaning a program (or a set of programs) that is executed for a specific purpose within the context, and may be used interchangeably with the term unit depending on the situation. The avatar generating system 100 may receive and designate a specific part of the user's body by means of a touch input through the input module 110 . For example, to measure the circumference of the hip (buttocks), you can touch the most protruding points on both sides of the user's buttocks in the front photo. data values can be calculated. Here, the size value is measured by comparing the user's body input by the user with the user's picture input into the computer. Such an avatar generating system 100 may be implemented by the numerical calculation module 120 for calculating the numerical value of a predetermined body part on the user's two-dimensional picture. Meanwhile, the user may input a numerical value measured by himself/herself, which may be implemented through the input module of the three-dimensional avatar generating system 100 . Since the user's body values may be temporally variable, when the user gains or loses weight, the values of a specific body part of the user may also change, so the user may input and reflect new values that can update the corresponding values. Such a variable body of the user can also be calculated using a two-dimensional picture. In addition, the avatar generating module 130 of the avatar generating system may generate a skeleton (skeleton) using two-dimensional pictures (front, side, and back) of the user and the numerical values or updated numerical values directly input by the user. The skeleton (skeleton) may typically start from the user's upright posture, but is not limited thereto, and various postures derived from the movement of the user's skeleton may be implemented. It is also possible to create a surface texture that forms the user's appearance around the user's skeleton. The surface texture may also reflect all the various movements of the user, so that the surface texture may be changed in response to the movement of the skeleton. In particular, when the contact between the two textures and pressure beyond that contact is applied, the shape of the surface texture can be changed. For example, this can be implemented in three dimensions by reflecting the shape in which the user's arms can be folded or both legs are bent so that the rear parts of the legs overlap each other and the flesh can be crushed or contracted.

이와 같은 방식으로 사용자는 자신의 전반적인 형상을 제조한 뒤 사용자의 사진 등으로부터 머리 및/또는 얼굴 부분을 이용하여 두상 텍스처를 형성 후 적용하여 최종적인 삼차원 아바타를 생성시킬 수 있다.In this way, the user can create a final three-dimensional avatar by manufacturing his/her overall shape and then applying a head texture using the head and/or face part from the user's photo or the like.

본 발명의 일 실시예에 따른 스마트 삼차원 아바타 생성방법(S100)은 보다 구체적으로 사용자의 정면 모습, 좌측 및 우측 등 측면 모습(이하 '측면 모습'이라 함) 및 후면 모습에 대한 사진 영상을 촬영하고 사용자의 신체(키)를 입력한다(S110). 사용자의 정면 모습, 측면 모습, 후면 모습의 주요 부위를 마킹한다(S120). 사용자의 주요 부위를 마킹하기 위해서는 각 부위의 외곽 부위를 마킹하여 판단한다(S130). 사용자의 주요 부위는 통상적으로 의류와 피팅(fitting)에 관련된 데이터를 측정하기 위한 부위로 목, 어깨, 팔, 가슴, 허리, 골반, 허벅지, 다리 길이를 산출하기 위하여 필요하다. 사용자의 신체 부위의 길이뿐만 아니라 둘레를 계산하기 위하여 정면, 후면의 수치에 더불어 측면의 각 부위를 산출한다(S140). 상기 부위의 수치는 직접 사용자가 입력할 수 있으며, 또한 컴퓨터가 사용자의 사진을 바탕으로 획득한 신체 이미지와 사용자가 입력한 신체 정보를 통하여 계산으로 산출할 수 있다. 예컨대 사용자는 자신의 가슴 둘레를 직접 측정한 수치를 입력할 수 있으며, 또는 허리 둘레를 측정하여 해당 데이터를 입력할 수 있다. 컴퓨터는 사용자의 전체 치수 정보를 획득하기 위하여 정면/후면/측면에서 촬영된 전신 영상을 수신하여 이용할 수 있으나, 특정 신체부위(예컨대, 목, 가슴, 허리 등 상체 부위)에 대한 신체치수정보를 얻기 위하여 해당 부위가 포함된 영상을 수신하여 이용할 수 있다.The smart three-dimensional avatar creation method (S100) according to an embodiment of the present invention takes a picture image of the user's front view, left and right side views (hereinafter referred to as 'side view') and back view of the user more specifically, The user's body (key) is input (S110). The main parts of the user's front view, side view, and back view are marked (S120). In order to mark the main part of the user, it is determined by marking the outer part of each part (S130). A user's main part is typically a part for measuring data related to clothing and fitting, and it is necessary to calculate the length of the neck, shoulder, arm, chest, waist, pelvis, thigh, and leg. In order to calculate the circumference as well as the length of the user's body part, each part of the side is calculated in addition to the numerical values of the front and the back (S140). The numerical value of the part may be directly input by the user, or may be calculated by a computer based on a body image obtained based on the user's photo and body information input by the user. For example, the user may input a numerical value measured directly by the user's chest circumference, or may input the corresponding data by measuring the waist circumference. The computer can receive and use full-body images taken from the front/rear/side in order to obtain the overall size information of the user, but obtain body size information for a specific body part (eg, upper body parts such as neck, chest, waist, etc.) For this purpose, an image including the corresponding part may be received and used.

한편, 컴퓨터는 사용자의 정면, 후면, 측면 사진을 수신하여 데이터화 할 수 있다. 이를 통하여 목 둘레, 어깨 둘레, 가슴 둘레, 허리 둘레, 골반 둘레, 허벅지 둘레, 다리 길이, 팔 길이 등을 계산하여 데이터화 한다. 상기 길이는 사진과 사용자의 실제 키를 통하여 신체 사이즈의 비례 정도를 계산하여 산출할 수 있다. 컴퓨터는 스마트폰 등으로 촬영한 정면, 측면, 후면 사진과 사용자가 입력한 신체로부터 사이즈를 산출한다(S141). 예컨대 컴퓨터는 사용자의 정면, 측면 및 후면 사진을 전체적으로 조합하여 삼차원 아바타 형상을 제작하는데 이용할 수 있다. 좀 더 세분화하여 설명하면, 컴퓨터는 사용자의 어깨 너비를 정면, 후면, 측면 사진으로부터 계산되어진 수치를 이용하여 어깨 둘레를 계산할 수 있다. On the other hand, the computer may receive the user's front, back, and side photos and convert them into data. Through this, the neck circumference, shoulder circumference, chest circumference, waist circumference, pelvis circumference, thigh circumference, leg length, arm length, etc. are calculated and converted into data. The length may be calculated by calculating the proportion of the body size through the photograph and the actual height of the user. The computer calculates the size from the front, side, and back photos taken with a smartphone or the like and the body input by the user (S141). For example, the computer may be used to create a three-dimensional avatar shape by combining the front, side, and back photos of the user as a whole. To explain in more detail, the computer can calculate the shoulder width of the user by using the values calculated from the front, back, and side photos of the user.

상기 산출한 사이즈를 이용하여 컴퓨터를 통하여 가상 삼차원 뼈대(스켈레톤)를 생성한다(S142). 한편 컴퓨터는 사이즈 데이터에 맞춰 삼차원 피부 텍스처를 조합한다(S143). 이와 같은 방식에 의하여 컴퓨터는 삼차원 아바타 생성프로그램에 의해 이미 생성된 사용자의 삼차원 아바타 및 뼈대(스켈레톤) 및 피부 텍스처의 조합으로 사용자의 체형을 생성시킨 후, 사용자의 얼굴을 반영하여 삼차원 아바타를 생성시킬 수 있다. A virtual three-dimensional skeleton (skeleton) is generated through a computer using the calculated size (S142). Meanwhile, the computer combines the three-dimensional skin texture according to the size data (S143). In this way, the computer generates the user's body shape with the combination of the user's three-dimensional avatar and the skeleton (skeleton) and skin texture already created by the three-dimensional avatar generating program, and then reflects the user's face to generate the three-dimensional avatar. can

도 6 및 도 7은 본 발명의 일 실시예에 따른 삼차원 텍스처 이미지 생성방법에 대한 순서도이며, 도 8a 및 도 8b는 삼차원 텍스처 이미지 생성과 관련한 예시도이다.6 and 7 are flowcharts of a method for generating a 3D texture image according to an embodiment of the present invention, and FIGS. 8A and 8B are exemplary diagrams related to the generation of a 3D texture image.

도 6 내지 도 8b를 참조하면, 본 발명의 일 실시예에 따른 삼차원 텍스처 생성 시스템(200)은 카메라, 입력 모듈(210), 수치계산 모듈(220) 및 텍스처 생성 모듈(230)을 포함한다. 카메라는 사용자로부터 정면/측면(때로는 무시될 수 있음)/후면의 사진을 입력 또는 수신 받아 이차원 사진을 생성시키며, 텍스처 생성 모듈(230)은 상기 입력 또는 수신 받아 의류의 사진으로부터 삼차원 텍스처 사진을 생성할 수 있다. 또한, 사용자는 자신이 특정한 의류 상에 미리 지정된 특정 부분을 터치로 입력할 수 있고, 상기 의류의 상하 길이 및 의류 고유의 탄성 계수를 입력 받을 수 있는 입력 모듈(210)을 포함한다. 예컨대 탄성 계수는 의류의 원단 재질에 따라 그 탄성 계수가 다를 수 있으며, 신축성이 좋은 소재의 의류일수록 탄성 계수의 값이 커진다. 같은 형상의 옷이라도 탄성 계수가 다른 경우 해당 의류를 착용한 사용자의 외관상의 모습에 차이가 발생한다. 예컨대 사용자가 레깅스를 착용한 경우 레깅스의 의류가 견뎌낼 수 있는 신축성의 정도에 따라 그대로 사용자의 체형에 맞춰 형상이 나타날 수 있다. 반면에 모직과 같이 탄성도가 낮은 소재인 경우에는 사용자의 체형 수치에 따라 해당 의류가 헐렁하거나 사용자의 신체에 꽉 끼는 등의 표시로 나타날 수 있다. 즉, 직물의 재질에 따른 특성을 적용하여 다양한 자세의 물리적 형상의 변화를 반영할 수 있으며, 삼차원 아바타에 의상을 착용시킬 경우 의상의 형태 변화를 상기 재질과 탄성 계수에 따라 적절하게 시뮬레이션할 수 있다. 컴퓨터는 의류 판매자로부터 해당 정보를 받아 각 부위별 재질, 탄성계수 등의 물리적 특성을 수신하고, 이를 반영하여 시뮬레이션된 의류를 생성시킬 수 있다. 상기 탄성 계수에 추가적으로 마찰력, 중력에 따른 형상의 변화도를 포함할 수 있다.6 to 8B , the 3D texture generation system 200 according to an embodiment of the present invention includes a camera, an input module 210 , a numerical calculation module 220 , and a texture generation module 230 . The camera generates a two-dimensional photo by inputting or receiving a photo of the front/side (sometimes can be ignored)/rear from the user, and the texture generation module 230 generates a three-dimensional texture photo from the photo of the garment by receiving or receiving the input or receiving the photo from the user. can do. In addition, the user may include an input module 210 capable of inputting a predetermined portion on a specific garment by the user with a touch, and receiving the upper and lower lengths of the garment and a unique elastic modulus of the garment. For example, the elastic modulus may be different depending on the fabric material of the garment, and the elastic modulus value increases as the elastic modulus is made of a material with good elasticity. Even if clothes of the same shape have different elastic modulus, a difference occurs in the appearance of a user who wears the clothes. For example, when the user wears leggings, the shape may appear according to the user's body type as it is, depending on the degree of elasticity that the clothing of the leggings can withstand. On the other hand, in the case of a material with low elasticity, such as wool, the corresponding clothing may appear as loose or tight fitting to the user's body depending on the user's figure. In other words, changes in physical shape of various postures can be reflected by applying characteristics according to the material of the fabric, and when clothes are worn on a three-dimensional avatar, changes in the shape of clothes can be appropriately simulated according to the material and elastic modulus. . The computer may receive the corresponding information from the clothing seller, receive physical properties such as material and elastic modulus for each part, and reflect the information to generate simulated clothing. In addition to the elastic modulus, it may include a degree of change of shape according to frictional force and gravity.

또한, 컴퓨터는 각 의류의 직물, 재질의 특성 정보를 단말기 또는 서버로부터 수신할 수 있다. 또한, 컴퓨터는 각 의류의 브랜드, 제품명, 의상 종류, 사이즈 정보, 사이즈 명을 수신 받을 수 있다. 또한, 상기 이미 만들어진 기성복에 그치지 않고 독창적으로 제작된 소수 의류에 대한 정보를 수신하여 이를 반영시킬 수 있다.In addition, the computer may receive the characteristic information of the fabric and material of each garment from the terminal or the server. In addition, the computer may receive each clothing brand, product name, clothing type, size information, and size name. In addition, it is possible to receive and reflect information on a small number of original clothes, not limited to the already made ready-to-wear.

한편, 상기 텍스처 생성 모듈(230)은 독자적으로 뿐만 아니라 사용자가 선택한 의류의 사진상에서 미리 지정된 부위들의 수치들을 계산하거나, 상기 계산된 수치들을 계산하여, 계산된 수치 및 의류의 탄성 계수를 반영하여 의류 확장 가능한 크기에 대응하는 확장 수치들을 계산하는 수치 계산 모듈(220)을 추가적으로 포함할 수 있다. 또한, 상기 입력 모듈(210)은 상기 수치계산 모듈(220)에 의해 자동으로 계산된 수치들이거나 또는 직접 측정하여 입력한 수치들과 확장 수치들을 갱신할 수 있는 새로운 수치들을 입력 받을 수 있는 것을 포함한다. 이와 같은 방식으로 삼차원 텍스처 생성시스템(200)은 텍스처 생성 모듈(230)을 통하여 사용자가 지정한 의류의 이차원 사진, 의류 사진으로부터 측정된 수치들을 이용하여 상기 의류의 삼차원 텍스처 사진을 생성시키고, 의류의 탄성 계수를 추가적으로 반영한 결과 의류의 확장된 삼차원 텍스처 사진을 생성시킬 수 있다.On the other hand, the texture generation module 230 calculates numerical values of predetermined parts on the photograph of the clothing selected by the user as well as independently, or calculates the calculated values and reflects the calculated values and the elastic modulus of the clothing to reflect the calculated values and the elastic modulus of the clothing. It may additionally include a numerical calculation module 220 for calculating extension values corresponding to the expandable size. In addition, the input module 210 includes being able to receive new numerical values that can update numerical values automatically calculated by the numerical calculation module 220 or directly measured and input numerical values and extended numerical values. do. In this way, the three-dimensional texture generating system 200 generates a three-dimensional texture photo of the garment using the two-dimensional photo of the garment designated by the user through the texture generating module 230 and the values measured from the photo, and the elasticity of the garment. As a result of additionally reflecting the coefficients, it is possible to generate an extended three-dimensional texture picture of the clothing.

한편, 본 발명의 일 실시예에 따른 삼차원 텍스처 데이터를 생성하는 방법(S200)은, 보다 구체적으로 사용자가 지정한 의류의 정면/측면(때로는 무시될 수 있음)/후면 사진 영상 및 옷의 상하길이를 입력한다(S210). 사용자가 지정한 의류의 정면 모습, 후면 모습의 주요 부위를 마킹한다(S220). 의류의 주요 부위를 마킹하기 위하여 각 부위의 외곽 부위를 마킹하여 판단하는데, 의류의 주요 부위는 통상적으로 깃 부분, 어깨, 가슴, 허리, 윗팔 둘레, 팔길이, 골반, 허벅지, 무릎, 종아리, 다리 등의 부위에 대응하는 의류의 주요 부위이다. 최종적으로 상기 부위의 길이를 측정하기 위하여 해당 옷의 상하의 길이를 입력할 수 있으며, 입력된 상하 간의 길이에 대응하여 나머지 부위의 길이가 산출된다(S230). 의류의 주요 부분의 사이즈를 자동 계산하여 데이터화 한 후, 의류 자체의 탄성을 고려하여 옷 주요 부분의 확장 사이즈도 자동적으로 계산하여 데이터화 할 수 있다. 자동 계산된 사이즈를 사용자가 검토하여 보정하는 단계를 추가적으로 포함할 수 있다. On the other hand, the method (S200) of generating three-dimensional texture data according to an embodiment of the present invention is more specifically, the front/side (sometimes negligible)/rear photo image of the clothes specified by the user and the vertical length of the clothes. input (S210). The main parts of the front and back views of the clothes designated by the user are marked (S220). In order to mark the main parts of the garment, the outer part of each part is marked and judged. The main parts of the garment are usually the collar, shoulder, chest, waist, upper arm circumference, arm length, pelvis, thigh, knee, calf, and leg. It is the main part of clothing corresponding to the part of the back. In order to finally measure the length of the part, the length of the upper and lower parts of the corresponding clothes may be input, and the length of the remaining part is calculated corresponding to the input length between the upper and lower parts (S230). After automatically calculating and dataizing the size of the main part of the garment, the expanded size of the main part of the garment can also be automatically calculated and dataized in consideration of the elasticity of the garment itself. The method may further include the step of reviewing and correcting the automatically calculated size by the user.

한편, 컴퓨터는 의류의 정면, 후면, 측면 사진을 수신하여 데이터화 할 수 있다. 이를 통하여 목 둘레, 어깨 둘레, 가슴 둘레, 허리 둘레, 골반 둘레, 허벅지 둘레, 다리 길이, 팔 길이 등을 계산하여 데이터화 한다(S231). 상기 길이는 사진과 사용자가 입력한 의류의 상하의 길이를 입력한 수치와의 비례 정도를 계산하여 산출할 수 있다. 상기 산출한 사이즈를 이용하여 각 부위별 텍스처의 구성요소를 추출한다(S232). 이러한 구성요소를 추출한 후 삼차원 텍스처 데이터를 추출한다(S233). 삼차원 텍스처 데이터를 추출한 후 탄성계수 등을 반영하여 확장된 삼차원 텍스처 데이터를 추출한다(S234). 이와 같은 과정을 통하여 확장된 삼차원 텍스처의 이미지를 생성시킬 수 있다.On the other hand, the computer can receive the front, back, and side photos of clothes and convert them into data. Through this, the neck circumference, shoulder circumference, chest circumference, waist circumference, pelvis circumference, thigh circumference, leg length, arm length, etc. are calculated and converted into data (S231). The length may be calculated by calculating a degree of proportionality between the photo and the upper and lower lengths of the clothes input by the user. The components of the texture for each part are extracted using the calculated size (S232). After extracting these components, three-dimensional texture data is extracted (S233). After extracting the three-dimensional texture data, the extended three-dimensional texture data is extracted by reflecting the elastic modulus and the like (S234). Through this process, an image of an extended three-dimensional texture can be generated.

도 9는 본 발명의 일 실시예에 따른 삼차원 피팅 생성시스템(300)의 예시도이다. 도 9를 참조하면, 본 발명의 일 실시예에 따른 삼차원 피팅 생성시스템(300)은 상기에서 구체적으로 설명한 삼차원 아바타 생성시스템(100)에 의해 생성된 인체의 삼차원 아바타 및 상기 삼차원 텍스처 생성시스템(200)에 의해 생성된 의상의 삼차원 텍스처를 입력 받는 수신 모듈(310), 및 상기 입력된 삼차원 아바타에 상기 입력된 삼차원 텍스처를 적용하는 렌더링을 수행하여 삼차원 의류를 입은 삼차원 아바타를 생성하는 삼차원 피팅 모듈(320)을 포함한다. 상기 삼차원 피팅 모듈(320)은, 상기 삼차원 아바타의 지정된 부분들에 대한 둘레 수치들, 예컨대 사용자의 목, 어깨, 가슴, 허리 둘레 수치들 등(이하 '아바타 수치'라 함), 사용자가 지정한 의류의 삼차원 텍스처의 지정된 부분들 예컨대, 앞선 사용자가 지정한 목, 어깨, 가슴, 허리 둘레 수치들 등(이하 '텍스처 수치'라 함) 및 상기 사용자가 지정한 의류의 삼차원 텍스처에 탄성 계수 등의 물리적 특성이 반영되어 수치적으로 나타난 목, 어깨, 가슴, 허리 둘레 수치들 등(이하 '확장 텍스처 수치'라 함)과 비교하여 아바타 수치와 상기 텍스처 수치의 차이가 미리 지정된 오차 범위 내에 있으면, 상기 삼차원 텍스처를 상기 삼차원 아바타에 적용하여 렌더링하고 의상이 몸에 맞는다는 신호를 생성시킬 수 있다. 여기서 지정된 오차 범위라 함은 통상적으로 이차원적 사진에서 도출된 수치를 삼차원적 수치인 둘레 수치로 변환하는 과정에서 사람마다의 개별적인 특성 차이로부터 도출되는 오차일 수 있으며, 직선형태의 이차원 사진에서 나타나는 수치가 곡선형태의 삼차원 아바타 수치로 변환되는 과정에서 발생할 수 있는 오차를 감안한다. 먼저 사용자의 개별적인 인체 특성으로부터 나타나는 오차의 경우, 다수의 사람들로부터 일정한 유형화를 통하여 특정 부위의 구조를 도출시킬 수 있다. 예컨대 사용자의 목 부위의 경우 목이 짧거나 긴 사람들, 목 둘레가 두껍거나 상대적으로 가는 사람들을 유형화할 수 있으며, 해당 형상을 기준으로 체중 변화에 따라 나타날 수 있는 체형의 변화를 감지하거나 또는 빅데이터로부터 도출되는 체형의 평균적인 차이점을 인식하여 일정한 범위 내에서의 오차 범위를 생성시킬 수 있다. 또한, 정면 영상만으로 측정하기 어려운 예컨대, 허리둘레, 골반둘레, 가슴둘레 등을 획득하기 위하여 체형 별 각 부위의 가로폭과 세로폭의 비율을 산출하는 과정에서 개인별로 나타나는 특성의 오차를 반영하여 오차의 범위를 지정할 수 있다. 9 is an exemplary diagram of a three-dimensional fitting generating system 300 according to an embodiment of the present invention. Referring to FIG. 9 , a three-dimensional fitting generating system 300 according to an embodiment of the present invention provides a three-dimensional avatar of a human body and a three-dimensional texture generating system 200 generated by the three-dimensional avatar generating system 100 described in detail above. ), a receiving module 310 that receives the 3D texture of clothes generated by 320). The three-dimensional fitting module 320 is configured to provide circumference values for designated parts of the three-dimensional avatar, for example, the user's neck, shoulder, chest, and waist circumference values (hereinafter referred to as 'avatar values'), clothing specified by the user, and the like. Physical properties such as elastic modulus in the specified parts of the three-dimensional texture of, for example, the neck, shoulder, chest, and waist circumference values specified by the user (hereinafter referred to as 'texture values') and the three-dimensional texture of the clothing specified by the user If the difference between the avatar value and the texture value is within a predetermined error range compared with the reflected and numerically expressed neck, shoulder, chest, and waist circumference values (hereinafter referred to as the 'extended texture value'), the three-dimensional texture is calculated. It can be applied to the three-dimensional avatar to render and generate a signal that the clothes fit the body. The error range specified herein may be an error derived from the difference in individual characteristics of each person in the process of converting a numerical value derived from a two-dimensional photograph into a three-dimensional numerical value of a circumference, and a numerical value appearing in a linear two-dimensional photograph The error that may occur in the process of being converted into a three-dimensional avatar in a curved form is taken into account. First, in the case of an error appearing from a user's individual human body characteristics, the structure of a specific part can be derived from a number of people through a certain type. For example, in the case of the user's neck, people with short or long necks and those with thick or relatively thin necks can be categorized. An error range within a certain range can be created by recognizing the average difference of the derived body type. In addition, in order to obtain, for example, waist circumference, pelvis circumference, chest circumference, etc., which are difficult to measure with only the frontal image, errors in the characteristics of each individual are reflected in the process of calculating the ratio of the width to the length of each body part for each body type. range can be specified.

상기 아바타 수치와 상기 텍스처 수치의 차이가 미리 지정된 오차 범위내에 있으면, 상기 삼차원 텍스처를 상기 삼차원 아바타에 적용하여 렌더링하고 의상이 몸에 잘 맞는다(fit)는 신호를 생성한다.If the difference between the avatar value and the texture value is within a predetermined error range, the 3D texture is applied to the 3D avatar to render it, and a signal indicating that the clothes fit the body well is generated.

만일 상기 사용자가 지정한 의류의 상기 텍스처 수치가 상기 아바타 수치에 비해서 미리 지정된 오차 범위보다 큰 경우, 상기 삼차원 아바타에 실제 오차 범위의 크기에 비례해서 정해지는 크기의 더미를 상기 아바타에 추가(3차원 상에서)하고 난 후에 상기 삼차원 텍스처를 적용하여 렌더링하고 의상이 몸보다 크다는 신호를 생성한다.If the texture value of the clothing specified by the user is larger than a predetermined error range compared to the avatar value, a dummy having a size determined in proportion to the size of the actual error range is added to the 3D avatar to the avatar (in 3D) ), then apply the 3D texture to render and generate a signal that the costume is larger than the body.

만일 상기 아바타 수치가 상기 텍스처 수치보다 상기 미리 지정된 오차 범위보다 크지만 상기 확장 텍스처 수치보다 작으면, 상기 삼차원 아바타에 상기 확장 삼차원 텍스처를 적용하여 렌더링하고 의상이 몸에 딱 맞는다(tight fit)는 신호를 생성한다.If the avatar value is larger than the texture value but less than the extended texture value, the 3D avatar is rendered by applying the extended 3D texture and the clothes are tight fit. create

만일 상기 아바타 수치가 상기 텍스처 수치보다 상기 미리 지정된 오차 범위보다 크면서 상기 확장 텍스처 수치보다 크면, 상기 아바타에 상기 확장 텍스처를 차별적인 형태로 적용하여 렌더링하고 의상이 몸보다 작다는 신호를 생성한다. If the avatar value is greater than the texture value and greater than the predetermined error range and is greater than the extended texture value, the extended texture is applied to the avatar in a differentiated form for rendering, and a signal indicating that the clothes are smaller than the body is generated.

차별적인 형태의 렌더링은 단추 또는 지퍼를 잠그지 않은 형태이거나 사용자 아바타의 길이보다 짧은 형태의 렌더링일 수 있다.The differentiated form of rendering may be a form in which a button or a zipper is not fastened, or a form in which the length of the user's avatar is shorter than that of the user's avatar.

이에 더하여, 옷의 둘레 사이즈가 더 클 경우, 상기 가상의 더미 텍스처를 씌우고 옷을 입히는 방식 외에, 사용자의 신체에 반응하여 옷이 걸쳐진 형상으로 실제 오프라인에서 사용자가 큰 옷을 입었을 때 거울로 확인할 수 있는 형태로 표현하는 것도 가능하다. 사용자는 큰 옷을 입었을 때 표현되는 루즈핏을 하나의 패션으로서 옵션으로 선택할 수 있다.In addition, when the circumference of the clothes is larger, in addition to the method of putting on the virtual dummy texture and putting clothes on, it is a shape that the clothes are hung in response to the user's body. It is also possible to express it in an existing form. A user may optionally select a loose fit expressed when wearing large clothes as a fashion option.

또한, 옷의 둘레 사이즈가 더 작은 경우에는 사용자는 옷을 착용할 때 옷이 들어가지 않거나 불편함을 느끼게 되는데, 의류의 탄성 계수가 작동하게 되며, 탄성 계수 범위 이내에서 사용자의 둘레가 더 큰 경우에는 슬림핏이나 레깅스 등의 효과로 옷의 외관이 사용자의 체형에 의해 늘어나는 효과가 나타날 수 있으며, 옷이 타이트하게 맞음을 표현할 수 있다. 의류의 탄성 계수의 범위를 초과하는 경우에는 사용자는 온라인을 통하여 옷을 구매하였을 때 사용자가 실제 옷을 입지 못하게 될 것이므로 옷 확장 둘레 사이즈가 더 작다면 가운데가 벌어지게 렌더링할 수 있다. 또한, 사용자 마다 신체 구조가 상이하므로 어깨가 넓은 반면, 허리가 가느다란 체형일 수 있으며, 이러한 경우 사용자가 지정한 의류를 착용하였을 때 어깨 부분은 지정된 오차 범위보다 크게 나타날 수 있으며, 반대로 허리 부분은 미리 지정된 오차 범위 내에 있을 수 있다. 이와 같은 경우 해당 부위를 구분하여 시각화 하는 것도 가능하며, 실제 착용한 것과 같이 어깨는 타이트하게, 허리는 헐렁하게 시각화 하는 것이 가능하다.In addition, when the circumference of the clothes is smaller, the user feels uncomfortable or does not fit the clothes when wearing the clothes, but the elastic modulus of the clothes is activated. With the effect of slim fit or leggings, the appearance of clothes can be stretched by the user's body type, and it can be expressed that the clothes fit tightly. If the elastic modulus of the clothing is exceeded, when the user purchases clothes online, the user will not be able to wear the actual clothes. Therefore, if the clothing extension circumference is smaller, the center may be rendered open. In addition, since each user has a different body structure, the shoulder may be wide, but the waist may be thin. may be within the specified error range. In this case, it is also possible to visualize the relevant part by dividing it, and it is possible to visualize the shoulder with a tight fit and the waist with a loose fit as if worn in reality.

도 10 및 도 11은 본 발명의 일 실시예에 따른 옷 사이즈 계산 공식을 개선하는 방법이다.10 and 11 are a method of improving a clothing size calculation formula according to an embodiment of the present invention.

도 10 및 도 11을 참조하면, 사용자가 지정한 옷 사이즈를 계산하는 공식을 개선하는 것도 가능하다. 의류 판매자가 앱(app)에서 화면으로 보정한 내용을 데이터로 축적하거나 자체적으로 앱으로 테스트하여 데이터로 축적할 수 있다. 보다 구체적으로, 상기 옷 사이즈의 계산 공식을 개선하는 방법은 각 부위별 사이즈를 추출하는 공식을 만든다(S410). 옷의 주요 부분의 사이즈를 자동 계산하여 데이터화 하는 것이 가능하며, 재질에 따른 탄성 계수를 고려하여 옷 주요 부분의 확장 사이즈를 자동 계산하여 데이터화 할 수 있다. 옷 사이즈의 각 부위별 공식에 공식 아이디를 부여하여 적용한다(S420). 지정된 옷에 대하여 적용된 공식은 신규 공식일 것이나 일정한 기간 동안 계속 적용하여 데이터를 축적시킨다. 데이터를 축적시키는 동안 공식아이디 마다 측정치와 보정치에 대한 데이터를 각 축적할 수 있으며, [공식아이디-측정치-보정치]를 하나의 세트 형태로 데이터화 하여 축적한다(S430). 각 공식 아이디에 대응되는 공식 별로 나타날 수 있는 옷 크기에 대한 오차도를 계산한다. 이는 연속적으로 측정하거나 정기적인 기간 동안에 측정하여 오차도를 계산할 수 있다(S440). 이 중 공식아이디에 대응하는 공식 중에 가장 오차도가 낮은 공식을 채택하도록 하며, 이를 [공식아이디-측정치-보정치] 세트의 데이터에 반영하여 공식 별로 오차도의 개선에 반영시킨다(S450). Referring to FIGS. 10 and 11 , it is also possible to improve the formula for calculating the clothes size specified by the user. A clothing seller can accumulate data corrected by the screen in the app or test it with the app itself and accumulate it as data. More specifically, the method of improving the calculation formula for the clothes size creates a formula for extracting the size for each part (S410). It is possible to automatically calculate the size of the main part of clothes and convert it into data, and it is possible to automatically calculate the expanded size of the main part of clothes and convert it into data in consideration of the elastic modulus according to the material. An official ID is assigned to the formula for each part of the clothing size and applied (S420). The formula applied to the designated clothes may be a new formula, but data is accumulated by continuously applying it for a certain period of time. While accumulating data, data on measured values and correction values can be accumulated for each official ID, and [Official ID-Measured Value-Correction Value] is converted into data in the form of one set and accumulated (S430). Calculate the error degree for the clothes size that can appear for each formula corresponding to each official ID. This can be continuously measured or measured during a regular period to calculate the degree of error (S440). Among the formulas corresponding to the official ID, the formula with the lowest degree of error is adopted, and it is reflected in the data of the [Official ID-Measured Value-Correction Value] set to improve the error degree for each formula (S450).

본 발명의 일 실시예에 따른 인터넷을 통한 의상 서비스 제공 방법은 디스플레이한 의상에 대하여 가상 피팅 서비스를 이용하고자 하는 사용자의 서비스 요청을 사이트 또는 앱을 통하여 입력 받는 단계(S510); 서비스 요청한 사용자의 아이디 및 암호를 입력 받고 로그인을 허용하는 단계(S520); 상기 사용자에 대한 정보 및 상기 의상에 대한 정보를 서버의 데이터베이스(DB)로부터 가져온 후 각각 상기 사용자에 대한 삼차원 아바타와 상기 의상에 대한 삼차원 텍스처 또는 확장 삼차원 텍스처를 구성하는 단계(S530); 상기 구성된 삼차원 아바타와 상기 삼차원 텍스처 또는 상기 확장 삼차원 텍스처를 렌더링하여 그 결과를 디스플레이 하는 단계(S540);을 포함한다. 의류 판매자가 앱을 이용한 사용자로부터 주문 요청을 입력 받으면, 상기 사용자의 신체 사이즈 데이터가 상기 서버 또는 제3의 서버로 전달되는 단계(S550);를 더 포함할 수 있다. 또한 상기 인터넷을 통한 의상 서비스 제공 방법은 상기 서버 또는 상기 제3의 서버에서 전송된 의상 제작 완료 신호를 상기 사이트 또는 상기 앱에서 표시하는 단계(S560);를 더 포함할 수 있다.A method of providing a clothing service through the Internet according to an embodiment of the present invention includes: receiving a service request from a user who wants to use a virtual fitting service for displayed clothes through a site or an app (S510); receiving the ID and password of the user who requested the service and allowing login (S520); retrieving the information about the user and the information about the clothes from a database (DB) of a server, and then configuring a 3D avatar for the user and a 3D texture or an extended 3D texture for the clothes, respectively (S530); and rendering the configured 3D avatar and the 3D texture or the extended 3D texture and displaying the result (S540). The method may further include: when the clothing seller receives an order request from a user using the app, transmitting the body size data of the user to the server or a third server (S550). In addition, the method of providing a clothing service through the Internet may further include displaying a clothing production completion signal transmitted from the server or the third server on the site or the app (S560).

도 12는 본 발명의 일 실시예에 따른 AI를 이용한 피팅 적합도 학습도이다. 도 12를 참조하면, 본 발명의 일 실시예에 따르는 삼차원 피팅 생성시스템 및 피팅 생성방법은 피팅 적합도(Fitting value)를 증진시키기 위하여 AI(Artificial Intelligence) 등 인공지능 학습을 이용할 수 있다. 보다 구체적으로, 본 발명의 삼차원 피팅 생성시스템에서 렌더링 로직 모델 학습을 통하여 사용자의 신체 사이즈, 의류 사이즈, 의류의 주요 부위별 원단 특성(예컨대, 면, 마, 견, 모, 합성섬유 등), 주요 부위별 주름 패턴(예컨대, 어깨 끝, 겨드랑이, 가슴, 허리, 팔꿈치, 손목, 골반, 무릎, 발목 등) 등에 대한 데이터를 축적하여 비지도 학습(Unsupervised Learning)을 통하여 렌더링 로직 모델을 생성시킬 수 있다. 비지도 학습과 같이 비정제 데이터를 입력하면 훈련 데이터가 없더라도 데이터의 특징을 요약하여 군집(Clustering) 수행이 가능하며, 목표값을 정해주지 않더라도 무방하다. 본 발명의 일 실시예에 따른 비지도 학습은 군집화와 패턴인식 모두 활용 가능하며, 군집화의 경우 거리기반 군집화, 밀도기반 군집화 등을 방식을 이용할 수 있고, 패턴 인식의 경우 전처리/특징 추출 방식이나 모델 선택/인식 방식을 이용할 수 있다. 상기의 학습을 이용하면 사용자는 자신의 삼차원 아바타와 의류 텍스처의 피팅 적합도를 보다 개선하여 증진시킬 수 있다.12 is a learning diagram of fitting fitness using AI according to an embodiment of the present invention. Referring to FIG. 12 , a three-dimensional fitting generating system and a fitting generating method according to an embodiment of the present invention may use artificial intelligence (AI) learning, such as artificial intelligence (AI), to improve a fitting value. More specifically, through the rendering logic model learning in the three-dimensional fitting generation system of the present invention, the user's body size, clothing size, fabric characteristics for each main part of clothing (eg, cotton, hemp, silk, wool, synthetic fiber, etc.), main By accumulating data on wrinkle patterns for each part (e.g., shoulder tip, armpit, chest, waist, elbow, wrist, pelvis, knee, ankle, etc.), a rendering logic model can be created through unsupervised learning. . As in unsupervised learning, if unrefined data is input, clustering can be performed by summarizing the characteristics of the data even if there is no training data, and it is okay to not set a target value. Unsupervised learning according to an embodiment of the present invention can utilize both clustering and pattern recognition. In the case of clustering, distance-based clustering, density-based clustering, etc. can be used, and in the case of pattern recognition, preprocessing/feature extraction method or model A selection/recognition method is available. By using the above learning, the user can further improve and enhance the fitting suitability of his or her 3D avatar and clothing texture.

의류 피팅 생성시스템: 10 삼차원 아바타 생성시스템: 100
입력 모듈 1: 110 수치계산 모듈 1: 120
아바타 생성 모듈: 130 삼차원 텍스처 생성시스템: 200
입력 모듈 2: 210 수치계산 모듈 2: 220
텍스처 생성 모듈: 230 삼차원 피팅 생성시스템: 300
수신 모듈: 310 삼차원 피팅 모듈: 320
Clothing fitting generation system: 10 3D avatar generation system: 100
Input module 1: 110 Numerical calculation module 1: 120
Avatar generation module: 130 3D texture generation system: 200
Input module 2: 210 Numerical module 2: 220
Texture Generation Module: 230 3D Fitting Generation System: 300
Receiving module: 310 Three-dimensional fitting module: 320

Claims (16)

사용자의 이차원 사진을 입력 받아 상기 사용자의 삼차원 아바타 사진을 생성하는, 컴퓨터에 의해 실행되는 시스템에 있어서,
사용자의 신체를 촬영하여 이차원 사진을 생성하는 카메라; 및
상기 이차원 사진을 입력 받아 삼차원 아바타를 생성하는 아바타 생성 모듈을 포함하는,
삼차원 아바타 생성 시스템.
A computer-implemented system for generating a three-dimensional avatar photo of a user by receiving a two-dimensional photo of a user, the system comprising:
a camera that captures the user's body to generate a two-dimensional picture; and
and an avatar generating module that receives the two-dimensional picture and generates a three-dimensional avatar,
A three-dimensional avatar creation system.
제1항에 있어서,
상기 이차원 사진상의 사용자 신체 특정 부분들을 터치로 입력 받아 지정하거나, 사용자의 키를 입력 받을 수 있는 입력 모듈 1을 더 포함하는, 삼차원 아바타 생성 시스템.
According to claim 1,
The three-dimensional avatar generation system further comprising an input module 1 capable of receiving specific user body parts on the two-dimensional picture to be inputted with a touch to designate it, or to receive a user's key.
제1항에 있어서,
상기 아바타 생성 모듈은,
상기 사용자의 상기 이차원 사진상에서 미리 지정된 신체부위 들의 수치를 계산하는 수치계산 모듈 1을 포함하는, 삼차원 아바타 생성 시스템.
According to claim 1,
The avatar creation module comprises:
and a numerical calculation module 1 for calculating the numerical values of the body parts designated in advance on the two-dimensional picture of the user.
제3항에 있어서,
상기 입력 모듈 1은,
상기 수치 계산 모듈 1에 의해 자동으로 계산된 상기 수치들을 갱신할 수 있는 새로운 수치들을 입력 받을 수 있는 것인, 삼차원 아바타 생성시스템.
4. The method of claim 3,
The input module 1 is,
The three-dimensional avatar generating system that can receive new numerical values for updating the numerical values automatically calculated by the numerical calculation module 1.
제4항에 있어서,
상기 아바타 생성 모듈은,
상기 이차원 사진 및 상기 수치들 또는 상기 새로운 수치들을 이용해서 뼈대(skeleton) 및 표면 텍스처(texture)를 생성하고, 상기 이차원 사진상의 사용자의 머리 및/또는 얼굴 부분을 이용한 두상 텍스처를 적용하여 최종적인 삼차원 아바타를 생성하는, 삼차원 아바타 생성시스템.
5. The method of claim 4,
The avatar creation module comprises:
A skeleton and a surface texture are generated using the two-dimensional photo and the numerical values or the new numerical values, and a final three-dimensional (3D) texture is applied by applying a head texture using the head and/or face part of the user on the two-dimensional photo. A three-dimensional avatar generation system that creates an avatar.
제5항에 있어서,
상기 뼈대는 직립형 자세를 포함한 여러 자세를 구현하는 것인, 삼차원 아바타 생성 시스템.
6. The method of claim 5,
The skeleton is to implement various postures including an upright posture, a three-dimensional avatar generation system.
의상의 이차원 사진을 입력 받아 상기 의상의 삼차원 텍스처 사진을 생성하는 시스템에 있어서,
의상을 촬영하여 이차원 사진을 생성하는 카메라; 및
상기 이차원 사진을 입력 받아 상기 의상의 삼차원 텍스처 사진을 생성하는 텍스처 생성 모듈을 포함하는, 삼차원 텍스처 생성 시스템.
A system for receiving a two-dimensional picture of clothes and generating a three-dimensional texture picture of the clothes,
a camera that takes a picture of the costume and creates a two-dimensional picture; and
and a texture generating module configured to receive the two-dimensional photo and generate a three-dimensional texture photo of the garment.
제7항에 있어서,
상기 의상의 이차원 사진상에 미리 지정된 특정 부분들을 터치로 입력 받고, 상기 의상의 상하 길이 및 상기 의상의 탄성 계수를 입력 받을 수 있는 입력 모듈 2를 더 포함하는, 삼차원 텍스처 생성시스템.
8. The method of claim 7,
The three-dimensional texture generating system further comprising an input module 2 capable of receiving input of predetermined specific portions on the two-dimensional photo of the garment by touch, and receiving the upper and lower length of the garment and the elastic modulus of the garment.
제7항에 있어서,
상기 텍스처 생성 모듈은,
상기 의상의 상기 이차원 사진상에서 미리 지정된 부위들의 수치들을 계산하고, 상기 계산된 수치 및 상기 탄성 계수를 이용해서 상기 의상의 확장가능 크기에 대응하는 확장수치 들을 계산하는 수치 계산 모듈 2를 포함하는, 삼차원 텍스처 생성 시스템.
8. The method of claim 7,
The texture generation module includes:
3D, comprising a numerical calculation module 2 that calculates numerical values of predetermined parts on the two-dimensional photo of the garment, and calculates expansion values corresponding to the expandable size of the garment using the calculated numerical value and the elastic modulus Texture generation system.
제9항에 있어서,
상기 입력 모듈 2는,
상기 수치 계산 모듈에 의해 자동으로 계산된 상기 수치들 및 상기 확장 수치들을 갱신할 수 있는 새로운 수치들을 입력 받을 수 있는 것인, 삼차원 텍스처 생성 시스템.
10. The method of claim 9,
The input module 2,
The three-dimensional texture generation system, which can receive new values capable of updating the numerical values automatically calculated by the numerical calculation module and the extended numerical values.
제10항에 있어서,
상기 텍스처 생성 모듈은,
상기 의상의 이차원 사진 및 상기 수치들을 이용해서 상기 의상의 삼차원 텍스처 사진을 생성하고, 상기 의상의 이차원 사진 및 상기 확장 수치들을 이용해서 상기 의상의 확장 삼차원 텍스처 사진을 생성하는, 삼차원 텍스처 생성시스템.
11. The method of claim 10,
The texture generation module includes:
A system for generating a three-dimensional texture of the garment by using the two-dimensional photo of the garment and the numerical values, and generating an extended three-dimensional texture photo of the garment by using the two-dimensional photo of the garment and the expanded numerical values.
제1항 내지 제6항 중 어느 하나의 항에 의한 삼차원 아바타 생성 시스템에 의해 생성된 인체의 삼차원 아바타 및 제9항 내지 제11항 중 하나의 항에 의한 삼차원 텍스처 생성 시스템에 의해 생성된 의상의 삼차원 텍스처를 입력 받는 수신 모듈, 및
상기 입력된 삼차원 아바타에 상기 입력된 삼차원 텍스처를 적용하는 렌더링을 수행하여 삼차원 의상을 입은 삼차원 아바타를 생성하는 삼차원 피팅 모듈을 포함하는, 삼차원 피팅(fitting) 생성 시스템.
The three-dimensional avatar of the human body generated by the three-dimensional avatar generating system according to any one of claims 1 to 6 and the clothes generated by the three-dimensional texture generating system according to any one of claims 9 to 11 a receiving module for receiving a three-dimensional texture; and
and a three-dimensional fitting module configured to generate a three-dimensional avatar wearing a three-dimensional costume by performing rendering by applying the input three-dimensional texture to the input three-dimensional avatar.
제12항에 있어서,
상기 삼차원 피팅 모듈은,
상기 삼차원 아바타의 지정된 부분들에 대한 둘레 수치들 (아바타 수치)과 상기 삼차원 텍스처의 지정된 부분들에 대한 둘레 수치들(텍스처 수치) 및 상기 확장 삼차원 텍스처의 지정된 부분들에 대한 둘레 수치들(확장 텍스처 수치)을 비교해서,
상기 아바타 수치와 상기 텍스처 수치의 차이가 미리 지정된 오차 범위내에 있으면, 상기 삼차원 텍스처를 상기 삼차원 아바타에 적용하여 렌더링하고 의상이 몸에 맞는다는 신호를 생성하고,
만일 상기 텍스처 수치가 상기 아바타 수치보다 상기 미리 지정된 오차 범위보다 크면, 상기 삼차원 아바타에 실제 오차 범위의 크기에 비례해서 정해지는
크기의 더미를 추가하고 난 후에 상기 삼차원 텍스처를 적용하여 렌더링하고 의상이 몸보다 크다는 신호를 생성하며,
만일 상기 아바타 수치가 상기 텍스처 수치보다 상기 미리 지정된 오차 범위보다 크지만 상기 확장 텍스처 수치보다는 작으면, 상기 삼차원 아바타에 상기 확장 삼차원 텍스처를 적용하여 렌더링하고 의상이 몸에 딱 맞는다는 신호를 생성하며,
만일 상기 아바타 수치가 상기 텍스처 수치보다 상기 미리 지정된 오차 범위보다 크면서 상기 확장 텍스처 수치보다 크면, 상기 삼차원 아바타에 상기 확장 삼차원 텍스처를 차별적인 형태로 적용하여 렌더링하고 의상이 몸보다 작다는 신호를 생성하도록 구성되는, 삼차원 피팅 생성시스템.
13. The method of claim 12,
The three-dimensional fitting module,
Perimeter values for designated parts of the three-dimensional avatar (avatar figures), perimeter figures for designated parts of the three-dimensional texture (texture figures), and perimeter figures for designated parts of the extended three-dimensional texture (extended texture) numbers) by comparing
if the difference between the avatar value and the texture value is within a predetermined error range, apply the three-dimensional texture to the three-dimensional avatar to render it, and generate a signal that the clothes fit the body;
If the texture value is larger than the preset error range than the avatar value, the 3D avatar is determined in proportion to the size of the actual error range.
After adding a dummy of size, apply the three-dimensional texture to render and generate a signal that the costume is larger than the body,
if the avatar value is greater than the texture value, but is smaller than the extended texture value, the 3D avatar is rendered by applying the extended 3D texture, and a signal is generated that the clothes fit the body;
If the value of the avatar is greater than the predetermined error range and is greater than the value of the extended texture than the value of the texture, the extended 3D texture is applied to the 3D avatar in a differential form for rendering, and a signal indicating that the costume is smaller than the body is generated A three-dimensional fitting generation system, configured to
인터넷을 통한 의상 서비스 제공 방법에 있어서,
디스플레이한 의상에 대한 가상 피팅 서비스를 이용하고자 하는 사용자의 서비스 요청을 사이트 또는 앱을 통해서 입력 받는 단계;
서비스 요청한 사용자의 아이디 및 암호를 입력 받고 로그인을 허용하는 단계;
상기 사용자에 대한 정보 및 상기 의상에 대한 정보를 서버의 DB로부터 가져온 후 각각 상기 사용자에 대한 삼차원 아바타와, 상기 의상에 대한 삼차원 텍스처 또는 확장 삼차원 텍스처를 구성하는 단계;
상기 구성된 삼차원 아바타와 상기 삼차원 텍스처 또는 상기 확장 삼차원 텍스처를 렌더링하여 그 결과를 디스플레이하는 단계;를 포함하는, 인터넷을 통한 의상 서비스 제공 방법.
In the method of providing a clothing service through the Internet,
receiving a service request from a user who wants to use a virtual fitting service for displayed clothes through a site or an app;
receiving the ID and password of the user who requested the service and allowing login;
retrieving the information about the user and the information about the clothes from a DB of a server, and then configuring a 3D avatar for the user and a 3D texture or an extended 3D texture for the clothes;
Rendering the configured 3D avatar and the 3D texture or the extended 3D texture and displaying a result thereof.
제14항에 있어서,
주문 요청을 입력 받으면, 상기 사용자의 신체 사이즈 데이터가 상기 서버 또는 제3의 서버로 전달되는 단계;를 더 포함하는 인터넷을 통한 의상 서비스 제공 방법.
15. The method of claim 14,
When receiving an order request, the step of transmitting the body size data of the user to the server or a third server; clothing service providing method through the Internet further comprising a.
제15항에 있어서,
상기 서버 또는 상기 제3의 서버에서 전송된 의상 제작 완료 신호를 상기 사이트 또는 상기 앱에서 표시하는 단계;를 더 포함하는, 인터넷을 통한 의상 서비스 제공 방법.

16. The method of claim 15,
Displaying the garment production completion signal transmitted from the server or the third server on the site or the app; further comprising, a method for providing a garment service through the Internet.

KR1020200048598A 2020-04-22 2020-04-22 System for smart three dimensional garment fitting and the method for providing garment fitting service using there of KR20210130420A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200048598A KR20210130420A (en) 2020-04-22 2020-04-22 System for smart three dimensional garment fitting and the method for providing garment fitting service using there of

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200048598A KR20210130420A (en) 2020-04-22 2020-04-22 System for smart three dimensional garment fitting and the method for providing garment fitting service using there of

Publications (1)

Publication Number Publication Date
KR20210130420A true KR20210130420A (en) 2021-11-01

Family

ID=78519179

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200048598A KR20210130420A (en) 2020-04-22 2020-04-22 System for smart three dimensional garment fitting and the method for providing garment fitting service using there of

Country Status (1)

Country Link
KR (1) KR20210130420A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230132654A (en) 2022-03-08 2023-09-18 다이텍연구원 Systems and methods for supporting clothing fitting and distribution based on metaverse platform

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101775327B1 (en) 2015-12-10 2017-09-19 주식회사 매니아마인드 Method and program for providing virtual fitting service

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101775327B1 (en) 2015-12-10 2017-09-19 주식회사 매니아마인드 Method and program for providing virtual fitting service

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230132654A (en) 2022-03-08 2023-09-18 다이텍연구원 Systems and methods for supporting clothing fitting and distribution based on metaverse platform

Similar Documents

Publication Publication Date Title
KR101775327B1 (en) Method and program for providing virtual fitting service
KR101671649B1 (en) Method and System for 3D manipulated image combined physical data and clothing data
US20190325641A1 (en) System and Method for Simulating Realistic Clothing
US20220258049A1 (en) System and method for real-time calibration of virtual apparel using stateful neural network inferences and interactive body measurements
US8818883B2 (en) Personalized shopping avatar
US20170046769A1 (en) Method and Apparatus to Provide A Clothing Model
CN104992464A (en) Virtual garment try-on system and garment try-on method
US20130173226A1 (en) Garment modeling simulation system and process
WO2020203656A1 (en) Information processing device, information processing method, and program
TW200828043A (en) Terminal try-on simulation system and operating and applying method thereof
KR101499698B1 (en) Apparatus and Method for providing three dimensional model which puts on clothes based on depth information
CN113711269A (en) Method and system for determining body metrics and providing garment size recommendations
JP6262105B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP2016038811A (en) Virtual try-on apparatus, virtual try-on method and program
US11301656B2 (en) Clothing having one or more printed areas disguising a shape or a size of a biological feature
US20210326955A1 (en) Generation of Improved Clothing Models
CN113610612A (en) 3D virtual fitting method, system and storage medium
Gupta New directions in the field of anthropometry, sizing and clothing fit
JP2018106736A (en) Virtual try-on apparatus, virtual try-on method and program
Zong et al. An exploratory study of integrative approach between 3D body scanning technology and motion capture systems in the apparel industry
KR20210130420A (en) System for smart three dimensional garment fitting and the method for providing garment fitting service using there of
JP7039094B1 (en) Information processing equipment, information processing methods, and programs
Pei The effective communication system using 3D scanning for mass customized design
WO2022081745A1 (en) Real-time rendering of 3d wearable articles on human bodies for camera-supported computing devices
CN114556332B (en) Information processing apparatus, 3D system, and information processing method

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination