KR20140123228A - Apparatus and Method for providing three dimensional model which puts on clothes based on depth information - Google Patents

Apparatus and Method for providing three dimensional model which puts on clothes based on depth information Download PDF

Info

Publication number
KR20140123228A
KR20140123228A KR20130040214A KR20130040214A KR20140123228A KR 20140123228 A KR20140123228 A KR 20140123228A KR 20130040214 A KR20130040214 A KR 20130040214A KR 20130040214 A KR20130040214 A KR 20130040214A KR 20140123228 A KR20140123228 A KR 20140123228A
Authority
KR
South Korea
Prior art keywords
user
length
body model
dimensional
dimensional body
Prior art date
Application number
KR20130040214A
Other languages
Korean (ko)
Other versions
KR101499698B1 (en
Inventor
최광진
홍우석
명노준
Original Assignee
(주)에프엑스기어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에프엑스기어 filed Critical (주)에프엑스기어
Priority to KR1020130040214A priority Critical patent/KR101499698B1/en
Publication of KR20140123228A publication Critical patent/KR20140123228A/en
Application granted granted Critical
Publication of KR101499698B1 publication Critical patent/KR101499698B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Architecture (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

According to an embodiment of the present invention, a method for providing a three-dimensional model which wears clothes based on depth information can quickly create an accurate three-dimensional model that resembles a user′s body by creating the three-dimensional model by using a plurality of standard body data and the user′s height and waist size. Accordingly, the user can quickly check an image in which the three-dimensional model wears clothes instead of the user, thereby improving user convenience. In addition, an interface of a display unit to induce user input and recommend a selection is configured to provide the user with convenient and more information, thereby improving operability and convenience of the user.

Description

깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 장치 및 방법{Apparatus and Method for providing three dimensional model which puts on clothes based on depth information}TECHNICAL FIELD [0001] The present invention relates to an apparatus and a method for providing a three-dimensional garment wearing model based on depth information,

본 발명의 실시예들은 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법 및 장치에 관한 것으로서, 보다 상세하게는 의상을 착용한 사용자의 모습을 3차원 모델로 나타내는 데에 있어, 3차원 신체 모델 생성을 더욱 정확하고 빠르게 하기 위한 3차원 의상 착용 모델을 제공하는 방법 및 장치에 관한 것이다.The embodiments of the present invention relate to a method and apparatus for providing a three-dimensional garment wearing model based on depth information, and more particularly, to a three-dimensional model of a wearer wearing a garment, And more particularly, to a method and apparatus for providing a three-dimensional garment wearing model for more accurate and quick generation.

기술이 발달됨에 따라, 사용자의 신체를 디스플레이 장치에 나타내도록 시뮬레이션하여, 사용자의 아바타를 실시간으로 나타내는 기술이 최근 들어 많이 개발되고 있다. 이러한 기술이 주로 응용되는 분야로서 백화점이나 옷 가게와 같은 일반적인 리테일 ?의 경우를 들 수 있다. 소비자가 옷을 오프라인으로 구매할 때, 보는 것만으로는 기대감을 충족시킬 수 없기 때문에 직접 옷을 입어보게 되는 데 이 경우 입는 시간이 오래걸리고 불편할 수 있다. 이러한 경우 소비자가 옷을 입어보지 않고도 자신의 아바타를 통해 가상으로 옷을 착용해 봄으로써, 사용자의 편의를 향상시킬 수 있게 된다. 이러한 기술은 소위 매직 미러 시스템이라고 불리우기도 하며, 사용자의 모습이 거울에 비친듯이 디스플레이 장치에 그대로 나타나되, 사용자가 원하는 의상을 가상으로 착용해볼 수 있도록 하는 기능을 가진다.With the development of technology, a technique of simulating a user's body to be displayed on a display device and displaying a user's avatar in real time has been developed in recent years. These technologies are mainly applied to general retailing such as department store or clothing store. When a consumer buys clothes offline, he or she can try to dress directly because it can not satisfy the expectation by looking. In this case, it can take a long time and inconvenience. In this case, the consumer can improve the convenience of the user by wearing clothes virtually through their avatars without wearing clothes. Such a technique is called a so-called magic mirror system, and has the function of allowing the user to wear his or her desired clothes virtually by appearing on the display device in a mirror-like manner.

다만, 이러한 종래기술은 소비자의 아바타를 생성하기 위하여 카메라로 스캔하는 과정이 상당히 오래 걸린다. 예를 들어, 소비자의 신체를 촬영해야만 아바타를 생성할 수 있는데, 다 각도에서 소비자의 신체를 촬영해야하며, 촬영후 아바타를 생성하는 프로세싱 시간이 상당히 오래 걸린다. 이렇게 시간이 오래 걸릴경우, 소비자가 실제로 옷을 착용하는 시간과 비슷해지므로 이러한 기술을 이용해야할 필요성이 줄어들 수 있다. 또한, 종래기술은 소비자의 신체와 정확한 사이즈의 아바타를 생성하기 어렵다. 예를 들어, 소비자가 두꺼운 옷을 착용하고 있는 경우 카메라는 사용자의 외양만을 판단하여 아바타를 생성하기 때문에, 실제 사용자 체형이 어떻게 되어 있는지 정확히 알 수 없으므로 아바타의 체형은 소비자의 체형과 전혀 다른 모습으로 생성될 수 있다. 이럴 경우에는 아바타가 소비자와 일치하지 않으므로 이러한 기술의 효용성이 줄어들게 된다.
However, this conventional technique takes a considerably long time to scan with a camera in order to create a consumer avatar. For example, an avatar can be created only when a consumer's body is photographed. The consumer's body must be photographed at multiple angles, and processing time for generating an avatar after taking a picture is considerably long. If this takes a long time, the need to use these techniques can be reduced because consumers are actually close to the time they wear their clothes. In addition, it is difficult for the prior art to generate an avatar of the exact size and the body of the consumer. For example, when a consumer wears a thick clothes, the camera generates an avatar by judging only the appearance of the user, so that it is impossible to know exactly what the user's body shape is. Therefore, the avatar body shape is completely different from the body shape of the consumer Lt; / RTI > In this case, avatars do not match consumers, which reduces the usefulness of these technologies.

따라서 위와 같은 문제를 해결하기 위하여 본 발명의 일 실시예는 일반적인 사람들의 대표 체형에 대한 데이터를 바탕으로 사용자의 체형을 생성하고, 신체의 세부적인 부위의 길이 정보를 통해 수정을 가 함으로써, 정확하고 빠른 사용자의 3차원 모델을 생성하는 것을 목적으로 한다. Therefore, in order to solve the above-mentioned problems, an embodiment of the present invention generates accurate body shape of a user based on data on typical body shape of a general person, It is aimed to create a three-dimensional model of a fast user.

이러한 사용자의 3차원 모델을 신속하고 정확하게 생성함으로써, 매직 미러 시스템의 정확성, 편리성 및 신속성을 향상시키는 것을 목적으로 한다. Dimensional model of such a user quickly and accurately, thereby improving the accuracy, convenience, and promptness of the magic mirror system.

또한, 본 발명의 다른 목적 및 특징들은 후술되는 발명을 실시하기 위한 구체적 내용 및 특허청구범위에서 설명될 것이다.Other objects and features of the present invention will be described in the following detailed description and claims.

이와 같은 본 발명의 해결 과제를 달성하기 위하여, 본 발명의 일 실시예에 따르는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법은 깊이 카메라를 통해 사용자의 신체의 깊이 정보를 추출하여, 상기 신체의 각 부위의 길이를 측정하는 단계; 상기 측정된 길이 중에서 상기 사용자의 키 및 허리 둘레길이 중 적어도 하나를 기반으로, 데이터베이스에 저장된 복수 개의 표준 신체 데이터를 참고로 하여 상기 사용자의 3차원 신체 모델을 생성하는 단계; 상기 사용자의 3차원 신체 모델이 상기 사용자의 움직임에 대응하게 움직이도록 상기 사용자의 동작을 인식하는 단계; 상기 사용자로부터 의상을 선택받고, 상기 선택된 의상을 상기 사용자의 3차원 신체 모델에 적용하는 단계; 및 상기 선택된 의상이 적용된 상기 사용자의 3차원 신체 모델을 상기 사용자의 동작에 따라서 움직이도록 표시하는 단계; 를 포함하며, 상기 복수 개의 표준 신체 데이터는 상기 데이터베이스 내에서 상기 신체 각 부위의 길이 중 적어도 하나를 기준으로 분류되어 저장된 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of providing a three-dimensional garment wearing model based on depth information according to an embodiment of the present invention includes extracting depth information of a user's body through a depth camera, Measuring the length of each part of the body; Generating a three-dimensional body model of the user with reference to a plurality of standard body data stored in a database based on at least one of the measured key length and the waist circumference of the user; Recognizing the operation of the user so that the three-dimensional body model of the user moves corresponding to the movement of the user; Selecting a costume from the user and applying the selected costume to the user's three-dimensional body model; And displaying the three-dimensional body model of the user to which the selected costume is applied to move according to an operation of the user; Wherein the plurality of standard body data are classified and stored based on at least one of the lengths of the respective parts of the body in the database.

또한, 상기 신체의 각 부위의 길이를 측정하는 단계 전에, 성별 및 연령을 포함하는 사용자 프로필을 입력받는 단계를 추가로 포함하는 것을 특징으로 한다.The method may further include receiving a user profile including sex and age before measuring the length of each part of the body.

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 사용자 프로필을 참고로 상기 데이터베이스에서 상기 사용자의 3차원 신체 모델을 생성하기 위한 복수의 표준 신체 데이터를 선택하는 것을 특징으로 한다.In addition, the step of generating the three-dimensional body model of the user is characterized by selecting a plurality of standard body data for creating the three-dimensional body model of the user in the database with reference to the user profile.

또한, 상기 신체 각 부위의 길이를 측정하는 단계는, 키, 팔 길이, 다리 길이 및 각 부위의 너비를 포함하는 상기 사용자의 신체 각 부위의 직선길이와; 허리 둘레길이, 가슴 둘레길이, 허벅지 둘레길이, 종아리 둘레길이 및 팔 둘레길이를 포함하는 상기 사용자의 신체 각 부위의 둘레길이를 측정하는 것을 특징으로 한다.In addition, the step of measuring the length of each part of the body may include: measuring a straight line length of each part of the user's body including a height, an arm length, a leg length and a width of each part; The circumference length of each part of the user's body including the waist circumference length, the chest circumference length, the thigh circumference length, the calf circumference length, and the arm circumference length is measured.

또한, 상기 신체 각 부위의 길이를 측정하는 단계는, 상기 사용자의 정면 입상(立像)에 대한 깊이 정보로부터 상기 사용자의 신체 각 부위의 직선길이를 측정하며, 상기 사용자의 정면과 측면 입상(立像)에 대한 깊이 정보로부터 상기 사용자의 신체 각 부위의 둘레길이를 측정하는 것을 특징으로 한다.The step of measuring the length of each part of the body measures a straight line length of each part of the user's body from the depth information of the frontal standing image of the user, The circumference length of each part of the user's body is measured from the depth information of the user.

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 사용자의 키 및 허리 둘레길이 중 적어도 하나를 기반으로 상기 각 표준 신체 데이터에 대하여 각각의 가중치를 결정하는 단계; 상기 각 표준 신체 데이터에 대응하는 가중치를 적용하는 단계; 및 상기 가중치가 적용된 상기 각 표준 신체 데이터를 선형적으로 합하여 상기 사용자의 3차원 신체 모델을 생성하는 단계;를 포함하는 것을 특징으로 한다.In addition, the step of generating the three-dimensional body model of the user may include: determining respective weights for each of the standard body data based on at least one of the key and the waist circumference of the user; Applying a weight corresponding to each of the standard body data; And generating the three-dimensional body model of the user by linearly summing the standard body data to which the weight is applied.

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계 후에, 상기 3차원 신체 모델 생성시 이용되지 않은 상기 사용자의 신체 각 부위의 길이를 기반으로 상기 3차원 신체 모델을 수정하는 단계를 추가로 포함하는 것을 특징으로 한다.Further, the method may further include modifying the three-dimensional body model based on the length of each part of the user's body that is not used in generating the three-dimensional body model, after the step of generating the three-dimensional body model of the user .

또한, 상기 3차원 신체 모델을 수정하는 단계는, 상기 측정된 사용자의 키와 상기 허리 둘레길이의 비율을 통해 상기 사용자의 비만율을 측정하는 단계; 및 상기 측정된 비만율을 통해 상기 생성된 3차원 신체 모델 내에 나타난 신체 각 부위의 굵기를 수정하는 단계;를 포함하는 것을 특징으로 한다.The step of modifying the three-dimensional body model may include measuring a user's obesity rate through a ratio of the measured user's key to the waist circumference length; And modifying the thickness of each part of the body in the generated three-dimensional body model through the measured obesity rate.

또한, 상기 선택된 의상이 적용된 상기 사용자의 3차원 신체 모델을 상기 사용자의 동작에 따라서 움직이도록 표시하는 단계는, 상기 선택된 의상이 상기 사용자의 3차원 신체 모델이 움직이는 것에 대응하여 움직이도록 표시하는 것을 특징으로 한다.In addition, the step of displaying the user's three-dimensional body model to which the selected costume is applied to move according to the motion of the user may include displaying the selected costume to move corresponding to the movement of the user's three- .

또한, 상기 사용자의 3차원 신체 모델을 표시하는 단계 후, 상기 3차원 신체 모델 상에 적용된 의상과 다른 의상이 상기 사용자에 의해 선택됨에 따라, 상기 선택된 다른 의상을 상기 3차원 신체 모델에 적용하여 표시하는 단계를 추가로 포함하는 것을 특징으로 한다.In addition, after displaying the user's three-dimensional body model, as the costume and other costumes applied on the three-dimensional body model are selected by the user, the selected other costume is applied to the three-dimensional body model The method comprising the steps of:

한편, 본 발명의 다른 실시예에 따르는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치는 사용자의 신체의 깊이 정보를 추출하여 상기 사용자의 신체의 각 부위의 길이를 측정하는 신체 측정부; 신체 각 부위의 길이 중 적어도 하나를 기준으로 분류된 복수 개의 표준 신체 데이터를 저장하는 데이터베이스; 상기 측정된 각 부위의 길이 중에서 상기 사용자의 키 및 허리 둘레길이 중 적어도 하나를 기반으로, 상기 복수 개의 표준 신체 데이터를 참고로 하여 상기 사용자의 3차원 신체 모델을 제공하는 3차원 신체 모델 제공부; 상기 사용자의 3차원 신체 모델이 상기 사용자의 움직임에 대응하게 움직이도록 상기 사용자의 동작을 인식하는 동작 인식부; 상기 사용자의 3차원 신체 모델에 적용할 의상을 상기 사용자로부터 입력받는 입력부; 및 상기 입력된 의상이 적용된 상기 3차원 신체 모델을 상기 사용자의 움직임에 따라서 동작하도록 표시하는 표시부; 를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an apparatus for providing a three-dimensional dressing model based on depth information, comprising: a body measurement unit for extracting depth information of a user's body and measuring lengths of respective parts of the user's body; A database for storing a plurality of standard body data classified on the basis of at least one of lengths of respective parts of the body; A three-dimensional body modeling unit for providing the three-dimensional body model of the user with reference to the plurality of standard body data based on at least one of the measured lengths of the user's keys and the waist circumference; An operation recognizing unit recognizing an operation of the user so that the three-dimensional body model of the user moves corresponding to the movement of the user; An input unit for receiving clothes to be applied to the user's three-dimensional body model from the user; And a display unit for displaying the 3D body model to which the input costume is applied to operate according to the movement of the user. And a control unit.

또한, 상기 신체 측정부는 키, 팔 길이, 다리 길이 및 각 부위의 너비를 포함하는 상기 사용자의 신체 각 부위의 직선길이와; 허리 둘레길이, 가슴 둘레길이, 허벅지 둘레길이, 종아리 둘레길이 및 팔 둘레길이를 포함하는 상기 사용자의 신체 각 부위의 둘레길이를 측정하는 것을 특징으로 한다.In addition, the body measurement unit may include a straight line length of each part of the user's body including a key, an arm length, a leg length, and a width of each part; The circumference length of each part of the user's body including the waist circumference length, the chest circumference length, the thigh circumference length, the calf circumference length, and the arm circumference length is measured.

또한, 상기 신체 측정부는, 상기 사용자의 신체를 촬영하여 깊이 정보를 추출하는 깊이 카메라; 상기 사용자의 정면 입상(立像)에 대한 깊이 정보로부터 상기 사용자의 신체 각 부위의 직선길이를 측정하는 직선길이 측정부; 및 상기 사용자의 정면과 측면 입상(立像)에 대한 깊이 정보로부터 상기 사용자의 신체 각 부위의 둘레길이를 측정하는 둘레길이 측정부; 를 포함하는 것을 특징으로 한다.The body measurement unit may include a depth camera for photographing a body of the user and extracting depth information; A straight line length measuring unit for measuring a straight line length of each part of the user's body from the depth information of the front view of the user; And a circumferential length measuring unit for measuring a circumferential length of each part of the user's body from the depth information of the front and side standing images of the user; And a control unit.

또한, 상기 입력부는 상기 의상을 사용자로부터 입력받기 전에, 성별 및 연령을 포함하는 사용자 프로필을 입력받는 것을 특징으로 한다.In addition, the input unit receives a user profile including sex and age before receiving the clothes from the user.

또한, 상기 3차원 신체 모델 제공부는, 상기 사용자 프로필을 참고로 하여 상기 데이터베이스에서 상기 사용자의 3차원 신체 모델을 생성하기 위한 복수의 표준 신체 데이터를 선택하는 것을 특징으로 한다.In addition, the three-dimensional body model provider may select a plurality of standard body data for creating the three-dimensional body model of the user in the database with reference to the user profile.

또한, 상기 3차원 신체 모델 제공부는, 상기 사용자의 키와 허리 둘레길이를 기반으로 상기 복수 개의 표준 신체 데이터를 참고하여 상기 사용자의 3차원 신체 모델을 생성하는 3차원 신체 모델 생성부; 및 상기 3차원 신체 모델 생성시 이용되지 않은 상기 사용자의 신체 각 부위의 길이를 기반으로 상기 3차원 신체 모델을 수정하는 3차원 신체 모델 수정부;를 포함하는 것을 특징으로 한다.The three-dimensional body model providing unit may include a three-dimensional body model generating unit for generating the three-dimensional body model of the user by referring to the plurality of standard body data based on the user's key and waist circumference length; And a three-dimensional body model modifying unit that modifies the three-dimensional body model based on a length of each part of the user's body that is not used in generating the three-dimensional body model.

또한, 상기 3차원 신체 모델 생성부는, 상기 사용자의 키 및 허리 둘레길이 중 적어도 하나를 기반으로 상기 각 표준 신체 데이터에 대하여 각각의 가중치를 결정하고, 상기 각 표준 신체 데이터에 대응하는 상기 가중치를 적용하며, 상기 가중치가 적용된 상기 각 표준 신체 데이터를 선형적으로 합하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 한다.The three-dimensional body model generation unit may determine a weight for each of the standard body data based on at least one of a key and a waist circumference of the user and apply the weight corresponding to each standard body data And the three-dimensional body model of the user is generated by linearly summing the standard body data to which the weight is applied.

또한, 상기 3차원 신체 모델 수정부는, 상기 측정된 사용자의 키와 상기 허리 둘레길이의 비율을 통해 상기 사용자의 비만율을 측정하고, 상기 측정된 비만율을 통해 상기 생성된 3차원 신체 모델 내에 나타난 신체 각 부위의 굵기를 수정하는 것을 특징으로 한다.The three-dimensional body model modifying unit may measure the obesity rate of the user through a ratio of the measured user's key to the waist circumference length, and may display the user's body mass in the generated three-dimensional body model through the measured obesity rate And the thickness of each part of the body is corrected.

또한, 상기 표시부는, 상기 선택된 의상이 상기 사용자의 3차원 신체 모델이 움직이는 것에 대응하여 움직이도록 표시하는 것을 특징으로 한다.Further, the display unit is characterized in that the selected clothes are displayed so as to move corresponding to the movement of the three-dimensional body model of the user.

또한, 상기 입력부에 상기 3차원 신체 모델 상에 적용된 의상과 다른 의상이 상기 사용자에 의해 입력됨에 따라, 상기 표시부는 상기 입력된 다른 의상을 상기 3차원 신체 모델에 적용하여 표시하는 것을 특징으로 한다.
In addition, as the costume and other costumes applied to the three-dimensional body model are input to the input unit by the user, the display unit applies the other costume to the three-dimensional body model for display.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예는 복수 개의 표준 신체 데이터와 사용자의 키와 허리 둘레길이를 이용하여 3차원 모델을 생성하므로, 사용자의 신체와 정확한 3차원 모델을 빠르게 생성할 수 있다. 그에 따라, 사용자가 3차원 모델을 통한 의상 대리 착용 영상을 빠르게 확인할 수 있어 사용자의 편의성이 향상된다. 또한, 사용자 입력을 유도하고 선택을 권유하는 표시부의 인터페이스가 사용자에게 편리하고 많은 정보를 제공할 수 있도록 구성되므로, 사용자의 편의성이 향상될 수 있다.At least one embodiment of the present invention configured as described above generates a three-dimensional model using a plurality of standard body data and a user's key and waist circumference length, so that it is possible to quickly generate a three- have. Accordingly, the user can quickly confirm the image of the costume worn over the three-dimensional model, thereby improving the convenience of the user. In addition, since the interface of the display unit for inducing user input and soliciting selection is configured to be convenient for the user and to provide a large amount of information, convenience for the user can be improved.

도 1 은 본 발명의 일 실시예에 따르는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치의 구조도이다.
도 2a 내지 도 2d는 본 발명의 일 실시예에 따라 신체 각 부위의 직선길이를 측정하기 위한 실시예를 나타내는 개략도이다.
도 3a 내지 도 3c는 본 발명의 일 실시예에 따라 신체 각 부위의 둘레길이를 측정하기 위한 실시예를 나타내는 개략도이다.
도 4는 본 발명의 일 실시예에 따라 데이터베이스에 저장되는 9가지 표준 3차원 신체 모델을 나타내는 개략도이다.
도 5는 본 발명의 일 실시예에 따라 키/허리 둘레의 비율에 따라 측정된 비만율을 나타내는 테이블이다.
도 6은 본 발명의 일 실시예에 따라 각각의 비만지표에 대응되는 3차원 신체 모델의 예시이다.
도 7a 와 도 7b는 본 발명의 일 실시예에 따라 시뮬레이션된 의상을 착용한 3차원 신체 모델이다.
도 8은 본 발명의 일 실시예에 따르는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법의 순서도이다.
도 9는 본 발명의 일 실시예에 따르는 표시부의 구조도이다.
1 is a structural view of an apparatus for providing a three-dimensional garment wearing model based on depth information according to an embodiment of the present invention.
2A to 2D are schematic views illustrating an embodiment for measuring a straight line length of each part of a body according to an embodiment of the present invention.
FIGS. 3A through 3C are schematic views illustrating an embodiment for measuring the circumferential length of each part of the body according to an embodiment of the present invention. FIG.
4 is a schematic diagram illustrating nine standard three-dimensional body models stored in a database in accordance with one embodiment of the present invention.
FIG. 5 is a table showing the obesity rate measured according to the ratio of the key / waist circumference according to an embodiment of the present invention.
Figure 6 is an illustration of a three-dimensional body model corresponding to each obesity index according to one embodiment of the present invention.
7A and 7B are three-dimensional body models wearing simulated garments according to an embodiment of the present invention.
8 is a flowchart of a method of providing a 3D garment model based on depth information according to an embodiment of the present invention.
9 is a structural view of a display unit according to an embodiment of the present invention.

이하, 본 발명의 실시예에 따르는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법 및 장치에 대하여 도면을 참조하여 보다 상세하게 설명한다. Hereinafter, a method and apparatus for providing a three-dimensional garment wearing model based on depth information according to an embodiment of the present invention will be described in detail with reference to the drawings.

본 명세서에서는 서로 다른 실시예라도 동일 · 유사한 구성에 대해서는 동일 · 유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다. 또한, 본 명세서에 첨부된 도면의 구성요소들은 설명의 편의를 위해 확대 또는 축소되어 도시될 수 있음이 고려되어야 한다. In the present specification, the same or similar reference numerals are given to different embodiments in the same or similar configurations. In addition, it should be considered that the components of the drawings attached hereto can be enlarged or reduced for convenience of explanation.

도 1을 참조하면, 본 발명의 일 실시예에 따르는 장치(100)는 입력부(100), 신체 측정부(120), 데이터베이스(130), 3차원 신체 모델 제공부(140), 동작 인식부(150), 의상 시뮬레이션부(160) 및 표시부(170)를 포함한다.Referring to FIG. 1, an apparatus 100 according to an embodiment of the present invention includes an input unit 100, a body measurement unit 120, a database 130, a three-dimensional body model providing unit 140, 150, a clothes simulation unit 160, and a display unit 170.

입력부(110)는 의상 선택 또는 사용자 프로필 입력을 위한 구성이다. 입력부(110)는 키패드, 키보드, 마우스, 마이크 등의 형태로 구성될 수 있다. 바람직하게, 입력부(110)는 터치 스크린으로 구성될 수 있으며, 이 경우 입력부(110)와 표시부(170)은 동일한 구성이 된다. 입력부(110)가 터치 스크린인 경우, 사용자 프로필 입력 조건(161)과 의상의 종류(163)를 표시할 수 있다. 사용자 프로필 입력 조건(161)은 성별과 연령에 대한 정보를 포함할 수 있으며, 의상의 종류(163)는 입력부(110)의 스크린 내에서 모든 개수의 의상을 포함하며, 각각의 의상은 3차원 또는 2차원 모델로 표시된다. 이때, 사용자는 입력부(110)를 통하여 해당하는 자신의 프로필을 입력하고, 자신이 입어보길 원하는 의상을 선택하여 입력할 수 있다. The input unit 110 is a configuration for selecting clothes or inputting a user profile. The input unit 110 may be configured in the form of a keypad, a keyboard, a mouse, a microphone, or the like. Preferably, the input unit 110 may be a touch screen. In this case, the input unit 110 and the display unit 170 have the same configuration. When the input unit 110 is a touch screen, the user profile input condition 161 and the garment type 163 can be displayed. The user profile input condition 161 may include information on gender and age, and the kind of clothes 163 includes all the clothes in the screen of the input unit 110, It is displayed as a two-dimensional model. At this time, the user can input his / her own profile through the input unit 110, and can select and input the clothes he / she wants to wear.

신체 측정부(120)는 사용자의 신체의 각 부위의 길이를 측정하는 것으로서, 깊이 카메라(121), 직선길이 측정부(122) 및 둘레길이 측정부(123)를 포함한다. The body measuring unit 120 measures the length of each part of the user's body and includes a depth camera 121, a linear-length measuring unit 122, and a circumferential-length measuring unit 123.

깊이 카메라(121)는 적외선 센서를 이용하여 특정한 대상을 촬영하고, 촬영된 대상에 대하여 실시간으로 깊이 정보를 획득한다. 본 발명의 일 실시예에서 깊이 카메라(121)는 사용자의 신체를 촬영하고, 그로부터 사용자의 신체의 깊이 정보를 추출하기 위해 이용된다. 깊이 카메라(121)는 사용자의 정면 입상(立像) 또는 측면 입상(立像)으로부터 깊이 정보를 추출하여 후술하는 신체 측정부(120)로 깊이 정보를 제공한다. 따라서, 사용자는 깊이 카메라(121) 촬영시 깊이 카메라(121)를 정면으로 바라보며 서 있거나, 측면으로 바라보며 서 있는 상태에서 촬영을 진행해야 한다. The depth camera 121 photographs a specific object using an infrared sensor and acquires depth information in real time on the photographed object. In one embodiment of the present invention, the depth camera 121 is used to capture the user's body and extract depth information of the user's body therefrom. The depth camera 121 extracts depth information from a front or a side view of the user and provides depth information to a body measurement unit 120, which will be described later. Therefore, the user must stand in front of the depth camera 121 when photographing the depth camera 121, or photograph the depth camera 121 while standing side by side.

직선길이 측정부(122)는 사용자의 정면 입상에 대한 깊이정보를 통해 신체 각 부위의 직선길이를 측정하는 것으로서, 예를 들어, 다리 길이, 팔 길이, 키, 몸체의 너비를 측정한다.The straight-line-length measuring unit 122 measures the straight-line length of each part of the body through the depth information of the user's frontal granularity, and measures, for example, the leg-length, arm-length, height and width of the body.

직선길이 측정부(122)는 먼저, 외곽선 추출 알고리즘을 통해 사용자의 신체의 가장자리를 감지한다. 도 2a를 참조하면, 외곽선 추출 알고리즘이 적용된 사용자의 신체의 모습이 도시되어 있다. 외곽선 추출 알고리즘에 의할 경우 사용자의 실루엣만을 판단하게 된다. 이어서, 도 2b를 참조하면, 직선길이 측정부(122)는 판단된 사용자의 실루엣을 바탕으로 말단 부위 추출 알고리즘을 통해 손 끝, 발 끝 등과 같은 신체의 말단 부위를 감지한다. 도 2b에는 손 끝, 발 끝, 머리 끝 부분이 사각형으로 부각되어 표시되어 있는 것을 확인할 수 있다. 여기서, 말단 부위 추출 알고리즘은 K-Curvature 알고리즘을 포함할 수 있다. 그리고, 판단된 신체의 말단을 바탕으로 신체의 주요 관절(skeleton Joint)이나 뼈대 부분을 감지하여 신체 주요 부위를 구분한다. 도 2c를 참조하면, 신체의 주요 관절이나 뼈대 부분이 검은색점으로 표시되어 있는 것을 확인 할 수 있다.The straightness measuring unit 122 first detects the edge of the user's body through an outline extraction algorithm. Referring to FIG. 2A, a body of a user to which an outline extraction algorithm is applied is shown. If the outline extraction algorithm is used, only the silhouette of the user is judged. Next, referring to FIG. 2B, the straightness measuring unit 122 detects a distal end portion of the user's body such as a hand tip, a foot tip, or the like through a terminal region extracting algorithm based on the determined silhouette of the user. In FIG. 2B, it can be seen that the tip of the hand, the tip of the foot, and the tip of the head are highlighted with a square. Here, the end region extraction algorithm may include a K-Curvature algorithm. Then, based on the determined end of the body, the body's major joints (skeleton joints) or skeletal parts are sensed to distinguish the main body parts. Referring to FIG. 2C, it can be seen that the major joints or skeleton parts of the body are marked with black dots.

그리고, 도 2d와 같이 신체 각 부위의 직선길이를 측정한다. 예를 들어, 말단 부위 추출 알고리즘에 의할 때, 발끝과 머리끝을 연결하는 직선의 길이가 사용자의 키(h)가 된다. 또한, 팔에 표시된 검은색점들 간의 거리를 측정할 경우, 아랫쪽 팔의 직선길이 또는 팔의 전체 길이를 측정할 수 있다. 또한, 몸통과 양 팔의 경계지점에 표시된 두 개의 검은색점 간의 거리를 측정할 경우, 몸통의 너비(w)를 측정할 수 있다. 즉, 검은색점 간의 거리 또는 말단 부위 간의 거리를 통해 신체 각 부위의 직선 거리를 측정할 수 있다. Then, the linear length of each part of the body is measured as shown in Fig. 2d. For example, according to the end portion extraction algorithm, the length of the straight line connecting the toe and the head end becomes the user's key (h). Also, when measuring the distance between the black points on the arm, you can measure the straight line length of the lower arm or the total length of the arm. In addition, when measuring the distance between two black points on the boundary between the torso and both arms, the width (w) of the torso can be measured. That is, the distance between the black points or the distance between the distal ends can measure the straight line distance of each part of the body.

둘레길이 측정부(123)는 사용자의 정면 입상 및 측면 입상의 깊이 정보를 통해 신체 각 부위의 둘레길이를 측정하는 것으로서, 예를 들어, 허리, 가슴, 종아리, 허벅지, 팔, 골반의 둘레길이를 측정한다. The circumferential length measuring unit 123 measures the circumferential length of each part of the body through the depth information of the frontal and lateral granular surface of the user. For example, the circumferential length measuring unit 123 measures the circumferential length of the waist, the chest, the calf, the thigh, .

도 3a 내지 도 3c는 신체 각 부위 중에서 허리 둘레길이를 추출하기 위한 예시 도면이다. 먼저, 도 3a를 참조하면, 둘레길이 측정부(123)는 사용자의 정면 입상에 대한 깊이 정보로부터 허리의 정면 둘레 형태를 추출한다. 도 3a의 왼쪽에 도시된 곡선이 허리의 정면 둘레 형태이다. 이어서, 둘레길이 측정부(123)는 사용자의 측면 입상에 대한 깊이 정보로부터 허리의 측면 둘레 형태를 추출한다. 도 3b의 왼쪽에 도시된 곡선이 허리의 측면 둘레 형태이다. 그리고, 둘레길이 측정부(123)는 허리의 정면 둘레 형태를 허리의 후면 둘레 형태로 추정하고, 허리의 왼쪽과 오른쪽 측면 둘레 형태는 모두 동일한 것으로 추정한다. 또한, 도 3c와 같이 둘레길이 측정부(123)는 정면, 후면, 왼쪽 측면, 오른쪽 측면 둘레 형태를 전체 허리 둘레 모양이 되도록 배치한 다음, 각 둘레 형태 사이에 이음새가 배치될 위치를 검출한다. 이어서, 둘레길이 측정부(123)는 이음새를 검출된 위치에 삽입함으로써, 전체 허리 둘레 형태를 완성한다. 둘레길이 측정부(123)는 완성된 전체 허리 둘레 형태로부터 허리 둘레의 길이를 측정할 수 있다.3A to 3C are illustrations for extracting the waist circumference length from each part of the body. 3A, the circumference length measuring unit 123 extracts the front circumference shape of the waist from the depth information of the front grain of the user. The curved line shown on the left side of FIG. 3A is the frontal circumference of the waist. Then, the circumferential length measuring unit 123 extracts the side circumferential shape of the waist from the depth information of the side grain of the user. The curve shown on the left side of FIG. 3B is in the form of a lateral circumference of the waist. The circumferential length measuring unit 123 estimates the front circumferential shape of the waist as the circumferential shape of the back of the waist and estimates that the circumferential shapes of the left and right sides of the waist are all the same. As shown in FIG. 3C, the circumferential length measuring unit 123 may be arranged such that the front surface, the rear surface, the left side surface, and the right side circumferential surface have a full waist circumference shape, and then a position where the joints are arranged between the circumferential shapes is detected. Then, the circumferential length measuring unit 123 completes the entire waist circumference shape by inserting the seam at the detected position. The circumferential length measuring unit 123 can measure the length of the waist circumference from the complete circumferential waist shape completed.

데이터베이스(130)는 복수 개의 표준 신체 데이터와 의상의 3차원 이미지를 저장한다. The database 130 stores a plurality of standard body data and a three-dimensional image of the garment.

복수 개의 표준 신체 데이터는 사용자가 속하는 국가의 국민 표준 신체 데이터로부터 분류 및 선별된 것으로서, 3차원 신체 모델을 형성하기 위한 신체의 각 부위의 길이에 대한 정보 등을 포함한다. 예를 들어, 표준 신체 데이터는 신체 각 부위의 직선길이 및 둘레길이, 각 표준 신체에 대한 3차원 이미지 등을 포함할 수 있다. The plurality of standard body data is classified and selected from the national standard body data of the country to which the user belongs, and includes information on the length of each part of the body to form a three-dimensional body model. For example, standard body data may include linear length and circumferential length of each part of the body, a three-dimensional image of each standard body, and the like.

본 발명의 일 실시예에 따라 복수 개의 표준 신체 데이터는 키와 신체의 굵기(예를 들어, 허리 둘레) 및 성별을 기준으로 다수 개로 분류되어 저장될 수 있다. 바람직하게, 9가지로 분류될 수 있다. 복수 개의 표준 신체 데이터가 9개로 분류될 경우, 각 표준 신체의 3차원 이미지는 도 4에 도시되어 있다. 도 4를 참조하면, 키와 몸통의 굵기를 기준으로 여자의 표준 신체가 9가지로 분류되어 있다. 키의 종류는 큰 키, 중간 키, 작은 키로 구분되며, 몸통의 굵기의 종류는 굵은 몸통, 중간 몸통, 가는 몸통으로 구분되므로 이들을 모두 조합할 경우 9가지로 분류된다. 특히, 도 4는 여자의 신체를 기준으로 분류한 것이므로 남자의 신체를 기준으로 분류할 경우 표준 신체를 정의하는 각 부위의 길이에 대한 정의는 달라질 수 있다.According to an embodiment of the present invention, a plurality of standard body data may be classified into a plurality of categories based on the height of the keys and body (for example, waist circumference) and gender. Preferably, it can be classified into nine types. When a plurality of standard body data is classified into nine, a three-dimensional image of each standard body is shown in FIG. Referring to FIG. 4, the standard body of a woman is classified into nine types based on the thickness of the key and the trunk. The type of key is divided into a large key, a middle key and a small key. The thickness of the body is divided into a thick body, a middle body, and a thin body. Particularly, FIG. 4 is classified based on the female body. Therefore, when classifying the body according to the male body, the definition of the length of each part defining the standard body may be changed.

의상의 3차원 이미지는 해당하는 상점이 보유하고 있는 의상이 3차원 이미지이다. 상기 의상의 3차원 이미지는 본래 의상의 색감 및 재질을 반영하여 정밀하게 제작되어 저장된다. 예를 들어, 실크 재질의 의상의 경우, 빛나는 질감이 느껴지도록 시뮬레이션되어 데이터베이스(130)에 저장될 것이다. 의상의 3차원 이미지는 카메라(121)를 통해 적어도 일 방향에서 촬영하여 정보가 추출된 후 소정의 프로세스에 의해 자동으로 3차원으로 생성되어 데이터베이스(130)에 저장될 수 있다. The three-dimensional image of the costume is the three-dimensional image of the costume that the store has. The three-dimensional image of the garment is precisely produced and stored reflecting the color and material of the garment. For example, in the case of a garment of silk material, it may be simulated to be felt in a shiny texture and stored in the database 130. The three-dimensional image of the garment may be captured in at least one direction through the camera 121, extracted from the information, automatically generated in three dimensions by a predetermined process, and stored in the database 130.

또한, 데이터베이스(130)는 비만율 테이블을 저장할 수 있다. 비만율은 후술하는 3차원 신체 모델의 수정시 이용될 수 있는 지표이다. 도 5를 참조하면, 비만율 테이블은 비만지수와 비만정도에 대한 정보를 포함한다. WTHR(Waist To Height Ratio)은 비만지수이며, 비만지수는 본래 키와 허리 둘레길이의 비율를 통해 측정된다. 비만율은 성별에 따라 다른 비만지수를 가지며, 비만지수가 높을 수록 비만율이 높은 것으로 분류된다. 그리고, 각 비만 정도에 대한 3차원 모델의 형상이 데이터베이스(130)에 저장될 수 있다. 도 6을 참고하면, 저체중, 정상, 과체중인 경우의 여자 모델들의 3차원 측면 형상이 도시되어 있다. 각 모델의 형상은 비만율에 따라 허리 둘레 허벅지 둘레, 가슴둘레 등에서 두드러지게 차이가 나도록 정의되어 있다.  In addition, the database 130 may store an obesity rate table. The obesity rate is an index that can be used to modify the three-dimensional body model described below. Referring to FIG. 5, the obesity rate table includes information on obesity index and degree of obesity. The WTHR (Waist To Height Ratio) is an obesity index, and the obesity index is measured by the ratio of the original height to the waist circumference. The obesity rate has different obesity indices according to sex, and the higher the obesity index, the higher the obesity rate. Then, the shape of the three-dimensional model for each degree of obesity can be stored in the database 130. Referring to FIG. 6, a three-dimensional side view of excitation models in the case of low body weight, normal body, and overweight body is shown. The shape of each model is defined such that the waist circumference is significantly different from the thigh circumference to the chest circumference according to the obesity rate.

3차원 신체 모델 제공부(140)는 측정된 사용자 신체의 각 부위의 직선길이 및 둘레길이를 바탕으로 3차원 신체 모델을 제공한다. 3차원 신체 모델 제공부(140)는 3차원 신체 모델 생성부(141)와 3차원 신체 모델 수정부(142)를 포함한다. The three-dimensional body model providing unit 140 provides a three-dimensional body model based on the measured straight line length and circumferential length of the user's body. The three-dimensional body model providing unit 140 includes a three-dimensional body model generating unit 141 and a three-dimensional body model modifying unit 142.

3차원 신체 모델 생성부(141)는 사용자가 입력한 사용자 프로필 조건과 사용자의 키와 허리 둘레길이를 이용하여, 데이터베이스(130)에 저장되어 있는 복수 개의 표준 신체 데이터 중에서 사용자의 신체가 어느 표준 신체 데이터와 부합하는지 매칭하고, 매칭결과를 통해 3차원 신체 모델을 생성한다. 예를 들어, 표준 신체 데이터의 그룹을 선택할 때, 사용자의 성별과 연령을 기준으로 선택될 수 있다. 이어서, 선택된 그룹 내에 표준 신체 데이터가 9종류가 있으며, 사용자의 키와 허리 둘레를 기준으로 파악할 때, 사용자의 신체가 9가지의 표준 신체 중 “큰 키 & 중간 몸통”에 가까운 것으로 판단될 수 있다. 이 경우, 사용자의 3차원 신체 모델은 “큰 키 & 중간 몸통”을 갖는 표준 3차원 신체 모델과 유사하도록 생성된다. The three-dimensional body model generation unit 141 generates a three-dimensional body model based on the user profile condition inputted by the user, the user's key and the waist circumference length, Match the data and generate a three-dimensional body model through the matching result. For example, when selecting a group of standard body data, it can be selected based on the user's gender and age. Then, there are nine kinds of standard body data in the selected group, and when the user's key and waist circumference are taken as a reference, the user's body can be judged to be close to the "large key & middle body" among the nine standard bodies . In this case, the user's three-dimensional body model is created to resemble a standard three-dimensional body model having a " large key & middle torso ".

구체적으로, 3차원 신체 모델 생성부(141)는 사용자의 키와 허리 둘레에 따라 각각의 표준 신체 데이터에 대한 가중치를 각각 달리 부여하고, 가중치가 반영된 각각의 표준 신체 데이터들을 선형적으로 합한다. 이때, 합한 결과를 통해 9가지의 표준 신체 중 어느 하나와 유사한 사용자의 3차원 신체 모델을 생성할 수 있다. Specifically, the three-dimensional body model generation unit 141 assigns different weights to the respective standard body data according to the user's key and waist circumference, and linearly integrates each of the standard body data reflecting the weight values. At this time, the combined result can be used to create a user's three-dimensional body model similar to any of the nine standard bodies.

3차원 신체 모델 수정부(142)는 생성된 3차원 신체 모델을 세부적으로 수정하여 2차적인 3차원 신체 모델을 생성한다. 생성된 3차원 신체 모델은 표준 신체 데이터와 키, 허리 둘레길이만을 기준으로 생성된 것이므로, 실제 사용자의 신체와 대략적인 형상이 비슷할 뿐 세부적인 부위까지 모양이나 길이가 동일하지 않다. 따라서, 이러한 부분을 보정하기 위하여, 3차원 신체 모델 수정부(142)는 신체 측정부(120)에서 측정된 길이 중 키와 허리 둘레길이를 제외한, 각 관절의 위치, 아랫팔 길이, 윗 팔 길이, 종아리 길이, 허벅지 길이, 가슴둘레길이, 몸통의 너비 등과 같은 세부적인 신체 부위 정보를 이용하여 3차원 신체 모델을 수정한다. The three-dimensional body model modifier 142 generates a secondary three-dimensional body model by modifying the generated three-dimensional body model in detail. Since the generated three-dimensional body model is generated based on only the standard body data, key, and waist circumference, the shape and the approximate shape of the actual user are similar, but the shapes and lengths are not the same. Therefore, in order to correct such a portion, the three-dimensional body model correcting unit 142 corrects the position, the lower arm length, and the upper arm length of each joint, excluding the height and the waist circumference measured in the body measuring unit 120 , Body part information such as calf length, thigh length, chest circumference, body width, etc. are used to modify the three-dimensional body model.

또한, 3차원 신체 모델 수정부(142)는 비만율을 3차원 신체 모델 수정의 척도로 이용할 수 있다. 구체적으로, 3차원 신체 모델 수정부(142)는 사용자의 키와 허리 둘레를 이용하여 비만지수를 계산할 수 있다. 3차원 신체 모델 수정부(142)는 계산된 비만지수에 따라 데이터베이스(130)에 저장되어 있는 비만율 테이블을 참고로 하여 사용자의 비만정도를 결정한다. 이어서, 3차원 신체 모델 수정부(142)는 결정된 비만정도에 따른 3차원 모델의 형상을 참고로 하여 사용자의 3차원 신체 모델을 수정하는 데에 반영한다. 예를 들어, 비만정도가 “과체중”인 경우, 허리 둘레, 가슴둘레, 허벅지둘레가 더욱 두꺼워지도록 사용자의 3차원 신체 모델이 수정될 수 있다. 한편, 비만율 측정에 있어, 사용자의 몸무게도 추가 입력변수가 된다면 더욱 정확한 비만율을 측정할 수 있을 것이며, 그에 따라 더욱 정확한 3차원 신체 모델의 수정이 가능할 수 있을 것이다.In addition, the three-dimensional body model correction unit 142 can use the obesity rate as a measure of the correction of the three-dimensional body model. Specifically, the three-dimensional body model correction unit 142 can calculate the obesity index using the user's key and waist circumference. The three-dimensional body model correction unit 142 determines the degree of obesity of the user with reference to the obesity rate table stored in the database 130 according to the calculated obesity index. Then, the three-dimensional body model correction unit 142 reflects the modification of the user's three-dimensional body model with reference to the shape of the three-dimensional model according to the determined degree of obesity. For example, if the degree of obesity is " overweight ", the user's three-dimensional body model may be modified so that waist circumference, chest circumference, thigh circumference become thicker. On the other hand, in the measurement of obesity rate, if the user's weight is also an additional input variable, more accurate obesity rate can be measured, so that a more accurate 3-dimensional body model can be corrected.

동작 인식부(150)는 사용자의 움직임의 결과를 의상을 착용한 3차원 신체 모델에 실시간으로 반영하기 위하여, 사용자의 동작을 인식한다. 구체적으로, 동작 인식부(150)는 깊이 카메라(121) 등을 이용하여 사용자의 깊이 정보 변화를 통해 사용자의 움직임을 인식할 수 있다. 동작 인식부(150)는 사용자의 움직임의 인식결과를 후술하는 의상 시뮬레이션부(160)에 전달한다. The motion recognition unit 150 recognizes the motion of the user in order to reflect the result of the motion of the user in real time on the 3D body model wearing the costume. Specifically, the motion recognition unit 150 can recognize the movement of the user through the depth information of the user using the depth camera 121 or the like. The motion recognition unit 150 transmits the recognition result of the motion of the user to the clothes simulation unit 160 to be described later.

의상 시뮬레이션부(160)는 입력부(110)를 통해 사용자가 입력한 의상이 생성된 3차원 신체 모델에 적용되도록 시뮬레이션하며, 나아가 사용자의 움직임을 실시간으로 반영할 수 있도록 사용자의 동작 및 의상의 움직임을 시뮬레이션한다. 구체적으로, 의상 시뮬레이션부(160)는 데이터베이스(130)로부터 사용자가 선택한 의상의 3차원 이미지를 검출하고, 검출된 의상의 3차원 이미지를 생성된 3차원 신체 모델에 적용시킨다. 이때, 3차원 신체 모델의 각 부위의 크기와 굴곡, 길이에 맞게 의상이 피팅된 모습으로 적용된다. 또한, 사용자가 움직임에 따라, 3차원 신체 모델 역시 움직이도록 시뮬레이션되며, 3차원 신체 모델에 착용된 의상 역시 3차원 신체 모델의 움직임에 대응하여 시뮬레이션된다. 이러한 과정은 소위 크로스 시뮬레이션이라 불리기도 하는 것으로서, 도 7a 및 도 7b를 통해 예시적으로 설명한다. 도 7a는 사용자가 서있는 일반적인 상태의 시뮬레이션 영상을 간략한 그림으로 나타낸 것이며 도 7b는 사용자가 움직이는 상태의 시뮬레이션 영상을 간략한 그림으로 나타낸 것이다. 도 7b를 도 7a와 비교할 경우, 이미지 내의 모델이 움직임에 따라, 모델의 의상 역시 펄럭거리거나, 구김이 생기는 상태로 변화되는 것을 알 수 있다.The costume simulation unit 160 simulates the three-dimensional body model generated by the user through the input unit 110 so as to be applied to the generated three-dimensional body model. Further, the costume simulation unit 160 simulates the motion of the user and the costume Simulate. Specifically, the costume simulation unit 160 detects a three-dimensional image of the user's selected garment from the database 130, and applies the three-dimensional image of the detected garment to the generated three-dimensional body model. At this time, the costume is applied to fit the size, bend, and length of each part of the three-dimensional body model. Also, as the user moves, the three-dimensional body model is also simulated to move, and the costume worn on the three-dimensional body model is also simulated corresponding to the motion of the three-dimensional body model. This process is also referred to as so-called cross simulation, and is exemplarily illustrated in FIGS. 7A and 7B. FIG. 7A is a simplified diagram illustrating a simulation image in a general state in which a user stands, and FIG. 7B is a simplified diagram illustrating a simulation image in a moving state of the user. 7B is compared with FIG. 7A, it can be seen that as the model in the image moves, the clothing of the model also changes to flicker or wrinkle.

표시부(170)는 3차원 신체 모델 제공부(140), 의상 시뮬레이션부(160), 동작 인식부(150)를 통해 생성된 사용자의 3차원 신체 모델을 표시하여 사용자에게 제공한다. 표시부(170)는 영상을 표시할 수 있는 디스플레이 장치, 스크린 등으로 이루어질 수 있다. 또한, 전술한 바와 같이, 표시부(170)가 터치 스크린으로 구성되는 경우, 입력부(110)와 표시부(170)은 동일한 구성이 될 수 있다. The display unit 170 displays the three-dimensional body model of the user generated through the three-dimensional body model providing unit 140, the costume simulating unit 160, and the motion recognizing unit 150 and provides the three-dimensional body model to the user. The display unit 170 may include a display device, a screen, or the like capable of displaying an image. Also, as described above, when the display unit 170 is configured as a touch screen, the input unit 110 and the display unit 170 may have the same configuration.

이하, 본 발명의 일 실시예에 따르는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법에 관하여 도 8 및 도 9를 통해 구체적으로 설명한다.Hereinafter, a method of providing a three-dimensional garment wearing model based on depth information according to an embodiment of the present invention will be described in detail with reference to FIGS. 8 and 9. FIG.

먼저, 사용자 3차원 신체 모델을 표시하기 위한 표시부(170)의 구성에 대하여 구체적으로 설명한다. 본 발명의 일 실시예에 따르는 표시부(170)는 터치 스크린으로 구성될 경우 입력부(110)와 동일한 구성이 될 수 있다. 이러한 표시부(170)의 구성은 도 9를 통해 상세히 설명한다.First, the configuration of the display unit 170 for displaying a user three-dimensional body model will be described in detail. The display unit 170 according to an embodiment of the present invention may have the same configuration as the input unit 110 when configured with a touch screen. The configuration of the display unit 170 will be described in detail with reference to FIG.

표시부(170)의 화면의 일 측에는 사용자 프로필 입력 조건(171)과 사용자 신체 치수(172)가 표시될 수 있다. 사용자 프로필 입력 조건(171)은 성별과 연령에 대한 정보를 포함할 수 있으며, 성별은 남성과 여성으로 구분되고, 연령은 아동, 청소년, 성인으로 구분될 수 있으나, 이러한 구분은 반드시 이에 한정되는 것은 아니다. 사용자 신체 치수(172)는 신체 측정부(120)에서 측정된 정보를 포함한다. 예를 들어, 키, 허리둘레, 윗팔 길이, 아랫팔 길이 등이 표시될 수 있다. 또한, 표시부(170)의 화면의 타 측에는 의상의 종류(173)가 표시될 수 있다. 의상의 종류(173)는 표시부(170)의 화면의 타 측에서 표시가능한 모든 개수의 의상을 포함한다. 도 9에는 편의상 “의상1, 의상2, ..., 의상n”으로 나타내었으나, 실제로는 각 의상의 3차원 이미지가 표시될 수 있다. 그리고, 표시부(170)의 화면 중앙에는 사용자의 3차원 신체 모델(174)가 표시될 수 있다. 3차원 신체 모델은 신체 측정부(120)와 3차원 신체 모델 제공부(140) 등의 동작에 의해 3차원 영상으로 표시될 수 있다. 또한, 표시부(170)의 화면의 나머지 영역은 배경이 표시될 수 있다. 상기 배경은 상기 표시부(170)의 위치에서 전방에 위치한 사용자를 촬영할 때, 사용자 뒤의 영역에 대한 이미지를 의미하는 것으로, 단순 2차원 영상으로 표시될 수 있다.On one side of the screen of the display unit 170, a user profile input condition 171 and a user's body size 172 may be displayed. The user profile input condition 171 may include information on gender and age. The gender may be classified into male and female, and the age may be classified into children, adolescents, and adults. no. The user's body size 172 includes information measured at the body measurement unit 120. [ For example, key, waist circumference, upper arm length, lower arm length, etc. may be displayed. The type of garment 173 can be displayed on the other side of the screen of the display unit 170. [ The kind of garment 173 includes all the number of clothes that can be displayed on the other side of the screen of the display unit 170. [ In Fig. 9, "costume 1, costume 2, ..., costume n" is shown for convenience, but in reality, a three-dimensional image of each costume can be displayed. The user's three-dimensional body model 174 can be displayed at the center of the screen of the display unit 170. The three-dimensional body model may be displayed as a three-dimensional image by operation of the body measurement unit 120 and the three-dimensional body model providing unit 140. The background of the remaining area of the screen of the display unit 170 may be displayed. The background means an image for a region behind the user when photographing a user located in front of the position of the display unit 170, and can be displayed as a simple two-dimensional image.

다시, 도 8로 돌아가서, 본 발명의 일 실시예에 따르는 방법의 순서를 설명하면, 사용자는 상기 표시부(170, 입력부(110)와 동일함)를 통해 사용자 프로필을 입력한다(S101). 이때, 입력 방식은 사용자 프로필 입력 조건(171) 내의 항목을 사용자가 터치하는 형태가 될 수 있다. 8, the user inputs a user profile through the display unit 170 (the same as the input unit 110) (S101). At this time, the input method may be a form in which a user touches an item in the user profile input condition 171. [

그리고, 깊이 카메라를 통해 사용자의 신체를 촬영한다(S102). 이때, 사용자는 사용자의 정면 입상이나 측면 입상 중 적어도 하나가 깊이 카메라(121)에 촬영되도록 포즈를 취한다. 정면 입상이 촬영될 경우, 도 2a에 나타난 모델의 포즈와 같이, 사용자가 양 팔을 들고 촬영한다면 더욱 정확한 깊이 정보가 추출될 수 있다. 한편, 허리 둘레길이를 측정하기 위해서는 정면 입상과 측면 입상에 대한 깊이 정보를 획득하는 것이 필요하므로, 더욱 정확한 신체 측정을 위해서는 사용자의 정면과 측면 입상 모두 촬영되는 것이 바람직하다.Then, the user's body is photographed through the depth camera (S102). At this time, the user poses such that at least one of the user's frontal granularity or side granular granularity is photographed by the depth camera 121. When the frontal standing image is photographed, more accurate depth information can be extracted if the user shoots with both arms, such as a pose of the model shown in FIG. 2A. On the other hand, in order to measure the waist circumference length, it is necessary to acquire depth information about the front and side surface granularity, and therefore, it is preferable that both frontal and lateral granularity of the user are photographed for more accurate body measurement.

이어서, 사용자 신체 각 부위의 직선길이와 둘레길이를 측정한다(S103). 전술한 바와 같이 직선길이 측정부(122, 도 1 참조)는 정면 입상에 대한 깊이 정보를 바탕으로 키, 다리 길이, 팔 길이, 몸통의 너비 등과 같은 신체 각 부위의 직선길이를 측정한다. 또한, 둘레길이 측정부(123, 도 1 참조)는 정면과 측면 입상에 대한 깊이 정보를 바탕으로 허리 둘레길이, 가슴 둘레길이, 허벅지 둘레길이 등과 같은 신체 각 부위의 둘레길이를 측정한다.Next, the straight length and the circumference length of each part of the user's body are measured (S103). As described above, the linear length measuring unit 122 (see FIG. 1) measures the straight length of each part of the body such as the height of the key, the leg length, the arm length, and the trunk based on the depth information on the frontal granular surface. The circumferential length measuring unit 123 (see FIG. 1) measures the circumferential length of each part of the body such as the waist circumference, the chest circumference, the thigh circumference, and the like based on the depth information of the front surface and the side surface grain.

3차원 신체 모델 제공부(140, 도 1 참조)는 측정된 키 및 허리 둘레길이를 기반으로, 1차적인 3차원 신체 모델을 생성하고, 팔 길이, 다리 길이, 가슴 둘레 및 관절의 위치와 같은 세부적인 정보를 통해 1차적인 3차원 신체 모델을 수정함으로써, 2차적인 3차원 신체 모델을 생성한다(S104). The three-dimensional body modeling unit 140 (see FIG. 1) generates a primary three-dimensional body model based on the measured key and waist circumference lengths and generates a three-dimensional body model such as arm length, leg length, By modifying the primary three-dimensional body model through detailed information, a secondary three-dimensional body model is created (S104).

1차적인 3차원 신체 모델 생성과 관련하여, 3차원 신체 모델 생성부(141, 도 1 참조)는 측정된 키 및 허리 둘레길이를 이용하여 사용자의 신체가 복수 개의 표준 신체 데이터 중 어느 것에 가까운지 판단한다. 예를 들어, 제 1 표준 신체 데이터, 제 2 표준 신체 데이터,..., 제 9 표준 신체 데이터가 정의될 때, 사용자의 키 및 허리 둘레길이가 제 2 표준 신체 데이터에 가까우며, 제 9 표준 신체 데이터에 가장 먼 것으로 판단될 수 있다. 이때, 제 2 표준 신체에 대하여 가장 높은 가중치를 적용하고, 제 9 표준 신체 데이터에 대하여 가장 낮은 가중치를 적용하며, 나머지 표준 신체에 대해서는 적절한 가중치를 적용한다. 그리고, 가중치가 적용된 각 표준 신체 데이터들을 선형적으로 더한 값을 통해 1차적인 3차원 신체 모델을 생성할 수 있다. Regarding the generation of the primary three-dimensional body model, the three-dimensional body model generation unit 141 (see FIG. 1) uses the measured key and waist circumference length to determine which of the plurality of standard body data the user's body . For example, when the first standard body data, the second standard body data, ..., the ninth standard body data are defined, the user's key and waist circumference are close to the second standard body data, It can be judged to be the most distant from the data. At this time, the highest weight is applied to the second standard body, the lowest weight is applied to the ninth standard body data, and the appropriate weight is applied to the remaining standard body. Then, a linear three-dimensional body model can be generated by linearly adding each weighted standard body data.

예시적으로, 아래의 수학식 1 및 2는 3차원 신체 모델을 생성하기 위한 방식을 수학적으로 나타낸 것이다.Illustratively, equations (1) and (2) below mathematically illustrate a method for generating a three-dimensional body model.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

수학식 1에서 B는 생성된 3차원 신체 모델에 대한 값이다. wi(α,β)는 가중치이며, α,β 는 키 및 허리 둘레길이와 관련된 변수를 의미한다. 즉, 가중치는 키 및 허리 둘레길이에 따라 결정된다. 가중치는 수학식 2를 참고하면 알 수 있다시피, 모든 가중치의 합은 1이 되어야 한다. pi는 표준 신체 데이터를 의미한다. i는 표준 신체 데이터의 인덱스이고, n은 표준 신체 종류의 개수를 의미하는 것으로서, 표준 신체가 9가지로 정의되는 경우 n =9이며 i는 0 ~ 8까지 정의된다.In Equation (1), B is a value for the generated three-dimensional body model. wi (α, β) is a weight, and α and β are variables related to the key and waist circumference. That is, the weight is determined according to the key and the waist circumference. As can be seen from Equation (2), the sum of all the weights should be 1. pi denotes standard body data. i is an index of standard body data, n is the number of standard body types, n = 9 when standard body is defined as 9, and i is defined as 0 to 8.

그리고, 2차적인 3차원 신체 모델 생성과 관련하여, 3차원 신체 모델 수정부(142, 도 1 참조)는 팔 길이, 다리 길이 등과 같은 신체의 세부 부위에 대한 데이터를 이용하여 3차원 신체 모델을 수정한다. 이때, 1차적인 3차원 신체 모델 생성시 이용된 키 및 허리 둘레길이를 제외하고, 팔 길이, 다리 길이, 가슴 둘레길이, 관절의 위치 등 세부적인 항목을 반영하여 3차원 신체 모델을 수정한다. 또한, 비만율을 측정하여, 3차원 신체 모델을 수정하는 데에 추가적으로 반영할 수도 있다.In connection with the generation of the second three-dimensional body model, the three-dimensional body model correction unit 142 (see FIG. 1) uses the data on the details of the body such as the arm length and the leg length, Modify it. At this time, the three-dimensional body model is modified by reflecting detailed items such as arm length, leg length, chest circumference, and joint position except for the key and waist circumference used in the generation of the first three-dimensional body model. In addition, the obesity rate can be measured and further reflected in the modification of the three-dimensional body model.

또한, 생성된 3차원 신체 모델이 사용자의 움직임에 따라서 움직이도록 사용자의 동작을 인식한다(S105). 동작 인식은 깊이 카메라(121) 등을 이용하여 실시간으로 깊이 정보를 추출하여 동작의 변화를 검출함으로써 이루어질 수 있다. In addition, the operation of the user is recognized so that the generated three-dimensional body model moves according to the movement of the user (S105). The motion recognition can be performed by extracting depth information in real time using a depth camera 121 or the like and detecting a change in motion.

이어서, 사용자의 3차원 신체 모델은 표시부(170)를 통해 표시된다(S106). 전술한 바와 같이 사용자의 3차원 신체 모델은 표시부(170)의 화면의 중앙영역에 표시된다. 이때, 표시되는 3차원 신체 모델은 사용자가 촬영당시 입고 있던 의상이 착용된 모습이거나, 기설정된 의상이 착용된 모습이 될 수 있다. 또한, 표시부(170)의 화면에는 사용자의 신체가 정확하게 측정된 것인지 확인하도록, 키, 허리둘레 등과 같은 사용자 신체치수가 표시될 수도 있다. 또한. 표시부(170)의 화면에는 사용자의 선택을 위해 의상의 종류(173)가 표시될 수 있다. 여기서, 표시부(170)에 표시되는 3차원 신체 모델은 사용자의 움직임에 따라 동일하게 움직일 수 있다.Then, the three-dimensional body model of the user is displayed through the display unit 170 (S106). As described above, the user's three-dimensional body model is displayed in the central area of the screen of the display unit 170. [ At this time, the displayed three-dimensional body model may be a state in which a user wears a costume worn at the time of shooting, or a state in which a predetermined costume is worn. Also, on the screen of the display unit 170, a user's body dimension such as a key, a waist circumference or the like may be displayed so that the user's body is accurately measured. Also. The type of garment 173 can be displayed on the screen of the display unit 170 for the user's selection. Here, the three-dimensional body model displayed on the display unit 170 can be moved in accordance with the movement of the user.

사용자는 표시부(170)를 통해 의상을 선택한다(S107). 이때, 사용자는 표시부(170)의 화면을 터치함으로써 원하는 의상을 선택할 수 있다. 또는, 사용자의 3차원 신체 모델의 움직임을 통해 원하는 의상을 선택할 수도 있다. 예를 들어, 사용자가 움직임에 따라 3차원 신체 모델 역시 움직이게 되므로, 3차원 신체 모델의 팔 부분이 “의상 1”영역과 중첩되도록 사용자가 손을 움직이는 경우, “의상 1”이 선택될 수 있다. The user selects a garment through the display unit 170 (S107). At this time, the user can select the desired clothes by touching the screen of the display unit 170. [ Alternatively, the user may select a desired outfit through the movement of the user's three-dimensional body model. For example, if a user moves his / her hand so that the arm portion of the three-dimensional body model overlaps the " Ward 1 " region, " Ward 1 "

이어서, 선택된 의상이 사용자의 3차원 신체 모델에 적용되어 표시된다(S108). 이때, 의상 시뮬레이션부(160)는 선택된 의상을 3차원 신체 모델의 크기에 맞게 착용시키도록 시뮬레이션한다. 또한, 의상 시뮬레이션부(160)는 동작 인식 결과를 전달받아, 착용된 의상이 사용자의 움직임에 따라 같이 움직이도록 시뮬레이션한다. Then, the selected garment is applied to the user's three-dimensional body model and displayed (S108). At this time, the garment simulation unit 160 simulates the selected garment to fit the size of the three-dimensional body model. In addition, the clothes simulation unit 160 receives the motion recognition result and simulates the worn clothes to move in accordance with the movement of the user.

사용자는 선택된 의상이 적용된 시뮬레이션 결과를 표시부(170)를 통해 확인할 수 있다. 여기서 사용자가 다른 의상을 입어보길 원하는 경우, 다른 의상을 선택할 수도 있다.The user can confirm the simulation result to which the selected clothes are applied through the display unit 170. Here, if the user wants to try on another costume, he can choose another costume.

따라서, 사용자가 다른 의상을 선택하는 입력이 있는지 판단하여, 그러한 입력이 있는 경우 S107단계로 리턴하여 다른 의상에 대하여 시뮬레이션 결과를 표시하며, 그러한 입력이 없는 경우, 그대로 종료하게 된다(S109).If there is such an input, the flow returns to step S107 to display the simulation result for the other costume. If there is no such input, the process ends as it is (S109).

이상으로 설명한 바와 같이 본 발명의 일 실시예는, 복수 개의 표준 신체 데이터와 사용자의 키와 허리 둘레길이를 이용하여 3차원 모델을 생성하므로, 사용자의 신체와 정확한 3차원 모델을 빠르게 생성할 수 있다. 또한, 사용자 입력을 유도하고 선택을 권유하는 표시부의 인터페이스가 사용자에게 편리하고 많은 정보를 제공할 수 있도록 구성되므로, 사용자의 편의성이 향상될 수 있다. 그러므로, 백화점이나, 옷 가게 등에서 본 발명의 일 실시예와 같은 매직 미러 시스템이 제공될 경우, 소비자에게 더욱 편리하고 신속한 정보를 제공할 수 있어 종래기술과 대비되는 큰 효과를 가져올 것으로 판단된다.As described above, according to an embodiment of the present invention, a three-dimensional model is generated using a plurality of standard body data, a user's key and a waist circumference length, and thus a user's body and an accurate three- . In addition, since the interface of the display unit for inducing user input and soliciting selection is configured to be convenient for the user and to provide a large amount of information, convenience for the user can be improved. Therefore, when a magic mirror system such as the one embodiment of the present invention is provided in a department store, a clothes shop, etc., it is possible to provide more convenient and quick information to the consumer, which is considered to have a great effect as compared with the prior art.

이상에서 본 발명의 바람직한 실시 예들에 대하여 상세하게 설명하였지만, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 수 있을 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments.

따라서, 본 발명의 권리범위는 이에 한정되는 것이 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Therefore, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also within the scope of the present invention.

100 : 장치 122 : 깊이 카메라
120 : 신체 측정부 122 : 직선길이 측정부
123 : 둘레길이 측정부 130 : 데이터베이스
141 : 3차원 신체 모델 생성부 142 : 3차원 신체 모델 수정부
160 : 표시부
100: Device 122: Depth camera
120: body measurement part 122: linear length measurement part
123: circumference length measuring unit 130: database
141: Three-dimensional body model generation unit 142: Three-dimensional body model correction unit
160:

Claims (20)

깊이 카메라를 통해 사용자의 신체의 깊이 정보를 추출하여, 상기 신체의 각 부위의 길이를 측정하는 단계;
상기 측정된 길이 중에서 상기 사용자의 키 및 허리 둘레길이 중 적어도 하나를 기반으로, 데이터베이스에 저장된 복수 개의 표준 신체 데이터를 참고로 하여 상기 사용자의 3차원 신체 모델을 생성하는 단계;
상기 사용자의 3차원 신체 모델이 상기 사용자의 움직임에 대응하게 움직이도록 상기 사용자의 동작을 인식하는 단계;
상기 사용자로부터 의상을 선택받고, 상기 선택된 의상을 상기 사용자의 3차원 신체 모델에 적용하는 단계; 및
상기 선택된 의상이 적용된 상기 사용자의 3차원 신체 모델을 상기 사용자의 동작에 따라서 움직이도록 표시하는 단계;를 포함하며,
상기 복수 개의 표준 신체 데이터는 상기 데이터베이스 내에서 상기 신체 각 부위의 길이 중 적어도 하나를 기준으로 분류되어 저장된 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
Extracting depth information of a user's body through a depth camera and measuring a length of each part of the body;
Generating a three-dimensional body model of the user with reference to a plurality of standard body data stored in a database based on at least one of the measured key length and the waist circumference of the user;
Recognizing the operation of the user so that the three-dimensional body model of the user moves corresponding to the movement of the user;
Selecting a costume from the user and applying the selected costume to the user's three-dimensional body model; And
And displaying the three-dimensional body model of the user to which the selected costume is applied to move according to an operation of the user,
Wherein the plurality of standard body data is classified and stored based on at least one of the lengths of the body parts in the database.
제 1 항에 있어서,
상기 신체의 각 부위의 길이를 측정하는 단계 전에, 성별 및 연령을 포함하는 사용자 프로필을 입력받는 단계를 추가로 포함하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
The method according to claim 1,
Further comprising the step of receiving a user profile including sex and age before measuring the length of each part of the body.
제 2 항에 있어서,
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 사용자 프로필을 참고로 상기 데이터베이스에서 상기 사용자의 3차원 신체 모델을 생성하기 위한 복수의 표준 신체 데이터를 선택하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
3. The method of claim 2,
Wherein the generating the three-dimensional body model of the user comprises:
And selecting a plurality of standard body data for creating the user's three-dimensional body model from the database with reference to the user profile.
제 1 항에 있어서,
상기 신체 각 부위의 길이를 측정하는 단계는,
키, 팔 길이, 다리 길이 및 각 부위의 너비를 포함하는 상기 사용자의 신체 각 부위의 직선길이와;
허리 둘레길이, 가슴 둘레길이, 허벅지 둘레길이, 종아리 둘레길이 및 팔 둘레길이를 포함하는 상기 사용자의 신체 각 부위의 둘레길이를 측정하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
The method according to claim 1,
Wherein measuring the length of each part of the body comprises:
A straight length of each part of the user's body including a height, a height, an arm length, a leg length and a width of each part;
Wherein the circumferential length of each part of the user's body including the waist circumference length, the bust circumference length, the thigh circumference length, the calf circumference length, and the arm circumference length is measured is provided. Way.
제 4 항에 있어서,
상기 신체 각 부위의 길이를 측정하는 단계는,
상기 사용자의 정면 입상(立像)에 대한 깊이 정보로부터 상기 사용자의 신체 각 부위의 직선길이를 측정하며,
상기 사용자의 정면과 측면 입상(立像)에 대한 깊이 정보로부터 상기 사용자의 신체 각 부위의 둘레길이를 측정하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
5. The method of claim 4,
Wherein measuring the length of each part of the body comprises:
Measuring a straight line length of each part of the user's body from depth information on a frontal image of the user,
Wherein a circumferential length of each part of the user's body is measured from depth information of the front and side standing images of the user.
제 4 항에 있어서,
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 사용자의 키 및 허리 둘레길이 중 적어도 하나를 기반으로 상기 각 표준 신체 데이터에 대하여 각각의 가중치를 결정하는 단계;
상기 각 표준 신체 데이터에 대응하는 가중치를 적용하는 단계; 및
상기 가중치가 적용된 상기 각 표준 신체 데이터를 선형적으로 합하여 상기 사용자의 3차원 신체 모델을 생성하는 단계;
를 포함하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
5. The method of claim 4,
Wherein the generating the three-dimensional body model of the user comprises:
Determining respective weights for each of the standard body data based on at least one of the user's key and waist circumference length;
Applying a weight corresponding to each of the standard body data; And
Generating a three-dimensional body model of the user by linearly summing each of the standard body data to which the weight is applied;
Wherein the depth information includes at least one of depth information, depth information, and depth information.
제 4 항에 있어서,
상기 사용자의 3차원 신체 모델을 생성하는 단계 후에,
상기 3차원 신체 모델 생성시 이용되지 않은 상기 사용자의 신체 각 부위의 길이를 기반으로 상기 3차원 신체 모델을 수정하는 단계를 추가로 포함하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
5. The method of claim 4,
After generating the three-dimensional body model of the user,
And modifying the three-dimensional body model based on a length of each part of the user's body that is not used in the generation of the three-dimensional body model, wherein the three-dimensional body model is provided based on the depth information How to.
제 7 항에 있어서,
상기 3차원 신체 모델을 수정하는 단계는,
상기 측정된 사용자의 키와 상기 허리 둘레길이의 비율을 통해 상기 사용자의 비만율을 측정하는 단계; 및
상기 측정된 비만율을 통해 상기 생성된 3차원 신체 모델 내에 나타난 신체 각 부위의 굵기를 수정하는 단계;
를 포함하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
8. The method of claim 7,
Wherein modifying the three-dimensional body model comprises:
Measuring an obesity rate of the user through a ratio of the measured user's key to the waist circumference length; And
Modifying the thickness of each part of the body in the generated three-dimensional body model through the measured obesity rate;
Wherein the depth information includes at least one of depth information, depth information, and depth information.
제 1 항에 있어서,
상기 선택된 의상이 적용된 상기 사용자의 3차원 신체 모델을 상기 사용자의 동작에 따라서 움직이도록 표시하는 단계는,
상기 선택된 의상이 상기 사용자의 3차원 신체 모델이 움직이는 것에 대응하여 움직이도록 표시하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
The method according to claim 1,
Wherein the step of displaying the three-dimensional body model of the user to which the selected clothes are applied to move according to the operation of the user,
And displaying the selected clothing to move corresponding to the movement of the user's three-dimensional body model.
제 1 항에 있어서,
상기 사용자의 3차원 신체 모델을 표시하는 단계 후, 상기 3차원 신체 모델 상에 적용된 의상과 다른 의상이 상기 사용자에 의해 선택됨에 따라, 상기 선택된 다른 의상을 상기 3차원 신체 모델에 적용하여 표시하는 단계를 추가로 포함하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 방법.
The method according to claim 1,
Displaying the user's three-dimensional body model and then applying the selected other costume to the three-dimensional body model and displaying it, as the costume and other costumes applied on the three-dimensional body model are selected by the user The method of claim 1, further comprising the step of:
사용자의 신체의 깊이 정보를 추출하여 상기 사용자의 신체의 각 부위의 길이를 측정하는 신체 측정부;
신체의 각 부위의 길이 중 적어도 하나를 기준으로 분류된 복수 개의 표준 신체 데이터를 저장하는 데이터베이스;
상기 측정된 각 부위의 길이 중에서 상기 사용자의 키 및 허리 둘레길이 중 적어도 하나를 기반으로, 상기 복수 개의 표준 신체 데이터를 참고로 하여 상기 사용자의 3차원 신체 모델을 제공하는 3차원 신체 모델 제공부;
상기 사용자의 3차원 신체 모델이 상기 사용자의 움직임에 대응하게 움직이도록 상기 사용자의 동작을 인식하는 동작 인식부;
상기 사용자의 3차원 신체 모델에 적용할 의상을 상기 사용자로부터 입력받는 입력부; 및
상기 입력된 의상이 적용된 상기 3차원 신체 모델을 상기 사용자의 움직임에 따라서 동작하도록 표시하는 표시부;
를 포함하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치.
A body measurement unit for extracting depth information of a user's body and measuring a length of each part of the user's body;
A database for storing a plurality of standard body data classified on the basis of at least one of lengths of respective parts of the body;
A three-dimensional body modeling unit for providing the three-dimensional body model of the user with reference to the plurality of standard body data based on at least one of the measured lengths of the user's keys and the waist circumference;
An operation recognizing unit recognizing an operation of the user so that the three-dimensional body model of the user moves corresponding to the movement of the user;
An input unit for receiving clothes to be applied to the user's three-dimensional body model from the user; And
A display unit for displaying the 3D body model to which the input costume is applied to operate in accordance with the motion of the user;
Wherein the depth information comprises at least one of the following:
제 11 항에 있어서,
상기 신체 측정부는 키, 팔 길이, 다리 길이 및 각 부위의 너비를 포함하는 상기 사용자의 신체 각 부위의 직선길이와;
허리 둘레길이, 가슴 둘레길이, 허벅지 둘레길이, 종아리 둘레길이 및 팔 둘레길이를 포함하는 상기 사용자의 신체 각 부위의 둘레길이를 측정하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치.
12. The method of claim 11,
Wherein the body measurement unit comprises: a linear length of each part of the user's body including a height, an arm length, a leg length and a width of each part;
A circumferential length of each part of the user's body including a waist circumference length, a chest circumference length, a thigh circumference length, a calf circumference length, and an arm circumference length is measured. .
제 12 항에 있어서,
상기 신체 측정부는,
상기 사용자의 신체를 촬영하여 깊이 정보를 추출하는 깊이 카메라;
상기 사용자의 정면 입상(立像)에 대한 깊이 정보로부터 상기 사용자의 신체 각 부위의 직선길이를 측정하는 직선길이 측정부; 및
상기 사용자의 정면과 측면 입상(立像)에 대한 깊이 정보로부터 상기 사용자의 신체 각 부위의 둘레길이를 측정하는 둘레길이 측정부;
를 포함하는 것을 특징으로 하는 가상의 의상 착용 장치.
13. The method of claim 12,
The body-
A depth camera for photographing a body of the user and extracting depth information;
A straight line length measuring unit for measuring a straight line length of each part of the user's body from depth information on the frontal standing image of the user; And
A circumference length measuring unit for measuring a circumference length of each part of the user's body from the depth information of the front and side standing images of the user;
Wherein the virtual clothes-attaching device comprises:
제 11 항에 있어서,
상기 입력부는 상기 의상을 사용자로부터 입력받기 전에, 성별 및 연령을 포함하는 사용자 프로필을 입력받는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 장치.
12. The method of claim 11,
Wherein the input unit receives a user profile including sex and age before receiving the clothes from the user.
제 14 항에 있어서,
상기 3차원 신체 모델 제공부는,
상기 사용자 프로필을 참고로 하여 상기 데이터베이스에서 상기 사용자의 3차원 신체 모델을 생성하기 위한 복수의 표준 신체 데이터를 선택하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하는 장치.
15. The method of claim 14,
The three-dimensional body model providing unit,
And a plurality of standard body data for creating the three-dimensional body model of the user is selected from the database with reference to the user profile.
제 11 항에 있어서,
상기 3차원 신체 모델 제공부는,
상기 사용자의 키와 허리 둘레길이를 기반으로 상기 복수 개의 표준 신체 데이터를 참고하여 상기 사용자의 3차원 신체 모델을 생성하는 3차원 신체 모델 생성부; 및
상기 3차원 신체 모델 생성시 이용되지 않은 상기 사용자의 신체 각 부위의 길이를 기반으로 상기 3차원 신체 모델을 수정하는 3차원 신체 모델 수정부;
를 포함하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치.
12. The method of claim 11,
The three-dimensional body model providing unit,
A three-dimensional body model generation unit for generating the three-dimensional body model of the user by referring to the plurality of standard body data based on the user's key and waist circumference length; And
A three-dimensional body model modifying unit that modifies the three-dimensional body model based on a length of each part of the user's body that is not used in generating the three-dimensional body model;
Wherein the depth information comprises at least one of the following:
제 16 항에 있어서,
상기 3차원 신체 모델 생성부는,
상기 사용자의 키 및 허리 둘레길이 중 적어도 하나를 기반으로 상기 각 표준 신체 데이터에 대하여 각각의 가중치를 결정하고, 상기 각 표준 신체 데이터에 대응하는 상기 가중치를 적용하며, 상기 가중치가 적용된 상기 각 표준 신체 데이터를 선형적으로 합하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치.
17. The method of claim 16,
Wherein the three-dimensional body model generation unit comprises:
Determining a weight for each of the standard body data based on at least one of the key and the waist circumference of the user, applying the weight corresponding to each of the standard body data, Wherein the three-dimensional body model of the user is generated by linearly combining the three-dimensional body model of the user and the three-dimensional body model of the user.
제 16 항에 있어서,
상기 3차원 신체 모델 수정부는,
상기 측정된 사용자의 키와 상기 허리 둘레길이의 비율을 통해 상기 사용자의 비만율을 측정하고, 상기 측정된 비만율을 통해 상기 생성된 3차원 신체 모델 내에 나타난 신체 각 부위의 굵기를 수정하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치.
17. The method of claim 16,
The three-dimensional body model modifying unit may include:
Measuring the obesity rate of the user through the measured ratio of the user's key and the waist circumference length and modifying the thickness of each part of the body in the generated three-dimensional body model through the measured obesity rate To provide a three-dimensional garment wearing model based on depth information.
제 11 항에 있어서,
상기 표시부는,
상기 선택된 의상이 상기 사용자의 3차원 신체 모델이 움직이는 것에 대응하여 움직이도록 표시하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치.
12. The method of claim 11,
The display unit includes:
And displaying the selected garment to move corresponding to a movement of the user's three-dimensional body model.
제 11 항에 있어서,
상기 입력부에 상기 3차원 신체 모델 상에 적용된 의상과 다른 의상이 상기 사용자에 의해 입력됨에 따라, 상기 표시부는 상기 입력된 다른 의상을 상기 3차원 신체 모델에 적용하여 표시하는 것을 특징으로 하는 깊이 정보 기반으로 3차원 의상 착용 모델을 제공하기 위한 장치.
12. The method of claim 11,
Wherein the display unit applies the other clothing image to the three-dimensional body model and displays the same based on the user's input of the costume and other costumes on the three-dimensional body model to the input unit To provide a three-dimensional garment wearing model.
KR1020130040214A 2013-04-12 2013-04-12 Apparatus and Method for providing three dimensional model which puts on clothes based on depth information KR101499698B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130040214A KR101499698B1 (en) 2013-04-12 2013-04-12 Apparatus and Method for providing three dimensional model which puts on clothes based on depth information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130040214A KR101499698B1 (en) 2013-04-12 2013-04-12 Apparatus and Method for providing three dimensional model which puts on clothes based on depth information

Publications (2)

Publication Number Publication Date
KR20140123228A true KR20140123228A (en) 2014-10-22
KR101499698B1 KR101499698B1 (en) 2015-03-09

Family

ID=51993991

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130040214A KR101499698B1 (en) 2013-04-12 2013-04-12 Apparatus and Method for providing three dimensional model which puts on clothes based on depth information

Country Status (1)

Country Link
KR (1) KR101499698B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899919A (en) * 2015-05-19 2015-09-09 武汉变色龙数据科技有限公司 Modeling method and apparatus
GB2541156A (en) * 2015-06-18 2017-02-15 Morris Gary Personalized garment image processing
KR20170133455A (en) * 2015-03-31 2017-12-05 이베이 인크. 3D garment correction technique using gestures
CN108229306A (en) * 2017-11-21 2018-06-29 深圳市商汤科技有限公司 Dress ornament detects and method, apparatus, storage medium and the equipment of neural metwork training
KR20220043574A (en) * 2020-09-29 2022-04-05 조수경 Styling device and the driving method thereof
WO2022103080A1 (en) * 2020-11-16 2022-05-19 Clo Virtual Fashion Inc. Method and apparatus for online fitting
KR102652199B1 (en) * 2023-10-11 2024-03-29 주식회사 패션에이드 System and method for generating video content based on pose estimation

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9594967B2 (en) 2015-03-31 2017-03-14 Google Inc. Method and apparatus for identifying a person by measuring body part distances of the person
CN107945225A (en) * 2017-12-12 2018-04-20 北京奇虎科技有限公司 The method and device of virtual scene structure, computing device, storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100483134B1 (en) * 1997-06-25 2005-08-05 주식회사 대우일렉트로닉스 Apparatus for sham wearing dress in the virture reality system
RU2534892C2 (en) * 2010-04-08 2014-12-10 Самсунг Электроникс Ко., Лтд. Apparatus and method of capturing markerless human movements
KR101158453B1 (en) * 2010-11-15 2012-06-19 주식회사 영우씨엔아이 Apparatus and Method for coordinating a simulated clothes with the three dimensional effect at plane using the two dimensions image data
KR101275538B1 (en) * 2011-07-13 2013-06-17 서울대학교산학협력단 Method and apparatus for measuring gap between human body and clothes by using 3 dimensionally scanned data

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170133455A (en) * 2015-03-31 2017-12-05 이베이 인크. 3D garment correction technique using gestures
KR20200012044A (en) * 2015-03-31 2020-02-04 이베이 인크. Modification of three-dimensional garments using gestures
US11073915B2 (en) 2015-03-31 2021-07-27 Ebay Inc. Modification of three-dimensional garments using gestures
US11662829B2 (en) 2015-03-31 2023-05-30 Ebay Inc. Modification of three-dimensional garments using gestures
CN104899919A (en) * 2015-05-19 2015-09-09 武汉变色龙数据科技有限公司 Modeling method and apparatus
GB2541156A (en) * 2015-06-18 2017-02-15 Morris Gary Personalized garment image processing
CN108229306A (en) * 2017-11-21 2018-06-29 深圳市商汤科技有限公司 Dress ornament detects and method, apparatus, storage medium and the equipment of neural metwork training
KR20220043574A (en) * 2020-09-29 2022-04-05 조수경 Styling device and the driving method thereof
WO2022103080A1 (en) * 2020-11-16 2022-05-19 Clo Virtual Fashion Inc. Method and apparatus for online fitting
KR20220066774A (en) * 2020-11-16 2022-05-24 (주)클로버추얼패션 Method and apparatus for online fitting
US11922577B2 (en) 2020-11-16 2024-03-05 Clo Virtual Fashion Inc. Method and apparatus for online fitting
KR102652199B1 (en) * 2023-10-11 2024-03-29 주식회사 패션에이드 System and method for generating video content based on pose estimation

Also Published As

Publication number Publication date
KR101499698B1 (en) 2015-03-09

Similar Documents

Publication Publication Date Title
KR101499698B1 (en) Apparatus and Method for providing three dimensional model which puts on clothes based on depth information
Zakaria et al. Anthropometry, apparel sizing and design
KR101775327B1 (en) Method and program for providing virtual fitting service
CN109598798B (en) Virtual object fitting method and virtual object fitting service system
KR101671649B1 (en) Method and System for 3D manipulated image combined physical data and clothing data
US9928411B2 (en) Image processing apparatus, image processing system, image processing method, and computer program product
RU2551731C1 (en) Method of virtual selection of clothes
US8571698B2 (en) Simple techniques for three-dimensional modeling
US20170046769A1 (en) Method and Apparatus to Provide A Clothing Model
US9715759B2 (en) Reference object for three-dimensional modeling
US20160071322A1 (en) Image processing apparatus, image processing system and storage medium
CN108292449A (en) Three-dimensional garment is changed using gesture
EP3332547A1 (en) Virtual apparel fitting systems and methods
TR201815349T4 (en) Improved virtual trial simulation service.
KR101557492B1 (en) Apparatus and Method for generating user's three dimensional body model based on depth information
KR101499699B1 (en) Apparatus and Method for generating user's three dimensional body model based on depth information
JP5109084B2 (en) Underwear tailor made system, server, underwear tailor made method, and underwear tailor made program
Gupta New directions in the field of anthropometry, sizing and clothing fit
CN112639875A (en) Dimension measuring system
Zong et al. An exploratory study of integrative approach between 3D body scanning technology and motion capture systems in the apparel industry
Ashdown Full body 3-D scanners
KR101519123B1 (en) 3-dimensional garment fitting cloud system using kiosk with kinetic sensor and method thereof
KR20210130420A (en) System for smart three dimensional garment fitting and the method for providing garment fitting service using there of
Liu et al. Modern Clothing Design Based on Human 3D Somatosensory Technology
Zhang Designing in 3D and Flattening to 2D Patterns

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200303

Year of fee payment: 6