KR20220113210A - 3D image generation method using body and clothing data - Google Patents

3D image generation method using body and clothing data Download PDF

Info

Publication number
KR20220113210A
KR20220113210A KR1020210017117A KR20210017117A KR20220113210A KR 20220113210 A KR20220113210 A KR 20220113210A KR 1020210017117 A KR1020210017117 A KR 1020210017117A KR 20210017117 A KR20210017117 A KR 20210017117A KR 20220113210 A KR20220113210 A KR 20220113210A
Authority
KR
South Korea
Prior art keywords
clothing
cloud data
user
point cloud
generating
Prior art date
Application number
KR1020210017117A
Other languages
Korean (ko)
Inventor
김태건
Original Assignee
주식회사 스타일딜리셔스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스타일딜리셔스 filed Critical 주식회사 스타일딜리셔스
Priority to KR1020210017117A priority Critical patent/KR20220113210A/en
Publication of KR20220113210A publication Critical patent/KR20220113210A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method and system for generating a three-dimensional (3D) composite image in which body information and clothing information are combined, and more particularly, to a method and system for generating a 3D composite image obtained by combining information on a user's body, data obtained by scanning clothing, and unique information on a fabric from which the clothing is manufactured. To this end, according to an embodiment of the present invention, a method for generating a 3D composite image by combining data scanned for clothing with data scanned for a user's body comprises the steps of: adjusting a distance of clothing cloud data by combining body cloud data representing the user's body, clothing cloud data representing clothing, unique information on fabric constituting clothing, and unique information on the clothing; generating 3D synthesized data in which the user's body and clothing are synthesized; and generating a 3D composite image by generating an outline and combining colors from the 3D composite data.

Description

신체와 의류 데이터에 의한 3D 이미지 생성 방법 {3D image generation method using body and clothing data}{3D image generation method using body and clothing data}

신체와 의류 데이터에 의한 3D 이미지 생성 방법에 관한 것이다.It relates to a method of generating a 3D image using body and clothing data.

개성을 중시하는 현대인은 현재 유행하는 패션 및 자신에게 맞는 패션을 찾기 위한 정보 획득 수단으로 인터넷을 사용하는 것이 일반화 되었다. 이러한 흐름으로 인해 인터넷에서는 다양한 쇼핑몰들이 생겨났으며, 이 중에서 가장 각광받는 분야 중의 하나가 의류 및 이를 포함한 패션 상품몰이다. 인터넷을 이용하여 패션 상품을 구It has become common for modern people who value individuality to use the Internet as a means of acquiring information to find the current fashion and fashion that suits them. Due to this trend, various shopping malls have been created on the Internet, and one of the most popular areas is a fashion product mall including clothes. Purchasing fashion products using the Internet

매하는 사용자들은 인터넷이 제공하는 시간적, 공간적 자유를 십분 활용하여 본인이 원하는 시간에 육체적인 노력을 들이지 않고 원하는 상품을 구매하여 이용한다.Every user makes full use of the temporal and spatial freedom provided by the Internet to purchase and use the desired product at the desired time and without physical effort.

사용자가 패션 상품몰의 웹페이지에서 제공되는 이미지를 확인하고 게시된 상품의 이미지에 관심이 있는 경우 이를 선택하여 상세한 정보를 확인하고 이를 통해 구매가 이루어지게 된다.When the user checks the image provided on the web page of the fashion product mall and is interested in the image of the posted product, selects it to check detailed information, and purchases are made through this.

이러한 구매 방식은 패션 상품의 경우, 이미지에서 좋게 보이던 상품이 실제로 수령했을 때 이미지와 다른 느낌을 받게 되는 경우가 빈번하고 이로 인해 제품의 반송, 반품 등이 발생되어 몰 운영자, 제품 생산자 및 구매자에게 시간적, 금전적 손해를 가져오게 되는 문제점이 있다.In the case of fashion products, products that look good in the image often feel different from the image when they are received. , there is a problem that causes financial loss.

이러한 문제점을 해결하기 위해 고안된 것이 인터넷을 통한 패션 정보 제공 방법이 있다. 인터넷을 통한 패션 정보 제공 방법은 사용자 정보를 데이터베이스화하고 상품과 체형을 합성하여 보여주는 코디 서비스를 제공하거나 사용자가 입력한 가상의 모델을 만들어 의류 상품 즉, 의상, 안경, 신발, 모자 등에 대한 이미지 데이터에서 자신이 선택한 상품을 미리 입혀봄으로써 코디 솔루션을 제공하는 방법이 있다.To solve this problem, there is a method of providing fashion information through the Internet. The fashion information provision method through the Internet is to provide a coordinating service that provides a database of user information and shows the product and body type by synthesizing or creating a virtual model input by the user to provide image data for clothing products, such as clothes, glasses, shoes, and hats. There is a way to provide a coordinating solution by pre-wearing the product of your choice.

그러나 인터넷 상의 코디 서비스 제공은 실물이 아닌 사이버 공간 상에서 가상의 모델을 이용하기 때문에 자신의 몸에 실제로 의류, 모자 등의 패션 제품을 걸쳤을 때 자신의 취향, 신체 특성, 피부, 헤어 색깔와의 전체적인 조화가 정확하게 맞는지 확인할 수 없으며 이에 따라 제품의 구입 후 제품에 만족하지 못하여 반품하는 사례가 빈번했다.However, since the provision of coordinating services on the Internet uses a virtual model in cyberspace rather than in real life, when wearing fashion products such as clothing and hats on one's body, the overall harmony with one's taste, body characteristics, skin, and hair color It is not possible to check whether the product is correct, and therefore, there were frequent cases of returning products after purchase because they were not satisfied with the product.

게다가 소비자는 오프라인의 백화점이나 쇼핑몰을 찾아가서 의류를 몸에 걸쳐본 후 현장에서 자신에게 어울리는지 판단하지 못하고 구입한 후 집에 와서 입어 보거나 다른 사람들의 의견을 들어 보면 자신에게 어울리지 않는 다고 판단하는 경우도 많아서 의류를 반품 또는 교환하는 경우도 자주 발생한다.In addition, if consumers go to an offline department store or shopping mall and try on clothes, they cannot judge whether they suit them on the spot. There are many cases where clothing is returned or exchanged.

소비자가 오프라인에서 입어보고 패션 제품을 사서도 반품하는 경우가 발생하는데 인터넷 상에서 구입한 패션 제품의 경우 소비자의 제품 만족도가 훨씬 떨어질 수밖에 없는 것이 당연한 결과이다.There are cases where consumers try on products offline and return them even when they buy fashion products. It is a natural result that in the case of fashion products purchased online, consumers' satisfaction with the products is much lower.

이러한 문제점으로 인하여 아직까지 온라인 상에서의 쇼핑 제공 서비스가 소비자 입장에서 신뢰도와 만족도가 떨어질 수밖에 없다.Due to these problems, the reliability and satisfaction of online shopping providing services are still inevitably lowered from the point of view of consumers.

본 발명이 해결하려는 과제는 의류를 스캔한 의류 스캔 정보 이외에 의류의 [0011] 제조한 원단의 고유정보를 이용한 3D 합성 이미지를 생성하는 방안을 제안함에 있다.The problem to be solved by the present invention is to propose a method of generating a 3D composite image using the unique information of the fabric manufactured of the clothing in addition to the scanned clothing scan information.

본 발명이 해결하려는 다른 과제는 의류를 스캔한 스캔 데이터보다 상대적으로 데이터 용량이 작은 의류 점군 데이터, 또는 메쉬 데이터를 이용하여 3D 합성 이미지를 생성하고 이 합성이미지에 스캔데이터를 합성하여 색감(컬러)를 표현하는 방안을 제안함에 있다.Another problem to be solved by the present invention is to generate a 3D composite image using clothing point cloud data or mesh data, which has a relatively smaller data capacity than scanned clothing scan data, and synthesize the scan data with the composite image to obtain color (color) We propose a way to express

본 발명이 해결하려는 또 다른 과제는 사용자의 신체 점군 데이터에 따라 변환이 가능한 의류 점군 데이터를 이용하여 3D 합성 이미지를 생성하는 방안을 제안함에 있다.Another problem to be solved by the present invention is to propose a method of generating a 3D composite image using clothing point cloud data that can be converted according to a user's body point cloud data.

본 발명이 해결하려는 또 다른 과제는 사용자의 신체에 착용되는 의류의 개수 또는 두께에 따라 가변되는 의류 점군 데이터를 이용하여 3D 합성 이미지를 생성하는 방안을 제안함에 있다.Another problem to be solved by the present invention is to propose a method of generating a 3D composite image using clothing point cloud data that varies according to the number or thickness of clothing worn on the user's body.

이를 위해 본 발명의 일 측면에 따른 사용자의 신체를 스캔한 데이터에 의류를 스캔한 데이터를 조합하여 3D 합성 이미지를 생성하는 방법은, 사용자의 신체를 나타내는 신체 클라우드 데이터와 의류를 나타내는 의류 클라우드 데이터, 의류를 구성하는 원단의 고유정보 및 상기 의류의 고유정보를 조합하여 의류 클라우드 데이터 사이의 거리를 조절하는 단계, 및 사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성하는 단계, 상기 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성하는 단계를 포함한다.To this end, according to an aspect of the present invention, there is provided a method for generating a 3D composite image by combining data scanned on clothes with data scanned on a user's body, body cloud data representing the user's body and clothing cloud data representing clothes; Adjusting the distance between the clothing cloud data by combining the unique information of the fabric constituting the clothing and the unique information of the clothing, and generating 3D composite data in which the user's body and the clothing are synthesized, from the 3D composite data It involves creating an outline and combining colors to create a 3D composite image.

또한, 상기 3D 합성 이미지 생성 방법은 상기 사용자의 신체의 외형을 나타내는 사용자 점군 데이터를 생성하는 단계, 및 상기 의류의 외형을 나타내는 의류 점군 데이터를 생성하는 단계를 더 포함하고, 상기 신체 클라우드 데이터와 상기 의류 클라우드 데이터는 점군 데이터로 이루어질 수 있다.In addition, the 3D composite image generating method further includes generating user point cloud data representing the outer shape of the user's body, and generating clothing point cloud data representing the outer shape of the clothing, wherein the body cloud data and the The clothing cloud data may consist of point cloud data.

또한, 상기 3D 합성 이미지 생성 방법은 상기 사용자의 신체의 외형을 나타내는 사용자 메쉬 데이터를 생성하는 단계, 및 상기 의류의 외형을 나타내는 의류 메쉬 데이터를 생성하는 단계를 더 포함하고, 상기 신체 클라우드 데이터와 상기 의류 클라우드 데이터는 메쉬 데이터로 이루어질 수 있다.In addition, the 3D composite image generating method further comprises the steps of generating user mesh data representing the outer shape of the user's body, and generating the garment mesh data representing the outer shape of the garment, wherein the body cloud data and the The clothing cloud data may be formed of mesh data.

또한, 상기 사용자 점군 데이터를 생성하는 단계는 사용자의 신체를 스캔하여 사용자 점군 데이터를 생성할 수 있다.In addition, the generating of the user point cloud data may include generating the user point cloud data by scanning the user's body.

또한, 상기 의류 점군 데이터를 생성하는 단계는 의류를 스캔하여 의류 점군 데이터를 생성할 수 있다.Also, in the generating of the clothing point cloud data, the clothing point cloud data may be generated by scanning the clothing.

또한, 상기 의류 점군 데이터를 생성하는 단계는 입력된 의류의 3D 이미지 파일로부터 의류 점군 데이터를 생성할 수 있다.Also, the generating of the clothing point cloud data may include generating the clothing point cloud data from the input 3D image file of the clothing.

또한, 상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터에 복수개의 기준점을 설정하는 단계와, 상기 기준점들 사이의 거리를 조절하는 단계, 및 상기 기준점으로부터 각 점군 데이터 사이의 거리를 조절하는 세부 간격 조절 단계를 포함할 수 있다.In addition, the adjusting the distance between the clothing cloud data includes setting a plurality of reference points in the clothing point cloud data, adjusting the distance between the reference points, and a distance between each point cloud data from the reference point. It may include a detailed interval adjustment step of adjusting the .

또한, 상기 세부 간격 조절 단계는, 사용자 신체의 부분들의 부피를 연산하는 단계, 상기 의류의 각 부분에 가해지는 응력을 연산하는 단계, 및 직물의 특성에 따라 확장 가능한 거리를 연산 하는 단계를 포함할 수 있다.In addition, the step of adjusting the detailed interval may include calculating the volume of the parts of the user's body, calculating the stress applied to each part of the clothing, and calculating the expandable distance according to the characteristics of the fabric. can

또한, 상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터의 이동 방향을 설정하는 단계를 포함할 수 있다.Also, the adjusting the distance between the clothing cloud data may include setting a movement direction of the clothing point cloud data.

또한, 상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산할 수 있다.Also, the adjusting the distance between the clothing cloud data may include extracting a plurality of inflection points in contact with the body from the clothing point cloud data, and calculating a shape change of the clothing point cloud data from the inflection points.

또한, 상기 원단의 고유정보는, 섬유의 종류, 탄성, 직물의 굵기, 직물의 단위면적당 무게, 직물의 통기성, 인장강도, 인열강도, 마모강도, 내열성, 수분이동성, 강연도, 드레이프성(drapability), 필링, 가방성, 실의 강도, 방적성, 실의 균제성, 굴곡 및 굽힙 특성, 및 충진성 중 적어도 하나로 이루어질 수 있다.In addition, the unique information of the fabric includes the type of fiber, elasticity, the thickness of the fabric, the weight per unit area of the fabric, the breathability of the fabric, tensile strength, tear strength, abrasion strength, heat resistance, moisture mobility, stiffness, drape ( drapability), peeling, bagging properties, yarn strength, spinning properties, yarn uniformity, bending and bending properties, and filling properties.

또한, 상기 3D 합성 이미지를 생성하는 단계는, 상기 사용자의 점군 데이터에 제1 의류의 외형을 나타내는 제1의류 점군 데이터를 합성하는 단계, 상기 제1 의류 점군 데이터를 합성한 이후 제2 의류의 외형을 나타내는 제2의류 점군 데이터를 합성하는 단계를 포함하며, 상기 제2 의류 점군 데이터에 대응되는 의류의 사이즈는 상기 제1 의류 점군 데이터에 대응되는 의류의 사이즈와 상기 제1 의류의 두께에 따라 연산될 수 있다.In addition, the generating of the 3D composite image may include synthesizing first clothing point cloud data representing an appearance of the first clothing with the user's point cloud data, and synthesizing the first clothing point cloud data and then the appearance of the second clothing and synthesizing second clothing point cloud data representing can be

또한, 3D 합성 이미지 생성 방법은 상기 3D 합성 이미지를 생성한 단계 이후에, 상기 3D 합성 이미지를 설정된 회전 속도로 회전시키는 단계를 더 포함할 수 있으며, 상기 회전시키는 단계에서는 상기 사용자의 점군 데이터에 합성된 의류 점군 데이터에 대응되는 의류의 고유정보에 따라 상기 3D 합성 이미지를 구성하는 의류의 움직임이 표현될 수 있다.In addition, the 3D composite image generating method may further include rotating the 3D composite image at a set rotation speed after the step of generating the 3D composite image, wherein the rotating step is synthesized with the user's point cloud data The movement of the clothes constituting the 3D composite image may be expressed according to the unique information of the clothes corresponding to the acquired clothes point cloud data.

또한, 3D 합성 이미지 생성 방법은 상기 사용자의 고유정보를 입력 받는 단계를 더 포함하며, 상기 사용자의 고유정보는 사용자의 나이, 성별, 모발색, 몸무게 중 적어도 하나로 이루어질 수 있다.In addition, the method for generating a 3D composite image further includes the step of receiving the user's unique information, and the user's unique information may consist of at least one of the user's age, gender, hair color, and weight.

또한, 상기 3D 합성 이미지를 생성하는 단계에서, 상기 사용자 점군 데이터에 합성될 의류 점군 데이터에 대응되는 의류가 적어도 2개 선택되면, 상기 의류의 고유정보에 따라 선택된 상기 2개의 의류에 대응되는 의류 점군 데이터가 순차적으로 상기 사용자 점군 데이터에 합성될 수 있다.In addition, if at least two pieces of clothing corresponding to the clothing point cloud data to be synthesized with the user point cloud data are selected in the generating of the 3D composite image, the clothing point groups corresponding to the two pieces of clothing selected according to the unique information of the clothing Data may be sequentially synthesized into the user point cloud data.

본 발명의 다른 측면에 따른 3D 합성 이미지 생성 시스템은 사용자의 신체를 스캔한 데이터로부터 신체의 외형을 나타내는 사용자 점군 데이터를 생성하며, 생성한 상기 사용자 점군 데이터와 상기 사용자의 고유정보를 전송하는 사용자 스캐너, 상기 사용자 점군 데이터, 의류 점군 데이터, 입력 받은 상기 의류를 구성하는 직물의 고유정보 및 상기 의류의 고유정보를 조합하여 사용자의 신체와 의류가 합성된 3D 합성 이미지를 생성하는 시스템 운영자 서버를 포함한다.A 3D composite image generating system according to another aspect of the present invention generates user point cloud data representing the appearance of a body from data scanned on a user's body, and a user scanner that transmits the generated user point cloud data and the user's unique information , by combining the user point cloud data, the clothing point cloud data, the input unique information of the fabric constituting the clothing, and the unique information of the clothing, a system operator server for generating a 3D composite image in which the user's body and clothing are synthesized. .

또한, 상기 시스템 운영자 서버는, 의류를 스캔한 데이터로부터 의류의 외형을 나타내는 의류 점군 데이터를 생성하는 의류 점군 데이터 생성부를 포함할 수 있다.In addition, the system operator server may include a clothing store cloud data generator that generates clothing point cloud data representing the appearance of clothing from the scanned clothing data.

또한, 상기 시스템 운영자 서버는, 의류 점군 데이터에 복수개의 기준점을 설정하는 기준점 설정부와, 상기 기준점들 사이의 거리를 조절하는 기준점 조절부와, 상기 기준점으로부터 각 점군 데이터 사이의 거리를 조절하는 점군 데이터 세부 조절부를 포함할 수 있다.In addition, the system operator server includes a reference point setting unit for setting a plurality of reference points in the clothing point cloud data, a reference point adjusting unit for adjusting the distance between the reference points, and a point group for adjusting the distance between each point cloud data from the reference point It may include a data detail control unit.

또한, 상기 점군 데이터 세부 조절부는, 사용자 신체의 부분들의 부피를 연산하는 신체 분석부, 상기 의류의 각 부분에 가해지는 응력을 연산하는 스트레스 연산부, 및 의류의 확장 가능한 거리를 연산하는 탄성 연산부를 포함할 수 있다.In addition, the point cloud data detailed control unit includes a body analyzer that calculates the volume of parts of the user's body, a stress calculator that calculates the stress applied to each part of the clothing, and an elasticity calculator that calculates the stretchable distance of the clothes can do.

또한, 상기 시스템 운영자 서버는 형상 제어부를 더 포함하고 상기 형상 제어부는 상기 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산할 수 있다.In addition, the system operator server may further include a shape control unit, and the shape control unit may extract a plurality of inflection points in contact with the body from the clothing point group data, and calculate a shape change of the clothing point group data from the inflection points.

본 발명에 따른 신체 정보와 의류 정보를 조합한 3D 합성 이미지 생성 방법 및 시스템은 사용자의 신체를 스캔한 스캔 데이터, 의류를 스캔한 스캔 데이터 및 의류의 고유정보를 조합하여 3D 합성 이미지를 생성함으로써 의류의 고유특성을 반영한 3D 합성 이미지를 생성할 수 있다.The method and system for generating a 3D composite image combining body information and clothing information according to the present invention create a 3D composite image by combining scan data scanned on a user's body, scan data scanned on clothing, and unique information of clothing to generate a 3D composite image. It is possible to create a 3D composite image that reflects the unique characteristics of

또한, 본 발명은 사용자의 신체를 스캔한 스캔 데이터(또는 사용자 점군 데이터)에 착용되는 의류의 개수 또는 두께를 반영하여 3D 합성 이미지를 생성한다. 이와 같이 본 발명은 의류의 고유정보를 이용하여 3D 합성 이미지를 생성함으로써 실제 사용자가 의류를 착용하였을 때와 동일한 효과를 갖는 이미지를 생성하는 것이 가능하다.In addition, the present invention generates a 3D composite image by reflecting the number or thickness of clothes worn in scan data (or user point cloud data) of a user's body. As described above, according to the present invention, it is possible to generate an image having the same effect as when an actual user wears the clothes by generating a 3D composite image using the unique information of the clothes.

또한, 시스템 운영자 서버는 의류에 대한 정보를 의류 제작업체로 제공받는 경우 의류에 대한 고유정보를 편리하게 관리할 수 있다.In addition, the system operator server may conveniently manage unique information about clothes when information on clothes is provided to a clothes manufacturer.

또한, 3D 합성 데이터를 고려하여 의류를 스캔한 스캔 데이터를 일부 변형한 데이터를 의류 제작업체로 제공하여 사용자의 맞춤 의류를 제작할 수 있다.In addition, data obtained by partially transforming scanned data of clothes in consideration of 3D synthetic data may be provided to a clothing manufacturer to produce customized clothing for the user.

도 1은 본 발명의 일 실시예에 따른 3D 합성 이미지를 생성하는 구성을 개략적으로 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 스캐너의 구성을 도시하고 있다.
도 3은 본 발명의 일 실시예에 따른 시스템 운영자 서버의 구성을 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 상이한 탄성을 갖는 직물로 제조한 의류를 신체에 합성한 예를 도시하고 있
다.
도 5는 본 발명의 일 실시예에 따른 신체 점군 데이터를 반영하여 의류 점군 데이터를 변형하는 예를 도시하고 있다.
도 6은 본 발명의 일 실시예에 따른 3D 합성 이미지 생성 방법을 도시한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 의류 클라우드 데이터 사이의 거리를 조절하는 과정을 도시한 흐름도이다.
1 is a diagram schematically illustrating a configuration for generating a 3D composite image according to an embodiment of the present invention.
2 shows the configuration of a user scanner according to an embodiment of the present invention.
3 is a block diagram illustrating the configuration of a system operator server according to an embodiment of the present invention.
Figure 4 shows an example of synthesizing clothes made of fabrics having different elasticity to the body according to an embodiment of the present invention.
All.
5 illustrates an example of transforming clothing point cloud data by reflecting body point cloud data according to an embodiment of the present invention.
6 is a flowchart illustrating a method for generating a 3D composite image according to an embodiment of the present invention.
7 is a flowchart illustrating a process of adjusting a distance between clothing cloud data according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하여 상세하게 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부 도면을 참조하여 본 발명 및 본 발명의 바람직한 실시예를 상세하게 설명한다.Hereinafter, the present invention and preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 3D 합성 이미지를 생성하는 구성을 개략적으로 도시한 도면이다. 이하 도 1을 이용하여 3D 합성 이미지를 생성하는 구성에 대해 알아보기로 한다.1 is a diagram schematically illustrating a configuration for generating a 3D composite image according to an embodiment of the present invention. Hereinafter, a configuration for generating a 3D composite image will be described with reference to FIG. 1 .

도 1에 의하면, 3D 합성 이미지를 생성하는 구성은 시스템 운영자 서버(100), 사용자 스캐너(200)를 포함하며, 시스템 운영자 서버(100)는 의류 데이터 생성부(110), 3D 합성 이미지 생성부(120), 제어부(30), 저장서버(150), 및 입력부(140)를 포함한다. 또한 사용자 스캐너(200)는 3D 스캐너(205), 통신부(220), 제어부(225),1 , the configuration for generating a 3D composite image includes a system operator server 100 and a user scanner 200, and the system operator server 100 includes a clothing data generator 110 and a 3D composite image generator ( 120 ), a control unit 30 , a storage server 150 , and an input unit 140 . In addition, the user scanner 200 includes a 3D scanner 205 , a communication unit 220 , a control unit 225 ,

입력부(210), 저장부(2015)를 포함한다. 물론 상술한 구성 이외에 다른 구성이 본 발명에서 제안하는 3D 합성 이미지를 생성하는 구성에 포함될 수 있다.It includes an input unit 210 and a storage unit 2015 . Of course, other configurations other than the above-described configuration may be included in the configuration for generating the 3D composite image proposed in the present invention.

시스템 운영자 서버(100)는 의류를 3D 스캐너를 이용하여 스캔한다. 시스템 운영자 서버(100)는 스캔한 의류에The system operator server 100 scans clothes using a 3D scanner. The system operator server 100 puts the scanned clothes on the

대한 스캐닝 데이터를 생성한다. 시스템 운영자 서버(100)는 생성한 스캐닝 데이터를 이용하여 의류 클라우드Generates scanning data for The system operator server 100 uses the generated scanning data to create a clothing cloud

데이터를 생성한다. 다만 본 발명이 이에 제한되는 것은 아니며 시스템 운영자 서버(100)는 3D 스캐너 이외에create data However, the present invention is not limited thereto, and the system operator server 100 is

다른 장치를 이용하여 의류디자인에 대한 점군 데이터를 생성할 수 있다. 이에 시스템 운영자 서버(100)는 의류Another device may be used to generate point cloud data for a clothing design. Accordingly, the system operator server 100 is

제작자로부터 제공된 3D 이미지 파일에서 의류 점군 데이터를 생성할 수 있다.Clothing point cloud data can be generated from the 3D image file provided by the manufacturer.

이하에서는 의류의 형태를 생성할 수 있는 데이터를 의류 클라우드 데이터라 정의하며, 의류 클라우드 데이터는 상기한 점군 데이터로 이루어질 수 있을 뿐만 아니라 메쉬 데이터로 이루어질 수도 있다. 다만 클라우드 데이터가 점군 데이터로 이루어지는 경우 용량이 작아서 데이터 처리 속도가 메쉬 데이터 또는 형상 데이터에 비하여 현저히 증가할 수 있다.Hereinafter, data capable of generating the shape of clothing is defined as clothing cloud data, and the clothing cloud data may be formed of the aforementioned point cloud data as well as mesh data. However, when the cloud data consists of point cloud data, the capacity is small, so the data processing speed may be significantly increased compared to the mesh data or shape data.

시스템 운영자 서버(100)는 의류의 형태를 생성할 수 있는 의류 점군 데이터 또는 의류 메쉬 데이터를 생성한다. 이를 위해 의류에 일정 간격으로 센서를 부착하고, 부착한 센서는 센서 상호간의 통신을 통해 센서 사이의 상대적인 거리를 측정할 수 있다. 시스템 운영자 서버(100)는 센서로부터 전달받은 상대적인 거리 정보를 이용하여 의류 점군 데이터를 생성한다. 다만 본 발명이 이에 제한되는 것은 아니며 시스템 운영자 서버(100)는 상술한 방식 이외에 다른 다양한 방식으로 의류 점군 데이터를 생성할 수 있다.The system operator server 100 generates clothing point cloud data or clothing mesh data capable of generating a shape of clothing. To this end, sensors are attached to clothing at regular intervals, and the attached sensors can measure the relative distance between the sensors through communication between the sensors. The system operator server 100 generates clothing point group data using the relative distance information received from the sensor. However, the present invention is not limited thereto, and the system operator server 100 may generate the clothing store group data in various methods other than the above-described method.

시스템 운영자 서버(100)는 입력부를 통해 의류와 원단에 대해 데이터를 입력 받는다. 즉, 입력부를 통해 의류와 원단에 대한 고유정보를 입력 받는다. 이에 대해서는 후술하기로 한다.The system operator server 100 receives data on clothes and fabrics through the input unit. That is, unique information about clothes and fabrics is input through the input unit. This will be described later.

이와 같이 본 발명의 시스템 운영자 서버(100)는 단순히 의류의 형태나 색상에 대한 데이터뿐만 아니라 의류를 제조한 원단에 대한 고유정보를 이용하여 3D 합성 이미지를 생성한다.As described above, the system operator server 100 of the present invention generates a 3D composite image using not only data on the shape or color of clothing but also unique information on the fabric from which the clothing is manufactured.

사용자 스캐너(200)는 사용자의 전신을 스캔한다. 사용자 스캐너(200)는 생성한 사용자의 전신에 대한 스캔 데이터를 이용하여 사용자의 전신 형태를 생성할 수 있는 사용자 점군 데이터 또는 사용자 메쉬 데이터를 생성한다. 사용자 스캐너(200)는 필요한 경우 사용자의 고유정보를 입력 받는다. 사용자의 고유정보는 사용자의 이름, 나이(연령대), 키, 몸무게, 성별, 모발의 색상, 모발의 형태 등이 포함된다. 사용자 스캐너(200)는 사용자 점군 데이터와 사용자 고유정보를 시스템 운영자 서버(100)로 제공한다.The user scanner 200 scans the user's whole body. The user scanner 200 generates user point cloud data or user mesh data capable of generating the user's full body shape by using the generated user's full body scan data. The user scanner 200 receives the user's unique information if necessary. The user's unique information includes the user's name, age (age), height, weight, gender, hair color, hair type, and the like. The user scanner 200 provides user point cloud data and user-specific information to the system operator server 100 .

시스템 운영자 서버(100)는 사용자 스캐너(200)로부터 제공받은 사용자 점군 데이터, 사용자 고유정보와 저장된 의류 점군 데이터를 합성하여 3D 합성 이미지를 생성한다. 물론 시스템 운영자 서버(100)는 3D 합성 이미지를 생성함에 있어 원단에 대한 고유정보를 이용한다. 즉, 사용자 점군 데이터, 의류 점군 데이터가 동일하더라도 입력 받은 원단의 고유정보가 상이한 경우에는 생성되는 3D 합성 이미지 역시 다른 이미지가 생성된다. 이하에서 도 1에 도시되어 있는 각 구성에 대해 상세하게 알아보기로 한다.The system operator server 100 generates a 3D composite image by synthesizing the user point cloud data provided from the user scanner 200 , user-specific information, and the stored clothing point cloud data. Of course, the system operator server 100 uses unique information about the far end in generating the 3D composite image. That is, even if the user point cloud data and the clothing point cloud data are the same, when the unique information of the received fabric is different, the generated 3D composite image is also a different image. Hereinafter, each configuration shown in FIG. 1 will be described in detail.

도 2는 본 발명의 일 실시예에 따른 사용자 스캐너의 구성을 도시하고 있다. 이하 도 2를 이용하여 본 발명의 일 실시예에 따른 사용자 스캐너의 구성에 대해 상세하게 알아보기로 한다.2 shows the configuration of a user scanner according to an embodiment of the present invention. Hereinafter, the configuration of a user scanner according to an embodiment of the present invention will be described in detail with reference to FIG. 2 .

도 2에 의하면, 사용자 스캐너는 3D 스캐너, 입력부, 저장부, 통신부 및 제어부를 포함한다. 물론 상술한 구성 이외에 다른 구성이 본 발명에서 제안하는 사용자 스캐너에 포함될 수 있다.Referring to FIG. 2 , the user scanner includes a 3D scanner, an input unit, a storage unit, a communication unit, and a control unit. Of course, other configurations other than the above-described configuration may be included in the user scanner proposed by the present invention.

3D 스캐너(205)는 사용자의 전신을 스캔한다. 3D 스캐너(205)는 스캔한 사용자의 전신에 대한 정보를 제어부(225)로 제공한다. 상술한 바와 같이 사용자 스캐너는 3D 스캐너 이외에 센서를 이용하여 사용자 클라우드 데이터를 생성할 수 있다. 여기서 클라우드 데이터는 점군 데이터 또는 메쉬 데이터로 이루어질 수 있다.The 3D scanner 205 scans the user's whole body. The 3D scanner 205 provides information about the scanned user's whole body to the controller 225 . As described above, the user scanner may generate user cloud data using a sensor other than the 3D scanner. Here, the cloud data may include point cloud data or mesh data.

입력부(210)는 사용자 고유정보를 입력 받는다. 상술한 바와 같이 사용자 고유정보는 사용자의 나이, 성별, 키, 몸무게, 이름 등이 포함된다. 물론 상술한 정보 이외에 다른 정보가 사용자 고유정보에 포함될 수 있다.The input unit 210 receives user-specific information. As described above, the user-specific information includes the user's age, gender, height, weight, name, and the like. Of course, other information in addition to the above-described information may be included in the user-specific information.

제어부(225)는 3D 스캐너(205)로부터 제공받은 스캔 데이터를 이용하여 사용자 점군 데이터를 생성한다. 즉, 스캔 데이터에 비해 상대적으로 데이터 사이즈가 작은 사용자 점군 데이터를 생성한다. 사용자 점군 데이터는 사용자의 형태를 인지할 수 있는 데이터이므로 스캔 데이터에 비해 데이터 사이즈가 작다.The controller 225 generates user point cloud data by using the scan data provided from the 3D scanner 205 . That is, user point cloud data having a relatively small data size compared to the scan data is generated. Since the user point cloud data is data that can recognize the user's shape, the data size is smaller than that of the scan data.

제어부(225)는 센서로부터 제공받은 각 센서 사이에 측정된 교차거리를 수직 및 수평성분으로 분할하고, 수직 및 수평성분 사이의 위치관계를 조합하여 사용자의 신체치수를 계산하며, 계산한 사용자의 신체치수를 이용하여 사용자 점군 데이터를 생성한다.The control unit 225 divides the intersection distance measured between each sensor provided from the sensor into vertical and horizontal components, calculates the user's body size by combining the positional relationship between the vertical and horizontal components, and calculates the calculated user's body Create custom point cloud data using dimensions.

제어부(225)는 4개의 인접한 메쉬의 외곽에 위치하는 8개의 교차점인 외곽 교차점에 위치하는 센서로부터 4개의 메쉬의 중앙의 교차점인 중앙교차점까지의 측정거리인 대각거리에 기초하여 중앙교차점이 매쉬가 형성하는 평면으로부터 돌출된 거리인 돌출거리를 계산한다.The control unit 225 determines that the central intersection is the mesh based on the diagonal distance, which is the measured distance from the sensor located at the outer intersection, which is the eight intersections located on the outside of the four adjacent meshes, to the central intersection, which is the central intersection of the four meshes. Calculate the protrusion distance, which is the distance protruded from the forming plane.

또한, 제어부(225)은 돌출거리가 미리 정해진 임계값 이상인 경우 측정된 신체치수를 미리 정해진 만큼 증가시켜 출력한다. 제어부(225)는 돌출거리가 가로 및 세로방향으로 진행할수록 미리 정해진 횟수만큼 연속해서 발생할 경우 측정된 신체치수를 미리 정해진 만큼 증가시켜 출력한다. 또한, 센서는 초음파 거리센서를 사용하는 것이 바람직하다.Also, when the protrusion distance is equal to or greater than a predetermined threshold value, the controller 225 increases the measured body size by a predetermined amount and outputs it. The control unit 225 increases and outputs the measured body size by a predetermined amount when the protruding distance continuously occurs a predetermined number of times as the protrusion distance progresses in the horizontal and vertical directions. In addition, it is preferable to use an ultrasonic distance sensor as the sensor.

저장부(215)는 입력 받은 사용자 고유정보, 스캔 데이터 및 사용자 점군 데이터를 저장한다. 또한 저장부(215)는 사용자 스캐너를 구동하는데 필요한 데이터를 저장한다.The storage unit 215 stores the received user-specific information, scan data, and user point cloud data. In addition, the storage unit 215 stores data necessary to drive the user scanner.

통신부(220)는 외부의 시스템 운영자 서버(100)와 통신을 수행한다. 통신부(220)는 3D 스캐너(205)가 스캔한 사용자 전신에 대한 데이터를 외부의 시스템 운영자 서버(100)로 전송한다. 물론 통신부(220)는 스캔 데이터 이외에 사용자 점군 데이터를 전송할 수 있다. 이외에도 통신부(220)는 사용자 고유정보를 외부의 시스템 운영자 서버(100)로 전송한다.The communication unit 220 communicates with the external system operator server 100 . The communication unit 220 transmits data about the user's whole body scanned by the 3D scanner 205 to the external system operator server 100 . Of course, the communication unit 220 may transmit user point cloud data in addition to the scan data. In addition, the communication unit 220 transmits user-specific information to the external system operator server 100 .

통신부(220)는 외부의 시스템 운영자 서버(100)로부터 3D 합성 이미지를 수신한다. 이외에도 통신부(220)는 다양한 정보를 시스템 운영자 서버(100)로 전송한다.The communication unit 220 receives the 3D composite image from the external system operator server 100 . In addition, the communication unit 220 transmits various information to the system operator server 100 .

도 2는 입력부(210)가 사용자 스캐너(200)에 포함되어 있는 것으로 도시되어 있으나, 이에 한정되는 것은 아니다. 즉, 입력부(210)는 사용자 스캐너 이외에 별도의 장치에 포함될 수 있다.2 illustrates that the input unit 210 is included in the user scanner 200, but is not limited thereto. That is, the input unit 210 may be included in a separate device other than the user scanner.

입력부(210)는 표시부(미도시)에 표시되어 있는 다수의 의류 중 선택할 수 있다. 즉, 표시부는 3D 스캐너로 스캔한 사용자의 신체와 합성할 의류를 표시한다. 이를 위해 표시부는 의류를 다수 개의 그룹으로 구분하여 표시할 수 있다. 즉, 의류를 상의, 하의로 구분하거나, 속옷, 외투 등 다양한 형태로 표시할 수 있다.The input unit 210 may select a plurality of clothes displayed on the display unit (not shown). That is, the display unit displays the clothes to be synthesized with the user's body scanned by the 3D scanner. To this end, the display unit may divide and display the clothing into a plurality of groups. That is, clothing may be divided into upper and lower garments, or may be displayed in various forms such as underwear and outerwear.

입력부(210)는 표시부에 표시되어 있는 다수의 의류 중 사용자의 신체와 합성할 의류를 선택한다. 물론 필요한 경우, 표시부는 사용자가 선택한 의류에 대한 상세 정보를 표시할 수 있다.The input unit 210 selects clothes to be synthesized with the user's body from among a plurality of clothes displayed on the display unit. Of course, if necessary, the display unit may display detailed information about the clothes selected by the user.

입력부(210)에 의해 선택된 의류(또는 의류 정보)는 통신부(220)를 통해 외부의 시스템 운영자 서버(100)로 전송한다. 부연하여 설명하면, 입력부(210)를 통해 선택된 의류가 적어도 2개 이상인 경우, 의류를 선택할 때마다 선택된 의류에 대한 정보를 시스템 운영자 서버(100)로 전송하거나, 모든 의류가 선택된 경우에 선택된 의류에 대한 정보를 시스템 운영자 서버(100)로 전송할 수 있다. 이와 같이 사용자는 필요에 따라 다양한 방식으로 선택된 의류에 대한 정보를 시스템 운영자 서버로 전송할 수 있다.The clothes (or clothes information) selected by the input unit 210 are transmitted to the external system operator server 100 through the communication unit 220 . In more detail, when at least two clothes are selected through the input unit 210, information on the selected clothes is transmitted to the system operator server 100 whenever clothes are selected, or when all clothes are selected, it is added to the selected clothes. information may be transmitted to the system operator server 100 . In this way, the user may transmit information about the selected clothes to the system operator server in various ways as needed.

도 3은 본 발명의 일 실시예에 따른 시스템 운영자 서버의 구성을 도시한 블록도이다. 이하 도 3을 이용하여 본 발명의 일 실시예에 따른 시스템 운영자 서버의 구성에 대해 상세하게 알아보기로 한다.3 is a block diagram illustrating the configuration of a system operator server according to an embodiment of the present invention. Hereinafter, the configuration of the system operator server according to an embodiment of the present invention will be described in detail with reference to FIG. 3 .

도 3에 의하면, 시스템 운영자 서버(100)는 의류 데이터 생성부(110), 3D 합성 이미지 생성부(120), 제어부(130), 입력부(140), 저장 서버(150)를 포함한다. 물론 상술한 구성 이외에 다른 구성이 본 발명에서 제안하는 시스템 운영자 서버에 포함될 수 있다.Referring to FIG. 3 , the system operator server 100 includes a clothing data generation unit 110 , a 3D composite image generation unit 120 , a control unit 130 , an input unit 140 , and a storage server 150 . Of course, other configurations other than the above-described configuration may be included in the system operator server proposed in the present invention.

의류 데이터 생성부(110)는 스캐너로 의류를 스캔하여 의류 클라우드 데이터를 생성할 수 있다. 의류 데이터 생성부(110)는 점군 데이터 또는 메쉬 데이터를 생성할 수 있다. 또한, 의류 데이터 생성부(110)는 3D 이미지로부터 점군 데이터를 생성할 수도 있다.The clothes data generator 110 may scan clothes with a scanner to generate clothes cloud data. The clothing data generator 110 may generate point cloud data or mesh data. Also, the clothing data generator 110 may generate point cloud data from the 3D image.

저장서버(150)는 의류 데이터 생성부(110)가 스캔한 의류에 대한 정보를 저장한다. 저장서버(150)는 스캔한 의류에 대한 점군 데이터인 의류 점군 데이터를 저장한다. 이외에도 저장서버(150)는 다양한 정보를 저장한다.The storage server 150 stores information about the clothes scanned by the clothes data generating unit 110 . The storage server 150 stores clothing point cloud data, which is point cloud data for the scanned clothing. In addition, the storage server 150 stores various information.

즉, 저장서버(150)는 입력부(140)를 통해 입력된 의류를 제조한 원단에 고유정보를 저장한다. 원단에 대한 고유 정보에 대해서는 후술하기로 한다.That is, the storage server 150 stores the unique information on the fabric from which the clothes are manufactured, input through the input unit 140 . The specific information on the fabric will be described later.

입력부(140)는 의류를 구성하는 원단에 대한 고유정보와 의류의 고유정보를 입력 받는다. 여기서 원단에 대한 고유정보는, 섬유의 종류, 탄성, 직물의 굵기, 직물의 단위면적당 무게, 직물의 통기성, 인장강도, 인열강도, 마모강도, 내열성, 수분이동성, 강연도, 드레이프성, 필링, 가방성, 실의 강도, 방적성, 실의 균제성, 굴곡 및 굽힙 특성, 및 충진성을 포함할 수 있다. 또한, 의류의 고유정보라 함은 의류의 종류, 용도, 착용 부위, 등을 포함할 수 있다. 입력부(140)는 의류에 대한 다양한 정보를 입력 받는다. 또한, 입력부(140)는 의류에 대한 가격, 원산지, 제조일자 등 다양한 정보를 입력 받을 수 있다.The input unit 140 receives the unique information on the fabric constituting the clothing and the unique information on the clothing. Here, the unique information about the fabric includes the type of fiber, elasticity, thickness of fabric, weight per unit area of fabric, breathability of fabric, tensile strength, tear strength, abrasion strength, heat resistance, moisture mobility, stiffness, drape, and peeling. , bag properties, yarn strength, spinnability, yarn uniformity, bending and bending properties, and filling properties. In addition, the unique information of the clothing may include the type, use, wear part, and the like of the clothing. The input unit 140 receives various information about clothes. In addition, the input unit 140 may receive various information such as a price, a country of origin, and a manufacturing date for the clothes.

제어부(130)는 시스템 운영자 서버(100)의 동작을 제어한다. 또한, 제어부(130)는 기준점 설정부(131), 기준점 조절부(132), 점군 데이터 세부 조절부(133), 방향 연산부(134), 및 형상 제어부(135)를 포함할 수 있다.The controller 130 controls the operation of the system operator server 100 . Also, the control unit 130 may include a reference point setting unit 131 , a reference point control unit 132 , a point cloud data detailed control unit 133 , a direction calculation unit 134 , and a shape control unit 135 .

기준점 설정부(131)는 의류 점군 데이터들 중에서 복수개의 기준점을 설정한다. 기준점은 기 설정된 간격으로 설정될 수 있으며, 의류의 형태에 따라 마디가 되는 부분에서 설정될 수도 있다.The reference point setting unit 131 sets a plurality of reference points among the clothing point group data. The reference point may be set at a preset interval, or may be set at a joint portion according to the shape of the clothing.

기준점 조절부(132)는 기준점들 사이의 거리를 연산하고 기준점을 이동시킨다. 기준점 조절부(132)는 사용자 점군 데이터와 신체 점군 데이터의 조합에 의하여 기준점 사이의 거리를 연산하며 연산된 거리에 따라 기준점을 이동시킨다.The reference point adjusting unit 132 calculates the distance between the reference points and moves the reference points. The reference point adjusting unit 132 calculates the distance between the reference points by combining the user point cloud data and the body point cloud data, and moves the reference point according to the calculated distance.

점군 데이터 세부 조절부(133)는 기준점으로부터 각 점군 데이터 사이의 거리를 조절한다. 점군 데이터 세부 조절부(133)는 기준점으로부터 각 점군 데이터 사이의 거리를 조절할 뿐만 아니라 점군 데이터 사이의 거리도 조절한다.The point cloud data detailed control unit 133 adjusts the distance between each point cloud data from the reference point. The point cloud data detailed control unit 133 not only adjusts the distance between each point cloud data from the reference point, but also adjusts the distance between the point cloud data.

점군 데이터 세부 조절부(133)는 신체 분석부, 의류 분석부, 스트레스 연산부, 및 탄성 연산부를 포함한다. 신체 분석부는 사용자 신체의 부분들의 부피를 연산한다. 신체 분석부는 사용자의 신체를 각 부분으로 나누어 부피를 분석하는데, 예를 들어, 팔, 가슴, 어깨, 배 등으로 사용자의 신체를 나누어 부피를 분석할 수 있다.The point cloud data detailed control unit 133 includes a body analysis unit, a clothing analysis unit, a stress calculation unit, and an elasticity calculation unit. The body analyzer calculates the volume of the parts of the user's body. The body analyzer analyzes the volume by dividing the user's body into each part. For example, the body analyzer may analyze the volume by dividing the user's body into arms, chest, shoulders, and stomach.

스트레스 연산부는 의류의 각 부분에 가해지는 응력을 연산한다. 스트레스 연산부는 의류에 수용 가능한 공간을 연산하고, 이에 의하여 신체가 의류에 삽입될 때 의류의 각 부분에 가해지는 응력을 계산하고 저장한다. 스트레스 연산부는 각각의 점군 데이터에 가해지는 응력을 연산할 수 있다. 탄성 연산부는 원단의 고유정보와 의류의 형상을 고려하여 의류의 각 부분에 대한 확장 가능한 거리를 연산한다.The stress calculator calculates the stress applied to each part of the garment. The stress calculator calculates an acceptable space for the clothes, thereby calculating and storing the stress applied to each part of the clothes when the body is inserted into the clothes. The stress calculator may calculate a stress applied to each point cloud data. The elastic calculating unit calculates an extendable distance for each part of the garment in consideration of the fabric's unique information and the shape of the garment.

방향 연산부(134)는 의류 점군 데이터의 이동 방향을 설정하는데 의류에 가해지는 응력과 의류의 형태 등을 고려하여 의류 점군 데이터의 이동 방향을 연산한다. 의류 점군 데이터의 이동 방향은 응력과 탄성에 의하여 결정될 수 있다.The direction calculating unit 134 calculates the movement direction of the clothing point cloud data in consideration of the stress applied to the clothing and the shape of the clothing when setting the movement direction of the clothing point cloud data. The movement direction of the clothing point cloud data may be determined by stress and elasticity.

형상 제어부(135)는 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 변곡점에서 의류 점군 데이터의 형상 변화를 연산한다. 예를 들어 어깨와 맞닿은 부분에서 신체에 의하여 의류에 응력이 작용하지는 않지만 중력에 의하여 의류가 아래로 쳐지므로 의류 형상에 변화가 발생하는데, 형상 제어부(135)는 의류의 길이와 신체의 길이를 비교하여 의류의 형상 변화를 연산한다.The shape controller 135 extracts a plurality of inflection points in contact with the body from the clothing point cloud data, and calculates a shape change of the clothing point cloud data at the inflection points. For example, although stress is not applied to the clothing by the body in the portion in contact with the shoulder, the clothing is swayed down by gravity, and thus the clothing shape changes. The shape control unit 135 compares the length of the clothing with the length of the body. to calculate the shape change of the clothing.

상술한 바와 같이 의류 점군 데이터는 의류의 스캔 데이터보다 데이터 용량이 상대적으로 작으므로 스캔 데이터를 사용하는 것보다 훨씬 효율적으로 사용할 수 있다. 즉, 제어부(130)는 데이터 용량이 상대적으로 작은 의류 점군 데이터를 이용하여 형태가 상이한 의류에 대한 데이터를 생성할 수 있다.As described above, since the data capacity of the clothing point cloud data is relatively smaller than that of the clothing scan data, it can be used much more efficiently than using the scan data. That is, the controller 130 may generate data on clothes having different shapes by using clothes point cloud data having a relatively small data capacity.

3D 합성 이미지 생성부(120)는 제어부(130)의 제어 명령에 따라 사용자 점군 데이터, 의류 점군 데이터 및 의류에 대한 고유정보를 이용하여 3D 합성 이미지를 생성한다. 3D 합성 이미지 생성부(120)는 사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성하고 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성한다.The 3D composite image generating unit 120 generates a 3D composite image by using user point cloud data, clothing point cloud data, and unique information about clothing according to a control command from the controller 130 . The 3D composite image generator 120 generates 3D composite data in which a user's body and clothes are synthesized, generates an outline from the 3D composite data, and combines colors to generate a 3D composite image.

상술한 바와 같이 스캔한 데이터를 변환한 의류 점군 데이터는 단순히 의류의 형상만을 나타내며, 의류의 색감이나 재질 등은 표현할 수 없다. 따라서 3D 합성 이미지 생성부(120)는 의류 점군 데이터에 의류의 색감이나 재질이 표현되는 스캔 데이터를 반영하여 3D 합성 이미지를 생성한다. 이렇게 스캔 데이터를 분리하여 3D합성하는 이유는 스캔 데이터는 점군 데이터보다 용량이 크므로 용량이 작은 점군 데이터를 이용하여 피팅 과정을 수행하면 보다 빠른 속도로 의류를 신체에 맞게 피팅시킬 수 있다.As described above, the clothing point cloud data converted from the scanned data simply represents the shape of the clothing, and cannot express the color or material of the clothing. Accordingly, the 3D composite image generating unit 120 generates a 3D composite image by reflecting the scan data representing the color or material of the clothing in the clothing point cloud data. The reason for separating and 3D synthesizing the scan data is that the scan data has a larger capacity than the point cloud data, so if the fitting process is performed using the point cloud data with a smaller capacity, clothing can be fitted to the body at a faster speed.

저장 서버(150)에는 원단 및 의류에 대한 고유정보를 수치화되어 저장된다. 본 발명의 저장서버(150)는 다양한 직물에 대한 고유정보를 저장하며, 저장된 고유정보를 이용하여 3D 합성 이미지를 생성한다.The storage server 150 digitizes and stores unique information on fabrics and clothing. The storage server 150 of the present invention stores unique information about various fabrics, and generates a 3D composite image using the stored unique information.

즉, 기존 3D 합성 이미지는 신체에 의류를 단순히 합성함으로써 의류와의 고유한 특성을 나타낼 수 없었지만, 본 발명은 3D 합성 이미지를 생성할 경우 의류와 원단의 고유한 특성을 반영하여 생성함으로써 동일한 형태나 색상을 갖는 의류라고 하더라도 의류의 고유한 특성에 따라 상이한 느낌을 갖는 3D 합성 이미지를 생성할 수 있다. 즉, 상대적으로 원단의 굵기가 얇은 의류의 경우 상대적으로 원단의 굵기가 굵은 의류에 대해 의류의 무게가 가볍다.That is, the existing 3D composite image could not represent the unique characteristics of clothing by simply synthesizing clothing on the body, but the present invention creates a 3D composite image by reflecting the unique characteristics of clothing and fabric to create the same shape or Even with colored clothing, a 3D composite image with a different feeling can be generated according to the unique characteristics of the clothing. That is, in the case of clothes having a relatively thin fabric, the weight of the clothes is light compared to clothes having a relatively thick fabric.

사용자로 하여금 이와 같은 느낌을 알 수 있도록 생성한 3D 합성 이미지를 일정한 속도로 회전시킬 수 있다. 3D 합성 이미지를 일정한 속도로 회전시키는 경우, 상대적으로 무게가 가벼운 의류는 상대적으로 무게가 무거운 의류에 비해 바람에 의한 의류의 이동(흔들림)이 많게 된다. 이와 같이 3D 합성 이미지를 일정한 속도로 회전시킴으로써 실제 사용자가 의류를 착용할 경우와 상대적으로 가장 가까운 상태를 가질 수 있다.The generated 3D composite image can be rotated at a constant speed so that the user can know this feeling. When the 3D composite image is rotated at a constant speed, clothing that is relatively light in weight moves (shakes) more by the wind than clothing that is relatively heavy. As described above, by rotating the 3D composite image at a constant speed, it is possible to have a state that is relatively close to that of a real user wearing clothes.

또한, 3D 합성 이미지 생성부(120)는 원단의 탄성 정보를 이용하여 3D 합성 이미지를 생성한다. 즉, 동일한 형상을 갖는 의류라고 하더라도 원단의 탄성에 따라 생성되는 3D 합성 이미지를 상이하게 된다. 즉, 원단의 탄성이 높은(즉, 신축성이 뛰어난) 의류의 경우, 신체의 모든 면에 의류가 밀착되는 반면, 원단의 탄성이 낮은(즉, 신축성이 약한) 의류의 경우, 신체의 일부에서만 의류가 신체가 밀착된다. 구체적으로 설명하면, 속옷의 경우 탄성이 좋은 원단으로 의류를 제조하므로, 3D 합성 이미지를 생성할 경우, 의류의 모든 면이 신체의 밀착된다.Also, the 3D composite image generating unit 120 generates a 3D composite image by using elastic information of the fabric. That is, even if the clothes have the same shape, the 3D composite image generated according to the elasticity of the fabric is different. In other words, in the case of clothing with high elasticity (i.e., high elasticity), the garment adheres to all sides of the body, whereas in the case of clothing with low elasticity (i.e., weak elasticity), the garment is only worn on a part of the body. is closely attached to the body. More specifically, in the case of underwear, since clothing is manufactured from a fabric with good elasticity, when a 3D composite image is generated, all surfaces of the clothing are in close contact with the body.

반면, 외투의 경우 상대적으로 탄성이 낮은 원단으로 제조하므로, 3D 합성 이미지를 생성할 경우, 의류의 일부면이 신체에 밀착된다. 이와 같이 본 발명은 의류를 제조하는 원단의 다양한 특성을 이용하여 3D 합성 이미지를 생성한다.On the other hand, in the case of an outerwear, since it is made of a fabric with relatively low elasticity, when a 3D composite image is generated, a portion of the clothing is in close contact with the body. As described above, the present invention creates a 3D composite image by using various characteristics of fabrics for manufacturing clothes.

도 4는 본 발명의 일 실시예에 따른 상이한 탄성을 갖는 원단으로 제조한 의류를 신체에 합성한 예를 도시하고 있다. 즉, 도 4를 살펴보면, 신체는 두 개의 의류를 입고 있으며, 특히 내측에 위치하고 있는 의류는 상대적으로 탄성이 높은 원단으로 제조한 의류를 신체에 합성한 예를 도시하고 있으며, 외측에 위치하고 있는 의류는 상대적으로 탄성이 낮은 원단으로 제조한 의류를 신체에 합성한 예를 도시하고 있다.4 shows an example in which clothes made of fabrics having different elasticity according to an embodiment of the present invention are synthesized on the body. That is, referring to FIG. 4 , the body is wearing two clothes. In particular, the clothes located inside show an example of synthesizing clothes made of a fabric with relatively high elasticity to the body, and the clothes positioned outside are An example of synthesizing clothing made of a fabric with relatively low elasticity is shown on the body.

상술한 바와 같이 탄성이 높은 원단으로 제조한 의류는 신체에 모두 밀착되는 반면, 탄성이 낮은 원단으로 제조한 의류는 신체의 일부에 밀착됨을 알 수 있다.As described above, it can be seen that the clothes made of the fabric with high elasticity are in close contact with the body, whereas the clothes made of the fabric with the low elasticity are in close contact with a part of the body.

또한, 도 5는 신체 점군 데이터를 반영한 의류 점군 데이터를 변형하는 예를 도시하고 있다. 도 5에 도시되어 있는 바와 신체 점군 데이터(BP)와 의류, 원단의 고유정보에 따라 의류 점군 데이터(CP)를 변형하여 3D 합성 이미지를 생성한다. 즉, 신체 점군 데이터(BP)와 의류, 원단의 고유정보를 반영하여 의류 점군 데이터(CP)를 구성 하고 있는 좌표(점군) 사이의 거리가 늘어남을 알 수 있다. 이렇게 생성된 3D 합성 점군 데이터에 스캔 데이터를 합성하여 3D 합성 데이터를 생성한다.Also, FIG. 5 shows an example of transforming the clothing point cloud data reflecting the body point cloud data. As shown in FIG. 5 , a 3D composite image is generated by transforming the clothing point cloud data CP according to the body point cloud data BP and unique information of clothes and fabrics. That is, it can be seen that the distance between the coordinates (point clouds) constituting the clothing point cloud data (CP) increases by reflecting the body point cloud data (BP) and the unique information of clothing and fabrics. 3D composite data is generated by synthesizing scan data with the generated 3D composite point cloud data.

도 6은 본 발명의 일 실시예에 따른 3D 합성 이미지 생성 방법을 도시한 흐름도이다. 6 is a flowchart illustrating a method for generating a 3D composite image according to an embodiment of the present invention.

이하에서는 도 6을 이용하여 본 발명의 일 실시예에 따른 3D 합성 이미지 생성 방법에 대해 상세하게 알아보기로 한다.Hereinafter, a method for generating a 3D composite image according to an embodiment of the present invention will be described in detail with reference to FIG. 6 .

본 실시예에 따른 3D 합성 이미지 생성 방법은 사용자 클라우드 데이터 생성 단계(S100), 의류 클라우드 데이터를 생성하는 단계(S200), 의류 클라우드 데이터 사이의 거리를 조절하는 단계(S300), 3D 합성 데이터를 생성하는 단계(S400), 및 3D 합성 이미지를 생성하는 단계(S500)를 포함한다.The 3D composite image generation method according to this embodiment includes a user cloud data generation step (S100), a step of generating the clothing cloud data (S200), the step of adjusting the distance between the clothing cloud data (S300), and the 3D composite data generation and generating a 3D composite image (S500).

사용자 클라우드 데이터 생성 단계(S100)는 사용자의 신체의 외형을 나타내는 사용자 점군 데이터 또는 사용자메쉬 데이터를 생성하는 바, 신체 클라우드 데이터는 점군 데이터 또는 메쉬 데이터로 이루어질 수 있다. 사용자 점군 데이터를 생성하는 단계는 사용자 스캐너(200)를 이용하여 사용자의 신체를 스캔하여 사용자 점군 데이터를 생성할 수 있다.The user cloud data generation step S100 generates user point cloud data or user mesh data representing the appearance of the user's body, and the body cloud data may be formed of point cloud data or mesh data. The generating of the user point cloud data may include scanning the user's body using the user scanner 200 to generate the user point cloud data.

사용자 클라우드 데이터 생성 단계(S100)는 사용자 스캐너(200)를 이용하여 생성한 사용자의 전신에 대한 스캔 데이터를 이용하여 사용자의 전신 형태를 생성할 수 있는 사용자 점군 데이터 또는 사용자 메쉬 데이터를 생성 한다.The user cloud data generation step ( S100 ) generates user point cloud data or user mesh data capable of generating the user's full body shape by using the user's full body scan data generated using the user scanner 200 .

사용자 클라우드 데이터 생성 단계(S100)는 4개의 인접한 메쉬의 외곽에 위치하는 8개의 교차점인 외곽 교차점에 위치하는 센서로부터 4개의 메쉬의 중앙의 교차점인 중앙교차점까지의 측정거리인 대각거리에 기초하여 중앙 교차점이 매쉬가 형성하는 평면으로부터 돌출된 거리인 돌출거리를 계산한다.The user cloud data generation step (S100) is based on the diagonal distance, which is the measured distance from the sensor located at the outer intersection, which is the eight intersections located on the outskirts of the four adjacent meshes, to the central intersection, which is the central intersection of the four meshes. Calculate the extrusion distance, which is the distance at which the intersection protrudes from the plane formed by the mesh.

또한, 사용자 클라우드 데이터 생성 단계(S100)는 돌출거리가 미리 정해진 임계값 이상인 경우 측정된 신체치수를 미리 정해진 만큼 증가시켜 출력한다. 사용자 클라우드 데이터 생성 단계(S100)는 돌출거리가 가로 및 세로방향으로 진행할수록 미리 정해진 횟수만큼 연속해서 발생할 경우 측정된 신체치수를 미리 정해진 만큼 증가시켜 출력한다.In addition, in the user cloud data generation step ( S100 ), when the protrusion distance is equal to or greater than a predetermined threshold value, the measured body size is increased and outputted by a predetermined amount. In the user cloud data generation step ( S100 ), when the protrusion distance continuously occurs a predetermined number of times as the protrusion distance progresses in the horizontal and vertical directions, the measured body size is increased by a predetermined amount and output.

사용자 클라우드 데이터 생성 단계(S100)는 입력 받은 사용자 고유정보, 스캔 데이터 및 사용자 점군 데이터를 저장하고, 3D 스캐너(205)가 스캔한 사용자 전신에 대한 데이터를 외부의 시스템 운영자 서버(100)로 전송한다.The user cloud data generation step (S100) stores the received user unique information, scan data, and user point cloud data, and transmits data about the user's whole body scanned by the 3D scanner 205 to the external system operator server 100 . .

3D 합성 이미지 생성 방법은 사용자의 고유정보를 입력 받는 단계를 더 포함할 수 있으며, 사용자의 고유정보는 사용자의 이름, 나이(연령대), 키, 몸무게, 성별, 모발의 색상, 모발의 형태 등을 포함할 수 있다.The 3D composite image creation method may further include the step of receiving the user's unique information, and the user's unique information includes the user's name, age (age), height, weight, gender, hair color, hair shape, etc. may include

의류 클라우드 데이터를 생성하는 단계(S200)는 의류의 신체의 외형을 나타내는 의류 클라우드 데이터를 생성하는 바, 의류 클라우드 데이터는 점군 데이터 또는 메쉬 데이터로 이루어질 수 있다.In the step of generating the clothing cloud data ( S200 ), clothing cloud data representing the appearance of the body of the clothing is generated, and the clothing cloud data may be formed of point cloud data or mesh data.

의류 클라우드 데이터를 생성하는 단계(S200)에서는 스캐너로 의류를 스캔하여 의류에 대한 스캐닝 데이터를 생성할 수 있으며, 생성한 스캐닝 데이터를 이용하여 의류 클라우드 데이터를 생성한다. 다만 본 발명이 이에 제한되는 것은 아니며 시스템 운영자 서버(100)는 3D 스캐너 이외에 다른 장치를 이용하여 의류디자인에 대한 점군 데이터를 생성할 수 있다. 이에 시스템 운영자 서버(100)는 의류 제작자로부터 제공된 3D 이미지 파일에서 의류 점군 데이터를 생성할 수 있다.In the step of generating the clothing cloud data ( S200 ), scanning data for the clothing may be generated by scanning the clothing with a scanner, and the clothing cloud data may be generated using the generated scanning data. However, the present invention is not limited thereto, and the system operator server 100 may generate point cloud data for the clothing design using a device other than the 3D scanner. Accordingly, the system operator server 100 may generate clothing point cloud data from the 3D image file provided by the clothing manufacturer.

이하에서는 의류의 형태를 생성할 수 있는 데이터를 의류 클라우드 데이터라 정의하며, 의류 클라우드 데이터는 상기한 점군 데이터로 이루어질 수 있을 뿐만 아니라 메쉬 데이터로 이루어질 수도 있다. 다만 클라우드 데이터가 점군 데이터로 이루어지는 경우 용량이 작아서 데이터 처리 속도가 메쉬 데이터 또는 형상 데이터에 비하여 현저히 증가할 수 있다.Hereinafter, data capable of generating the shape of clothing is defined as clothing cloud data, and the clothing cloud data may be formed of the aforementioned point cloud data as well as mesh data. However, when the cloud data consists of point cloud data, the capacity is small, so the data processing speed may be significantly increased compared to the mesh data or shape data.

의류 클라우드 데이터를 생성하는 단계(S200)는 의류 데이터 생성부(110)가 스캔한 의류에 대한 정보를 저장하고, 스캔한 의류에 대한 점군 데이터인 의류 점군 데이터를 저장한다.In the step of generating the clothing cloud data ( S200 ), the clothing data generating unit 110 stores information on the scanned clothing, and stores clothing point cloud data, which is point cloud data for the scanned clothing.

의류 클라우드 데이터 사이의 거리를 조절하는 단계(S300)는 사용자의 신체를 나타내는 신체 클라우드 데이터와 의류를 나타내는 의류 클라우드 데이터, 의류를 구성하는 원단의 고유정보 및 상기 의류의 고유정보를 조합하여 의류 클라우드 데이터 사이의 거리를 조절한다.In the step of adjusting the distance between the clothing cloud data (S300), the clothing cloud data is obtained by combining the body cloud data representing the user's body, the clothing cloud data representing the clothing, the unique information of the fabric constituting the clothing, and the unique information of the clothing. Adjust the distance between

여기서 원단의 고유정보는 섬유의 종류, 탄성, 직물의 굵기, 직물의 단위면적당 무게, 직물의 통기성, 인장강도, 인열강도, 마모강도, 내열성, 수분이동성, 강연도, 드레이프성, 필링, 가방성, 실의 강도, 방적성, 실의 균제성, 굴곡 및 굽힙 특성, 및 충진성을 포함할 수 있다. 또한, 의류의 고유정보는 의류의 종류, 용도,Here, the unique information of the fabric includes the type of fiber, elasticity, thickness of fabric, weight per unit area of fabric, breathability of fabric, tensile strength, tear strength, abrasion strength, heat resistance, moisture mobility, stiffness, drape, peeling, bag properties, yarn strength, spinnability, yarn uniformity, flex and flex properties, and fillability. In addition, the unique information of the clothing includes the type, use,

착용 부위, 등을 포함할 수 있다.a wear site, and the like.

또한 도 7에 도시된 바와 같이 의류 클라우드 데이터 사이의 거리를 조절하는 단계(S300)는 기준점을 설정하는 단계(S301)와, 기준점들 사이의 거리를 조절하는 단계(S302)와, 세부 간격 조절 단계(S303)와, 이동 방향을 설정하는 단계(S304)와, 형상 변화를 연산 단계(S305)를 포함한다.Also, as shown in FIG. 7 , the step (S300) of adjusting the distance between the clothing cloud data includes the step of setting a reference point (S301), the step of adjusting the distance between the reference points (S302), and the detailed interval adjustment step (S303), setting the moving direction (S304), and calculating the shape change (S305).

기준점을 설정하는 단계(S301)는 의류 점군 데이터들 중에서 복수개의 기준점을 설정한다. 기준점은 기 설정된 간격으로 설정될 수 있으며, 의류의 형태에 따라 마디가 되는 부분에서 설정될 수도 있다.In the step of setting the reference point ( S301 ), a plurality of reference points are set among the clothing point group data. The reference point may be set at a preset interval, or may be set at a joint portion according to the shape of the clothing.

기준점들 사이의 거리를 조절하는 단계(S302)는 기준점들 사이의 거리를 연산하고 기준점을 이동시킨다. 기준점들 사이의 거리를 조절하는 단계(S302)는 사용자 점군 데이터와 신체 점군 데이터의 조합에 의하여 기준점 사이의 거리를 연산하며 연산된 거리에 따라 기준점을 이동시킨다.In the step of adjusting the distance between the reference points ( S302 ), the distance between the reference points is calculated and the reference point is moved. In the step of adjusting the distance between the reference points ( S302 ), the distance between the reference points is calculated based on the combination of the user point cloud data and the body point cloud data, and the reference point is moved according to the calculated distance.

세부 간격 조절 단계(S303)는 기준점으로부터 각 점군 데이터 사이의 거리를 조절한다. 세부 간격 조절 단계(S303)는 기준점으로부터 각 점군 데이터 사이의 거리를 조절할 뿐만 아니라 점군 데이터 사이의 거리도 조절한다.The detailed interval adjustment step S303 adjusts the distance between each point cloud data from the reference point. The detailed interval adjustment step S303 not only adjusts the distance between each point cloud data from the reference point, but also adjusts the distance between the point cloud data.

세부 간격 조절 단계(S303)는 사용자 신체의 부분들의 부피를 연산하는 단계, 의류의 각 부분에 가해지는 응력을 연산하는 단계, 직물의 특성에 따라 확장 가능한 거리를 연산 하는 단계를 포함할 수 있다.The detailed spacing adjustment step ( S303 ) may include calculating the volume of the parts of the user's body, calculating the stress applied to each part of the clothing, and calculating the extendable distance according to the characteristics of the fabric.

사용자 신체의 부분들의 부피를 연산하는 단계는 사용자의 신체를 각 부분으로 나누어 부피를 분석하는데, 예를 들어, 팔, 가슴, 어깨, 배 등으로 사용자의 신체를 나누어 부피를 분석할 수 있다.Calculating the volume of the parts of the user's body analyzes the volume by dividing the user's body into each part. For example, the volume can be analyzed by dividing the user's body into arms, chest, shoulders, and stomach.

응력을 연산하는 단계는 의류의 각 부분에 가해지는 응력을 연산한다. 응력을 연산하는 단계는 의류에 수용 가능한 공간을 연산하고, 이에 의하여 신체가 의류에 삽입될 때 의류의 각 부분에 가해지는 응력을 계산하고 저장한다. 응력을 연산하는 단계는 각각의 점군 데이터에 가해지는 응력을 연산할 수 있다. 직물의 특성에 따라 확장 가능한 거리를 연산 하는 단계는 원단의 고유정보와 의류의 형상을 고려하여 의류의 각 부분에 대한 확장 가능한 거리를 연산한다.The step of calculating the stress calculates the stress applied to each part of the garment. The step of calculating the stress calculates an acceptable space for the clothes, thereby calculating and storing the stress applied to each part of the clothes when the body is inserted into the clothes. In the calculating of the stress, the stress applied to each point cloud data may be calculated. In the step of calculating the extendable distance according to the characteristics of the fabric, the extendable distance for each part of the garment is calculated in consideration of the specific information of the fabric and the shape of the garment.

이동 방향을 설정하는 단계(S304)는 의류 점군 데이터의 이동 방향을 설정하는데 의류에 가해지는 응력과 의류의 형태 등을 고려하여 의류 점군 데이터의 이동 방향을 연산한다. 의류 점군 데이터의 이동 방향은 응력과 탄성에 의하여 결정될 수 있다.In the step of setting the movement direction ( S304 ), the movement direction of the clothing point cloud data is calculated in consideration of the stress applied to the clothing and the shape of the clothing in setting the movement direction of the clothing point cloud data. The movement direction of the clothing point cloud data may be determined by stress and elasticity.

형상 변화를 연산 단계(S305)는 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산한다. 예를 들어 어깨와 맞닿은 부분에서 신체에 의하여 의류에 응력이 작용하지는 않지만 중력에 의하여 의류가 아래로 쳐지므로 의류 형상에 변화가 발생하는데, 형상 변화를 연산 단계(S305)는 의류의 길이와 신체의 길이를 비교하여 의류의 형상 변화를 연산한다.In the calculating the shape change ( S305 ), a plurality of inflection points in contact with the body are extracted from the clothing point cloud data, and the shape change of the clothing point group data is calculated from the inflection points. For example, in the portion in contact with the shoulder, no stress is applied to the clothes by the body, but the clothes are swayed down by gravity, so a change occurs in the shape of the clothes. Comparing the length, calculate the shape change of the clothes.

3D 합성 데이터를 생성하는 단계(S400)는 사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성한다. 3D 합성 이미지를 생성하는 단계(S500)는 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성한다.In the step of generating 3D composite data ( S400 ), 3D composite data in which the user's body and clothes are synthesized is generated. In the step of generating the 3D composite image ( S500 ), a 3D composite image is generated by generating an outline from the 3D composite data and combining colors.

3D 합성 이미지를 생성하는 단계는, 사용자의 점군 데이터에 제1 의류의 외형을 나타내는 제1 의류 점군 데이터를 합성하는 단계와 제1 의류 점군 데이터를 합성한 이후 제2 의류의 외형을 나타내는 제2 의류 점군 데이터를 합성하는 단계를 포함할 수 있다. 또한, 제2 의류 점군 데이터에 대응되는 의류의 사이즈는 제1 의류 점군 데이터에 대응되는 의류의 사이즈와 상기 제1 의류의 두께에 따라 연산될 수 있다.The generating of the 3D composite image may include synthesizing the first clothing point cloud data representing the appearance of the first clothing with the user's point cloud data, and synthesizing the first clothing point cloud data and then synthesizing the second clothing indicating the appearance of the second clothing. It may include synthesizing the point cloud data. Also, the size of the clothing corresponding to the second clothing point cloud data may be calculated according to the size of the clothing corresponding to the first clothing point cloud data and the thickness of the first clothing.

또한, 3D 합성 이미지를 생성하는 단계는, 사용자 점군 데이터에 합성될 의류 점군 데이터에 대응되는 의류를 적어도 2개 선택하면, 의류의 고유정보에 따라 선택된 2개의 의류에 대응되는 의류 점군 데이터가 순차적으로 사용자 점군 데이터에 자동으로 합성될 수 있다.Also, in the generating of the 3D composite image, when at least two pieces of clothing corresponding to the clothing point cloud data to be synthesized with the user point cloud data are selected, the clothing point cloud data corresponding to the two pieces of clothing selected according to the unique information of the clothing are sequentially generated. It can be automatically synthesized into user point cloud data.

3D 합성 이미지 생성 방법은 3D 합성 이미지 생성 방법은 3D 합성 이미지를 생성한 단계 이후에, 3D 합성 이미지를 설정된 회전 속도로 회전시키는 단계를 더 포함할 수 있다. 사용자의 점군 데이터에 합성된 의류 점군 데이터에 대응되는 의류의 고유정보에 따라 3D 합성 이미지를 구성하는 의류의 움직임이 표현될 수 있다.The 3D composite image generating method may further include rotating the 3D composite image at a set rotation speed after generating the 3D composite image. The movement of the clothes constituting the 3D composite image may be expressed according to the unique information of the clothes corresponding to the clothes point cloud data synthesized with the user's point cloud data.

의류를 착용한 3D 합성 이미지는 마우스 또는 사용자 단말의 터치스크린을 드래그하여 이미지를 회전시킬 수 있다. 또한, 상술한 바와 같이 의류의 고유정보를 이용하여 선택된 의류는 자동으로 사용자 점군 데이터 중 해당 위치에 합성된다.The 3D composite image wearing clothing can be rotated by dragging the mouse or the touch screen of the user terminal. In addition, as described above, the clothes selected using the unique information of the clothes are automatically synthesized at the corresponding position in the user point cloud data.

이외에도 3D 합성 이미지는 다양한 방식으로 제작될 수 있다. 일 예로 의류를 선택하여 사용자의 점군 데이터에 착용시켰을 경우 1차 선택된 의류가 자동으로 조합되어 합성된다. 이후 2차 선택 의류 착용 시 1차 선택한 의류를 사용자 점군 데이터에 착용하여 증가하는 두께를 감안하여 선택된 2차 의류를 사용자 점군 데이터에 합성한다. 이와 같은 방식으로 3D 합성 이미지는 이후에 선택한 의류를 이전에 선택한 의류에 외부에 착용하는 형태로 이미지를 구현할 수 있다. 이런 방식을 적용함으로써 실제 의류를 착용하였을 때와 동일한 효과를 구현할 수 있다. 또한, 이전에 선택된 의류의 외부에 착용되는 의류의 사이즈는 이전에 선택된 의류의 두께를 감안하는 착용되므로, 상술한 바와 같이 의류 점군 데이터는 다양한 형태로 변경이 가능한 것이 바람직하다.In addition, the 3D composite image may be produced in various ways. For example, when clothes are selected and worn on the user's point cloud data, the first selected clothes are automatically combined and synthesized. Thereafter, when the second selection of clothing is worn, the first selected clothing is worn on the user point cloud data, and the selected secondary clothing is synthesized with the user point cloud data in consideration of the increased thickness. In this way, the 3D composite image may implement an image in the form of externally wearing the selected clothing on the previously selected clothing. By applying this method, the same effect as when wearing actual clothes can be realized. In addition, since the size of clothes worn outside the previously selected clothes is worn taking the thickness of the previously selected clothes into consideration, it is preferable that the clothes point group data can be changed in various forms as described above.

부연하여 설명하면, 탄성이 우수한 원단으로 제조한 의류는 이전에 선택된 의류(내부에 작용되는 의류)의 두께가 얇은 경우 탄성으로 인해 의류가 일부 늘어나게 되므로, 굳이 한 단계 큰 사이즈의 의류를 합성할 필요가 없다. 하지만, 탄성이 낮은 원단으로 제조한 의류는 이전에 선택된 의류의 두께가 얇더라도 의류가 늘어나지 않으므로 한 단계(또는 두 단계 이상)의 큰 사이즈를 갖는 의류를 합성해야 한다. 이와 같이 본 발명은 의류와 원단의 고유특성을 이용하여 3D 이미지 생성한다.In other words, if the thickness of the previously selected clothing (clothes acting on the inside) is thin, the clothing is partially stretched due to elasticity, so it is necessary to synthesize clothing of one size larger. there is no However, since clothes made of low-elasticity fabrics do not stretch even if the previously selected clothes are thin, clothes having a larger size by one (or two or more steps) must be synthesized. As described above, the present invention creates a 3D image using the unique characteristics of clothes and fabrics.

드래그하여 의류가 사용자 점군 데이터에 착용될 수 있으며, 필요한 경우 의류가 마우스에 의하여 클릭되면, 의류의 고유 정보를 이용하여 의류가 자동으로 사용자 점군 데이터 중 해당 위치에 합성될 수 있다.Clothing may be worn on the user point cloud data by dragging, and if necessary, if the clothing is clicked by the mouse, the clothing may be automatically synthesized at a corresponding position in the user point cloud data using unique information of the clothing.

3D 합성 이미지 생성 방법은 생성한 3D 합성 이미지를 저장하는 단계를 포함할 수 있다. 저장하는 단계에서 3D 합성 이미지는 별도의 저장 공간에 저장될 수 있다. 즉, 다수의 3D 합성 이미지는 저장 공간에 저장된 후 필요한 경우 해당 3D 합성 이미지를 불러오거나 제3자에게 제공될 수 있다. 부가하여 본 발명은 선택된 3D 합성 이미지가 의류 제작업체로 전송되어 선택된 의류가 제작하도록 요청될 수 있다.The method for generating a 3D composite image may include storing the generated 3D composite image. In the storing step, the 3D composite image may be stored in a separate storage space. That is, after the plurality of 3D composite images are stored in the storage space, if necessary, the 3D composite image may be retrieved or provided to a third party. In addition, the present invention allows a selected 3D composite image to be sent to a garment manufacturer so that the selected garment is requested to be made.

상술한 바와 같이 사용자는 합성한 3D 합성 이미지는 별도의 저장공간에 저장될 수 있으며, 필요한 경우 타인의 저장공간에 저장된 3D 합성 이미지가 타인의 허락 하에 불러올 수 있다. 부연하여 설명하면, 타인의 등록한 의류 이미지로부터 의류 점군 데이터를 추출하고, 추출한 의류 점군 데이터를 사용자 점군 데이터와 합성하여 합성 이미지를 생성한다. 물론 이 경우 의류 고유정보를 반영하여 합성 이미지를 생성한다.As described above, the 3D composite image synthesized by the user may be stored in a separate storage space, and if necessary, the 3D composite image stored in the storage space of another person may be retrieved with the permission of the other person. In other words, a composite image is generated by extracting clothing point cloud data from a clothing image registered by another person, and synthesizing the extracted clothing point cloud data with the user point cloud data. Of course, in this case, a composite image is generated by reflecting the clothing specific information.

상술한 바와 같이 의류 점군 데이터와 사용자 점군 데이터가 동일한 경우에도 의류의 고유정보가 상이한 경우에는 상이한 3D 합성 이미지가 생성된다. 이외에도 필요한 경우, 사용자 점군 데이터를 기반으로 의류 점군 데이터를 변형할 수 있다. 즉, 사용자가 기성복을 일부 변형한 의류를 제조하기를 희망하는 경우, 사용자 점군 데이터를 기반으로 의류 점군 데이터를 변형한다. 상술한 바와 같이 의류 점군 데이터를 일부 변형하는 경우, 스캔 데이터를 이용하는 것보다 상대적으로 데이터 용량이 작은 의류 점군 데이터를 이용하는 것이 바람직하다. 부연하여 설명하면, 사용자 점군 데이터를 기반으로 의류 점군 데이터를 일부 변형하여 3D 합성 이미지를 생성한다.As described above, even when the clothing point cloud data and the user point cloud data are the same, when the unique information of the clothing is different, different 3D composite images are generated. In addition, if necessary, the clothing point cloud data may be transformed based on the user point cloud data. That is, when the user desires to manufacture clothes in which the ready-to-wear is partially modified, the clothes point cloud data is transformed based on the user point cloud data. As described above, when the clothing point cloud data is partially modified, it is preferable to use the clothing point cloud data having a relatively small data capacity rather than using the scan data. To elaborate, a 3D composite image is generated by partially transforming the clothing point cloud data based on the user point cloud data.

본 발명은 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. .

100: 시스템 운영자 서버 110: 의류 데이터 생성부
140: 입력부 120: 3D 합성 이미지 생성부
130: 제어부 131: 기준점 설정부
132: 기준점 조절부 133: 데이터 세부 조절부
134: 방향 연산부 135: 형상 제어부
140: 입력부 150: 저장 서버
200: 사용자 스캐너 205: 3D 스캐너
210: 입력부 215: 저장부
220: 통신부 225: 제어부
100: system operator server 110: clothing data generation unit
140: input unit 120: 3D composite image generation unit
130: control unit 131: reference point setting unit
132: reference point control unit 133: data detailed control unit
134: direction calculation unit 135: shape control unit
140: input unit 150: storage server
200: user scanner 205: 3D scanner
210: input unit 215: storage unit
220: communication unit 225: control unit

Claims (10)

사용자의 신체 이미지 데이터에 의류 이미지 데이터를 조합하여 3D 합성 이미지를 생성하는 방법에 있어서,
사용자의 신체를 나타내는 신체 클라우드 데이터와 의류를 나타내는 의류 클라우드 데이터, 의류를 구성하는 원단의 고유정보 및 상기 의류의 고유정보를 조합하여 의류 클라우드 데이터 사이의 거리를 조절하는 단계; 및
사용자의 신체와 의류가 합성된 3D 합성 데이터를 생성하는 단계;
상기 3D 합성 데이터로부터 윤곽선을 생성하고 색상을 결합하여 3D 합성 이미지를 생성하는 단계;를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
A method of generating a 3D composite image by combining clothing image data with a user's body image data, the method comprising:
adjusting a distance between the clothes cloud data by combining body cloud data representing the user's body, clothes cloud data representing clothes, unique information of fabrics constituting clothes, and unique information of the clothes; and
generating 3D composite data in which the user's body and clothing are synthesized;
and generating a 3D composite image by generating an outline from the 3D composite data and combining colors.
제1항에 있어서,
상기 사용자의 신체의 외형을 나타내는 사용자 점군 데이터를 생성하는 단계, 및 상기 의류의 외형을 나타내는 의류 점군 데이터를 생성하는 단계를 더 포함하고, 상기 신체 클라우드 데이터와 상기 의류 클라우드 데이터는 점군 데이터로 이루어진 것을 특징으로 하는 3D 합성 이미지 생성 방법.
According to claim 1,
generating user point cloud data representing the appearance of the user's body, and generating clothing point cloud data representing the outer shape of the clothing, wherein the body cloud data and the clothing cloud data are formed of point cloud data A method for generating a 3D composite image characterized.
제1항에 있어서,
상기 사용자의 신체의 외형을 나타내는 사용자 메쉬 데이터를 생성하는 단계, 및 상기 의류의 외형을 나타내는 의류 메쉬 데이터를 생성하는 단계를 더 포함하고, 상기 신체 클라우드 데이터와 상기 의류 클라우드 데이터는 메쉬 데이터로 이루어진 것을 특징으로 하는 3D 합성 이미지 생성 방법.
According to claim 1,
Generating user mesh data representing the appearance of the user's body, and generating clothing mesh data representing the outer shape of the clothing, wherein the body cloud data and the clothing cloud data are made of mesh data A method for generating a 3D composite image characterized.
제2항에 있어서,
상기 사용자 점군 데이터를 생성하는 단계는 사용자의 신체를 스캔하여 사용자 점군 데이터를 생성하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
3. The method of claim 2,
The generating of the user point cloud data comprises generating the user point cloud data by scanning the user's body.
제4항에 있어서,
상기 의류 점군 데이터를 생성하는 단계는 의류를 스캔하여 의류 점군 데이터를 생성하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
5. The method of claim 4,
The generating of the clothing point cloud data comprises generating the clothing point cloud data by scanning the clothing.
제2항에 있어서,
상기 의류 점군 데이터를 생성하는 단계는 입력된 의류의 3D 이미지 파일로부터 의류 점군 데이터를 생성하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
3. The method of claim 2,
The generating of the clothing point cloud data comprises generating the clothing point cloud data from the input 3D image file of the clothing.
제2항에 있어서,
상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는,
상기 의류 점군 데이터에 복수개의 기준점을 설정하는 단계와,
상기 기준점들 사이의 거리를 조절하는 단계, 및
상기 기준점으로부터 각 점군 데이터 사이의 거리를 조절하는 세부 간격 조절 단계를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
3. The method of claim 2,
The step of adjusting the distance between the clothing cloud data includes:
setting a plurality of reference points in the clothing point cloud data;
adjusting the distance between the reference points, and
and a detailed interval adjustment step of adjusting a distance between each point cloud data from the reference point.
제7항에 있어서,
상기 세부 간격 조절 단계는,
사용자 신체의 부분들의 부피를 연산하는 단계,
상기 의류의 각 부분에 가해지는 응력을 연산하는 단계,
직물의 특성에 따라 확장 가능한 거리를 연산 하는 단계를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
8. The method of claim 7,
The detailed interval adjustment step is
calculating the volumes of parts of the user's body;
calculating the stress applied to each part of the garment;
3D composite image generation method comprising the step of calculating an expandable distance according to the characteristics of the fabric.
제7항에 있어서,
상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터의 이동 방향을 설정하는 단계를 포함하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
8. The method of claim 7,
The adjusting the distance between the clothing cloud data includes setting a movement direction of the clothing point cloud data.
제7항에 있어서,
상기 의류 클라우드 데이터 사이의 거리를 조절하는 단계는, 상기 의류 점군 데이터에서 신체와 맞닿는 복수개의 변곡점을 추출하고 상기 변곡점에서 상기 의류 점군 데이터의 형상 변화를 연산하는 것을 특징으로 하는 3D 합성 이미지 생성 방법.
8. The method of claim 7,
The adjusting the distance between the clothing cloud data comprises extracting a plurality of inflection points in contact with the body from the clothing point cloud data and calculating a shape change of the clothing point cloud data at the inflection points.
KR1020210017117A 2021-02-05 2021-02-05 3D image generation method using body and clothing data KR20220113210A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210017117A KR20220113210A (en) 2021-02-05 2021-02-05 3D image generation method using body and clothing data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210017117A KR20220113210A (en) 2021-02-05 2021-02-05 3D image generation method using body and clothing data

Publications (1)

Publication Number Publication Date
KR20220113210A true KR20220113210A (en) 2022-08-12

Family

ID=82803723

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210017117A KR20220113210A (en) 2021-02-05 2021-02-05 3D image generation method using body and clothing data

Country Status (1)

Country Link
KR (1) KR20220113210A (en)

Similar Documents

Publication Publication Date Title
KR101671649B1 (en) Method and System for 3D manipulated image combined physical data and clothing data
EP3251536B2 (en) Method and system for the manufacture of a piece of apparel
US20170046769A1 (en) Method and Apparatus to Provide A Clothing Model
CN109598798B (en) Virtual object fitting method and virtual object fitting service system
JP6242768B2 (en) Virtual try-on device, virtual try-on method, and program
WO2020203656A1 (en) Information processing device, information processing method, and program
TW200828043A (en) Terminal try-on simulation system and operating and applying method thereof
JP2020170394A (en) Clothing-wearing visualization system and clothing-wearing visualization method
JP6320237B2 (en) Virtual try-on device, virtual try-on method, and program
JP6338966B2 (en) Virtual try-on device, virtual try-on system, virtual try-on method, and program
KR101499698B1 (en) Apparatus and Method for providing three dimensional model which puts on clothes based on depth information
JP2016038811A (en) Virtual try-on apparatus, virtual try-on method and program
US20230248099A1 (en) Method and device for providing at least one cutting pattern for an article of clothing to be produced individually for a customer
US11468651B2 (en) Size measuring system
CN113610612A (en) 3D virtual fitting method, system and storage medium
JP2016053900A (en) Image processor, image processing system, image processing method and program
JP2018106736A (en) Virtual try-on apparatus, virtual try-on method and program
KR20210021898A (en) Methode and apparatus of grading clothing including subsidiiary elements
De Raeve et al. Mass customization, business model for the future of fashion industry
CN107463723A (en) Apparatus for the style designed for wearable items
KR20220135526A (en) System for providing virtual cloth fitting service using three-dimensional avatar
KR20220113210A (en) 3D image generation method using body and clothing data
CN104751514B (en) Wear elasticity analogy method and its system
JP2018113060A (en) Virtual try-on apparatus, virtual try-on system, virtual try-on method and program
KR101519123B1 (en) 3-dimensional garment fitting cloud system using kiosk with kinetic sensor and method thereof