KR20170016578A - Clothes Fitting System And Operation Method of Threof - Google Patents

Clothes Fitting System And Operation Method of Threof Download PDF

Info

Publication number
KR20170016578A
KR20170016578A KR1020150109830A KR20150109830A KR20170016578A KR 20170016578 A KR20170016578 A KR 20170016578A KR 1020150109830 A KR1020150109830 A KR 1020150109830A KR 20150109830 A KR20150109830 A KR 20150109830A KR 20170016578 A KR20170016578 A KR 20170016578A
Authority
KR
South Korea
Prior art keywords
image
pattern information
user
garment
clothing
Prior art date
Application number
KR1020150109830A
Other languages
Korean (ko)
Other versions
KR102580009B1 (en
Inventor
김민성
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020150109830A priority Critical patent/KR102580009B1/en
Publication of KR20170016578A publication Critical patent/KR20170016578A/en
Application granted granted Critical
Publication of KR102580009B1 publication Critical patent/KR102580009B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers

Landscapes

  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a clothes fitting system and an operating method thereof. The clothes fitting system comprises: a crawler to periodically collect an external clothes image and external clothes information of an external site; a repository to collect a user clothes image and user clothes information from a user; a feature point mapper to extract feature points from the external clothes image and the user clothes image; a learning device to use the feature points to generate first pattern information of the external clothes image and second pattern information of the user clothes image; and an external interface to receive a target clothes image from the user to receive third pattern information for the target clothes image from the learning device, and compare the third pattern information with the first and the second pattern information to derive a fitting prediction result for the target clothes image.

Description

의류 피팅 시스템 및 의류 피팅 시스템의 동작 방법{Clothes Fitting System And Operation Method of Threof}[0001] Clothes Fitting System and Operation Method [0002]

이하의 실시예는 의류 피팅 시스템과 그 동작 방법에 관한 것이다.The following embodiments relate to a garment fitting system and method of operation thereof.

온라인 의류 판매 업체 또는 오프라인 의류 판매 업체의 가장 큰 운영상 이슈 중 하나는 고객의 반품 처리와 관련된 것이다. 반품의 주요 원인은, 고객이 구매 후 이후 실제 착용했을 때 기대하던 핏(Fit)이 나오지 않는 경우가 첫 번째 원인이다. 여기서의 핏(fit)이란, 디자인적인 측면에서의 어울리는 정도를 얘기하는 것이 아니라, 가령 옷이 꽉 끼는지 헐렁한지 팔이 짧은지 다리가 긴지 등 자기 몸에 착용했을 때의 착용감을 말하는 것이다.One of the biggest operational issues for online apparel retailers or offline apparel retailers is related to customer return processing. The main reason for the return is that the customer did not get the expected fit when they actually wore it after the purchase. The fit here refers not to the degree of matching in terms of design, but rather to the fit of the wearer when he wears his or her body, for example, when clothes are tight or loose, or when arms are short or legs are long.

판매 업체 입장에서는 반품으로 인한 처리 비용은 곧 영업이익의 감소를 의미하며, 반면 고객 입장에서도 반품은 곧 원하는 상품을 제 때 사용할 수 없게 됨을 의미하고, 때로는 반품이 귀찮거나 개인적인 성향상 반품을 하지 않은 채 원하지 않는 상품을 만족 없이 금액을 지불하게 되는 경우도 빈번하게 발생하는 것이 다수이다. In the case of the seller, the processing cost due to the return means a decrease in the operating profit. On the other hand, the return from the customer means that the desired product can not be used in the near future, and sometimes the return is not troublesome, There are a lot of things that happen frequently when you pay the amount without satisfying the unwanted goods.

하지만, 이러한 문제를 해결하기 위해 최근 기술의 발달과 함께 카메라에 기반한 증강현실(AR. Augmented Reality) 기술을 활용한 가상 피팅(Virtual Fitting) 솔루션이 일부 소개되고 있긴 하나, 이러한 대부분의 기술이 지향하는 바는 카메라에 잡히는 나의 실사에 미리 컴퓨터그래픽(CG. Computer Graphics)으로 모델링된 가상의 의류 이미지(Virtual Image)를 입어보듯 하는 것으로, 직접 의류를 착용해 보지 않고서도 디자인적인 측면에서 마치 착용했을 때의 느낌을 짐작하는 것이 주목적이다. 하지만, 이러한 기술은 그 의류가 나의 신체 특성(예. 배가 나온 경우, 팔이 평균보다 긴 경우)에 잘 어울리는지를 정확하게 판단할 수는 없는 한계가 있다. 즉, 기존에 소개된 증강현실 기반의 가상 피팅 솔루션을 사용한다고 하더라도, 반품의 주요 원인을 해결할 수는 없다. However, in order to solve these problems, some of the virtual fitting solutions utilizing camera-based augmented reality (AR) technology have been introduced along with the recent technology development, The bar is designed to wear a virtual image that is modeled in computer graphics (CG) in advance to my due diligence taken by the camera. It is the main purpose to guess the feeling of. However, this technique has limitations that can not accurately determine whether the garment fits well with my physical characteristics (eg, when the stomach is longer than the arm, if it is out of the stomach). In other words, even if the existing augmented reality-based virtual fitting solution is used, the main cause of the return can not be solved.

그리고 온라인 의류 판매 업자의 경우 해당 온라인 쇼핑사이트 내에 수치정보를 기재함으로써 해당 의류의 각종 길이(팔 길이, 가슴 둘레 등)를 제공하기도 하나, 고객 입장에서는 자기 체형에 대한 수치적인 데이터를 보통 기억하고 있지 못하므로 핏(Fit) 적합도를 판단하는데 부족하다. In addition, the online apparel retailer may provide various lengths (arm length, chest circumference, etc.) of the apparel by describing the numerical information in the corresponding online shopping site, but usually stores the numerical data about the self- It is insufficient to judge the fit.

또한, 기존의 피팅 솔루션 중에는 정확하게 고객의 신체 특성을 인식하기 위해, 타이즈와 같은 가능한 몸에 착 붙는 옷을 입거나 또는 민소매 옷 등 최대한 몸매를 드러나게 한 다음 카메라 앞에서 마치 애니메이션 영화에서 사용하는 모션 캡쳐 기술처럼 사람 몸매를 캡쳐할 수 있도록 여러 일정 자세를 취하게 한 다음 360도를 돌아가면서 여러 장의 사진을 찍고 이 사진들을 조합하는 3D 리컨스트럭션(3D Reconstruction) 기술도 소개되고 있으나, 아직은 범용적으로 사용하기에 기술적인 완성도에서 한계가 있을 뿐만 아니라 고객에게 사전 준비 과정으로 많은 것을 요구하므로 일반 고객에게 범용적으로 사용되기에 불편을 초래할 수 있다.In addition, among the existing fitting solutions, in order to accurately recognize the physical characteristics of the customer, it is necessary to put on clothes such as tights that can be attached to the body as possible, or to reveal the maximum figure such as sleeveless clothes and then to use the motion capture technology 3D reconstruction technology that takes several postures to capture a person's body and then takes several pictures while rotating 360 degrees and combines them is also introduced, but it is still used for general use There is a limit in technical completeness, and since it requires a lot of preparation process for the customer, it may cause inconvenience to be used universally for general customers.

실시예에 따르면, 앞서 설명한 문제점을 해결하고, 실물을 확인할 수 없는 온라인 쇼핑몰 등에서 기업 및 고객 입장에서 기존과 다른 의류 피팅 방식을 통해, 기업에게는 영업 이익의 감소를 줄이고, 고객에게는 불필요한 반품 과정을 줄이고 원하지 않는 상품을 이용하게 되는 상황의 발생을 줄이는 의류 피팅 시스템을 제공하도록 한다.According to the embodiment, it is possible to solve the above-mentioned problems and reduce unnecessary returns to the customers and reduce unnecessary returns to the customers through a clothing fitting method different from the existing ones in the case of companies and customers in online shopping malls and the like, A clothing fitting system is provided that reduces the occurrence of situations in which unwanted goods are used.

외부 사이트의 외부 의류 이미지 및 외부 의류 정보를 주기적으로 수집하는 크롤러; 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 수집하는 저장소; 상기 외부 의류 이미지 및 상기 사용자 의류 이미지에 대한 특징점들을 추출하는 특징점 매퍼; 상기 특징점들을 이용하여 상기 외부 의류 이미지의 제1 패턴 정보 및 상기 사용자 의류 이미지의 제2 패턴 정보를 생성하는 학습기; 및 상기 사용자로부터 대상 의류 이미지를 수신하여 상기 학습기에서 상기 대상 의류 이미지에 대한 제3 패턴 정보를 제공받고, 상기 제1 패턴 정보 및 상기 제2 패턴 정보와 비교하여 상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 외부 인터페이스를 포함하는, 의류 피팅 시스템이 제공될 수 있다.A crawler that periodically collects external clothing images of the external site and external clothing information; A repository for collecting user apparel images and user apparel information from users; A feature point mapper for extracting feature points for the outerwear image and the user's clothing image; A learning device for generating first pattern information of the outer garment image and second pattern information of the user garment image using the feature points; And a third pattern information acquiring unit for receiving third pattern information on the target clothes image from the learning unit, receiving the target clothes image from the user, comparing the third pattern information with the first pattern information, A garment fitting system may be provided, which includes an external interface to derive a garment fitting system.

일측에 있어서, 상기 특징점 매퍼는, 상기 외부 의류 이미지 및 상기 사용자 의류 이미지에 대한 특징점들을 추출하고, 각각의 의류 이미지를 카테고리화할 수 있다.On one side, the minutiae mapper may extract minutiae for the outer garment image and the user garment image, and categorize each garment image.

또 다른 측면에 있어서, 상기 각각의 의류 이미지의 특징점들의 수 및 특징점들 간의 간격이나 각도를 이용하여 상기 각각의 의류 이미지를 카테고리화할 수 있다.In yet another aspect, the number of feature points of each garment image and the spacing or angle between feature points can be used to categorize each garment image.

또 다른 측면에 있어서, 상기 학습기는, 상기 특징점 매퍼에서 추출된 특징점들을 제공받아 상기 외부 의류 이미지 및 상기 사용자 의류 이미지 각각의 이미지 기반으로 매핑할 수 있다.According to another aspect of the present invention, the learning device may receive feature points extracted from the feature point mapper and map the image based on the external clothing image and the user clothing image, respectively.

또 다른 측면에 있어서, 상기 학습기는, 상기 외부 의류 이미지 및 상기 사용자 의류 이미지 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 상기 제1 패턴 정보 및 상기 제2 패턴 정보를 생성할 수 있다.In another aspect of the present invention, the learning device may generate the first pattern information and the second pattern information of each garment image by calculating a relative distance between the external clothing image and the feature points of the user garment image.

또 다른 측면에 있어서, 상기 저장소는, 상기 학습기로부터 상기 사용자 의류 이미지에 대한 상기 제2 패턴 정보를 제공받고, 상기 제2 패턴 정보를 이용하여 상기 사용자의 체형 정보 및 의류 선호 정보를 생성할 수 있다.In another aspect of the present invention, the repository may receive the second pattern information for the user's clothing image from the learning device, and generate the user's body shape information and clothing preference information using the second pattern information .

또 다른 측면에 있어서, 상기 외부 인터페이스는, 상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보에 대해서 각 특징점들 간의 상대거리를 비교하여 상기 피팅 예상 결과를 도출할 수 있다.According to another aspect of the present invention, the external interface can derive the fitting expectation result by comparing relative distances between the minutiae points with respect to the first pattern information, the second pattern information, and the third pattern information.

또 다른 측면에 있어서, 상기 외부 인터페이스는, 상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보의 특징점들 간 상대거리를 비교하기 위한 매핑 테이블(Mapping Table)을 포함할 수 있다.In another aspect, the external interface may include a mapping table for comparing relative distances between minutiae points of the first pattern information, the second pattern information, and the third pattern information.

외부 의류 이미지의 제1 패턴 정보를 획득하는 단계; 사용자 의류 이미지의 제2 패턴 정보를 획득하는 단계; 사용자로부터 대상 의류 이미지를 수신하는 단계; 상기 대상 의류 이미지에 대한 제3 패턴 정보를 생성하는 단계; 및 상기 제1 패턴 정보, 상기 제2 패턴 정보, 및 상기 제3 패턴 정보에 기초하여, 상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 단계를 포함하는, 의류 피팅 시스템의 동작 방법이 제공될 수 있다.Obtaining first pattern information of an outer garment image; Obtaining second pattern information of the user's clothing image; Receiving a target apparel image from a user; Generating third pattern information for the target garment image; And deriving a fitting expectation result for the target garment image based on the first pattern information, the second pattern information, and the third pattern information. have.

실시예에 따르면, 앞서 설명한 문제점을 해결하고, 실물을 확인할 수 없는 온라인 쇼핑몰 등에서 기업 및 고객 입장에서 기존과 다른 의류 피팅 방식을 통해, 기업에게는 영업 이익의 감소를 줄이고, 고객에게는 불필요한 반품 과정을 줄이고 원하지 않는 상품을 이용하게 되는 상황의 발생을 줄이는 의류 피팅 시스템을 제공할 수 있다.According to the embodiment, it is possible to solve the above-mentioned problems and reduce unnecessary returns to the customers and reduce unnecessary returns to the customers through a clothing fitting method different from the existing ones in the case of companies and customers in online shopping malls and the like, It is possible to provide a garment fitting system that reduces the occurrence of situations in which an unwanted article is used.

실시예에 따른 의류 피팅 시스템을 통해, 온라인 쇼핑 의류 판매업자에게도 핏(Fit) 오류로 인한 반품을 줄임으로써 불필요한 운영비용을 감소시키고, 반품 고객의 부정적인 입소문으로 인한 영업 손해를 미연에 방지하고, 고객 입장에서도 온라인 의류 쇼핑에서의 경험을 기존보다 향상시킬 수 있고 온라인 의류 쇼핑에 대한 신뢰감을 증대시킬 수 있다.The clothing fitting system according to the embodiment can reduce unnecessary operating expenses by reducing the return due to the fit error even to the online shopping clothing salesman, prevent the sales damages caused by negative word of mouth of returning customers, From the standpoint, it is possible to improve the experience of online clothing shopping more than before and to increase the confidence in online clothing shopping.

도 1은 일실시예에 있어서, 의류 피팅 시스템의 구성을 설명하기 위한 블록도이다.
도 2는 일실시예에 있어서, 의류 이미지에서 특징점을 추출하는 예시이다.
도 3은 일실시예에 있어서, 의류 이미지의 특징점을 이용하여 패턴 정보를 생성하는 예시이다.
도 4는 일실시예에 있어서, 의류 피팅 시스템의 동작 방법을 설명하기 위한 흐름도이다.
1 is a block diagram for explaining the configuration of a garment fitting system, in an embodiment.
2 is an example of extracting feature points from a garment image, in one embodiment.
3 is an example of generating pattern information using minutiae of a clothing image in one embodiment.
4 is a flow chart for explaining a method of operating a garment fitting system, in one embodiment.

이하, 본 발명의 실시예에 대해서 첨부된 도면을 참조하여 자세히 설명하도록 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It is to be understood that the embodiments described below are not intended to limit the embodiments, but include all modifications, equivalents, and alternatives to them.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to illustrate specific embodiments and are not intended to limit the embodiments. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In the following description of the embodiments, a detailed description of related arts will be omitted if it is determined that the gist of the embodiments may be unnecessarily blurred.

본 발명에서는 기존과는 전혀 다른 관점에서, 이미지 인식(Image Recognition) 기술과 머신 러닝(Machine Learning) 기술을 응용하여, 의류를 실물로 확인하지 않고도 온라인 의류 쇼핑 시에 사용자의 몸에 적합한지를 사전적으로 판단할 수 있게 하는 플랫폼 기술을 제시한다.In the present invention, image recognition technology and machine learning technology are applied in a completely different way from the conventional technology, so that it is possible to preserve the suitability of the user's body for shopping online without actually checking the clothing We present a platform technology that enables us to judge.

구체적으로는, 사용자가 소유한 의류(상의 및 하의)를 카메라로 찍은 사진을 등록하면, 해당 의류에서의 특징점(feature-points)을 인식하고 그 특징점 분석으로부터 사용자의 체형에 대한 예측을 하고, 이후 여타 온라인 쇼핑으로 의류를 구입하고자 하는 경우 해당 의류 판매 업자가 제공하는 의류 사진을 입력하면, 사용자의 체형에 핏(Fit)이 맞는지를 자동으로 분석하여 구매 적합성에 대한 판단의 가이드라인을 제공할 수 있다. 사람을 촬영하는 것이 아니므로 사용상의 불편함을 줄일 수 있고 그리고 사용자의 체형을 정량적으로 고려하여 비교하므로 핏(Fit)에 대한 정확한 판단을 할 수 있게 된다.Specifically, when a photograph of a garment (top and bottom) owned by the user is registered with a camera, feature-points in the garment are recognized and the user's body shape is predicted from the characteristic point analysis. If you want to buy clothing by other online shopping, you can input the clothing photo provided by the apparel retailer and automatically analyze whether the fit is fit to the user's body type, have. It is possible to reduce the inconvenience of the use because it is not to photograph a person, and it is possible to make an accurate judgment on the fit because the user's body shape is quantitatively considered and compared.

도 1은 일실시예에 있어서, 의류 피팅 시스템의 구성을 설명하기 위한 블록도이다. 실시예에 따른 의류 피팅 시스템(100)은 크롤러(Crawler)(110), 저장소(120), 특징점 매퍼(Mapper)(130), 학습기(140) 및 외부 인터페이스(Interface)(150)를 포함할 수 있다.1 is a block diagram for explaining the configuration of a garment fitting system, in an embodiment. A clothing fitting system 100 according to an embodiment may include a crawler 110, a storage 120, a feature point mapper 130, a learning device 140, and an external interface 150 have.

크롤러(110)는 외부 사이트에서 외부 의류 이미지와 외부 의류 이미지에 대한 의류 정보를 백그라운드에서 주기적으로 수집한다.The crawler 110 periodically collects clothing information for the outer garment image and the outer garment image in the background at an external site.

외부 사이트는 주로 인터넷 상의 오픈 마켓, SPA(Specialty store retailer of Private label Apparel Brand) 브랜드와 같은 의류 업체 사이트, SNS, 카페나 블로그 등의 온라인 사이트를 의미하며, 외부 사이트에서 의류의 사진에 해당하는 외부 의류 이미지와 함께 의류 종류(상의, 티셔츠, 남방 등) 및 사이즈 정보를 함께 수집할 수 있다. 또는, 이러한 과정을 통해 구축되어 있을 수 있다.The external site means an online site such as an open market on the Internet, a clothing company site such as an SPA (Specialty store retailer of a private label Apparel Brand), an SNS, a cafe or a blog, You can collect garment images along with clothing type (top, t-shirt, southern, etc.) and size information. Or, it may have been built through this process.

저장소(120)는, 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 수집한다.The store 120 collects user apparel images and user apparel information from the user.

예를 들어, 사용자로부터 실제 소유하고 있는 의류에 대해서 찍힌 사진을 수신하고, 각 의류에 대해서 사이즈 정보 등을 함께 수신할 수 있다. 이를 통해, 저장소(120)는 사용자 본인이 소유한 사용자 의류 이미지 및 사용자 의류 정보를 저장하는 일종의 데이터베이스로 제공될 수 있다.For example, it is possible to receive a photograph taken on a piece of clothing actually owned by the user, and to receive size information and the like for each piece of clothing. In this way, the storage 120 can be provided as a kind of database storing user's clothing image and user's clothing information owned by the user.

저장소(120)는, 사용자 의류 이미지 및 사용자 의류 정보를 입력 받아 사용자의 체형 정보 및 의류 선호 정보를 분석할 수 있다. 실시예를 통해, 사용자는 자신이 소유하는 의상에 대한 분석 정보를 획득할 수 있다. 또는, 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 입력 받아 분석된 정보가 구축되어 있을 수 있다.The store 120 may analyze the user's body shape information and clothing preference information by receiving the user's clothing image and the user's clothing information. Through the embodiment, the user can obtain analysis information on the clothes he owns. Alternatively, the analyzed information may be constructed by receiving the user's clothing image and user's clothing information from the user.

특징점 매퍼(130)는 외부 의류 이미지 및 사용자 의류 이미지에 대한 특징점들을 추출한다.The minutiae mapper 130 extracts minutiae for the outer garment image and the user garment image.

실시예에서, 크롤러(110)에서 수집된 외부 의류 이미지 및 저장소(120)로부터 수집된 사용자 의류 이미지에 대해서 특징점들을 추출할 수 있는데, 추출된 특징점들은 의류 피팅 시스템(100)에서 중요한 메타 데이터(Meta Data)로 이용된다.In an embodiment, feature points may be extracted for the outer garment image collected at the crawler 110 and for the user garment image collected from the store 120. The extracted feature points may be extracted from the garment fitting system 100 using metadata Data.

특징점 매퍼(130)는 외부 의류 이미지 및 사용자 의류 이미지에 대해서 의류의 카테고리를 분류할 수 있다. 실시예에서, 외부 의류 이미지 및 사용자 의류 이미지와 함께 입력된 의류 정보를 이용하여 카테고리를 분류하거나 추출된 특징점들을 이용하여 카테고리를 분류할 수 있다. 외부 의류 이미지 및 사용자 의류 이미지에 대한 카테고리는 아래의 표 1과 같이 분류될 수 있다.The feature point mapper 130 may classify the category of the garment for the outer garment image and the user garment image. In an embodiment, the category may be classified using the clothing information input together with the external clothing image and the user's clothing image, or the category may be classified using the extracted feature points. The categories for the outer garment image and the user garment image can be classified as shown in Table 1 below.

Figure pat00001
Figure pat00001

표 1에 도시된 카테고리는 실시예에 해당하는 것으로, 카테고리를 분류하는 데에 있어서 해당 실시예에 한정되지 않으며, 이외에도 통상적인 분류에 의해 더 많은 종류가 나열될 수 있으며, 세분화될 수 있다.The category shown in Table 1 corresponds to the embodiment, and is not limited to the embodiment in classifying the category. Further, more kinds can be listed by normal classification, and can be subdivided.

도시된 바와 같이, 단계 1에서 상의 및 하의로 구분하고, 단계 2에서 상의의 종류 및 하의의 종류를 분류하며, 각각의 종류에 대해서 단계 3에서 소매 길이나 기장에 따라 분류할 수 있다.As shown in the figure, the top and bottom of the image can be classified into the top and bottom in step 1. In step 2, the type of the top and bottom of the image can be classified.

실시예에서, 외부 의류 이미지 및 사용자 의류 이미지와 함께 의류 정보로 카테고리에 대한 정보가 함께 입력되는 경우, 각 카테고리에 대해서 특징점들을 정의하는 방법을 달리할 수 있으며, 다른 실시예에서, 각 외부 의류 이미지 및 사용자 의류 이미지에 대해서 특징점들을 추출한 결과를 이용하여 표 1과 같이 카테고리를 분류할 수도 있다.In an embodiment, when information about a category is entered together with apparel information together with an outer apparel image and a user apparel image, the manner of defining the feature points for each category may be different, and in another embodiment, And category of the user's clothing image can be classified as shown in Table 1 using the result of extracting the feature points.

실시예에 따른 특징점 매퍼(130)에서 특징점을 매핑하는 방법에 대해 도 2를 통해 설명하도록 한다.A method of mapping feature points in the feature point mapper 130 according to the embodiment will be described with reference to FIG.

도 2는 일실시예에 있어서, 의류 이미지에서 특징점을 추출하는 예시이다.2 is an example of extracting feature points from a garment image, in one embodiment.

도 2(a)는 표 1의 카테고리에 의하면, 긴 소매 셔츠/남방에 해당하는 의류 이미지에 대한 특징점들을 나타내고 있으며, 도 2(b)는 반 소매 셔츠/남방에 해당하는 의류 이미지에 대한 특징점들을 나타내고 있다.Fig. 2 (a) shows characteristic points for a garment image corresponding to a long sleeve shirt / southern area, and Fig. 2 (b) shows characteristic points for a garment image corresponding to a semi-sleeve shirt / Respectively.

도시된 바와 같이 특징점들은 각 의류 이미지의 특정 지점에 대해서 특징점을 추출하며, 카테고리에 따라 특징점들이 달리 추출되는 것을 도 2(a) 및 도 2(b)를 비교함으로써 알 수 있다.As shown in the figure, the feature points extract feature points for a specific point of each garment image, and the feature points are extracted differently according to the category by comparing FIG. 2 (a) and FIG. 2 (b).

실시예에 따른 의류 이미지에 카테고리 별 특징점의 분포에 대해서 표 2를 참조하여 설명할 수 있다.Distribution of minutiae by category in the clothing image according to the embodiment can be explained with reference to Table 2. [

Figure pat00002
Figure pat00002

각 특징점은 도시된 바와 같이 각각 특징점 번호를 가질 수 있다. 특징점의 번호는 의류 이미지의 카테고리에 따라 다르게 추출될 수 있으며, 의류 이미지의 미리 정해진 위치에 대해서 특징점 번호를 미리 지정하고, 추출된 특징점에 대해서 번호를 붙일 수 있다.Each feature point may have a feature point number as shown. The number of the minutiae can be extracted differently according to the category of the garment image, the minutiae point number can be specified in advance for the predetermined position of the garment image, and the extracted minutiae can be numbered.

도 2(a) 및 도 2(b)는 카라가 있는 의류에 해당하므로, 1번, 2번 및 3번의 특징점이 추출될 수 있다. 예를 들어, 카라가 없는 라운드 티셔츠 등의 의류 이미지에서는 1번 내지 3번의 특징점이 추출되지 않을 수 있다.2 (a) and 2 (b) correspond to a garment with a color, the feature points 1, 2 and 3 can be extracted. For example, in a clothing image such as a round shirt without a collar, the feature points 1 to 3 may not be extracted.

양 어깨와 팔이 겹쳐서 각도가 변경되는 지점에 대해서 4번, 19번으로 정의할 수 있고, 양 팔과 몸통 사이의 교차점으로 각도가 변경하는 지점에 대해서 9번, 14번으로 정의할 수 있다. 몸통 부분에 대해서 몸통의 최하단 양 끝점을 11번 12번으로 정의하고, 9번 및 14번과 11번 및 12번의 중간 지점을 10번 13번으로 정의할 수 있다. 단추가 인식되는 지점에 대해서는 20번 이후로 표시할 수 있고, 단추 개수에 따라서 특징점의 개수는 변경될 수 있다. 예를 들어, 긴 소매 셔츠/남방과 긴 소매 티셔츠 간에는 특징점 3번과 20번 이후 특징점들이 일직선으로 의류 하단부까지 이어지는지의 속성 여부를 가지고서 구분할 수 있다.It can be defined as No. 4 and No. 19 at the point where the angles are changed by overlapping the shoulders and arms, and can be defined as No. 9 and No. 14 at the point where the angle changes to the intersection between the arms and the torso. For the body part, the lower end of the body can be defined as 11 and 12, and the midpoint between 9 and 14, 11 and 12 can be defined as 10 and 13, respectively. The point at which the button is recognized can be displayed after 20th, and the number of the minutiae points can be changed according to the number of the buttons. For example, between a long sleeve shirt / south and a long sleeve T-shirt, it is possible to distinguish whether or not the characteristic points after the characteristic points 3 and 20 extend straight to the bottom of the garment.

도시된 바와 같이, 각 의류 이미지에 대해서 특징점 번호가 달리 정의될 수 있으며, 상의가 아닌 하의의 경우에는 또 다른 방식으로 특징점 번호를 정의할 수 있다.As shown in the figure, a minutiae point number can be defined differently for each garment image, and in the case of a lower side, a minutiae point number can be defined in another manner.

도 2(a)와 도 2(b)는 소매 길이에서 카테고리가 분류될 수 있다. 도 2(b)는 반 소매 의류 이미지로, 도 2(a)와 같이 긴 소매인 의류 이미지와 달리 특징점 6번, 7번, 16번, 17번이 발견되지 않는 것을 확인할 수 있다.Figures 2 (a) and 2 (b) can be categorized in sleeve length. FIG. 2 (b) is a semi-retail garment image. As shown in FIG. 2 (a), feature points 6, 7, 16 and 17 are not found unlike the long-sleeve clothing image.

의류 카테고리 간에는, 정장 상의와 셔츠/남방처럼 특징점 개수는 같을 수 있으나, 특징점 1번 내지 3번 및 특징점 2번, 3번을 직선으로 연결했을 때 각도가 정장상의에서 각도가 더 크게 이루어지는 것이 보통이므로, 도 2(a)와 도 2(b)오 k같이 특징점 개수 자체가 다른 것으로 카테고리를 분류할 수도 있고, 특징점 간의 간격이나 각도 등의 속성 차이로도 분류할 수 있다.The number of feature points may be the same between a garment category and a shirt / southern region, but when the feature points 1 to 3 and the feature points 2 and 3 are connected by a straight line, 2, (a) and (b) of FIG. 2, the categories may be classified as different number of feature points, or may be classified into attribute differences such as intervals or angles between feature points.

상기와 같은 방식으로 표 1의 단계 3에 대해서 각 의류 이미지에 따라 중복되지 않고 명확하게 특징점들이 추출될 수 있으며, 특징점 매퍼(130)는 이러한 메타 데이터를 사전적으로 저장할 수 있다.In the same manner, the feature points can be clearly extracted without overlapping according to each garment image with respect to the step 3 of Table 1, and the feature point mapper 130 can store such metadata in advance.

다시, 도 1에서 학습기(140)는, 특징점들을 이용하여 외부 의류 이미지의 제1 패턴 정보 및 사용자 의류 이미지의 제2 패턴 정보를 생성할 수 있다.1, the learning device 140 may generate the first pattern information of the outer garment image and the second pattern information of the user garment image using the minutiae points.

실시예에서, 크롤러(110)에서 입력되는 외부 의류 이미지 및 외부 의류 정보를, 해당 의류 카테고리에 대응하여 특징점 매퍼(130)에서 특징점들을 추출하고, 학습기(140)는 추출된 특징점들을 외부 의류 이미지에 대해서 이미지 인식 기반으로 매핑하고 특징점들 간의 속성을 획득하여 머신 러닝(Machine Learning) 기법으로 카테고리 내의 다양한 의류에 대해서 패턴을 저장할 수 있다.In the embodiment, the outer clothing image and the outer clothing information input from the crawler 110 are extracted from the minutiae mapper 130 in correspondence with the corresponding clothing category, and the learning device 140 extracts the extracted minutiae points from the outer garment image And the attributes between the minutiae points are acquired, so that the pattern can be stored for various clothes in the category by the machine learning technique.

예를 들어, 외부 의류 이미지로 입력되는 의류 이미지들 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 제1 패턴 정보를 생성할 수 있다.For example, the first pattern information of each garment image may be generated by calculating a relative distance between minutiae points of clothing images input as an outer garment image.

이에, 특징점들 간의 상대 거리를 계산하여 카테고리 내 다양한 의류에 대한 패턴을 저장하는 실시예에 대해서 도 3을 참조하여 설명하도록 한다.An embodiment of storing a pattern for various clothes in a category by calculating a relative distance between minutiae points will now be described with reference to FIG.

도 3은 일실시예에 있어서, 의류 이미지의 특징점을 이용하여 패턴 정보를 생성하는 예시이다.3 is an example of generating pattern information using minutiae of a clothing image in one embodiment.

도 3(a)는 특징점이 추출되어 의류 이미지에 매핑된 예시이고, 도 3(b)는 도 3(a)의 예시에 대해 계산된 상대 거리를 나타내고 있다.Fig. 3 (a) is an example in which feature points are extracted and mapped to a clothing image, and Fig. 3 (b) shows a relative distance calculated for the example of Fig. 3 (a).

특징점 1번에서 2번을 연결한 직선과 특징점 11번에서 12번을 연결한 직선을 수직으로 연결한 길이를 상대길이=1인 것으로 정의하고, 주요 특징점 간의 상대 거리를 구할 수 있다. 여기서, 특징점 간 거리는 결국 사람이 옷을 착용했을 때 착용감(예컨대, 목이 헐렁하다, 가슴이 조인다 등)에 영향을 미치는 주요 속성들을 의미할 수 있다. 이에, 도 3(b)는 도 3(a)의 예시를 기준으로 착용감을 예측하기 위해 계산된 특징점 간의 상대 거리를 나타내는 것이다.The relative distance between the major feature points can be obtained by defining the length of the straight line connecting the feature points 1 to 2 and the straight line connecting the feature points 11 to 12 as the relative length = 1. Here, the distance between the minutiae can mean the main attributes that ultimately affect the fit (e.g., neck loose, tighten the chest, etc.) when a person wears clothes. FIG. 3 (b) shows the relative distance between the calculated feature points for predicting the fit according to the example of FIG. 3 (a).

실시예에서, 착용감의 예측을 위해 계산되어야 할 상대 거리는 목 둘레, 어깨 너비, 팔 길이, 팔 둘레, 가슴 둘레, 배 둘레 등에 해당하며, 이를 위해 각 특징점의 상대 거리를 이용할 수 있다. 예를 들어, 목 둘레에 대한 착용감 예측을 위해 1번 내지 3번 특징점 간의 상대 거리를 계산할 수 있고, 가슴 둘레에 대한 착용감 예측을 위해 9번, 14번 특징점 간의 상대 거리를 계산할 수 있다.In the embodiment, the relative distances to be calculated for the comfort feeling correspond to the neck circumference, the shoulder width, the arm length, the arm circumference, the chest circumference, the circumference of the abdomen, and so forth. For example, the relative distance between the first to third feature points can be calculated to estimate the fit of the neckline, and the relative distances between the feature points 9 and 14 can be calculated to predict the fit of the chest.

학습기(140)는 크롤러에 의해 입력되는 수 많은 외부 의류 이미지에 대해서 각 카테고리에 맞게 특징점 매퍼(130)에서 추출된 특징점들 및 특징점들의 속성을 획득하고, 이를 의류 이미지 상에 매핑한 후, 주요 특징점들 간의 상대 거리를 구하는 작업을 반복할 수 있다. 도 3(c)는 실시예에서, 수 많은 외부 의류 이미지에 대해서 반복적인 작업을 통해 얻은 상대 거리에 대한 데이터를 통계적으로 처리한 제1 패턴 정보, 예를 들어 분포(Distribution)에 해당할 수 있다.The learning device 140 acquires the attributes of the minutiae and minutiae extracted from the minutiae mapper 130 according to each category for a large number of external clothing images inputted by the crawler, maps them on the clothing image, Can be repeated. FIG. 3 (c) can correspond to first pattern information, for example, a distribution, statistically processing data on relative distances obtained through repetitive operations on a plurality of outer clothing images in the embodiment .

실시예에서, 도 3(c)는 특징점 1번 내지 2번의 상대 거리에 대한 분포도를 도시한 것이다. 예를 들어, 도 3(c)의 분포도가 도 3(a)의 실시예의 카테고리에 대한 분포도인 경우, 도 3(a)에 대해서 특징점 1번 내지 2번의 상대 거리는 0.159이므로, 같은 카테고리 내에서 평균인 0.186 이하의 상대 거리를 가지는 의류 이미지로 인식할 수 있다.In the embodiment, Fig. 3 (c) shows a distribution diagram for the relative distances 1 to 2 of the minutiae points. For example, when the distribution diagram of FIG. 3 (c) is a distribution diagram for the category of the embodiment of FIG. 3 (a), the relative distances 1 and 2 of the feature points 1 and 2 are 0.159, Can be recognized as a clothing image having a relative distance of 0.186 or less.

학습기(140)는 크롤러(110)에 의해 입력된 외부 의류 이미지에 대해서뿐만 아니라 저장소(120)를 통해 사용자로부터 입력되는 사용자 의류 이미지에 대해서도 각 카테고리에 맞게 특징점 매퍼(130)에서 추출된 특징점들 및 특징점들의 속성을 획득하고, 이를 의류 이미지 상에 매핑한 후, 주요 특징점들 간의 상대 거리를 구하는 작업을 반복할 수 있다. 또한, 반복적인 작업을 통해 획득한 상대 거리에 대한 데이터를 통계적으로 처리하여 제2 패턴 정보에 해당하는 분포를 획득할 수 있다.The learning device 140 not only searches the external clothing image inputted by the crawler 110 but also the feature points extracted from the feature point mapper 130 according to each category, The attributes of the minutiae points are acquired, the minutiae are mapped on the clothes image, and the task of finding the relative distance between the main minutiae points can be repeated. In addition, the distribution of the second pattern information can be obtained by statistically processing data on the relative distance obtained through the repetitive operation.

실시예에서, 이러한 방법으로 제1 패턴 정보 및 제2 패턴 정보를 획득할 수 있으며, 또는 이러한 방법으로 기획득한 분포 정보를 저장할 수 있다.In this embodiment, the first pattern information and the second pattern information can be obtained in this way, or distribution information obtained by this method can be stored.

다시, 도 1에서 외부 인터페이스(150)는, 사용자로부터 대상 의류 이미지를 수신하여 학습기(140)를 통해 대상 의류 이미지에 대한 제3 패턴 정보를 제공받고, 제1 패턴 정보 및 제2 패턴 정보와 비교하여 대상 의류 이미지에 대한 피팅 예상 결과를 도출할 수 있다.1, the external interface 150 receives the target apparel image from the user, receives the third pattern information about the target apparel image through the learning device 140, and compares the third pattern information with the first pattern information and the second pattern information To obtain fit prediction results for the target garment image.

실시예에서, 학습기(140)의 동작을 통해 외부 의류 이미지에 대해서 획득한 제1 패턴 정보 및 사용자 의류 이미지에 대해서 획득한 제2 패턴 정보를 이용하여, 사용자가 구매하고자 하는 대상 의류 이미지에 대한 피팅 예상 결과를 획득할 수 있다.In the embodiment, the first pattern information acquired for the outer garment image and the second pattern information acquired for the user garment image through the operation of the learning device 140 are used to perform fitting for the target garment image to be purchased by the user The expected result can be obtained.

실시예에서, 사용자가 저장소(120)로 입력되는 사용자 의류 이미지가 증가할수록 저장소(120)는 사용자에 대해서 체형 정보 및 의류 선호 정보를 분석할 수 있는데, 예를 들어, 사용자는 특징점 9번, 14번 사이(가슴 둘레)가 상의 셔츠의 평균보다 10% 작은 슬림핏(Slim Fit)을 선호하면서, 동시에 특징점 1번, 4번(특징점 2번, 19번 동일)의 상대 거리, 즉 어깨는 평균보다 10% 넓은 셔츠를 선호하는 등의 정보를 제2 패턴 정보와 더불어 획득할 수 있다.In an embodiment, as the user increases the user's clothing image input to the store 120, the store 120 may analyze the body information and clothing preference information for the user, e.g., The relative distance of the feature points 1 and 4 (the feature points 2 and 19) is the same, while the shoulder is 10 times smaller than the average % Wide shirt can be obtained together with the second pattern information.

외부 인터페이스(150)는 의류 피팅 시스템(100)을 활용하고자 할 때의 연동을 담당하는 역할을 수행할 수 있다. 예를 들어, 외부 인터페이스(150)에서 오픈 API(Application Programming Interface)를 제공하고, 외부 사이트에서는 이 API를 활용하여 플러그인(Plug-In) 형태로 의류 구매 시 사용자가 선택한 의류가 체형에 맞는지를 판단하는 버튼을 제공할 수 있는데, 고객이 구매하고자 하는 의류의 본인 체형에의 적합성을 알아보기 위해 버튼을 누르는 경우, 해당 외부 사이트에서는 고객 기본 정보와 현재 고객이 주시 중인 의류 이미지와 의류의 기본 정보를 API를 통해 의류 피팅 시스템(100)으로 전달할 수 있다. 이렇게 전달된 정보 중, 의류 이미지는 학습기(140)에 전달되어 해당 의류 카테고리에 속하는 특징점들과 특징점들 간의 속성을 기반으로 분석하여 제3 패턴 정보를 생성할 수 있다. 다른 실시예에서, 사용자의 체형 정보 및 의류 선호 정보를 저장소(120)에서 검색하여 추출한 다음, 추출된 정보를 특징점 간에 구체적으로 비교하여 착용감 적합성 여부를 외부 인터페이스(150)에서 외부 사이트로 응답하는 형식으로 제공될 수 있다.The external interface 150 may play a role of interlocking when the user wants to utilize the clothing fitting system 100. For example, an open API (Application Programming Interface) is provided in the external interface 150, and an external site uses this API to judge whether the user's selected clothing matches with the body when purchasing clothes in the form of a plug-in When a customer presses a button to determine suitability of a garment to a body shape of a customer, the corresponding external site displays basic information of the customer, clothing image currently being watched by the customer, and basic information of the clothes To the clothing fitting system 100 via the API. Among the information thus transmitted, the clothing image is transmitted to the learning device 140, and the third pattern information can be generated by analyzing based on the attribute between the minutiae and the minutiae belonging to the apparel category. In another embodiment, the body shape information and the clothing preference information of the user are retrieved and extracted from the storage 120, and then the extracted information is specifically compared among the minutiae points, . ≪ / RTI >

실시예를 위한 표 3 내지 표 5를 이용하여 자세히 설명하도록 한다.Details will be described with reference to Tables 3 to 5 for the embodiment.

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

표 3의 고객 특성은 저장소(120)를 통해 입력된 사용자 의류 이미지들에 통계적으로 처리된 제2 패턴 정보에 해당하고, 평균은 크롤러(110)를 통해 입력된 외부 의류 이미지들에 대해서 통계적으로 처리된 제1 패턴 정보에 해당할 수 있다. 이에, 외부 사이트 등을 통해 입력된 대상 의류 이미지에 대해서 학습기(140)를 통해 각 특징점에 대한 상대 거리를 계산한 것으로 제품 특성을 제공할 수 있다.The customer characteristics in Table 3 correspond to the second pattern information statistically processed on the user clothes images inputted through the storage 120, and the average corresponds to the statistical processing on the external clothing images inputted through the crawler 110 May correspond to the first pattern information. Accordingly, product characteristics can be provided by calculating the relative distance to each feature point through the learning device 140 with respect to the target clothing image input through an external site or the like.

외부 인터페이스 모듈(150)은 표 3과 같이 외부 인터페이스 모듈(150)로 입력되는 결과에 대해서 사용자가 이해하기 쉬운 형태로 피팅 예측 결과에 대한 응답 메시지를 만들 수 있는 매핑 룰 테이블(Mapping Rule Table)을 포함할 수 있으며, 이는 표 4와 같은 형태로 제공될 수 있다.As shown in Table 3, the external interface module 150 has a mapping rule table that can generate a response message to the fitting prediction result in a form that the user can easily understand about the result input to the external interface module 150 , Which can be provided in the form of Table 4. < tb > < TABLE >

표 4에 의하면, 목 둘레에 대해서 피팅 예측 결과를 예측하기 위해서 특징점 1번 내지 4번에 대해서 계산된 상대 거리를 이용할 수 있다. 조건 1은 평균과 고객 특성을 이용하여 사용자의 체형 정보나 선호 의류 정보를 획득하기 위한 조건이며, 조건 2는 입력된 대상 의류 이미지가 사용자 체형 정보나 선호 의류 정보에 부합하는지에 대한 조건을 의미할 수 있다. 예를 들어, 고객 특성이 평균보다 10%이상 작은 경우, 사용자는 평균보다 작은 목 둘레를 가지고 있거나 목이 약간 조이는 의류를 선호하는 것으로 판단 가능하며, 제품 특성을 고객 특성과 평균에 비교하여 사용자의 피팅 예측 결과를 획득할 수 있다.According to Table 4, the calculated relative distances for the feature points 1 to 4 can be used to predict the fitting prediction result with respect to the neckline. Condition 1 is a condition for obtaining the user's body shape information or preferred clothing information using the average and customer characteristics, and Condition 2 means a condition for whether the inputted target clothing image matches the user's body information or the preferred clothing information . For example, if customer characteristics are less than 10% below average, the user may be judged to prefer a garment that has a neckline that is less than average or has a slightly tight neck, The prediction result can be obtained.

실시예에서, 사용자에게 최종적으로 전달되는 메시지는 표 5와 같은 메시지 형태로 제공될 수 있으며, 최종 구매 여부는 사용자가 선택할 수 있다.In the embodiment, a message finally delivered to the user may be provided in the form of a message as shown in Table 5, and the user may select whether the final purchase is to be made.

도 4는 일실시예에 있어서, 의류 피팅 시스템의 동작 방법을 설명하기 위한 흐름도이다.4 is a flow chart for explaining a method of operating a garment fitting system, in one embodiment.

단계(410)에서, 의류 피팅 시스템(100)은 외부 의류 이미지의 제1 패턴 정보를 획득한다.At step 410, the clothing fitting system 100 acquires first pattern information of the outer garment image.

실시예에서, 의류 피팅 시스템(100)은 외부 사이트에서 외부 의류 이미지와 외부 의류 이미지에 대한 의류 정보를 시스템의 백그라운드에서 주기적으로 수집할 수 있다.In an embodiment, the apparel fitting system 100 may periodically collect apparel information for an outer apparel image and an apparel apparel image in the background of the system at an external site.

외부 사이트는 주로 인터넷 상의 오픈 마켓, SPA(Specialty store retailer of Private label Apparel Brand) 브랜드와 같은 의류 업체 사이트, SNS, 카페나 블로그 등의 온라인 사이트를 의미하며, 외부 사이트에서 의류의 사진에 해당하는 외부 의류 이미지와 함께 의류 종류(상의, 티셔츠, 남방 등) 및 사이즈 정보를 함께 수집할 수 있다.The external site means an online site such as an open market on the Internet, a clothing company site such as an SPA (Specialty store retailer of a private label Apparel Brand), an SNS, a cafe or a blog, You can collect garment images along with clothing type (top, t-shirt, southern, etc.) and size information.

의류 피팅 시스템(100)은 수집된 외부 의류 이미지에 대해서 의류의 카테고리를 분류할 수 있다. 실시예에서, 외부 의류 이미지와 함께 입력된 의류 정보를 이용하여 카테고리를 분류하거나 추출된 특징점들을 이용하여 카테고리를 분류할 수 있다.The garment fitting system 100 may classify categories of garments for the collected outer garment images. In an embodiment, the category may be classified using the clothing information input together with the external clothing image, or the category may be classified using the extracted feature points.

또한, 추출된 특징점들을 외부 의류 이미지에 대해서 이미지 인식 기반으로 매핑하고 특징점들 간의 속성을 획득하여 머신 러닝(Machine Learning) 기법으로 카테고리 내의 다양한 의류에 대해서 패턴을 저장할 수 있다.In addition, the extracted minutiae are mapped on the basis of image recognition based on the external garment image, and the attributes between the minutiae are acquired, so that a pattern can be stored for various clothes in the category by a machine learning technique.

예를 들어, 외부 의류 이미지로 입력되는 의류 이미지들 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 제1 패턴 정보를 생성할 수 있다.For example, the first pattern information of each garment image may be generated by calculating a relative distance between minutiae points of clothing images input as an outer garment image.

입력된 외부 의류 이미지에 대해서 각 카테고리에 맞게 추출된 특징점들 및 특징점들의 속성을 획득하고, 이를 외부 의류 이미지 상에 매핑한 후, 주요 특징점들 간의 상대 거리를 구하는 작업을 반복할 수 있다. 또한, 반복적인 작업을 통해 획득한 상대 거리에 대한 데이터를 통계적으로 처리하여 제1 패턴 정보에 해당하는 분포를 획득할 수 있다.The attributes of the minutiae and the minutiae extracted for each category can be acquired for the inputted external clothing image, the minutiae may be mapped onto the outer garment image, and then the relative distance between the main minutiae can be determined. In addition, a distribution corresponding to the first pattern information can be obtained by statistically processing data on the relative distance obtained through the repetitive operation.

또는 이러한 방법을 통해 생성되어 있는 제1 패턴 정보를 획득할 수 있다.Alternatively, the first pattern information generated through this method can be obtained.

이에, 특징점들 간의 상대 거리를 계산하여 카테고리 내 다양한 의류에 대한 패턴을 저장하는 실시예에 대해서 앞서 설명된 도 3을 참조할 수 있다.Referring to FIG. 3 described above, an embodiment of storing a pattern for various clothes in a category by calculating a relative distance between minutiae can be referred to.

단계(420)에서 의류 피팅 시스템(100)은 사용자 의류 이미지의 제2 패턴 정보를 획득한다.In step 420, the clothing fitting system 100 acquires second pattern information of the user's clothing image.

실시예에서, 의류 피팅 시스템(100)은 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 수집할 수 있다. 예를 들어, 사용자로부터 실제 소유하고 있는 의류에 대해서 찍힌 사진을 수신하고, 각 의류에 대해서 사이즈 정보 등을 함께 수신할 수 있다. 이를 통해, 사용자 본인이 소유한 사용자 의류 이미지 및 사용자 의류 정보를 저장하는 일종의 데이터베이스가 제공될 수 있다.In an embodiment, the apparel fitting system 100 may collect user apparel images and user apparel information from a user. For example, it is possible to receive a photograph taken on a piece of clothing actually owned by the user, and to receive size information and the like for each piece of clothing. In this way, a kind of database storing the user's clothing image and the user's clothing information owned by the user can be provided.

의류 피팅 시스템(100)은 사용자 의류 이미지 및 사용자 의류 정보를 입력 받아 사용자의 체형 정보 및 의류 선호 정보를 분석할 수 있다. 실시예를 통해, 사용자는 자신이 소유하는 의상에 대한 분석 정보를 획득할 수 있다. 또는, 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 입력 받아 분석된 정보가 구축되어 있을 수 있다.The clothing fitting system 100 may analyze the user's body shape information and clothing preference information by receiving the user's clothing image and user's clothing information. Through the embodiment, the user can obtain analysis information on the clothes he owns. Alternatively, the analyzed information may be constructed by receiving the user's clothing image and user's clothing information from the user.

의류 피팅 시스템(100)은, 앞서 외부 의류 이미지에 대한 제1 패턴 정보를 수집하는 유사한 실시예로, 수집된 사용자 의류 이미지에 대해서 의류의 카테고리를 분류할 수 있다. 실시예에서, 사용자 의류 이미지와 함께 입력된 의류 정보를 이용하여 카테고리를 분류하거나 추출된 특징점들을 이용하여 카테고리를 분류할 수 있다.The garment fitting system 100 may classify categories of garments for the collected user garment images, in a similar embodiment that collects first pattern information for the outer garment images previously. In the embodiment, categories may be classified using the clothing information input together with the user's clothing image, or the category may be classified using the extracted feature points.

또한, 추출된 특징점들을 사용자 의류 이미지에 대해서 이미지 인식 기반으로 매핑하고 특징점들 간의 속성을 획득하여 머신 러닝(Machine Learning) 기법으로 카테고리 내의 다양한 의류에 대해서 패턴을 저장할 수 있다.Also, the extracted minutiae points are mapped on the basis of image recognition based on the user's clothing image, and the attributes between the minutiae points are acquired, so that the pattern can be stored for various clothes in the category by the machine learning technique.

예를 들어, 사용자 의류 이미지로 입력되는 의류 이미지들 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 제2 패턴 정보를 생성할 수 있다.For example, the second pattern information of each garment image may be generated by calculating a relative distance between the minutiae points of each of the garment images input as the user garment image.

의상 피팅 시스템(100)은 입력된 외부 의류 이미지에 대해서뿐만 아니라 사용자로부터 입력되는 사용자 의류 이미지에 대해서도 각 카테고리에 맞게 추출된 특징점들 및 특징점들의 속성을 획득하고, 이를 의류 이미지 상에 매핑한 후, 주요 특징점들 간의 상대 거리를 구하는 작업을 반복할 수 있다. 또한, 반복적인 작업을 통해 획득한 상대 거리에 대한 데이터를 통계적으로 처리하여 제2 패턴 정보에 해당하는 분포를 획득할 수 있다.The garment fitting system 100 acquires not only attributes of the input external clothing image but also the attributes of the feature points and the feature points extracted for each user's clothing image inputted from the user in accordance with each category and maps the attributes on the clothing image, It is possible to repeat the operation of obtaining the relative distance between the main feature points. In addition, the distribution of the second pattern information can be obtained by statistically processing data on the relative distance obtained through the repetitive operation.

또는 이러한 방법을 통해 생성되어 있는 제2 패턴 정보를 획득할 수 있다.Alternatively, the second pattern information generated through this method can be obtained.

단계(430)에서 의류 피팅 시스템(100)은 사용자로부터 대상 의류 이미지를 수신한다.In step 430, the apparel fitting system 100 receives the apparel apparel image from the user.

대상 의류 이미지는 사용자가 구매하고자 하는 의류에 대한 이미지에 해당할 수 있다. The target garment image may correspond to an image of the garment the user wants to purchase.

실시예에서, 의류 피팅 시스템(100)은 외부 사이트로 오픈 API(Application Programming Interface)를 제공하고, 외부 사이트에서는 이 API를 활용하여 플러그인(Plug-In) 형태로 의류 구매 시 사용자가 선택한 의류가 체형에 맞는지를 판단하는 버튼을 제공할 수 있는데, 버튼사이트에서는 이 API를 활용하여 플러그인(Plug-In) 형태로 의류 구매 시 사용자가 선택한 의류가 체형에 맞는지를 판단하는 버튼을 제공할 수 있는데, 버튼에 대한 입력이 감지되는 경우, 해당 외부 사이트에서는 고객 기본 정보와 현재 고객이 주시 중인 대상 의류 이미지와 의류의 기본 정보를 API를 통해 의류 피팅 시스템(100)으로 전달할 수 있다.In an embodiment, the apparel fitting system 100 provides an open API (Application Programming Interface) to an external site, and in an external site, the apparel selected by the user when purchasing clothes in the form of a plug- The button site may provide a button for determining whether the clothing selected by the user is fit to the body type by purchasing the clothes in the form of a plug-in by utilizing the API. In the button site, The customer can transmit the customer basic information, the target clothes image currently being watched by the customer, and the basic information of the clothes to the clothing fitting system 100 through the API.

단계(440)에서 의류 피팅 시스템(100)은 대상 의류 이미지에 대한 제3 패턴 정보를 생성한다.In step 440, the clothing fitting system 100 generates third pattern information for the target garment image.

전달된 정보 중, 의류 이미지는 해당 의류 카테고리에 속하는 특징점들과 특징점들 간의 속성을 기반으로 분석하여 제3 패턴 정보를 생성할 수 있다. 제3 패턴 정보를 생성하는 데에 있어서, 제1 패턴 정보 및 제2 패턴 정보를 생성하기 위한 단계(410) 및 단계(420)의 실시예를 참조할 수 있다.Among the transmitted information, the apparel image can generate the third pattern information by analyzing based on the attribute between the minutiae and the minutiae belonging to the apparel category. In generating the third pattern information, it is possible to refer to the embodiments of steps 410 and 420 for generating the first pattern information and the second pattern information.

단계(450)에서 의류 피팅 시스템(100)은 제1 패턴 정보, 제2 패턴 정보, 및 제3 패턴 정보에 기초하여, 대상 의류 이미지에 대한 피팅 예상 결과를 도출한다.At step 450, the clothing fitting system 100 derives a fit prediction result for the target garment image, based on the first pattern information, the second pattern information, and the third pattern information.

사용자로부터 대상 의류 이미지를 수신하여 대상 의류 이미지에 대한 제3 패턴 정보를 제공받고, 제1 패턴 정보 및 제2 패턴 정보와 비교하여 사용자가 구매하고자 하는 대상 의류 이미지에 대한 피팅 예상 결과를 도출할 수 있다.Receiving the target apparel image from the user, receiving the third pattern information on the target apparel image, comparing the first pattern information and the second pattern information, and deriving the fitting expectation result for the target apparel image that the user intends to purchase have.

실시예에서, 사용자의 체형 정보 및 의류 선호 정보를 검색하여 추출한 다음, 추출된 정보를 특징점 간에 구체적으로 비교하여 착용감 적합성 여부를 외부 사이트로 응답하는 형식이 포함될 수 있다. 예를 들어, 제품 특성을 고객 특성과 평균에 비교하여 사용자 의류 선호 정보에 기초한 대상 의류 이미지의 피팅 예측 결과를 획득할 수 있다.In an embodiment, a format for searching for and extracting the user's body type information and clothing preference information, and then comparing the extracted information with the minutiae point to specifically answer the user's suitability of fit to the external site may be included. For example, a fit prediction result of a target garment image based on user's clothing preference information can be obtained by comparing the product characteristics with the customer characteristics and the average.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 비록 한정된 도면에 의해 실시예들이 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Although the preferred embodiments of the present invention have been disclosed for illustrative purposes, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (19)

외부 사이트의 외부 의류 이미지 및 외부 의류 정보를 주기적으로 수집하는 크롤러;
사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 수집하는 저장소;
상기 외부 의류 이미지 및 상기 사용자 의류 이미지에 대한 특징점들을 추출하는 특징점 매퍼;
상기 특징점들을 이용하여 상기 외부 의류 이미지의 제1 패턴 정보 및 상기 사용자 의류 이미지의 제2 패턴 정보를 생성하는 학습기; 및
상기 사용자로부터 대상 의류 이미지를 수신하여 상기 학습기에서 상기 대상 의류 이미지에 대한 제3 패턴 정보를 제공받고, 상기 제1 패턴 정보 및 상기 제2 패턴 정보와 비교하여 상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 외부 인터페이스
를 포함하는,
의류 피팅 시스템.
A crawler that periodically collects external clothing images of the external site and external clothing information;
A repository for collecting user apparel images and user apparel information from users;
A feature point mapper for extracting feature points for the outerwear image and the user's clothing image;
A learning device for generating first pattern information of the outer garment image and second pattern information of the user garment image using the feature points; And
Receiving a target apparel image from the user, receiving third pattern information on the target apparel image in the learning device, and comparing the first pattern information and the second pattern information to obtain a fitting expectation result for the target apparel image Derived External Interface
/ RTI >
Clothes fitting system.
제1항에 있어서,
상기 특징점 매퍼는,
상기 외부 의류 이미지 및 상기 사용자 의류 이미지에 대한 특징점들을 추출하고, 각각의 의류 이미지를 카테고리화하는,
의류 피팅 시스템.
The method according to claim 1,
The minutiae mapper
Extracting feature points for the outer garment image and the user garment image, categorizing each garment image,
Clothes fitting system.
제2항에 있어서,
상기 각각의 의류 이미지의 특징점들의 수 및 특징점들 간의 간격이나 각도를 이용하여 상기 각각의 의류 이미지를 카테고리화하는,
의류 피팅 시스템.
3. The method of claim 2,
And categorizing each of the clothing images using the number of feature points of each of the clothing images and the interval or angle between the feature points,
Clothes fitting system.
제1항에 있어서,
상기 학습기는,
상기 특징점 매퍼에서 추출된 특징점들을 제공받아 상기 외부 의류 이미지 및 상기 사용자 의류 이미지 각각의 이미지 기반으로 매핑하는,
의류 피팅 시스템.
The method according to claim 1,
The learning device includes:
The method comprising: receiving feature points extracted from the feature point mapper and mapping the extracted feature points to an image based on the outer garment image and the user garment image;
Clothes fitting system.
제1항에 있어서,
상기 학습기는,
상기 외부 의류 이미지 및 상기 사용자 의류 이미지 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 상기 제1 패턴 정보 및 상기 제2 패턴 정보를 생성하는,
의류 피팅 시스템.
The method according to claim 1,
The learning device includes:
Calculating a relative distance between the outer clothing image and each of the minutiae points of the user garment image to generate the first pattern information and the second pattern information of each garment image,
Clothes fitting system.
제1항에 있어서,
상기 저장소는,
상기 학습기로부터 상기 사용자 의류 이미지에 대한 상기 제2 패턴 정보를 제공받고, 상기 제2 패턴 정보를 이용하여 상기 사용자의 체형 정보 및 의류 선호 정보를 생성하는,
의류 피팅 시스템.
The method according to claim 1,
Wherein the storage comprises:
Wherein the second pattern information is provided from the learning device and the body shape information and the clothing preference information of the user are generated using the second pattern information,
Clothes fitting system.
제1항에 있어서,
상기 외부 인터페이스는,
상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보에 대해서 각 특징점들 간의 상대거리를 비교하여 상기 피팅 예상 결과를 도출하는,
의류 피팅 시스템.
The method according to claim 1,
Wherein the external interface comprises:
And comparing the relative distances between the minutiae points with respect to the first pattern information, the second pattern information, and the third pattern information to derive the fitting expectation result,
Clothes fitting system.
제1항에 있어서,
상기 외부 인터페이스는,
상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보의 특징점들 간 상대거리를 비교하기 위한 매핑 테이블(Mapping Table)을 포함하는,
의류 피팅 시스템.
The method according to claim 1,
Wherein the external interface comprises:
And a mapping table for comparing relative distances between minutiae points of the first pattern information, the second pattern information, and the third pattern information.
Clothes fitting system.
외부 의류 이미지의 제1 패턴 정보를 획득하는 단계;
사용자 의류 이미지의 제2 패턴 정보를 획득하는 단계;
사용자로부터 대상 의류 이미지를 수신하는 단계;
상기 대상 의류 이미지에 대한 제3 패턴 정보를 생성하는 단계; 및
상기 제1 패턴 정보, 상기 제2 패턴 정보, 및 상기 제3 패턴 정보에 기초하여, 상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
Obtaining first pattern information of an outer garment image;
Obtaining second pattern information of the user's clothing image;
Receiving a target apparel image from a user;
Generating third pattern information for the target garment image; And
Deriving a fitting expectation result for the target garment image based on the first pattern information, the second pattern information, and the third pattern information
/ RTI >
A method of operating a garment fitting system.
제9항에 있어서,
상기 외부 의류 이미지의 패턴 정보를 획득하는 단계는
외부 사이트의 외부 의류 이미지 및 상기 외부 의류 이미지의 외부 의류 정보를 주기적으로 수집하는 단계; 및
상기 외부 의류 이미지의 특징점들을 추출하여 상기 외부 의류 이미지의 패턴 정보를 생성하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
The step of obtaining pattern information of the outer garment image
Periodically collecting an outer garment image of the outer site and outer garment information of the outer garment image; And
Extracting feature points of the outer garment image and generating pattern information of the outer garment image
/ RTI >
A method of operating a garment fitting system.
제9항에 있어서,
상기 사용자 의류 이미지의 제2 패턴 정보를 획득하는 단계는,
사용자로부터 상기 사용자 의류 이미지 및 사용자 의류 정보를 수집하는 단계; 및
상기 사용자 의류 이미지에 대한 특징점들을 추출하여 상기 사용자 의류 이미지의 패턴 정보를 생성하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
Wherein obtaining the second pattern information of the user's clothing image comprises:
Collecting the user apparel image and user apparel information from a user; And
Extracting feature points for the user's clothing image and generating pattern information of the user's clothing image
/ RTI >
A method of operating a garment fitting system.
제9항에 있어서,
상기 외부 의류 이미지의 제1 패턴 정보를 획득하는 단계는,
상기 외부 의류 이미지에 대한 특징점들을 추출하고, 각각의 의류 이미지를 카테고리화하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
Wherein obtaining the first pattern information of the outer garment image comprises:
Extracting feature points for the outer garment image, and categorizing each garment image
/ RTI >
A method of operating a garment fitting system.
제12항에 있어서,
상기 외부 의류 이미지에 대한 특징점들을 추출하고, 각각의 의류 이미지를 카테고리화하는 단계는,
상기 외부 의류 이미지의 추출된 특징점들의 수, 특징점들 간의 간격, 상기 특징점들 간의 각도 중 적어도 하나를 이용하여 상기 외부 의류 이미지를 카테고리화하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
13. The method of claim 12,
Extracting feature points for the outer garment image, and categorizing each garment image,
Categorizing the outer garment image using at least one of the number of extracted feature points of the outer garment image, the spacing between feature points, and the angle between the feature points
/ RTI >
A method of operating a garment fitting system.
제10항에 있어서,
상기 외부 의류 이미지의 제1 패턴 정보를 획득하는 단계는,
상기 추출된 특징점들을 이용하여 상기 외부 의류 이미지의 이미지 기반으로 매핑하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
11. The method of claim 10,
Wherein obtaining the first pattern information of the outer garment image comprises:
Mapping the outer garment image to an image based on the extracted minutiae;
/ RTI >
A method of operating a garment fitting system.
제10항에 있어서,
상기 외부 의류 이미지의 제1 패턴 정보를 획득하는 단계는,
상기 외부 의류 이미지의 특징점들 간의 상대 거리를 계산하여 상기 외부 의류 이미지의 상기 제1 패턴 정보를 생성하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
11. The method of claim 10,
Wherein obtaining the first pattern information of the outer garment image comprises:
Calculating the relative distance between the minutiae points of the outer garment image to generate the first pattern information of the outer garment image
/ RTI >
A method of operating a garment fitting system.
제9항에 있어서,
상기 사용자 의류 이미지의 제2 패턴 정보를 획득하는 단계는,
상기 사용자 의류 이미지에 대한 상기 제2 패턴 정보를 이용하여 상기 사용자의 체형 정보 및 의류 선호 정보를 생성하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
Wherein obtaining the second pattern information of the user's clothing image comprises:
Generating the body shape information and the clothing preference information of the user using the second pattern information on the user's clothing image
/ RTI >
A method of operating a garment fitting system.
제9항에 있어서,
상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 단계는,
상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보에 대해서 각 특징점들 간의 상대거리를 비교하여 상기 피팅 예상 결과를 도출하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
Wherein deriving a fitting expectation result for the target garment image comprises:
Comparing the relative distances between the minutiae points with respect to the first pattern information, the second pattern information, and the third pattern information to derive the fitting expectation result
/ RTI >
A method of operating a garment fitting system.
제9항에 있어서,
상기 피팅 예상 결과는,
상기 외부 의류 이미지, 상기 사용자 의류 이미지 및 상기 대상 의류 이미지 각각의 특징점들 간 상대거리를 비교하기 위한 매핑 테이블(Mapping Table)을 이용하여 생성되는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
The fitting expectation result may include:
And a mapping table for comparing relative distances between minutiae points of the outer garment image, the user garment image, and the target garment image,
A method of operating a garment fitting system.
하드웨어와 결합되어 제9항 내지 제18항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.18. A computer program stored in a medium for executing the method of any one of claims 9-18 in combination with hardware.
KR1020150109830A 2015-08-04 2015-08-04 Clothes Fitting System And Operation Method of Threof KR102580009B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150109830A KR102580009B1 (en) 2015-08-04 2015-08-04 Clothes Fitting System And Operation Method of Threof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150109830A KR102580009B1 (en) 2015-08-04 2015-08-04 Clothes Fitting System And Operation Method of Threof

Publications (2)

Publication Number Publication Date
KR20170016578A true KR20170016578A (en) 2017-02-14
KR102580009B1 KR102580009B1 (en) 2023-09-18

Family

ID=58121297

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150109830A KR102580009B1 (en) 2015-08-04 2015-08-04 Clothes Fitting System And Operation Method of Threof

Country Status (1)

Country Link
KR (1) KR102580009B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200025181A (en) 2018-08-29 2020-03-10 서울과학기술대학교 산학협력단 Device and method for virtual clothes fitting
KR20200034028A (en) 2018-09-13 2020-03-31 정형록 System and method for virtual fitting based on artificial intelligence
KR20200044197A (en) 2018-10-10 2020-04-29 이재갑 Machine learning based clothing fit recommending apparatus
KR102202843B1 (en) * 2020-04-14 2021-01-14 이상철 System for providing online clothing fitting service using three dimentional avatar
KR20210067309A (en) * 2019-11-29 2021-06-08 오드컨셉 주식회사 Method, apparatus, and system for providing fashion information
KR20210090456A (en) 2020-01-10 2021-07-20 (주)내스타일 Image-based Posture Preservation Virtual Fitting System Supporting Multi-Poses

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100514757B1 (en) * 2000-05-09 2005-09-15 (주)모즐 System and method for purchasing clothes by using picture compound and recognition on network
KR20110123848A (en) * 2010-05-10 2011-11-16 이경환 Method and system for virtual fitting room service
KR101100067B1 (en) * 2010-08-09 2011-12-29 (주) 한턱 Device and method for comparing personal sizes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100514757B1 (en) * 2000-05-09 2005-09-15 (주)모즐 System and method for purchasing clothes by using picture compound and recognition on network
KR20110123848A (en) * 2010-05-10 2011-11-16 이경환 Method and system for virtual fitting room service
KR101100067B1 (en) * 2010-08-09 2011-12-29 (주) 한턱 Device and method for comparing personal sizes

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200025181A (en) 2018-08-29 2020-03-10 서울과학기술대학교 산학협력단 Device and method for virtual clothes fitting
KR20200034028A (en) 2018-09-13 2020-03-31 정형록 System and method for virtual fitting based on artificial intelligence
KR20200044197A (en) 2018-10-10 2020-04-29 이재갑 Machine learning based clothing fit recommending apparatus
KR20210067309A (en) * 2019-11-29 2021-06-08 오드컨셉 주식회사 Method, apparatus, and system for providing fashion information
WO2021107642A3 (en) * 2019-11-29 2021-07-15 오드컨셉 주식회사 Method, device, and system for providing fashion information
KR20210090456A (en) 2020-01-10 2021-07-20 (주)내스타일 Image-based Posture Preservation Virtual Fitting System Supporting Multi-Poses
KR102202843B1 (en) * 2020-04-14 2021-01-14 이상철 System for providing online clothing fitting service using three dimentional avatar

Also Published As

Publication number Publication date
KR102580009B1 (en) 2023-09-18

Similar Documents

Publication Publication Date Title
US10747826B2 (en) Interactive clothes searching in online stores
TWI559242B (en) Visual clothing retrieval
KR102425462B1 (en) Fashion preference analysis
US11321769B2 (en) System and method for automatically generating three-dimensional virtual garment model using product description
KR102580009B1 (en) Clothes Fitting System And Operation Method of Threof
JP2020524349A (en) Image processing system
US11042887B2 (en) Product exposure analysis in a shopping environment
CN109034973A (en) Method of Commodity Recommendation, device, system and computer readable storage medium
JP6500374B2 (en) Image processing apparatus and image processing program
JP2010204882A (en) Method, program and apparatus for relationship analysis
KR102043440B1 (en) Method and system for coordination searching based on coordination of a plurality of objects in image
JP2008203916A (en) Image processing apparatus, program, and image processing method
CN112330383A (en) Apparatus and method for visual element-based item recommendation
US20200402136A1 (en) Avatar Matching in On-Line Shopping
US20160104299A1 (en) Reference based sizing
EP3156973A2 (en) Systems and methods for evaluating suitability of an article for an individual
JP6975312B2 (en) Fraud estimation system, fraud estimation method, and program
US11972466B2 (en) Computer storage media, method, and system for exploring and recommending matching products across categories
Hou et al. Particle-based perception of garment folding for robotic manipulation purposes
US20230267743A1 (en) Computer-readable recording medium, information processing method, and information processing apparatus
WO2023195122A1 (en) Processing device, processing method, and recording medium
Shimizu Data Interpretation Based on Embedded Data Representation Models: Analytical Models for Effective Online Marketing in the Fashion Industry
JP2022010108A (en) Fraud estimation system, fraud estimation method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant