KR20170016578A - Clothes Fitting System And Operation Method of Threof - Google Patents
Clothes Fitting System And Operation Method of Threof Download PDFInfo
- Publication number
- KR20170016578A KR20170016578A KR1020150109830A KR20150109830A KR20170016578A KR 20170016578 A KR20170016578 A KR 20170016578A KR 1020150109830 A KR1020150109830 A KR 1020150109830A KR 20150109830 A KR20150109830 A KR 20150109830A KR 20170016578 A KR20170016578 A KR 20170016578A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- pattern information
- user
- garment
- clothing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
Landscapes
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
Description
이하의 실시예는 의류 피팅 시스템과 그 동작 방법에 관한 것이다.The following embodiments relate to a garment fitting system and method of operation thereof.
온라인 의류 판매 업체 또는 오프라인 의류 판매 업체의 가장 큰 운영상 이슈 중 하나는 고객의 반품 처리와 관련된 것이다. 반품의 주요 원인은, 고객이 구매 후 이후 실제 착용했을 때 기대하던 핏(Fit)이 나오지 않는 경우가 첫 번째 원인이다. 여기서의 핏(fit)이란, 디자인적인 측면에서의 어울리는 정도를 얘기하는 것이 아니라, 가령 옷이 꽉 끼는지 헐렁한지 팔이 짧은지 다리가 긴지 등 자기 몸에 착용했을 때의 착용감을 말하는 것이다.One of the biggest operational issues for online apparel retailers or offline apparel retailers is related to customer return processing. The main reason for the return is that the customer did not get the expected fit when they actually wore it after the purchase. The fit here refers not to the degree of matching in terms of design, but rather to the fit of the wearer when he wears his or her body, for example, when clothes are tight or loose, or when arms are short or legs are long.
판매 업체 입장에서는 반품으로 인한 처리 비용은 곧 영업이익의 감소를 의미하며, 반면 고객 입장에서도 반품은 곧 원하는 상품을 제 때 사용할 수 없게 됨을 의미하고, 때로는 반품이 귀찮거나 개인적인 성향상 반품을 하지 않은 채 원하지 않는 상품을 만족 없이 금액을 지불하게 되는 경우도 빈번하게 발생하는 것이 다수이다. In the case of the seller, the processing cost due to the return means a decrease in the operating profit. On the other hand, the return from the customer means that the desired product can not be used in the near future, and sometimes the return is not troublesome, There are a lot of things that happen frequently when you pay the amount without satisfying the unwanted goods.
하지만, 이러한 문제를 해결하기 위해 최근 기술의 발달과 함께 카메라에 기반한 증강현실(AR. Augmented Reality) 기술을 활용한 가상 피팅(Virtual Fitting) 솔루션이 일부 소개되고 있긴 하나, 이러한 대부분의 기술이 지향하는 바는 카메라에 잡히는 나의 실사에 미리 컴퓨터그래픽(CG. Computer Graphics)으로 모델링된 가상의 의류 이미지(Virtual Image)를 입어보듯 하는 것으로, 직접 의류를 착용해 보지 않고서도 디자인적인 측면에서 마치 착용했을 때의 느낌을 짐작하는 것이 주목적이다. 하지만, 이러한 기술은 그 의류가 나의 신체 특성(예. 배가 나온 경우, 팔이 평균보다 긴 경우)에 잘 어울리는지를 정확하게 판단할 수는 없는 한계가 있다. 즉, 기존에 소개된 증강현실 기반의 가상 피팅 솔루션을 사용한다고 하더라도, 반품의 주요 원인을 해결할 수는 없다. However, in order to solve these problems, some of the virtual fitting solutions utilizing camera-based augmented reality (AR) technology have been introduced along with the recent technology development, The bar is designed to wear a virtual image that is modeled in computer graphics (CG) in advance to my due diligence taken by the camera. It is the main purpose to guess the feeling of. However, this technique has limitations that can not accurately determine whether the garment fits well with my physical characteristics (eg, when the stomach is longer than the arm, if it is out of the stomach). In other words, even if the existing augmented reality-based virtual fitting solution is used, the main cause of the return can not be solved.
그리고 온라인 의류 판매 업자의 경우 해당 온라인 쇼핑사이트 내에 수치정보를 기재함으로써 해당 의류의 각종 길이(팔 길이, 가슴 둘레 등)를 제공하기도 하나, 고객 입장에서는 자기 체형에 대한 수치적인 데이터를 보통 기억하고 있지 못하므로 핏(Fit) 적합도를 판단하는데 부족하다. In addition, the online apparel retailer may provide various lengths (arm length, chest circumference, etc.) of the apparel by describing the numerical information in the corresponding online shopping site, but usually stores the numerical data about the self- It is insufficient to judge the fit.
또한, 기존의 피팅 솔루션 중에는 정확하게 고객의 신체 특성을 인식하기 위해, 타이즈와 같은 가능한 몸에 착 붙는 옷을 입거나 또는 민소매 옷 등 최대한 몸매를 드러나게 한 다음 카메라 앞에서 마치 애니메이션 영화에서 사용하는 모션 캡쳐 기술처럼 사람 몸매를 캡쳐할 수 있도록 여러 일정 자세를 취하게 한 다음 360도를 돌아가면서 여러 장의 사진을 찍고 이 사진들을 조합하는 3D 리컨스트럭션(3D Reconstruction) 기술도 소개되고 있으나, 아직은 범용적으로 사용하기에 기술적인 완성도에서 한계가 있을 뿐만 아니라 고객에게 사전 준비 과정으로 많은 것을 요구하므로 일반 고객에게 범용적으로 사용되기에 불편을 초래할 수 있다.In addition, among the existing fitting solutions, in order to accurately recognize the physical characteristics of the customer, it is necessary to put on clothes such as tights that can be attached to the body as possible, or to reveal the maximum figure such as sleeveless clothes and then to use the motion capture technology 3D reconstruction technology that takes several postures to capture a person's body and then takes several pictures while rotating 360 degrees and combines them is also introduced, but it is still used for general use There is a limit in technical completeness, and since it requires a lot of preparation process for the customer, it may cause inconvenience to be used universally for general customers.
실시예에 따르면, 앞서 설명한 문제점을 해결하고, 실물을 확인할 수 없는 온라인 쇼핑몰 등에서 기업 및 고객 입장에서 기존과 다른 의류 피팅 방식을 통해, 기업에게는 영업 이익의 감소를 줄이고, 고객에게는 불필요한 반품 과정을 줄이고 원하지 않는 상품을 이용하게 되는 상황의 발생을 줄이는 의류 피팅 시스템을 제공하도록 한다.According to the embodiment, it is possible to solve the above-mentioned problems and reduce unnecessary returns to the customers and reduce unnecessary returns to the customers through a clothing fitting method different from the existing ones in the case of companies and customers in online shopping malls and the like, A clothing fitting system is provided that reduces the occurrence of situations in which unwanted goods are used.
외부 사이트의 외부 의류 이미지 및 외부 의류 정보를 주기적으로 수집하는 크롤러; 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 수집하는 저장소; 상기 외부 의류 이미지 및 상기 사용자 의류 이미지에 대한 특징점들을 추출하는 특징점 매퍼; 상기 특징점들을 이용하여 상기 외부 의류 이미지의 제1 패턴 정보 및 상기 사용자 의류 이미지의 제2 패턴 정보를 생성하는 학습기; 및 상기 사용자로부터 대상 의류 이미지를 수신하여 상기 학습기에서 상기 대상 의류 이미지에 대한 제3 패턴 정보를 제공받고, 상기 제1 패턴 정보 및 상기 제2 패턴 정보와 비교하여 상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 외부 인터페이스를 포함하는, 의류 피팅 시스템이 제공될 수 있다.A crawler that periodically collects external clothing images of the external site and external clothing information; A repository for collecting user apparel images and user apparel information from users; A feature point mapper for extracting feature points for the outerwear image and the user's clothing image; A learning device for generating first pattern information of the outer garment image and second pattern information of the user garment image using the feature points; And a third pattern information acquiring unit for receiving third pattern information on the target clothes image from the learning unit, receiving the target clothes image from the user, comparing the third pattern information with the first pattern information, A garment fitting system may be provided, which includes an external interface to derive a garment fitting system.
일측에 있어서, 상기 특징점 매퍼는, 상기 외부 의류 이미지 및 상기 사용자 의류 이미지에 대한 특징점들을 추출하고, 각각의 의류 이미지를 카테고리화할 수 있다.On one side, the minutiae mapper may extract minutiae for the outer garment image and the user garment image, and categorize each garment image.
또 다른 측면에 있어서, 상기 각각의 의류 이미지의 특징점들의 수 및 특징점들 간의 간격이나 각도를 이용하여 상기 각각의 의류 이미지를 카테고리화할 수 있다.In yet another aspect, the number of feature points of each garment image and the spacing or angle between feature points can be used to categorize each garment image.
또 다른 측면에 있어서, 상기 학습기는, 상기 특징점 매퍼에서 추출된 특징점들을 제공받아 상기 외부 의류 이미지 및 상기 사용자 의류 이미지 각각의 이미지 기반으로 매핑할 수 있다.According to another aspect of the present invention, the learning device may receive feature points extracted from the feature point mapper and map the image based on the external clothing image and the user clothing image, respectively.
또 다른 측면에 있어서, 상기 학습기는, 상기 외부 의류 이미지 및 상기 사용자 의류 이미지 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 상기 제1 패턴 정보 및 상기 제2 패턴 정보를 생성할 수 있다.In another aspect of the present invention, the learning device may generate the first pattern information and the second pattern information of each garment image by calculating a relative distance between the external clothing image and the feature points of the user garment image.
또 다른 측면에 있어서, 상기 저장소는, 상기 학습기로부터 상기 사용자 의류 이미지에 대한 상기 제2 패턴 정보를 제공받고, 상기 제2 패턴 정보를 이용하여 상기 사용자의 체형 정보 및 의류 선호 정보를 생성할 수 있다.In another aspect of the present invention, the repository may receive the second pattern information for the user's clothing image from the learning device, and generate the user's body shape information and clothing preference information using the second pattern information .
또 다른 측면에 있어서, 상기 외부 인터페이스는, 상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보에 대해서 각 특징점들 간의 상대거리를 비교하여 상기 피팅 예상 결과를 도출할 수 있다.According to another aspect of the present invention, the external interface can derive the fitting expectation result by comparing relative distances between the minutiae points with respect to the first pattern information, the second pattern information, and the third pattern information.
또 다른 측면에 있어서, 상기 외부 인터페이스는, 상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보의 특징점들 간 상대거리를 비교하기 위한 매핑 테이블(Mapping Table)을 포함할 수 있다.In another aspect, the external interface may include a mapping table for comparing relative distances between minutiae points of the first pattern information, the second pattern information, and the third pattern information.
외부 의류 이미지의 제1 패턴 정보를 획득하는 단계; 사용자 의류 이미지의 제2 패턴 정보를 획득하는 단계; 사용자로부터 대상 의류 이미지를 수신하는 단계; 상기 대상 의류 이미지에 대한 제3 패턴 정보를 생성하는 단계; 및 상기 제1 패턴 정보, 상기 제2 패턴 정보, 및 상기 제3 패턴 정보에 기초하여, 상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 단계를 포함하는, 의류 피팅 시스템의 동작 방법이 제공될 수 있다.Obtaining first pattern information of an outer garment image; Obtaining second pattern information of the user's clothing image; Receiving a target apparel image from a user; Generating third pattern information for the target garment image; And deriving a fitting expectation result for the target garment image based on the first pattern information, the second pattern information, and the third pattern information. have.
실시예에 따르면, 앞서 설명한 문제점을 해결하고, 실물을 확인할 수 없는 온라인 쇼핑몰 등에서 기업 및 고객 입장에서 기존과 다른 의류 피팅 방식을 통해, 기업에게는 영업 이익의 감소를 줄이고, 고객에게는 불필요한 반품 과정을 줄이고 원하지 않는 상품을 이용하게 되는 상황의 발생을 줄이는 의류 피팅 시스템을 제공할 수 있다.According to the embodiment, it is possible to solve the above-mentioned problems and reduce unnecessary returns to the customers and reduce unnecessary returns to the customers through a clothing fitting method different from the existing ones in the case of companies and customers in online shopping malls and the like, It is possible to provide a garment fitting system that reduces the occurrence of situations in which an unwanted article is used.
실시예에 따른 의류 피팅 시스템을 통해, 온라인 쇼핑 의류 판매업자에게도 핏(Fit) 오류로 인한 반품을 줄임으로써 불필요한 운영비용을 감소시키고, 반품 고객의 부정적인 입소문으로 인한 영업 손해를 미연에 방지하고, 고객 입장에서도 온라인 의류 쇼핑에서의 경험을 기존보다 향상시킬 수 있고 온라인 의류 쇼핑에 대한 신뢰감을 증대시킬 수 있다.The clothing fitting system according to the embodiment can reduce unnecessary operating expenses by reducing the return due to the fit error even to the online shopping clothing salesman, prevent the sales damages caused by negative word of mouth of returning customers, From the standpoint, it is possible to improve the experience of online clothing shopping more than before and to increase the confidence in online clothing shopping.
도 1은 일실시예에 있어서, 의류 피팅 시스템의 구성을 설명하기 위한 블록도이다.
도 2는 일실시예에 있어서, 의류 이미지에서 특징점을 추출하는 예시이다.
도 3은 일실시예에 있어서, 의류 이미지의 특징점을 이용하여 패턴 정보를 생성하는 예시이다.
도 4는 일실시예에 있어서, 의류 피팅 시스템의 동작 방법을 설명하기 위한 흐름도이다.1 is a block diagram for explaining the configuration of a garment fitting system, in an embodiment.
2 is an example of extracting feature points from a garment image, in one embodiment.
3 is an example of generating pattern information using minutiae of a clothing image in one embodiment.
4 is a flow chart for explaining a method of operating a garment fitting system, in one embodiment.
이하, 본 발명의 실시예에 대해서 첨부된 도면을 참조하여 자세히 설명하도록 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It is to be understood that the embodiments described below are not intended to limit the embodiments, but include all modifications, equivalents, and alternatives to them.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to illustrate specific embodiments and are not intended to limit the embodiments. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In the following description of the embodiments, a detailed description of related arts will be omitted if it is determined that the gist of the embodiments may be unnecessarily blurred.
본 발명에서는 기존과는 전혀 다른 관점에서, 이미지 인식(Image Recognition) 기술과 머신 러닝(Machine Learning) 기술을 응용하여, 의류를 실물로 확인하지 않고도 온라인 의류 쇼핑 시에 사용자의 몸에 적합한지를 사전적으로 판단할 수 있게 하는 플랫폼 기술을 제시한다.In the present invention, image recognition technology and machine learning technology are applied in a completely different way from the conventional technology, so that it is possible to preserve the suitability of the user's body for shopping online without actually checking the clothing We present a platform technology that enables us to judge.
구체적으로는, 사용자가 소유한 의류(상의 및 하의)를 카메라로 찍은 사진을 등록하면, 해당 의류에서의 특징점(feature-points)을 인식하고 그 특징점 분석으로부터 사용자의 체형에 대한 예측을 하고, 이후 여타 온라인 쇼핑으로 의류를 구입하고자 하는 경우 해당 의류 판매 업자가 제공하는 의류 사진을 입력하면, 사용자의 체형에 핏(Fit)이 맞는지를 자동으로 분석하여 구매 적합성에 대한 판단의 가이드라인을 제공할 수 있다. 사람을 촬영하는 것이 아니므로 사용상의 불편함을 줄일 수 있고 그리고 사용자의 체형을 정량적으로 고려하여 비교하므로 핏(Fit)에 대한 정확한 판단을 할 수 있게 된다.Specifically, when a photograph of a garment (top and bottom) owned by the user is registered with a camera, feature-points in the garment are recognized and the user's body shape is predicted from the characteristic point analysis. If you want to buy clothing by other online shopping, you can input the clothing photo provided by the apparel retailer and automatically analyze whether the fit is fit to the user's body type, have. It is possible to reduce the inconvenience of the use because it is not to photograph a person, and it is possible to make an accurate judgment on the fit because the user's body shape is quantitatively considered and compared.
도 1은 일실시예에 있어서, 의류 피팅 시스템의 구성을 설명하기 위한 블록도이다. 실시예에 따른 의류 피팅 시스템(100)은 크롤러(Crawler)(110), 저장소(120), 특징점 매퍼(Mapper)(130), 학습기(140) 및 외부 인터페이스(Interface)(150)를 포함할 수 있다.1 is a block diagram for explaining the configuration of a garment fitting system, in an embodiment. A
크롤러(110)는 외부 사이트에서 외부 의류 이미지와 외부 의류 이미지에 대한 의류 정보를 백그라운드에서 주기적으로 수집한다.The
외부 사이트는 주로 인터넷 상의 오픈 마켓, SPA(Specialty store retailer of Private label Apparel Brand) 브랜드와 같은 의류 업체 사이트, SNS, 카페나 블로그 등의 온라인 사이트를 의미하며, 외부 사이트에서 의류의 사진에 해당하는 외부 의류 이미지와 함께 의류 종류(상의, 티셔츠, 남방 등) 및 사이즈 정보를 함께 수집할 수 있다. 또는, 이러한 과정을 통해 구축되어 있을 수 있다.The external site means an online site such as an open market on the Internet, a clothing company site such as an SPA (Specialty store retailer of a private label Apparel Brand), an SNS, a cafe or a blog, You can collect garment images along with clothing type (top, t-shirt, southern, etc.) and size information. Or, it may have been built through this process.
저장소(120)는, 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 수집한다.The
예를 들어, 사용자로부터 실제 소유하고 있는 의류에 대해서 찍힌 사진을 수신하고, 각 의류에 대해서 사이즈 정보 등을 함께 수신할 수 있다. 이를 통해, 저장소(120)는 사용자 본인이 소유한 사용자 의류 이미지 및 사용자 의류 정보를 저장하는 일종의 데이터베이스로 제공될 수 있다.For example, it is possible to receive a photograph taken on a piece of clothing actually owned by the user, and to receive size information and the like for each piece of clothing. In this way, the
저장소(120)는, 사용자 의류 이미지 및 사용자 의류 정보를 입력 받아 사용자의 체형 정보 및 의류 선호 정보를 분석할 수 있다. 실시예를 통해, 사용자는 자신이 소유하는 의상에 대한 분석 정보를 획득할 수 있다. 또는, 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 입력 받아 분석된 정보가 구축되어 있을 수 있다.The
특징점 매퍼(130)는 외부 의류 이미지 및 사용자 의류 이미지에 대한 특징점들을 추출한다.The minutiae mapper 130 extracts minutiae for the outer garment image and the user garment image.
실시예에서, 크롤러(110)에서 수집된 외부 의류 이미지 및 저장소(120)로부터 수집된 사용자 의류 이미지에 대해서 특징점들을 추출할 수 있는데, 추출된 특징점들은 의류 피팅 시스템(100)에서 중요한 메타 데이터(Meta Data)로 이용된다.In an embodiment, feature points may be extracted for the outer garment image collected at the
특징점 매퍼(130)는 외부 의류 이미지 및 사용자 의류 이미지에 대해서 의류의 카테고리를 분류할 수 있다. 실시예에서, 외부 의류 이미지 및 사용자 의류 이미지와 함께 입력된 의류 정보를 이용하여 카테고리를 분류하거나 추출된 특징점들을 이용하여 카테고리를 분류할 수 있다. 외부 의류 이미지 및 사용자 의류 이미지에 대한 카테고리는 아래의 표 1과 같이 분류될 수 있다.The
표 1에 도시된 카테고리는 실시예에 해당하는 것으로, 카테고리를 분류하는 데에 있어서 해당 실시예에 한정되지 않으며, 이외에도 통상적인 분류에 의해 더 많은 종류가 나열될 수 있으며, 세분화될 수 있다.The category shown in Table 1 corresponds to the embodiment, and is not limited to the embodiment in classifying the category. Further, more kinds can be listed by normal classification, and can be subdivided.
도시된 바와 같이, 단계 1에서 상의 및 하의로 구분하고, 단계 2에서 상의의 종류 및 하의의 종류를 분류하며, 각각의 종류에 대해서 단계 3에서 소매 길이나 기장에 따라 분류할 수 있다.As shown in the figure, the top and bottom of the image can be classified into the top and bottom in
실시예에서, 외부 의류 이미지 및 사용자 의류 이미지와 함께 의류 정보로 카테고리에 대한 정보가 함께 입력되는 경우, 각 카테고리에 대해서 특징점들을 정의하는 방법을 달리할 수 있으며, 다른 실시예에서, 각 외부 의류 이미지 및 사용자 의류 이미지에 대해서 특징점들을 추출한 결과를 이용하여 표 1과 같이 카테고리를 분류할 수도 있다.In an embodiment, when information about a category is entered together with apparel information together with an outer apparel image and a user apparel image, the manner of defining the feature points for each category may be different, and in another embodiment, And category of the user's clothing image can be classified as shown in Table 1 using the result of extracting the feature points.
실시예에 따른 특징점 매퍼(130)에서 특징점을 매핑하는 방법에 대해 도 2를 통해 설명하도록 한다.A method of mapping feature points in the
도 2는 일실시예에 있어서, 의류 이미지에서 특징점을 추출하는 예시이다.2 is an example of extracting feature points from a garment image, in one embodiment.
도 2(a)는 표 1의 카테고리에 의하면, 긴 소매 셔츠/남방에 해당하는 의류 이미지에 대한 특징점들을 나타내고 있으며, 도 2(b)는 반 소매 셔츠/남방에 해당하는 의류 이미지에 대한 특징점들을 나타내고 있다.Fig. 2 (a) shows characteristic points for a garment image corresponding to a long sleeve shirt / southern area, and Fig. 2 (b) shows characteristic points for a garment image corresponding to a semi-sleeve shirt / Respectively.
도시된 바와 같이 특징점들은 각 의류 이미지의 특정 지점에 대해서 특징점을 추출하며, 카테고리에 따라 특징점들이 달리 추출되는 것을 도 2(a) 및 도 2(b)를 비교함으로써 알 수 있다.As shown in the figure, the feature points extract feature points for a specific point of each garment image, and the feature points are extracted differently according to the category by comparing FIG. 2 (a) and FIG. 2 (b).
실시예에 따른 의류 이미지에 카테고리 별 특징점의 분포에 대해서 표 2를 참조하여 설명할 수 있다.Distribution of minutiae by category in the clothing image according to the embodiment can be explained with reference to Table 2. [
각 특징점은 도시된 바와 같이 각각 특징점 번호를 가질 수 있다. 특징점의 번호는 의류 이미지의 카테고리에 따라 다르게 추출될 수 있으며, 의류 이미지의 미리 정해진 위치에 대해서 특징점 번호를 미리 지정하고, 추출된 특징점에 대해서 번호를 붙일 수 있다.Each feature point may have a feature point number as shown. The number of the minutiae can be extracted differently according to the category of the garment image, the minutiae point number can be specified in advance for the predetermined position of the garment image, and the extracted minutiae can be numbered.
도 2(a) 및 도 2(b)는 카라가 있는 의류에 해당하므로, 1번, 2번 및 3번의 특징점이 추출될 수 있다. 예를 들어, 카라가 없는 라운드 티셔츠 등의 의류 이미지에서는 1번 내지 3번의 특징점이 추출되지 않을 수 있다.2 (a) and 2 (b) correspond to a garment with a color, the feature points 1, 2 and 3 can be extracted. For example, in a clothing image such as a round shirt without a collar, the feature points 1 to 3 may not be extracted.
양 어깨와 팔이 겹쳐서 각도가 변경되는 지점에 대해서 4번, 19번으로 정의할 수 있고, 양 팔과 몸통 사이의 교차점으로 각도가 변경하는 지점에 대해서 9번, 14번으로 정의할 수 있다. 몸통 부분에 대해서 몸통의 최하단 양 끝점을 11번 12번으로 정의하고, 9번 및 14번과 11번 및 12번의 중간 지점을 10번 13번으로 정의할 수 있다. 단추가 인식되는 지점에 대해서는 20번 이후로 표시할 수 있고, 단추 개수에 따라서 특징점의 개수는 변경될 수 있다. 예를 들어, 긴 소매 셔츠/남방과 긴 소매 티셔츠 간에는 특징점 3번과 20번 이후 특징점들이 일직선으로 의류 하단부까지 이어지는지의 속성 여부를 가지고서 구분할 수 있다.It can be defined as No. 4 and No. 19 at the point where the angles are changed by overlapping the shoulders and arms, and can be defined as No. 9 and No. 14 at the point where the angle changes to the intersection between the arms and the torso. For the body part, the lower end of the body can be defined as 11 and 12, and the midpoint between 9 and 14, 11 and 12 can be defined as 10 and 13, respectively. The point at which the button is recognized can be displayed after 20th, and the number of the minutiae points can be changed according to the number of the buttons. For example, between a long sleeve shirt / south and a long sleeve T-shirt, it is possible to distinguish whether or not the characteristic points after the
도시된 바와 같이, 각 의류 이미지에 대해서 특징점 번호가 달리 정의될 수 있으며, 상의가 아닌 하의의 경우에는 또 다른 방식으로 특징점 번호를 정의할 수 있다.As shown in the figure, a minutiae point number can be defined differently for each garment image, and in the case of a lower side, a minutiae point number can be defined in another manner.
도 2(a)와 도 2(b)는 소매 길이에서 카테고리가 분류될 수 있다. 도 2(b)는 반 소매 의류 이미지로, 도 2(a)와 같이 긴 소매인 의류 이미지와 달리 특징점 6번, 7번, 16번, 17번이 발견되지 않는 것을 확인할 수 있다.Figures 2 (a) and 2 (b) can be categorized in sleeve length. FIG. 2 (b) is a semi-retail garment image. As shown in FIG. 2 (a), feature points 6, 7, 16 and 17 are not found unlike the long-sleeve clothing image.
의류 카테고리 간에는, 정장 상의와 셔츠/남방처럼 특징점 개수는 같을 수 있으나, 특징점 1번 내지 3번 및 특징점 2번, 3번을 직선으로 연결했을 때 각도가 정장상의에서 각도가 더 크게 이루어지는 것이 보통이므로, 도 2(a)와 도 2(b)오 k같이 특징점 개수 자체가 다른 것으로 카테고리를 분류할 수도 있고, 특징점 간의 간격이나 각도 등의 속성 차이로도 분류할 수 있다.The number of feature points may be the same between a garment category and a shirt / southern region, but when the feature points 1 to 3 and the feature points 2 and 3 are connected by a straight line, 2, (a) and (b) of FIG. 2, the categories may be classified as different number of feature points, or may be classified into attribute differences such as intervals or angles between feature points.
상기와 같은 방식으로 표 1의 단계 3에 대해서 각 의류 이미지에 따라 중복되지 않고 명확하게 특징점들이 추출될 수 있으며, 특징점 매퍼(130)는 이러한 메타 데이터를 사전적으로 저장할 수 있다.In the same manner, the feature points can be clearly extracted without overlapping according to each garment image with respect to the
다시, 도 1에서 학습기(140)는, 특징점들을 이용하여 외부 의류 이미지의 제1 패턴 정보 및 사용자 의류 이미지의 제2 패턴 정보를 생성할 수 있다.1, the
실시예에서, 크롤러(110)에서 입력되는 외부 의류 이미지 및 외부 의류 정보를, 해당 의류 카테고리에 대응하여 특징점 매퍼(130)에서 특징점들을 추출하고, 학습기(140)는 추출된 특징점들을 외부 의류 이미지에 대해서 이미지 인식 기반으로 매핑하고 특징점들 간의 속성을 획득하여 머신 러닝(Machine Learning) 기법으로 카테고리 내의 다양한 의류에 대해서 패턴을 저장할 수 있다.In the embodiment, the outer clothing image and the outer clothing information input from the
예를 들어, 외부 의류 이미지로 입력되는 의류 이미지들 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 제1 패턴 정보를 생성할 수 있다.For example, the first pattern information of each garment image may be generated by calculating a relative distance between minutiae points of clothing images input as an outer garment image.
이에, 특징점들 간의 상대 거리를 계산하여 카테고리 내 다양한 의류에 대한 패턴을 저장하는 실시예에 대해서 도 3을 참조하여 설명하도록 한다.An embodiment of storing a pattern for various clothes in a category by calculating a relative distance between minutiae points will now be described with reference to FIG.
도 3은 일실시예에 있어서, 의류 이미지의 특징점을 이용하여 패턴 정보를 생성하는 예시이다.3 is an example of generating pattern information using minutiae of a clothing image in one embodiment.
도 3(a)는 특징점이 추출되어 의류 이미지에 매핑된 예시이고, 도 3(b)는 도 3(a)의 예시에 대해 계산된 상대 거리를 나타내고 있다.Fig. 3 (a) is an example in which feature points are extracted and mapped to a clothing image, and Fig. 3 (b) shows a relative distance calculated for the example of Fig. 3 (a).
특징점 1번에서 2번을 연결한 직선과 특징점 11번에서 12번을 연결한 직선을 수직으로 연결한 길이를 상대길이=1인 것으로 정의하고, 주요 특징점 간의 상대 거리를 구할 수 있다. 여기서, 특징점 간 거리는 결국 사람이 옷을 착용했을 때 착용감(예컨대, 목이 헐렁하다, 가슴이 조인다 등)에 영향을 미치는 주요 속성들을 의미할 수 있다. 이에, 도 3(b)는 도 3(a)의 예시를 기준으로 착용감을 예측하기 위해 계산된 특징점 간의 상대 거리를 나타내는 것이다.The relative distance between the major feature points can be obtained by defining the length of the straight line connecting the feature points 1 to 2 and the straight line connecting the feature points 11 to 12 as the relative length = 1. Here, the distance between the minutiae can mean the main attributes that ultimately affect the fit (e.g., neck loose, tighten the chest, etc.) when a person wears clothes. FIG. 3 (b) shows the relative distance between the calculated feature points for predicting the fit according to the example of FIG. 3 (a).
실시예에서, 착용감의 예측을 위해 계산되어야 할 상대 거리는 목 둘레, 어깨 너비, 팔 길이, 팔 둘레, 가슴 둘레, 배 둘레 등에 해당하며, 이를 위해 각 특징점의 상대 거리를 이용할 수 있다. 예를 들어, 목 둘레에 대한 착용감 예측을 위해 1번 내지 3번 특징점 간의 상대 거리를 계산할 수 있고, 가슴 둘레에 대한 착용감 예측을 위해 9번, 14번 특징점 간의 상대 거리를 계산할 수 있다.In the embodiment, the relative distances to be calculated for the comfort feeling correspond to the neck circumference, the shoulder width, the arm length, the arm circumference, the chest circumference, the circumference of the abdomen, and so forth. For example, the relative distance between the first to third feature points can be calculated to estimate the fit of the neckline, and the relative distances between the feature points 9 and 14 can be calculated to predict the fit of the chest.
학습기(140)는 크롤러에 의해 입력되는 수 많은 외부 의류 이미지에 대해서 각 카테고리에 맞게 특징점 매퍼(130)에서 추출된 특징점들 및 특징점들의 속성을 획득하고, 이를 의류 이미지 상에 매핑한 후, 주요 특징점들 간의 상대 거리를 구하는 작업을 반복할 수 있다. 도 3(c)는 실시예에서, 수 많은 외부 의류 이미지에 대해서 반복적인 작업을 통해 얻은 상대 거리에 대한 데이터를 통계적으로 처리한 제1 패턴 정보, 예를 들어 분포(Distribution)에 해당할 수 있다.The
실시예에서, 도 3(c)는 특징점 1번 내지 2번의 상대 거리에 대한 분포도를 도시한 것이다. 예를 들어, 도 3(c)의 분포도가 도 3(a)의 실시예의 카테고리에 대한 분포도인 경우, 도 3(a)에 대해서 특징점 1번 내지 2번의 상대 거리는 0.159이므로, 같은 카테고리 내에서 평균인 0.186 이하의 상대 거리를 가지는 의류 이미지로 인식할 수 있다.In the embodiment, Fig. 3 (c) shows a distribution diagram for the
학습기(140)는 크롤러(110)에 의해 입력된 외부 의류 이미지에 대해서뿐만 아니라 저장소(120)를 통해 사용자로부터 입력되는 사용자 의류 이미지에 대해서도 각 카테고리에 맞게 특징점 매퍼(130)에서 추출된 특징점들 및 특징점들의 속성을 획득하고, 이를 의류 이미지 상에 매핑한 후, 주요 특징점들 간의 상대 거리를 구하는 작업을 반복할 수 있다. 또한, 반복적인 작업을 통해 획득한 상대 거리에 대한 데이터를 통계적으로 처리하여 제2 패턴 정보에 해당하는 분포를 획득할 수 있다.The
실시예에서, 이러한 방법으로 제1 패턴 정보 및 제2 패턴 정보를 획득할 수 있으며, 또는 이러한 방법으로 기획득한 분포 정보를 저장할 수 있다.In this embodiment, the first pattern information and the second pattern information can be obtained in this way, or distribution information obtained by this method can be stored.
다시, 도 1에서 외부 인터페이스(150)는, 사용자로부터 대상 의류 이미지를 수신하여 학습기(140)를 통해 대상 의류 이미지에 대한 제3 패턴 정보를 제공받고, 제1 패턴 정보 및 제2 패턴 정보와 비교하여 대상 의류 이미지에 대한 피팅 예상 결과를 도출할 수 있다.1, the
실시예에서, 학습기(140)의 동작을 통해 외부 의류 이미지에 대해서 획득한 제1 패턴 정보 및 사용자 의류 이미지에 대해서 획득한 제2 패턴 정보를 이용하여, 사용자가 구매하고자 하는 대상 의류 이미지에 대한 피팅 예상 결과를 획득할 수 있다.In the embodiment, the first pattern information acquired for the outer garment image and the second pattern information acquired for the user garment image through the operation of the
실시예에서, 사용자가 저장소(120)로 입력되는 사용자 의류 이미지가 증가할수록 저장소(120)는 사용자에 대해서 체형 정보 및 의류 선호 정보를 분석할 수 있는데, 예를 들어, 사용자는 특징점 9번, 14번 사이(가슴 둘레)가 상의 셔츠의 평균보다 10% 작은 슬림핏(Slim Fit)을 선호하면서, 동시에 특징점 1번, 4번(특징점 2번, 19번 동일)의 상대 거리, 즉 어깨는 평균보다 10% 넓은 셔츠를 선호하는 등의 정보를 제2 패턴 정보와 더불어 획득할 수 있다.In an embodiment, as the user increases the user's clothing image input to the
외부 인터페이스(150)는 의류 피팅 시스템(100)을 활용하고자 할 때의 연동을 담당하는 역할을 수행할 수 있다. 예를 들어, 외부 인터페이스(150)에서 오픈 API(Application Programming Interface)를 제공하고, 외부 사이트에서는 이 API를 활용하여 플러그인(Plug-In) 형태로 의류 구매 시 사용자가 선택한 의류가 체형에 맞는지를 판단하는 버튼을 제공할 수 있는데, 고객이 구매하고자 하는 의류의 본인 체형에의 적합성을 알아보기 위해 버튼을 누르는 경우, 해당 외부 사이트에서는 고객 기본 정보와 현재 고객이 주시 중인 의류 이미지와 의류의 기본 정보를 API를 통해 의류 피팅 시스템(100)으로 전달할 수 있다. 이렇게 전달된 정보 중, 의류 이미지는 학습기(140)에 전달되어 해당 의류 카테고리에 속하는 특징점들과 특징점들 간의 속성을 기반으로 분석하여 제3 패턴 정보를 생성할 수 있다. 다른 실시예에서, 사용자의 체형 정보 및 의류 선호 정보를 저장소(120)에서 검색하여 추출한 다음, 추출된 정보를 특징점 간에 구체적으로 비교하여 착용감 적합성 여부를 외부 인터페이스(150)에서 외부 사이트로 응답하는 형식으로 제공될 수 있다.The
실시예를 위한 표 3 내지 표 5를 이용하여 자세히 설명하도록 한다.Details will be described with reference to Tables 3 to 5 for the embodiment.
표 3의 고객 특성은 저장소(120)를 통해 입력된 사용자 의류 이미지들에 통계적으로 처리된 제2 패턴 정보에 해당하고, 평균은 크롤러(110)를 통해 입력된 외부 의류 이미지들에 대해서 통계적으로 처리된 제1 패턴 정보에 해당할 수 있다. 이에, 외부 사이트 등을 통해 입력된 대상 의류 이미지에 대해서 학습기(140)를 통해 각 특징점에 대한 상대 거리를 계산한 것으로 제품 특성을 제공할 수 있다.The customer characteristics in Table 3 correspond to the second pattern information statistically processed on the user clothes images inputted through the
외부 인터페이스 모듈(150)은 표 3과 같이 외부 인터페이스 모듈(150)로 입력되는 결과에 대해서 사용자가 이해하기 쉬운 형태로 피팅 예측 결과에 대한 응답 메시지를 만들 수 있는 매핑 룰 테이블(Mapping Rule Table)을 포함할 수 있으며, 이는 표 4와 같은 형태로 제공될 수 있다.As shown in Table 3, the
표 4에 의하면, 목 둘레에 대해서 피팅 예측 결과를 예측하기 위해서 특징점 1번 내지 4번에 대해서 계산된 상대 거리를 이용할 수 있다. 조건 1은 평균과 고객 특성을 이용하여 사용자의 체형 정보나 선호 의류 정보를 획득하기 위한 조건이며, 조건 2는 입력된 대상 의류 이미지가 사용자 체형 정보나 선호 의류 정보에 부합하는지에 대한 조건을 의미할 수 있다. 예를 들어, 고객 특성이 평균보다 10%이상 작은 경우, 사용자는 평균보다 작은 목 둘레를 가지고 있거나 목이 약간 조이는 의류를 선호하는 것으로 판단 가능하며, 제품 특성을 고객 특성과 평균에 비교하여 사용자의 피팅 예측 결과를 획득할 수 있다.According to Table 4, the calculated relative distances for the feature points 1 to 4 can be used to predict the fitting prediction result with respect to the neckline.
실시예에서, 사용자에게 최종적으로 전달되는 메시지는 표 5와 같은 메시지 형태로 제공될 수 있으며, 최종 구매 여부는 사용자가 선택할 수 있다.In the embodiment, a message finally delivered to the user may be provided in the form of a message as shown in Table 5, and the user may select whether the final purchase is to be made.
도 4는 일실시예에 있어서, 의류 피팅 시스템의 동작 방법을 설명하기 위한 흐름도이다.4 is a flow chart for explaining a method of operating a garment fitting system, in one embodiment.
단계(410)에서, 의류 피팅 시스템(100)은 외부 의류 이미지의 제1 패턴 정보를 획득한다.At
실시예에서, 의류 피팅 시스템(100)은 외부 사이트에서 외부 의류 이미지와 외부 의류 이미지에 대한 의류 정보를 시스템의 백그라운드에서 주기적으로 수집할 수 있다.In an embodiment, the apparel
외부 사이트는 주로 인터넷 상의 오픈 마켓, SPA(Specialty store retailer of Private label Apparel Brand) 브랜드와 같은 의류 업체 사이트, SNS, 카페나 블로그 등의 온라인 사이트를 의미하며, 외부 사이트에서 의류의 사진에 해당하는 외부 의류 이미지와 함께 의류 종류(상의, 티셔츠, 남방 등) 및 사이즈 정보를 함께 수집할 수 있다.The external site means an online site such as an open market on the Internet, a clothing company site such as an SPA (Specialty store retailer of a private label Apparel Brand), an SNS, a cafe or a blog, You can collect garment images along with clothing type (top, t-shirt, southern, etc.) and size information.
의류 피팅 시스템(100)은 수집된 외부 의류 이미지에 대해서 의류의 카테고리를 분류할 수 있다. 실시예에서, 외부 의류 이미지와 함께 입력된 의류 정보를 이용하여 카테고리를 분류하거나 추출된 특징점들을 이용하여 카테고리를 분류할 수 있다.The garment
또한, 추출된 특징점들을 외부 의류 이미지에 대해서 이미지 인식 기반으로 매핑하고 특징점들 간의 속성을 획득하여 머신 러닝(Machine Learning) 기법으로 카테고리 내의 다양한 의류에 대해서 패턴을 저장할 수 있다.In addition, the extracted minutiae are mapped on the basis of image recognition based on the external garment image, and the attributes between the minutiae are acquired, so that a pattern can be stored for various clothes in the category by a machine learning technique.
예를 들어, 외부 의류 이미지로 입력되는 의류 이미지들 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 제1 패턴 정보를 생성할 수 있다.For example, the first pattern information of each garment image may be generated by calculating a relative distance between minutiae points of clothing images input as an outer garment image.
입력된 외부 의류 이미지에 대해서 각 카테고리에 맞게 추출된 특징점들 및 특징점들의 속성을 획득하고, 이를 외부 의류 이미지 상에 매핑한 후, 주요 특징점들 간의 상대 거리를 구하는 작업을 반복할 수 있다. 또한, 반복적인 작업을 통해 획득한 상대 거리에 대한 데이터를 통계적으로 처리하여 제1 패턴 정보에 해당하는 분포를 획득할 수 있다.The attributes of the minutiae and the minutiae extracted for each category can be acquired for the inputted external clothing image, the minutiae may be mapped onto the outer garment image, and then the relative distance between the main minutiae can be determined. In addition, a distribution corresponding to the first pattern information can be obtained by statistically processing data on the relative distance obtained through the repetitive operation.
또는 이러한 방법을 통해 생성되어 있는 제1 패턴 정보를 획득할 수 있다.Alternatively, the first pattern information generated through this method can be obtained.
이에, 특징점들 간의 상대 거리를 계산하여 카테고리 내 다양한 의류에 대한 패턴을 저장하는 실시예에 대해서 앞서 설명된 도 3을 참조할 수 있다.Referring to FIG. 3 described above, an embodiment of storing a pattern for various clothes in a category by calculating a relative distance between minutiae can be referred to.
단계(420)에서 의류 피팅 시스템(100)은 사용자 의류 이미지의 제2 패턴 정보를 획득한다.In
실시예에서, 의류 피팅 시스템(100)은 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 수집할 수 있다. 예를 들어, 사용자로부터 실제 소유하고 있는 의류에 대해서 찍힌 사진을 수신하고, 각 의류에 대해서 사이즈 정보 등을 함께 수신할 수 있다. 이를 통해, 사용자 본인이 소유한 사용자 의류 이미지 및 사용자 의류 정보를 저장하는 일종의 데이터베이스가 제공될 수 있다.In an embodiment, the apparel
의류 피팅 시스템(100)은 사용자 의류 이미지 및 사용자 의류 정보를 입력 받아 사용자의 체형 정보 및 의류 선호 정보를 분석할 수 있다. 실시예를 통해, 사용자는 자신이 소유하는 의상에 대한 분석 정보를 획득할 수 있다. 또는, 사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 입력 받아 분석된 정보가 구축되어 있을 수 있다.The clothing
의류 피팅 시스템(100)은, 앞서 외부 의류 이미지에 대한 제1 패턴 정보를 수집하는 유사한 실시예로, 수집된 사용자 의류 이미지에 대해서 의류의 카테고리를 분류할 수 있다. 실시예에서, 사용자 의류 이미지와 함께 입력된 의류 정보를 이용하여 카테고리를 분류하거나 추출된 특징점들을 이용하여 카테고리를 분류할 수 있다.The garment
또한, 추출된 특징점들을 사용자 의류 이미지에 대해서 이미지 인식 기반으로 매핑하고 특징점들 간의 속성을 획득하여 머신 러닝(Machine Learning) 기법으로 카테고리 내의 다양한 의류에 대해서 패턴을 저장할 수 있다.Also, the extracted minutiae points are mapped on the basis of image recognition based on the user's clothing image, and the attributes between the minutiae points are acquired, so that the pattern can be stored for various clothes in the category by the machine learning technique.
예를 들어, 사용자 의류 이미지로 입력되는 의류 이미지들 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 제2 패턴 정보를 생성할 수 있다.For example, the second pattern information of each garment image may be generated by calculating a relative distance between the minutiae points of each of the garment images input as the user garment image.
의상 피팅 시스템(100)은 입력된 외부 의류 이미지에 대해서뿐만 아니라 사용자로부터 입력되는 사용자 의류 이미지에 대해서도 각 카테고리에 맞게 추출된 특징점들 및 특징점들의 속성을 획득하고, 이를 의류 이미지 상에 매핑한 후, 주요 특징점들 간의 상대 거리를 구하는 작업을 반복할 수 있다. 또한, 반복적인 작업을 통해 획득한 상대 거리에 대한 데이터를 통계적으로 처리하여 제2 패턴 정보에 해당하는 분포를 획득할 수 있다.The garment
또는 이러한 방법을 통해 생성되어 있는 제2 패턴 정보를 획득할 수 있다.Alternatively, the second pattern information generated through this method can be obtained.
단계(430)에서 의류 피팅 시스템(100)은 사용자로부터 대상 의류 이미지를 수신한다.In
대상 의류 이미지는 사용자가 구매하고자 하는 의류에 대한 이미지에 해당할 수 있다. The target garment image may correspond to an image of the garment the user wants to purchase.
실시예에서, 의류 피팅 시스템(100)은 외부 사이트로 오픈 API(Application Programming Interface)를 제공하고, 외부 사이트에서는 이 API를 활용하여 플러그인(Plug-In) 형태로 의류 구매 시 사용자가 선택한 의류가 체형에 맞는지를 판단하는 버튼을 제공할 수 있는데, 버튼사이트에서는 이 API를 활용하여 플러그인(Plug-In) 형태로 의류 구매 시 사용자가 선택한 의류가 체형에 맞는지를 판단하는 버튼을 제공할 수 있는데, 버튼에 대한 입력이 감지되는 경우, 해당 외부 사이트에서는 고객 기본 정보와 현재 고객이 주시 중인 대상 의류 이미지와 의류의 기본 정보를 API를 통해 의류 피팅 시스템(100)으로 전달할 수 있다.In an embodiment, the apparel
단계(440)에서 의류 피팅 시스템(100)은 대상 의류 이미지에 대한 제3 패턴 정보를 생성한다.In
전달된 정보 중, 의류 이미지는 해당 의류 카테고리에 속하는 특징점들과 특징점들 간의 속성을 기반으로 분석하여 제3 패턴 정보를 생성할 수 있다. 제3 패턴 정보를 생성하는 데에 있어서, 제1 패턴 정보 및 제2 패턴 정보를 생성하기 위한 단계(410) 및 단계(420)의 실시예를 참조할 수 있다.Among the transmitted information, the apparel image can generate the third pattern information by analyzing based on the attribute between the minutiae and the minutiae belonging to the apparel category. In generating the third pattern information, it is possible to refer to the embodiments of
단계(450)에서 의류 피팅 시스템(100)은 제1 패턴 정보, 제2 패턴 정보, 및 제3 패턴 정보에 기초하여, 대상 의류 이미지에 대한 피팅 예상 결과를 도출한다.At
사용자로부터 대상 의류 이미지를 수신하여 대상 의류 이미지에 대한 제3 패턴 정보를 제공받고, 제1 패턴 정보 및 제2 패턴 정보와 비교하여 사용자가 구매하고자 하는 대상 의류 이미지에 대한 피팅 예상 결과를 도출할 수 있다.Receiving the target apparel image from the user, receiving the third pattern information on the target apparel image, comparing the first pattern information and the second pattern information, and deriving the fitting expectation result for the target apparel image that the user intends to purchase have.
실시예에서, 사용자의 체형 정보 및 의류 선호 정보를 검색하여 추출한 다음, 추출된 정보를 특징점 간에 구체적으로 비교하여 착용감 적합성 여부를 외부 사이트로 응답하는 형식이 포함될 수 있다. 예를 들어, 제품 특성을 고객 특성과 평균에 비교하여 사용자 의류 선호 정보에 기초한 대상 의류 이미지의 피팅 예측 결과를 획득할 수 있다.In an embodiment, a format for searching for and extracting the user's body type information and clothing preference information, and then comparing the extracted information with the minutiae point to specifically answer the user's suitability of fit to the external site may be included. For example, a fit prediction result of a target garment image based on user's clothing preference information can be obtained by comparing the product characteristics with the customer characteristics and the average.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 비록 한정된 도면에 의해 실시예들이 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Although the preferred embodiments of the present invention have been disclosed for illustrative purposes, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (19)
사용자로부터 사용자 의류 이미지 및 사용자 의류 정보를 수집하는 저장소;
상기 외부 의류 이미지 및 상기 사용자 의류 이미지에 대한 특징점들을 추출하는 특징점 매퍼;
상기 특징점들을 이용하여 상기 외부 의류 이미지의 제1 패턴 정보 및 상기 사용자 의류 이미지의 제2 패턴 정보를 생성하는 학습기; 및
상기 사용자로부터 대상 의류 이미지를 수신하여 상기 학습기에서 상기 대상 의류 이미지에 대한 제3 패턴 정보를 제공받고, 상기 제1 패턴 정보 및 상기 제2 패턴 정보와 비교하여 상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 외부 인터페이스
를 포함하는,
의류 피팅 시스템.
A crawler that periodically collects external clothing images of the external site and external clothing information;
A repository for collecting user apparel images and user apparel information from users;
A feature point mapper for extracting feature points for the outerwear image and the user's clothing image;
A learning device for generating first pattern information of the outer garment image and second pattern information of the user garment image using the feature points; And
Receiving a target apparel image from the user, receiving third pattern information on the target apparel image in the learning device, and comparing the first pattern information and the second pattern information to obtain a fitting expectation result for the target apparel image Derived External Interface
/ RTI >
Clothes fitting system.
상기 특징점 매퍼는,
상기 외부 의류 이미지 및 상기 사용자 의류 이미지에 대한 특징점들을 추출하고, 각각의 의류 이미지를 카테고리화하는,
의류 피팅 시스템.
The method according to claim 1,
The minutiae mapper
Extracting feature points for the outer garment image and the user garment image, categorizing each garment image,
Clothes fitting system.
상기 각각의 의류 이미지의 특징점들의 수 및 특징점들 간의 간격이나 각도를 이용하여 상기 각각의 의류 이미지를 카테고리화하는,
의류 피팅 시스템.
3. The method of claim 2,
And categorizing each of the clothing images using the number of feature points of each of the clothing images and the interval or angle between the feature points,
Clothes fitting system.
상기 학습기는,
상기 특징점 매퍼에서 추출된 특징점들을 제공받아 상기 외부 의류 이미지 및 상기 사용자 의류 이미지 각각의 이미지 기반으로 매핑하는,
의류 피팅 시스템.
The method according to claim 1,
The learning device includes:
The method comprising: receiving feature points extracted from the feature point mapper and mapping the extracted feature points to an image based on the outer garment image and the user garment image;
Clothes fitting system.
상기 학습기는,
상기 외부 의류 이미지 및 상기 사용자 의류 이미지 각각의 특징점들 간의 상대 거리를 계산하여 각 의류 이미지의 상기 제1 패턴 정보 및 상기 제2 패턴 정보를 생성하는,
의류 피팅 시스템.
The method according to claim 1,
The learning device includes:
Calculating a relative distance between the outer clothing image and each of the minutiae points of the user garment image to generate the first pattern information and the second pattern information of each garment image,
Clothes fitting system.
상기 저장소는,
상기 학습기로부터 상기 사용자 의류 이미지에 대한 상기 제2 패턴 정보를 제공받고, 상기 제2 패턴 정보를 이용하여 상기 사용자의 체형 정보 및 의류 선호 정보를 생성하는,
의류 피팅 시스템.
The method according to claim 1,
Wherein the storage comprises:
Wherein the second pattern information is provided from the learning device and the body shape information and the clothing preference information of the user are generated using the second pattern information,
Clothes fitting system.
상기 외부 인터페이스는,
상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보에 대해서 각 특징점들 간의 상대거리를 비교하여 상기 피팅 예상 결과를 도출하는,
의류 피팅 시스템.
The method according to claim 1,
Wherein the external interface comprises:
And comparing the relative distances between the minutiae points with respect to the first pattern information, the second pattern information, and the third pattern information to derive the fitting expectation result,
Clothes fitting system.
상기 외부 인터페이스는,
상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보의 특징점들 간 상대거리를 비교하기 위한 매핑 테이블(Mapping Table)을 포함하는,
의류 피팅 시스템.
The method according to claim 1,
Wherein the external interface comprises:
And a mapping table for comparing relative distances between minutiae points of the first pattern information, the second pattern information, and the third pattern information.
Clothes fitting system.
사용자 의류 이미지의 제2 패턴 정보를 획득하는 단계;
사용자로부터 대상 의류 이미지를 수신하는 단계;
상기 대상 의류 이미지에 대한 제3 패턴 정보를 생성하는 단계; 및
상기 제1 패턴 정보, 상기 제2 패턴 정보, 및 상기 제3 패턴 정보에 기초하여, 상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
Obtaining first pattern information of an outer garment image;
Obtaining second pattern information of the user's clothing image;
Receiving a target apparel image from a user;
Generating third pattern information for the target garment image; And
Deriving a fitting expectation result for the target garment image based on the first pattern information, the second pattern information, and the third pattern information
/ RTI >
A method of operating a garment fitting system.
상기 외부 의류 이미지의 패턴 정보를 획득하는 단계는
외부 사이트의 외부 의류 이미지 및 상기 외부 의류 이미지의 외부 의류 정보를 주기적으로 수집하는 단계; 및
상기 외부 의류 이미지의 특징점들을 추출하여 상기 외부 의류 이미지의 패턴 정보를 생성하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
The step of obtaining pattern information of the outer garment image
Periodically collecting an outer garment image of the outer site and outer garment information of the outer garment image; And
Extracting feature points of the outer garment image and generating pattern information of the outer garment image
/ RTI >
A method of operating a garment fitting system.
상기 사용자 의류 이미지의 제2 패턴 정보를 획득하는 단계는,
사용자로부터 상기 사용자 의류 이미지 및 사용자 의류 정보를 수집하는 단계; 및
상기 사용자 의류 이미지에 대한 특징점들을 추출하여 상기 사용자 의류 이미지의 패턴 정보를 생성하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
Wherein obtaining the second pattern information of the user's clothing image comprises:
Collecting the user apparel image and user apparel information from a user; And
Extracting feature points for the user's clothing image and generating pattern information of the user's clothing image
/ RTI >
A method of operating a garment fitting system.
상기 외부 의류 이미지의 제1 패턴 정보를 획득하는 단계는,
상기 외부 의류 이미지에 대한 특징점들을 추출하고, 각각의 의류 이미지를 카테고리화하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
Wherein obtaining the first pattern information of the outer garment image comprises:
Extracting feature points for the outer garment image, and categorizing each garment image
/ RTI >
A method of operating a garment fitting system.
상기 외부 의류 이미지에 대한 특징점들을 추출하고, 각각의 의류 이미지를 카테고리화하는 단계는,
상기 외부 의류 이미지의 추출된 특징점들의 수, 특징점들 간의 간격, 상기 특징점들 간의 각도 중 적어도 하나를 이용하여 상기 외부 의류 이미지를 카테고리화하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
13. The method of claim 12,
Extracting feature points for the outer garment image, and categorizing each garment image,
Categorizing the outer garment image using at least one of the number of extracted feature points of the outer garment image, the spacing between feature points, and the angle between the feature points
/ RTI >
A method of operating a garment fitting system.
상기 외부 의류 이미지의 제1 패턴 정보를 획득하는 단계는,
상기 추출된 특징점들을 이용하여 상기 외부 의류 이미지의 이미지 기반으로 매핑하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
11. The method of claim 10,
Wherein obtaining the first pattern information of the outer garment image comprises:
Mapping the outer garment image to an image based on the extracted minutiae;
/ RTI >
A method of operating a garment fitting system.
상기 외부 의류 이미지의 제1 패턴 정보를 획득하는 단계는,
상기 외부 의류 이미지의 특징점들 간의 상대 거리를 계산하여 상기 외부 의류 이미지의 상기 제1 패턴 정보를 생성하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
11. The method of claim 10,
Wherein obtaining the first pattern information of the outer garment image comprises:
Calculating the relative distance between the minutiae points of the outer garment image to generate the first pattern information of the outer garment image
/ RTI >
A method of operating a garment fitting system.
상기 사용자 의류 이미지의 제2 패턴 정보를 획득하는 단계는,
상기 사용자 의류 이미지에 대한 상기 제2 패턴 정보를 이용하여 상기 사용자의 체형 정보 및 의류 선호 정보를 생성하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
Wherein obtaining the second pattern information of the user's clothing image comprises:
Generating the body shape information and the clothing preference information of the user using the second pattern information on the user's clothing image
/ RTI >
A method of operating a garment fitting system.
상기 대상 의류 이미지에 대한 피팅 예상 결과를 도출하는 단계는,
상기 제1 패턴 정보, 상기 제2 패턴 정보 및 상기 제3 패턴 정보에 대해서 각 특징점들 간의 상대거리를 비교하여 상기 피팅 예상 결과를 도출하는 단계
를 포함하는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
Wherein deriving a fitting expectation result for the target garment image comprises:
Comparing the relative distances between the minutiae points with respect to the first pattern information, the second pattern information, and the third pattern information to derive the fitting expectation result
/ RTI >
A method of operating a garment fitting system.
상기 피팅 예상 결과는,
상기 외부 의류 이미지, 상기 사용자 의류 이미지 및 상기 대상 의류 이미지 각각의 특징점들 간 상대거리를 비교하기 위한 매핑 테이블(Mapping Table)을 이용하여 생성되는,
의류 피팅 시스템의 동작 방법.
10. The method of claim 9,
The fitting expectation result may include:
And a mapping table for comparing relative distances between minutiae points of the outer garment image, the user garment image, and the target garment image,
A method of operating a garment fitting system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150109830A KR102580009B1 (en) | 2015-08-04 | 2015-08-04 | Clothes Fitting System And Operation Method of Threof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150109830A KR102580009B1 (en) | 2015-08-04 | 2015-08-04 | Clothes Fitting System And Operation Method of Threof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170016578A true KR20170016578A (en) | 2017-02-14 |
KR102580009B1 KR102580009B1 (en) | 2023-09-18 |
Family
ID=58121297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150109830A KR102580009B1 (en) | 2015-08-04 | 2015-08-04 | Clothes Fitting System And Operation Method of Threof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102580009B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200025181A (en) | 2018-08-29 | 2020-03-10 | 서울과학기술대학교 산학협력단 | Device and method for virtual clothes fitting |
KR20200034028A (en) | 2018-09-13 | 2020-03-31 | 정형록 | System and method for virtual fitting based on artificial intelligence |
KR20200044197A (en) | 2018-10-10 | 2020-04-29 | 이재갑 | Machine learning based clothing fit recommending apparatus |
KR102202843B1 (en) * | 2020-04-14 | 2021-01-14 | 이상철 | System for providing online clothing fitting service using three dimentional avatar |
KR20210067309A (en) * | 2019-11-29 | 2021-06-08 | 오드컨셉 주식회사 | Method, apparatus, and system for providing fashion information |
KR20210090456A (en) | 2020-01-10 | 2021-07-20 | (주)내스타일 | Image-based Posture Preservation Virtual Fitting System Supporting Multi-Poses |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100514757B1 (en) * | 2000-05-09 | 2005-09-15 | (주)모즐 | System and method for purchasing clothes by using picture compound and recognition on network |
KR20110123848A (en) * | 2010-05-10 | 2011-11-16 | 이경환 | Method and system for virtual fitting room service |
KR101100067B1 (en) * | 2010-08-09 | 2011-12-29 | (주) 한턱 | Device and method for comparing personal sizes |
-
2015
- 2015-08-04 KR KR1020150109830A patent/KR102580009B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100514757B1 (en) * | 2000-05-09 | 2005-09-15 | (주)모즐 | System and method for purchasing clothes by using picture compound and recognition on network |
KR20110123848A (en) * | 2010-05-10 | 2011-11-16 | 이경환 | Method and system for virtual fitting room service |
KR101100067B1 (en) * | 2010-08-09 | 2011-12-29 | (주) 한턱 | Device and method for comparing personal sizes |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200025181A (en) | 2018-08-29 | 2020-03-10 | 서울과학기술대학교 산학협력단 | Device and method for virtual clothes fitting |
KR20200034028A (en) | 2018-09-13 | 2020-03-31 | 정형록 | System and method for virtual fitting based on artificial intelligence |
KR20200044197A (en) | 2018-10-10 | 2020-04-29 | 이재갑 | Machine learning based clothing fit recommending apparatus |
KR20210067309A (en) * | 2019-11-29 | 2021-06-08 | 오드컨셉 주식회사 | Method, apparatus, and system for providing fashion information |
WO2021107642A3 (en) * | 2019-11-29 | 2021-07-15 | 오드컨셉 주식회사 | Method, device, and system for providing fashion information |
KR20210090456A (en) | 2020-01-10 | 2021-07-20 | (주)내스타일 | Image-based Posture Preservation Virtual Fitting System Supporting Multi-Poses |
KR102202843B1 (en) * | 2020-04-14 | 2021-01-14 | 이상철 | System for providing online clothing fitting service using three dimentional avatar |
Also Published As
Publication number | Publication date |
---|---|
KR102580009B1 (en) | 2023-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10747826B2 (en) | Interactive clothes searching in online stores | |
TWI559242B (en) | Visual clothing retrieval | |
KR102425462B1 (en) | Fashion preference analysis | |
US11321769B2 (en) | System and method for automatically generating three-dimensional virtual garment model using product description | |
KR102580009B1 (en) | Clothes Fitting System And Operation Method of Threof | |
JP2020524349A (en) | Image processing system | |
US11042887B2 (en) | Product exposure analysis in a shopping environment | |
CN109034973A (en) | Method of Commodity Recommendation, device, system and computer readable storage medium | |
JP6500374B2 (en) | Image processing apparatus and image processing program | |
JP2010204882A (en) | Method, program and apparatus for relationship analysis | |
KR102043440B1 (en) | Method and system for coordination searching based on coordination of a plurality of objects in image | |
JP2008203916A (en) | Image processing apparatus, program, and image processing method | |
CN112330383A (en) | Apparatus and method for visual element-based item recommendation | |
US20200402136A1 (en) | Avatar Matching in On-Line Shopping | |
US20160104299A1 (en) | Reference based sizing | |
EP3156973A2 (en) | Systems and methods for evaluating suitability of an article for an individual | |
JP6975312B2 (en) | Fraud estimation system, fraud estimation method, and program | |
US11972466B2 (en) | Computer storage media, method, and system for exploring and recommending matching products across categories | |
Hou et al. | Particle-based perception of garment folding for robotic manipulation purposes | |
US20230267743A1 (en) | Computer-readable recording medium, information processing method, and information processing apparatus | |
WO2023195122A1 (en) | Processing device, processing method, and recording medium | |
Shimizu | Data Interpretation Based on Embedded Data Representation Models: Analytical Models for Effective Online Marketing in the Fashion Industry | |
JP2022010108A (en) | Fraud estimation system, fraud estimation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |