KR20220005323A - Apparatus and method for classifying style based on deep learning using fashion attribute - Google Patents
Apparatus and method for classifying style based on deep learning using fashion attribute Download PDFInfo
- Publication number
- KR20220005323A KR20220005323A KR1020200083042A KR20200083042A KR20220005323A KR 20220005323 A KR20220005323 A KR 20220005323A KR 1020200083042 A KR1020200083042 A KR 1020200083042A KR 20200083042 A KR20200083042 A KR 20200083042A KR 20220005323 A KR20220005323 A KR 20220005323A
- Authority
- KR
- South Korea
- Prior art keywords
- fashion
- style
- attribute
- images
- classification model
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G06K9/6267—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Abstract
Description
본원은 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치 및 방법에 관한 것이다. 특히, 본원은 입력된 이미지로부터 추출된 패션 속성을 이용하여 이미지에 대응하는 스타일 그룹을 결정하는 딥러닝 기반 스타일 분류 모델 구축 기법에 관한 것이다.The present application relates to a deep learning-based style classification apparatus and method using fashion attributes. In particular, the present application relates to a deep learning-based style classification model building technique for determining a style group corresponding to an image by using a fashion attribute extracted from an input image.
옷은 사람에게 제공하는 체온유지와 피부 보호 등의 필수적 기능 이외에도, 그 사람을 표현하는 수단으로서 기능도 가지고 있다. 기후 변화에 적응할 수 있도록 옷을 입음으로써 신체를 보호하고, 자신에게 어울리는 옷차림을 함으로써 개성을 표현할 수 있는 것이다. 이러한 일상의 옷차림에서의 의복의 기능이 효과적으로 발휘될 때에 신체적으로 쾌적하며 심리적으로 만족스러운 의생활을 영위할 수 있다.In addition to essential functions such as maintaining body temperature and protecting the skin, clothes also have functions as a means of expressing that person. You can protect your body by wearing clothes that can adapt to climate change, and you can express your individuality by wearing clothes that suit you. When the function of clothes in everyday attire is effectively exerted, it is possible to lead a physically comfortable and psychologically satisfactory clothing life.
이와 관련하여, 의상과 연계된 스타일(style)의 개념은 패션 도메인서 중요한 개념이나, 스타일을 정확하게 정의하고 분류하기 위한 정량적 지표에 대하여 통용되는 기준은 정립된바 없다.In this regard, the concept of style related to clothes is an important concept in the fashion domain, but a commonly used standard for quantitative indicators for accurately defining and classifying styles has not been established.
따라서, 지금까지는 패션 업계에서 오랫동안 종사한 전문가들의 경험에 의존하여 스타일이 정의되거나 분류되는 것이 일반적이었고, 이에 따라 오랜 경력자들만이 스타일 정의 작업을 진행할 수 있으며, 그러한 전문가들조차 각기 다른 스타일 분류 기준을 가지고 스타일을 정의하거나 스타일 분류를 수행한다는 문제점이 있었다.Therefore, until now, it has been common to define or classify styles depending on the experience of experts who have been engaged in the fashion industry for a long time. There was a problem in defining styles or performing style classification with
즉, 경력이 풍부한 전문가들에 의해 각각의 패션 스타일의 개념이 정의되는 것이라 할지라도 객관적인 기준에 입각하여 정의되기 보단 전문가들 각각의 경험과 주관적인 견해에 의존할 수 밖에 없었다.In other words, even if the concept of each fashion style was defined by experts with abundant experience, it had no choice but to depend on the experience and subjective opinion of each expert rather than being defined based on objective standards.
이와 관련하여, 패션 도메인에서의 스타일과 관련하여 정량적인 정보를 활용하고 컴퓨터 비전(computer vision) 알고리즘을 활용하는 등 객관적인 기준을 도입하여 스타일을 정의하고 분류할 수 있는 새로운 방법론이 요구된다.In this regard, a new methodology is required to define and classify styles by introducing objective criteria such as using quantitative information related to styles in the fashion domain and using computer vision algorithms.
본원의 배경이 되는 기술은 한국등록특허공보 제10-1913750호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-1913750.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 스타일과 관련하여 정량적인 지표와 객관적인 기준으로 활용될 수 있는 패션 속성을 이미지로부터 추출하고, 추출된 패션 속성에 기반하여 스타일 그룹을 분류할 수 있는 딥러닝 기반 스타일 분류 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and it is possible to extract fashion attributes that can be used as quantitative indicators and objective standards in relation to styles from images, and classify style groups based on the extracted fashion attributes. An object of the present invention is to provide a deep learning-based style classification apparatus and method.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 스타일을 정의하는데 객관적으로 기능할 수 있는 패션 속성을 추출하는 딥러닝 모델과 이를 활용한 스타일 분류 모델 구축 방법을 제공하려는 것을 목적으로 한다.The present application aims to solve the problems of the prior art described above, and to provide a deep learning model for extracting fashion attributes that can objectively function in defining a style and a method for constructing a style classification model using the same.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하는 단계, 상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 단계, 상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하는 단계, 상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하는 단계, 상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 단계 및 분류 대상 이미지를 수신하고, 상기 스타일 분류 모델을 이용하여 상기 분류 대상 이미지에 대응하는 상기 스타일 그룹을 결정하는 단계를 포함할 수 있다.As a technical means for achieving the above technical task, the deep learning-based style classification method using fashion attributes according to an embodiment of the present application collects a plurality of first fashion images to which labels for preset fashion attributes are assigned. Step, building an attribute extraction model for extracting the fashion attribute from the input image based on the plurality of first fashion images, collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned , obtaining a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images based on the attribute extraction model; Building a style classification model for classifying an input image into at least one of a plurality of style groups based on the method, receiving a classification target image, and determining the style group corresponding to the classification target image by using the style classification model may include steps.
또한, 상기 패션 속성은, 입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함할 수 있다.Also, the fashion attribute may include a color attribute indicating a dominant color of clothes included in the input image and a main attribute indicating a predetermined characteristic reflected in the clothes.
또한, 상기 속성 추출 모델을 구축하는 단계는, 상기 색상 속성을 추출하는 제1추출 프로세스 및 상기 메인 속성을 추출하는 제2추출 프로세스를 구분하여 수행하는 상기 속성 추출 모델을 구축할 수 있다.In addition, the building of the attribute extraction model may include constructing the attribute extraction model in which a first extraction process for extracting the color attribute and a second extraction process for extracting the main attribute are separately performed.
또한, 상기 속성 추출 모델은, 입력된 이미지에 포함된 배경 영역의 색상 및 인물의 신체 영역의 색상이 상기 색상 속성에 반영되지 않도록 상기 배경 영역 및 상기 신체 영역을 제거한 후 상기 제1추출 프로세스를 수행할 수 있다.In addition, the attribute extraction model performs the first extraction process after removing the background region and the body region so that the color of the background region included in the input image and the color of the body region of the person are not reflected in the color attribute can do.
또한, 상기 메인 속성은, 의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함할 수 있다.In addition, the main properties may include clothes type properties (Type of Clothes), parts properties (Garments Parts), textile pattern properties (Textile Pattern), decoration properties (Decorations) and textile finishing properties (Textile Finishing).
또한, 상기 스타일 분류 모델을 구축하는 단계는, NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 단계를 포함할 수 있다.In addition, the step of constructing the style classification model includes a data matrix for the first feature through non-negative matrix factorization (NMF), a weight matrix associated with the fashion attribute, and an attribute matrix corresponding to the second fashion image and determining the plurality of style groups by dividing the .
또한, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은, 상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하는 단계를 포함할 수 있다.In addition, the deep learning-based style classification method using a fashion attribute according to an embodiment of the present application may include acquiring a second feature associated with an image characteristic for each of the plurality of second fashion images.
또한, 상기 스타일 분류 모델을 구축하는 단계는, 상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축할 수 있다.In addition, the building of the style classification model may include building the style classification model for classifying the input image into at least one of a plurality of style groups by further considering the second feature.
또한, 상기 스타일 분류 모델을 구축하는 단계는, 상기 복수의 스타일 그룹에 기초한 상기 복수의 제2패션 이미지에 대한 분류 결과, 상기 복수의 스타일 그룹 각각에 포함된 상기 제2패션 이미지에 대하여 도출된 상기 제1피처 사이의 유사도를 기초로 상기 복수의 스타일 그룹의 수를 결정하는 단계를 포함할 수 있다.In addition, the step of constructing the style classification model may include, as a result of classification of the plurality of second fashion images based on the plurality of style groups, the second fashion images included in each of the plurality of style groups are derived. and determining the number of the plurality of style groups based on the similarity between the first features.
한편, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법은, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하는 단계, 상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 단계, 상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하는 단계, 상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하는 단계 및 상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 단계를 포함할 수 있다.Meanwhile, the method for generating a deep learning-based style classification model using fashion attributes according to an embodiment of the present application includes collecting a plurality of first fashion images to which a label for a preset fashion attribute is assigned, the plurality of first fashion images. Building an attribute extraction model for extracting the fashion attribute from an input image based on the image, collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned, based on the attribute extraction model acquiring a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images; The method may include building a style classification model that classifies the style group into at least one of the style groups.
또한, 상기 패션 속성은, 입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함할 수 있다.Also, the fashion attribute may include a color attribute indicating a dominant color of clothes included in the input image and a main attribute indicating a predetermined characteristic reflected in the clothes.
또한, 상기 메인 속성은, 의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함할 수 있다.In addition, the main properties may include clothes type properties (Type of Clothes), parts properties (Garments Parts), textile pattern properties (Textile Pattern), decoration properties (Decorations) and textile finishing properties (Textile Finishing).
또한, 상기 스타일 분류 모델을 구축하는 단계는, NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 단계를 포함할 수 있다.In addition, the step of constructing the style classification model includes a data matrix for the first feature through non-negative matrix factorization (NMF), a weight matrix associated with the fashion attribute, and an attribute matrix corresponding to the second fashion image and determining the plurality of style groups by dividing the .
또한, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법은, 상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하는 단계를 포함할 수 있다.In addition, the method for generating a deep learning-based style classification model using a fashion attribute according to an embodiment of the present application may include acquiring a second feature associated with an image characteristic for each of the plurality of second fashion images. .
또한, 상기 스타일 분류 모델을 구축하는 단계는, 상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축할 수 있다.In addition, the building of the style classification model may include building the style classification model for classifying the input image into at least one of a plurality of style groups by further considering the second feature.
한편, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치는, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하고, 상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 속성 추출 모델 생성부, 상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하고, 상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하고, 상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 스타일 분류 모델 생성부 및 분류 대상 이미지를 수신하고, 상기 스타일 분류 모델을 이용하여 상기 분류 대상 이미지에 대응하는 상기 스타일 그룹을 결정하는 분류부를 포함할 수 있다.On the other hand, the deep learning-based style classification apparatus using a fashion attribute according to an embodiment of the present application collects a plurality of first fashion images to which a label for a preset fashion attribute is given, and based on the plurality of first fashion images an attribute extraction model generating unit that constructs an attribute extraction model that extracts the fashion attribute from the input image, collects a plurality of second fashion images to which a label for the fashion attribute is not assigned, and based on the attribute extraction model A first feature corresponding to the fashion attribute included in each of the plurality of second fashion images is obtained, and an input image is applied to a plurality of styles based on the first feature obtained for each of the plurality of second fashion images. A style classification model generating unit for constructing a style classification model classifying into at least one of the groups and a classification unit receiving a classification target image and determining the style group corresponding to the classification target image by using the style classification model have.
또한, 상기 스타일 분류 모델 생성부는, NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정할 수 있다.In addition, the style classification model generation unit divides the data matrix for the first feature into a weight matrix associated with the fashion attribute and an attribute matrix corresponding to the second fashion image through non-negative matrix factorization (NMF). The plurality of style groups may be determined.
또한, 상기 스타일 분류 모델 생성부는, 상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하고, 상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축할 수 있다.In addition, the style classification model generation unit acquires a second feature associated with an image characteristic for each of the plurality of second fashion images, and further considers the second feature and converts the input image into at least one of a plurality of style groups. It is possible to build the style classification model to classify.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.
전술한 본원의 과제 해결 수단에 의하면, 스타일과 관련하여 정량적인 지표와 객관적인 기준으로 활용될 수 있는 패션 속성을 이미지로부터 추출하고, 추출된 패션 속성에 기반하여 스타일 그룹을 분류할 수 있는 딥러닝 기반 스타일 분류 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, a deep learning-based method capable of extracting fashion attributes that can be used as quantitative indicators and objective standards in relation to styles from an image, and classifying style groups based on the extracted fashion attributes A style classification apparatus and method may be provided.
전술한 본원의 과제 해결 수단에 의하면, 스타일을 정의하는데 객관적으로 기능할 수 있는 패션 속성을 추출하는 딥러닝 모델과 이를 활용한 스타일 분류 모델 구축 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide a deep learning model for extracting a fashion attribute that can objectively function in defining a style and a method for constructing a style classification model using the same.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.
도 1은 본원의 일 실시예에 따른 스타일 분석 시스템(10)에 대한 개략적인 구성도이다.
도 2는 본원의 일 실시예에 따른 속성 추출 모델의 세부 모델 유형 각각에 따른 성능 비교 결과를 나타낸 도표이다.
도 3은 NMF(Non-negative Matrix Factorization)를 설명하기 위한 개념도이다.
도 4 및 도 5는 본원의 일 실시예에 따른 병합(Merged) 유형의 스타일 분류 모델을 설명하기 위한 개념도이다.
도 6은 본원의 일 실시예에 따른 스타일 분류 모델의 성능을 종래의 분류 모델과 비교하여 나타낸 도표이다.
도 7a 및 도 7b는 본원의 일 실시예에 따른 스타일 분류 모델에 의해 생성된 복수의 스타일 그룹 각각에 대한 패션 속성과 대표 이미지를 나타낸 도표이다.
도8은 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치의 개략적인 구성도이다.
도 9는 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에 대한 동작 흐름도이다.
도 10은 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법에 대한 동작 흐름도이다.1 is a schematic configuration diagram of a
2 is a table showing performance comparison results according to each detailed model type of the attribute extraction model according to an embodiment of the present application.
3 is a conceptual diagram for explaining non-negative matrix factorization (NMF).
4 and 5 are conceptual diagrams for explaining a merge-type style classification model according to an embodiment of the present application.
6 is a chart showing the performance of a style classification model according to an embodiment of the present application compared with a conventional classification model.
7A and 7B are diagrams illustrating fashion attributes and representative images for each of a plurality of style groups generated by a style classification model according to an embodiment of the present application.
8 is a schematic configuration diagram of a deep learning-based style classification apparatus using fashion attributes according to an embodiment of the present application.
9 is an operation flowchart of a method for generating a deep learning-based style classification model using a fashion attribute according to an embodiment of the present application.
10 is an operation flowchart of a deep learning-based style classification method using a fashion attribute according to an embodiment of the present application.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when it is said that a member is positioned “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.
본원은 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치 및 방법에 관한 것이다. 특히, 본원은 입력된 이미지로부터 추출된 패션 속성을 이용하여 이미지에 대응하는 스타일 그룹을 결정하는 딥러닝 기반 스타일 분류 모델 구축 기법에 관한 것이다.The present application relates to a deep learning-based style classification apparatus and method using fashion attributes. In particular, the present application relates to a deep learning-based style classification model building technique for determining a style group corresponding to an image by using a fashion attribute extracted from an input image.
도 1은 본원의 일 실시예에 따른 스타일 분석 시스템(10)에 대한 개략적인 구성도이다.1 is a schematic configuration diagram of a
도 1을 참조하면, 본원의 일 실시예에 따른 스타일 분석 시스템(10)은, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치(100)(이하, 스타일 분류 장치(100)'라 한다.) 및 사용자 단말(200)을 포함할 수 있다.Referring to Figure 1, the
스타일 분류 장치(100) 및 사용자 단말(200) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The
사용자 단말(200)은 예를 들면, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치일 수 있다.The
스타일 분류 장치(100)는 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집할 수 있다. 예를 들어, 라벨이 부여된 복수의 제1패션 이미지란, 후술하는 미리 정의된 패션 속성을 나타내는 라벨(label)이 해당 패션 속성이 이미지 내에서 잘 드러나는 영역(위치)에 표시되는 상태로 미리 확보된 학습 데이터 셋을 의미하는 것일 수 있다. 예시적으로, 패션 속성에 대한 라벨은 경계 상자(Bounding box) 형태로 표시되는 것일 수 있다. 구체적으로, 본원의 일 실시예에 따르면, 제1패션 이미지는 후술하는 패션 속성의 세부 유형 중 색상 속성에 해당하는 라벨은 미부여되고 메인 속성에 해당하는 패션 속성에 대한 라벨이 부여된 이미지일 수 있다.The
본원의 실시예에 관한 설명에서 패션 속성(fashion attributes)은, 입력된 이미지에 포함된 의상에 대한 패션 트렌드 분석에 활용되는 개별 요소를 의미하며, 입력된 이미지에 대한 스타일을 결정하기 위한 정량적인 지표로 기능할 수 있는 요소로 이해될 수 있다.In the description of the embodiments of the present application, fashion attributes refer to individual elements used in fashion trend analysis for clothes included in the input image, and are quantitative indicators for determining the style of the input image. It can be understood as an element that can function as
본원의 일 실시예에 따르면 패션 속성은, 입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 입력 이미지에 포함된 의상에 반영된 소정의 패션 관련 특징을 나타내는 메인 속성을 포함할 수 있다. 또한, 메인 속성은 의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함할 수 있다. 본원의 일 실시예에 따르면, 패션 속성은 132개의 메인 속성과 14개의 색상 속성을 포함하는 146개로 추출될 수 있으나, 이에만 한정되는 것은 아니며, 특히, 스타일이나 패션 트렌드는 시대의 흐름에 따라 변화하는 상대적 개념인바, 각각의 유형과 추출되는 속성의 수는 본원의 구현예에 따라 상이하게 결정될 수 있다.According to an embodiment of the present application, the fashion attribute may include a color attribute indicating a dominant color of clothes included in the input image and a main attribute indicating a predetermined fashion-related characteristic reflected in the clothes included in the input image. In addition, the main properties may include clothes type properties (Type of Clothes), part properties (Garments Parts), textile pattern properties (Textile Pattern), decoration properties (Decorations), and textile finishing properties (Textile Finishing). According to an embodiment of the present application, the fashion attribute may be extracted as 146 including 132 main attributes and 14 color attributes, but is not limited thereto. In particular, styles or fashion trends change with the passage of time. Since it is a relative concept, each type and the number of extracted attributes may be determined differently according to embodiments of the present application.
구체적으로 예를 들어 설명하면, 의상 유형 속성(Type of Clothes)에 해당하는 메인 속성은 아우터(Outer), 자켓(Jacket), 탑(Top), 바지(Pants), 치마(Skirt), 드레스(Dress) 등 입력된 이미지에 등장하는 의상의 유형 범주를 의미하는 패션 속성을 포함할 수 있다. 또한, 후술하는 도 7a 및 도 7b를 참조하면, 의상 유형 속성은 동일한 의상 유형 범주에 대하여도 세분화된 패션 속성을 포함할 수 있다. 예시적으로, 자켓(Jacket)에 대응하는 의상 유형 속성은 바이커 자켓(Jacket_Biker), 블레이저 자켓(Jacket_Blazer) 등의 하위 패션 속성을 포함할 수 있다.Specifically, to explain with an example, the main properties corresponding to the Type of Clothes are Outer, Jacket, Top, Pants, Skirt, and Dress. ), etc., may include a fashion attribute that means a category of clothing types appearing in the input image. Also, referring to FIGS. 7A and 7B , which will be described later, the clothing type attribute may include a subdivided fashion attribute even for the same clothing type category. For example, the clothing type attribute corresponding to the jacket may include lower fashion attributes such as a biker jacket (Jacket_Biker) and a blazer jacket (Jacket_Blazer).
또한, 부분 속성(Garments Parts)에 해당하는 메인 속성은 예시적으로, 이미지에 포함된 의상의 부분적 속성을 나타내며, 후술하는 도 7a 및 도 7b를 참조하면, 부분 속성은 의상의 목 부분의 특성과 연계된 패션 속성(Turtle_neck, Deep_V_neck 등)을 예시적으로 포함할 수 있다. 또한, 부분 속성은 소매 부분의 특성과 연계된 패션 속성(Long_sleeve, Bell_sleeve 등)을 예시적으로 포함할 수 있다.In addition, the main attribute corresponding to Garments Parts represents, by way of example, a partial attribute of clothes included in an image. Associated fashion attributes (Turtle_neck, Deep_V_neck, etc.) may be included as an example. Also, the partial attribute may exemplarily include fashion attributes (Long_sleeve, Bell_sleeve, etc.) associated with the characteristic of the sleeve part.
또한, 텍스타일 패턴 속성(Textile Pattern)에 해당하는 메인 속성은 예시적으로, 이미지에 포함된 의상의 디자인 패턴, 질감 또는 표면 특성을 나타내며, 후술하는 도 7a 및 도 7b를 참조하면, Floral, Baroque, Applique, Solid, Dot, Checked, Washed, Glitter 등으로 표현되는 패션 속성을 포함할 수 있다.In addition, the main property corresponding to the textile pattern property (Textile Pattern) represents, by way of example, a design pattern, texture, or surface characteristics of clothes included in the image, and with reference to FIGS. 7A and 7B to be described later, Floral, Baroque, It may include fashion attributes expressed as Applique, Solid, Dot, Checked, Washed, Glitter, and the like.
또한, 장식 속성(Decorations)에 해당하는 메인 속성은 예시적으로, 이미지에 포함된 의상에 부가적으로 부착되거나 의상 내의 부가적 요소로 구비된 장식에 대한 특성을 나타내며, 후술하는 도 7a 및 도 7b를 참조하면, 벨트 착용 여부(Belted), 주머니(Pocket) 등 의상의 부가적 요소, 장식 액세서리 존부 등과 연계된 패션 속성을 포함할 수 있다.In addition, the main attribute corresponding to the decorations represents, by way of example, the characteristics of decorations additionally attached to clothes included in the image or provided as additional elements in the clothes, which will be described later in FIGS. 7A and 7B . Referring to , it may include fashion attributes related to whether or not a belt is worn, additional elements of clothes such as a pocket, and the presence or absence of decorative accessories.
또한, 텍스타일 마감 속성(Textile Finishing)에 해당하는 메인 속성은 예시적으로, 후술하는 도 7a 및 도 7b을 참조하면, Rivet, Ruffle, Pleat, Crochet, Lapel 등 입력된 이미지에 포함된 의상에서 파악되는 직물의 마감 처리 특성에 대응되는 패션 속성을 포함할 수 있다.In addition, the main property corresponding to the textile finishing property is illustratively, and referring to FIGS. 7A and 7B to be described later, Rivet, Ruffle, Pleat, Crochet, Lapel, etc. are identified from the clothes included in the input image. It may include a fashion attribute corresponding to the finishing properties of the fabric.
상술한 메인 속성의 하위 유형 범주인 의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing) 각각은 통상적인 패션 디자인 프로세스 또는 의복 디자인 과정에서 고려되는 6단계 프로세스 각각에 대응되도록 설정된 것일 수 있다. 다만, 상술한 메인 속성의 범주는 본원의 구현예에 따라 다양하게 가변될 수 있다.Each of the subtype categories of the above-mentioned main properties, such as Type of Clothes, Garments Parts, Textile Pattern, Decorations, and Textile Finishing, is a typical It may be set to correspond to each of the six-step processes considered in the fashion design process or the apparel design process. However, the scope of the above-described main attribute may be variously changed according to the embodiment of the present application.
또한, 스타일 분류 장치(100)는 수집된 복수의 제1패션 이미지(I1)에 기초하여, 소정의 이미지가 입력되면 입력된 이미지에서 패션 속성을 추출하는 속성 추출 모델(도 1을 참조하면, Attribute Detection, M1)을 구축할 수 있다.In addition, the
본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 입력된 이미지로부터 색상 속성을 추출하는 제1추출 프로세스 및 메인 속성을 추출하는 제2추출 프로세스를 구분하여 수행하는 속성 추출 모델(M1)을 구축할 수 있다. 또한, 본원의 일 실시예에 따르면, 속성 추출 모델(M1)은 입력된 이미지에 포함된 배경 영역의 색상 및 인물의 신체 영역의 색상(예를 들면, 인물의 피부색 등)이 색상 속성에 반영되지 않도록 입력된 이미지에서 배경 영역 및 신체 영역을 제거한 후 제1추출 프로세스를 수행하도록 구현될 수 있다.According to an embodiment of the present application, the
구체적으로, 스타일 분류 장치(100)에 의해 구축되는 속성 추출 모델(M1)은 의미론적 영역 분할(Semantic Segmentation) 기법에 기초하여 배경 영역 및 신체 영역을 제거할 수 있다. 예시적으로, 속성 추출 모델(M1)은 의미론적 영역 분할을 위해 미리 확보된 데이터 셋(예를 들면, COCO 데이터 셋)에 기초하여 학습된 Mask R-CNN 기반의 인공지능 모델을 포함할 수 있다. Specifically, the attribute extraction model M 1 constructed by the
또한, 스타일 분류 장치(100)에 의해 구축되는 속성 추출 모델(M1)은 미리 설정된 색상 추출 알고리즘에 기초하여 배경 영역 및 신체 영역이 제거된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성을 추출하는 제1추출 프로세스를 수행할 수 있다. 예를 들어, 속성 추출 모델(M1)이 보유한 색상 추출 알고리즘은 GitHub 색상 추출기와 연계된 것일 수 있으나, 이에만 한정되는 것은 아니며, 종래에 이미 공지되었거나 향후 개발되는 다양한 색상 추출 알고리즘이 적용될 수 있다.In addition, the attribute extraction model M 1 built by the
도 2는 본원의 일 실시예에 따른 속성 추출 모델의 세부 모델 유형 각각에 따른 성능 비교 결과를 나타낸 도표이다.2 is a table showing performance comparison results according to each detailed model type of the attribute extraction model according to an embodiment of the present application.
도 2를 참조하면, 스타일 분류 장치(100)는 Faster RCNN 또는 RetinaNet의 모델 유형을 기초로 속성 추출 모델(M1)을 구축할 수 있다. 또한, 도 2를 참조하면, 속성 추출 모델(M1)은 ResNET-50 또는 ResNet-101을 백본(Backbone)으로 하여 구축된 것일 수 있으나, 이에만 한정되는 것은 아니다.Referring to FIG. 2 , the
또한, 도 2를 참조하면, ResNet-101을 백본(Backbone)으로 하는 RetinaNet 기반의 속성 추출 모델(M1)이 다른 모델 유형 및 백본의 조합을 기반으로 생성된 속성 추출 모델(M1) 대비 정밀도(Precision), 재현율(Recall) 및 F-1 점수(F-1 score) 측면에서의 우수한 성능을 보이는 것을 확인할 수 있다.Also, Referring to Figure 2, ResNet-101 to RetinaNet based attribute extraction model for the backbone (Backbone) (M 1) of different model types and the attribute extraction model generated based on a combination of the backbone (M 1) against the precision It can be seen that it shows excellent performance in terms of (Precision), recall (Recall), and F-1 score.
또한, 스타일 분류 장치(100)는 전술한 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지(I2)를 수집할 수 있다. 예시적으로, 제2패션 이미지(I2)는 상술한 제1패션 이미지(I1)에 비하여 많은 수의 이미지를 포함하도록 수집되는 것이 바람직할 수 있으나, 이에만 한정되는 것은 아니다.Also, the
본원의 일 실시예에 따르면, 제2패션 이미지는 소정의 기간 동안 수집된 런웨이 이미지일 수 있다. 예시적으로, 제2패션 이미지는 2010년 S/S 시즌부터 2019년 F/W 시즌까지 수집된 302,772 장의 런웨이 이미지를 포함할 수 있으나, 이에만 한정되는 것은 아니다.According to an embodiment of the present application, the second fashion image may be a runway image collected for a predetermined period. Illustratively, the second fashion image may include 302,772 runway images collected from the 2010 S/S season to the 2019 F/W season, but is not limited thereto.
또한, 스타일 분류 장치(100)는, 앞서 구축된 속성 추출 모델(M1)에 기초하여 수집된 복수의 제2패션 이미지(I2) 각각에 포함된 패션 속성에 해당하는 제1피처를 획득할 수 있다. 달리 말해, 스타일 분류 장치(100)는 속성 추출 모델(M1)을 이용해 제2패션 이미지(I2)로부터 제1피처인 패션 속성을 이미지 별로 추출할 수 있다.In addition, the
또한 스타일 분류 장치(100)는 복수의 제2패션 이미지(I2) 각각에 대하여 획득된 제1피처에 기초하여, 적어도 하나의 이미지가 입력되면 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델(도 1을 참조하면, Style Classification, M2)을 구축할 수 있다.In addition, the
본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 제1피처에 대한 데이터 행렬을 패션 속성과 연계된 가중치 행렬 및 제2패션 이미지에 대응하는 속성 행렬로 분할하는 NMF(Non-negative Matrix Factorization)를 통해 복수의 스타일 그룹을 결정할 수 있다.According to an embodiment of the present application, the
도 3은 NMF(Non-negative Matrix Factorization)를 설명하기 위한 개념도이다.3 is a conceptual diagram for explaining non-negative matrix factorization (NMF).
도 3을 참조하면, 본원에서의 NMF는 비지도 학습 알고리즘에서 활용되는 비음수 행렬 분해 기법으로 전체 데이터를 가중치 행렬 및 속성 행렬의 곱으로 표현하는 행렬 파라미터 기반의 분할 기법을 의미하며, 데이터에 있는 유용한 패턴(예를 들면, 본원에서의 스타일 그룹 각각의 구분되는 특성)을 탐색하는데 활용될 수 있다. 이러한 NMF는 하기 식 1로 표현될 수 있다.Referring to FIG. 3 , NMF in the present application is a non-negative matrix decomposition technique used in an unsupervised learning algorithm, and refers to a matrix parameter-based partitioning technique that expresses the entire data as a product of a weight matrix and an attribute matrix. It can be utilized to search for useful patterns (eg, distinct characteristics of each style group herein). Such NMF may be expressed by
[식 1][Equation 1]
여기서, V는 전술한 전체 데이터를 의미하며, W는 가중치 행렬을, H는 속성 행렬을 각각 의미할 수 있으며, 본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 NMF를 통해 제1피처에 대한 데이터 행렬(V)을 패션 속성(fashion attributes)과 연계된 가중치 행렬(W) 및 제2패션 이미지에 대응하는 속성 행렬(H)로 분할할 수 있다. 이와 관련하여, 가중치 행렬을 통하여는 스타일 그룹에 대한 주요 패션 속성을 확인할 수 있고, 속성 행렬을 통하여는 해당 스타일 그룹으로 그룹핑된 이미지(제2패션 이미지)에 대한 정보를 확인할 수 있다.Here, V denotes the entire data described above, W denotes a weight matrix, and H denotes an attribute matrix, respectively. According to an embodiment of the present application, the
또한, 본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 복수의 스타일 그룹에 기초한 복수의 제2패션 이미지(I2)에 대한 분류 결과, 복수의 스타일 그룹 각각에 포함된 제2패션 이미지(I2)의 적절성(예를 들면, 서로 다른 스타일 그룹 간에 패션 속성이 확연하게 구분되는 정도, 동일 스타일 그룹으로 분류된 패션 이미지 간의 유사 정도 등)에 기초하여 복수의 스타일 그룹의 수를 결정할 수 있다. 예시적으로, 스타일 분류 장치(100)는 복수의 스타일 그룹 각각에 포함된 제2패션 이미지(I2)에 대하여 도출된 제1피처 사이의 스타일 그룹 내의 유사도를 기초로 복수의 스타일 그룹의 수를 결정할 수 있다. 본원의 일 실시예에 따르면, 복수의 스타일 그룹은 25개 내지 30개 중 어느 하나의 수의 스타일 그룹을 포함할 수 있으나, 이에만 한정되는 것은 아니다.In addition, according to an embodiment of the present application, the
또한, 스타일 분류 장치(100)는 분류 대상 이미지를 수신할 수 있다. 본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 사용자 단말(200)로부터 분류 대상 이미지를 수신하는 것일 수 있다. 이해를 돕기 위해 예시하면, 사용자 단말(200)의 사용자는 스타일을 확인하려는 특정 패션 이미지, 사용자 자신이 착용한 의상을 포함하는 이미지 등을 스타일 분류 장치(100)로 인가(제공)하여, 해당 이미지에 대한 스타일 그룹 분류 결과를 획득할 수 있다.Also, the
또한, 스타일 분류 장치(100)는 앞서 구축된 스타일 분류 모델(M2)에 기초하여 수신된 분류 대상 이미지에 대응하는 스타일 그룹을 결정할 수 있다. 또한, 스타일 분류 장치(100)는 결정된 분류 대상 이미지에 대응하는 스타일 그룹에 대한 정보(예를 들면, 스타일 그룹에 대한 식별 정보, 결정된 스타일 그룹을 설명할 수 있는 세부 정보, 해당 스타일 그룹에 포함되는 예시 이미지 등)를 사용자 단말(200)로 제공(전송)할 수 있다.Also, the
구체적으로, 스타일 분류 장치(100)는 수신된 분류 대상 이미지로부터 속성 추출 모델(M1)에 기초하여 분류 대상 이미지에 반영된 패션 속성에 해당하는 제1피처를 획득하고, 스타일 분류 모델(M2)을 통해 획득된 제1피처에 대응하는 스타일 그룹을 결정할 수 있다.Specifically, the
이하에서는, 도 4 및 도 5를 참조하여 이미지에서 추출 가능한 이미지 특성(이미지 자체의 특성)과 연계된 제2피처를 전술한 패션 속성에 해당하는 제1피처와 함께 학습하여 구축되는 병합(Merged) 유형의 스타일 분류 모델(M2')을 설명하고, 도 6을 참조하여 전술한 제1피처를 기초로 스타일 분류를 수행하는 스타일 분류 모델(M2)과 병합(Merged) 유형의 스타일 분류 모델(M2')의 성능을 종래의 다른 분류 기법과 대비하여 비교하도록 한다.Hereinafter, with reference to FIGS. 4 and 5 , a second feature linked with an image characteristic (a characteristic of the image itself) that can be extracted from an image is learned together with the first feature corresponding to the above-described fashion attribute (Merged) The style classification model (M 2 ) of the type is described, and the style classification model (M 2 ) that performs style classification based on the first feature described above with reference to FIG. 6 and the merged type style classification model ( Let 's compare the performance of M 2 ') with other conventional classification techniques.
도 4 및 도 5는 본원의 일 실시예에 따른 병합(Merged) 유형의 스타일 분류 모델을 설명하기 위한 개념도이다.4 and 5 are conceptual diagrams for explaining a merge-type style classification model according to an embodiment of the present application.
도 4 및 도 5를 참조하면, 스타일 분류 장치(100)는 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득할 수 있다. 또한, 스타일 분류 장치(100)는 획득한 제2피처를 속성 추출 모델(M1)에 의해 획득된 제1피처와 함께 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 병합(Merged) 유형의 스타일 분류 모델(M2')을 구축할 수 있다.4 and 5 , the
특히, 도 5를 참조하면, 본원의 일 실시예에 따른 병합(Merged) 유형의 스타일 분류 모델(M2')은 Fine-tuned Resnet-50에 기초하여 2,048 개의 제2피처를 추출하고, 앞서 구축된 속성 추출 모델(M1)에 기초하여 추출되어 one-hot encoding에 기초하여 변환된 146개의 제1피처를 로지스틱 회귀(Logistic Regression)를 통해 종합 고려하여 복수의 제2패션 이미지 각각에 대한 스타일 그룹에의 분류를 수행할 수 있다.In particular, referring to FIG. 5 , the merged type style classification model (M 2 ') according to an embodiment of the present application extracts 2,048 second features based on Fine-tuned Resnet-50, and builds previously A style group for each of a plurality of second fashion images by comprehensively considering 146 first features extracted based on the obtained attribute extraction model (M 1 ) and transformed based on one-hot encoding through logistic regression classification can be performed.
도 6은 본원의 일 실시예에 따른 스타일 분류 모델의 성능을 종래의 분류 모델과 비교하여 나타낸 도표이다. 특히, 도 6의 Our model(Merged) 행은 본원에서 개시하는 병합(Merged) 유형의 로지스틱 회귀 기반의 스타일 분류 모델(M2')의 성능을 나타내고, 도 6의 Our model(Attribute) 행은 본원에서 개시하는 패션 속성을 기초로 한 스타일 분류 모델(M2)의 성능을 나타낸 것일 수 있다. 또한, 도 6에 도시된 스타일 분류 모델의 성능 평가 비교 시뮬레이션은 종래의 FashionStyle 14 데이터 셋을 활용하여 수행된 것일 수 있다.6 is a chart showing the performance of a style classification model according to an embodiment of the present application compared with a conventional classification model. In particular, the Our model (Merged) row of FIG. 6 shows the performance of the merged type logistic regression-based style classification model (M 2 ') disclosed herein, and the Our model (Attribute) row of FIG. 6 shows the performance of the present application. It may indicate the performance of the style classification model (M 2 ) based on the fashion attribute disclosed in . In addition, the performance evaluation comparison simulation of the style classification model shown in FIG. 6 may be performed using the
도 6을 참조하면, 본원의 일 실시예에 따른 패션 속성을 기초로 한 스타일 분류 모델(M2)의 성능은 종래의 VGG-19, Xception, Inception v3, VGG-16 등의 분류 모델 대비 향상되며, 병합(Merged) 유형의 스타일 분류 모델(M2')의 성능은 종래의 VGG-19, Xception, Inception v3, VGG-16 및 ResNet-50의 성능 대비 향상되는 것을 확인할 수 있다. 6, the performance of the style classification model (M 2 ) based on the fashion attribute according to an embodiment of the present application is improved compared to the conventional classification models such as VGG-19, Xception, Inception v3, VGG-16, , it can be seen that the performance of the merged-type style classification model (M 2 ') is improved compared to that of the conventional VGG-19, Xception, Inception v3, VGG-16 and ResNet-50.
이와 관련하여, ResNet-50은 이미지에 반영된 디자이너 등의 전문가가 패션 트렌드 분석, 디자인 프로세스 등에서 고려하는 본원에서의 패션 속성에 관한 특성을 학습하지 못하고, 패션 속성을 기초로 한 스타일 분류 모델(M2)은 이미지의 텍스쳐 특성 등의 이미지 자체의 속성을 학습하지 못한다는 점에서 패션 속성에 관한 특성과 이미지 자체의 속성을 모두 학습하는 병합(Merged) 유형의 스타일 분류 모델(M2')의 분류 성능이 가장 우수한 것을 확인할 수 있다. 구체적으로, 병합(Merged) 유형의 스타일 분류 모델(M2')은 평균 78%의 분류 정확도를 보여 종래의 ResNet-50 대비 6%p의 분류 정확도 측면에서의 성능 향상을 보이는 것을 확인할 수 있다.In this regard, ResNet-50 does not learn the characteristics of fashion attributes in this institute that experts such as designers reflected in the image consider in fashion trend analysis, design process, etc., and a style classification model (M 2 ) based on fashion attributes. ) is the classification performance of a merge-type style classification model (M 2 ') that learns both the characteristics of the fashion attribute and the attributes of the image itself in that it does not learn the attributes of the image itself, such as the texture characteristics of the image. You can see this is the best. Specifically, it can be seen that the merged-type style classification model (M 2 ') shows an average classification accuracy of 78%, which improves the performance in terms of classification accuracy of 6%p compared to the conventional ResNet-50.
도 7a 및 도 7b는 본원의 일 실시예에 따른 스타일 분류 모델에 의해 생성된 복수의 스타일 그룹 각각에 대한 패션 속성과 대표 이미지를 나타낸 도표이다.7A and 7B are diagrams illustrating fashion attributes and representative images for each of a plurality of style groups generated by a style classification model according to an embodiment of the present application.
도 7a 및 도 7b를 참조하면, 스타일 분류 장치(100)는 Group 1 내지 Group 25를 포함하는 25개의 복수의 스타일 그룹을 기초로 입력된 이미지에 대한 스타일 분류를 수행하도록 동작할 수 있다. 특히, 도 7a 및 도 7b는 스타일 그룹 각각에 대한 주요 패션 속성 및 해당 스타일 그룹으로 분류된 패션 이미지를 예시적으로 나타낸 것일 수 있다.7A and 7B , the
또한, 도 7a 및 도 7b를 참조하면, 스타일 분류 장치(100)는 스타일 그룹 각각에 대응하는 패션 속성에 기초하여 스타일 그룹 각각의 스타일 명칭을 결정할 수 있다. 본원의 일 실시예에 따르면, 스타일 그룹 각각의 스타일 명칭은 적어도 둘 이상의 패션 속성 각각에 대응되는 표현을 포함하는 혼합형 스타일 명칭으로 결정될 수 있다. 예시적으로 혼합형 스타일 명칭은 Autumn Minimal, Floral Chic 등일 수 있다. 이와 관련하여, 스타일에 대한 정의가 엄밀하게 이루어지기 어려운 패션 분야의 모호성을 고려할 때, 혼합형 스타일 명칭은 패션 디자이너 등의 전문가의 요구와 패션 스타일의 다양성을 반영할 수 있는 이점이 있다.Also, referring to FIGS. 7A and 7B , the
도8은 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치의 개략적인 구성도이다.8 is a schematic configuration diagram of a deep learning-based style classification apparatus using fashion attributes according to an embodiment of the present application.
도 8을 참조하면, 스타일 분류 장치(100)는 속성 추출 모델 생성부(110), 스타일 분류 모델 생성부(120) 및 분류부(130)를 포함할 수 있다.Referring to FIG. 8 , the
속성 추출 모델 생성부(110)는, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지(I1)를 수집할 수 있다. 또한, 속성 추출 모델 생성부(110)는, 수집된 복수의 제1패션 이미지(I1)에 기초하여 입력된 이미지에서 패션 속성을 추출하는 속성 추출 모델(M1)을 구축할 수 있다.The attribute extraction
스타일 분류 모델 생성부(120)는, 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지(I2)를 수집할 수 있다. 또한, 스타일 분류 모델 생성부(120)는, 속성 추출 모델(M1)에 기초하여 수집된 복수의 제2패션 이미지(I2) 각각에 포함된 패션 속성에 해당하는 제1피처를 획득할 수 있다. 또한, 스타일 분류 모델 생성부(120)는 복수의 제2패션 이미지(I2) 각각에 대하여 획득된 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델(M2)을 구축할 수 있다.The style
또한, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득할 수 있다. 또한, 스타일 분류 모델 생성부(120)는, 패션 속성에 해당하는 제1피처와 획득된 제2피처를 함께 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 병합(Merged) 유형의 스타일 분류 모델(M2')을 구축할 수 있다.Also, the style
분류부(130)는, 분류 대상 이미지를 수신할 수 있다. 또한, 분류부(130)는 스타일 분류 모델(M2) 또는 병합(Merged) 유형 스타일 분류 모델(M2')을 이용하여 분류 대상 이미지에 대응하는 스타일 그룹을 결정할 수 있다.The
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.
도 9는 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에 대한 동작 흐름도이다.9 is an operation flowchart of a method for generating a deep learning-based style classification model using a fashion attribute according to an embodiment of the present application.
도 9에 도시된 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법은 앞서 설명된 스타일 분류 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 스타일 분류 장치(100)에 대하여 설명된 내용은 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for generating a deep learning-based style classification model using the fashion attribute shown in FIG. 9 may be performed by the
도 9를 참조하면, 단계 S11에서, 속성 추출 모델 생성부(110)는, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지(I1)를 수집할 수 있다.Referring to FIG. 9 , in step S11 , the attribute extraction
다음으로, 단계 S12에서, 속성 추출 모델 생성부(110)는, 복수의 제1패션 이미지(I1)에 기초하여 입력된 이미지에서 패션 속성을 추출하는 속성 추출 모델(M1)을 구축할 수 있다.Next, in step S12 , the attribute extraction
다음으로, 단계 S13에서, 스타일 분류 모델 생성부(120)는, 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지(I2)를 수집할 수 있다.Next, in step S13 , the style classification
다음으로, 단계 S14에서, 스타일 분류 모델 생성부(120)는, 속성 추출 모델(M1)에 기초하여 복수의 제2패션 이미지(I2) 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득할 수 있다.Next, in step S14 , the style classification
다음으로, 단계 S15에서, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지(I2) 각각에 대한 이미지 특성과 연계된 제2피처를 획득할 수 있다.Next, in step S15 , the style
다음으로, 단계 S16에서, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지(I2) 각각에 대하여 획득된 제1피처 및 제2피처 중 적어도 하나에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축할 수 있다.Next, in step S16 , the style classification
구체적으로, 단계 S16에서 스타일 분류 모델 생성부(120)는 패션 속성에 해당하는 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델(M2) 또는 제1피처와 제2피처를 함께 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 병합(Merged) 유형의 스타일 분류 모델(M2')을 구축할 수 있다.Specifically, in step S16, the style classification
상술한 설명에서, 단계 S11 내지 S16은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S16 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between steps may be changed.
도 10은 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법에 대한 동작 흐름도이다.10 is an operation flowchart of a deep learning-based style classification method using a fashion attribute according to an embodiment of the present application.
도 10에 도시된 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은 앞서 설명된 스타일 분류 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 스타일 분류 장치(100)에 대하여 설명된 내용은 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법에 대한 설명에도 동일하게 적용될 수 있다.The deep learning-based style classification method using the fashion attribute shown in FIG. 10 may be performed by the
특히, 도 10에 도시된 딥러닝 기반 스타일 분류 방법의 단계 S21 내지 단계 S26는 도 9를 참조하여 상술한 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에서의 단계 S11 내지 단계 S16에 각각 대응되는 것일 수 있다.In particular, steps S21 to S26 of the deep learning-based style classification method shown in FIG. 10 correspond to steps S11 to S16 in the deep learning-based style classification model generation method using the fashion attribute described above with reference to FIG. 9, respectively. it could be
도 10을 참조하면, 단계 S21에서, 속성 추출 모델 생성부(110)는, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지(I1)를 수집할 수 있다.Referring to FIG. 10 , in step S21 , the attribute extraction
다음으로, 단계 S22에서, 속성 추출 모델 생성부(110)는, 복수의 제1패션 이미지(I1)에 기초하여 입력된 이미지에서 패션 속성을 추출하는 속성 추출 모델(M1)을 구축할 수 있다.Next, in step S22, the attribute extraction
다음으로, 단계 S23에서, 스타일 분류 모델 생성부(120)는, 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지(I2)를 수집할 수 있다.Next, in step S23 , the style
다음으로, 단계 S24에서, 스타일 분류 모델 생성부(120)는, 속성 추출 모델(M1)에 기초하여 복수의 제2패션 이미지(I2) 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득할 수 있다.Next, in step S24 , the style classification
다음으로, 단계 S25에서, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지(I2) 각각에 대한 이미지 특성과 연계된 제2피처를 획득할 수 있다.Next, in step S25 , the style
다음으로, 단계 S26에서, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지(I2) 각각에 대하여 획득된 제1피처 및 제2피처 중 적어도 하나에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축할 수 있다.Next, in step S26 , the style classification
다음으로, 단계 S27에서, 분류부(130)는, 분류 대상 이미지를 수신할 수 있다.Next, in step S27 , the
다음으로, 단계 S28에서, 분류부(130)는, 구축된 스타일 분류 모델(예를 들면, M2 또는 M2')을 이용하여 수신된 분류 대상 이미지에 대응하는 스타일 그룹을 결정할 수 있다.Next, in step S28 , the
상술한 설명에서, 단계 S21 내지 S28은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S21 to S28 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between steps may be changed.
본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법과 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The deep learning-based style classification model generation method using fashion attributes and the deep learning-based style classification method using fashion attributes according to an embodiment of the present application are implemented in the form of program instructions that can be performed through various computer means, and are computer-readable media can be recorded in The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
또한, 전술한 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법과 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the deep learning-based style classification model generation method using the above-described fashion attribute and the deep learning-based style classification method using the fashion attribute may be implemented in the form of a computer program or application executed by a computer stored in a recording medium. .
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application.
10: 스타일 분류 시스템
100: 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치
110: 속성 추출 모델 생성부
120: 스타일 분류 모델 생성부
130: 분류부
200: 사용자 단말
20: 네트워크10: Style classification system
100: Deep learning-based style classification device using fashion attributes
110: attribute extraction model generation unit
120: style classification model generation unit
130: classification unit
200: user terminal
20: network
Claims (15)
미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하는 단계;
상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 단계;
상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하는 단계;
상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하는 단계;
상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 단계; 및
분류 대상 이미지를 수신하고, 상기 스타일 분류 모델을 이용하여 상기 분류 대상 이미지에 대응하는 상기 스타일 그룹을 결정하는 단계,
를 포함하는, 스타일 분류 방법.In a deep learning-based style classification method using fashion attributes,
collecting a plurality of first fashion images to which labels for preset fashion attributes are assigned;
constructing an attribute extraction model for extracting the fashion attribute from an input image based on the plurality of first fashion images;
collecting a plurality of second fashion images to which a label for the fashion attribute is not applied;
obtaining a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images based on the attribute extraction model;
constructing a style classification model for classifying an input image into at least one of a plurality of style groups based on the first feature obtained for each of the plurality of second fashion images; and
receiving a classification target image, and determining the style group corresponding to the classification target image by using the style classification model;
A style classification method, including.
상기 패션 속성은,
입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함하고,
상기 속성 추출 모델을 구축하는 단계는,
상기 색상 속성을 추출하는 제1추출 프로세스 및 상기 메인 속성을 추출하는 제2추출 프로세스를 구분하여 수행하는 상기 속성 추출 모델을 구축하는 것인, 스타일 분류 방법.According to claim 1,
The fashion attribute is,
a color property representing a dominant color of the clothes included in the input image and a main property representing a predetermined characteristic reflected in the clothes,
Building the attribute extraction model comprises:
A style classification method of constructing the attribute extraction model that is performed separately from a first extraction process for extracting the color attribute and a second extraction process for extracting the main attribute.
상기 속성 추출 모델은,
입력된 이미지에 포함된 배경 영역의 색상 및 인물의 신체 영역의 색상이 상기 색상 속성에 반영되지 않도록 상기 배경 영역 및 상기 신체 영역을 제거한 후 상기 제1추출 프로세스를 수행하는 것인, 스타일 분류 방법.3. The method of claim 2,
The attribute extraction model is
and performing the first extraction process after removing the background region and the body region so that the color of the background region and the color of the body region of the person included in the input image are not reflected in the color attribute.
상기 메인 속성은,
의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함하는 것인, 스타일 분류 방법.3. The method of claim 2,
The main property is
A method of classifying a style, which includes Type of Clothes, Garments Parts, Textile Pattern, Decorations, and Textile Finishing.
상기 스타일 분류 모델을 구축하는 단계는,
NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 단계,
를 포함하는 것인, 스타일 분류 방법.According to claim 1,
The step of constructing the style classification model is,
Determining the plurality of style groups by dividing the data matrix for the first feature into a weight matrix associated with the fashion attribute and an attribute matrix corresponding to the second fashion image through non-negative matrix factorization (NMF); ,
A method of classifying a style that includes.
상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하는 단계,
를 더 포함하고,
상기 스타일 분류 모델을 구축하는 단계는,
상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축하는 것인, 스타일 분류 방법.6. The method of claim 5,
obtaining a second feature associated with an image characteristic for each of the plurality of second fashion images;
further comprising,
The step of constructing the style classification model is,
The style classification method of constructing the style classification model that classifies the input image into at least one of a plurality of style groups by further considering the second feature.
상기 스타일 분류 모델을 구축하는 단계는,
상기 복수의 스타일 그룹에 기초한 상기 복수의 제2패션 이미지에 대한 분류 결과, 상기 복수의 스타일 그룹 각각에 포함된 상기 제2패션 이미지에 대하여 도출된 상기 제1피처 사이의 유사도를 기초로 상기 복수의 스타일 그룹의 수를 결정하는 단계,
를 포함하는 것인, 스타일 분류 방법.7. The method of claim 6,
The step of constructing the style classification model is,
As a result of classification of the plurality of second fashion images based on the plurality of style groups, based on the similarity between the first features derived with respect to the second fashion image included in each of the plurality of style groups, the plurality of determining the number of style groups;
A method of classifying a style that includes.
미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하는 단계;
상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 단계;
상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하는 단계;
상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하는 단계; 및
상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 단계,
를 포함하는, 스타일 분류 모델 생성 방법.In a deep learning-based style classification model creation method using fashion attributes,
collecting a plurality of first fashion images to which labels for preset fashion attributes are assigned;
constructing an attribute extraction model for extracting the fashion attribute from an input image based on the plurality of first fashion images;
collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned;
obtaining a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images based on the attribute extraction model; and
constructing a style classification model for classifying an input image into at least one of a plurality of style groups based on the first feature obtained for each of the plurality of second fashion images;
Including, a style classification model generation method.
상기 패션 속성은,
입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함하고,
상기 메인 속성은,
의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함하는 것인, 스타일 분류 모델 생성 방법.9. The method of claim 8,
The fashion attribute is,
a color property representing a dominant color of the clothes included in the input image and a main property representing a predetermined characteristic reflected in the clothes,
The main property is,
A method of creating a style classification model, comprising: Type of Clothes, Garments Parts, Textile Pattern, Decorations, and Textile Finishing.
상기 스타일 분류 모델을 구축하는 단계는,
NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 단계,
를 포함하는 것인, 스타일 분류 모델 생성 방법.10. The method of claim 9,
The step of constructing the style classification model is,
Determining the plurality of style groups by dividing the data matrix for the first feature into a weight matrix associated with the fashion attribute and an attribute matrix corresponding to the second fashion image through non-negative matrix factorization (NMF); ,
A method for generating a style classification model, comprising:
상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하는 단계,
를 더 포함하고,
상기 스타일 분류 모델을 구축하는 단계는,
상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축하는 것인, 스타일 분류 모델 생성 방법.11. The method of claim 10,
obtaining a second feature associated with an image characteristic for each of the plurality of second fashion images;
further comprising,
The step of constructing the style classification model is,
The method of constructing the style classification model that classifies the input image into at least one of a plurality of style groups by further considering the second feature.
미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하고, 상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 속성 추출 모델 생성부;
상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하고, 상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하고, 상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 스타일 분류 모델 생성부; 및
분류 대상 이미지를 수신하고, 상기 스타일 분류 모델을 이용하여 상기 분류 대상 이미지에 대응하는 상기 스타일 그룹을 결정하는 분류부,
를 포함하는, 스타일 분류 장치.In a deep learning-based style classification device using fashion attributes,
Attribute extraction model creation for constructing an attribute extraction model that collects a plurality of first fashion images to which a label for a preset fashion attribute is given, and extracts the fashion attribute from an input image based on the plurality of first fashion images wealth;
Collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned, and obtaining a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images based on the attribute extraction model, , a style classification model generator for constructing a style classification model for classifying an input image into at least one of a plurality of style groups based on the first feature obtained for each of the plurality of second fashion images; and
a classification unit for receiving a classification target image and determining the style group corresponding to the classification target image by using the style classification model;
Including, style classification device.
상기 패션 속성은,
입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함하고,
상기 메인 속성은,
의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함하는 것인, 스타일 분류 장치.13. The method of claim 12,
The fashion attribute is,
a color property representing a dominant color of the clothes included in the input image and a main property representing a predetermined characteristic reflected in the clothes,
The main property is,
A style classification device, comprising: Type of Clothes, Garments Parts, Textile Pattern, Decorations, and Textile Finishing.
상기 스타일 분류 모델 생성부는,
NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 것인, 스타일 분류 장치.14. The method of claim 13,
The style classification model generation unit,
Determining the plurality of style groups by dividing the data matrix for the first feature into a weight matrix associated with the fashion attribute and an attribute matrix corresponding to the second fashion image through non-negative matrix factorization (NMF) In, style classification device.
상기 스타일 분류 모델 생성부는,
상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하고, 상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축하는 것인, 스타일 분류 장치.15. The method of claim 14,
The style classification model generation unit,
Obtaining a second feature associated with an image characteristic for each of the plurality of second fashion images, and constructing the style classification model that classifies the input image into at least one of a plurality of style groups by further considering the second feature that is, a style classification device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200083042A KR102366127B1 (en) | 2020-07-06 | 2020-07-06 | Apparatus and method for classifying style based on deep learning using fashion attribute |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200083042A KR102366127B1 (en) | 2020-07-06 | 2020-07-06 | Apparatus and method for classifying style based on deep learning using fashion attribute |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220005323A true KR20220005323A (en) | 2022-01-13 |
KR102366127B1 KR102366127B1 (en) | 2022-02-21 |
Family
ID=79342159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200083042A KR102366127B1 (en) | 2020-07-06 | 2020-07-06 | Apparatus and method for classifying style based on deep learning using fashion attribute |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102366127B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102583308B1 (en) * | 2023-02-20 | 2023-09-27 | (주)어반유니온 | Service providing apparatus and method for fashion analysis using short-form contents |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160120674A (en) * | 2015-04-08 | 2016-10-18 | 주식회사 컴퍼니원헌드레드 | Clothes recommendation system using gpu |
JP2017084078A (en) * | 2015-10-27 | 2017-05-18 | 日本電信電話株式会社 | Style search apparatus, method, and program |
KR101768521B1 (en) * | 2016-05-02 | 2017-08-17 | 네이버 주식회사 | Method and system providing informational data of object included in image |
KR20200045668A (en) * | 2018-10-23 | 2020-05-06 | 오드컨셉 주식회사 | Method, apparatus and computer program for style recommendation |
-
2020
- 2020-07-06 KR KR1020200083042A patent/KR102366127B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160120674A (en) * | 2015-04-08 | 2016-10-18 | 주식회사 컴퍼니원헌드레드 | Clothes recommendation system using gpu |
JP2017084078A (en) * | 2015-10-27 | 2017-05-18 | 日本電信電話株式会社 | Style search apparatus, method, and program |
KR101768521B1 (en) * | 2016-05-02 | 2017-08-17 | 네이버 주식회사 | Method and system providing informational data of object included in image |
KR20200045668A (en) * | 2018-10-23 | 2020-05-06 | 오드컨셉 주식회사 | Method, apparatus and computer program for style recommendation |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102583308B1 (en) * | 2023-02-20 | 2023-09-27 | (주)어반유니온 | Service providing apparatus and method for fashion analysis using short-form contents |
Also Published As
Publication number | Publication date |
---|---|
KR102366127B1 (en) | 2022-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8983142B1 (en) | Programmatic silhouette attribute determination | |
US20200372193A1 (en) | Image/text-based design creating device and method | |
CN110956579B (en) | Text picture rewriting method based on generation of semantic segmentation map | |
CN109670591A (en) | A kind of training method and image matching method, device of neural network | |
CN109614925A (en) | Dress ornament attribute recognition approach and device, electronic equipment, storage medium | |
CN112100908B (en) | Clothing design method for generating countermeasure network based on multi-condition deep convolution | |
KR102586431B1 (en) | Method, apparatus and computer program for extracting property information of fashion item using joint coordinate | |
Guan et al. | Apparel-based deep learning system design for apparel style recommendation | |
KR102366127B1 (en) | Apparatus and method for classifying style based on deep learning using fashion attribute | |
KR20210138240A (en) | Method of generating item for avatar, computer program and computing device | |
JP2019109843A (en) | Classification device, classification method, attribute recognition device, and machine learning device | |
Liu et al. | Magic mirror: An intelligent fashion recommendation system | |
CN111191527B (en) | Attribute identification method, attribute identification device, electronic equipment and readable storage medium | |
CN110413818B (en) | Label paper recommending method, device, computer readable storage medium and computer equipment | |
Ileni et al. | Fast In-the-Wild Hair Segmentation and Color Classification. | |
KR102476884B1 (en) | Control method of server for recommending clothing information based on creator matching service | |
CN114821202B (en) | Clothing recommendation method based on user preference | |
KR102591835B1 (en) | Apparatus and Method for Classifying Attribute of Clothes based on Deep-Learning | |
KR102584289B1 (en) | Method, system and non-transitory computer-readable recording medium for recognizing attributes of products by using multi task learning | |
KR20210139119A (en) | System, method and program for recobnizing emotion of the object basen on deep-learning | |
Oyewusi et al. | AFRIFASHION1600: a contemporary African fashion dataset for computer vision | |
Wickramarathne et al. | Trenditex: An intelligent fashion designer | |
CN109919124B (en) | Method for quickly constructing human face action unit recognition data set | |
Vaidya et al. | Smart Wardrobe: A Deep Learning Model | |
CN117333601B (en) | Digital virtual clothing generation method and device based on artificial intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |