KR20220005323A - Apparatus and method for classifying style based on deep learning using fashion attribute - Google Patents

Apparatus and method for classifying style based on deep learning using fashion attribute Download PDF

Info

Publication number
KR20220005323A
KR20220005323A KR1020200083042A KR20200083042A KR20220005323A KR 20220005323 A KR20220005323 A KR 20220005323A KR 1020200083042 A KR1020200083042 A KR 1020200083042A KR 20200083042 A KR20200083042 A KR 20200083042A KR 20220005323 A KR20220005323 A KR 20220005323A
Authority
KR
South Korea
Prior art keywords
fashion
style
attribute
images
classification model
Prior art date
Application number
KR1020200083042A
Other languages
Korean (ko)
Other versions
KR102366127B1 (en
Inventor
한경식
전영승
진승완
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020200083042A priority Critical patent/KR102366127B1/en
Publication of KR20220005323A publication Critical patent/KR20220005323A/en
Application granted granted Critical
Publication of KR102366127B1 publication Critical patent/KR102366127B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Abstract

Disclosed are an apparatus for classifying styles based on deep learning using fashion attributes, which determines a style group corresponding to an input image by using fashion attributes extracted from the input image, and a method thereof. According to one embodiment of the present invention, the method comprises the following steps: collecting a plurality of first fashion images to which labels for preset fashion attributes are assigned; constructing an attribute extraction model for extracting the fashion attribute from an input image on the basis of the plurality of first fashion images; collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned; acquiring a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images on the basis of the attribute extraction model; constructing a style classification model for classifying an input image into at least one of a plurality of style groups on the basis of the first feature acquired for each of the plurality of second fashion images; and receiving an image to be classified and determining the style group corresponding to the image to be classified by using the style classification model.

Description

패션 속성을 이용한 딥러닝 기반 스타일 분류 장치 및 방법{APPARATUS AND METHOD FOR CLASSIFYING STYLE BASED ON DEEP LEARNING USING FASHION ATTRIBUTE}Apparatus and method for deep learning-based style classification using fashion attributes {APPARATUS AND METHOD FOR CLASSIFYING STYLE BASED ON DEEP LEARNING USING FASHION ATTRIBUTE}

본원은 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치 및 방법에 관한 것이다. 특히, 본원은 입력된 이미지로부터 추출된 패션 속성을 이용하여 이미지에 대응하는 스타일 그룹을 결정하는 딥러닝 기반 스타일 분류 모델 구축 기법에 관한 것이다.The present application relates to a deep learning-based style classification apparatus and method using fashion attributes. In particular, the present application relates to a deep learning-based style classification model building technique for determining a style group corresponding to an image by using a fashion attribute extracted from an input image.

옷은 사람에게 제공하는 체온유지와 피부 보호 등의 필수적 기능 이외에도, 그 사람을 표현하는 수단으로서 기능도 가지고 있다. 기후 변화에 적응할 수 있도록 옷을 입음으로써 신체를 보호하고, 자신에게 어울리는 옷차림을 함으로써 개성을 표현할 수 있는 것이다. 이러한 일상의 옷차림에서의 의복의 기능이 효과적으로 발휘될 때에 신체적으로 쾌적하며 심리적으로 만족스러운 의생활을 영위할 수 있다.In addition to essential functions such as maintaining body temperature and protecting the skin, clothes also have functions as a means of expressing that person. You can protect your body by wearing clothes that can adapt to climate change, and you can express your individuality by wearing clothes that suit you. When the function of clothes in everyday attire is effectively exerted, it is possible to lead a physically comfortable and psychologically satisfactory clothing life.

이와 관련하여, 의상과 연계된 스타일(style)의 개념은 패션 도메인서 중요한 개념이나, 스타일을 정확하게 정의하고 분류하기 위한 정량적 지표에 대하여 통용되는 기준은 정립된바 없다.In this regard, the concept of style related to clothes is an important concept in the fashion domain, but a commonly used standard for quantitative indicators for accurately defining and classifying styles has not been established.

따라서, 지금까지는 패션 업계에서 오랫동안 종사한 전문가들의 경험에 의존하여 스타일이 정의되거나 분류되는 것이 일반적이었고, 이에 따라 오랜 경력자들만이 스타일 정의 작업을 진행할 수 있으며, 그러한 전문가들조차 각기 다른 스타일 분류 기준을 가지고 스타일을 정의하거나 스타일 분류를 수행한다는 문제점이 있었다.Therefore, until now, it has been common to define or classify styles depending on the experience of experts who have been engaged in the fashion industry for a long time. There was a problem in defining styles or performing style classification with

즉, 경력이 풍부한 전문가들에 의해 각각의 패션 스타일의 개념이 정의되는 것이라 할지라도 객관적인 기준에 입각하여 정의되기 보단 전문가들 각각의 경험과 주관적인 견해에 의존할 수 밖에 없었다.In other words, even if the concept of each fashion style was defined by experts with abundant experience, it had no choice but to depend on the experience and subjective opinion of each expert rather than being defined based on objective standards.

이와 관련하여, 패션 도메인에서의 스타일과 관련하여 정량적인 정보를 활용하고 컴퓨터 비전(computer vision) 알고리즘을 활용하는 등 객관적인 기준을 도입하여 스타일을 정의하고 분류할 수 있는 새로운 방법론이 요구된다.In this regard, a new methodology is required to define and classify styles by introducing objective criteria such as using quantitative information related to styles in the fashion domain and using computer vision algorithms.

본원의 배경이 되는 기술은 한국등록특허공보 제10-1913750호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-1913750.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 스타일과 관련하여 정량적인 지표와 객관적인 기준으로 활용될 수 있는 패션 속성을 이미지로부터 추출하고, 추출된 패션 속성에 기반하여 스타일 그룹을 분류할 수 있는 딥러닝 기반 스타일 분류 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and it is possible to extract fashion attributes that can be used as quantitative indicators and objective standards in relation to styles from images, and classify style groups based on the extracted fashion attributes. An object of the present invention is to provide a deep learning-based style classification apparatus and method.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 스타일을 정의하는데 객관적으로 기능할 수 있는 패션 속성을 추출하는 딥러닝 모델과 이를 활용한 스타일 분류 모델 구축 방법을 제공하려는 것을 목적으로 한다.The present application aims to solve the problems of the prior art described above, and to provide a deep learning model for extracting fashion attributes that can objectively function in defining a style and a method for constructing a style classification model using the same.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하는 단계, 상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 단계, 상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하는 단계, 상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하는 단계, 상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 단계 및 분류 대상 이미지를 수신하고, 상기 스타일 분류 모델을 이용하여 상기 분류 대상 이미지에 대응하는 상기 스타일 그룹을 결정하는 단계를 포함할 수 있다.As a technical means for achieving the above technical task, the deep learning-based style classification method using fashion attributes according to an embodiment of the present application collects a plurality of first fashion images to which labels for preset fashion attributes are assigned. Step, building an attribute extraction model for extracting the fashion attribute from the input image based on the plurality of first fashion images, collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned , obtaining a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images based on the attribute extraction model; Building a style classification model for classifying an input image into at least one of a plurality of style groups based on the method, receiving a classification target image, and determining the style group corresponding to the classification target image by using the style classification model may include steps.

또한, 상기 패션 속성은, 입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함할 수 있다.Also, the fashion attribute may include a color attribute indicating a dominant color of clothes included in the input image and a main attribute indicating a predetermined characteristic reflected in the clothes.

또한, 상기 속성 추출 모델을 구축하는 단계는, 상기 색상 속성을 추출하는 제1추출 프로세스 및 상기 메인 속성을 추출하는 제2추출 프로세스를 구분하여 수행하는 상기 속성 추출 모델을 구축할 수 있다.In addition, the building of the attribute extraction model may include constructing the attribute extraction model in which a first extraction process for extracting the color attribute and a second extraction process for extracting the main attribute are separately performed.

또한, 상기 속성 추출 모델은, 입력된 이미지에 포함된 배경 영역의 색상 및 인물의 신체 영역의 색상이 상기 색상 속성에 반영되지 않도록 상기 배경 영역 및 상기 신체 영역을 제거한 후 상기 제1추출 프로세스를 수행할 수 있다.In addition, the attribute extraction model performs the first extraction process after removing the background region and the body region so that the color of the background region included in the input image and the color of the body region of the person are not reflected in the color attribute can do.

또한, 상기 메인 속성은, 의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함할 수 있다.In addition, the main properties may include clothes type properties (Type of Clothes), parts properties (Garments Parts), textile pattern properties (Textile Pattern), decoration properties (Decorations) and textile finishing properties (Textile Finishing).

또한, 상기 스타일 분류 모델을 구축하는 단계는, NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 단계를 포함할 수 있다.In addition, the step of constructing the style classification model includes a data matrix for the first feature through non-negative matrix factorization (NMF), a weight matrix associated with the fashion attribute, and an attribute matrix corresponding to the second fashion image and determining the plurality of style groups by dividing the .

또한, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은, 상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하는 단계를 포함할 수 있다.In addition, the deep learning-based style classification method using a fashion attribute according to an embodiment of the present application may include acquiring a second feature associated with an image characteristic for each of the plurality of second fashion images.

또한, 상기 스타일 분류 모델을 구축하는 단계는, 상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축할 수 있다.In addition, the building of the style classification model may include building the style classification model for classifying the input image into at least one of a plurality of style groups by further considering the second feature.

또한, 상기 스타일 분류 모델을 구축하는 단계는, 상기 복수의 스타일 그룹에 기초한 상기 복수의 제2패션 이미지에 대한 분류 결과, 상기 복수의 스타일 그룹 각각에 포함된 상기 제2패션 이미지에 대하여 도출된 상기 제1피처 사이의 유사도를 기초로 상기 복수의 스타일 그룹의 수를 결정하는 단계를 포함할 수 있다.In addition, the step of constructing the style classification model may include, as a result of classification of the plurality of second fashion images based on the plurality of style groups, the second fashion images included in each of the plurality of style groups are derived. and determining the number of the plurality of style groups based on the similarity between the first features.

한편, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법은, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하는 단계, 상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 단계, 상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하는 단계, 상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하는 단계 및 상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 단계를 포함할 수 있다.Meanwhile, the method for generating a deep learning-based style classification model using fashion attributes according to an embodiment of the present application includes collecting a plurality of first fashion images to which a label for a preset fashion attribute is assigned, the plurality of first fashion images. Building an attribute extraction model for extracting the fashion attribute from an input image based on the image, collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned, based on the attribute extraction model acquiring a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images; The method may include building a style classification model that classifies the style group into at least one of the style groups.

또한, 상기 패션 속성은, 입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함할 수 있다.Also, the fashion attribute may include a color attribute indicating a dominant color of clothes included in the input image and a main attribute indicating a predetermined characteristic reflected in the clothes.

또한, 상기 메인 속성은, 의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함할 수 있다.In addition, the main properties may include clothes type properties (Type of Clothes), parts properties (Garments Parts), textile pattern properties (Textile Pattern), decoration properties (Decorations) and textile finishing properties (Textile Finishing).

또한, 상기 스타일 분류 모델을 구축하는 단계는, NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 단계를 포함할 수 있다.In addition, the step of constructing the style classification model includes a data matrix for the first feature through non-negative matrix factorization (NMF), a weight matrix associated with the fashion attribute, and an attribute matrix corresponding to the second fashion image and determining the plurality of style groups by dividing the .

또한, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법은, 상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하는 단계를 포함할 수 있다.In addition, the method for generating a deep learning-based style classification model using a fashion attribute according to an embodiment of the present application may include acquiring a second feature associated with an image characteristic for each of the plurality of second fashion images. .

또한, 상기 스타일 분류 모델을 구축하는 단계는, 상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축할 수 있다.In addition, the building of the style classification model may include building the style classification model for classifying the input image into at least one of a plurality of style groups by further considering the second feature.

한편, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치는, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하고, 상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 속성 추출 모델 생성부, 상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하고, 상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하고, 상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 스타일 분류 모델 생성부 및 분류 대상 이미지를 수신하고, 상기 스타일 분류 모델을 이용하여 상기 분류 대상 이미지에 대응하는 상기 스타일 그룹을 결정하는 분류부를 포함할 수 있다.On the other hand, the deep learning-based style classification apparatus using a fashion attribute according to an embodiment of the present application collects a plurality of first fashion images to which a label for a preset fashion attribute is given, and based on the plurality of first fashion images an attribute extraction model generating unit that constructs an attribute extraction model that extracts the fashion attribute from the input image, collects a plurality of second fashion images to which a label for the fashion attribute is not assigned, and based on the attribute extraction model A first feature corresponding to the fashion attribute included in each of the plurality of second fashion images is obtained, and an input image is applied to a plurality of styles based on the first feature obtained for each of the plurality of second fashion images. A style classification model generating unit for constructing a style classification model classifying into at least one of the groups and a classification unit receiving a classification target image and determining the style group corresponding to the classification target image by using the style classification model have.

또한, 상기 스타일 분류 모델 생성부는, NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정할 수 있다.In addition, the style classification model generation unit divides the data matrix for the first feature into a weight matrix associated with the fashion attribute and an attribute matrix corresponding to the second fashion image through non-negative matrix factorization (NMF). The plurality of style groups may be determined.

또한, 상기 스타일 분류 모델 생성부는, 상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하고, 상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축할 수 있다.In addition, the style classification model generation unit acquires a second feature associated with an image characteristic for each of the plurality of second fashion images, and further considers the second feature and converts the input image into at least one of a plurality of style groups. It is possible to build the style classification model to classify.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.

전술한 본원의 과제 해결 수단에 의하면, 스타일과 관련하여 정량적인 지표와 객관적인 기준으로 활용될 수 있는 패션 속성을 이미지로부터 추출하고, 추출된 패션 속성에 기반하여 스타일 그룹을 분류할 수 있는 딥러닝 기반 스타일 분류 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, a deep learning-based method capable of extracting fashion attributes that can be used as quantitative indicators and objective standards in relation to styles from an image, and classifying style groups based on the extracted fashion attributes A style classification apparatus and method may be provided.

전술한 본원의 과제 해결 수단에 의하면, 스타일을 정의하는데 객관적으로 기능할 수 있는 패션 속성을 추출하는 딥러닝 모델과 이를 활용한 스타일 분류 모델 구축 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, it is possible to provide a deep learning model for extracting a fashion attribute that can objectively function in defining a style and a method for constructing a style classification model using the same.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.

도 1은 본원의 일 실시예에 따른 스타일 분석 시스템(10)에 대한 개략적인 구성도이다.
도 2는 본원의 일 실시예에 따른 속성 추출 모델의 세부 모델 유형 각각에 따른 성능 비교 결과를 나타낸 도표이다.
도 3은 NMF(Non-negative Matrix Factorization)를 설명하기 위한 개념도이다.
도 4 및 도 5는 본원의 일 실시예에 따른 병합(Merged) 유형의 스타일 분류 모델을 설명하기 위한 개념도이다.
도 6은 본원의 일 실시예에 따른 스타일 분류 모델의 성능을 종래의 분류 모델과 비교하여 나타낸 도표이다.
도 7a 및 도 7b는 본원의 일 실시예에 따른 스타일 분류 모델에 의해 생성된 복수의 스타일 그룹 각각에 대한 패션 속성과 대표 이미지를 나타낸 도표이다.
도8은 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치의 개략적인 구성도이다.
도 9는 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에 대한 동작 흐름도이다.
도 10은 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법에 대한 동작 흐름도이다.
1 is a schematic configuration diagram of a style analysis system 10 according to an embodiment of the present application.
2 is a table showing performance comparison results according to each detailed model type of the attribute extraction model according to an embodiment of the present application.
3 is a conceptual diagram for explaining non-negative matrix factorization (NMF).
4 and 5 are conceptual diagrams for explaining a merge-type style classification model according to an embodiment of the present application.
6 is a chart showing the performance of a style classification model according to an embodiment of the present application compared with a conventional classification model.
7A and 7B are diagrams illustrating fashion attributes and representative images for each of a plurality of style groups generated by a style classification model according to an embodiment of the present application.
8 is a schematic configuration diagram of a deep learning-based style classification apparatus using fashion attributes according to an embodiment of the present application.
9 is an operation flowchart of a method for generating a deep learning-based style classification model using a fashion attribute according to an embodiment of the present application.
10 is an operation flowchart of a deep learning-based style classification method using a fashion attribute according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when it is said that a member is positioned “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본원은 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치 및 방법에 관한 것이다. 특히, 본원은 입력된 이미지로부터 추출된 패션 속성을 이용하여 이미지에 대응하는 스타일 그룹을 결정하는 딥러닝 기반 스타일 분류 모델 구축 기법에 관한 것이다.The present application relates to a deep learning-based style classification apparatus and method using fashion attributes. In particular, the present application relates to a deep learning-based style classification model building technique for determining a style group corresponding to an image by using a fashion attribute extracted from an input image.

도 1은 본원의 일 실시예에 따른 스타일 분석 시스템(10)에 대한 개략적인 구성도이다.1 is a schematic configuration diagram of a style analysis system 10 according to an embodiment of the present application.

도 1을 참조하면, 본원의 일 실시예에 따른 스타일 분석 시스템(10)은, 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치(100)(이하, 스타일 분류 장치(100)'라 한다.) 및 사용자 단말(200)을 포함할 수 있다.Referring to Figure 1, the style analysis system 10 according to an embodiment of the present application, a deep learning-based style classification apparatus 100 using a fashion attribute according to an embodiment of the present application (hereinafter, style classification apparatus 100) ') and the user terminal 200 .

스타일 분류 장치(100) 및 사용자 단말(200) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The style classification apparatus 100 and the user terminal 200 may communicate with each other through the network 20 . The network 20 refers to a connection structure in which information exchange is possible between each node, such as terminals and servers, and an example of such a network 20 includes a 3rd Generation Partnership Project (3GPP) network, a long-term LTE (LTE) network. Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area) Network), a wifi network, a Bluetooth network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but are not limited thereto.

사용자 단말(200)은 예를 들면, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치일 수 있다.The user terminal 200 is, for example, a smartphone (Smartphone), a smart pad (SmartPad), a tablet PC and the like and PCS (Personal Communication System), GSM (Global System for Mobile communication), PDC (Personal Digital Cellular), PHS ( Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminals The same may be any type of wireless communication device.

스타일 분류 장치(100)는 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집할 수 있다. 예를 들어, 라벨이 부여된 복수의 제1패션 이미지란, 후술하는 미리 정의된 패션 속성을 나타내는 라벨(label)이 해당 패션 속성이 이미지 내에서 잘 드러나는 영역(위치)에 표시되는 상태로 미리 확보된 학습 데이터 셋을 의미하는 것일 수 있다. 예시적으로, 패션 속성에 대한 라벨은 경계 상자(Bounding box) 형태로 표시되는 것일 수 있다. 구체적으로, 본원의 일 실시예에 따르면, 제1패션 이미지는 후술하는 패션 속성의 세부 유형 중 색상 속성에 해당하는 라벨은 미부여되고 메인 속성에 해당하는 패션 속성에 대한 라벨이 부여된 이미지일 수 있다.The style classification apparatus 100 may collect a plurality of first fashion images to which labels for preset fashion attributes are assigned. For example, a plurality of first fashion images to which a label is assigned are secured in advance in a state in which a label indicating a predefined fashion attribute, which will be described later, is displayed in an area (position) where the corresponding fashion attribute is well exposed in the image. It may mean a trained training data set. For example, the label for the fashion attribute may be displayed in the form of a bounding box. Specifically, according to an embodiment of the present application, the first fashion image may be an image to which a label corresponding to a color attribute is not given among detailed types of fashion attributes to be described later and a label for a fashion attribute corresponding to the main attribute is assigned. have.

본원의 실시예에 관한 설명에서 패션 속성(fashion attributes)은, 입력된 이미지에 포함된 의상에 대한 패션 트렌드 분석에 활용되는 개별 요소를 의미하며, 입력된 이미지에 대한 스타일을 결정하기 위한 정량적인 지표로 기능할 수 있는 요소로 이해될 수 있다.In the description of the embodiments of the present application, fashion attributes refer to individual elements used in fashion trend analysis for clothes included in the input image, and are quantitative indicators for determining the style of the input image. It can be understood as an element that can function as

본원의 일 실시예에 따르면 패션 속성은, 입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 입력 이미지에 포함된 의상에 반영된 소정의 패션 관련 특징을 나타내는 메인 속성을 포함할 수 있다. 또한, 메인 속성은 의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함할 수 있다. 본원의 일 실시예에 따르면, 패션 속성은 132개의 메인 속성과 14개의 색상 속성을 포함하는 146개로 추출될 수 있으나, 이에만 한정되는 것은 아니며, 특히, 스타일이나 패션 트렌드는 시대의 흐름에 따라 변화하는 상대적 개념인바, 각각의 유형과 추출되는 속성의 수는 본원의 구현예에 따라 상이하게 결정될 수 있다.According to an embodiment of the present application, the fashion attribute may include a color attribute indicating a dominant color of clothes included in the input image and a main attribute indicating a predetermined fashion-related characteristic reflected in the clothes included in the input image. In addition, the main properties may include clothes type properties (Type of Clothes), part properties (Garments Parts), textile pattern properties (Textile Pattern), decoration properties (Decorations), and textile finishing properties (Textile Finishing). According to an embodiment of the present application, the fashion attribute may be extracted as 146 including 132 main attributes and 14 color attributes, but is not limited thereto. In particular, styles or fashion trends change with the passage of time. Since it is a relative concept, each type and the number of extracted attributes may be determined differently according to embodiments of the present application.

구체적으로 예를 들어 설명하면, 의상 유형 속성(Type of Clothes)에 해당하는 메인 속성은 아우터(Outer), 자켓(Jacket), 탑(Top), 바지(Pants), 치마(Skirt), 드레스(Dress) 등 입력된 이미지에 등장하는 의상의 유형 범주를 의미하는 패션 속성을 포함할 수 있다. 또한, 후술하는 도 7a 및 도 7b를 참조하면, 의상 유형 속성은 동일한 의상 유형 범주에 대하여도 세분화된 패션 속성을 포함할 수 있다. 예시적으로, 자켓(Jacket)에 대응하는 의상 유형 속성은 바이커 자켓(Jacket_Biker), 블레이저 자켓(Jacket_Blazer) 등의 하위 패션 속성을 포함할 수 있다.Specifically, to explain with an example, the main properties corresponding to the Type of Clothes are Outer, Jacket, Top, Pants, Skirt, and Dress. ), etc., may include a fashion attribute that means a category of clothing types appearing in the input image. Also, referring to FIGS. 7A and 7B , which will be described later, the clothing type attribute may include a subdivided fashion attribute even for the same clothing type category. For example, the clothing type attribute corresponding to the jacket may include lower fashion attributes such as a biker jacket (Jacket_Biker) and a blazer jacket (Jacket_Blazer).

또한, 부분 속성(Garments Parts)에 해당하는 메인 속성은 예시적으로, 이미지에 포함된 의상의 부분적 속성을 나타내며, 후술하는 도 7a 및 도 7b를 참조하면, 부분 속성은 의상의 목 부분의 특성과 연계된 패션 속성(Turtle_neck, Deep_V_neck 등)을 예시적으로 포함할 수 있다. 또한, 부분 속성은 소매 부분의 특성과 연계된 패션 속성(Long_sleeve, Bell_sleeve 등)을 예시적으로 포함할 수 있다.In addition, the main attribute corresponding to Garments Parts represents, by way of example, a partial attribute of clothes included in an image. Associated fashion attributes (Turtle_neck, Deep_V_neck, etc.) may be included as an example. Also, the partial attribute may exemplarily include fashion attributes (Long_sleeve, Bell_sleeve, etc.) associated with the characteristic of the sleeve part.

또한, 텍스타일 패턴 속성(Textile Pattern)에 해당하는 메인 속성은 예시적으로, 이미지에 포함된 의상의 디자인 패턴, 질감 또는 표면 특성을 나타내며, 후술하는 도 7a 및 도 7b를 참조하면, Floral, Baroque, Applique, Solid, Dot, Checked, Washed, Glitter 등으로 표현되는 패션 속성을 포함할 수 있다.In addition, the main property corresponding to the textile pattern property (Textile Pattern) represents, by way of example, a design pattern, texture, or surface characteristics of clothes included in the image, and with reference to FIGS. 7A and 7B to be described later, Floral, Baroque, It may include fashion attributes expressed as Applique, Solid, Dot, Checked, Washed, Glitter, and the like.

또한, 장식 속성(Decorations)에 해당하는 메인 속성은 예시적으로, 이미지에 포함된 의상에 부가적으로 부착되거나 의상 내의 부가적 요소로 구비된 장식에 대한 특성을 나타내며, 후술하는 도 7a 및 도 7b를 참조하면, 벨트 착용 여부(Belted), 주머니(Pocket) 등 의상의 부가적 요소, 장식 액세서리 존부 등과 연계된 패션 속성을 포함할 수 있다.In addition, the main attribute corresponding to the decorations represents, by way of example, the characteristics of decorations additionally attached to clothes included in the image or provided as additional elements in the clothes, which will be described later in FIGS. 7A and 7B . Referring to , it may include fashion attributes related to whether or not a belt is worn, additional elements of clothes such as a pocket, and the presence or absence of decorative accessories.

또한, 텍스타일 마감 속성(Textile Finishing)에 해당하는 메인 속성은 예시적으로, 후술하는 도 7a 및 도 7b을 참조하면, Rivet, Ruffle, Pleat, Crochet, Lapel 등 입력된 이미지에 포함된 의상에서 파악되는 직물의 마감 처리 특성에 대응되는 패션 속성을 포함할 수 있다.In addition, the main property corresponding to the textile finishing property is illustratively, and referring to FIGS. 7A and 7B to be described later, Rivet, Ruffle, Pleat, Crochet, Lapel, etc. are identified from the clothes included in the input image. It may include a fashion attribute corresponding to the finishing properties of the fabric.

상술한 메인 속성의 하위 유형 범주인 의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing) 각각은 통상적인 패션 디자인 프로세스 또는 의복 디자인 과정에서 고려되는 6단계 프로세스 각각에 대응되도록 설정된 것일 수 있다. 다만, 상술한 메인 속성의 범주는 본원의 구현예에 따라 다양하게 가변될 수 있다.Each of the subtype categories of the above-mentioned main properties, such as Type of Clothes, Garments Parts, Textile Pattern, Decorations, and Textile Finishing, is a typical It may be set to correspond to each of the six-step processes considered in the fashion design process or the apparel design process. However, the scope of the above-described main attribute may be variously changed according to the embodiment of the present application.

또한, 스타일 분류 장치(100)는 수집된 복수의 제1패션 이미지(I1)에 기초하여, 소정의 이미지가 입력되면 입력된 이미지에서 패션 속성을 추출하는 속성 추출 모델(도 1을 참조하면, Attribute Detection, M1)을 구축할 수 있다.In addition, the style classification apparatus 100 is an attribute extraction model that extracts fashion attributes from the input image when a predetermined image is input based on a plurality of collected first fashion images I 1 (refer to FIG. 1 , Attribute Detection, M 1 ) can be built.

본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 입력된 이미지로부터 색상 속성을 추출하는 제1추출 프로세스 및 메인 속성을 추출하는 제2추출 프로세스를 구분하여 수행하는 속성 추출 모델(M1)을 구축할 수 있다. 또한, 본원의 일 실시예에 따르면, 속성 추출 모델(M1)은 입력된 이미지에 포함된 배경 영역의 색상 및 인물의 신체 영역의 색상(예를 들면, 인물의 피부색 등)이 색상 속성에 반영되지 않도록 입력된 이미지에서 배경 영역 및 신체 영역을 제거한 후 제1추출 프로세스를 수행하도록 구현될 수 있다.According to an embodiment of the present application, the style classification apparatus 100 separates and performs a first extraction process for extracting a color attribute from an input image and a second extraction process for extracting a main attribute (M 1 ) can be built In addition, according to an embodiment of the present application, in the attribute extraction model M 1 , the color of the background region included in the input image and the color of the body region of the person (eg, the skin color of the person, etc.) are reflected in the color attribute It may be implemented to perform the first extraction process after removing the background region and the body region from the input image so as not to do so.

구체적으로, 스타일 분류 장치(100)에 의해 구축되는 속성 추출 모델(M1)은 의미론적 영역 분할(Semantic Segmentation) 기법에 기초하여 배경 영역 및 신체 영역을 제거할 수 있다. 예시적으로, 속성 추출 모델(M1)은 의미론적 영역 분할을 위해 미리 확보된 데이터 셋(예를 들면, COCO 데이터 셋)에 기초하여 학습된 Mask R-CNN 기반의 인공지능 모델을 포함할 수 있다. Specifically, the attribute extraction model M 1 constructed by the style classification apparatus 100 may remove a background region and a body region based on a semantic segmentation technique. Illustratively, the attribute extraction model (M 1 ) may include an artificial intelligence model based on Mask R-CNN trained based on a data set (eg, COCO data set) secured in advance for semantic domain segmentation. have.

또한, 스타일 분류 장치(100)에 의해 구축되는 속성 추출 모델(M1)은 미리 설정된 색상 추출 알고리즘에 기초하여 배경 영역 및 신체 영역이 제거된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성을 추출하는 제1추출 프로세스를 수행할 수 있다. 예를 들어, 속성 추출 모델(M1)이 보유한 색상 추출 알고리즘은 GitHub 색상 추출기와 연계된 것일 수 있으나, 이에만 한정되는 것은 아니며, 종래에 이미 공지되었거나 향후 개발되는 다양한 색상 추출 알고리즘이 적용될 수 있다.In addition, the attribute extraction model M 1 built by the style classification apparatus 100 determines the color attribute representing the dominant color of the clothes included in the image from which the background region and the body region are removed based on a preset color extraction algorithm. A first extraction process of extracting may be performed. For example, the color extraction algorithm possessed by the attribute extraction model (M 1 ) may be linked to the GitHub color extractor, but is not limited thereto, and various color extraction algorithms previously known or developed in the future may be applied. .

도 2는 본원의 일 실시예에 따른 속성 추출 모델의 세부 모델 유형 각각에 따른 성능 비교 결과를 나타낸 도표이다.2 is a table showing performance comparison results according to each detailed model type of the attribute extraction model according to an embodiment of the present application.

도 2를 참조하면, 스타일 분류 장치(100)는 Faster RCNN 또는 RetinaNet의 모델 유형을 기초로 속성 추출 모델(M1)을 구축할 수 있다. 또한, 도 2를 참조하면, 속성 추출 모델(M1)은 ResNET-50 또는 ResNet-101을 백본(Backbone)으로 하여 구축된 것일 수 있으나, 이에만 한정되는 것은 아니다.Referring to FIG. 2 , the style classification apparatus 100 may build an attribute extraction model M 1 based on a model type of Faster RCNN or RetinaNet. In addition, referring to FIG. 2 , the attribute extraction model (M 1 ) may be constructed using ResNET-50 or ResNet-101 as a backbone, but is not limited thereto.

또한, 도 2를 참조하면, ResNet-101을 백본(Backbone)으로 하는 RetinaNet 기반의 속성 추출 모델(M1)이 다른 모델 유형 및 백본의 조합을 기반으로 생성된 속성 추출 모델(M1) 대비 정밀도(Precision), 재현율(Recall) 및 F-1 점수(F-1 score) 측면에서의 우수한 성능을 보이는 것을 확인할 수 있다.Also, Referring to Figure 2, ResNet-101 to RetinaNet based attribute extraction model for the backbone (Backbone) (M 1) of different model types and the attribute extraction model generated based on a combination of the backbone (M 1) against the precision It can be seen that it shows excellent performance in terms of (Precision), recall (Recall), and F-1 score.

또한, 스타일 분류 장치(100)는 전술한 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지(I2)를 수집할 수 있다. 예시적으로, 제2패션 이미지(I2)는 상술한 제1패션 이미지(I1)에 비하여 많은 수의 이미지를 포함하도록 수집되는 것이 바람직할 수 있으나, 이에만 한정되는 것은 아니다.Also, the style classification apparatus 100 may collect a plurality of second fashion images I 2 to which a label for the above-described fashion attribute is not applied. Illustratively, it may be desirable to collect the second fashion image I 2 to include a larger number of images compared to the above-described first fashion image I 1 , but the present invention is not limited thereto.

본원의 일 실시예에 따르면, 제2패션 이미지는 소정의 기간 동안 수집된 런웨이 이미지일 수 있다. 예시적으로, 제2패션 이미지는 2010년 S/S 시즌부터 2019년 F/W 시즌까지 수집된 302,772 장의 런웨이 이미지를 포함할 수 있으나, 이에만 한정되는 것은 아니다.According to an embodiment of the present application, the second fashion image may be a runway image collected for a predetermined period. Illustratively, the second fashion image may include 302,772 runway images collected from the 2010 S/S season to the 2019 F/W season, but is not limited thereto.

또한, 스타일 분류 장치(100)는, 앞서 구축된 속성 추출 모델(M1)에 기초하여 수집된 복수의 제2패션 이미지(I2) 각각에 포함된 패션 속성에 해당하는 제1피처를 획득할 수 있다. 달리 말해, 스타일 분류 장치(100)는 속성 추출 모델(M1)을 이용해 제2패션 이미지(I2)로부터 제1피처인 패션 속성을 이미지 별로 추출할 수 있다.In addition, the style classification apparatus 100 may obtain a first feature corresponding to a fashion attribute included in each of the plurality of second fashion images I 2 collected based on the previously constructed attribute extraction model M 1 . can In other words, the style classification apparatus 100 may extract the fashion attribute, which is the first feature, from the second fashion image I 2 for each image by using the attribute extraction model M 1 .

또한 스타일 분류 장치(100)는 복수의 제2패션 이미지(I2) 각각에 대하여 획득된 제1피처에 기초하여, 적어도 하나의 이미지가 입력되면 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델(도 1을 참조하면, Style Classification, M2)을 구축할 수 있다.In addition, the style classification apparatus 100 classifies the input image into at least one of a plurality of style groups when at least one image is input based on the first feature obtained for each of the plurality of second fashion images I 2 . A style classification model (refer to FIG. 1 , Style Classification, M 2 ) may be built.

본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 제1피처에 대한 데이터 행렬을 패션 속성과 연계된 가중치 행렬 및 제2패션 이미지에 대응하는 속성 행렬로 분할하는 NMF(Non-negative Matrix Factorization)를 통해 복수의 스타일 그룹을 결정할 수 있다.According to an embodiment of the present application, the style classification apparatus 100 divides the data matrix for the first feature into a weight matrix associated with a fashion attribute and an attribute matrix corresponding to the second fashion image NMF (Non-negative Matrix Factorization) ) to determine multiple style groups.

도 3은 NMF(Non-negative Matrix Factorization)를 설명하기 위한 개념도이다.3 is a conceptual diagram for explaining non-negative matrix factorization (NMF).

도 3을 참조하면, 본원에서의 NMF는 비지도 학습 알고리즘에서 활용되는 비음수 행렬 분해 기법으로 전체 데이터를 가중치 행렬 및 속성 행렬의 곱으로 표현하는 행렬 파라미터 기반의 분할 기법을 의미하며, 데이터에 있는 유용한 패턴(예를 들면, 본원에서의 스타일 그룹 각각의 구분되는 특성)을 탐색하는데 활용될 수 있다. 이러한 NMF는 하기 식 1로 표현될 수 있다.Referring to FIG. 3 , NMF in the present application is a non-negative matrix decomposition technique used in an unsupervised learning algorithm, and refers to a matrix parameter-based partitioning technique that expresses the entire data as a product of a weight matrix and an attribute matrix. It can be utilized to search for useful patterns (eg, distinct characteristics of each style group herein). Such NMF may be expressed by Equation 1 below.

[식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서, V는 전술한 전체 데이터를 의미하며, W는 가중치 행렬을, H는 속성 행렬을 각각 의미할 수 있으며, 본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 NMF를 통해 제1피처에 대한 데이터 행렬(V)을 패션 속성(fashion attributes)과 연계된 가중치 행렬(W) 및 제2패션 이미지에 대응하는 속성 행렬(H)로 분할할 수 있다. 이와 관련하여, 가중치 행렬을 통하여는 스타일 그룹에 대한 주요 패션 속성을 확인할 수 있고, 속성 행렬을 통하여는 해당 스타일 그룹으로 그룹핑된 이미지(제2패션 이미지)에 대한 정보를 확인할 수 있다.Here, V denotes the entire data described above, W denotes a weight matrix, and H denotes an attribute matrix, respectively. According to an embodiment of the present application, the style classification apparatus 100 performs the first feature through NMF. It is possible to divide the data matrix V for V into a weight matrix W associated with fashion attributes and an attribute matrix H corresponding to the second fashion image. In this regard, the main fashion attribute of the style group may be confirmed through the weight matrix, and information on the image (the second fashion image) grouped into the corresponding style group may be confirmed through the attribute matrix.

또한, 본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 복수의 스타일 그룹에 기초한 복수의 제2패션 이미지(I2)에 대한 분류 결과, 복수의 스타일 그룹 각각에 포함된 제2패션 이미지(I2)의 적절성(예를 들면, 서로 다른 스타일 그룹 간에 패션 속성이 확연하게 구분되는 정도, 동일 스타일 그룹으로 분류된 패션 이미지 간의 유사 정도 등)에 기초하여 복수의 스타일 그룹의 수를 결정할 수 있다. 예시적으로, 스타일 분류 장치(100)는 복수의 스타일 그룹 각각에 포함된 제2패션 이미지(I2)에 대하여 도출된 제1피처 사이의 스타일 그룹 내의 유사도를 기초로 복수의 스타일 그룹의 수를 결정할 수 있다. 본원의 일 실시예에 따르면, 복수의 스타일 그룹은 25개 내지 30개 중 어느 하나의 수의 스타일 그룹을 포함할 수 있으나, 이에만 한정되는 것은 아니다.In addition, according to an embodiment of the present application, the style classification apparatus 100 classifies the plurality of second fashion images I 2 based on the plurality of style groups, and as a result, the second fashion image included in each of the plurality of style groups. The number of a plurality of style groups can be determined based on the adequacy of (I 2 ) (eg, the degree to which fashion attributes are clearly distinguished between different style groups, the degree of similarity between fashion images classified into the same style group, etc.) have. Exemplarily, the style classification apparatus 100 determines the number of the plurality of style groups based on the similarity in the style group between the first features derived with respect to the second fashion image I 2 included in each of the plurality of style groups. can decide According to an embodiment of the present disclosure, the plurality of style groups may include any one of 25 to 30 style groups, but is not limited thereto.

또한, 스타일 분류 장치(100)는 분류 대상 이미지를 수신할 수 있다. 본원의 일 실시예에 따르면, 스타일 분류 장치(100)는 사용자 단말(200)로부터 분류 대상 이미지를 수신하는 것일 수 있다. 이해를 돕기 위해 예시하면, 사용자 단말(200)의 사용자는 스타일을 확인하려는 특정 패션 이미지, 사용자 자신이 착용한 의상을 포함하는 이미지 등을 스타일 분류 장치(100)로 인가(제공)하여, 해당 이미지에 대한 스타일 그룹 분류 결과를 획득할 수 있다.Also, the style classification apparatus 100 may receive a classification target image. According to an embodiment of the present application, the style classification apparatus 100 may receive a classification target image from the user terminal 200 . As an example to help understanding, the user of the user terminal 200 applies (provides) a specific fashion image to check a style, an image including clothes worn by the user himself, to the style classification apparatus 100 (provides), and the corresponding image It is possible to obtain a style group classification result for .

또한, 스타일 분류 장치(100)는 앞서 구축된 스타일 분류 모델(M2)에 기초하여 수신된 분류 대상 이미지에 대응하는 스타일 그룹을 결정할 수 있다. 또한, 스타일 분류 장치(100)는 결정된 분류 대상 이미지에 대응하는 스타일 그룹에 대한 정보(예를 들면, 스타일 그룹에 대한 식별 정보, 결정된 스타일 그룹을 설명할 수 있는 세부 정보, 해당 스타일 그룹에 포함되는 예시 이미지 등)를 사용자 단말(200)로 제공(전송)할 수 있다.Also, the style classification apparatus 100 may determine a style group corresponding to the received classification target image based on the previously constructed style classification model M 2 . In addition, the style classification apparatus 100 provides information on the style group corresponding to the determined classification target image (eg, identification information on the style group, detailed information for describing the determined style group, and the style group included in the style group). example image, etc.) may be provided (transmitted) to the user terminal 200 .

구체적으로, 스타일 분류 장치(100)는 수신된 분류 대상 이미지로부터 속성 추출 모델(M1)에 기초하여 분류 대상 이미지에 반영된 패션 속성에 해당하는 제1피처를 획득하고, 스타일 분류 모델(M2)을 통해 획득된 제1피처에 대응하는 스타일 그룹을 결정할 수 있다.Specifically, the style classification apparatus 100 acquires the first feature corresponding to the fashion attribute reflected in the classification target image based on the attribute extraction model (M 1 ) from the received classification target image, and the style classification model (M 2 ) It is possible to determine a style group corresponding to the first feature obtained through .

이하에서는, 도 4 및 도 5를 참조하여 이미지에서 추출 가능한 이미지 특성(이미지 자체의 특성)과 연계된 제2피처를 전술한 패션 속성에 해당하는 제1피처와 함께 학습하여 구축되는 병합(Merged) 유형의 스타일 분류 모델(M2')을 설명하고, 도 6을 참조하여 전술한 제1피처를 기초로 스타일 분류를 수행하는 스타일 분류 모델(M2)과 병합(Merged) 유형의 스타일 분류 모델(M2')의 성능을 종래의 다른 분류 기법과 대비하여 비교하도록 한다.Hereinafter, with reference to FIGS. 4 and 5 , a second feature linked with an image characteristic (a characteristic of the image itself) that can be extracted from an image is learned together with the first feature corresponding to the above-described fashion attribute (Merged) The style classification model (M 2 ) of the type is described, and the style classification model (M 2 ) that performs style classification based on the first feature described above with reference to FIG. 6 and the merged type style classification model ( Let 's compare the performance of M 2 ') with other conventional classification techniques.

도 4 및 도 5는 본원의 일 실시예에 따른 병합(Merged) 유형의 스타일 분류 모델을 설명하기 위한 개념도이다.4 and 5 are conceptual diagrams for explaining a merge-type style classification model according to an embodiment of the present application.

도 4 및 도 5를 참조하면, 스타일 분류 장치(100)는 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득할 수 있다. 또한, 스타일 분류 장치(100)는 획득한 제2피처를 속성 추출 모델(M1)에 의해 획득된 제1피처와 함께 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 병합(Merged) 유형의 스타일 분류 모델(M2')을 구축할 수 있다.4 and 5 , the style classification apparatus 100 may acquire a second feature associated with an image characteristic of each of a plurality of second fashion images. In addition, the style classification apparatus 100 considers the acquired second feature together with the first feature acquired by the attribute extraction model M 1 to classify the input image into at least one of a plurality of style groups. A style classification model (M 2 ') of the type can be built.

특히, 도 5를 참조하면, 본원의 일 실시예에 따른 병합(Merged) 유형의 스타일 분류 모델(M2')은 Fine-tuned Resnet-50에 기초하여 2,048 개의 제2피처를 추출하고, 앞서 구축된 속성 추출 모델(M1)에 기초하여 추출되어 one-hot encoding에 기초하여 변환된 146개의 제1피처를 로지스틱 회귀(Logistic Regression)를 통해 종합 고려하여 복수의 제2패션 이미지 각각에 대한 스타일 그룹에의 분류를 수행할 수 있다.In particular, referring to FIG. 5 , the merged type style classification model (M 2 ') according to an embodiment of the present application extracts 2,048 second features based on Fine-tuned Resnet-50, and builds previously A style group for each of a plurality of second fashion images by comprehensively considering 146 first features extracted based on the obtained attribute extraction model (M 1 ) and transformed based on one-hot encoding through logistic regression classification can be performed.

도 6은 본원의 일 실시예에 따른 스타일 분류 모델의 성능을 종래의 분류 모델과 비교하여 나타낸 도표이다. 특히, 도 6의 Our model(Merged) 행은 본원에서 개시하는 병합(Merged) 유형의 로지스틱 회귀 기반의 스타일 분류 모델(M2')의 성능을 나타내고, 도 6의 Our model(Attribute) 행은 본원에서 개시하는 패션 속성을 기초로 한 스타일 분류 모델(M2)의 성능을 나타낸 것일 수 있다. 또한, 도 6에 도시된 스타일 분류 모델의 성능 평가 비교 시뮬레이션은 종래의 FashionStyle 14 데이터 셋을 활용하여 수행된 것일 수 있다.6 is a chart showing the performance of a style classification model according to an embodiment of the present application compared with a conventional classification model. In particular, the Our model (Merged) row of FIG. 6 shows the performance of the merged type logistic regression-based style classification model (M 2 ') disclosed herein, and the Our model (Attribute) row of FIG. 6 shows the performance of the present application. It may indicate the performance of the style classification model (M 2 ) based on the fashion attribute disclosed in . In addition, the performance evaluation comparison simulation of the style classification model shown in FIG. 6 may be performed using the conventional FashionStyle 14 data set.

도 6을 참조하면, 본원의 일 실시예에 따른 패션 속성을 기초로 한 스타일 분류 모델(M2)의 성능은 종래의 VGG-19, Xception, Inception v3, VGG-16 등의 분류 모델 대비 향상되며, 병합(Merged) 유형의 스타일 분류 모델(M2')의 성능은 종래의 VGG-19, Xception, Inception v3, VGG-16 및 ResNet-50의 성능 대비 향상되는 것을 확인할 수 있다. 6, the performance of the style classification model (M 2 ) based on the fashion attribute according to an embodiment of the present application is improved compared to the conventional classification models such as VGG-19, Xception, Inception v3, VGG-16, , it can be seen that the performance of the merged-type style classification model (M 2 ') is improved compared to that of the conventional VGG-19, Xception, Inception v3, VGG-16 and ResNet-50.

이와 관련하여, ResNet-50은 이미지에 반영된 디자이너 등의 전문가가 패션 트렌드 분석, 디자인 프로세스 등에서 고려하는 본원에서의 패션 속성에 관한 특성을 학습하지 못하고, 패션 속성을 기초로 한 스타일 분류 모델(M2)은 이미지의 텍스쳐 특성 등의 이미지 자체의 속성을 학습하지 못한다는 점에서 패션 속성에 관한 특성과 이미지 자체의 속성을 모두 학습하는 병합(Merged) 유형의 스타일 분류 모델(M2')의 분류 성능이 가장 우수한 것을 확인할 수 있다. 구체적으로, 병합(Merged) 유형의 스타일 분류 모델(M2')은 평균 78%의 분류 정확도를 보여 종래의 ResNet-50 대비 6%p의 분류 정확도 측면에서의 성능 향상을 보이는 것을 확인할 수 있다.In this regard, ResNet-50 does not learn the characteristics of fashion attributes in this institute that experts such as designers reflected in the image consider in fashion trend analysis, design process, etc., and a style classification model (M 2 ) based on fashion attributes. ) is the classification performance of a merge-type style classification model (M 2 ') that learns both the characteristics of the fashion attribute and the attributes of the image itself in that it does not learn the attributes of the image itself, such as the texture characteristics of the image. You can see this is the best. Specifically, it can be seen that the merged-type style classification model (M 2 ') shows an average classification accuracy of 78%, which improves the performance in terms of classification accuracy of 6%p compared to the conventional ResNet-50.

도 7a 및 도 7b는 본원의 일 실시예에 따른 스타일 분류 모델에 의해 생성된 복수의 스타일 그룹 각각에 대한 패션 속성과 대표 이미지를 나타낸 도표이다.7A and 7B are diagrams illustrating fashion attributes and representative images for each of a plurality of style groups generated by a style classification model according to an embodiment of the present application.

도 7a 및 도 7b를 참조하면, 스타일 분류 장치(100)는 Group 1 내지 Group 25를 포함하는 25개의 복수의 스타일 그룹을 기초로 입력된 이미지에 대한 스타일 분류를 수행하도록 동작할 수 있다. 특히, 도 7a 및 도 7b는 스타일 그룹 각각에 대한 주요 패션 속성 및 해당 스타일 그룹으로 분류된 패션 이미지를 예시적으로 나타낸 것일 수 있다.7A and 7B , the style classification apparatus 100 may operate to perform style classification on an input image based on a plurality of 25 style groups including Group 1 to Group 25 . In particular, FIGS. 7A and 7B may exemplarily show main fashion attributes for each style group and fashion images classified into the corresponding style group.

또한, 도 7a 및 도 7b를 참조하면, 스타일 분류 장치(100)는 스타일 그룹 각각에 대응하는 패션 속성에 기초하여 스타일 그룹 각각의 스타일 명칭을 결정할 수 있다. 본원의 일 실시예에 따르면, 스타일 그룹 각각의 스타일 명칭은 적어도 둘 이상의 패션 속성 각각에 대응되는 표현을 포함하는 혼합형 스타일 명칭으로 결정될 수 있다. 예시적으로 혼합형 스타일 명칭은 Autumn Minimal, Floral Chic 등일 수 있다. 이와 관련하여, 스타일에 대한 정의가 엄밀하게 이루어지기 어려운 패션 분야의 모호성을 고려할 때, 혼합형 스타일 명칭은 패션 디자이너 등의 전문가의 요구와 패션 스타일의 다양성을 반영할 수 있는 이점이 있다.Also, referring to FIGS. 7A and 7B , the style classification apparatus 100 may determine a style name of each style group based on a fashion attribute corresponding to each style group. According to an embodiment of the present disclosure, the style name of each style group may be determined as a mixed style name including an expression corresponding to each of at least two or more fashion attributes. Exemplarily, the mixed style name may be Autumn Minimal, Floral Chic, and the like. In this regard, considering the ambiguity of the fashion field in which it is difficult to define a style strictly, the mixed style name has an advantage in that it can reflect the needs of experts such as fashion designers and the diversity of fashion styles.

도8은 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치의 개략적인 구성도이다.8 is a schematic configuration diagram of a deep learning-based style classification apparatus using fashion attributes according to an embodiment of the present application.

도 8을 참조하면, 스타일 분류 장치(100)는 속성 추출 모델 생성부(110), 스타일 분류 모델 생성부(120) 및 분류부(130)를 포함할 수 있다.Referring to FIG. 8 , the style classification apparatus 100 may include an attribute extraction model generation unit 110 , a style classification model generation unit 120 , and a classification unit 130 .

속성 추출 모델 생성부(110)는, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지(I1)를 수집할 수 있다. 또한, 속성 추출 모델 생성부(110)는, 수집된 복수의 제1패션 이미지(I1)에 기초하여 입력된 이미지에서 패션 속성을 추출하는 속성 추출 모델(M1)을 구축할 수 있다.The attribute extraction model generation unit 110 may collect a plurality of first fashion images I 1 to which a label for a preset fashion attribute is assigned. Also, the attribute extraction model generator 110 may build an attribute extraction model M 1 for extracting fashion attributes from the input image based on the plurality of collected first fashion images I 1 .

스타일 분류 모델 생성부(120)는, 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지(I2)를 수집할 수 있다. 또한, 스타일 분류 모델 생성부(120)는, 속성 추출 모델(M1)에 기초하여 수집된 복수의 제2패션 이미지(I2) 각각에 포함된 패션 속성에 해당하는 제1피처를 획득할 수 있다. 또한, 스타일 분류 모델 생성부(120)는 복수의 제2패션 이미지(I2) 각각에 대하여 획득된 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델(M2)을 구축할 수 있다.The style classification model generator 120 may collect a plurality of second fashion images I 2 to which a label for a fashion attribute is not applied. Also, the style classification model generation unit 120 may acquire a first feature corresponding to a fashion attribute included in each of the plurality of second fashion images I 2 collected based on the attribute extraction model M 1 . have. In addition, the style classification model generation unit 120 classifies the input image into at least one of a plurality of style groups based on the first feature obtained for each of the plurality of second fashion images I 2 , the style classification model M 2 ) can be built.

또한, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득할 수 있다. 또한, 스타일 분류 모델 생성부(120)는, 패션 속성에 해당하는 제1피처와 획득된 제2피처를 함께 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 병합(Merged) 유형의 스타일 분류 모델(M2')을 구축할 수 있다.Also, the style classification model generator 120 may acquire a second feature associated with an image characteristic of each of the plurality of second fashion images. Also, the style classification model generator 120 classifies the input image into at least one of a plurality of style groups by considering the first feature corresponding to the fashion attribute and the acquired second feature together. A classification model (M 2 ') can be built.

분류부(130)는, 분류 대상 이미지를 수신할 수 있다. 또한, 분류부(130)는 스타일 분류 모델(M2) 또는 병합(Merged) 유형 스타일 분류 모델(M2')을 이용하여 분류 대상 이미지에 대응하는 스타일 그룹을 결정할 수 있다.The classification unit 130 may receive a classification target image. Also, the classifier 130 may determine a style group corresponding to the classification target image by using the style classification model M 2 or the merged type style classification model M 2 ′.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.

도 9는 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에 대한 동작 흐름도이다.9 is an operation flowchart of a method for generating a deep learning-based style classification model using a fashion attribute according to an embodiment of the present application.

도 9에 도시된 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법은 앞서 설명된 스타일 분류 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 스타일 분류 장치(100)에 대하여 설명된 내용은 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for generating a deep learning-based style classification model using the fashion attribute shown in FIG. 9 may be performed by the style classification apparatus 100 described above. Accordingly, even if omitted below, the description of the style classification apparatus 100 may be equally applied to the description of the deep learning-based style classification model generation method using the fashion attribute.

도 9를 참조하면, 단계 S11에서, 속성 추출 모델 생성부(110)는, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지(I1)를 수집할 수 있다.Referring to FIG. 9 , in step S11 , the attribute extraction model generation unit 110 may collect a plurality of first fashion images I 1 to which a label for a preset fashion attribute is assigned.

다음으로, 단계 S12에서, 속성 추출 모델 생성부(110)는, 복수의 제1패션 이미지(I1)에 기초하여 입력된 이미지에서 패션 속성을 추출하는 속성 추출 모델(M1)을 구축할 수 있다.Next, in step S12 , the attribute extraction model generating unit 110 may build an attribute extraction model M 1 for extracting fashion attributes from the input image based on the plurality of first fashion images I 1 . have.

다음으로, 단계 S13에서, 스타일 분류 모델 생성부(120)는, 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지(I2)를 수집할 수 있다.Next, in step S13 , the style classification model generation unit 120 may collect a plurality of second fashion images I 2 to which a label for a fashion attribute is not assigned.

다음으로, 단계 S14에서, 스타일 분류 모델 생성부(120)는, 속성 추출 모델(M1)에 기초하여 복수의 제2패션 이미지(I2) 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득할 수 있다.Next, in step S14 , the style classification model generating unit 120 , on the basis of the attribute extraction model M 1 , a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images I 2 . can be obtained.

다음으로, 단계 S15에서, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지(I2) 각각에 대한 이미지 특성과 연계된 제2피처를 획득할 수 있다.Next, in step S15 , the style classification model generator 120 may acquire a second feature associated with an image characteristic of each of the plurality of second fashion images I 2 .

다음으로, 단계 S16에서, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지(I2) 각각에 대하여 획득된 제1피처 및 제2피처 중 적어도 하나에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축할 수 있다.Next, in step S16 , the style classification model generating unit 120 generates a plurality of input images based on at least one of the first and second features acquired for each of the plurality of second fashion images I 2 . A style classification model that classifies at least one of the style groups of

구체적으로, 단계 S16에서 스타일 분류 모델 생성부(120)는 패션 속성에 해당하는 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델(M2) 또는 제1피처와 제2피처를 함께 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 병합(Merged) 유형의 스타일 분류 모델(M2')을 구축할 수 있다.Specifically, in step S16, the style classification model generation unit 120 classifies the input image into at least one of a plurality of style groups based on the first feature corresponding to the fashion attribute (M 2 ) or the first feature. A merged type style classification model M 2 ′ that classifies an input image into at least one of a plurality of style groups may be constructed by considering the and second features together.

상술한 설명에서, 단계 S11 내지 S16은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S16 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between steps may be changed.

도 10은 본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법에 대한 동작 흐름도이다.10 is an operation flowchart of a deep learning-based style classification method using a fashion attribute according to an embodiment of the present application.

도 10에 도시된 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은 앞서 설명된 스타일 분류 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 스타일 분류 장치(100)에 대하여 설명된 내용은 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법에 대한 설명에도 동일하게 적용될 수 있다.The deep learning-based style classification method using the fashion attribute shown in FIG. 10 may be performed by the style classification apparatus 100 described above. Accordingly, even if omitted below, the description of the style classification apparatus 100 may be equally applied to the description of the deep learning-based style classification method using the fashion attribute.

특히, 도 10에 도시된 딥러닝 기반 스타일 분류 방법의 단계 S21 내지 단계 S26는 도 9를 참조하여 상술한 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에서의 단계 S11 내지 단계 S16에 각각 대응되는 것일 수 있다.In particular, steps S21 to S26 of the deep learning-based style classification method shown in FIG. 10 correspond to steps S11 to S16 in the deep learning-based style classification model generation method using the fashion attribute described above with reference to FIG. 9, respectively. it could be

도 10을 참조하면, 단계 S21에서, 속성 추출 모델 생성부(110)는, 미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지(I1)를 수집할 수 있다.Referring to FIG. 10 , in step S21 , the attribute extraction model generating unit 110 may collect a plurality of first fashion images I 1 to which a label for a preset fashion attribute is assigned.

다음으로, 단계 S22에서, 속성 추출 모델 생성부(110)는, 복수의 제1패션 이미지(I1)에 기초하여 입력된 이미지에서 패션 속성을 추출하는 속성 추출 모델(M1)을 구축할 수 있다.Next, in step S22, the attribute extraction model generation unit 110 may build an attribute extraction model M 1 for extracting fashion attributes from the input image based on the plurality of first fashion images I 1 . have.

다음으로, 단계 S23에서, 스타일 분류 모델 생성부(120)는, 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지(I2)를 수집할 수 있다.Next, in step S23 , the style classification model generator 120 may collect a plurality of second fashion images I 2 to which a label for a fashion attribute is not assigned.

다음으로, 단계 S24에서, 스타일 분류 모델 생성부(120)는, 속성 추출 모델(M1)에 기초하여 복수의 제2패션 이미지(I2) 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득할 수 있다.Next, in step S24 , the style classification model generation unit 120 , based on the attribute extraction model M 1 , performs a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images I 2 . can be obtained.

다음으로, 단계 S25에서, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지(I2) 각각에 대한 이미지 특성과 연계된 제2피처를 획득할 수 있다.Next, in step S25 , the style classification model generator 120 may acquire a second feature associated with an image characteristic of each of the plurality of second fashion images I 2 .

다음으로, 단계 S26에서, 스타일 분류 모델 생성부(120)는, 복수의 제2패션 이미지(I2) 각각에 대하여 획득된 제1피처 및 제2피처 중 적어도 하나에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축할 수 있다.Next, in step S26 , the style classification model generating unit 120 generates a plurality of input images based on at least one of the first and second features acquired for each of the plurality of second fashion images I 2 . A style classification model that classifies at least one of the style groups of

다음으로, 단계 S27에서, 분류부(130)는, 분류 대상 이미지를 수신할 수 있다.Next, in step S27 , the classification unit 130 may receive a classification target image.

다음으로, 단계 S28에서, 분류부(130)는, 구축된 스타일 분류 모델(예를 들면, M2 또는 M2')을 이용하여 수신된 분류 대상 이미지에 대응하는 스타일 그룹을 결정할 수 있다.Next, in step S28 , the classification unit 130 may determine a style group corresponding to the received classification target image using the constructed style classification model (eg, M 2 or M 2 ′).

상술한 설명에서, 단계 S21 내지 S28은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S21 to S28 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between steps may be changed.

본원의 일 실시예에 따른 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법과 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The deep learning-based style classification model generation method using fashion attributes and the deep learning-based style classification method using fashion attributes according to an embodiment of the present application are implemented in the form of program instructions that can be performed through various computer means, and are computer-readable media can be recorded in The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법과 패션 속성을 이용한 딥러닝 기반 스타일 분류 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the deep learning-based style classification model generation method using the above-described fashion attribute and the deep learning-based style classification method using the fashion attribute may be implemented in the form of a computer program or application executed by a computer stored in a recording medium. .

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application.

10: 스타일 분류 시스템
100: 패션 속성을 이용한 딥러닝 기반 스타일 분류 장치
110: 속성 추출 모델 생성부
120: 스타일 분류 모델 생성부
130: 분류부
200: 사용자 단말
20: 네트워크
10: Style classification system
100: Deep learning-based style classification device using fashion attributes
110: attribute extraction model generation unit
120: style classification model generation unit
130: classification unit
200: user terminal
20: network

Claims (15)

패션 속성을 이용한 딥러닝 기반 스타일 분류 방법에 있어서,
미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하는 단계;
상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 단계;
상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하는 단계;
상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하는 단계;
상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 단계; 및
분류 대상 이미지를 수신하고, 상기 스타일 분류 모델을 이용하여 상기 분류 대상 이미지에 대응하는 상기 스타일 그룹을 결정하는 단계,
를 포함하는, 스타일 분류 방법.
In a deep learning-based style classification method using fashion attributes,
collecting a plurality of first fashion images to which labels for preset fashion attributes are assigned;
constructing an attribute extraction model for extracting the fashion attribute from an input image based on the plurality of first fashion images;
collecting a plurality of second fashion images to which a label for the fashion attribute is not applied;
obtaining a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images based on the attribute extraction model;
constructing a style classification model for classifying an input image into at least one of a plurality of style groups based on the first feature obtained for each of the plurality of second fashion images; and
receiving a classification target image, and determining the style group corresponding to the classification target image by using the style classification model;
A style classification method, including.
제1항에 있어서,
상기 패션 속성은,
입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함하고,
상기 속성 추출 모델을 구축하는 단계는,
상기 색상 속성을 추출하는 제1추출 프로세스 및 상기 메인 속성을 추출하는 제2추출 프로세스를 구분하여 수행하는 상기 속성 추출 모델을 구축하는 것인, 스타일 분류 방법.
According to claim 1,
The fashion attribute is,
a color property representing a dominant color of the clothes included in the input image and a main property representing a predetermined characteristic reflected in the clothes,
Building the attribute extraction model comprises:
A style classification method of constructing the attribute extraction model that is performed separately from a first extraction process for extracting the color attribute and a second extraction process for extracting the main attribute.
제2항에 있어서,
상기 속성 추출 모델은,
입력된 이미지에 포함된 배경 영역의 색상 및 인물의 신체 영역의 색상이 상기 색상 속성에 반영되지 않도록 상기 배경 영역 및 상기 신체 영역을 제거한 후 상기 제1추출 프로세스를 수행하는 것인, 스타일 분류 방법.
3. The method of claim 2,
The attribute extraction model is
and performing the first extraction process after removing the background region and the body region so that the color of the background region and the color of the body region of the person included in the input image are not reflected in the color attribute.
제2항에 있어서,
상기 메인 속성은,
의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함하는 것인, 스타일 분류 방법.
3. The method of claim 2,
The main property is
A method of classifying a style, which includes Type of Clothes, Garments Parts, Textile Pattern, Decorations, and Textile Finishing.
제1항에 있어서,
상기 스타일 분류 모델을 구축하는 단계는,
NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 단계,
를 포함하는 것인, 스타일 분류 방법.
According to claim 1,
The step of constructing the style classification model is,
Determining the plurality of style groups by dividing the data matrix for the first feature into a weight matrix associated with the fashion attribute and an attribute matrix corresponding to the second fashion image through non-negative matrix factorization (NMF); ,
A method of classifying a style that includes.
제5항에 있어서,
상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하는 단계,
를 더 포함하고,
상기 스타일 분류 모델을 구축하는 단계는,
상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축하는 것인, 스타일 분류 방법.
6. The method of claim 5,
obtaining a second feature associated with an image characteristic for each of the plurality of second fashion images;
further comprising,
The step of constructing the style classification model is,
The style classification method of constructing the style classification model that classifies the input image into at least one of a plurality of style groups by further considering the second feature.
제6항에 있어서,
상기 스타일 분류 모델을 구축하는 단계는,
상기 복수의 스타일 그룹에 기초한 상기 복수의 제2패션 이미지에 대한 분류 결과, 상기 복수의 스타일 그룹 각각에 포함된 상기 제2패션 이미지에 대하여 도출된 상기 제1피처 사이의 유사도를 기초로 상기 복수의 스타일 그룹의 수를 결정하는 단계,
를 포함하는 것인, 스타일 분류 방법.
7. The method of claim 6,
The step of constructing the style classification model is,
As a result of classification of the plurality of second fashion images based on the plurality of style groups, based on the similarity between the first features derived with respect to the second fashion image included in each of the plurality of style groups, the plurality of determining the number of style groups;
A method of classifying a style that includes.
패션 속성을 이용한 딥러닝 기반 스타일 분류 모델 생성 방법에 있어서,
미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하는 단계;
상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 단계;
상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하는 단계;
상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하는 단계; 및
상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 단계,
를 포함하는, 스타일 분류 모델 생성 방법.
In a deep learning-based style classification model creation method using fashion attributes,
collecting a plurality of first fashion images to which labels for preset fashion attributes are assigned;
constructing an attribute extraction model for extracting the fashion attribute from an input image based on the plurality of first fashion images;
collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned;
obtaining a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images based on the attribute extraction model; and
constructing a style classification model for classifying an input image into at least one of a plurality of style groups based on the first feature obtained for each of the plurality of second fashion images;
Including, a style classification model generation method.
제8항에 있어서,
상기 패션 속성은,
입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함하고,
상기 메인 속성은,
의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함하는 것인, 스타일 분류 모델 생성 방법.
9. The method of claim 8,
The fashion attribute is,
a color property representing a dominant color of the clothes included in the input image and a main property representing a predetermined characteristic reflected in the clothes,
The main property is,
A method of creating a style classification model, comprising: Type of Clothes, Garments Parts, Textile Pattern, Decorations, and Textile Finishing.
제9항에 있어서,
상기 스타일 분류 모델을 구축하는 단계는,
NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 단계,
를 포함하는 것인, 스타일 분류 모델 생성 방법.
10. The method of claim 9,
The step of constructing the style classification model is,
Determining the plurality of style groups by dividing the data matrix for the first feature into a weight matrix associated with the fashion attribute and an attribute matrix corresponding to the second fashion image through non-negative matrix factorization (NMF); ,
A method for generating a style classification model, comprising:
제10항에 있어서,
상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하는 단계,
를 더 포함하고,
상기 스타일 분류 모델을 구축하는 단계는,
상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축하는 것인, 스타일 분류 모델 생성 방법.
11. The method of claim 10,
obtaining a second feature associated with an image characteristic for each of the plurality of second fashion images;
further comprising,
The step of constructing the style classification model is,
The method of constructing the style classification model that classifies the input image into at least one of a plurality of style groups by further considering the second feature.
패션 속성을 이용한 딥러닝 기반 스타일 분류 장치에 있어서,
미리 설정된 패션 속성에 대한 라벨이 부여된 복수의 제1패션 이미지를 수집하고, 상기 복수의 제1패션 이미지에 기초하여 입력된 이미지에서 상기 패션 속성을 추출하는 속성 추출 모델을 구축하는 속성 추출 모델 생성부;
상기 패션 속성에 대한 라벨이 미부여된 복수의 제2패션 이미지를 수집하고, 상기 속성 추출 모델에 기초하여 상기 복수의 제2패션 이미지 각각에 포함된 상기 패션 속성에 해당하는 제1피처를 획득하고, 상기 복수의 제2패션 이미지 각각에 대하여 획득된 상기 제1피처에 기초하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 스타일 분류 모델을 구축하는 스타일 분류 모델 생성부; 및
분류 대상 이미지를 수신하고, 상기 스타일 분류 모델을 이용하여 상기 분류 대상 이미지에 대응하는 상기 스타일 그룹을 결정하는 분류부,
를 포함하는, 스타일 분류 장치.
In a deep learning-based style classification device using fashion attributes,
Attribute extraction model creation for constructing an attribute extraction model that collects a plurality of first fashion images to which a label for a preset fashion attribute is given, and extracts the fashion attribute from an input image based on the plurality of first fashion images wealth;
Collecting a plurality of second fashion images to which a label for the fashion attribute is not assigned, and obtaining a first feature corresponding to the fashion attribute included in each of the plurality of second fashion images based on the attribute extraction model, , a style classification model generator for constructing a style classification model for classifying an input image into at least one of a plurality of style groups based on the first feature obtained for each of the plurality of second fashion images; and
a classification unit for receiving a classification target image and determining the style group corresponding to the classification target image by using the style classification model;
Including, style classification device.
제12항에 있어서,
상기 패션 속성은,
입력된 이미지에 포함된 의상의 지배적인 색상을 나타내는 색상 속성 및 상기 의상에 반영된 소정의 특징을 나타내는 메인 속성을 포함하고,
상기 메인 속성은,
의상 유형 속성(Type of Clothes), 부분 속성(Garments Parts), 텍스타일 패턴 속성(Textile Pattern), 장식 속성(Decorations) 및 텍스타일 마감 속성(Textile Finishing)을 포함하는 것인, 스타일 분류 장치.
13. The method of claim 12,
The fashion attribute is,
a color property representing a dominant color of the clothes included in the input image and a main property representing a predetermined characteristic reflected in the clothes,
The main property is,
A style classification device, comprising: Type of Clothes, Garments Parts, Textile Pattern, Decorations, and Textile Finishing.
제13항에 있어서,
상기 스타일 분류 모델 생성부는,
NMF(Non-negative Matrix Factorization)를 통해 상기 제1피처에 대한 데이터 행렬을 상기 패션 속성과 연계된 가중치 행렬 및 상기 제2패션 이미지에 대응하는 속성 행렬로 분할하여 상기 복수의 스타일 그룹을 결정하는 것인, 스타일 분류 장치.
14. The method of claim 13,
The style classification model generation unit,
Determining the plurality of style groups by dividing the data matrix for the first feature into a weight matrix associated with the fashion attribute and an attribute matrix corresponding to the second fashion image through non-negative matrix factorization (NMF) In, style classification device.
제14항에 있어서,
상기 스타일 분류 모델 생성부는,
상기 복수의 제2패션 이미지 각각에 대한 이미지 특성과 연계된 제2피처를 획득하고, 상기 제2피처를 더 고려하여 입력된 이미지를 복수의 스타일 그룹 중 적어도 하나로 분류하는 상기 스타일 분류 모델을 구축하는 것인, 스타일 분류 장치.
15. The method of claim 14,
The style classification model generation unit,
Obtaining a second feature associated with an image characteristic for each of the plurality of second fashion images, and constructing the style classification model that classifies the input image into at least one of a plurality of style groups by further considering the second feature that is, a style classification device.
KR1020200083042A 2020-07-06 2020-07-06 Apparatus and method for classifying style based on deep learning using fashion attribute KR102366127B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200083042A KR102366127B1 (en) 2020-07-06 2020-07-06 Apparatus and method for classifying style based on deep learning using fashion attribute

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200083042A KR102366127B1 (en) 2020-07-06 2020-07-06 Apparatus and method for classifying style based on deep learning using fashion attribute

Publications (2)

Publication Number Publication Date
KR20220005323A true KR20220005323A (en) 2022-01-13
KR102366127B1 KR102366127B1 (en) 2022-02-21

Family

ID=79342159

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200083042A KR102366127B1 (en) 2020-07-06 2020-07-06 Apparatus and method for classifying style based on deep learning using fashion attribute

Country Status (1)

Country Link
KR (1) KR102366127B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102583308B1 (en) * 2023-02-20 2023-09-27 (주)어반유니온 Service providing apparatus and method for fashion analysis using short-form contents

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160120674A (en) * 2015-04-08 2016-10-18 주식회사 컴퍼니원헌드레드 Clothes recommendation system using gpu
JP2017084078A (en) * 2015-10-27 2017-05-18 日本電信電話株式会社 Style search apparatus, method, and program
KR101768521B1 (en) * 2016-05-02 2017-08-17 네이버 주식회사 Method and system providing informational data of object included in image
KR20200045668A (en) * 2018-10-23 2020-05-06 오드컨셉 주식회사 Method, apparatus and computer program for style recommendation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160120674A (en) * 2015-04-08 2016-10-18 주식회사 컴퍼니원헌드레드 Clothes recommendation system using gpu
JP2017084078A (en) * 2015-10-27 2017-05-18 日本電信電話株式会社 Style search apparatus, method, and program
KR101768521B1 (en) * 2016-05-02 2017-08-17 네이버 주식회사 Method and system providing informational data of object included in image
KR20200045668A (en) * 2018-10-23 2020-05-06 오드컨셉 주식회사 Method, apparatus and computer program for style recommendation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102583308B1 (en) * 2023-02-20 2023-09-27 (주)어반유니온 Service providing apparatus and method for fashion analysis using short-form contents

Also Published As

Publication number Publication date
KR102366127B1 (en) 2022-02-21

Similar Documents

Publication Publication Date Title
US8983142B1 (en) Programmatic silhouette attribute determination
US20200372193A1 (en) Image/text-based design creating device and method
CN110956579B (en) Text picture rewriting method based on generation of semantic segmentation map
CN109670591A (en) A kind of training method and image matching method, device of neural network
CN109614925A (en) Dress ornament attribute recognition approach and device, electronic equipment, storage medium
CN112100908B (en) Clothing design method for generating countermeasure network based on multi-condition deep convolution
KR102586431B1 (en) Method, apparatus and computer program for extracting property information of fashion item using joint coordinate
Guan et al. Apparel-based deep learning system design for apparel style recommendation
KR102366127B1 (en) Apparatus and method for classifying style based on deep learning using fashion attribute
KR20210138240A (en) Method of generating item for avatar, computer program and computing device
JP2019109843A (en) Classification device, classification method, attribute recognition device, and machine learning device
Liu et al. Magic mirror: An intelligent fashion recommendation system
CN111191527B (en) Attribute identification method, attribute identification device, electronic equipment and readable storage medium
CN110413818B (en) Label paper recommending method, device, computer readable storage medium and computer equipment
Ileni et al. Fast In-the-Wild Hair Segmentation and Color Classification.
KR102476884B1 (en) Control method of server for recommending clothing information based on creator matching service
CN114821202B (en) Clothing recommendation method based on user preference
KR102591835B1 (en) Apparatus and Method for Classifying Attribute of Clothes based on Deep-Learning
KR102584289B1 (en) Method, system and non-transitory computer-readable recording medium for recognizing attributes of products by using multi task learning
KR20210139119A (en) System, method and program for recobnizing emotion of the object basen on deep-learning
Oyewusi et al. AFRIFASHION1600: a contemporary African fashion dataset for computer vision
Wickramarathne et al. Trenditex: An intelligent fashion designer
CN109919124B (en) Method for quickly constructing human face action unit recognition data set
Vaidya et al. Smart Wardrobe: A Deep Learning Model
CN117333601B (en) Digital virtual clothing generation method and device based on artificial intelligence

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant