KR102178961B1 - Artificial neural network apparatus and method for recommending fashion item using user clustering - Google Patents

Artificial neural network apparatus and method for recommending fashion item using user clustering Download PDF

Info

Publication number
KR102178961B1
KR102178961B1 KR1020200048136A KR20200048136A KR102178961B1 KR 102178961 B1 KR102178961 B1 KR 102178961B1 KR 1020200048136 A KR1020200048136 A KR 1020200048136A KR 20200048136 A KR20200048136 A KR 20200048136A KR 102178961 B1 KR102178961 B1 KR 102178961B1
Authority
KR
South Korea
Prior art keywords
fashion
information
item
cluster
image information
Prior art date
Application number
KR1020200048136A
Other languages
Korean (ko)
Inventor
윤자영
하지수
Original Assignee
주식회사 스타일쉐어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스타일쉐어 filed Critical 주식회사 스타일쉐어
Priority to KR1020200048136A priority Critical patent/KR102178961B1/en
Application granted granted Critical
Publication of KR102178961B1 publication Critical patent/KR102178961B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Abstract

The present invention relates to an apparatus and a method for a fashion item recommendation artificial neural network using user clustering. To this end, the apparatus includes: a fashion item classification module configured to receive fashion item image information from a fashion item detection module, input each fashion item image information to a previously learned artificial neural network, and output fashion item classification information for each fashion item image information; and an embedding module which is connected to an FC layer of the artificial neural network of the fashion item classification module, and outputs an output vector of the FC layer of each artificial neural network for each fashion item image information as an embedding vector for each fashion item image information. According to the present invention, it is possible to automatically cluster fashion contents or fashion items reacted by a user by the embedding vector without an administrator manually tagging a concerned style or classifying users.

Description

유저 클러스터링을 이용한 패션 아이템 추천 인공신경망 장치 및 방법{Artificial neural network apparatus and method for recommending fashion item using user clustering}Artificial neural network apparatus and method for recommending fashion item using user clustering}

본 발명은 유저 클러스터링을 이용한 패션 아이템 추천 인공신경망 장치 및 방법에 관한 것이다. The present invention relates to a fashion item recommendation artificial neural network apparatus and method using user clustering.

4차 산업혁명이 새로운 시대적 흐름으로 자리잡으면서 패션 산업에서도 이른 바 '스타일테크(Style-tech)' 시대가 열리고 있다. '스타일테크'란 패션·뷰티와 같은 라이프스타일 분야에 정보기술(IT)을 결합해 새로운 고객 경험을 창출하는 제품과 서비스를 포괄하는 개념이다. 특정 브랜드, 디자인, 컬러, 소재, 카테고리 등의 특징을 가진 패션 아이템의 특정 사용자에 대한 추천에 딥러닝이나 머신러닝이 적용되는 변화가 패션 업계에서의 대표적인 스타일테크라고 할 수 있다. 패션 아이템의 추천에 딥러닝이나 머신러닝이 적용되게 되면 개인화에 기반한 상품 추천 서비스의 자동화가 가능해진다.As the 4th Industrial Revolution has established itself as a new era, the so-called'style-tech' era is opening up in the fashion industry. 'Styletech' is a concept that encompasses products and services that create new customer experiences by combining information technology (IT) with lifestyle fields such as fashion and beauty. The change in which deep learning or machine learning is applied to recommending fashion items with characteristics such as a specific brand, design, color, material, and category to a specific user can be said to be a representative style technology in the fashion industry. When deep learning or machine learning is applied to recommending fashion items, it becomes possible to automate product recommendation services based on personalization.

패션 아이템의 추천에 활용되던 기존의 대표적인 알고리즘은 협업 필터링(Collaborative filtering)이다. 추천 시스템에서의 협업 필터링은 많은 유저들로부터 수집한 구매 정보/취향 정보들을 기초로 구매 가능성 또는 취향을 예측하는 유사 집단지성 알고리즘을 의미한다. 협업 필터링은 크게 Memory-based, Model-based, Hybrid로 구분될 수 있고, Memory-based의 경우에는 위와 같은 사용자 기반과 아이템 기반으로 구분될 수 있다. 사용자 기반의 협업 필터링은 기존의 어느 정도 예측이 가능한 레퍼런스 고객들과 유사한 구매 패턴을 가진 특정 고객들을 찾고, 레퍼런스 고객들의 행동을 벡터화하여 특정 고객들의 행동을 예측하는 알고리즘이다. 아이템 기반의 협업 필터링은 아마존 닷컴에서 주로 사용하는 알고리즘으로써, 아이템과 아이템의 유사도를 기초로 추천하는 알고리즘으로, 아이템 간의 상관관계를 결정하는 아이템 매트릭스(item-item matrix)를 사용하여 최신 사용자의 데이터를 기반으로 그 사용자의 기호를 유추한다. 하지만, 협업 필터링은 집단 지성에 가까운 알고리즘으로서 개인화 된 패션 아이템의 추천이 어려운 문제가 있었다. The representative algorithm used to recommend fashion items is collaborative filtering. Collaborative filtering in the recommendation system refers to a similar collective intelligence algorithm that predicts purchase possibility or taste based on purchase information/taste information collected from many users. Collaborative filtering can be largely divided into memory-based, model-based, and hybrid, and in the case of memory-based, it can be divided into user-based and item-based as described above. User-based collaborative filtering is an algorithm that finds specific customers with similar purchasing patterns to reference customers, which can be predicted to some extent, and predicts the behavior of specific customers by vectorizing the behavior of reference customers. Item-based collaborative filtering is an algorithm mainly used by Amazon.com.It is an algorithm that recommends items based on the similarity of items, and uses an item-item matrix that determines the correlation between items to provide the latest user data. Based on, the user's preference is inferred. However, as collaborative filtering is an algorithm close to collective intelligence, it is difficult to recommend personalized fashion items.

개인화 된 패션 아이템의 추천을 위해 인공지능 알고리즘을 적용한 가장 대표적인 곳은 '스티치 픽스(Stitch Fix)'다. 2011년에 창립된 스티치 픽스는 개인 맞춤형 쇼핑 서비스로서 2017년에 나스닥에 상장(Ticker: SFIX)하였고, 2019년 $1.58B의 매출을 달성하였으며 매년 20% ~ 150% 내외의 성장을 지속하고 있다. 2020년 2월 현재 350만명의 활성 사용자가 스티치 픽스를 이용 중이다. 이러한 스티치 픽스의 패션 업계에서의 핵심 경쟁 우위는 패션 아이템의 추천에 적용한 AI 알고리즘에 있다. 스티치 픽스의 임직원 중 석박사 급 데이터 사이언티스트는 125명 내외로 사내 스타일리스트가 5,100명 내외인 것에 비해 상당히 높은 AI 리소스를 보유하고 있다. AI가 데이터를 분석해 좋아할 만한 옷을 뽑아내고, 전문 스타일리스트가 이 중 5가지를 골라 고객에게 배송한다. 고객들은 옷을 입어보고 마음에 들지 않으면 반품하면 된다. 고객이 구매하기로 결정하거나 고객들에 의해 반품되는 패션 아이템들에 의해 스티치 픽스의 패션 아이템 추천 알고리즘을 지도학습(supervised learning)하게 된다.The most representative place where artificial intelligence algorithms are applied to recommend personalized fashion items is'Stitch Fix'. Founded in 2011, Stitch Fixes, a personalized shopping service, was listed on NASDAQ in 2017 (Ticker: SFIX), achieved sales of $1.58B in 2019, and continues to grow around 20% to 150% annually. As of February 2020, there are 3.5 million active users using Stitch Fix. The key competitive advantage of Stitch Fix in the fashion industry lies in the AI algorithm applied to the recommendation of fashion items. Among Stitch Fix's executives and staff, there are about 125 master's and doctoral data scientists, which have significantly higher AI resources than the 5,100 in-house stylists. AI analyzes the data and picks out clothes that they like, and a professional stylist picks five of them and delivers them to customers. Customers can try on clothes and return them if they don't like it. Stitch Fix's fashion item recommendation algorithm is supervised learning by fashion items that a customer decides to purchase or are returned by customers.

스티치 픽스의 성공적인 비즈니스 선순환 안착으로 인해 퍼스널 스타일리스트를 겸비한 패션 시장이 주목받게 되어 최근 스티치 픽스의 경쟁사가 상당히 증가하고 있다. 대표적으로 아마존 닷컴도 스티치 픽스의 서비스 모델/비즈니스 모델과 유사한 'Personal shopper by Prime wardrobe'를 런칭하였다. Stitch Fix's successful business virtuous cycle has attracted attention in the fashion market with personal stylists, and recently, Stitch Fix's competitors are increasing considerably. Representatively, Amazon.com also launched'Personal shopper by Prime wardrobe', which is similar to the service model/business model of Stitch Fix.

대한민국 공개특허 10-2019-0029567, 스타일 특징을 이용한 상품 추천 방법, 옴니어스 주식회사Republic of Korea Patent Publication 10-2019-0029567, Product recommendation method using style characteristics, Omnious Co., Ltd. 미국 등록특허 US 10395301 B2, Method, medium, and system for using a combination of batch-processing and on-demand processing to provide recommendations, Stitch Fix, Inc.US Patent No. 10395301 B2, Method, medium, and system for using a combination of batch-processing and on-demand processing to provide recommendations, Stitch Fix, Inc.

하지만, 협업 필터링은 개인화 된 패션 아이템의 추천이 어려운 문제가 있었고, 패션 아이템의 추천에 대한 Supervised Learning 기반의 기존의 인공지능 알고리즘은 사용자들의 스타일 취향이나 아이덴티티를 클러스터링하기 어려운 문제가 있었다. However, collaborative filtering had a difficult problem in recommending personalized fashion items, and the existing artificial intelligence algorithm based on Supervised Learning for recommending fashion items had a problem in clustering users' style tastes and identities.

소셜 네트워크에서 발생되는 로그 데이터의 Unsupervised Learning을 활용해 사용자들의 스타일이나 아이덴티티를 클러스터링 하여 패션 커머스의 최적화에 이용하는 것은 기술적인 난이도 때문에 쉽지 않았다. 예를 들어, 대한민국 공개특허 10-2019-0029567에서 제시하는 스타일 특징이 동일한 패션 아이템의 추천은 전체적인 분위기나 매칭 하모니 등을 고려하지 않은 단순히 동일한 모양인지를 판단하는 알고리즘에 관한 것이고, 사용자들의 스타일이나 아이덴티티를 클러스터링 하는데 활용하지 못한다. 사용자들을 클러스터링하여 패션 커머스의 최적화에 이용하게 되면 패션 커머스의 MD가 알기 어려운 사용자들의 특성들까지 분류하여 패션 아이템 추천 서비스나 디테일한 유저 클러스터를 활용한 광고 서비스, 브랜드 아이덴티티에 어울리는 크리에이터 추천 등의 다양한 형태의 패션 커머스 최적화가 가능해지는 효과가 발생된다.It was not easy because of the technical difficulty to cluster the styles and identities of users by using the unsupervised learning of log data generated in social networks to optimize fashion commerce. For example, the recommendation of a fashion item with the same style characteristics suggested in Korean Patent Application Laid-Open No. 10-2019-0029567 relates to an algorithm that determines whether it is simply the same shape without taking into account the overall atmosphere or matching harmony, etc. It cannot be used to cluster identities. When users are clustered and used for optimizing fashion commerce, the MD of fashion commerce categorizes the characteristics of users that are difficult to understand, such as a fashion item recommendation service, an advertisement service using a detailed user cluster, and a creator recommendation suitable for brand identity. The effect of optimizing fashion commerce in the form of fashion occurs.

따라서, 본 발명의 목적은 소셜 네트워크에서 발생되는 로그 데이터를 활용하여 사용자들의 스타일이나 아이덴티티를 클러스터링 한 뒤 클러스터링 된 유저를 기초로 패션 아이템을 추천하는 유저 클러스터링을 이용한 패션 아이템 추천 장치 및 방법을 제공하는데에 있다. Accordingly, an object of the present invention is to provide an apparatus and method for recommending fashion items using user clustering that recommends fashion items based on the clustered users after clustering the styles or identities of users using log data generated in a social network. Is in.

이하 본 발명의 목적을 달성하기 위한 구체적 수단에 대하여 설명한다.Hereinafter, specific means for achieving the object of the present invention will be described.

본 발명의 목적은, 특정 사용자의 사용자 클라이언트를 통해 특정 소셜 네트워크 서비스의 웹서버인 소셜 네트워크 웹서버에 상기 특정 사용자가 반응 정보를 입력하거나 업로드한 패션 콘텐츠 정보인 관심 패션 콘텐츠 정보를 수신하고, 상기 관심 패션 콘텐츠 정보에 포함된 패션 콘텐츠 영상 정보 및 반응 정보를 생성하는 패션 콘텐츠 수신 모듈; 상기 패션 콘텐츠 수신 모듈에서 패션 콘텐츠 영상 정보를 수신하고, 상기 패션 콘텐츠 영상 정보에서 패션 아이템의 구역을 디텍션(detection)하여 복수의 패션 아이템 구역 정보를 생성하며, 각각의 상기 패션 아이템 구역 정보에 대한 상기 패션 콘텐츠 영상 정보의 적어도 일부의 영상 정보인 패션 아이템 영상 정보를 상기 패션 콘텐츠 영상 정보에서 디텍션 된 상기 패션 아이템의 수 만큼 생성하는 패션 아이템 디텍션 모듈; 상기 패션 아이템 디텍션 모듈에서 상기 패션 아이템 영상 정보를 수신하고, 각각의 상기 패션 아이템 영상 정보를 입력 데이터로 하는 기학습된 인공신경망의 FC 레이어(Fully Connected Layer)와 연결되어, 각각의 상기 패션 아이템 영상 정보에 대한 상기 인공신경망의 상기 FC 레이어의 출력 벡터를 각각의 상기 패션 아이템 영상 정보에 대한 임베딩 벡터로 출력하는 임베딩 모듈; 복수의 사용자들에 의해 상기 소셜 네트워크 웹서버를 통해 업로드 된 복수의 상기 패션 콘텐츠 정보의 상기 임베딩 벡터를 클러스터링 하여 클러스터를 생성하고, 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터를 매핑하여 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 속하는 상기 클러스터에 대한 정보인 클러스터 정보를 생성하며, 상기 클러스터 정보에 포함되는 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 매핑되는 다른 사용자에 대한 정보인 클러스터 유저 정보를 생성하는 클러스터링 모듈; 상기 클러스터 유저 정보에 포함되는 상기 다른 사용자가 구매한 복수개의 패션 아이템인 구매 아이템에 대한 정보인 구매 아이템 정보를 수집하는 구매 아이템 정보 수집 모듈; 및 상기 구매 아이템 정보를 상기 임베딩 모듈에 입력하여 출력되는 구매 아이템 임베딩 벡터를 수신하고, 상기 클러스터 정보에 포함되는 상기 클러스터의 중심과 상기 구매 아이템 임베딩 벡터와의 거리를 기초로 상기 구매 아이템 임베딩 벡터 중 추천할 상기 구매 아이템의 임베딩 벡터인 추천 아이템 임베딩 벡터를 결정하는 아이템 추천 모듈;을 포함하고, 상기 인공신경망의 손실함수는, 하나의 상기 패션 콘텐츠 정보 내에 포함되는 각각의 상기 패션 아이템 영상 정보에 대한 상기 임베딩 벡터들 사이의 거리를 포함하며, 상기 인공신경망의 학습 단계에서 상기 손실함수의 손실 값을 최소로 하도록 상기 인공신경망의 가중치를 학습하고, 상기 추천 아이템 임베딩 벡터에 대응되는 상기 구매 아이템 정보를 상기 특정 사용자의 상기 사용자 클라이언트에 추천 아이템으로 출력하는 것을 특징으로 하는, 유저 클러스터링을 이용한 패션 아이템 추천 장치를 제공하여 달성될 수 있다. An object of the present invention is to receive fashion content information of interest, which is fashion content information uploaded or input by the specific user, to a social network web server, which is a web server of a specific social network service, through a user client of a specific user, A fashion content receiving module that generates fashion content image information and reaction information included in the fashion content information of interest; The fashion content receiving module receives fashion content image information, detects an area of a fashion item from the fashion content image information to generate a plurality of fashion item area information, and the fashion item area information A fashion item detection module that generates fashion item image information, which is image information of at least part of fashion content image information, as many as the number of fashion items detected in the fashion content image information; The fashion item detection module receives the fashion item image information and is connected to a fully connected layer of a pre-learned artificial neural network using each fashion item image information as input data, and each fashion item image An embedding module for outputting an output vector of the FC layer of the artificial neural network for information as an embedding vector for each fashion item image information; A cluster is created by clustering the embedding vectors of the plurality of fashion content information uploaded through the social network web server by a plurality of users, and the interest is mapped to the embedding vector of the fashion content information of interest to the cluster. A cluster user that generates cluster information, which is information about the cluster to which the embedding vector of fashion content information belongs, and is information about another user to which the embedding vector of the fashion content information of interest is mapped to the cluster included in the cluster information A clustering module that generates information; A purchase item information collection module that collects purchase item information, which is information on purchase items, which are a plurality of fashion items purchased by the other user, included in the cluster user information; And receiving a purchase item embedding vector output by inputting the purchase item information to the embedding module, and among the purchase item embedding vectors based on a distance between the center of the cluster included in the cluster information and the purchase item embedding vector. And an item recommendation module for determining a recommended item embedding vector, which is an embedding vector of the purchase item to be recommended, wherein the loss function of the artificial neural network is for each of the fashion item image information included in one of the fashion content information. Including the distance between the embedding vectors, learning the weight of the artificial neural network to minimize the loss value of the loss function in the learning step of the artificial neural network, and the purchase item information corresponding to the recommended item embedding vector It can be achieved by providing a fashion item recommendation device using user clustering, characterized in that the specific user outputs a recommendation item to the user client.

본 발명의 다른 목적은, 패션 콘텐츠 수신 모듈이, 특정 사용자의 사용자 클라이언트를 통해 특정 소셜 네트워크 서비스의 웹서버인 소셜 네트워크 웹서버에 상기 특정 사용자가 반응 정보를 입력하거나 업로드한 패션 콘텐츠 정보인 관심 패션 콘텐츠 정보를 수신하고, 상기 관심 패션 콘텐츠 정보에 포함된 패션 콘텐츠 영상 정보 및 반응 정보를 생성하는 패션 콘텐츠 수신 단계; 패션 아이템 디텍션 모듈이, 상기 패션 콘텐츠 수신 모듈에서 패션 콘텐츠 영상 정보를 수신하고, 상기 패션 콘텐츠 영상 정보에서 패션 아이템의 구역을 디텍션(detection)하여 복수의 패션 아이템 구역 정보를 생성하며, 각각의 상기 패션 아이템 구역 정보에 대한 상기 패션 콘텐츠 영상 정보의 적어도 일부의 영상 정보인 패션 아이템 영상 정보를 상기 패션 콘텐츠 영상 정보에서 디텍션 된 상기 패션 아이템의 수 만큼 생성하는 패션 아이템 디텍션 단계; 임베딩 모듈이, 상기 패션 아이템 디텍션 모듈에서 상기 패션 아이템 영상 정보를 수신하고, 각각의 상기 패션 아이템 영상 정보를 입력 데이터로 하는 기학습된 인공신경망의 FC 레이어(Fully Connected Layer)와 연결되어, 각각의 상기 패션 아이템 영상 정보에 대한 상기 인공신경망의 상기 FC 레이어의 출력 벡터를 각각의 상기 패션 아이템 영상 정보에 대한 임베딩 벡터로 출력하는 임베딩 단계; 클러스터링 모듈이, 복수의 사용자들에 의해 상기 소셜 네트워크 웹서버를 통해 업로드 된 복수의 상기 패션 콘텐츠 정보의 상기 임베딩 벡터를 클러스터링 하여 클러스터를 생성하고, 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터를 매핑하여 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 속하는 상기 클러스터에 대한 정보인 클러스터 정보를 생성하며, 상기 클러스터 정보에 포함되는 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 매핑되는 다른 사용자에 대한 정보인 클러스터 유저 정보를 생성하는 클러스터링 단계; 구매 아이템 정보 수집 모듈이, 상기 클러스터 유저 정보에 포함되는 상기 다른 사용자가 구매한 복수개의 패션 아이템인 구매 아이템에 대한 정보인 구매 아이템 정보를 수집하는 구매 아이템 정보 수집 단계; 및 아이템 추천 모듈이, 상기 구매 아이템 정보를 상기 임베딩 모듈에 입력하여 출력되는 구매 아이템 임베딩 벡터를 수신하고, 상기 클러스터 정보에 포함되는 상기 클러스터의 중심과 상기 구매 아이템 임베딩 벡터와의 거리를 기초로 상기 구매 아이템 임베딩 벡터 중 추천할 상기 구매 아이템의 임베딩 벡터인 추천 아이템 임베딩 벡터를 결정하는 아이템 추천 단계;를 포함하고, 상기 인공신경망의 손실함수는, 하나의 상기 패션 콘텐츠 정보 내에 포함되는 각각의 상기 패션 아이템 영상 정보에 대한 상기 임베딩 벡터들 사이의 거리를 포함하며, 상기 인공신경망의 학습 단계에서 상기 손실함수의 손실 값을 최소로 하도록 상기 인공신경망의 가중치를 학습하고, 상기 추천 아이템 임베딩 벡터에 대응되는 상기 구매 아이템 정보를 상기 특정 사용자의 상기 사용자 클라이언트에 추천 아이템으로 출력하는 것을 특징으로 하는, 유저 클러스터링을 이용한 패션 아이템 추천 방법을 제공하여 달성될 수 있다. Another object of the present invention is to provide a fashion content receiving module to a social network web server, which is a web server of a specific social network service, through a user client of a specific user. A fashion content receiving step of receiving content information and generating fashion content image information and reaction information included in the fashion content information of interest; A fashion item detection module receives fashion content image information from the fashion content receiving module, detects an area of a fashion item from the fashion content image information, and generates a plurality of fashion item area information. A fashion item detection step of generating fashion item image information, which is image information of at least part of the fashion content image information with respect to item area information, as many as the number of fashion items detected in the fashion content image information; The embedding module receives the fashion item image information from the fashion item detection module and is connected to a fully connected layer of a pre-learned artificial neural network using each of the fashion item image information as input data. An embedding step of outputting an output vector of the FC layer of the artificial neural network with respect to the fashion item image information as an embedding vector for each fashion item image information; A clustering module creates a cluster by clustering the embedding vectors of the plurality of fashion content information uploaded through the social network web server by a plurality of users, and provides the embedding vector of the fashion content information of interest to the cluster. By mapping to generate cluster information, which is information about the cluster to which the embedding vector of the fashion content information of interest belongs, and to another user to which the embedding vector of the fashion content information of interest is mapped to the cluster included in the cluster information A clustering step of generating cluster user information, which is information; A purchase item information collection step of collecting, by the purchase item information collection module, purchase item information, which is information on purchase items, which are a plurality of fashion items purchased by the other user, included in the cluster user information; And the item recommendation module receives the purchase item embedding vector output by inputting the purchase item information to the embedding module, and based on a distance between the center of the cluster included in the cluster information and the purchase item embedding vector. An item recommendation step of determining a recommended item embedding vector, which is an embedding vector of the purchase item to be recommended, among the purchase item embedding vectors, wherein the loss function of the artificial neural network is each of the fashions included in one of the fashion content information. Including the distance between the embedding vectors for item image information, learning the weight of the artificial neural network to minimize the loss value of the loss function in the learning step of the artificial neural network, and corresponding to the recommended item embedding vector It can be achieved by providing a fashion item recommendation method using user clustering, characterized in that the purchase item information is output to the user client of the specific user as a recommended item.

본 발명의 다른 목적은, 패션 아이템 추천 프로그램 코드를 저장하는 메모리 모듈; 및 상기 패션 아이템 추천 프로그램 코드를 처리하는 처리 모듈;을 포함하고, 상기 패션 아이템 추천 프로그램 코드는, 특정 사용자의 사용자 클라이언트를 통해 특정 소셜 네트워크 서비스의 웹서버인 소셜 네트워크 웹서버에 상기 특정 사용자가 반응 정보를 입력하거나 업로드한 패션 콘텐츠 정보인 관심 패션 콘텐츠 정보를 수신하고, 상기 관심 패션 콘텐츠 정보에 포함된 패션 콘텐츠 영상 정보 및 반응 정보를 생성하는 패션 콘텐츠 수신 단계; 상기 패션 콘텐츠 영상 정보에서 패션 아이템의 구역을 디텍션(detection)하여 복수의 패션 아이템 구역 정보를 생성하며, 각각의 상기 패션 아이템 구역 정보에 대한 상기 패션 콘텐츠 영상 정보의 적어도 일부의 영상 정보인 패션 아이템 영상 정보를 상기 패션 콘텐츠 영상 정보에서 디텍션 된 상기 패션 아이템의 수 만큼 생성하는 패션 아이템 디텍션 단계; 각각의 상기 패션 아이템 영상 정보를 입력 데이터로 하는 기학습된 인공신경망의 FC 레이어(Fully Connected Layer)의 출력 벡터를 각각의 상기 패션 아이템 영상 정보에 대한 임베딩 벡터로 출력하는 임베딩 단계; 복수의 사용자들에 의해 상기 소셜 네트워크 웹서버를 통해 업로드 된 복수의 상기 패션 콘텐츠 정보의 상기 임베딩 벡터를 클러스터링 하여 클러스터를 생성하고, 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터를 매핑하여 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 속하는 상기 클러스터에 대한 정보인 클러스터 정보를 생성하며, 상기 클러스터 정보에 포함되는 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 매핑되는 다른 사용자에 대한 정보인 클러스터 유저 정보를 생성하는 클러스터링 단계; 상기 클러스터 유저 정보에 포함되는 상기 다른 사용자가 구매한 복수개의 패션 아이템인 구매 아이템에 대한 정보인 구매 아이템 정보를 수집하는 구매 아이템 정보 수집 단계; 및 상기 클러스터 정보에 포함되는 상기 클러스터의 중심과 상기 구매 아이템 정보의 임베딩 벡터인 구매 아이템 임베딩 벡터와의 거리를 기초로 상기 구매 아이템 임베딩 벡터 중 추천할 상기 구매 아이템의 임베딩 벡터인 추천 아이템 임베딩 벡터를 결정하는 아이템 추천 단계;를 컴퓨터 상에서 수행시키는 프로그램 코드를 포함하고, 상기 인공신경망의 손실함수는, 하나의 상기 패션 콘텐츠 정보 내에 포함되는 각각의 상기 패션 아이템 영상 정보에 대한 상기 임베딩 벡터들 사이의 거리를 포함하며, 상기 인공신경망의 학습 단계에서 상기 손실함수의 손실 값을 최소로 하도록 상기 인공신경망의 가중치를 학습하고, 상기 추천 아이템 임베딩 벡터에 대응되는 상기 구매 아이템 정보를 상기 특정 사용자의 상기 사용자 클라이언트에 추천 아이템으로 출력하는 것을 특징으로 하는, 유저 클러스터링을 이용한 패션 아이템 추천 장치를 제공하여 달성될 수 있다.Another object of the present invention is a memory module for storing a fashion item recommendation program code; And a processing module for processing the fashion item recommendation program code, wherein the fashion item recommendation program code is reacted by the specific user to a social network web server that is a web server of a specific social network service through a user client of a specific user. A fashion content receiving step of receiving fashion content information of interest, which is fashion content information input or uploaded, and generating fashion content image information and reaction information included in the fashion content information of interest; A fashion item image that detects an area of a fashion item from the fashion content image information to generate a plurality of fashion item area information, and is image information of at least a part of the fashion content image information for each of the fashion item area information A fashion item detection step of generating information as much as the number of fashion items detected in the fashion content image information; An embedding step of outputting an output vector of a fully-connected layer of the artificial neural network, which has the fashion item image information as input data, as an embedding vector for each fashion item image information; A cluster is created by clustering the embedding vectors of the plurality of fashion content information uploaded through the social network web server by a plurality of users, and the interest is mapped to the embedding vector of the fashion content information of interest to the cluster. A cluster user that generates cluster information, which is information about the cluster to which the embedding vector of fashion content information belongs, and is information about another user to which the embedding vector of the fashion content information of interest is mapped to the cluster included in the cluster information A clustering step of generating information; A purchase item information collection step of collecting purchase item information, which is information on purchase items, which are a plurality of fashion items purchased by the other user, included in the cluster user information; And a recommended item embedding vector that is an embedding vector of the purchase item to be recommended among the purchase item embedding vectors based on a distance between the center of the cluster included in the cluster information and a purchase item embedding vector that is an embedding vector of the purchase item information. Including a program code for performing an item recommendation step of determining; on a computer, the loss function of the artificial neural network is a distance between the embedding vectors for each of the fashion item image information included in one of the fashion content information Including, In the learning step of the artificial neural network, learning the weight of the artificial neural network to minimize the loss value of the loss function, and the purchase item information corresponding to the recommended item embedding vector is the user client of the specific user It can be achieved by providing a fashion item recommendation device using user clustering, characterized in that outputting the recommended item to the device.

상기한 바와 같이, 본 발명에 의하면 이하와 같은 효과가 있다.As described above, the present invention has the following effects.

첫째, 본 발명의 일실시예에 따르면, 사용자들이 반응한 패션 콘텐츠나 패션 아이템에 대해 관리자가 일일이 관심 스타일을 태깅하거나 사용자들을 분류하지 않아도 임베딩 벡터에 의해 자동으로 클러스터링이 가능해지는 효과가 발생된다. First, according to an embodiment of the present invention, an effect of automatically clustering by an embedding vector occurs without having to manually tag a style of interest or classify users for fashion content or fashion items that users respond to.

둘째, 본 발명의 일실시예에 따르면, 특정 사용자가 업로드하거나 반응을 보인 패션 콘텐츠/패션 아이템을 기초로 상품을 추천해줌으로써 추천 알고리즘 또는 광고 알고리즘의 전환률을 향상시킬 수 있는 효과가 발생된다. Second, according to an embodiment of the present invention, by recommending a product based on fashion content/fashion items uploaded or reacted by a specific user, an effect of improving the conversion rate of a recommendation algorithm or an advertisement algorithm is generated.

셋째, 본 발명의 일실시예에 따르면, 특정 브랜드의 패션 콘텐츠/패션 아이템을 기초로 사용자 군집 또는 크리에이터를 추천해줌으로써 특정 브랜드의 관심 타겟형 광고가 가능해지는 효과가 발생된다.Third, according to an embodiment of the present invention, an interest-targeted advertisement of a specific brand is possible by recommending a group of users or creators based on fashion contents/fashion items of a specific brand.

넷째, 본 발명의 일실시예에 따르면, 어울리는 색상인 색조합을 별도로 학습시키거나 기저장하지 않고도 인공신경망의 학습에 의해 색상을 포함한 다양한 요소에서 서로 어울리는 패션 아이템을 찾을 수 있게 되는 효과가 발생된다. Fourth, according to an embodiment of the present invention, an effect of being able to find fashion items matching each other in various elements including colors is generated by learning of the artificial neural network without separately learning or pre-stored color combinations that are suitable colors. .

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일실시예에 따른 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치를 도시한 모식도,
도 2는 본 발명의 일실시예에 따른 패션 콘텐츠 수신 모듈(10)의 작동관계를 도시한 모식도,
도 3은 본 발명의 일실시예에 따른 스무딩 필터 적용 모듈의 스무딩 필터 적용을 도시한 모식도,
도 4는 본 발명의 일실시예에 따른 후보 출력 모듈의 후보 정보 생성 결과를 도시한 모식도,
도 5는 본 발명의 일실시예에 따른 비후보 제거 모듈을 도시한 모식도,
도 6은 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 인공신경망의 작동관계를 도시한 모식도,
도 7은 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 인공신경망의 예시를 도시한 모식도,
도 8은 본 발명의 일실시예에 따른 클러스터링 모듈에서의 임베딩 벡터 매핑을 도시한 모식도,
도 9는 본 발명의 일실시예에 따른 유저 클러스터링을 이용한 패션 아이템 추천 장치를 도시한 모식도,
도 10은 본 발명의 일실시예에 따라 사용자가 유입되었을 때 클러스터 정보 요청 모듈의 흐름도,
도 11은 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 임베딩 벡터 생성을 도시한 모식도,
도 12는 본 발명의 일실시예에 따른 클러스터링 모듈(14)에서 생성되는 클러스터 정보 및 클러스터 유저 정보를 도시한 모식도,
도 13은 본 발명의 일실시예에 따른 구매 아이템 정보 수집 모듈(21)의 구매 아이템 정보 수집을 도시한 모식도,
도 14는 본 발명의 일실시예에 따른 추천 아이템 임베딩 벡터의 계산을 도시한 모식도,
도 15는 본 발명의 다른 실시예에 따른 클러스터 중요도 계산을 도시한 모식도,
도 16은 본 발명의 일실시예에 따른 패션 브랜드를 위한 크리에이터 추천 장치를 도시한 모식도,
도 17은 본 발명의 일실시예에 따라 브랜드 클러스터 정보가 요청되었을 때 클러스터 정보 요청 모듈의 흐름도,
도 18은 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 브랜드 콘텐츠 영상 정보에 대한 임베딩 벡터 생성을 도시한 모식도,
도 19는 본 발명의 일실시예에 따른 클러스터링 모듈(14)에서 생성되는 브랜드 클러스터 정보 및 클러스터 유저 정보를 도시한 모식도,
도 20은 본 발명의 일실시예에 따른 크리에이터 정보 수집 모듈의 크리에이터 정보 수집에 대한 모식도,
도 21은 본 발명의 일실시예에 따른 추천 크리에이터의 계산을 도시한 모식도이다.
The following drawings attached to the present specification illustrate preferred embodiments of the present invention, and serve to further understand the technical idea of the present invention together with the detailed description of the present invention, so the present invention is limited to the matters described in such drawings. And should not be interpreted.
1 is a schematic diagram showing a fashion content embedding apparatus for user clustering according to an embodiment of the present invention;
2 is a schematic diagram showing an operation relationship of the fashion content receiving module 10 according to an embodiment of the present invention;
3 is a schematic diagram showing the application of a smoothing filter by a smoothing filter application module according to an embodiment of the present invention;
4 is a schematic diagram showing a result of generating candidate information of a candidate output module according to an embodiment of the present invention;
5 is a schematic diagram showing a non-candidate removal module according to an embodiment of the present invention;
6 is a schematic diagram showing the operational relationship of the artificial neural network of the fashion item classification module 12 according to an embodiment of the present invention;
7 is a schematic diagram showing an example of an artificial neural network of the fashion item classification module 12 according to an embodiment of the present invention;
8 is a schematic diagram showing an embedding vector mapping in a clustering module according to an embodiment of the present invention;
9 is a schematic diagram showing a fashion item recommendation apparatus using user clustering according to an embodiment of the present invention;
10 is a flowchart of a cluster information request module when a user is introduced according to an embodiment of the present invention;
11 is a schematic diagram showing the generation of an embedding vector by the fashion item classification module 12 according to an embodiment of the present invention;
12 is a schematic diagram showing cluster information and cluster user information generated by the clustering module 14 according to an embodiment of the present invention;
13 is a schematic diagram showing the collection of purchase item information by the purchase item information collection module 21 according to an embodiment of the present invention;
14 is a schematic diagram showing calculation of a recommended item embedding vector according to an embodiment of the present invention;
15 is a schematic diagram showing a cluster importance calculation according to another embodiment of the present invention;
16 is a schematic diagram showing a device for recommending a creator for a fashion brand according to an embodiment of the present invention;
17 is a flowchart of a cluster information request module when brand cluster information is requested according to an embodiment of the present invention;
18 is a schematic diagram showing the generation of an embedding vector for brand content image information by the fashion item classification module 12 according to an embodiment of the present invention;
19 is a schematic diagram showing brand cluster information and cluster user information generated by the clustering module 14 according to an embodiment of the present invention;
20 is a schematic diagram of collection of creator information by a creator information collection module according to an embodiment of the present invention;
21 is a schematic diagram showing calculation of a recommended creator according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 쉽게 실시할 수 있는 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예에 대한 동작원리를 상세하게 설명함에 있어서 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, exemplary embodiments in which the present invention can be easily implemented by those of ordinary skill in the art will be described in detail with reference to the accompanying drawings. However, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

또한, 도면 전체에 걸쳐 유사한 기능 및 작용을 하는 부분에 대해서는 동일한 도면 부호를 사용한다. 명세서 전체에서, 특정 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고, 간접적으로 연결되어 있는 경우도 포함한다. 또한, 특정 구성요소를 포함한다는 것은 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, the same reference numerals are used for parts having similar functions and functions throughout the drawings. Throughout the specification, when a specific part is said to be connected to another part, this includes not only the case that it is directly connected, but also the case that it is indirectly connected with another element interposed therebetween. In addition, the inclusion of a specific component does not exclude other components unless specifically stated to the contrary, but means that other components may be further included.

유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치Fashion content embedding device for user clustering

도 1은 본 발명의 일실시예에 따른 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치를 도시한 모식도이다. 도 1에 도시된 바와 같이, 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치(1)는, 패션 콘텐츠 수신 모듈(10), 패션 아이템 디텍션 모듈(11), 패션 아이템 분류 모듈(12), 임베딩 모듈(13), 클러스터링 모듈(14)을 포함할 수 있다. 또한, 본 발명의 일실시예에 따른 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치(1)는 특정 웹서버, 클라우드 서버와 같은 가상 서버, 스마트폰, 태블릿 PC, 데스크탑 PC 등의 컴퓨팅 장치의 처리모듈에 의해 처리되고, 각 장치의 메모리 모듈에 저장되도록 구성될 수 있다. 본 발명의 일실시예에 따른 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치(1)는 사용자의 반응 정보(Like, Share, Comment 등)가 입력되거나 해당 사용자에 의해 업로드된 패션 콘텐츠인 관심 패션 콘텐츠를 사용자 클라이언트(100)에서 직접 수신하거나, 소셜 네트워크 웹서버(50)에서 소셜 네트워크 API를 통해 수신하도록 구성될 수 있다. 1 is a schematic diagram showing a fashion content embedding apparatus for user clustering according to an embodiment of the present invention. As shown in Fig. 1, the fashion content embedding device 1 for user clustering includes a fashion content receiving module 10, a fashion item detection module 11, a fashion item classification module 12, and an embedding module 13 , May include a clustering module 14. In addition, the fashion content embedding device 1 for user clustering according to an embodiment of the present invention is provided by a processing module of a computing device such as a specific web server, a virtual server such as a cloud server, a smartphone, a tablet PC, and a desktop PC. It can be configured to be processed and stored in a memory module of each device. The fashion content embedding device 1 for user clustering according to an embodiment of the present invention receives the user's reaction information (like, share, comment, etc.) or the fashion content of interest, which is the fashion content uploaded by the user, to a user client. It may be configured to receive directly from 100 or to receive from the social network web server 50 through a social network API.

패션 콘텐츠 수신 모듈(10)은, 사용자 클라이언트(100) 또는 소셜 네트워크 웹서버(50)에서 사용자의 반응 정보(Like, Share, Comment 등)가 입력되거나 해당 사용자에 의해 업로드 된 패션 콘텐츠인 관심 패션 콘텐츠를 수신하는 모듈이다. 도 2는 본 발명의 일실시예에 따른 패션 콘텐츠 수신 모듈(10)의 작동관계를 도시한 모식도이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 패션 콘텐츠 수신 모듈(10)은, 사용자 클라이언트(100)의 소셜 네트워크 애플리케이션 모듈 또는 소셜 네트워크 웹서버(50)에서 특정 사용자에 대한 특정 기간 동안의 관심 패션 콘텐츠 정보(패션 콘텐츠 영상 정보, 텍스트 정보, 태그 정보, 댓글 정보, 호감 정보, 뷰 카운트 정보 등)를 수신하고, 패션 아이템 디텍션 모듈(11)에 수신된 패션 콘텐츠 영상 정보를 송신하는 모듈이다.Fashion content receiving module 10, the user's reaction information (Like, Share, Comment, etc.) from the user client 100 or the social network web server 50 is input or fashion content of interest that is uploaded by the user It is a module that receives 2 is a schematic diagram showing an operation relationship of the fashion content receiving module 10 according to an embodiment of the present invention. As shown in Figure 2, the fashion content receiving module 10 according to an embodiment of the present invention, a specific period for a specific user in the social network application module of the user client 100 or the social network web server 50 Receives fashion content information (fashion content image information, text information, tag information, comment information, like information, view count information, etc.) of interest during the period, and transmits fashion content image information received to the fashion item detection module 11 It is a module.

패션 아이템 디텍션 모듈(11)은, 상기 패션 콘텐츠 수신 모듈(10)에서 패션 콘텐츠 영상 정보를 수신하고, 상기 패션 콘텐츠 영상 정보에서 패션 아이템의 구역을 디텍션(detection)하여 패션 아이템 구역 정보를 생성하며, 패션 아이템 구역 정보를 기초로 패션 콘텐츠 영상 정보의 적어도 일부인 패션 아이템 영상 정보를 생성하는 모듈이다. The fashion item detection module 11 receives fashion content image information from the fashion content receiving module 10, detects a fashion item area from the fashion content image information, and generates fashion item area information, This module generates fashion item image information, which is at least a part of fashion content image information, based on fashion item area information.

본 발명의 일실시예에 따른 패션 아이템 디텍션 모듈(11)은 YOLO, RCNN, Faster RCNN 등을 Fine-tunning한 패션 아이템 검출 알고리즘을 이용할 수 있다. 또는, ImageNet으로 기학습된 AlexNet 등의 네트워크를 Fine-tunning 한 패션 아이템 검출 알고리즘을 이용할 수 있다. 나아가, Viola-jones의 Haar-like Feature를 Boosting 등의 기존 컴퓨터 비전 알고리즘을 이용할 수 있다. The fashion item detection module 11 according to an embodiment of the present invention may use a fashion item detection algorithm fine-tuning YOLO, RCNN, Faster RCNN, and the like. Alternatively, a fashion item detection algorithm that fine-tuned a network such as AlexNet previously learned with ImageNet can be used. Furthermore, it is possible to use existing computer vision algorithms such as Boosting the Haar-like Feature of Viola-jones.

본 발명의 일실시예에 따른 패션 아이템 디텍션 모듈(11)은 스무딩 필터 적용 모듈, 후보 출력 모듈 및 비후보 제거 모듈을 포함할 수 있다. 본 발명의 일실시예에 따른 패션 아이템 디텍션 모듈(11)의 패션 아이템 검출은 세부적으로는 패션 콘텐츠 영상 정보 속에서의 패션 아이템 감지(fashion item detection)를 수행하도록 구성되고, 감지된 패션 아이템 영상 정보를 feature vector로 표현하는 fashion item feature embedding을 수행하는 임베딩 모듈(13)에 송신하여 통해 각 패션 아이템을 벡터화 하게 되며, 클러스터링 모듈(14)에서는 embedding 된 feature vector들을 비교하여 vector들 간의 군집을 형성하는 clustering을 수행하여 군집된 적어도 하나 이상의 패션 아이템 영상 정보 및 사용자 정보를 포함하는 군집 정보를 출력하도록 구성될 수 있다.The fashion item detection module 11 according to an embodiment of the present invention may include a smoothing filter application module, a candidate output module, and a non-candidate removal module. The fashion item detection by the fashion item detection module 11 according to an embodiment of the present invention is specifically configured to perform fashion item detection in fashion content image information, and the detected fashion item image information The fashion item expressing as a feature vector is transmitted to the embedding module 13 that performs feature embedding to vectorize each fashion item. In the clustering module 14, the embedding feature vectors are compared to form a cluster between vectors. It may be configured to perform clustering to output cluster information including at least one fashion item image information and user information clustered.

본 발명의 일실시예에 따른 패션 아이템 디텍션 모듈(11)의 패션 아이템 감지(fashion item detection)는 상기 패션 콘텐츠 영상 정보에 포함된 적어도 하나의 패션 아이템을 감싸도록 구성되는 사각형(또는 다각형, 타원형, 원형, 곡면 등)의 패션 아이템 박스(fashion item box)인 후보 정보를 출력하는 후보 출력 모듈, 상기 후보 정보 중 패션 아이템 박스 내의 이미지가 패션 아이템이 아닌 것으로 분류되는 비후보 분류 정보를 출력하는 비후보 제거 모듈에 의해 수행될 수 있고, 상기 비후보 분류 정보가 특정 값 이하인(비후보로 분류된 후보 정보가 제외된) 상기 후보 정보를 제공하도록 구성될 수 있다.Fashion item detection of the fashion item detection module 11 according to an embodiment of the present invention includes a rectangle (or polygon, oval, or shape) configured to surround at least one fashion item included in the fashion content image information. A candidate output module that outputs candidate information, which is a fashion item box (circular, curved, etc.), non-candidate that outputs non-candidate classification information in which an image in a fashion item box among the candidate information is classified as not a fashion item It may be performed by the removal module, and may be configured to provide the candidate information whose non-candidate classification information is less than or equal to a specific value (excluding candidate information classified as non-candidate).

본 발명의 일실시예에 따른 스무딩 필터 적용 모듈은 상기 패션 콘텐츠 영상 정보에 스무딩 필터를 적용하여 적어도 하나 이상의 스무딩 패션 콘텐츠 영상 정보를 생성하고, 생성된 스무딩 패션 콘텐츠 영상 정보를 후보 출력 모듈에 송신하도록 구성될 수 있다. 상기 스무딩 필터 적용 모듈의 상기 스무딩 필터는 가우시안 필터(Gaussian Filter), 바이레터럴 필터(Bilateral Filter), 미디안 필터(Median Filter) 등의 스무딩 필터로 구성될 수 있으며, 상기 패션 콘텐츠 영상 정보에 대해 점진적인 스무딩 가중치를 적용하여 복수개의 스무딩 패션 콘텐츠 영상 정보를 생성하고 후보 출력 모듈의 인공신경망의 입력 정보로 입력하도록 구성될 수 있다. 예를 들어, 스무딩 필터로 가우시안 필터(Gaussian Filter)가 구성되는 경우, 가우시안 커널의 x,y 방향의 표준편차인 sigma의 값을 점진적으로 큰 값으로 적용(예를 들어, 첫 번째 스무딩 패션 콘텐츠 영상 정보에 대해서는 sigma 를 1로, 두 번째 스무딩 패션 콘텐츠 영상 정보에 대해서는 sigma를 2로 적용하는 등)하면서 복수개의 스무딩 패션 콘텐츠 영상 정보를 생성하도록 구성되고, 점진적으로 스무딩 필터의 스무딩 가중치가 적용된 스무딩 패션 콘텐츠 영상 정보와 스무딩 필터가 적용되지 않은 패션 콘텐츠 영상 정보를 후보 출력 모듈의 인공신경망에 입력하도록 구성될 수 있다. 도 3은 본 발명의 일실시예에 따른 스무딩 필터 적용 모듈의 스무딩 필터 적용을 도시한 모식도이다. 도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 스무딩 필터 적용 모듈은 패션 콘텐츠 영상 정보에 대해 Sigma를 점진적으로 증가시켜서 스무딩 정도가 점진적으로 증가된 적어도 하나 이상의 스무딩 패션 콘텐츠 영상 정보를 생성하도록 구성될 수 있다. The smoothing filter application module according to an embodiment of the present invention generates at least one smoothing fashion content image information by applying a smoothing filter to the fashion content image information, and transmits the generated smoothing fashion content image information to the candidate output module. Can be configured. The smoothing filter of the smoothing filter application module may be composed of a smoothing filter such as a Gaussian filter, a bilateral filter, and a median filter, and the fashion content image information is gradually It may be configured to generate a plurality of smoothing fashion content image information by applying a smoothing weight and input it as input information of the artificial neural network of the candidate output module. For example, when a Gaussian filter is configured as a smoothing filter, the value of sigma, which is the standard deviation of the Gaussian kernel in the x and y directions, is gradually applied to a large value (for example, the first smoothing fashion content image It is configured to generate a plurality of smoothing fashion content image information while applying sigma to 1 for information, sigma to 2 for the second smoothing fashion content image information, etc.), and the smoothing fashion to which the smoothing weight of the smoothing filter is gradually applied. It may be configured to input content image information and fashion content image information to which a smoothing filter is not applied to the artificial neural network of the candidate output module. 3 is a schematic diagram illustrating application of a smoothing filter by a smoothing filter application module according to an embodiment of the present invention. As shown in FIG. 3, the smoothing filter application module according to an embodiment of the present invention generates at least one smoothing fashion content image information whose smoothing degree is gradually increased by gradually increasing Sigma for fashion content image information. Can be configured to

본 발명의 일실시예에 따른 후보 출력 모듈은 기학습된 인공신경망을 포함하며, 후보 출력 모듈의 상기 인공신경망의 입력 정보는 상기 패션 콘텐츠 영상 정보 및 상기 패션 콘텐츠 영상 정보에 스무딩 필터를 적용한 스무딩 패션 콘텐츠 영상 정보로 구성될 수 있고, 출력 정보는 복수개의 후보 정보에 대한 패션 아이템 분류 정보(패션 아이템인지 여부) 및 후보 정보의 패션 아이템 구역 정보(예를 들어, 각 꼭지점의 좌표 정보, 또는 중심 셀의 좌표 정보와 폭/높이 정보)를 출력하도록 구성될 수 있다. 구체적으로, 후보 출력 모듈의 기학습된 인공신경망의 추론 단계(inference session)는 유저 클러스터링을 하고자 하는 특정 사용자에 대한 상기 패션 콘텐츠 영상 정보 및 스무딩 패션 콘텐츠 영상 정보를 입력 정보로 하여 입력된 영상 정보의 특정 구역에 패션 아이템이 존재하는지에 대한 신뢰도(confidence score)인 패션 아이템 유무 정보, 해당 구역의 좌표 정보를 출력 벡터로 출력하게 된다. 후보 출력 모듈의 인공신경망의 학습 단계(Training session)에서는 소셜 네트워크 웹서버(50)를 통해 소셜 네트워크 웹서버의 데이터베이스에 기저장된 복수의 사용자들에 대한 복수의 패션 콘텐츠 영상 정보를 소스 데이터로 활용하고, 패션 콘텐츠 영상 정보에서 특정 패션 아이템에 대해 구역을 설정한 구역 정보를 인공신경망 학습의 Ground-truth로 하고, 아래의 손실 정보를 병합하여 손실함수로 활용하며, 손실함수의 손실 값을 최소로 하도록 인공신경망의 각 layer의 weight를 학습하게 된다.The candidate output module according to an embodiment of the present invention includes a pre-learned artificial neural network, and the input information of the artificial neural network of the candidate output module is a smoothing fashion in which a smoothing filter is applied to the fashion content image information and the fashion content image information. Content image information can be configured, and the output information is fashion item classification information (whether it is a fashion item) for a plurality of candidate information and fashion item area information of the candidate information (for example, coordinate information of each vertex, or a center cell). It may be configured to output coordinate information and width/height information). Specifically, the inference session of the previously learned artificial neural network of the candidate output module includes the fashion content image information and smoothing fashion content image information for a specific user who wants to perform user clustering as input information. Fashion item presence information, which is a confidence score for the existence of a fashion item in a specific area, and coordinate information of the corresponding area are output as an output vector. In the training session of the artificial neural network of the candidate output module, a plurality of fashion content image information about a plurality of users previously stored in the database of the social network web server through the social network web server 50 is used as source data. , In the fashion content video information, the area information set for a specific fashion item is used as the ground-truth of artificial neural network learning, and the following loss information is merged to be used as a loss function, and the loss value of the loss function is minimized. The weight of each layer of the artificial neural network is learned.

[손실 1] 패션 아이템이 존재하는 것으로 예측되는 구역의 중심 좌표 예측치와 Ground-truth의 중심 좌표와의 차이[Loss 1] The difference between the predicted center coordinates of the area predicted to have a fashion item and the center coordinates of the ground-truth

[손실 2] 패션 아이템이 존재하는 것으로 예측되는 구역의 폭/높이와 Ground-truth의 폭/높이와의 차이[Loss 2] The difference between the width/height of the area predicted to have a fashion item and the width/height of the ground-truth

[손실 3] 패션 아이템이 존재하는 것으로 예측되는 구역의 신뢰도(패션 아이템 유무 정보)와 Ground-truth의 해당 구역에 대한 실제 패션 아이템 존재 여부와의 차이[Loss 3] The difference between the reliability of the area where the fashion item is predicted to exist (information on the presence or absence of fashion items) and the existence of the actual fashion item in the corresponding area of Ground-truth

[후보 출력 모듈의 인공신경망 손실함수] = 손실 1 + 손실 2 + 손실 3[Artificial neural network loss function of candidate output module] = loss 1 + loss 2 + loss 3

또한, 본 발명의 일실시예에 따른 후보 출력 모듈의 인공신경망은 전체 레이어가 컨볼루전 레이어(Convoulution layer) 및 풀링 레이어(Pooling layer)만으로 구성될 수 있고, 플래튼 레이어(Flatten Layer) 또는 Fully Connected Layer는 구성되지 않을 수 있다. 이에 따르면, 출력 정보인 후보 정보가 3차원으로 구성되어 차원 손실이 발생되지 않으며, 일반적인 CNN(Convolutional Neural Network)에 비해 상대적으로 빠른 속도로 복수개의 후보 정보가 출력되는 효과가 발생된다. 예를 들어, 본 발명의 일실시예에 따른 후보 출력 모듈의 인공신경망은 12x12x3의 입력 정보(패션 콘텐츠 영상 정보 또는 스무딩 패션 콘텐츠 영상 정보)에 3x3의 컨볼루전 필터(Convolution Filter) 및 2x2의 맥스 풀링 필터(Max Pooling Filter)를 적용하여 5x5x10의 벡터를 출력하는 컨볼루전 레이어, 5x5x10의 벡터에 3x3의 컨볼루전 필터(Convolution Filter)를 적용하여 3x3x16의 벡터를 출력하는 컨볼루전 레이어, 3x3x16의 벡터에 3x3의 컨볼루전 필터(Convolution Filter)를 적용하여 1x1x32의 벡터를 출력하는 컨볼루전 레이어, 1x1x32의 벡터에 컨볼루전 필터를 적용하여 1x1x2의 벡터로 출력하는 복수개의 후보 정보에 대한 패션 아이템 유무 정보 및 1x1x4의 벡터로 출력하는 후보 정보의 패션 아이템 구역 정보를 출력 정보로 포함하도록 구성될 수 있다. In addition, in the artificial neural network of the candidate output module according to an embodiment of the present invention, the entire layer may be composed of only a convoulution layer and a pooling layer, and a platen layer or a fully connected layer. Layer may not be configured. Accordingly, since candidate information, which is output information, is configured in three dimensions, no dimensional loss occurs, and a plurality of candidate information is output at a relatively high speed compared to a general convolutional neural network (CNN). For example, the artificial neural network of the candidate output module according to an embodiment of the present invention includes a 3x3 convolution filter and 2x2 max pooling on 12x12x3 input information (fashion content image information or smoothing fashion content image information). A convolution layer that outputs a 5x5x10 vector by applying a filter (Max Pooling Filter), a convolution layer that outputs a 3x3x16 vector by applying a 3x3 convolution filter to a 5x5x10 vector, and a 3x3x16 vector Convolutional layer that outputs a 1x1x32 vector by applying a convolution filter of, and fashion item presence information for a plurality of candidate information output as a 1x1x2 vector by applying a convolution filter to a 1x1x32 vector, and 1x1x4 It may be configured to include fashion item area information of candidate information output as a vector as output information.

본 발명의 일실시예에 따른 후보 출력 모듈의 인공신경망은 패션 아이템 유무 정보의 학습을 위해 교차 엔트로피 손실(Cross entropy loss)을 손실함수(cost function)로서 이용할 수 있다. 즉, 특정 학습률(learning rate)에서 각각의 후보 정보에 대해 상기 교차 엔트로피 손실이 작아지도록(최적화 되도록) 상기 후보 출력 모듈의 인공신경망의 은닉층(hidden layer)의 가중치가 업데이트 되게 된다. 이때 이용될 수 있는 최적화 방법으로는 Gradient descent 방식, Momentum 방식 등이 있고, Gradient descent를 용이하게 적용하기 위해 오류 역전파 알고리즘(Back propagation algorithm)이 활용될 수 있다. 또한, 본 발명의 일실시예에 따른 후보 출력 모듈의 인공신경망은 각 후보 정보의 패션 아이템 구역 정보의 학습을 위해 각각의 꼭지점과 같은 좌표 포인트에 대해 유클리드 손실(Euclidean loss)을 손실함수로서 이용할 수 있다. The artificial neural network of the candidate output module according to an embodiment of the present invention may use a cross entropy loss as a cost function for learning information about the presence or absence of a fashion item. That is, the weight of the hidden layer of the artificial neural network of the candidate output module is updated so that the cross entropy loss is reduced (optimized) for each candidate information at a specific learning rate. At this time, optimization methods that can be used include a gradient descent method, a momentum method, and the like, and a back propagation algorithm may be used to easily apply gradient descent. In addition, the artificial neural network of the candidate output module according to an embodiment of the present invention can use Euclidean loss as a loss function for coordinate points such as each vertex for learning fashion item area information of each candidate information. have.

본 발명의 일실시예에 따른 후보 출력 모듈에 포함된 상기 인공신경망은 상기 비후보 제거 모듈 보다 더 적은 층(layer)을 포함하는 인공신경망으로 구성될 수 있다. 이에 따라, 후보 정보 출력이 매우 빠르게 진행되는 효과가 발생된다. The artificial neural network included in the candidate output module according to an embodiment of the present invention may be configured as an artificial neural network including fewer layers than the non-candidate removal module. Accordingly, there is an effect that the output of candidate information proceeds very quickly.

도 4는 본 발명의 일실시예에 따른 후보 출력 모듈의 후보 정보 생성 결과를 도시한 모식도이다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 후보 정보 생성 모듈에 따르면, 패션 콘텐츠 영상 정보에서는 상대적으로 크기가 작은 패션 아이템 구역 정보가 생성되고, 스무딩 패션 콘텐츠 영상 정보에서는 상대적으로 크기가 큰 패션 아이템 구역 정보가 생성되도록 구성될 수 있다. 이에 따르면, 스무딩 필터가 적용되지 않은 패션 콘텐츠 영상 정보 및 스무딩 필터가 적용된 복수개의 스무딩 패션 콘텐츠 영상 정보에 대해 각각 후보 정보가 출력되게 되므로, 하나의 패션 콘텐츠 영상 정보에 포함되는 크기가 각기 다른 복수개의 패션 아이템 부분을 모두 감지(detect)할 수 있게 되는 효과가 발생된다. 예를 들어, 스무딩 필터가 적용되지 않은 패션 콘텐츠 영상 정보에 대해서는 가장 작은 크기를 가지는 패션 아이템 부분이 감지되고, 스무딩 필터가 적용된 스무딩 패션 콘텐츠 영상 정보에 대해서는 보다 큰 크기를 가지는 패션 아이템 부분이 감지되는 효과가 발생된다. 스무딩 패션 콘텐츠 영상 정보는 패션 콘텐츠 영상 정보에 비해 비교적 규모가 큰 특징만 남기고 사라지게 되기 때문이다.4 is a schematic diagram showing a result of generating candidate information by a candidate output module according to an embodiment of the present invention. As shown in FIG. 4, according to the candidate information generation module according to an embodiment of the present invention, fashion item area information having a relatively small size is generated from fashion content image information, and relatively size is generated from smoothing fashion content image information. It may be configured to generate information about a large fashion item area. According to this, since candidate information is output for each fashion content image information to which a smoothing filter is not applied and a plurality of smoothing fashion content image information to which a smoothing filter is applied, a plurality of different sizes included in one fashion content image information There is an effect of being able to detect all parts of a fashion item. For example, for fashion content image information to which a smoothing filter is not applied, a fashion item portion having the smallest size is detected, and for smoothing fashion content image information to which a smoothing filter is applied, a fashion item portion having a larger size is detected. The effect occurs. This is because the smoothing fashion content video information disappears leaving only features that are relatively larger in scale than the fashion content video information.

또한, 본 발명의 일실시예에 따른 후보 출력 모듈은 인공신경망에서 출력된 복수개의 상기 후보 정보 중 중복된 후보 정보인 중복 후보 정보를 제거하도록 구성될 수 있다. 상기 후보 출력 모듈의 중복 후보 정보 제거는 아래의 순서로 진행될 수 있다. In addition, the candidate output module according to an embodiment of the present invention may be configured to remove redundant candidate information, which is redundant candidate information, among the plurality of candidate information output from the artificial neural network. The redundant candidate information removal of the candidate output module may be performed in the following order.

(1) 후보 출력 모듈이 인공신경망에서 출력된 복수개의 상기 후보 정보를 패션 아이템 유무 정보가 높은 순(신뢰도, confidence가 높은 순)으로 정렬(1) The candidate output module sorts the plurality of candidate information output from the artificial neural network in the order of the highest fashion item presence information (the highest reliability, the highest confidence).

(2) 가장 패션 아이템 유무 정보가 높은 후보 정보와 겹치는 후보 정보 중에서, 후보 정보들의 전체 영역 대비 겹치는 영역의 비율이 특정 값 이상으로 겹치는 후보 정보는 동일한 패션 아이템을 감지(detect)한 것으로 판정하여 제거(예를 들어, 후보 정보들의 전체 영역 대비 겹치는 영역의 비율이 50% 이상인 경우 제거)(2) Among candidate information that overlaps with the candidate information having the highest fashion item presence information, candidate information whose ratio of the overlapping area to the total area of the candidate information is more than a certain value is determined to have detected the same fashion item and removed. (For example, if the ratio of the overlapping area to the total area of candidate information is 50% or more, it is removed)

(3) 2단계에서 제거되지 않은 후보 정보 중 패션 아이템 유무 정보가 높은 후보 정보 순으로 2단계를 수행(3) Among the candidate information that was not removed in step 2, step 2 is performed in order of the candidate information with the highest fashion item presence information.

이에 따르면, 상기 패션 콘텐츠 영상 정보나 상기 스무딩 패션 콘텐츠 영상 정보에 포함된 동일한 패션 아이템에 대하여 후보 정보가 중복되어 출력되는 것을 방지할 수 있게 되는 효과가 발생된다. 이러한 효과는 비후보 제거 모듈의 계산 부하를 저감시켜주는 연쇄 효과를 발생시키게 된다.Accordingly, it is possible to prevent duplicated output of candidate information for the fashion content image information or the same fashion item included in the smoothing fashion content image information. This effect generates a chain effect that reduces the computational load of the non-candidate removal module.

본 발명의 일실시예에 따른 비후보 제거 모듈은, 상기 후보 출력 모듈에서 출력된 상기 후보 정보(해당 후보 정보에 대한 패션 아이템 유무 정보 및 해당 후보 정보의 패션 아이템 구역 정보)에 해당되는 패션 콘텐츠 영상 정보에서의 이미지 정보를 입력 정보로 하고 상기 후보 정보의 비후보 분류 정보를 출력 정보로 하는 기학습된 인공신경망을 포함할 수 있다. 또한, 본 발명의 일실시예에 따른 비후보 제거 모듈은 상기 후보 정보의 비후보 분류 정보를 기초로 후보 정보 중 패션 아이템을 포함하지 않는 것으로 분류되는 후보 정보(상기 비후보 분류 정보가 특정 값 이상인 후보 정보)를 제거하여 비후보 후보가 제거된 나머지 후보 정보(패션 아이템 구역 정보, 패션 아이템 유무 정보, 비후보 분류 정보 포함)를 패션 아이템 영상 정보로 출력하도록 구성될 수 있다. 도 5는 본 발명의 일실시예에 따른 비후보 제거 모듈을 도시한 모식도이다. 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 비후보 제거 모듈은 후보 출력 모듈에서 생성된 후보 정보를 수신하고, 후보 정보 중 비후보 분류 정보의 신뢰도가 특정 값 이상인 후보 정보를 제거한 뒤, 제거되지 않고 남은 후보 정보의 영상 정보 또는 구역 정보를 패션 아이템 영상 정보로서 출력하고 패션 아이템 분류 모듈(12)에 송신하는 모듈이다. 이에 따르면, 후보 정보 중 패션 아이템을 포함하지 않는 것으로 분류되는 후보 정보를 높은 확률로 제거할 수 있게 되는 효과가 발생된다.The non-candidate removal module according to an embodiment of the present invention is a fashion content image corresponding to the candidate information (fashion item presence information for the candidate information and fashion item area information of the candidate information) output from the candidate output module. It may include a pre-learned artificial neural network that uses image information in the information as input information and non-candidate classification information of the candidate information as output information. In addition, the non-candidate removal module according to an embodiment of the present invention includes candidate information classified as not including a fashion item among candidate information based on the non-candidate classification information of the candidate information (the non-candidate classification information is equal to or greater than a specific value). Candidate information) may be removed to output the remaining candidate information (including fashion item area information, fashion item presence information, and non-candidate classification information) from which the non-candidate candidate has been removed as fashion item image information. 5 is a schematic diagram showing a non-candidate removal module according to an embodiment of the present invention. 5, the non-candidate removal module according to an embodiment of the present invention receives candidate information generated by the candidate output module, and removes candidate information whose reliability of non-candidate classification information is greater than or equal to a specific value among candidate information. Afterwards, it is a module that outputs video information or area information of candidate information remaining without being removed as fashion item video information and transmits it to the fashion item classification module 12. Accordingly, it is possible to remove candidate information classified as not including a fashion item among the candidate information with a high probability.

패션 아이템 분류 모듈(12)은, 수신된 패션 콘텐츠 영상 정보에 포함된 각각의 패션 아이템 영상 정보를 기학습된 인공신경망(특히, ConvNet)에 입력하여 각 패션 아이템 영상 정보에 대한 패션 아이템 분류 정보를 출력하도록 구성(인공신경망의 추론 단계)되는 모듈이다. 도 6은 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 인공신경망의 작동관계를 도시한 모식도이다. 도 6에 도시된 바와 같이, 패션 아이템 분류 모듈(12)에 수신된 패션 콘텐츠 영상 정보에 포함된 각각의 패션 아이템 영상 정보를 패션 아이템 분류 모듈(12)의 기학습된 인공신경망(특히, ConvNet)에 입력하여 각 패션 아이템 영상 정보에 대한 패션 아이템 분류 정보를 출력하도록 구성될 수 있다. 패션 아이템 분류 모듈(12)의 기학습된 인공신경망의 추론 단계에서는 유저 클러스터링을 수행하고자 하는 사용자의 패션 콘텐츠 영상 정보를 입력 정보로 활용하게 된다.The fashion item classification module 12 inputs each fashion item image information included in the received fashion content image information into a pre-learned artificial neural network (especially, ConvNet), and stores fashion item classification information for each fashion item image information. It is a module that is configured to output (inference stage of artificial neural network). 6 is a schematic diagram showing an operation relationship of the artificial neural network of the fashion item classification module 12 according to an embodiment of the present invention. As shown in FIG. 6, each fashion item image information included in the fashion content image information received by the fashion item classification module 12 is converted into a pre-learned artificial neural network (especially, ConvNet) of the fashion item classification module 12. It may be configured to input to and output fashion item classification information for each fashion item image information. In the inference stage of the previously learned artificial neural network of the fashion item classification module 12, fashion content image information of a user who wants to perform user clustering is used as input information.

학습 단계에서 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 인공신경망은, 소셜 네트워크 웹서버(50)의 데이터베이스에 기저장된 복수의 사용자들의 복수의 패션 콘텐츠 영상 정보를 소스 데이터로 활용하며, 패션 아이템 영상 정보가 어떤 패션 아이템 카테고리인지 또는 어떤 패션 아이템인지에 대한 패션 아이템 레이블 정보(label)를 인공신경망 학습의 Ground-truth로 하고, 아래의 손실 정보를 병합하여 손실함수로 활용하며, 손실함수의 손실 값을 최소로 하도록 인공신경망의 각 layer의 weight를 학습하게 된다. 이때, 학습을 위한 소스 정보(입력 정보)는 소셜 네트워크 내의 복수의 패션 콘텐츠 영상 정보가 될 수 있으며, 패션 콘텐츠의 반응 정보(호감 정보, 댓글 정보, 공유 정보 등)를 포함할 수 있다. In the learning step, the artificial neural network of the fashion item classification module 12 according to an embodiment of the present invention uses a plurality of fashion content image information of a plurality of users previously stored in the database of the social network web server 50 as source data. The fashion item label information on which fashion item category or fashion item is the fashion item image information is used as the ground-truth of artificial neural network learning, and the following loss information is merged and used as a loss function. The weight of each layer of the artificial neural network is learned to minimize the loss value of the loss function. In this case, the source information (input information) for learning may be a plurality of fashion content image information in a social network, and may include reaction information (like feeling information, comment information, sharing information, etc.) of the fashion content.

[손실 1] 패션 아이템 영상 정보가 어떤 레이블로 분류되는지에 대한 패션 아이템 분류 정보와 Ground-truth의 해당 패션 아이템 영상 정보에 대한 실제 패션 아이템 레이블 정보와의 차이[Loss 1] The difference between the fashion item classification information on which label the fashion item video information is classified and the actual fashion item label information on the corresponding fashion item video information of Ground-truth

[손실 2] 각각의 패션 아이템 영상 정보에 대한 각 인공신경망의 FC 레이어(Fully Connected Layer)에서 출력되는 벡터들 사이의 거리 (하나의 패션 콘텐츠 영상 정보에 하나의 패션 아이템이 디텍션 된 경우, 거리는 0)[Loss 2] The distance between vectors output from the FC layer (Fully Connected Layer) of each artificial neural network for each fashion item video information (if one fashion item is detected in one fashion content video information, the distance is 0 )

[패션 아이템 분류 모듈의 인공신경망 손실함수] = 손실 1 + 손실 2 [Artificial neural network loss function of fashion item classification module] = loss 1 + loss 2

도 7은 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 인공신경망의 예시를 도시한 모식도이다. 도 7에 도시된 바와 같이, 패션 아이템 분류 모듈(12)의 인공신경망은 [INPUT-CONV-RELU-POOL-FC]으로 구축될 수 있다. 입력 정보인 패션 아이템 영상 정보는 가로 32, 세로 32, 높이 n의 채널을 가지고 입력의 크기는 [32x32xn]인 매트릭스로 구성될 수 있다. CONV 레이어(Conv. Filter, 101)는 패션 아이템 영상 정보의 일부 영역과 연결되어 있으며, 이 연결된 영역과 가중치의 내적 연산(dot product)을 계산하게 된다. 결과 볼륨은 [32x32x12]와 같은 크기를 갖게 된다. RELU 레이어는 max(0,x)와 같이 각 요소에 적용되는 액티베이션 함수(activation function)이다. RELU 레이어는 볼륨의 크기를 변화시키지 않는다([32x32x12]). 그 결과 Activation map 1 (102)을 생성한다. POOL 레이어(pooling, 103)는 "가로,세로" 차원에 대해 다운샘플링(downsampling)을 수행해 [16x16x12]와 같이 줄어든 볼륨(Activation map 2, 104)을 출력한다. n번째 Activation map n(105)과 연결된 FC(fully-connected) 레이어(106) 이후 클래스 점수들을 계산해 [m x m x 1]의 크기를 갖는 볼륨(output layer, 107)을 출력한다. 패션 아이템 분류 모듈(12)의 인공신경망의 손실함수 중 손실 2는 패션 아이템 영상 정보의 차원이 축소된 형태인 FC 레이어(106)의 출력 벡터를 이용하게 되고, 각각의 패션 아이템 영상 정보에 대한 FC 레이어의 출력 벡터 사이의 거리가 손실 2의 손실 값으로 구성되게 된다. 7 is a schematic diagram showing an example of an artificial neural network of the fashion item classification module 12 according to an embodiment of the present invention. As shown in FIG. 7, the artificial neural network of the fashion item classification module 12 may be constructed as [INPUT-CONV-RELU-POOL-FC]. The fashion item image information, which is input information, may be composed of a matrix having a channel of 32 width, 32 height, and height n, and an input size of [32x32xn]. The CONV layer (Conv. Filter) 101 is connected to a partial area of fashion item image information, and a dot product of the connected area and weight is calculated. The resulting volume will have the same size as [32x32x12]. The RELU layer is an activation function applied to each element, such as max(0,x). The RELU layer does not change the volume size ([32x32x12]). As a result, Activation map 1 (102) is generated. The POOL layer (pooling, 103) performs downsampling on the "horizontal and vertical" dimensions and outputs a reduced volume (Activation map 2, 104) such as [16x16x12]. After the fully-connected (FC) layer 106 connected to the n-th activation map n 105, class scores are calculated, and a volume (output layer, 107) having a size of [m x m x 1] is output. Loss 2 of the loss function of the artificial neural network of the fashion item classification module 12 uses the output vector of the FC layer 106, which is a reduced dimension of fashion item image information, and the FC for each fashion item image information The distance between the output vectors of the layer is composed of the loss value of loss 2.

특히, 손실 2의 가중치는 해당 패션 콘텐츠 영상 정보의 반응 정보의 수(호감 정보, 댓글 정보, 공유 정보 등)에 비례하도록 구성될 수 있다. 예를 들어, 반응 정보가 많은 패션 콘텐츠의 경우, 손실 2가 손실 1에 비해 더 높은 가중치를 가질 수 있다. 즉, 반응 정보가 더 많은 패션 콘텐츠는 해당 패션 콘텐츠 영상 정보 내의 각각의 패션 아이템 영상 정보에 대한 각 인공신경망의 FC 레이어의 벡터들 사이의 거리가 더 가깝게 출력될 수 있다. In particular, the weight of loss 2 may be configured to be proportional to the number of reaction information (like information, comment information, sharing information, etc.) of the corresponding fashion content video information. For example, in the case of fashion content having a lot of response information, loss 2 may have a higher weight than loss 1. That is, in the fashion content having more response information, the distance between the vectors of the FC layer of each artificial neural network with respect to each fashion item image information in the corresponding fashion content image information may be outputted closer.

패션 아이템 분류 모듈의 인공신경망의 손실 2와 관련하여, 예를 들어, 도 6에 도시된 패션 아이템 분류 모듈의 인공신경망을 학습 시킬 때, 부츠 1 부분(패션 아이템 영상 정보)에 대한 인공신경망, 부츠 2 부분에 대한 인공신경망, 청바지 부분에 대한 인공신경망, 가죽 점퍼 부분에 대한 인공신경망 각각의 output layer가 아닌 output layer 이전의 Fully Connected Layer의 출력 벡터(임베딩 벡터) 각각의 거리(부츠 1 - 부츠 2 임베딩 벡터 사이의 거리, 부츠 1 - 청바지 임베딩 벡터 사이의 거리, 등)를 통합한 값을 손실 2의 손실 값으로 하고, 손실 1과 손실 2를 통합한 손실함수의 값을 최소로 하도록 인공신경망을 학습하게 된다. 본 발명의 일실시예에 따르면 하나의 패션 콘텐츠 영상 정보 내에 포함된 패션 아이템들은 FC 레이어의 출력 벡터 사이의 거리가 서로 가깝게 출력되게 되고, 나아가 반응 정보가 더 많은 패션 콘텐츠는 FC 레이어의 출력 벡터 사이의 거리가 더 가깝게 출력되로, 서로 어울리는 패션 아이템끼리 가까운 벡터값을 가지도록 출력되게 되는 효과가 발생된다. 이에 따르면, 패션 아이템 각각에 대해 서로 어울리는지, 어떤 스타일에 대한 패션 아이템인지를 일일이 태깅하지 않아도, 기존의 패션 아이템 분류 인공신경망을 활용하여 손실함수 변경만으로 서로 조합하였을 때 어울리는 패션 아이템을 구분하거나 패션 아이템들을 스타일별로 클러스터링 할 수 있게 되는 효과가 발생된다.Regarding the loss 2 of the artificial neural network of the fashion item classification module, for example, when learning the artificial neural network of the fashion item classification module shown in FIG. 6, the artificial neural network and boots for the boot 1 part (fashion item image information) Artificial neural network for part 2, artificial neural network for jeans part, artificial neural network for leather jumper The output vector (embedding vector) of the Fully Connected Layer before the output layer, not each output layer (Boots 1-Boots 2) The artificial neural network is used to minimize the value of the loss function that combines the loss 1 and the loss 2, using the combined value of the distance between embedding vectors, boots 1-the distance between jeans embedding vectors, etc.) You will learn. According to an embodiment of the present invention, fashion items included in one fashion content image information have a distance between the output vectors of the FC layer close to each other, and further, fashion content with more response information is between the output vectors of the FC layer. As the distance of is outputted closer, the effect of being outputted so that matching fashion items have close vector values occurs. According to this, the existing fashion item classification artificial neural network is used to classify the fashion items that match each other when combined with only changing the loss function, without having to tag each fashion item for each fashion item. There is an effect that items can be clustered by style.

임베딩 모듈(13)은, 상기 패션 아이템 분류 모듈(12)의 인공신경망의 FC 레이어와 연결되어, FC 레이어의 출력 벡터를 해당 패션 아이템에 대한 임베딩 벡터로서 수신하는 모듈이다. 예를 들어, 임베딩 모듈(13)은 도 6에서와 같이 하나의 패션 콘텐츠 영상 정보 내에 4개의 패션 아이템 영상 정보가 있는 경우, 각각의 패션 아이템 영상 정보에 대응되는 4개의 임베딩 벡터를 생성하게 된다. The embedding module 13 is a module that is connected to the FC layer of the artificial neural network of the fashion item classification module 12 and receives an output vector of the FC layer as an embedding vector for a corresponding fashion item. For example, as shown in FIG. 6, when there are four fashion item image information in one fashion content image information, the embedding module 13 generates four embedding vectors corresponding to each fashion item image information.

클러스터링 모듈(14)은, 기존에 학습에 이용된 소스 데이터(소셜 네트워크의 적어도 일부의 패션 콘텐츠 영상 정보의 패션 아이템 영상 정보)의 임베딩 벡터를 클러스터링하여 클러스터 정보를 생성하고, 상기 임베딩 모듈(13)에서 생성된 각 패션 아이템 영상 정보에 대한 임베딩 벡터를 클러스터 정보에 매핑하는 모듈이다. 클러스터링 모듈(14)에 따르면, 특정 소셜 네트워크에서 특정 사용자가 반응 정보을 입력한 적어도 하나 이상의 패션 콘텐츠에 대하여 복수개의 패션 아이템이 검출되고, 해당 복수개의 패션 아이템을 기학습된 클러스터링 모듈(14)을 통해 적어도 하나 이상의 클러스터에 매핑하게 되므로, 하나의 사용자에 대해 적어도 하나 이상의 클러스터가 매핑되고, 각 클러스터는 해당 사용자의 스타일 아이덴티티를 의미하며, 각 클러스터에 포함된 패션 아이템의 개수가 해당 스타일 아이덴티티의 중요도(클러스터 중요도)를 나타내는 것으로 해석될 수 있다. The clustering module 14 generates cluster information by clustering an embedding vector of source data (fashion item image information of at least part of fashion content image information of a social network) previously used for learning, and the embedding module 13 This module maps the embedding vector for each fashion item image information generated in the cluster information. According to the clustering module 14, a plurality of fashion items are detected with respect to at least one fashion content to which a specific user inputs reaction information in a specific social network, and the plurality of fashion items are previously learned through the clustering module 14. Since at least one or more clusters are mapped, at least one or more clusters are mapped for one user, and each cluster represents the style identity of the user, and the number of fashion items included in each cluster is the importance of the style identity ( Cluster importance).

즉, 본 발명의 일실시예에 따른 클러스터링 모듈(14)에 따르면, 특정 사용자의 관심 패션 콘텐츠 정보를 입력하여 복수의 패션 아이템으로 구성되는 클러스터인 해당 특정 사용자의 스타일 아이덴티티(해당 클러스터를 구성하는 복수의 패션 아이템 영상 정보)를 출력하도록 구성될 수 있다. 또한, 본 발명의 일실시예에 따른 클러스터링 모듈(14)에 따르면, 복수의 사용자들의 각각의 관심 패션 콘텐츠 정보를 입력하고, 복수의 사용자들을 스타일 아이덴티티 별로 군집한 사용자 군집(클러스터 유저 정보)를 출력하도록 구성될 수 있다. 나아가, 본 발명의 일실시예에 따른 클러스터링 모듈(14)에 따르면, 개별적인 패션 아이템이나 특정 브랜드의 패션 아이템을 클러스터링 모듈(14)의 입력하여 해당 패션 아이템과 같은 클러스터에 해당되는 패션 아이템을 출력하거나 해당 패션 아이템과 같은 클러스터에 해당되는 패션 아이템에 반응 정보를 입력하거나 업로드 한 사용자 군집(클러스터 유저 정보)을 출력하도록 구성될 수 있다.That is, according to the clustering module 14 according to an embodiment of the present invention, the style identity of a specific user, which is a cluster composed of a plurality of fashion items by inputting information on fashion content of interest of a specific user (a plurality of It may be configured to output the fashion item image information). In addition, according to the clustering module 14 according to an embodiment of the present invention, information about fashion contents of interest of each of a plurality of users are input, and a group of users (cluster user information) that groups a plurality of users by style identity is output. Can be configured to Further, according to the clustering module 14 according to an embodiment of the present invention, an individual fashion item or a fashion item of a specific brand is input by the clustering module 14 to output a fashion item corresponding to a cluster such as a corresponding fashion item. It may be configured to input reaction information to a fashion item corresponding to a cluster such as a corresponding fashion item or to output an uploaded user cluster (cluster user information).

도 8은 본 발명의 일실시예에 따른 클러스터링 모듈에서의 임베딩 벡터 매핑을 도시한 모식도이다. 도 8에 도시된 바와 같이, 본 발명의 일실시예에 따른 클러스터링 모듈(14)은 기학습된 복수개의 클러스터 정보를 포함할 수 있고, 각각의 클러스터들은 신발, 상의, 하의, 모자, 주얼리 등의 다양한 카테고리의 패션 아이템의 임베딩 벡터를 포함할 수 있다. 또한, 특정 사용자가 특정 소셜 네트워크에서 반응 정보를 입력한 적어도 하나의 패션 콘텐츠에 포함된 패션 아이템들의 임베딩 벡터가 상기 기학습된 클러스터들에 매핑되도록 구성될 수 있으며, 패션 아이템들이 매핑된 각 클러스터들이 상기 특정 사용자의 스타일 아이덴티티를 나타낸다. 특정 사용자의 이러한 스타일 아이덴티티를 이용하여, 동일한 클러스터에 있는 다른 패션 아이템을 추천하거나 광고할 수 있도록 추천 알고리즘 또는 광고 알고리즘을 구성할 수 있다. 또는, 특정 브랜드의 패션 아이템이 속하는 클러스터와 동일한 클러스터에 있는 크리에이터(업로드 한 패션 콘텐츠 기반)를 추천하는 알고리즘을 구성할 수 있다. 또는, 특정 브랜드와 스타일 아이덴티티가 유사한 사용자들을 대상으로 타겟팅된 광고나 이벤트를 구성하기 위하여 특정 브랜드의 제품이 속하는 클러스터와 동일한 클러스터에 있는 사용자들을 출력하는 알고리즘을 구성할 수 있다. 8 is a schematic diagram showing embedding vector mapping in a clustering module according to an embodiment of the present invention. As shown in Figure 8, the clustering module 14 according to an embodiment of the present invention may include a plurality of pre-learned cluster information, each of the clusters, such as shoes, tops, bottoms, hats, jewelry, etc. It may include embedding vectors of various categories of fashion items. In addition, the embedding vector of fashion items included in at least one fashion content in which a specific user inputs reaction information in a specific social network may be configured to be mapped to the previously learned clusters, and each cluster to which fashion items are mapped Represents the style identity of the specific user. Using this style identity of a specific user, a recommendation algorithm or an advertisement algorithm can be configured to recommend or advertise other fashion items in the same cluster. Alternatively, an algorithm for recommending creators (based on uploaded fashion content) in the same cluster as the cluster to which the fashion item of a specific brand belongs may be configured. Alternatively, an algorithm for outputting users in the same cluster as the cluster to which a product of a specific brand belongs may be configured in order to compose an advertisement or event targeted to users having similar brand and style identity.

본 발명의 일실시예에 따른 클러스터링 모듈(14)의 클러스터링 알고리즘은 K-means 와 같은 일반적인 클러스터링 알고리즘이 사용될 수 있다. 또한, 본 발명의 일실시예에 따른 클러스터링 알고리즘은 복수개의 패션 아이템 영상 정보에 대한 상기 임베딩 벡터 중 임의의 점(core point)을 기준으로 반경 e(epsilon)내에 점이 특정 개수 이상 있으면 하나의 군집으로 인식하는 과정을 반복적으로 수행하여 임의의 개수의 군집(cluster)을 형성하는 방법으로 구성될 수 있다. 이에 따르면, 클러스터의 수를 기설정할 필요 없이 자동으로 패션 아이템 영상 정보의 군집의 개수를 찾게 되는 효과가 발생되며, outlier에 의해 클러스터링 성능이 하락하는 것을 방지하게 되는 효과가 발생된다. 또한, 특정 패션 콘텐츠 영상 정보 내에 몇 개의 패션 아이템이 등장할지 모르는 경우에도 군집화가 가능해지는 효과가 발생되며, 패션 아이템 분류 모듈(12)의 FC 레이어를 임베딩 벡터로 활용하기 때문에 클러스터링에 적절한 파라미터가 미리 정해져있게 되는 효과가 발생된다.As the clustering algorithm of the clustering module 14 according to an embodiment of the present invention, a general clustering algorithm such as K-means may be used. In addition, in the clustering algorithm according to an embodiment of the present invention, if there are more than a certain number of points within a radius e (epsilon) based on a core point among the embedding vectors for a plurality of fashion item image information, one cluster is formed. It can be configured in a method of forming an arbitrary number of clusters by repeatedly performing the recognition process. Accordingly, there is an effect of automatically finding the number of clusters of fashion item image information without the need to preset the number of clusters, and an effect of preventing deterioration of clustering performance due to outliers is generated. In addition, even when it is not known how many fashion items will appear in the specific fashion content video information, the effect of clustering occurs, and since the FC layer of the fashion item classification module 12 is used as an embedding vector, parameters suitable for clustering are previously The effect of being fixed occurs.

유저 클러스터링을 위한 패션 콘텐츠 임베딩 방법Fashion content embedding method for user clustering

본 발명의 일실시예에 따른 유저 클러스터링을 위한 패션 콘텐츠 임베딩 방법은 패션 콘텐츠 수신 단계, 패션 아이템 디텍션 단계, 패션 아이템 분류 단계, 임베딩 단계, 클러스터링 단계를 포함할 수 있다. The fashion content embedding method for user clustering according to an embodiment of the present invention may include a fashion content reception step, a fashion item detection step, a fashion item classification step, an embedding step, and a clustering step.

패션 콘텐츠 수신 단계는, 패션 콘텐츠 수신 모듈(10)이 사용자 클라이언트(100) 또는 소셜 네트워크 웹서버(50)에서 특정 기간 동안 특정 사용자가 반응 정보를 입력하거나 업로드 한 패션 콘텐츠 정보인 관심 패션 콘텐츠 정보(패션 콘텐츠 영상 정보, 텍스트 정보, 태그 정보, 댓글 정보, 호감 정보, 뷰 카운트 정보 등)를 수신하고, 패션 아이템 디텍션 모듈(11)에 수신된 패션 콘텐츠 영상 정보를 송신하는 단계이다. In the fashion content receiving step, the fashion content receiving module 10 includes fashion content information of interest, which is fashion content information that a specific user inputs or uploads response information for a specific period in the user client 100 or the social network web server 50 Fashion content video information, text information, tag information, comment information, like information, view count information, etc.) are received, and the received fashion content video information is transmitted to the fashion item detection module 11.

패션 아이템 디텍션 단계는, 패션 아이템 디텍션 모듈(11)이 패션 콘텐츠 수신 모듈(10)에서 패션 콘텐츠 영상 정보를 수신하고, 상기 패션 콘텐츠 영상 정보에서 패션 아이템의 구역을 디텍션(detection)하여 패션 아이템 구역 정보를 생성하며, 패션 아이템 구역 정보를 기초로 패션 콘텐츠 영상 정보의 적어도 일부인 패션 아이템 영상 정보를 생성하는 단계이다. In the fashion item detection step, the fashion item detection module 11 receives fashion content image information from the fashion content receiving module 10, detects a fashion item area from the fashion content image information, and detects fashion item area information. And generating fashion item image information that is at least a part of fashion content image information based on fashion item area information.

패션 아이템 분류 단계는, 패션 아이템 분류 모듈(12)이 수신된 패션 콘텐츠 영상 정보에 포함된 각각의 패션 아이템 영상 정보를 기학습된 인공신경망에 입력하여 각 패션 아이템 영상 정보에 대한 패션 아이템 분류 정보를 출력하도록 구성(인공신경망의 추론 단계)되는 단계이다.In the fashion item classification step, the fashion item classification module 12 inputs each fashion item image information included in the received fashion content image information into a pre-learned artificial neural network to provide fashion item classification information for each fashion item image information. It is a step that is configured to be output (inference step of the artificial neural network).

임베딩 단계는, 임베딩 모듈(13)이 상기 패션 아이템 분류 모듈(12)의 인공신경망의 FC 레이어와 연결되어, FC 레이어의 출력 벡터를 해당 패션 아이템에 대한 임베딩 벡터로서 수신하는 단계이다.In the embedding step, the embedding module 13 is connected to the FC layer of the artificial neural network of the fashion item classification module 12 and receives the output vector of the FC layer as an embedding vector for the fashion item.

클러스터링 단계는 클러스터링 모듈(14)이 기존에 학습에 이용된 소스 데이터(소셜 네트워크의 적어도 일부의 패션 콘텐츠 영상 정보의 패션 아이템 영상 정보)의 임베딩 벡터를 클러스터링하여 클러스터 정보를 생성하고, 상기 임베딩 모듈(13)에서 생성된 각 패션 아이템 영상 정보에 대한 임베딩 벡터를 클러스터 정보에 매핑하는 단계이다.In the clustering step, the clustering module 14 generates cluster information by clustering an embedding vector of source data (fashion item image information of at least part of fashion content image information of a social network) previously used for learning, and the embedding module ( This is a step of mapping the embedding vector for each fashion item image information generated in 13) to cluster information.

유저 클러스터링을 이용한 패션 아이템 추천 장치 및 방법Apparatus and method for recommending fashion items using user clustering

도 9는 본 발명의 일실시예에 따른 유저 클러스터링을 이용한 패션 아이템 추천 장치를 도시한 모식도이다. 도 9에 도시된 바와 같이, 본 발명의 일실시예에 따른 유저 클러스터링을 이용한 패션 아이템 추천 장치(2)는 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치(1)와 연결되고, 클러스터 정보 요청 모듈(20), 구매 아이템 정보 수집 모듈(21), 아이템 추천 모듈(22)을 포함할 수 있다.9 is a schematic diagram illustrating an apparatus for recommending fashion items using user clustering according to an embodiment of the present invention. As shown in Fig. 9, the fashion item recommendation device 2 using user clustering according to an embodiment of the present invention is connected to the fashion content embedding device 1 for user clustering, and the cluster information request module 20 , Purchase item information collection module 21, and item recommendation module 22.

클러스터 정보 요청 모듈(20)은 특정 사용자가 사용자 클라이언트(100)의 애플리케이션 모듈의 특정 페이지(화면, view, layout)에 유입되었을 때, 클러스터링 모듈(14)에 의해 생성된 상기 특정 사용자에 대한 클러스터 정보인 클러스터 유저 정보를 클러스터링 모듈(14)에 요청하고, 상기 특정 사용자가 포함된 클러스터에 함께 포함된 다른 사용자들의 사용자 정보를 수신하는 모듈이다. 도 10은 본 발명의 일실시예에 따라 사용자가 유입되었을 때 클러스터 정보 요청 모듈의 흐름도이다. 도 10에 도시된 바와 같이, 본 발명의 일실시예에 따라 특정 사용자가 사용자 클라이언트(100)의 애플리케이션 모듈에 유입되면, 유저 클러스터링을 이용한 패션 아이템 추천 장치(2)의 클러스터 정보 요청 모듈(20)에서 해당 사용자의 클러스터 정보 및 해당 클러스터에 대한 클러스터 유저 정보를 클러스터링 모듈(14)에 요청하고, 클러스터링 모듈(14)과 연결된 클러스터 DB에서 클러스터 유저 정보에 포함되는 다른 사용자들의 사용자 정보를 수신하게 된다. 본 발명의 일실시예에 따르면, 클러스터 정보 요청 모듈(20)은 클러스터링 모듈(14)로부터 사용자 A의 반응 정보를 기초로 생성된 사용자 A의 클러스터 a,b,c에 대한 정보인 클러스터 정보 및 클러스터 a,b,c에 포함되는 사용자인 사용자 A,B,C,D에 대한 정보인 클러스터 유저 정보를 수신하도록 구성될 수 있다. When a specific user enters a specific page (screen, view, layout) of the application module of the user client 100, the cluster information request module 20 generates cluster information for the specific user, which is generated by the clustering module 14. A module that requests in-cluster user information from the clustering module 14 and receives user information of other users included in the cluster including the specific user. 10 is a flowchart of a cluster information request module when a user is introduced according to an embodiment of the present invention. As shown in FIG. 10, when a specific user flows into the application module of the user client 100 according to an embodiment of the present invention, the cluster information request module 20 of the fashion item recommendation device 2 using user clustering In the cluster, the cluster information of the user and the cluster user information on the cluster are requested from the clustering module 14, and user information of other users included in the cluster user information is received from the cluster DB connected to the clustering module 14. According to an embodiment of the present invention, the cluster information request module 20 includes cluster information and cluster information, which are information about user A's clusters a, b, and c generated based on user A's reaction information from the clustering module 14. It may be configured to receive cluster user information, which is information about users A, B, C, and D as users included in a, b, and c.

클러스터링 모듈(14)은 전체(또는 특정 기간 내의) 패션 콘텐츠의 패션 아이템 영상 정보의 임베딩 벡터를 클러스터링 하여 적어도 하나 이상의 클러스터 정보를 생성하고, 각각의 사용자가 속하는 클러스터 정보인 클러스터 유저 정보를 생성한다. 클러스터링 모듈(14)에 따르면, 특정 소셜 네트워크에서 특정 사용자가 반응 정보을 입력한 적어도 하나 이상의 패션 콘텐츠에 대하여 복수개의 패션 아이템이 검출되고, 해당 복수개의 패션 아이템을 기학습된 클러스터링 모듈(14)을 통해 적어도 하나 이상의 클러스터에 매핑하게 되므로, 하나의 사용자에 대해 적어도 하나 이상의 클러스터가 매핑되고, 각 클러스터는 해당 사용자의 스타일 아이덴티티를 의미하며, 각 클러스터에 포함된 패션 아이템의 개수가 해당 스타일 아이덴티티의 중요도(클러스터 중요도)를 나타내는 것으로 해석될 수 있다. 예를 들어, 사용자 A가 반응 정보를 입력한 패션 아이템이 클러스터 a,b,c에 매핑되고, 각 클러스터 a,b,c 내에 포함되는 패션 아이템(사용자 A가 반응 정보를 입력한 패션 아이템 영상 정보의 임베딩 벡터)의 개수에 따라 클러스터의 중요도가 결정될 수 있다. 본 발명의 일실시예에 따른 클러스터링 모듈(14)에 따르면, 복수의 사용자들의 각각의 관심 패션 콘텐츠 정보를 입력하고, 복수의 사용자들을 스타일 아이덴티티 별로 군집한 사용자 군집(클러스터 유저 정보)를 출력하도록 구성될 수 있다. 예를 들어, 클러스터 a에는 사용자 A,B,C, 클러스터 b에는 사용자 A,B,D,E, 클러스터 c에는 사용자 A,D가 포함될 수 있고, 각 클러스터에 포함되는 사용자 군집의 사용자 정보를 클러스터 유저 정보로 출력할 수 있다. The clustering module 14 generates at least one cluster information by clustering the embedding vector of fashion item image information of all (or within a specific period) fashion content, and generates cluster user information, which is cluster information to which each user belongs. According to the clustering module 14, a plurality of fashion items are detected with respect to at least one fashion content to which a specific user inputs reaction information in a specific social network, and the plurality of fashion items are previously learned through the clustering module 14. Since at least one or more clusters are mapped, at least one or more clusters are mapped for one user, and each cluster represents the style identity of the user, and the number of fashion items included in each cluster is the importance of the style identity ( Cluster importance). For example, a fashion item to which user A inputs reaction information is mapped to clusters a, b, and c, and fashion items included in each cluster a, b, and c (fashion item image information that user A inputs reaction information The importance of the cluster may be determined according to the number of embedding vectors). According to the clustering module 14 according to an embodiment of the present invention, it is configured to input fashion content information of respective interests of a plurality of users, and to output a user cluster (cluster user information) in which a plurality of users are clustered by style identity. Can be. For example, cluster a may contain users A, B, C, cluster b may contain users A, B, D, E, and cluster c may contain users A and D, and user information of user clusters included in each cluster It can be output as user information.

이때, 패션 아이템 영상 정보의 임베딩 벡터를 생성하는 임베딩 모듈(13)은 패션 아이템 분류 모듈(12)의 인공신경망의 FC 레이어와 연결되어, FC 레이어의 출력 벡터를 해당 패션 아이템에 대한 임베딩 벡터로서 수신하게 된다. 인공신경망 모듈인 상기 패션 아이템 분류 모듈(12)은 입력 데이터를 특정 패션 콘텐츠 영상 정보에 포함된 각각의 패션 아이템 영상 정보로 하고, 출력 데이터를 패션 아이템 분류 정보로 하도록 구성될 수 있다. At this time, the embedding module 13 that generates the embedding vector of fashion item image information is connected to the FC layer of the artificial neural network of the fashion item classification module 12, and receives the output vector of the FC layer as an embedding vector for the fashion item. Is done. The fashion item classification module 12, which is an artificial neural network module, may be configured to use input data as fashion item image information included in specific fashion content image information, and output data to fashion item classification information.

또한, 상기 패션 아이템 분류 모듈(12)의 학습 세션에서, 상기 패션 아이템 분류 모듈(12)의 손실함수(Loss Function)는 하나의 패션 콘텐츠 영상 정보 내에 포함되는 각각의 패션 아이템 영상 정보에 대한 각 인공신경망의 FC 레이어(Fully Connected Layer)에서 출력되는 벡터들 사이의 거리를 포함할 수 있고, 상기 거리가 가까울수록 상기 손실함수의 손실 값이 감소하도록 구성될 수 있다. 인공신경망 모듈인 상기 패션 아이템 분류 모듈(12)의 학습 세션에서는 위의 손실함수가 낮아지는 방향으로 패션 아이템 분류 모듈(12)의 weight가 업데이트 될 수 있다. 예를 들어, 하나의 패션 콘텐츠 영상 정보에 복수의 패션 아이템이 디텍션 된 경우, 각각의 패션 아이템에 대한 임베딩 벡터들 사이의 거리는 특정 거리 이내로 구성되도록 패션 아이템 분류 모듈(12)이 학습될 수 있다. 특히, 상기 특정 거리는 해당 패션 콘텐츠 영상 정보의 반응 정보의 수(호감 정보, 댓글 정보, 공유 정보 등)에 반비례하도록 구성될 수 있다. 예를 들어, 'like'와 같은 반응 정보의 수가 많은 패션 콘텐츠 영상 정보에 포함된 복수의 패션 아이템에 대한 각각의 임베딩 벡터는 서로 특정 거리 이내에 위치할 수 있고, 반응 정보의 수가 적은 패션 콘텐츠 영상 정보에 포함된 패션 아이템에 대한 각각의 임베딩 벡터에 비해 서로 더 가깝게 위치될 수 있다. 즉, 반응 정보가 더 많은 패션 콘텐츠는 해당 패션 콘텐츠 영상 정보 내의 각각의 패션 아이템 영상 정보에 대한 각 인공신경망의 FC 레이어의 벡터들 사이의 거리가 더 가깝게 출력될 수 있다. 도 11은 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 임베딩 벡터 생성을 도시한 모식도이다. 도 11에 도시된 바와 같이, 패션 아이템 디텍션 모듈(11)은 패션 콘텐츠 영상 정보를 수신하고 수신된 패션 콘텐츠 영상 정보에 포함된 패션 아이템을 디텍션하여 n개의 패션 아이템 영상 정보를 출력하며, 출력된 n개의 패션 아이템 영상 정보를 입력 데이터로 하고 패션 아이템 카테고리 정보를 출력 데이터로 하는 인공신경망인 패션 아이템 분류 모듈(12)에 상기 n개의 패션 아이템 영상 정보가 입력되고, 임베딩 모듈(13)에 의해 패션 아이템 분류 모듈(12)의 FC Layer에서 각 패션 아이템 영상 정보에 대한 임베딩 벡터를 출력하게 된다. 이때, 패션 아이템 분류 모듈(12)의 학습 세션에서는 전체 패션 콘텐츠 영상 정보 또는 일부의 패션 콘텐츠 영상 정보에 대하여, 하나의 패션 콘텐츠 영상 정보 내에 포함되는 n개의 패션 아이템 영상 정보 각각의 임베딩 벡터에 대한 평균 거리가 반응 정보에 따라 계산되는 특정 거리인 스타일 아이덴티티 거리(k) 이내에 구성되도록 패션 아이템 분류 모듈(12)의 손실함수가 구성될 수 있다. 특히 상기 패션 콘텐츠 영상 정보의 사용자들에 대한 반응 정보가 특정 기간이나 특정 카테고리 내의 다른 패션 콘텐츠 영상 정보의 반응 정보 보다 상대적으로 많은 경우에 상기 스타일 아이덴티티 거리(k)는 감소하도록 구성될 수 있다. 또한, 반대로 상기 패션 콘텐츠 영상 정보의 전체 사용자들에 대한 반응 정보가 특정 기간이나 특정 카테고리 내의 다른 패션 콘텐츠 영상 정보의 반응 정보 보다 상대적으로 적은 경우에 상기 특정 거리(k)는 증가하도록 구성될 수 있다. 본 발명의 패션 아이템 분류 모듈(12)의 손실함수는 아래 수학식과 같이 구성될 수 있다. In addition, in the learning session of the fashion item classification module 12, the loss function of the fashion item classification module 12 is calculated for each fashion item image information included in one fashion content image information. A distance between vectors output from a fully connected layer (FC layer) of a neural network may be included, and a loss value of the loss function may be reduced as the distance is closer. In a learning session of the fashion item classification module 12, which is an artificial neural network module, the weight of the fashion item classification module 12 may be updated in a direction in which the loss function is lowered. For example, when a plurality of fashion items are detected in one fashion content image information, the fashion item classification module 12 may be trained so that a distance between embedding vectors for each fashion item is configured within a specific distance. In particular, the specific distance may be configured to be inversely proportional to the number of reaction information (like information, comment information, sharing information, etc.) of the corresponding fashion content image information. For example, each embedding vector for a plurality of fashion items included in fashion content image information with a large number of reaction information such as'like' may be located within a specific distance from each other, and fashion content image information with a small number of reaction information Compared to each embedding vector for the fashion item included in, they may be located closer to each other. That is, in the fashion content having more response information, the distance between the vectors of the FC layer of each artificial neural network with respect to each fashion item image information in the corresponding fashion content image information may be outputted closer. 11 is a schematic diagram illustrating the generation of an embedding vector by the fashion item classification module 12 according to an embodiment of the present invention. As shown in FIG. 11, the fashion item detection module 11 receives fashion content image information, detects fashion items included in the received fashion content image information, and outputs n fashion item image information. The n fashion item image information is input to the fashion item classification module 12, which is an artificial neural network that uses the fashion item image information as input data and the fashion item category information as output data, and the fashion item by the embedding module 13 The FC layer of the classification module 12 outputs an embedding vector for each fashion item image information. At this time, in the learning session of the fashion item classification module 12, the average of each embedding vector of n fashion item image information included in one fashion content image information with respect to all fashion content image information or some fashion content image information. The loss function of the fashion item classification module 12 may be configured such that the distance is configured within a style identity distance k, which is a specific distance calculated according to the reaction information. In particular, when reaction information of the fashion content image information to users is relatively larger than that of other fashion content image information within a specific period or a specific category, the style identity distance k may be configured to decrease. In addition, on the contrary, when reaction information of the fashion content image information for all users is relatively less than that of other fashion content image information within a specific period or a specific category, the specific distance k may be configured to increase. . The loss function of the fashion item classification module 12 of the present invention may be configured as in the following equation.

Figure 112020041011104-pat00001
Figure 112020041011104-pat00001

위 수학식 1에서 k 는 상기 패션 콘텐츠 영상 정보의 반응 정보에 따라 결정되는 스타일 아이덴티티 거리, n은 상기 패션 콘텐츠 영상 정보 내에 포함된 패션 아이템 영상 정보의 수, ema와 emb는 상기 패션 콘텐츠 영상 정보 내에 포함되는 패션 아이템 영상 정보 중 하나인 패션 아이템 a와 패션 아이템 b의 임베딩 벡터를 의미한다.In Equation 1 above, k is a style identity distance determined according to response information of the fashion content image information, n is the number of fashion item image information included in the fashion content image information, and em a and em b are the fashion content image It refers to an embedding vector of fashion item a and fashion item b, which is one of fashion item image information included in the information.

본 발명의 일실시예에 따르면 하나의 패션 콘텐츠 영상 정보 내에 포함된 패션 아이템들은 FC 레이어의 출력 벡터 사이의 거리가 서로 가깝게 출력되게 되고, 나아가 반응 정보가 더 많은 패션 콘텐츠는 FC 레이어의 출력 벡터 사이의 거리가 더 가깝게 출력되므로, 서로 어울리는 패션 아이템끼리 가까운 벡터값을 가지도록 출력되게 되는 효과가 발생된다. 이에 따르면, 패션 아이템 각각에 대해 서로 어울리는지, 어떤 스타일에 대한 패션 아이템인지를 일일이 태깅하지 않아도, 기존의 패션 아이템 분류 인공신경망을 활용하여 손실함수 변경만으로 서로 조합하였을 때 어울리는 패션 아이템을 구분하거나 패션 아이템들을 스타일별로 클러스터링 할 수 있게 되는 효과가 발생된다.According to an embodiment of the present invention, fashion items included in one fashion content image information have a distance between the output vectors of the FC layer close to each other, and further, fashion content with more response information is between the output vectors of the FC layer. Since the distance of is outputted closer, there is an effect that fashion items matching each other are output to have close vector values. According to this, the existing fashion item classification artificial neural network is used to classify the fashion items that match each other when combined with only changing the loss function, without having to tag each fashion item for each fashion item. There is an effect that items can be clustered by style.

클러스터링 모듈(14)은 클러스터 정보 요청 모듈(20)의 요청에 의해, 상기 특정 사용자가 속하는 클러스터 유저 정보에 함께 속하는 다른 사용자들의 사용자 정보인 동일 클러스터 사용자를 수집하고, 클러스터 정보 요청 모듈(20)에 송신하도록 구성될 수 있다. 도 12는 본 발명의 일실시예에 따른 클러스터링 모듈(14)에서 생성되는 클러스터 정보 및 클러스터 유저 정보를 도시한 모식도이다. 도 12에서 회색 채움 된 사용자 이미지는 사용자 A를 의미하고, 회색 채움 된 패션 아이템 이미지는 사용자 A가 반응 정보를 입력한 패션 콘텐츠 영상 정보에 포함된 패션 아이템의 임베딩 벡터를 의미한다. 도 12에 도시된 바와 같이, 클러스터 정보는 아이템 추천의 대상이 되는 특정 사용자인 사용자 A의 반응 정보 및 해당 반응 정보를 입력한 패션 콘텐츠 영상 정보를 기초로 생성되는 각 패션 아이템 영상 정보의 임베딩 벡터가 매핑되는 클러스터들(전체 또는 적어도 일부의 패션 콘텐츠 영상 정보에 대한 패션 아이템 정보들의 임베딩 벡터를 클러스터링하여 출력되는 클러스터)에 대한 정보를 의미할 수 있다. 즉, 도 12에 도시된 바와 같이 사용자 A가 반응 정보를 입력한 패션 콘텐츠 영상 정보에 포함된 패션 아이템의 임베딩 벡터는 클러스터 a,b에 매핑 될 수 있으며, 사용자 A의 클러스터 정보는 클러스터 a,b가 된다. 또한, 클러스터 유저 정보는 해당 클러스터에 해당되는 사용자들의 정보를 의미할 수 있다. 즉, 클러스터 a의 클러스터 유저 정보에는 사용자 A,B,C,D 등에 대한 사용자 정보가 포함될 수 있고, 클러스터 b의 클러스터 유저 정보에는 사용자 A,K,L 등에 대한 사용자 정보가 포함될 수 있다.The clustering module 14 collects the same cluster user, which is user information of other users belonging to the cluster user information to which the specific user belongs, at the request of the cluster information request module 20, and sends the cluster information request module 20 Can be configured to transmit. 12 is a schematic diagram showing cluster information and cluster user information generated by the clustering module 14 according to an embodiment of the present invention. In FIG. 12, a gray-filled user image denotes user A, and a gray-filled fashion item image denotes an embedding vector of a fashion item included in fashion content image information to which user A inputs reaction information. As shown in FIG. 12, the cluster information is an embedding vector of each fashion item image information generated based on the reaction information of the user A, which is a specific user targeted for item recommendation, and the fashion content image information inputting the reaction information. This may mean information on mapped clusters (clusters output by clustering embedding vectors of fashion item information for all or at least part of fashion content image information). That is, as shown in FIG. 12, the embedding vector of the fashion item included in the fashion content video information inputted by the user A's response information may be mapped to the clusters a and b, and the cluster information of the user A is Becomes. In addition, the cluster user information may mean information on users corresponding to a corresponding cluster. That is, the cluster user information of the cluster a may include user information of users A, B, C, D, and the like, and the cluster user information of the cluster b may include user information of users A, K, and L.

구매 아이템 정보 수집 모듈(21)은 상기 동일 클러스터 사용자에 속하는 사용자들이 구매한 패션 아이템에 대한 정보인 구매 아이템 정보를 구매 정보 DB에서 수집하는 모듈이다. 도 13은 본 발명의 일실시예에 따른 구매 아이템 정보 수집 모듈(21)의 구매 아이템 정보 수집을 도시한 모식도이다. 도 13에 도시된 바와 같이, 본 발명의 일실시예에 따른 구매 아이템 정보 수집 모듈(21)은 사용자 A가 속하는 클러스터 a,b에 포함되는 사용자 B,C,D,K,L 등이 구매한 패션 아이템에 대한 정보인 구매 아이템 정보를 구매 정보 DB에서 수신하도록 구성될 수 있다.The purchase item information collection module 21 is a module that collects purchase item information, which is information on fashion items purchased by users belonging to the same cluster user, from a purchase information DB. 13 is a schematic diagram showing the collection of purchase item information by the purchase item information collection module 21 according to an embodiment of the present invention. As shown in FIG. 13, the purchase item information collection module 21 according to an embodiment of the present invention is purchased by users B, C, D, K, L, etc. included in clusters a and b to which user A belongs. It may be configured to receive purchase item information, which is information on fashion items, from a purchase information DB.

아이템 추천 모듈(22)은 상기 구매 아이템 정보에 포함된 패션 아이템을 상기 특정 사용자의 사용자 클라이언트(100)의 애플리케이션 모듈 또는 기타 광고 채널(각종 웹/앱의 배너, 영상 광고, 오퍼월 등의 광고 네트워크를 통해 광고가 송출되는 광고 채널)을 통해 상기 특정 사용자에게 상기 패션 아이템을 추천하는 모듈이다. The item recommendation module 22 converts the fashion item included in the purchase item information into an application module of the user client 100 of the specific user or other advertisement channels (advertising networks such as banners, video advertisements, offer walls, etc. This module recommends the fashion item to the specific user through an advertisement channel through which advertisements are transmitted through.

상기 아이템 추천 모듈(22)의 상기 구매 아이템 정보에 포함된 패션 아이템의 추천은 다음의 단계로 수행될 수 있다. The recommendation of the fashion item included in the purchase item information of the item recommendation module 22 may be performed in the following steps.

(1) 아이템 추천 모듈(22)이 구매 아이템 정보에 포함된 패션 아이템 영상 정보인 구매 아이템 영상 정보 수신(1) The item recommendation module 22 receives purchase item image information, which is fashion item image information included in the purchase item information.

(2) 아이템 추천 모듈(22)이 구매 아이템 영상 정보를 패션 아이템 분류 모듈(12)에 입력하여 임베딩 벡터인 구매 아이템 임베딩 벡터 출력(2) The item recommendation module 22 inputs the purchase item image information into the fashion item classification module 12 to output a purchase item embedding vector, which is an embedding vector.

(3) 아이템 추천 모듈(22)이 해당 구매 아이템 임베딩 벡터가 포함된 클러스터의 중심과 구매 아이템 임베딩 벡터의 거리 및 해당 클러스터의 중요도(각 클러스터에 포함된 패션 아이템의 개수가 해당 스타일 아이덴티티(클러스터)의 중요도)를 기초로 추천 아이템 임베딩 벡터를 결정(3) The item recommendation module 22 determines the distance between the center of the cluster containing the purchase item embedding vector and the purchase item embedding vector, and the importance of the cluster (the number of fashion items included in each cluster is the corresponding style identity (cluster)). The recommended item embedding vector based on the importance of

(4) 상기 추천 아이템 임베딩 벡터에 대응되는 패션 아이템 영상 정보를 상기 특정 사용자의 사용자 클라이언트에 출력(4) Output fashion item image information corresponding to the recommended item embedding vector to the user client of the specific user

이에 따르면, 단순히 사용자와 동일 클러스터에 해당되는 패션 아이템을 추천하는 것보다 구매 전환율이 상승하게 되는 효과가 발생된다. 또한, CF(Collaborative Filtering)에 비해 사용자의 의도에 더 가까운 아이템 추천이 가능해지는 효과가 발생된다. 즉, 본 발명의 일실시예에 따르면 CF의 장점(집단지성)은 포함하면서 CF의 단점(개인 맞춤형 추천이 어려운 문제)은 해소하는 효과가 발생되게 된다. 나아가, 보통 소셜 네트워크의 패션 콘텐츠와 실제 구매가 가능한 패션 아이템은 차이가 있는데, 기존의 CF 등 알고리즘에서는 실제 구매가 가능한 패션 아이템의 구매 이력을 기초해서만 아이템 추천을 하였고, 이 차이 때문에 그 추천 모델의 개인 맞춤형 성능에 한계가 있었다. 하지만, 본 발명의 일실시예에 따른 패션 아이템 추천은 소셜 네트워크의 패션 콘텐츠에 대한 반응을 기초로 구매 아이템을 추천해주기 때문에 기존의 CF 등의 추천 알고리즘에 비해 개인 맞춤형 추천 성능이 향상되는 효과가 발생된다. According to this, the purchase conversion rate is increased rather than simply recommending a fashion item corresponding to the same cluster as the user. In addition, compared to CF (Collaborative Filtering), it is possible to recommend items closer to the user's intention. That is, according to an embodiment of the present invention, the advantage of CF (collective intelligence) is included, and the disadvantage of the CF (a problem in which personalized recommendation is difficult) is solved. Furthermore, there is a difference between the fashion contents of ordinary social networks and the fashion items that can be actually purchased.In the existing algorithms such as CF, item recommendations are only made based on the purchase history of fashion items that can be purchased, and because of this difference, the recommendation model There was a limit to its personalized performance. However, since the fashion item recommendation according to an embodiment of the present invention recommends a purchase item based on a reaction to the fashion content of a social network, the personalized recommendation performance is improved compared to the conventional recommendation algorithm such as CF. do.

아이템 추천 모듈(22)의 추천 아이템 임베딩 벡터의 결정과 관련하여, 도 14는 본 발명의 일실시예에 따른 추천 아이템 임베딩 벡터의 계산을 도시한 모식도이다. 도 14에 도시된 바와 같이, 아래의 단계로 추천 아이템 임베딩 벡터의 결정이 수행될 수 있다.Regarding the determination of the recommended item embedding vector by the item recommendation module 22, FIG. 14 is a schematic diagram illustrating calculation of a recommended item embedding vector according to an embodiment of the present invention. As shown in FIG. 14, determination of a recommended item embedding vector may be performed in the following steps.

(1) 각 클러스터 정보(i)와 구매 아이템 임베딩 벡터(j)에 대한 구매 가능성(q)을 계산, qij = f (j와 i 중심과의 거리, ...)(1) Calculate purchase probability (q) for each cluster information (i) and purchase item embedding vector (j), q ij = f (distance between j and i centers, ...)

(2) binary optimization 통해서 각 클러스터 정보(i)에 대한 추천 아이템 임베딩 벡터를 결정(2) Determine the recommended item embedding vector for each cluster information (i) through binary optimization

(3) 클러스터 중요도를 계산(3) Calculate cluster importance

(4) 클러스터 중요도를 기초로 사용자 클라이언트에 출력할 추천 아이템 임베딩 벡터를 결정(4) Determine the embedding vector of recommended items to be output to the user client based on the importance of the cluster

본 발명의 일실시예에 따른 클러스터 중요도는, 각 클러스터에 포함되는 해당 사용자가 반응 정보를 입력한 패션 콘텐츠 영상 정보에 포함된 패션 아이템 영상 정보의 임베딩 벡터의 수, 각 임베딩 벡터에 대하여 해당 사용자가 반응 정보를 입력한 시간의 최신성, 각 클러스터에 포함되는 임베딩 벡터들 사이의 평균 거리 중 적어도 하나 이상을 기초로 계산될 수 있다. The importance of the cluster according to an embodiment of the present invention is the number of embedding vectors of fashion item image information included in the fashion content image information in which the corresponding user inputs reaction information included in each cluster, and the corresponding user for each embedding vector It may be calculated based on at least one or more of a freshness of the time at which the response information is input, and an average distance between embedding vectors included in each cluster.

특히, 본 발명의 다른 실시예에 따르면 아이템 추천 모듈(22)은 클러스터 중요도를 출력하는 클러스터 중요도 인공신경망 모듈을 더 포함할 수 있고, 클러스터 중요도 인공신경망 모듈은 입력 데이터를 해당 클러스터에 포함되는 임베딩 벡터의 수 또는 비율, 해당 클러스터에 포함되는 임베딩 벡터의 최신성, 해당 클러스터에 포함되는 임베딩 벡터들 사이의 평균 거리 중 적어도 하나 이상으로 할 수 있고 출력 데이터를 해당 클러스터에 대한 클러스터 중요도로 할 수 있다. 또한, 클러스터 중요도 인공신경망 모듈의 학습 세션에서는 Ground truth를 해당 사용자가 이후에 반응 정보를 입력하는 패션 아이템 영상 정보의 임베딩 벡터가 해당 클러스터에 매핑되는지 여부{0,1}로 하여, 출력 데이터와 상기 Ground truth의 차이를 최소화 시키는 방향으로 클러스터 중요도 인공신경망 모듈을 학습시킬 수 있다. 도 15는 본 발명의 다른 실시예에 따른 클러스터 중요도 계산을 도시한 모식도이다. 도 15에 도시된 바와 같이, 클러스터 중요도 인공신경망 모듈은 입력 데이터를 해당 클러스터에 포함되는 해당 사용자의 임베딩 벡터의 수(클러스터 매핑 수) 또는 비율(클러스터 점유율), 해당 클러스터에 포함되는 해당 사용자의 임베딩 벡터의 최신성(임베딩 벡터 최신성, 임베딩 벡터 시간 정보), 해당 클러스터에 포함되는 해당 사용자의 임베딩 벡터들 사이의 평균 거리(예를 들어, 해당 클러스터에 임베딩 벡터 a,b,c가 포함되어 있으면, |a-b|, |b-c|, |a-c|의 평균) 중 적어도 하나 이상으로 할 수 있고 출력 데이터를 해당 클러스터에 대한 클러스터 중요도로 할 수 있다.In particular, according to another embodiment of the present invention, the item recommendation module 22 may further include a cluster importance artificial neural network module that outputs the cluster importance, and the cluster importance artificial neural network module stores input data into the corresponding cluster. At least one or more of the number or ratio of, the latestness of the embedding vectors included in the cluster, and the average distance between the embedding vectors included in the cluster, and the output data may be regarded as the importance of the cluster for the cluster. In addition, in the learning session of the cluster importance artificial neural network module, the ground truth is determined as whether the embedding vector of the fashion item image information that the user inputs reaction information later is mapped to the corresponding cluster {0,1}. A cluster importance artificial neural network module can be trained in the direction of minimizing the difference in ground truth. 15 is a schematic diagram showing a cluster importance calculation according to another embodiment of the present invention. As shown in FIG. 15, the cluster importance artificial neural network module stores input data into the number of embedding vectors of the user included in the cluster (the number of cluster mappings) or the ratio (the occupancy of the cluster), and the embedding of the user included in the cluster. The freshness of the vector (embedding vector freshness, embedding vector time information), the average distance between the embedding vectors of the user included in the cluster (e.g., if the cluster contains embedding vectors a, b, c, , |ab|, |bc|, average of |ac|), and the output data can be set as the cluster importance for the corresponding cluster.

본 발명의 일실시예에 따르면, 해당 클러스터의 중요도 및 해당 클러스터에 포함되는 패션 아이템(사용자가 반응 정보를 입력한)에 대한 임베딩 벡터와의 거리를 기초로 사용자 클라이언트에 출력할 추천 아이템 임베딩 벡터가 결정되도록 구성되므로 상기 패션 아이템 분류 모듈(12)의 손실함수에 의해 사용자가 반응 정보를 입력한 패션 아이템과 하나의 패션 콘텐츠에 유효하게 어울릴 확률이 높은 구매 아이템을 추천해줄 수 있게 되는 효과가 발생된다. According to an embodiment of the present invention, a recommended item embedding vector to be output to a user client is determined based on the importance of the cluster and the distance to the embedding vector for the fashion item (in which the user inputs reaction information) included in the cluster. Since it is configured to be determined, the loss function of the fashion item classification module 12 allows the user to recommend the fashion item inputted with response information and the purchase item with a high probability of effectively matching one fashion content. .

또한, 본 발명의 일실시예에 따르면, 특정 사용자가 반응 정보를 입력한 패션 콘텐츠 또는 패션 아이템의 수가 인공신경망을 학습시키기에 충분하지 않은 경우에도 구매 아이템의 추천이 가능해지는 효과가 발생된다. In addition, according to an embodiment of the present invention, even when the number of fashion contents or fashion items to which a specific user inputs reaction information is not sufficient for training the artificial neural network, it is possible to recommend a purchase item.

패션 브랜드를 위한 크리에이터 추천 장치 및 방법Device and method for recommending creators for fashion brands

도 16은 본 발명의 일실시예에 따른 패션 브랜드를 위한 크리에이터 추천 장치를 도시한 모식도이다. 도 16에 도시된 바와 같이, 본 발명의 일실시예에 따른 패션 브랜드를 위한 크리에이터 추천 장치(3)는 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치(1)와 연결되고, 브랜드 클러스터 정보 요청 모듈(30), 크리에이터 정보 수집 모듈(31), 크리에이터 추천 모듈(32)을 포함할 수 있다.16 is a schematic diagram illustrating a device for recommending a creator for a fashion brand according to an embodiment of the present invention. As shown in FIG. 16, the device 3 for recommending a creator for a fashion brand according to an embodiment of the present invention is connected to the device 1 for embedding fashion contents for user clustering, and a module 30 for requesting brand cluster information , A creator information collection module 31, and a creator recommendation module 32.

브랜드 클러스터 정보 요청 모듈(30)은 특정 패션 브랜드의 의뢰에 따라 크리에이터를 연결시켜 해당 패션 브랜드의 PPL, 기획 광고 등의 광고를 진행하는 관리자의 클라이언트인 관리자 클라이언트(300)에서 크리에이터 추천 요청을 수신하고, 상기 패션 브랜드의 클러스터 정보인 브랜드 클러스터 정보를 클러스터링 모듈(14)에 요청하고, 상기 패션 브랜드의 아이템인 브랜드 아이템들이 속하는 클러스터에 대한 브랜드 클러스터 정보 및 해당 클러스터에 대한 클러스터 유저 정보를 상기 클러스터링 모듈(14)에서 수신하는 모듈이다. 도 17은 본 발명의 일실시예에 따라 브랜드 클러스터 정보가 요청되었을 때 클러스터 정보 요청 모듈의 흐름도이다. 도 17에 도시된 바와 같이, 본 발명의 일실시예에 따라 특정 브랜드 관리자 또는 크리에이터 관리자가 관리자 클라이언트(300)의 브라우저/애플리케이션 모듈에 유입되고 해당 패션 브랜드의 아이템에 대한 영상 정보인 브랜드 콘텐츠 영상 정보와 함께 크리에이터 추천 요청을 입력하게 되면, 브랜드 콘텐츠 영상 정보는 브랜드 아이템 클러스터링을 위한 패션 콘텐츠 임베딩 장치(1)에 수신되어 클러스터링 모듈(14)에서 브랜드 클러스터 정보를 생성하고, 클러스터 정보 요청 모듈(30)의 브랜드 클러스터 정보 요청에 따라 클러스터링 모듈(14)에서 클러스터 정보 요청 모듈(30)로 상기 브랜드 클러스터 정보 및 해당 클러스터에 대한 클러스터 유저 정보를 송신하도록 구성된다. 본 발명의 일실시예에 따르면, 브랜드 클러스터 정보 요청 모듈(30)은 브랜드 콘텐츠 영상 정보의 임베딩 벡터를 기초로 생성된 해당 패션 브랜드의 클러스터 a,b,c에 대한 정보인 브랜드 클러스터 정보 및 클러스터 a,b,c에 포함되는 사용자인 사용자 A,B,C,D에 대한 정보인 클러스터 유저 정보를 수신하도록 구성될 수 있다. The brand cluster information request module 30 connects the creator according to the request of a specific fashion brand and receives a creator recommendation request from the manager client 300, which is a client of the manager who conducts advertisements such as PPL and plan advertisement of the corresponding fashion brand. , Requesting brand cluster information, which is the cluster information of the fashion brand, to the clustering module 14, and receiving brand cluster information about the cluster to which the brand items, which are items of the fashion brand, belong and cluster user information about the cluster, to the clustering module ( This is a module received from 14). 17 is a flowchart of a cluster information request module when brand cluster information is requested according to an embodiment of the present invention. As shown in FIG. 17, according to an embodiment of the present invention, a specific brand manager or creator manager flows into the browser/application module of the manager client 300, and brand content video information, which is video information about an item of a corresponding fashion brand. When a creator recommendation request is input together, the brand content image information is received by the fashion content embedding device 1 for brand item clustering, the clustering module 14 generates brand cluster information, and the cluster information request module 30 The brand cluster information and cluster user information for the cluster are transmitted from the clustering module 14 to the cluster information requesting module 30 according to the request for brand cluster information of. According to an embodiment of the present invention, the brand cluster information request module 30 includes brand cluster information and cluster a, which are information on clusters a, b, and c of a corresponding fashion brand generated based on the embedding vector of brand content image information. It may be configured to receive cluster user information, which is information about users A, B, C, and D as users included in ,b,c.

클러스터링 모듈(14)은 전체(또는 특정 기간 내의) 패션 콘텐츠의 패션 아이템 영상 정보의 임베딩 벡터를 클러스터링 하여 적어도 하나 이상의 클러스터 정보를 생성하고, 각각의 사용자가 속하는 클러스터 정보인 클러스터 유저 정보를 생성한다. 또한, 클러스터링 모듈(14)에 따르면, 특정 패션 브랜드의 적어도 하나 이상의 패션 콘텐츠(브랜드 콘텐츠 영상 정보)에 대하여 복수개의 패션 아이템이 검출되고, 해당 복수개의 패션 아이템(브랜드 아이템 영상 정보)을 기학습된 클러스터링 모듈(14)을 통해 적어도 하나 이상의 클러스터에 매핑하게 되므로, 하나의 패션 브랜드에 대해 적어도 하나 이상의 클러스터가 매핑(브랜드 클러스터 정보)되고, 각 클러스터는 해당 패션 브랜드의 스타일 아이덴티티를 의미하며, 각 클러스터에 포함된 브랜드 아이템의 개수가 해당 스타일 아이덴티티의 중요도(클러스터 중요도)를 나타내는 것으로 해석될 수 있다. 예를 들어, 특정 패션 브랜드의 브랜드 아이템이 클러스터 a,b,c에 매핑되고, 각 클러스터 a,b,c 내에 포함되는 브랜드 아이템의 개수에 따라 클러스터 중요도가 결정될 수 있다. 본 발명의 일실시예에 따른 클러스터링 모듈(14)에 따르면, 상기 브랜드 아이템 영상 정보에 의해 생성되는 브랜드 클러스터 정보의 클러스터에 포함되는 사용자들의 정보인 클러스터 유저 정보를 출력하도록 구성될 수 있다. 예를 들어, 특정 패션 브랜드의 브랜드 클러스터 정보에 클러스터 a,b,c가 포함될 때, 클러스터 a에는 사용자 A,B,C, 클러스터 b에는 사용자 A,B,D,E, 클러스터 c에는 사용자 A,D가 포함될 수 있고, 클러스터링 모듈(14)은 각 클러스터에 포함되는 사용자 군집의 사용자 정보를 클러스터 유저 정보로 출력할 수 있다. The clustering module 14 generates at least one cluster information by clustering the embedding vector of fashion item image information of all (or within a specific period) fashion content, and generates cluster user information, which is cluster information to which each user belongs. In addition, according to the clustering module 14, a plurality of fashion items are detected for at least one fashion content (brand content image information) of a specific fashion brand, and the plurality of fashion items (brand item image information) are previously learned. Since at least one cluster is mapped through the clustering module 14, at least one or more clusters are mapped to one fashion brand (brand cluster information), and each cluster represents the style identity of the corresponding fashion brand, and each cluster The number of brand items included in may be interpreted as indicating the importance of the style identity (cluster importance). For example, brand items of a specific fashion brand are mapped to clusters a, b, and c, and the importance of the cluster may be determined according to the number of brand items included in each cluster a, b, and c. According to the clustering module 14 according to an embodiment of the present invention, it may be configured to output cluster user information, which is information of users included in a cluster of brand cluster information generated by the brand item image information. For example, when the brand cluster information of a specific fashion brand includes clusters a,b,c, cluster a has users A,B,C, cluster b has users A,B,D,E, cluster c has user A, D may be included, and the clustering module 14 may output user information of a user cluster included in each cluster as cluster user information.

이때, 패션 아이템 영상 정보의 임베딩 벡터를 생성하는 임베딩 모듈(13)은 패션 아이템 분류 모듈(12)의 인공신경망의 FC 레이어와 연결되어, FC 레이어의 출력 벡터를 해당 패션 아이템에 대한 임베딩 벡터로서 수신하게 된다. 인공신경망 모듈인 상기 패션 아이템 분류 모듈(12)은 입력 데이터를 특정 패션 콘텐츠 영상 정보에 포함된 각각의 패션 아이템 영상 정보로 하고, 출력 데이터를 패션 아이템 분류 정보로 하도록 구성될 수 있다. At this time, the embedding module 13 that generates the embedding vector of fashion item image information is connected to the FC layer of the artificial neural network of the fashion item classification module 12, and receives the output vector of the FC layer as an embedding vector for the fashion item. Is done. The fashion item classification module 12, which is an artificial neural network module, may be configured to use input data as fashion item image information included in specific fashion content image information, and output data to fashion item classification information.

또한, 상기 패션 아이템 분류 모듈(12)의 학습 세션에서, 상기 패션 아이템 분류 모듈(12)의 손실함수(Loss Function)는 하나의 패션 콘텐츠 영상 정보 내에 포함되는 각각의 패션 아이템 영상 정보에 대한 각 인공신경망의 FC 레이어(Fully Connected Layer)에서 출력되는 벡터들 사이의 거리를 포함할 수 있고, 상기 거리가 가까울수록 상기 손실 함수의 손실 값이 감소하도록 구성될 수 있다. 인공신경망 모듈인 상기 패션 아이템 분류 모듈(12)의 학습 세션에서는 위의 손실함수가 낮아지는 방향으로 패션 아이템 분류 모듈(12)의 weight가 업데이트 될 수 있다. 예를 들어, 하나의 패션 콘텐츠 영상 정보에 복수의 패션 아이템이 디텍션 된 경우, 각각의 패션 아이템에 대한 임베딩 벡터들 사이의 거리는 특정 거리 이내로 구성되도록 패션 아이템 분류 모듈(12)이 학습될 수 있다. 특히, 상기 특정 거리는 해당 패션 콘텐츠 영상 정보의 반응 정보의 수(호감 정보, 댓글 정보, 공유 정보 등)에 반비례하도록 구성될 수 있다. 예를 들어, 'like'와 같은 반응 정보의 수가 많은 패션 콘텐츠 영상 정보에 포함된 복수의 패션 아이템에 대한 각각의 임베딩 벡터는 서로 특정 거리 이내에 위치할 수 있고, 반응 정보의 수가 적은 패션 콘텐츠 영상 정보에 포함된 패션 아이템에 대한 각각의 임베딩 벡터에 비해 서로 더 가깝게 위치될 수 있다. 즉, 반응 정보가 더 많은 패션 콘텐츠는 해당 패션 콘텐츠 영상 정보 내의 각각의 패션 아이템 영상 정보에 대한 각 인공신경망의 FC 레이어의 벡터들 사이의 거리가 더 가깝게 출력될 수 있다. 도 18은 본 발명의 일실시예에 따른 패션 아이템 분류 모듈(12)의 브랜드 콘텐츠 영상 정보에 대한 임베딩 벡터 생성을 도시한 모식도이다. 도 18에 도시된 바와 같이, 패션 아이템 디텍션 모듈(11)은 브랜드 콘텐츠 영상 정보를 수신하고 수신된 브랜드 콘텐츠 영상 정보에 포함된 브랜드 아이템을 디텍션하여 n개의 브랜드 아이템 영상 정보를 출력하며, 출력된 n개의 브랜드 아이템 영상 정보를 입력 데이터로 하고 패션 아이템 카테고리 정보를 출력 데이터로 하는 인공신경망인 패션 아이템 분류 모듈(12)에 상기 n개의 브랜드 아이템 영상 정보가 입력되고, 임베딩 모듈(13)에 의해 패션 아이템 분류 모듈(12)의 FC Layer에서 각 브랜드 아이템 영상 정보에 대한 임베딩 벡터를 출력하게 된다.In addition, in the learning session of the fashion item classification module 12, the loss function of the fashion item classification module 12 is calculated for each fashion item image information included in one fashion content image information. A distance between vectors outputted from a fully connected layer (FC layer) of a neural network may be included, and a loss value of the loss function may be reduced as the distance is closer. In a learning session of the fashion item classification module 12, which is an artificial neural network module, the weight of the fashion item classification module 12 may be updated in a direction in which the loss function is lowered. For example, when a plurality of fashion items are detected in one fashion content image information, the fashion item classification module 12 may be trained so that a distance between embedding vectors for each fashion item is configured within a specific distance. In particular, the specific distance may be configured to be inversely proportional to the number of reaction information (like information, comment information, sharing information, etc.) of the corresponding fashion content image information. For example, each embedding vector for a plurality of fashion items included in fashion content image information with a large number of reaction information such as'like' may be located within a specific distance from each other, and fashion content image information with a small number of reaction information Compared to each embedding vector for the fashion item included in, they may be located closer to each other. That is, in the fashion content having more response information, the distance between the vectors of the FC layer of each artificial neural network with respect to each fashion item image information in the corresponding fashion content image information may be outputted closer. 18 is a schematic diagram showing the generation of an embedding vector for brand content image information by the fashion item classification module 12 according to an embodiment of the present invention. As shown in FIG. 18, the fashion item detection module 11 receives brand content image information, detects brand items included in the received brand content image information, and outputs n number of brand item image information. The n number of brand item image information is input to the fashion item classification module 12, which is an artificial neural network that uses the brand item image information as input data and the fashion item category information as output data, and the fashion item by the embedding module 13 The FC layer of the classification module 12 outputs an embedding vector for each brand item image information.

이때, 패션 아이템 분류 모듈(12)의 학습 세션에서는 전체 패션 콘텐츠 영상 정보 또는 일부의 패션 콘텐츠 영상 정보에 대하여, 하나의 패션 콘텐츠 영상 정보 내에 포함되는 n개의 패션 아이템 영상 정보 각각의 임베딩 벡터에 대한 평균 거리가 반응 정보에 따라 계산되는 특정 거리인 스타일 아이덴티티 거리(k) 이내에 구성되도록 패션 아이템 분류 모듈(12)의 손실함수가 구성될 수 있다. 특히 상기 패션 콘텐츠 영상 정보의 사용자들에 대한 반응 정보가 특정 기간이나 특정 카테고리 내의 다른 패션 콘텐츠 영상 정보의 반응 정보 보다 상대적으로 많은 경우에 상기 스타일 아이덴티티 거리(k)는 감소하도록 구성될 수 있다. 또한, 반대로 상기 패션 콘텐츠 영상 정보의 전체 사용자들에 대한 반응 정보가 특정 기간이나 특정 카테고리 내의 다른 패션 콘텐츠 영상 정보의 반응 정보 보다 상대적으로 적은 경우에 상기 특정 거리(k)는 증가하도록 구성될 수 있다. At this time, in the learning session of the fashion item classification module 12, the average of each embedding vector of n fashion item image information included in one fashion content image information with respect to all fashion content image information or some fashion content image information. The loss function of the fashion item classification module 12 may be configured such that the distance is configured within a style identity distance k, which is a specific distance calculated according to the reaction information. In particular, when reaction information of the fashion content image information to users is relatively larger than that of other fashion content image information within a specific period or a specific category, the style identity distance k may be configured to decrease. In addition, on the contrary, when reaction information of the fashion content image information for all users is relatively less than that of other fashion content image information within a specific period or a specific category, the specific distance k may be configured to increase. .

본 발명의 일실시예에 따르면 하나의 패션 콘텐츠 영상 정보 내에 포함된 패션 아이템들은 FC 레이어의 출력 벡터 사이의 거리가 서로 가깝게 출력되게 되고, 나아가 반응 정보가 더 많은 패션 콘텐츠는 FC 레이어의 출력 벡터 사이의 거리가 더 가깝게 출력되므로, 서로 어울리는 패션 아이템끼리 가까운 벡터값을 가지도록 출력되게 되는 효과가 발생된다. 이에 따르면, 패션 아이템 각각에 대해 서로 어울리는지, 어떤 스타일에 대한 패션 아이템인지를 일일이 태깅하지 않아도, 기존의 패션 아이템 분류 인공신경망을 활용하여 손실함수 변경만으로 서로 조합하였을 때 어울리는 패션 아이템을 구분하거나 패션 아이템들을 스타일별로 클러스터링 할 수 있게 되는 효과가 발생된다.According to an embodiment of the present invention, fashion items included in one fashion content image information have a distance between the output vectors of the FC layer close to each other, and further, fashion content with more response information is between the output vectors of the FC layer. Since the distance of is outputted closer, there is an effect that fashion items matching each other are output to have close vector values. According to this, the existing fashion item classification artificial neural network is used to classify the fashion items that match each other when combined with only changing the loss function, without having to tag each fashion item for each fashion item. There is an effect that items can be clustered by style.

클러스터링 모듈(14)은 브랜드 클러스터 정보 요청 모듈(30)의 요청에 의해, 상기 특정 패션 브랜드가 속하는 브랜드 클러스터 정보에 함께 속하는 다른 사용자들의 사용자 정보(동일 클러스터 사용자)를 수집하고, 브랜드 클러스터 정보 요청 모듈(30)에 송신하도록 구성될 수 있다. 도 19는 본 발명의 일실시예에 따른 클러스터링 모듈(14)에서 생성되는 브랜드 클러스터 정보 및 클러스터 유저 정보를 도시한 모식도이다. 도 19에서 회색 채움 된 패션 아이템 이미지는 해당 패션 브랜드의 브랜드 아이템의 임베딩 벡터를 의미한다. 도 19에 도시된 바와 같이, 클러스터 정보는 크리에이터 추천의 대상이 되는 특정 패션 브랜드의 브랜드 콘텐츠 영상 정보를 기초로 생성되는 각 브랜드 아이템 영상 정보의 임베딩 벡터가 매핑되는 클러스터들(전체 또는 적어도 일부의 패션 콘텐츠 영상 정보에 대한 패션 아이템 정보들의 임베딩 벡터를 클러스터링하여 출력되는 클러스터)에 대한 정보를 의미할 수 있다. 즉, 도 19에 도시된 바와 같이 특정 패션 브랜드의 브랜드 콘텐츠 영상 정보에 포함된 브랜드 아이템의 임베딩 벡터는 클러스터 a,b에 매핑 될 수 있으며, 해당 패션 브랜드의 클러스터 정보인 브랜드 클러스터 정보는 클러스터 a,b가 된다. 또한, 클러스터 유저 정보는 해당 클러스터에 해당되는 사용자들의 정보를 의미할 수 있다. 즉, 클러스터 a의 클러스터 유저 정보에는 사용자 B,C,D 등에 대한 사용자 정보가 포함될 수 있고, 클러스터 b의 클러스터 유저 정보에는 사용자 K,L 등에 대한 사용자 정보가 포함될 수 있다.The clustering module 14 collects user information (same cluster user) of other users belonging to the brand cluster information to which the specific fashion brand belongs at the request of the brand cluster information request module 30, and the brand cluster information request module It can be configured to transmit to 30. 19 is a schematic diagram showing brand cluster information and cluster user information generated by the clustering module 14 according to an embodiment of the present invention. In FIG. 19, a gray-filled fashion item image indicates an embedding vector of a brand item of a corresponding fashion brand. As shown in FIG. 19, the cluster information includes clusters to which the embedding vector of each brand item image information generated based on brand content image information of a specific fashion brand targeted for creator recommendation is mapped (all or at least some fashion This may mean information on a cluster that is output by clustering an embedding vector of fashion item information for content image information. That is, as shown in FIG. 19, the embedding vector of the brand item included in the brand content image information of a specific fashion brand may be mapped to the clusters a and b, and the brand cluster information, which is the cluster information of the corresponding fashion brand, is cluster a, becomes b In addition, the cluster user information may mean information on users corresponding to a corresponding cluster. That is, the cluster user information of the cluster a may include user information of users B, C, D, and the like, and the cluster user information of the cluster b may include user information of users K, L, and the like.

크리에이터 정보 수집 모듈(31)은 상기 동일 클러스터 사용자에 속하는 사용자들이 특정 크리에이터의 콘텐츠에 반응 정보를 입력, 특정 크리에이터의 채널의 구독, 특정 크리에이터의 콘텐츠를 시청하는 등의 방식으로 연결되어 있는 크리에이터(적어도 하나 이상의 소셜 네트워크 채널을 직간접적으로 운영하고, 해당 채널에 대한 follower를 보유하고 있는 인플루언서를 통칭)에 대한 정보인 크리에이터 정보를 크리에이터 정보 DB에서 수집하는 모듈이다. 도 20은 본 발명의 일실시예에 따른 크리에이터 정보 수집 모듈의 크리에이터 정보 수집에 대한 모식도이다. 도 20에 도시된 바와 같이, 본 발명의 일실시예에 따른 크리에이터 정보 수집 모듈(31)은 해당 패션 브랜드가 속하는 클러스터 a,b(브랜드 클러스터 정보)에 포함되는 사용자 B,C,D,K,L 등(클러스터 유저 정보)이 연결되어 있는 크리에이터에 대한 정보인 크리에이터 정보를 크리에이터 정보 DB에서 수신하도록 구성될 수 있다. 특히, 크리에이터 정보는 크리에이터 채널 규모 정보(해당 크리에이터의 전체 반응 정보 수, 각 클러스터 별 반응 정보 수, 전체 구독자 수, 각 클러스터 별 구독자 수 등)을 더 포함할 수 있다. The creator information collection module 31 is a creator (at least, at least), in which users belonging to the same cluster user input reaction information to the content of a specific creator, subscribe to a channel of a specific creator, and watch the content of a specific creator. It is a module that collects creator information, which is information about the influencers who directly or indirectly operate one or more social network channels and have followers for the corresponding channel from the creator information DB. 20 is a schematic diagram of collection of creator information by a creator information collection module according to an embodiment of the present invention. As shown in FIG. 20, the creator information collection module 31 according to an embodiment of the present invention includes users B, C, D, and K included in clusters a, b (brand cluster information) to which a corresponding fashion brand belongs. It may be configured to receive, from the creator information DB, creator information, which is information about a creator to which L or the like (cluster user information) is connected. In particular, the creator information may further include information on the size of the creator channel (the total number of reaction information of the corresponding creator, the number of reaction information for each cluster, the total number of subscribers, the number of subscribers for each cluster, etc.).

크리에이터 추천 모듈(32)은 상기 크리에이터 정보를 상기 관리자 클라이언트(300)를 통해 상기 관리자에게 상기 크리에이터 정보를 추천하는 모듈이다. The creator recommendation module 32 is a module that recommends the creator information to the manager through the manager client 300.

상기 크리에이터 추천 모듈(32)의 상기 크리에이터 정보에 포함된 크리에이터의 추천은 다음의 단계로 수행될 수 있다. The creator's recommendation included in the creator information of the creator recommendation module 32 may be performed in the following steps.

(1) 크리에이터 추천 모듈(32)이 크리에이터 채널 규모 정보, 해당 브랜드 아이템 임베딩 벡터가 포함된 클러스터의 중심과 브랜드 아이템 임베딩 벡터의 거리 및 해당 클러스터의 클러스터 중요도(각 클러스터에 포함된 브랜드 아이템의 개수가 해당 클러스터의 중요도)를 기초로 추천 크리에이터를 결정(1) The creator recommendation module 32 provides information on the creator channel size, the distance between the center of the cluster including the brand item embedding vector and the distance between the brand item embedding vector, and the cluster importance of the cluster (the number of brand items included in each cluster is Recommended creators are determined based on the importance of the cluster)

(2) 상기 추천 크리에이터에 대응되는 크리에이터 정보를 상기 관리자 클라이언트(300)에 출력(2) Outputting creator information corresponding to the recommended creator to the manager client 300

이에 따르면, 특정 패션 브랜드에 대한 광고를 집행할 때, 일반 수요자들(해당 소셜 네트워크의 사용자들, 즉 피광고자들)에게 해당 패션 브랜드과 어울리는 콘텐츠를 생산하는 것으로 인식되는 크리에이터 채널을 통해 광고할 수 있게 되는 효과가 발생된다. 즉, 실제로 크리에이터가 생산하는 콘텐츠가 얼마나 해당 패션 브랜드와 어울리는지가 아닌 수요자들이 해당 패션 브랜드의 이미지와 유사하다고 인식하고 있는 콘텐츠를 생산하는 크리에이터를 광고주인 패션 브랜드에 추천할 수 있게 되므로, 해당 패션 브랜드의 이미지 훼손이 저감되고 광고 효율이 향상되는 광고를 제안할 수 있게 되는 효과가 발생된다. According to this, when advertising for a specific fashion brand is executed, it is possible to advertise to general consumers (users of the social network, that is, advertisers) through the creator channel that is recognized as producing content that matches the fashion brand. There is an effect that is there. In other words, it is possible to recommend to a fashion brand that is an advertiser a creator who produces content that consumers recognize as similar to the image of the fashion brand, not how much the content produced by the creator matches the fashion brand. The effect of being able to propose an advertisement with reduced image damage and improved advertisement efficiency is generated.

크리에이터 추천 모듈(32)의 추천 크리에이터의 결정과 관련하여, 도 21은 본 발명의 일실시예에 따른 추천 크리에이터의 계산을 도시한 모식도이다. 도 21에 도시된 바와 같이, 아래의 단계로 추천 크리에이터의 결정이 수행될 수 있다.Regarding the determination of the recommended creator by the creator recommendation module 32, FIG. 21 is a schematic diagram illustrating calculation of a recommended creator according to an embodiment of the present invention. As shown in FIG. 21, the recommendation creator may be determined in the following steps.

(1) 각 브랜드 클러스터 정보(i)와 크리에이터 정보(j)에 대한 광고 효율성(q)을 계산, qij = f (j의 중심과 i의 크리에이터와 연결된 사용자들이 반응한 패션 아이템 임베딩 벡터들과의 평균 거리, j의 중심과 브랜드 아이템 임베딩 벡터들과의 평균 거리, 크리에이터 채널 규모 정보...)(1) Calculate advertising efficiency (q) for each brand cluster information (i) and creator information (j), q ij = f (fashion item embedding vectors reacted by users connected to the center of j and the creator of i) Average distance of, the average distance between the center of j and the brand item embedding vectors, creator channel size information...)

(2) binary optimization 통해서 각 브랜드 클러스터 정보(i)에 대한 추천 크리에이터를 결정(2) Determine the recommended creator for each brand cluster information (i) through binary optimization

(3) 클러스터 중요도를 계산(3) Calculate cluster importance

(4) 클러스터 중요도를 기초로 관리자 클라이언트(300)에 출력할 추천 크리에이터를 결정(4) Determining the recommended creators to be output to the administrator client 300 based on the importance of the cluster

본 발명의 일실시예에 따른 클러스터 중요도는, 각 클러스터에 포함되는 브랜드 아이템 영상 정보의 임베딩 벡터의 수, 각 클러스터에 포함되는 브랜드 아이템 영상 정보의 임베딩 벡터들 사이의 평균 거리 중 적어도 하나 이상을 기초로 계산될 수 있다. Cluster importance according to an embodiment of the present invention is based on at least one or more of the number of embedding vectors of brand item image information included in each cluster, and the average distance between embedding vectors of brand item image information included in each cluster. Can be calculated as

특히, 본 발명의 다른 실시예에 따르면 크리에이터 추천 모듈(32)은 클러스터 중요도를 출력하는 클러스터 중요도 인공신경망 모듈을 더 포함할 수 있고, 클러스터 중요도 인공신경망 모듈은 입력 데이터를 해당 브랜드 클러스터에 포함되는 임베딩 벡터의 수 또는 비율, 해당 클러스터에 포함되는 임베딩 벡터들 사이의 평균 거리 중 적어도 하나 이상으로 할 수 있고 출력 데이터를 해당 클러스터에 대한 클러스터 중요도로 할 수 있다. In particular, according to another embodiment of the present invention, the creator recommendation module 32 may further include a cluster importance artificial neural network module that outputs the cluster importance, and the cluster importance artificial neural network module embeds input data into a corresponding brand cluster. At least one of the number or ratio of vectors and the average distance between embedding vectors included in the corresponding cluster can be used, and the output data can be regarded as the cluster importance for the corresponding cluster.

본 발명의 일실시예에 따르면, 특정 패션 브랜드에 유효하게 어울릴 확률이 높은 패션 아이템에 반응하는 오디언스(audience)를 보유한 크리에이터를 추천할 수 있게 되는 효과가 발생된다.According to an embodiment of the present invention, an effect of being able to recommend a creator having an audience who responds to fashion items with a high probability of matching effectively with a specific fashion brand is generated.

또한, 본 발명의 일실시예에 따르면, 특정 패션 브랜드의 패션 콘텐츠 영상 정보, 패션 아이템 영상 정보의 수가 인공신경망을 학습시키기에 충분하지 않은 경우에도 크리에이터의 추천이 가능해지는 효과가 발생된다. In addition, according to an embodiment of the present invention, even when the number of fashion content image information and fashion item image information of a specific fashion brand is not sufficient for training the artificial neural network, the creator's recommendation is possible.

또한, 본 발명의 일실시예에 따르면, 해당 클러스터의 중요도 및 해당 클러스터에 포함되는 패션 브랜드에 대한 임베딩 벡터를 기초로 관리자 클라이언트에 출력할 추천 크리에이터가 결정되도록 구성되므로 상기 패션 아이템 분류 모듈(12)의 손실함수에 의해 해당 패션 브랜드의 브랜드 아이템과 유효하게 어울릴 확률이 높은 아이템에 반응 정보를 입력한 사용자들과 연결되어 있는 크리에이터를 해당 관리자에게 추천해줄 수 있게 되는 효과가 발생된다. In addition, according to an embodiment of the present invention, the fashion item classification module 12 is configured to determine the recommended creator to be output to the manager client based on the importance of the cluster and the embedding vector for the fashion brand included in the cluster. By the loss function of, it is possible to recommend to the manager the creator who is connected with the users who input reaction information to the item with a high probability of matching the brand item of the corresponding fashion brand.

이상에서 설명한 바와 같이, 본 발명이 속하는 기술 분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 상술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함하는 것으로 해석되어야 한다.As described above, those skilled in the art to which the present invention pertains will appreciate that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the above-described embodiments are illustrative in all respects and should be understood as non-limiting. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the scope of the present invention.

본 명세서 내에 기술된 특징들 및 장점들은 모두를 포함하지 않으며, 특히 많은 추가적인 특징들 및 장점들이 도면들, 명세서, 및 청구항들을 고려하여 당업자에게 명백해질 것이다. 더욱이, 본 명세서에 사용된 언어는 주로 읽기 쉽도록 그리고 교시의 목적으로 선택되었고, 본 발명의 주제를 묘사하거나 제한하기 위해 선택되지 않을 수도 있다는 것을 주의해야 한다.The features and advantages described herein are not all inclusive, and in particular many additional features and advantages will become apparent to those skilled in the art in view of the drawings, specification, and claims. Moreover, it should be noted that the language used herein has been selected primarily for readability and for teaching purposes, and may not be chosen to describe or limit the subject matter of the invention.

본 발명의 실시예들의 상기한 설명은 예시의 목적으로 제시되었다. 이는 개시된 정확한 형태로 본 발명을 제한하거나, 빠뜨리는 것 없이 만들려고 의도한 것이 아니다. 당업자는 상기한 개시에 비추어 많은 수정 및 변형이 가능하다는 것을 이해할 수 있다.The above description of embodiments of the present invention has been presented for purposes of illustration. It is not intended to be exhaustive or to limit the invention to the precise form disclosed. Those skilled in the art will understand that many modifications and variations are possible in light of the above disclosure.

그러므로 본 발명의 범위는 상세한 설명에 의해 한정되지 않고, 이를 기반으로 하는 출원의 임의의 청구항들에 의해 한정된다. 따라서, 본 발명의 실시예들의 개시는 예시적인 것이며, 이하의 청구항에 기재된 본 발명의 범위를 제한하는 것은 아니다.Therefore, the scope of the invention is not limited by the detailed description, but by any claims in the application on which it is based. Accordingly, the disclosure of the embodiments of the present invention is illustrative and does not limit the scope of the present invention described in the following claims.

1: 유저 클러스터링을 위한 패션 콘텐츠 임베딩 장치
2: 유저 클러스터링을 이용한 패션 아이템 추천 장치
3: 패션 브랜드를 위한 크리에이터 추천 장치
10: 패션 콘텐츠 수신 모듈
11: 패션 아이템 디텍션 모듈
12: 패션 아이템 분류 모듈
13: 임베딩 모듈
14: 클러스터링 모듈
20: 클러스터 정보 요청 모듈
21: 구매 아이템 정보 수집 모듈
22: 아이템 추천 모듈
30: 브랜드 클러스터 정보 요청 모듈
31: 크리에이터 정보 수집 모듈
32: 크리에이터 추천 모듈
50: 소셜 네트워크 웹서버
100: 사용자 클라이언트
300: 관리자 클라이언트
1: Fashion content embedding device for user clustering
2: Fashion item recommendation device using user clustering
3: Creator Recommendation Device for Fashion Brands
10: Fashion content receiving module
11: Fashion item detection module
12: Fashion item classification module
13: embedding module
14: clustering module
20: cluster information request module
21: purchase item information collection module
22: Item recommendation module
30: Brand cluster information request module
31: Creator information collection module
32: Creator Recommendation Module
50: social network web server
100: user client
300: admin client

Claims (3)

특정 사용자의 사용자 클라이언트를 통해 특정 소셜 네트워크 서비스의 웹서버인 소셜 네트워크 웹서버에 상기 특정 사용자가 반응 정보를 입력하거나 업로드한 패션 콘텐츠 정보인 관심 패션 콘텐츠 정보를 수신하고, 상기 관심 패션 콘텐츠 정보에 포함된 패션 콘텐츠 영상 정보 및 반응 정보를 생성하는 패션 콘텐츠 수신 모듈;
상기 패션 콘텐츠 수신 모듈에서 패션 콘텐츠 영상 정보를 수신하고, 상기 패션 콘텐츠 영상 정보에서 패션 아이템의 구역을 디텍션(detection)하여 복수의 패션 아이템 구역 정보를 생성하며, 각각의 상기 패션 아이템 구역 정보에 대한 상기 패션 콘텐츠 영상 정보의 적어도 일부의 영상 정보인 패션 아이템 영상 정보를 상기 패션 콘텐츠 영상 정보에서 디텍션 된 상기 패션 아이템의 수 만큼 생성하는 패션 아이템 디텍션 모듈;
각각의 상기 패션 아이템 영상 정보를 입력 데이터로 하고 패션 아이템 분류 정보를 출력 데이터로 하는 기학습된 패션 아이템 분류 인공신경망의 FC 레이어(Fully Connected Layer)와 연결되어, 각각의 상기 패션 아이템 영상 정보에 대한 상기 패션 아이템 분류 인공신경망의 상기 FC 레이어의 출력 벡터를 각각의 상기 패션 아이템 영상 정보에 대한 임베딩 벡터로 출력하는 임베딩 모듈;
복수의 사용자들에 의해 상기 소셜 네트워크 웹서버를 통해 업로드 된 복수의 상기 패션 콘텐츠 정보의 상기 임베딩 벡터를 클러스터링 하여 클러스터를 생성하고, 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터를 매핑하여 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 속하는 상기 클러스터에 대한 정보인 클러스터 정보를 생성하며, 상기 클러스터 정보에 포함되는 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 매핑되는 다른 사용자에 대한 정보인 클러스터 유저 정보를 생성하는 클러스터링 모듈;
상기 클러스터 유저 정보에 포함되는 상기 다른 사용자가 구매한 복수개의 패션 아이템인 구매 아이템에 대한 정보인 구매 아이템 정보를 수집하는 구매 아이템 정보 수집 모듈; 및
상기 구매 아이템 정보를 상기 임베딩 모듈에 입력하여 출력되는 구매 아이템 임베딩 벡터를 수신하고, 상기 클러스터 정보에 포함되는 상기 클러스터의 중심과 상기 구매 아이템 임베딩 벡터와의 거리를 기초로 상기 구매 아이템 임베딩 벡터 중 추천할 상기 구매 아이템의 임베딩 벡터인 추천 아이템 임베딩 벡터를 결정하는 아이템 추천 모듈;
을 포함하고,
상기 패션 아이템 분류 인공신경망의 손실함수는, 하나의 상기 패션 콘텐츠 정보 내에 포함되는 각각의 상기 패션 아이템 영상 정보에 대한 상기 임베딩 벡터들 사이의 거리에 대한 함수를 포함하며, 상기 거리가 가까울수록 상기 손실함수의 손실 값이 감소하도록 구성되고, 상기 패션 아이템 분류 인공신경망의 학습 단계에서는 상기 손실 값이 낮아지는 방향으로 상기 패션 아이템 분류 인공신경망의 가중치가 학습되며,
상기 추천 아이템 임베딩 벡터에 대응되는 상기 구매 아이템 정보를 상기 특정 사용자의 상기 사용자 클라이언트에 추천 아이템으로 출력하는 것을 특징으로 하는,
유저 클러스터링을 이용한 패션 아이템 추천 인공신경망 장치.
Receive fashion content information of interest, which is fashion content information uploaded or input by the specific user, to a social network web server, which is a web server of a specific social network service, through a user client of a specific user, and include it in the fashion content information of interest. A fashion content receiving module that generates fashion content image information and response information;
The fashion content receiving module receives fashion content image information, detects an area of a fashion item from the fashion content image information to generate a plurality of fashion item area information, and the fashion item area information A fashion item detection module that generates fashion item image information, which is image information of at least part of fashion content image information, as many as the number of fashion items detected in the fashion content image information;
It is connected to the FC layer (Fully Connected Layer) of the pre-learned fashion item classification artificial neural network, which uses each of the fashion item image information as input data and fashion item classification information as output data, for each fashion item image information. An embedding module for outputting an output vector of the FC layer of the fashion item classification artificial neural network as an embedding vector for each fashion item image information;
A cluster is created by clustering the embedding vectors of the plurality of fashion content information uploaded through the social network web server by a plurality of users, and the interest is mapped to the embedding vector of the fashion content information of interest to the cluster. A cluster user that generates cluster information, which is information about the cluster to which the embedding vector of fashion content information belongs, and is information about another user to which the embedding vector of the fashion content information of interest is mapped to the cluster included in the cluster information A clustering module that generates information;
A purchase item information collection module that collects purchase item information, which is information on purchase items, which are a plurality of fashion items purchased by the other user, included in the cluster user information; And
Receives a purchase item embedding vector output by inputting the purchase item information into the embedding module, and recommends among the purchase item embedding vectors based on the distance between the center of the cluster included in the cluster information and the purchase item embedding vector An item recommendation module for determining a recommended item embedding vector that is an embedding vector of the purchase item to be made;
Including,
The loss function of the fashion item classification artificial neural network includes a function of a distance between the embedding vectors for each of the fashion item image information included in one fashion content information, and the closer the distance is, the more the loss is It is configured to decrease the loss value of the function, and in the learning step of the fashion item classification artificial neural network, the weight of the fashion item classification artificial neural network is learned in a direction in which the loss value decreases,
Outputting the purchase item information corresponding to the recommended item embedding vector to the user client of the specific user as a recommended item,
Fashion item recommendation artificial neural network device using user clustering.
패션 콘텐츠 수신 모듈이, 특정 사용자의 사용자 클라이언트를 통해 특정 소셜 네트워크 서비스의 웹서버인 소셜 네트워크 웹서버에 상기 특정 사용자가 반응 정보를 입력하거나 업로드한 패션 콘텐츠 정보인 관심 패션 콘텐츠 정보를 수신하고, 상기 관심 패션 콘텐츠 정보에 포함된 패션 콘텐츠 영상 정보 및 반응 정보를 생성하는 패션 콘텐츠 수신 단계;
패션 아이템 디텍션 모듈이, 상기 패션 콘텐츠 수신 모듈에서 패션 콘텐츠 영상 정보를 수신하고, 상기 패션 콘텐츠 영상 정보에서 패션 아이템의 구역을 디텍션(detection)하여 복수의 패션 아이템 구역 정보를 생성하며, 각각의 상기 패션 아이템 구역 정보에 대한 상기 패션 콘텐츠 영상 정보의 적어도 일부의 영상 정보인 패션 아이템 영상 정보를 상기 패션 콘텐츠 영상 정보에서 디텍션 된 상기 패션 아이템의 수 만큼 생성하는 패션 아이템 디텍션 단계;
임베딩 모듈이, 각각의 상기 패션 아이템 영상 정보를 입력 데이터로 하고 패션 아이템 분류 정보를 출력 데이터로 하는 기학습된 패션 아이템 분류 인공신경망의 FC 레이어(Fully Connected Layer)와 연결되어, 각각의 상기 패션 아이템 영상 정보에 대한 상기 패션 아이템 분류 인공신경망의 상기 FC 레이어의 출력 벡터를 각각의 상기 패션 아이템 영상 정보에 대한 임베딩 벡터로 출력하는 임베딩 단계;
클러스터링 모듈이, 복수의 사용자들에 의해 상기 소셜 네트워크 웹서버를 통해 업로드 된 복수의 상기 패션 콘텐츠 정보의 상기 임베딩 벡터를 클러스터링 하여 클러스터를 생성하고, 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터를 매핑하여 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 속하는 상기 클러스터에 대한 정보인 클러스터 정보를 생성하며, 상기 클러스터 정보에 포함되는 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 매핑되는 다른 사용자에 대한 정보인 클러스터 유저 정보를 생성하는 클러스터링 단계;
구매 아이템 정보 수집 모듈이, 상기 클러스터 유저 정보에 포함되는 상기 다른 사용자가 구매한 복수개의 패션 아이템인 구매 아이템에 대한 정보인 구매 아이템 정보를 수집하는 구매 아이템 정보 수집 단계; 및
아이템 추천 모듈이, 상기 구매 아이템 정보를 상기 임베딩 모듈에 입력하여 출력되는 구매 아이템 임베딩 벡터를 수신하고, 상기 클러스터 정보에 포함되는 상기 클러스터의 중심과 상기 구매 아이템 임베딩 벡터와의 거리를 기초로 상기 구매 아이템 임베딩 벡터 중 추천할 상기 구매 아이템의 임베딩 벡터인 추천 아이템 임베딩 벡터를 결정하는 아이템 추천 단계;
를 포함하고,
상기 패션 아이템 분류 인공신경망의 손실함수는, 하나의 상기 패션 콘텐츠 정보 내에 포함되는 각각의 상기 패션 아이템 영상 정보에 대한 상기 임베딩 벡터들 사이의 거리에 대한 함수를 포함하며, 상기 거리가 가까울수록 상기 손실함수의 손실 값이 감소하도록 구성되고, 상기 패션 아이템 분류 인공신경망의 학습 단계에서는 상기 손실 값이 낮아지는 방향으로 상기 패션 아이템 분류 인공신경망의 가중치가 학습되며,
상기 추천 아이템 임베딩 벡터에 대응되는 상기 구매 아이템 정보를 상기 특정 사용자의 상기 사용자 클라이언트에 추천 아이템으로 출력하는 것을 특징으로 하는,
유저 클러스터링을 이용한 패션 아이템 추천 방법.
The fashion content receiving module receives fashion content information of interest, which is fashion content information uploaded or input by the specific user, to a social network web server that is a web server of a specific social network service through a user client of a specific user, A fashion content receiving step of generating fashion content image information and reaction information included in the fashion content information of interest;
A fashion item detection module receives fashion content image information from the fashion content receiving module, detects an area of a fashion item from the fashion content image information, and generates a plurality of fashion item area information. A fashion item detection step of generating fashion item image information, which is image information of at least part of the fashion content image information with respect to item area information, as many as the number of fashion items detected in the fashion content image information;
The embedding module is connected to a fully connected layer of a pre-learned fashion item classification artificial neural network that uses each of the fashion item image information as input data and fashion item classification information as output data. An embedding step of outputting an output vector of the FC layer of the fashion item classification artificial neural network for image information as an embedding vector for each fashion item image information;
A clustering module creates a cluster by clustering the embedding vectors of the plurality of fashion content information uploaded through the social network web server by a plurality of users, and provides the embedding vector of the fashion content information of interest to the cluster. By mapping to generate cluster information, which is information about the cluster to which the embedding vector of the fashion content information of interest belongs, and to another user to which the embedding vector of the fashion content information of interest is mapped to the cluster included in the cluster information A clustering step of generating cluster user information, which is information;
A purchase item information collection step of collecting, by the purchase item information collection module, purchase item information, which is information on purchase items, which are a plurality of fashion items purchased by the other user, included in the cluster user information; And
The item recommendation module receives the purchase item embedding vector output by inputting the purchase item information into the embedding module, and the purchase based on the distance between the center of the cluster and the purchase item embedding vector included in the cluster information An item recommendation step of determining a recommended item embedding vector that is an embedding vector of the purchase item to be recommended from among the item embedding vectors;
Including,
The loss function of the fashion item classification artificial neural network includes a function of a distance between the embedding vectors for each of the fashion item image information included in one fashion content information, and the closer the distance is, the more the loss is It is configured to decrease the loss value of the function, and in the learning step of the fashion item classification artificial neural network, the weight of the fashion item classification artificial neural network is learned in a direction in which the loss value decreases,
Outputting the purchase item information corresponding to the recommended item embedding vector to the user client of the specific user as a recommended item,
Fashion item recommendation method using user clustering.
패션 아이템 추천 프로그램 코드를 저장하는 메모리 모듈; 및
상기 패션 아이템 추천 프로그램 코드를 처리하는 처리 모듈;
을 포함하고,
상기 패션 아이템 추천 프로그램 코드는,
특정 사용자의 사용자 클라이언트를 통해 특정 소셜 네트워크 서비스의 웹서버인 소셜 네트워크 웹서버에 상기 특정 사용자가 반응 정보를 입력하거나 업로드한 패션 콘텐츠 정보인 관심 패션 콘텐츠 정보를 수신하고, 상기 관심 패션 콘텐츠 정보에 포함된 패션 콘텐츠 영상 정보 및 반응 정보를 생성하는 패션 콘텐츠 수신 단계;
상기 패션 콘텐츠 영상 정보에서 패션 아이템의 구역을 디텍션(detection)하여 복수의 패션 아이템 구역 정보를 생성하며, 각각의 상기 패션 아이템 구역 정보에 대한 상기 패션 콘텐츠 영상 정보의 적어도 일부의 영상 정보인 패션 아이템 영상 정보를 상기 패션 콘텐츠 영상 정보에서 디텍션 된 상기 패션 아이템의 수 만큼 생성하는 패션 아이템 디텍션 단계;
각각의 상기 패션 아이템 영상 정보를 입력 데이터로 하고 패션 아이템 분류 정보를 출력 데이터로 하는 기학습된 패션 아이템 분류 인공신경망의 FC 레이어(Fully Connected Layer)의 출력 벡터를 각각의 상기 패션 아이템 영상 정보에 대한 임베딩 벡터로 출력하는 임베딩 단계;
복수의 사용자들에 의해 상기 소셜 네트워크 웹서버를 통해 업로드 된 복수의 상기 패션 콘텐츠 정보의 상기 임베딩 벡터를 클러스터링 하여 클러스터를 생성하고, 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터를 매핑하여 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 속하는 상기 클러스터에 대한 정보인 클러스터 정보를 생성하며, 상기 클러스터 정보에 포함되는 상기 클러스터에 상기 관심 패션 콘텐츠 정보의 상기 임베딩 벡터가 매핑되는 다른 사용자에 대한 정보인 클러스터 유저 정보를 생성하는 클러스터링 단계;
상기 클러스터 유저 정보에 포함되는 상기 다른 사용자가 구매한 복수개의 패션 아이템인 구매 아이템에 대한 정보인 구매 아이템 정보를 수집하는 구매 아이템 정보 수집 단계; 및
상기 클러스터 정보에 포함되는 상기 클러스터의 중심과 상기 구매 아이템 정보의 임베딩 벡터인 구매 아이템 임베딩 벡터와의 거리를 기초로 상기 구매 아이템 임베딩 벡터 중 추천할 상기 구매 아이템의 임베딩 벡터인 추천 아이템 임베딩 벡터를 결정하는 아이템 추천 단계;
를 컴퓨터 상에서 수행시키는 프로그램 코드를 포함하고,
상기 패션 아이템 분류 인공신경망의 손실함수는, 하나의 상기 패션 콘텐츠 정보 내에 포함되는 각각의 상기 패션 아이템 영상 정보에 대한 상기 임베딩 벡터들 사이의 거리에 대한 함수를 포함하며, 상기 거리가 가까울수록 상기 손실함수의 손실 값이 감소하도록 구성되고, 상기 패션 아이템 분류 인공신경망의 학습 단계에서는 상기 손실 값이 낮아지는 방향으로 상기 패션 아이템 분류 인공신경망의 가중치가 학습되며,
상기 추천 아이템 임베딩 벡터에 대응되는 상기 구매 아이템 정보를 상기 특정 사용자의 상기 사용자 클라이언트에 추천 아이템으로 출력하는 것을 특징으로 하는,
유저 클러스터링을 이용한 패션 아이템 추천 인공신경망 장치.
A memory module that stores a fashion item recommendation program code; And
A processing module that processes the fashion item recommendation program code;
Including,
The fashion item recommendation program code,
Receive fashion content information of interest, which is fashion content information uploaded or input by the specific user, to a social network web server, which is a web server of a specific social network service, through a user client of a specific user, and include it in the fashion content information of interest. A fashion content receiving step of generating fashion content image information and reaction information;
A fashion item image that detects an area of a fashion item from the fashion content image information to generate a plurality of fashion item area information, and is image information of at least a part of the fashion content image information for each of the fashion item area information A fashion item detection step of generating information as much as the number of fashion items detected in the fashion content image information;
Pre-learned fashion item classification using each of the fashion item image information as input data and fashion item classification information as output data. The output vector of the fully connected layer of the artificial neural network is used for each fashion item image information. An embedding step of outputting an embedding vector;
A cluster is created by clustering the embedding vectors of the plurality of fashion content information uploaded through the social network web server by a plurality of users, and the interest is mapped to the embedding vector of the fashion content information of interest to the cluster. A cluster user that generates cluster information, which is information about the cluster to which the embedding vector of fashion content information belongs, and is information about another user to which the embedding vector of the fashion content information of interest is mapped to the cluster included in the cluster information A clustering step of generating information;
A purchase item information collection step of collecting purchase item information, which is information on purchase items, which are a plurality of fashion items purchased by the other user, included in the cluster user information; And
A recommended item embedding vector, which is an embedding vector of the purchased item to be recommended, is determined from among the purchase item embedding vectors based on a distance between the center of the cluster included in the cluster information and a purchase item embedding vector that is an embedding vector of the purchase item information An item recommendation step;
Includes program code for executing on a computer,
The loss function of the fashion item classification artificial neural network includes a function of a distance between the embedding vectors for each of the fashion item image information included in one fashion content information, and the closer the distance is, the more the loss is It is configured to decrease the loss value of the function, and in the learning step of the fashion item classification artificial neural network, the weight of the fashion item classification artificial neural network is learned in a direction in which the loss value decreases,
Outputting the purchase item information corresponding to the recommended item embedding vector to the user client of the specific user as a recommended item,
Fashion item recommendation artificial neural network device using user clustering.
KR1020200048136A 2020-04-21 2020-04-21 Artificial neural network apparatus and method for recommending fashion item using user clustering KR102178961B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200048136A KR102178961B1 (en) 2020-04-21 2020-04-21 Artificial neural network apparatus and method for recommending fashion item using user clustering

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200048136A KR102178961B1 (en) 2020-04-21 2020-04-21 Artificial neural network apparatus and method for recommending fashion item using user clustering

Publications (1)

Publication Number Publication Date
KR102178961B1 true KR102178961B1 (en) 2020-11-13

Family

ID=73398904

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200048136A KR102178961B1 (en) 2020-04-21 2020-04-21 Artificial neural network apparatus and method for recommending fashion item using user clustering

Country Status (1)

Country Link
KR (1) KR102178961B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506255A (en) * 2021-07-01 2021-10-15 浙江理工大学 Automatic clothing sewing line defect detection method based on high-precision digital image
CN116823361A (en) * 2023-08-31 2023-09-29 博洛尼智能科技(青岛)有限公司 Jewelry collocation detection and pushing method based on artificial intelligence

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130092310A (en) * 2012-02-10 2013-08-20 (주)워터빈 Recommendation system for goods
KR101768521B1 (en) * 2016-05-02 2017-08-17 네이버 주식회사 Method and system providing informational data of object included in image
KR20190029567A (en) 2016-02-17 2019-03-20 옴니어스 주식회사 Method for recommending a product using style feature
KR102008696B1 (en) * 2019-03-27 2019-08-08 주식회사 페이크럭스컴퍼니 Apparatus and method for recommending goods based on clustering of transaction history data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130092310A (en) * 2012-02-10 2013-08-20 (주)워터빈 Recommendation system for goods
KR20190029567A (en) 2016-02-17 2019-03-20 옴니어스 주식회사 Method for recommending a product using style feature
KR101768521B1 (en) * 2016-05-02 2017-08-17 네이버 주식회사 Method and system providing informational data of object included in image
KR102008696B1 (en) * 2019-03-27 2019-08-08 주식회사 페이크럭스컴퍼니 Apparatus and method for recommending goods based on clustering of transaction history data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
미국 등록특허 US 10395301 B2, Method, medium, and system for using a combination of batch-processing and on-demand processing to provide recommendations, Stitch Fix, Inc.

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506255A (en) * 2021-07-01 2021-10-15 浙江理工大学 Automatic clothing sewing line defect detection method based on high-precision digital image
CN113506255B (en) * 2021-07-01 2023-09-19 浙江理工大学 Automatic detection method for clothing suture defects based on high-precision digital image
CN116823361A (en) * 2023-08-31 2023-09-29 博洛尼智能科技(青岛)有限公司 Jewelry collocation detection and pushing method based on artificial intelligence
CN116823361B (en) * 2023-08-31 2023-12-12 博洛尼智能科技(青岛)有限公司 Jewelry collocation detection and pushing method based on artificial intelligence

Similar Documents

Publication Publication Date Title
Luce Artificial intelligence for fashion: How AI is revolutionizing the fashion industry
CN110110181B (en) Clothing matching recommendation method based on user style and scene preference
US11494616B2 (en) Decoupling category-wise independence and relevance with self-attention for multi-label image classification
Ngai et al. Machine learning in marketing: A literature review, conceptual framework, and research agenda
US11809985B2 (en) Algorithmic apparel recommendation
CN111784455A (en) Article recommendation method and recommendation equipment
Pradana et al. Maximizing strategy improvement in mall customer segmentation using k-means clustering
KR102178961B1 (en) Artificial neural network apparatus and method for recommending fashion item using user clustering
US10902659B2 (en) Intelligent photograph overlay in an internet of things (IoT) computing environment
US11842378B2 (en) Systems and methods for product identification using image analysis and trained neural network
Chattopadhyay et al. Application of artificial neural network in market segmentation: A review on recent trends
JP6527275B1 (en) Harmonious search method based on harmony of multiple objects in image, computer apparatus and computer program
US20210042663A1 (en) Data attribution based on spatial memory using machine learning pipeline
Malik et al. Deep learning in computer vision: Methods, interpretation, causation, and fairness
Usmani et al. Enhanced deep learning framework for fine-grained segmentation of fashion and apparel
JP2019197430A (en) Information processing device, information processing method, program and information processing system
CN116468460A (en) Consumer finance customer image recognition system and method based on artificial intelligence
KR102178962B1 (en) Creator recommendation artificail neural network apparatus and method for fashion brand
Saxena et al. Examination of the Criticality of Customer Segmentation Using Unsupervised Learning Methods
KR102150720B1 (en) Image embedding apparatus and method for content-based user clustering
US11823217B2 (en) Advanced segmentation with superior conversion potential
KR20220075623A (en) Purchase product review curation and product purchase methods, devices and programs through live commerce
Seema et al. Development of fading channel patch based convolutional neural network models for customer churn prediction
Wei Advertising image design skills of e-commerce products in the context of the internet of things
Madongo et al. A movie box office revenue prediction model based on deep multimodal features

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant