KR102446711B1 - An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image - Google Patents
An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image Download PDFInfo
- Publication number
- KR102446711B1 KR102446711B1 KR1020220007294A KR20220007294A KR102446711B1 KR 102446711 B1 KR102446711 B1 KR 102446711B1 KR 1020220007294 A KR1020220007294 A KR 1020220007294A KR 20220007294 A KR20220007294 A KR 20220007294A KR 102446711 B1 KR102446711 B1 KR 102446711B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- product
- feature
- generation model
- fake
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90324—Query formulation using system suggestions
- G06F16/90328—Query formulation using system suggestions using search space presentation or visualization, e.g. category or range presentation and selection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Abstract
Description
본 출원은 상품 이미지 생성 방법 및 상품 이미지 생성 장치에 관한 것이다. 구체적으로 본 출원은 코디할 상품 이미지를 생성하는 상품 이미지 생성 모델 및 상품 이미지 생성 모델을 이용하여 코디할 상품 이미지를 생성하는 방법 및 장치에 관한 것이다. The present application relates to a product image generating method and a product image generating apparatus. Specifically, the present application relates to a product image generation model for generating a product image to be coordinated, and a method and apparatus for generating a product image to be coordinated using the product image generation model.
인공지능 기술이 발전하면서 다양한 산업 분야에서 인공지능 기술들이 활용되고 있다. 특히, 이커머스 분야에서는 인공지능 기법을 이용하여 사용자의 선호도에 따라 상품을 추천해주는 기술들이 활발하게 연구되고 있다.As artificial intelligence technology develops, artificial intelligence technologies are being used in various industries. In particular, in the field of e-commerce, technologies for recommending products according to user preferences using artificial intelligence techniques are being actively studied.
종래에는 사용자의 구매 이력이나 제품 열람 이력 등에 기초하여 사용자에게 개인화된 상품을 추천해왔다. 특히 사용자의 구매 이력이나 제품 열람 정보를 다른 사용자의 구매 이력이나 제품 열람 정보 기술과 비교하여, 특정 상품을 구매한 사용자에게, 사용자와 유사한 구매 이력 정보를 가지는 다른 사용자의 구매 이력이나 제품 열람 정보를 이용하여 추천 상품을 제공해왔다. 다만, 종래에는 복수의 상품 카테고리와 관련된 상품들에 어울리는 상품을 추천하는 인공지능 모델에 대한 연구는 충분하지 않았다.Conventionally, personalized products have been recommended to users based on the user's purchase history or product browsing history. In particular, by comparing a user's purchase history or product viewing information with another user's purchase history or product viewing information technology, the purchase history or product viewing information of other users with similar purchase history information to the user is provided to the user who purchased a specific product. Used to provide recommended products. However, conventionally, research on artificial intelligence models for recommending products suitable for products related to a plurality of product categories has not been sufficient.
이에, 복수의 상품 카테고리와 관련된 상품들에 코디할 상품 정보를 자동적으로 생성하는 새로운 인공지능 모델, 및 인공지능 모델의 학습 방법의 개발이 요구된다.Accordingly, it is required to develop a new artificial intelligence model for automatically generating product information to be coordinated with products related to a plurality of product categories, and a learning method of the artificial intelligence model.
본 발명이 해결하고자 하는 일 과제는, 제1 상품 카테고리와 관련된 제1 상품과 제2 상품 카테고리와 관련된 제2 상품을 포함하는 복수의 상품들에 코디할 코디 상품 정보를 생성하는 상품 이미지 생성 모델, 이를 이용한 상품 이미지 생성 방법, 및 상품 이미지 생성 장치를 제공하는 것이다. One problem to be solved by the present invention is a product image generation model for generating coordinated product information to be coordinated with a plurality of products including a first product related to a first product category and a second product related to a second product category; It is to provide a product image generating method using the same, and a product image generating apparatus.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-described problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. .
본 출원의 일 실시예에 따른 제1 상품 카테고리와 관련된 제1 상품에 대한 이미지와 제2 상품 카테고리와 관련된 제2 상품에 대한 이미지에 기초하여, 제1 상품과 제2 상품과 코디할 코디 상품과 관련된 코디 이미지를 생성하는 상품 이미지 생성 모델에 있어서, 상품 이미지 생성 모델은, 상기 제1 상품과 관련된 제1 이미지로부터 제1 피처를 추출하는 제1 인코더 및 상기 제2 상품과 관련된 제2 이미지로부터 제2 피처를 추출하는 제2 인코더를 포함하는 인코더부; 상기 제1 피처와 상기 제2 피처에 기초하여 생성된 병합 피처를 변환하여, 상기 제1 상품 및 상기 제2 상품과 코디할 제3 상품과 관련된 이미지를 생성하기 위한 제1 대상 피처를 생성하는 맵핑 네트워크(Mapping network); 및 상기 제1 대상 피처로부터 제3 상품 카테고리와 관련된 코디 상품과 관련된 페이크 이미지를 생성하는 생성자(Generator);를 포함하되, 상기 생성자는, 상기 페이크 이미지 및 상기 제3 상품 카테고리와 관련된 리얼 이미지 간의 차이에 기초하여 학습될 수 있다. Based on the image of the first product related to the first product category and the image of the second product related to the second product category according to an embodiment of the present application, the first product and the second product and the coordinated product to be coordinated; In the product image generation model for generating a related coordinating image, the product image generation model includes: a first encoder for extracting a first feature from a first image related to the first product, and a second image related to the second product an encoder unit including a second encoder for extracting 2 features; Mapping for generating a first target feature for generating an image related to a third product to be coordinated with the first product and the second product by transforming the merged feature generated based on the first feature and the second feature network (Mapping network); and a generator for generating a fake image related to a coordinated product related to a third product category from the first target feature, wherein the generator includes: a difference between the fake image and a real image related to the third product category can be learned based on
본 출원의 일 실시예에 따른 제1 상품 카테고리와 관련된 제1 상품에 대한 이미지와 제2 상품 카테고리와 관련된 제2 상품에 대한 이미지에 기초하여, 제1 상품과 제2 상품과 코디할 코디 상품과 관련된 코디 이미지를 생성하는 상품 이미지 생성 모델을 학습시키는 방법에 있어서, 상기 방법은, 상기 제1 상품과 관련된 제1 이미지 및 상기 제2 상품과 관련된 제2 이미지를 포함하는 복수의 이미지를 획득하는 단계; 상기 제1 이미지로부터 제1 피처를 추출하고, 상기 제2 이미지로부터 제2 피처를 추출하는 단계; 상기 제1 피처와 상기 제2 피처에 기초하여 병합 피처를 생성하는 단계; 상기 병합 피처를 변환하여 상기 제1 상품 및 상기 제2 상품과 코디할 제3 상품과 관련된 이미지를 생성하기 위한 제1 대상 피처를 획득하는 단계; 상기 제1 대상 피처로부터 제3 상품 카테고리와 관련된 페이크 이미지를 생성하는 단계; 및 상기 페이크 이미지 및 상기 제3 상품 카테고리와 관련된 리얼 이미지 간의 차이에 기초하여 상기 상품 이미지 생성 모델을 학습시키는 단계;를 포함할 수 있다.Based on the image of the first product related to the first product category and the image of the second product related to the second product category according to an embodiment of the present application, the first product and the second product and the coordinated product to be coordinated; A method for training a product image generation model for generating a related coordinating image, the method comprising: obtaining a plurality of images including a first image related to the first product and a second image related to the second product ; extracting a first feature from the first image and extracting a second feature from the second image; generating a merge feature based on the first feature and the second feature; obtaining a first target feature for generating an image related to a third product to be coordinated with the first product and the second product by converting the merged feature; generating a fake image related to a third product category from the first target feature; and learning the product image generation model based on a difference between the fake image and the real image related to the third product category.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions to the problems of the present invention are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. will be able
본 출원의 실시예에 따른 상품 이미지 생성 모델, 이를 이용한 상품 이미지 생성 방법, 및 상품 이미지 생성 장치에 의하면, 제1 상품과 관련된 제1 이미지와 제2 상품과 관련된 제2 이미지들을 포함하는 복수의 이미지로부터 제1 상품 및 제2 상품들과 어울리는 코디 상품과 관련된 코디 이미지를 자동적으로 생성할 수 있다. According to the product image generation model, the product image generation method using the same, and the product image generation apparatus according to an embodiment of the present application, a plurality of images including a first image related to a first product and second images related to a second product It is possible to automatically generate a coordinating image related to a coordinating product matching the first product and the second product.
또한, 본 출원의 실시예에 따른 상품 이미지 생성 모델, 이를 이용한 상품 이미지 생성 방법, 및 상품 이미지 생성 장치에 의하면, 적대적 생성 신경망을 이용한 경쟁적 학습, 추출자를 통하여 추출한 추출 정보들 간의 비교 결과에 따른 로스 부여, 및/또는 이미지 임베딩 네트워크를 통하여 생성된 피처에 기초한 로스 부여 등을 포함하여 다양한 방식으로 상품 이미지 생성 모델을 학습시킴으로써, 상품 이미지 생성 모델의 정확도를 높일 수 있다.In addition, according to the product image generation model, the product image generation method using the product image generation model, and the product image generation apparatus according to the embodiment of the present application, competitive learning using an adversarial generation neural network, loss according to the comparison result between extracted information extracted through the extractor By learning the product image generation model in various ways, including giving and/or giving a loss based on a feature generated through an image embedding network, the accuracy of the product image generation model may be increased.
본 출원의 실시예에 따른 상품 이미지 생성 모델, 이를 이용한 상품 이미지 생성 방법, 및 상품 이미지 생성 장치에 의하면, 정제 네트워크를 통하여 코디 이미지의 노이즈를 제거하거나 퀄리티를 높임으로써, 사용자에게 고품질의 코디 이미지를 제공할 수 있다.According to the product image generation model, the product image generation method using the same, and the product image generation apparatus according to the embodiment of the present application, a high-quality coordination image is provided to the user by removing noise or increasing the quality of the coordination image through a refinement network. can provide
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and accompanying drawings.
도 1은 본 출원의 일 실시예에 따른 상품 이미지 생성 장치에 관한 개략도이다.
도 2는 본 출원의 일 실시예에 따른 상품 이미지 생성 모델을 도시한 개략도이다.
도 3은 본 출원의 일 실시예에 따른 상품 이미지 생성 모델의 학습 방법의 양상들을 도시한 개략도이다.
도 4는 본 출원의 다른 실시예에 따른 상품 이미지 생성 모델을 도시한 개략도이다.
도 5는 본 출원의 일 실시예에 따른 상품 이미지 생성 모델의 학습 방법을 도시한 순서도이다.
도 6은 본 출원의 일 실시예에 따른 상품 이미지 생성 모델을 이용하여 코디 이미지를 출력하는 방법을 도시한 순서도이다. 1 is a schematic diagram of an apparatus for generating a product image according to an embodiment of the present application.
2 is a schematic diagram illustrating a product image generation model according to an embodiment of the present application.
3 is a schematic diagram illustrating aspects of a learning method of a product image generation model according to an embodiment of the present application.
4 is a schematic diagram illustrating a product image generation model according to another embodiment of the present application.
5 is a flowchart illustrating a learning method of a product image generation model according to an embodiment of the present application.
6 is a flowchart illustrating a method of outputting a coordinating image using a product image generation model according to an embodiment of the present application.
본 출원의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 출원은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.The above-mentioned objects, features and advantages of the present application will become more apparent from the following detailed description in conjunction with the accompanying drawings. However, since the present application may have various changes and may have various embodiments, specific embodiments will be exemplified in the drawings and described in detail below.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.Throughout the specification, like reference numerals refer to like elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals, and overlapping descriptions thereof will be omitted.
본 출원과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 출원의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present application may unnecessarily obscure the gist of the present application, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present specification are merely identification symbols for distinguishing one component from other components.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for the components used in the following embodiments are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the following examples, the singular expression includes the plural expression unless the context clearly dictates otherwise.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.In the following embodiments, terms such as include or have means that the features or components described in the specification are present, and the possibility that one or more other features or components may be added is not excluded in advance.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, and the present invention is not necessarily limited to the illustrated bar.
어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.In cases where certain embodiments are otherwise implementable, the order of specific processes may be performed differently from the order in which they are described. For example, two processes described in succession may be performed substantially simultaneously, or may be performed in an order opposite to the order described.
이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다.In the following embodiments, when components are connected, it includes not only cases in which components are directly connected, but also cases in which components are interposed between components and connected indirectly.
예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.For example, in the present specification, when it is said that components and the like are electrically connected, it includes not only the case where the components are directly electrically connected, but also the case where the components are interposed therebetween to be indirectly electrically connected.
본 출원의 일 실시예에 따른 제1 상품 카테고리와 관련된 제1 상품에 대한 이미지와 제2 상품 카테고리와 관련된 제2 상품에 대한 이미지에 기초하여, 제1 상품과 제2 상품과 코디할 코디 상품과 관련된 코디 이미지를 생성하는 상품 이미지 생성 모델에 있어서, 상품 이미지 생성 모델은, 상기 제1 상품과 관련된 제1 이미지로부터 제1 피처를 추출하는 제1 인코더 및 상기 제2 상품과 관련된 제2 이미지로부터 제2 피처를 추출하는 제2 인코더를 포함하는 인코더부; 상기 제1 피처와 상기 제2 피처에 기초하여 생성된 병합 피처를 변환하여, 상기 제1 상품 및 상기 제2 상품과 코디할 제3 상품과 관련된 이미지를 생성하기 위한 제1 대상 피처를 생성하는 맵핑 네트워크(Mapping network); 및 상기 제1 대상 피처로부터 제3 상품 카테고리와 관련된 코디 상품과 관련된 페이크 이미지를 생성하는 생성자(Generator);를 포함하되, 상기 생성자는, 상기 페이크 이미지 및 상기 제3 상품 카테고리와 관련된 리얼 이미지 간의 차이에 기초하여 학습될 수 있다. Based on the image of the first product related to the first product category and the image of the second product related to the second product category according to an embodiment of the present application, the first product and the second product and the coordinated product to be coordinated; In the product image generation model for generating a related coordinating image, the product image generation model includes: a first encoder for extracting a first feature from a first image related to the first product, and a second image related to the second product an encoder unit including a second encoder for extracting 2 features; Mapping for generating a first target feature for generating an image related to a third product to be coordinated with the first product and the second product by transforming the merged feature generated based on the first feature and the second feature network (Mapping network); and a generator for generating a fake image related to a coordinated product related to a third product category from the first target feature, wherein the generator includes: a difference between the fake image and a real image related to the third product category can be learned based on
본 출원의 일 실시예에 따르면, 상기 상품 이미지 생성 모델은, 상기 페이크 이미지 및 리얼 이미지를 획득하고, 상기 리얼 이미지와 상기 페이크 이미지를 비교하여 상기 페이크 이미지의 진위를 판별하는 판별자(Discriminator);를 더 포함할 수 있다. According to an embodiment of the present application, the product image generation model may include: a discriminator for obtaining the fake image and the real image, and determining the authenticity of the fake image by comparing the real image with the fake image; may further include.
본 출원의 일 실시예에 따르면, 상기 생성자는 상기 페이크 이미지를 상기 리얼 이미지에 근사하도록 학습되며, 상기 판별자는 상기 페이크 이미지를 가짜라고 판단하고, 상기 리얼 이미지는 진짜라고 판단하도록 학습될 수 있다. According to an embodiment of the present application, the generator may be trained to approximate the fake image to the real image, and the discriminator may be trained to determine that the fake image is fake, and determine that the real image is real.
본 출원의 일 실시예에 따르면, 상기 상품 이미지 생성 모델은, 상기 페이크 이미지 및 상기 리얼 이미지 중 적어도 하나의 이미지로부터 엣지 정보를 추출하는 엣지 추출기(Edge extractor), 및 상기 페이크 이미지 및 상기 리얼 이미지 중 적어도 하나의 이미지로부터 피처 정보를 추출하는 피처 추출기(Feature Extractor)를 포함하는 추출자(Extractor)를 더 포함할 수 있다. According to an embodiment of the present application, the product image generation model includes an edge extractor for extracting edge information from at least one of the fake image and the real image, and among the fake image and the real image. An extractor including a feature extractor for extracting feature information from at least one image may be further included.
본 출원의 일 실시예에 따르면, 상기 추출자는, 상기 엣지 추출기를 통하여, 상기 페이크 이미지로부터 제1 엣지 정보를 추출하고 상기 리얼 이미지로부터 제2 엣지 정보를 획득하고, 상기 피처 추출기를 통하여, 상기 페이크 이미지로부터 제1 피처 정보를 획득하고 리얼 이미지로부터 제2 피처 정보를 획득하고, 상기 생성자는, 상기 제1 엣지 정보와 상기 제2 엣지 정보의 차이에 기초하여 학습되거나, 상기 제1 피처 정보와 상기 제2 피처 정보의 차이에 기초하여 학습될 수 있다. According to an embodiment of the present application, the extractor extracts first edge information from the fake image through the edge extractor, obtains second edge information from the real image, and through the feature extractor, the fake obtain first feature information from an image and second feature information from a real image, wherein the generator is learned based on a difference between the first edge information and the second edge information, or the first feature information and the It may be learned based on the difference in the second feature information.
본 출원의 일 실시예에 따르면, 상기 상품 이미지 생성 모델은, 상기 페이크 이미지 및 상기 리얼 이미지 중 적어도 하나에 기초하여 제2 대상 피처를 추출하는 이미지 임베딩 네트워크를 포함하되, 상기 생성자는, 상기 제1 대상 피처와 상기 제2 대상 피처 간의 차이에 기초한 로스, 또는 상기 제2 대상 피처에 기초하여 생성된 페이크 이미지와 상기 리얼 이미지 간의 차이에 기초한 로스에 기초하여, 상기 리얼 이미지와 상기 페이크 이미지가 근사되도록 훈련될 수 있다. According to an embodiment of the present application, the product image generation model includes an image embedding network for extracting a second target feature based on at least one of the fake image and the real image, wherein the creator includes the first based on a loss based on a difference between a target feature and the second target feature, or a loss based on a difference between a fake image generated based on the second target feature and the real image, such that the real image and the fake image are approximated can be trained
본 출원의 일 실시예에 따르면, 상기 상품 이미지 생성 모델은, 상기 페이크 이미지에 기초하여 제2 대상 피처를 추출하고, 상기 리얼이미지에 기초하여 제2 대상 피처를 추출하는 이미지 임베딩 네트워크를 포함하되, 상기 생성자는, 상기 페이크 이미지에 기초하여 추출된 제2 대상 피처와 상기 리얼 이미지에 기초하여 추출된 제2 대상 피처 간의 로스에 기초하여 훈련될 수 있다. According to an embodiment of the present application, the product image generation model includes an image embedding network that extracts a second target feature based on the fake image and extracts a second target feature based on the real image, The generator may be trained based on a loss between a second target feature extracted based on the fake image and a second target feature extracted based on the real image.
본 출원의 일 실시예에 따르면, 상기 상품 이미지 생성 모델은, 상기 생성자를 통하여 획득된 상기 페이크 이미지의 노이즈를 제거하거나 상기 페이크 이미지의 퀄리티를 증대시키는 정제 네트워크(Refinement network)를 더 포함할 수 있다. According to an embodiment of the present application, the product image generation model may further include a refinement network that removes noise of the fake image acquired through the generator or increases the quality of the fake image. .
본 출원의 일 실시예에 따르면, 상기 병합 피처는, 상기 제1 피처와 상기 제2 피처 각각에 노멀라이제이션을 수행한 후 병합하여 생성될 수 있다.According to an embodiment of the present application, the merged feature may be generated by performing normalization on each of the first and second features and then merging them.
본 출원의 일 실시예에 따른 제1 상품 카테고리와 관련된 제1 상품에 대한 이미지와 제2 상품 카테고리와 관련된 제2 상품에 대한 이미지에 기초하여, 제1 상품과 제2 상품과 코디할 코디 상품과 관련된 코디 이미지를 생성하는 상품 이미지 생성 모델을 학습시키는 방법에 있어서, 상기 방법은, 상기 제1 상품과 관련된 제1 이미지 및 상기 제2 상품과 관련된 제2 이미지를 포함하는 복수의 이미지를 획득하는 단계; 상기 제1 이미지로부터 제1 피처를 추출하고, 상기 제2 이미지로부터 제2 피처를 추출하는 단계; 상기 제1 피처와 상기 제2 피처에 기초하여 병합 피처를 생성하는 단계; 상기 병합 피처를 변환하여 상기 제1 상품 및 상기 제2 상품과 코디할 제3 상품과 관련된 이미지를 생성하기 위한 제1 대상 피처를 획득하는 단계; 상기 대상 피처로부터 제3 상품 카테고리와 관련된 페이크 이미지를 생성하는 단계; 및 리얼 이미지를 획득하고, 상기 리얼 이미지와 상기 페이크 이미지를 비교하여 상기 페이크 이미지의 진위를 판단하고, 판단 결과에 기초하여 상기 상품 이미지 생성 모델을 학습시키는 단계;를 포함할 수 있다.Based on the image of the first product related to the first product category and the image of the second product related to the second product category according to an embodiment of the present application, the first product and the second product and the coordinated product to be coordinated; A method for training a product image generation model for generating a related coordinating image, the method comprising: obtaining a plurality of images including a first image related to the first product and a second image related to the second product ; extracting a first feature from the first image and extracting a second feature from the second image; generating a merge feature based on the first feature and the second feature; obtaining a first target feature for generating an image related to a third product to be coordinated with the first product and the second product by converting the merged feature; generating a fake image related to a third product category from the target feature; and obtaining a real image, determining the authenticity of the fake image by comparing the real image with the fake image, and learning the product image generation model based on the determination result.
본 출원의 일 실시예에 따르면, 상기 상품 이미지 생성 모델의 학습 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.According to an embodiment of the present application, a computer-readable recording medium in which a program for executing the learning method of the product image generation model is recorded may be provided.
이하에서는 도 1 내지 도 6을 참고하여 본 출원의 실시예들에 따른 상품 이미지 생성 모델, 상품 이미지 생성 방법, 및 상품 이미지 생성 장치(혹은 상품 이미지 생성 서버, 이하 상품 이미지 생성 장치로 지칭)에 관하여 설명한다.Hereinafter, with reference to FIGS. 1 to 6 , a product image generation model, a product image generation method, and a product image generation apparatus (or a product image generation server, hereinafter referred to as a product image generation apparatus) according to embodiments of the present application Explain.
도 1은 본 출원의 일 실시예에 따른 상품 이미지 생성 장치에 관한 개략도이다. 1 is a schematic diagram of an apparatus for generating a product image according to an embodiment of the present application.
본 출원의 일 실시예에 따른 상품 이미지 생성 장치(1000)는 상품 카테고리별 복수의 이미지를 포함하는 학습 세트에 기초하여 상품 이미지 생성 모델(100)을 학습시킬 수 있다. 또한, 상품 이미지 생성 장치(1000)는 상품 이미지 생성 모델(100)을 이용하여 상품 카테고리별 복수의 대상 이미지들로부터, 복수의 대상 이미지와 관련된 상품들과 코디할 상품과 관련된 코디 이미지를 획득할 수 있다.The product
본 출원의 일 실시예에 따른 상품 이미지 생성 장치(1000)는 송수신부(1100), 메모리(1200), 및 프로세서(1300)를 포함할 수 있다. The product
송수신부(1100)는 사용자 단말을 포함한 임의의 외부 기기와 통신을 수행할 수 있다. 예컨대, 상품 이미지 생성 장치(1000)는, 송수신부(1100)를 통해, 상품 카테고리별 이미지들을 획득할 수 있다. 또한, 상품 이미지 생성 장치(1000)는, 송수신부(1100)를 통해, 상품 이미지 생성 모델(100)을 실행시키기 위한 임의의 실행 데이터를 획득할 수 있다. 여기서 실행 데이터는 상품 이미지 생성 모델(100)의 구조 정보, 계층 정보, 연산 라이브러리, 및 상품 이미지 생성 모델(100)에 포함된 가중치와 관련된 파라미터 세트를 포함하여 상품 이미지 생성 모델(100)을 실행시키기 위한 임의의 적절한 데이터를 포괄하는 의미일 수 있다. 또한, 상품 이미지 생성 장치(100)는, 송수신부(1100)를 통하여, 상품 이미지 생성 모델(100)을 통하여 획득한 코디 이미지를 사용자 단말을 포함한 임의의 외부 기기로 송신하거나 출력할 수 있다. The transceiver 1100 may communicate with any external device including a user terminal. For example, the product
상품 이미지 생성 장치(1000)는, 송수신부(1100)를 통해 네트워크에 접속하여 각종 데이터를 송수신할 수 있다. 송수신부(1100)는 크게 유선 타입과 무선 타입을 포함할 수 있다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서 상품 이미지 생성 장치(1000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다. 여기서, 무선 타입의 경우에는 주로 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식을 이용할 수 있다. 또는, 무선 타입의 경우에는 셀룰러 통신, 예컨대, LTE, 5G 계열의 통신 방식을 이용할 수 있다. 다만, 무선 통신 프로토콜이 상술한 예시에 제한되는 것은 아니며, 임의의 적절한 무선 타입의 통신 방식을 이용하는 것도 가능하다. 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다. The product
메모리(1200)는 각종 정보를 저장할 수 있다. 메모리(1200)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 메모리(1200)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. 메모리(1200)는 상품 이미지 생성 장치(1000)에 내장되는 형태나 탈부착 가능한 형태로 제공될 수 있다. 메모리(1200)에는 상품 이미지 생성 장치(1000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 상품 이미지 생성 장치(1000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 상품 이미지 생성 장치(1000)의 동작에 필요한 각종 데이터가 저장될 수 있다.The memory 1200 may store various types of information. Various data may be temporarily or semi-permanently stored in the memory 1200 . Examples of the memory 1200 include a hard disk (HDD), a solid state drive (SSD), a flash memory, a read-only memory (ROM), a random access memory (RAM), and the like. This can be. The memory 1200 may be provided in a form embedded in the product
프로세서(1300)는 상품 이미지 생성 장치(1000)의 전반적인 동작을 제어할 수 있다. 예컨대, 프로세서(1300)는 후술할 상품 이미지 생성 모델(100)을 학습시키는 동작 및/또는 상품 이미지 생성 모델(100)을 이용하여 코디 이미지를 획득하는 동작 등을 포함하여 상품 이미지 생성 장치(1000)의 전반적인 동작을 제어할 수 있다. 구체적으로 프로세서(1300)는 메모리(1200)로부터 상품 이미지 생성 장치(1000)의 전반적인 동작을 위한 프로그램을 로딩하여 실행할 수 있다. 프로세서(1300)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 AP(Application Processor), CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 이때, 하드웨어적으로는 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될 수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The processor 1300 may control the overall operation of the product
이하에서는 도 2를 참고하여, 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)의 구조와 상품 이미지 생성 모델(100)의 학습 방법에 대하여 구체적으로 서술한다. 도 2는 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)을 도시한 개략도이다.Hereinafter, with reference to FIG. 2 , the structure of the product
본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)은 적어도 하나의 인코더(111, 113, 115)를 포함하는 인코더부(110), 인코더부(110)로부터 추출된 피처들에 기초하여 생성된 병합 피처를 제1 대상 피처로 변환하는 맵핑 네트워크(120); 및 제1 대상 피처에 기초하여 페이크 이미지를 생성자(130);를 포함할 수 있다. The product
인코더부(110)는 적어도 하나 이상의 인코더(예컨대, 제1 인코더(111), 제2 인코더(113), 및 제N 인코더(115))를 포함할 수 있다. 인코더부(110)는 상품과 관련된 이미지를 획득하고, 이미지로부터 상품의 재질, 스타일, 크기, 비율, 모양 및/또는 색상 등을 포함한 상품의 속성과 관련된 피처를 추출할 수 있다. The encoder unit 110 may include at least one or more encoders (eg, a
예컨대, 제1 인코더(111)는 제1 상품 카테고리(예컨대, 상의)와 관련된 제1 상품에 대한 제1 이미지를 수신하고, 제1 이미지로부터 제1 상품의 속성과 관련된 제1 피처를 추출할 수 있다. 제2 인코더(113)는 제1 상품 카테고리와는 상이한 제2 상품 카테고리(예컨대, 하의 또는 신발 등)와 관련된 제2 상품에 대한 제2 이미지를 수신하고, 제2 이미지로부터 제2 상품의 속성과 관련된 제2 피처를 추출할 수 있다.For example, the
상품 이미지 생성 모델(100)은 제1 피처 및 제2 피처를 포함하는 복수의 피처를 획득하고, 제1 피처 및 제2 피처를 포함하는 복수의 피처를 병합하여 병합 피처(Concatenate feature)를 생성하도록 구성될 수 있다. The product
일 예로, 상품 이미지 생성 모델(100)은 제1 피처 및 제2 피처를 포함하는 복수의 피처들 각각에 노멀라이제이션(normalization)을 수행한 후 병합하여 병합 피처를 생성하도록 구성될 수 있다. As an example, the product
다른 예로, 상품 이미지 생성 모델(100)은 제1 피처 및 제2 피처를 포함하는 복수의 피처들 각각에 노멀라이제이션을 수행한 후 병합하여 중간 피처를 생성하고, 중간 피처에 노멀라이제이션을 수행하여 병합 피처를 생성하도록 구성될 수 있다. As another example, the product
여기서 노멀라이제이션이란 임의의 벡터를 유닛화하는 임의의 기법과 관련된 데이터 처리 기법을 지칭하며, 상품 이미지 생성 모델(100)은 L1 노멀라이제이션 및/또는 L2 노멀라이제이션을 통하여 인코더부(110)로부터 획득한 복수의 피처들 또는 중간 피처를 정규화할 수 있다. Here, normalization refers to a data processing technique related to an arbitrary technique for uniting an arbitrary vector, and the product
이때, 병합 피처는 제1 상품과 제2 상품과 관련된 피처를 포함할 뿐, 제1 상품 및 제2 상품과 코디할 제3 상품이 속한 제3 상품 카테고리와 관련된 피처는 포함하지 않을 수 있다. 따라서, 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)은 병합 피처를 변환하여, 제1 상품 및 제2 상품과 코디할 제3 상품 카테고리에 속한 제3 상품을 생성하기 위한 제1 대상 피처를 획득할 수 있다. 예컨대, 상품 이미지 생성 모델(100)은 맵핑 네트워크(120)를 포함할 수 있으며, 상품 이미지 생성 모델(100)은 맵핑 네트워크(120)를 통하여 병합 피처를 변환하여 제3 상품과 관련된 이미지를 생성하기 위한 제1 대상 피처를 획득할 수 있다. 맵핑 네트워크(120)는 특정 바운더리 내에 제1 대상 피처가 생성되도록 하는 효과를 제공할 수 있다. In this case, the merge feature may include only features related to the first product and the second product, but may not include features related to the third product category to which the first product and the second product and the third product to be coordinated belong. Accordingly, the product
본 출원의 일 실시예에 따른 맵핑 네트워크(120)는 콘볼루션 뉴럴 네트워크(Convolutional Neural Networks(CNN)) 또는 완전 연결 계층(Fully connected(Dense) layer)로 구성된 다중 퍼셉트론(Multi-Layer Perceptron, MLP) 신경망일 수 있다. The
다만 필요에 따라, 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)은 맵핑 네트워크를 포함하지 않을 수 있다. 이때, 상품 이미지 생성 모델(100)은 병합 피처를 직접 후술할 생성자(Generator)에 입력하도록 구성될 수 있다. However, if necessary, the product
생성자(120)는 제1 대상 피처를 획득하고, 제1 대상 피처에 기초하여 제3 상품 카테고리와 관련된 코디 상품과 관련된 페이크 이미지를 생성할 수 있다. The
이때, 상품 이미지 생성 모델(100)(혹은 상품 이미지 생성 장치(1000))은 코디 상품과 관련된 리얼 이미지를 획득하고, 리얼 이미지와 페이크 이미지에 기초하여, 페이크 이미지가 리얼 이미지에 근사되도록 생성자를 학습시킬 수 있다. 예컨대, 상품 이미지 생성 모델(100)은 리얼 이미지와 페이크 이미지의 차이의 절대값과 관련된 L1 로스를 생성자(130)에 부여하여 생성자(130)를 학습시킬 수 있다. 다른 예를 들면, 상품 이미지 생성 모델(100)은 리얼 이미지와 페이크 이미지를 비교하여 유클리디안 거리와 관련된 L2 로스를 획득하고, L2 로스를 생성자(130)에 부여하여 생성자(130)를 학습시킬 수 있다. At this time, the product image generation model 100 (or the product image generation device 1000 ) acquires a real image related to the coordinated product, and learns the constructor so that the fake image approximates the real image based on the real image and the fake image. can do it For example, the product
이하에서는 도 3을 참고하여 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)의 학습 방법에 대하여 구체적으로 서술하기로 한다. 도 3은 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)의 학습 방법의 양상들을 도시한 개략도이다. Hereinafter, a learning method of the product
본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)은 판별자(140)를 더 포함할 수 있다. 판별자(140)는 리얼 이미지와 생성자(130)로부터 생성된 페이크 이미지를 획득하고, 리얼 이미지와 페이크 이미지를 비교하여 페이크 이미지의 진위를 판별하는 동작을 수행할 수 있다. 이때, 생성자(130)와 판별자(140)는 적대적 생성 신경망(Generative Adversarial Network, GAN)을 구성하여 경쟁적 방식으로 학습될 수 있다. 구체적으로 판별자(140)는 페이크 이미지를 가짜라고 판단하고, 리얼 이미지는 진짜라고 판단하도록 학습되며, 생성자(130)는 판별자(140)의 판단 결과에 기초하여, 판별자(140)가 페이크 이미지를 진짜라고 판단하도록 페이크 이미지를 리얼 이미지에 근사하여 출력하도록 학습될 수 있다. 예컨대, 판별자(140)는 리얼 이미지 및 페이크 이미지 각각에 대하여 진위와 관련된 지표(예컨대, 진짜일 확률값 혹은 임의의 형태의 점수)를 연산할 수 있으며, 생성자(130)는, 판별자(140)가 페이크 이미지의 진위 지표를 리얼 이미지의 진위 지표(혹은 목표하는 진위 지표)에 근사하여 연산하도록, 페이크 이미지를 출력하도록 학습될 수 있다. The product
한편, 생성자(130)와 판별자(140)의 학습 진행 단계에 따른 학습 횟수(즉 학습 밸런스)는 적절한 값으로 미리 설정될 수 있다. 예컨대, 학습 초기에는 생성자(130)의 학습 횟수가 판별자(140)보다 학습 횟수보다 상대적으로 크도록 설정될 수 있다. 다른 예로, 학습 중기에는 생성자(130)의 학습 횟수와 판별자(140)의 학습 횟수의 차이가 미리 설정된 임계값보다 작도록 구성될 수 있다. 또 다른 예로, 학습 말기에는 판별자(140)의 학습 횟수가 생성자(130)의 학습 횟수보다 같거나 크도록 설정될 수 있다. 다만, 이는 예시에 불과하며, 생성자(130)의 학습 횟수와 판별자(140)의 학습 횟수가 임의의 적절한 값으로 미리 설정될 수 있다.Meanwhile, the number of learning times (ie, learning balance) according to the learning progress stage of the
본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)은 페이크 이미지 및/또는 리얼 이미지로부터 엣지 정보를 추출하는 엣지 추출기(152, Edge extractor), 및 페이크 이미지 및/또는 리얼 이미지로부터 피처 정보를 추출하는 피처 추출기(154, Feature extractor)를 포함하는 추출자(150)를 더 포함할 수 있다. Product
구체적으로 추출자(150)는 엣지 추출기(152)를 통하여 페이크 이미지로부터 제1 엣지 정보를 추출할 수 있다. 또는 추출자(150)는 엣지 추출기(152)를 통하여 리얼 이미지로부터 제2 엣지 정보를 추출할 수 있다. 이때, 생성자(130)는 페이크 이미지와 관련된 제1 엣지 정보와 리얼 이미지와 관련된 제2 엣지 정보에 기초하여 학습될 수 있다. 구체적으로 생성자(130)는, 페이크 이미지와 관련된 제1 엣지 정보와 리얼 이미지와 관련된 제2 엣지 정보의 차이에 기초하여, 제1 엣지 정보와 제2 엣지 정보 간의 차이를 감소시키도록, 페이크 이미지를 생성하도록 학습될 수 있다. Specifically, the
또한, 추출자(150)는 피처 추출기(154)를 통하여 페이크 이미지로부터 제1 피처 정보를 추출할 수 있다. 또는 추출자(150)는 피처 추출기(154)를 통하여 리얼 이미지로부터 제2 피처 정보를 추출할 수 있다. 이때, 생성자(130)는 페이크 이미지와 관련된 제1 피처 정보와 리얼 이미지와 관련된 제2 피처 정보에 기초하여 학습될 수 있다. 구체적으로 생성자(140)는, 페이크 이미지와 관련된 제1 피처 정보와 리얼 이미지와 관련된 제2 피처 정보의 차이에 기초하여 제1 피처 정보와 제2 피처 정보 간의 차이를 감소시키도록, 페이크 이미지를 생성하도록 학습시킬 수 있다.Also, the
보다 구체적으로 상품 이미지 생성 모델(100)(혹은 상품 이미지 생성 장치(1000))은 제1 피처 정보와 제2 피처 정보의 차이(또는 제1 엣지 정보와 제2 엣지 정보의 차이)의 절대값과 관련된 L1 로스를 생성자(130)에 부여하여 생성자(130)를 학습시킬 수 있다. 또는 상품 이미지 생성 모델(100)(혹은 상품 이미지 생성 장치(1000))은 제1 피처 정보와 제2 피처 정보 간(또는 제1 엣지 정보와 제2 엣지 정보 간)의 유클리디안 거리와 관련된 L2 로스를 생성자(130)에 부여하여 생성자(130)를 학습시킬 수 있다.In more detail, the product image generation model 100 (or the product image generation apparatus 1000 ) compares the absolute value of the difference between the first feature information and the second feature information (or the difference between the first edge information and the second edge information) and The
이하에서는 도 4를 참고하여 본 출원의 다른 실시예에 따른 상품 이미지 생성 모델(100)의 구조와 상품 이미지 생성 모델(100)의 학습 방법에 대하여 구체적으로 서술한다. 도 4는 본 출원의 다른 실시예에 따른 상품 이미지 생성 모델(100)을 도시한 개략도이다. Hereinafter, the structure of the product
본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)은 적어도 하나의 인코더(111, 113, 115)를 포함하는 인코더부(110), 인코더부(110)로부터 추출된 피처들에 기초하여 생성된 병합 피처를 제1 대상 피처로 변환하는 맵핑 네트워크(120), 제1 대상 피처에 기초하여 페이크 이미지를 생성자(130), 리얼 이미지 및 페이크 이미지 각각에 대하여 엣지 정보와 피처 정보를 추출하는 추출하는 추출자(150), 리얼 이미지 및/또는 페이크 이미지에 기초하여 제1 대상 피처에 대응되는 제2 대상 피처를 생성하는 이미지 임베딩 네트워크(160), 및 페이크 이미지의 노이즈를 제거하거나 퀄리티를 높이기 위한 정제 네트워크(170, Refinement Network)를 포함할 수 있다. 한편 도 4에서는 도시하지 않았지만, 상품 이미지 생성 모델(100)은 페이크 이미지와 리얼 이미지에 기초하여 생성자(130)를 경쟁적으로 학습시키기 위한 판별자(140)를 포함할 수 있다. The product
도 2 및 도 3에서 전술한 인코더부(110), 맵핑 네트워크(120), 생성자(130), 판별자(140), 추출자(150)와 관련된 내용은 도 4에서도 유추적용될 수 있다. 따라서, 인코더부(110), 맵핑 네트워크(120), 생성자(130), 판별자(140), 추출자(150)와 관련된 세부적인 내용들은 생략될 수 있다. 다만 이는 설명의 편의를 위한 것으로 제한적으로 해석되어서는 아니된다.The contents related to the encoder unit 110 , the
상품 이미지 생성 모델(100)의 추출자(150)는 전술한 바와 같이, 엣지 추출기(152), 및 피처 추출기(154)를 포함할 수 있다. 이때, 추출자(150)는, 추출자(150)는 엣지 추출기(152)를 통하여 페이크 이미지로부터 제1 엣지 정보를 추출할 수 있다. 또는 추출자(150)는 엣지 추출기(152)를 통하여 리얼 이미지로부터 제2 엣지 정보를 추출할 수 있다. As described above, the
또한, 추출자(150)는 피처 추출기(154)를 통하여 페이크 이미지로부터 제1 피처 정보를 추출할 수 있다. 또는 추출자(150)는 엣지 추출기(154)를 통하여 리얼 이미지로부터 제2 피처 정보를 추출할 수 있다. Also, the
상품 이미지 생성 모델(100)의 이미지 임베딩 네트워크(160)는 리얼 이미지 및/또는 페이크 이미지를 획득하고, 리얼 이미지 및/또는 페이크 이미지에 기초하여 제1 대상 피처에 대응되는 제2 대상 피처를 생성할 수 있다. 일 예로, 이미지 임베딩 네트워크(160)는 리얼 이미지를 획득하고, 리얼 이미지로부터 제1 대상 피처에 대응되는 제2 대상 피처를 생성할 수 있다. 다른 예로, 이미지 임베딩 네트워크(160)는 페이크 이미지를 획득하고, 페이크 이미지로부터 제1 대상 피처에 대응되는 제2 대상 피처를 생성할 수 있다.The
이때, 상품 이미지 생성 모델(100)(혹은 상품 이미지 생성 장치(1000))은 제1 대상 피처와 제2 대상 피처의 차이에 기초하여 제1 대상 피처와 제2 대상 피처가 서로 근사되도록 생성자(130)(혹은 이미지 임베딩 네트워크(160))를 학습시킬 수 있다. 예컨대, 상품 이미지 생성 모델(100)은 제1 대상 피처와 제2 대상 피처를 비교하고, 비교 결과에 따라 제1 대상 피처와 제2 대상 피처의 차이를 감소시키도록 생성자(130)(혹은 이미지 임베딩 네트워크(160))에 로스를 부여할 수 있다. 예컨대, 생성자(130)는 페이크 이미지로부터 추출된 제2 대상 피처와 제1 대상 피처의 차이에 따른 로스를 생성자(130)에 부여함으로써, 생성자(130)가 학습될 수 있다. 혹은, 생성자(130)는 리얼 이미지로부터 추출된 제2 대상 피처와 제1 대상 피처의 차이에 따른 로스를 생성자(130)에 부여함으로써, 생성자(130)가 학습될 수 있다.In this case, the product image generation model 100 (or the product image generation apparatus 1000 ) generates the first target feature and the second target feature to approximate each other based on the difference between the first target feature and the second target feature. ) (or the image embedding network 160 ) may be trained. For example, the product
또한, 상품 이미지 생성 모델(100)은 제2 대상 피처(또는 제1 대상 피처)에 기초하여 생성된 페이크 이미지와 리얼 이미지의 차이가 감소되도록 생성자(130)를 학습시킬 수 있다. 일 예로, 이미지 임베딩 네트워크(160)를 통하여 '리얼 이미지'로부터 추출된 제2 대상 피처로부터 생성된 페이크 이미지와 리얼 이미지와의 차이에 따른 로스(예컨대, L1, L2 로스)를 생성자(130)에 부여함으로써 생성자(130)가 학습될 수 있다. 다른 예로, 이미지 임베딩 네트워크(160)를 통하여 '페이크 이미지'로부터 추출된 제2 대상 피처로부터 생성된 페이크 이미지와 리얼 이미지와의 차이에 따른 로스(예컨대, L1, L2 로스)를 생성자(130)에 부여함으로써 생성자(130)가 학습될 수 있다.Also, the product
한편 이상에서 설명한, 이미지 임베딩 네트워크(160)를 통하여 추출된 제2 대상 피처에 기초하여 생성자(130)를 학습시키는 각 예시들은 적절하게 조합될 수 있다. 예컨대, 상품 이미지 생성 장치(1000)는 페이크 이미지로부터 추출된 제2 대상 피처 및 리얼 이미지로부터 추출된 제2 대상 피처 간의 차이에 따른 로스 함수를 추가적으로 획득하고, 이에 기초하여 생성자(130)를 학습시키도록 구성될 수 있다. 또한, 상품 이미지 생성 장치(1000)는 페이크 이미지로부터 추출된 제2 대상 피처로부터 생성된 페이크 이미지, 리얼 이미지로부터 추출된 제2 대상 피처로부터 생성된 페이크 이미지, 및/또는 리얼 이미지 간의 차이에 기초하여 생성자(130)를 학습시키도록 구현될 수 있다. Meanwhile, the examples of learning the
상품 이미지 생성 모델(100)의 정제 네트워크(170)는 생성자(130)를 통하여 출력되는 페이크 이미지의 노이즈를 제거하거나 페이크 이미지의 퀄리티를 증대시키는 동작을 수행할 수 있다. 예컨대, 정제 네트워트(170)는 페이크 이미지의 성능을 높이거나 페이크 이미지의 노이즈를 제거한 타겟 이미지와 페이크 이미지에 기초하여, 페이크 이미지가 타겟 이미지에 근사되도록 훈련될 수 있다. 이때, 훈련이 완료된 정제 네트워크(170)는 생성자(130)로부터 획득된 페이크 이미지에 기초하여 페이크 이미지의 성능이 증대된 코디 이미지를 출력할 수 있다.The
한편 도 2 내지 도 4에서는 인코더부(100)가 복수의 인코더들(111, 113, 115)을 포함하며, 각각의 이미지들이 개별적으로 대응되는 인코더에 입력되는 것으로 도시하였다. 다만, 이는 예시에 불과하며, 인코더부(100)는 단일의 인코더를 포함하며, 단일의 인코더를 통하여 제1 이미지 및 제2 이미지를 포함한 복수의 이미지들로부터 각각 피처를 추출하도록 구성될 수도 있다. Meanwhile, in FIGS. 2 to 4 , the
상품 이미지 생성 장치(1000)는 도 2 내지 도 4에서 서술한 바와 같이 학습을 완료한 상품 이미지 생성 모델(100)을 이용하여, 코디 이미지를 획득할 수 있다. 구체적으로 상품 이미지 생성 장치(1000)는 학습이 완료된 상품 이미지 생성 모델(100) 및/또는 상품 이미지 생성 모델(100)을 실행하기 위한 실행 데이터를 획득하고, 제1 상품 카테고리와 관련된 제1 대상 상품에 대한 제1 대상 이미지 및 제2 상품 카테고리와 관련된 제2 대상 상품에 대한 제2 대상 이미지를 포함하는 복수의 대상 이미지들을 획득할 수 있다. 이때, 상품 이미지 생성 장치(1000)는 상품 이미지 생성 모델(100)을 이용하여 제1 대상 상품 및 제2 대상 상품과 코디할 코디 상품과 관련된 코디 이미지를 획득할 수 있다. The product
상품 이미지 생성 모델(100)은 제1 상품 카테고리와 관련된 제1 이미지, 제2 상품 카테고리와 관련된 제2 이미지를 포함한 복수의 이미지에 기초하여 제1, 2 상품 카테고리와는 상이한 제3 상품 카테고리와 관련된 이미지를 출력하도록 학습되었기 때문에, 코디 이미지는 제1 대상 상품 및 제2 대상 상품과는 상이한 상품 카테고리의 상품과 관련된 이미지일 수 있다. The product
구체적으로 상품 이미지 생성 장치(1000)는, 제1 이미지 및 제2 이미지를 포함한 복수의 이미지를 수신하고, 제1 대상 상품 및 제2 대상 상품과 코디할 코디 상품과 관련된 코디 이미지를 출력하도록 학습된 상품 이미지 생성 모델(100)을 통하여, 코디 이미지를 획득할 수 있다. Specifically, the product
이하에서는 도 5를 참고하여 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)의 학습 방법을 설명한다. 도 5는 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)의 학습 방법을 도시한 순서도이다. 상품 이미지 생성 모델(100)의 학습 방법을 설명함에 있어서, 앞서 도 2 내지 도 4에서 서술한 설명과 중복되는 일부 실시예는 생략될 수 있다. 다만, 이는 설명의 편의를 위한 것일 뿐이며, 제한적으로 해석되어서는 아니된다.Hereinafter, a learning method of the product
본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)의 학습 방법은 제1 상품과 관련된 제1 이미지 및 제2 상품과 관련된 제2 이미지를 포함하는 복수의 이미지를 획득하는 단계(S1100), 제1 이미지로부터 제1 피처를 추출하고, 제2 이미지로부터 제2 피처를 추출하는 단계(S1200), 제1 피처와 제2 피처에 기초하여 병합 피처를 생성하는 단계(S1300), 병합 피처를 변환하여 제1 상품 및 제2 상품과 코디할 제3 상품과 관련된 이미지를 생성하기 위한 제1 대상 피처를 획득하는 단계(S1400), 제1 대상 피처로부터 제3 상품 카테고리와 관련된 페이크 이미지를 생성하는 단계(S1500), 및 리얼 이미지를 획득하고, 리얼 이미지와 페이크 이미지에 기초하여 상품 이미지 생성 모델(100)을 학습시키는 단계(S1600)를 포함할 수 있다. The learning method of the product
제1 상품과 관련된 제1 이미지 및 제2 상품과 관련된 제2 이미지를 포함하는 복수의 이미지를 획득하는 단계(S1100)에서는, 상품 이미지 생성 장치(1000)는 제1 상품 카테고리와 관련된 제1 상품에 대한 제1 이미지, 및 제2 상품 카테고리와 관련된 제2 상품에 대한 제2 이미지를 포함하여 복수의 상품 이미지를 획득할 수 있다. 예컨대, 상품 이미지 생성 장치(1000)는 송수신부(1100)를 통하여 제1 상품 카테고리(예컨대, 상의)와 관련된 제1 상품에 대한 제1 이미지를 수신할 수 있다. 또한, 상품 이미지 생성 장치(1000)는 송수신부(1100)를 통하여 제2 상품 카테고리(예컨대, 하의 또는 신발 등)과 관련된 제2 상품에 대한 제2 이미지를 수신할 수 있다. In the step of acquiring a plurality of images including the first image related to the first product and the second image related to the second product ( S1100 ), the product
제1 이미지로부터 제1 피처를 추출하고, 제2 이미지로부터 제2 피처를 추출하는 단계(S1200)에서는, 상품 이미지 생성 장치(1000)는 인코더부(110)에 제1 이미지 및 제2 이미지를 포함하여 복수의 상품 이미지를 입력하고, 인코더부(1100)를 통하여 출력되는 피처를 획득할 수 있다. 인코더부(110)는 전술한 바와 같이, 적어도 하나 이상의 인코더(111, 113, 115)를 포함할 수 있다. 이때, 제1 인코더(111)는 제1 이미지를 수신하고, 제1 이미지에 기초하여 제1 상품의 속성과 관련된 제1 피처를 추출할 수 있다. 또한, 제2 인코더(113)는 제2 이미지를 획득하고, 제2 이미지에 기초하여 제2 상품의 속성과 관련된 제2 피처를 추출할 수 있다. 또한, 제3 인코더(115)는 제N 이미지를 획득하고, 제N 이미지에 기초하여 제N 상품의 속성과 관련된 제N 피처를 추출할 수 있다. 여기서 상품의 속성과 관련된 제1 피처 내지 제N 피처는 각 상품의 재질, 스타일, 크기, 비율, 모양 및/또는 색상과 관련될 수 있다. In the step of extracting the first feature from the first image and the second feature from the second image ( S1200 ), the product
제1 피처와 제2 피처에 기초하여 병합 피처를 생성하는 단계(S1300)에서는, 상품 이미지 생성 장치(1000)는 제1 피처와 제2 피처를 포함하여 인코더부(110)를 통하여 획득된 복수의 피처들을 병합하여 병합 피처를 생성할 수 있다. 예컨대, 상품 이미지 생성 장치(1000)는 제1 피처 및 제2 피처를 포함하는 복수의 피처들 각각에 노멀라이제이션(normalization)을 수행한 후 병합하여 병합 피처를 생성하도록 구성될 수 있다. 다른 예를, 상품 이미지 생성 장치(1000)는 제1 피처 및 제2 피처를 포함하는 복수의 피처들 각각에 노멀라이제이션을 수행한 후 병합하여 중간 피처를 생성하고, 중간 피처에 노멀라이제이션을 수행하여 병합 피처를 생성하도록 구성될 수 있다. In the step of generating the merged feature based on the first feature and the second feature ( S1300 ), the product
병합 피처를 변환하여 제1 상품 및 제2 상품과 코디할 제3 상품과 관련된 이미지를 생성하기 위한 제1 대상 피처를 획득하는 단계(S1400)에서는, 상품 이미지 생성 장치(1000)는 병합 피처를 변환하여, 제1 상품 및 제2 상품과 코디할 제3 상품이 속한 제3 상품 카테고리와 관련된 이미지를 생성하기 위한 제1 대상 피처를 획득할 수 있다. 예컨대, 상품 이미지 생성 장치(1000)는 맵핑 네트워크(120)를 통하여 병합 피처를 변환하여 제3 상품 카테고리와 관련된 페이크 이미지를 생성하기 위한 제1 대상 피처를 획득하도록 구성될 수 있다. In the step S1400 of converting the merged feature to obtain a first target feature for generating an image related to the first product, the second product, and the third product to be coordinated, the product
제1 대상 피처로부터 제3 상품 카테고리와 관련된 페이크 이미지를 생성하는 단계(S1500)에서는, 상품 이미지 생성 장치(1000)는, 제1 대상 피처에 기초하여 제3 상품 카테고리와 관련된 코디 상품과 관련된 페이크 이미지를 생성하는 생성자(130)를 통하여, 페이크 이미지를 생성하거나 획득할 수 있다. In the step of generating a fake image related to the third product category from the first target feature ( S1500 ), the product
리얼 이미지를 획득하고, 리얼 이미지와 페이크 이미지에 기초하여 상품 이미지 생성 모델(100)을 학습시키는 단계(S1600)에서는, 상품 이미지 생성 장치(1000)는 생성자(130)를 통하여 출력되는 페이크 이미지 및 제3 상품 카테고리와 관련된 리얼 이미지 간의 차이에 기초하여 상품 이미지 생성 모델(100)을 학습시킬 있다. 구체적으로, 상품 이미지 생성 장치(1000)는 페이크 이미지 및 리얼 이미지를 비교하고, 비교 결과에 기초하여 상품 이미지 생성 모델(100)(예컨대 생성자(130))를 학습시킬 수 있다. In the step (S1600) of acquiring a real image and learning the product
일 예로, 상품 이미지 생성 장치(1000)는 페이크 이미지와 리얼 이미지 간의 차이에 기초하여 L1 로스 혹은 L2 로스를 생성자(130)에 부여하여, 생성자(130)를 학습시킬 수 있다.As an example, the product
일 예로, 상품 이미지 생성 장치(1000)는 경쟁적 학습 기법을 채택하여 상품 이미지 생성 모델(100)의 생성자(130)를 학습시킬 수 있다. 구체적으로 상품 이미지 생성 모델(100)은 경쟁적 학습을 위하여 판별자(140)를 더 포함할 수 있다. 이때, 판별자(140)는 리얼 이미지와 페이크 이미지를 획득하고, 리얼 이미지와 페이크 이미지를 비교하여 페이크 이미지의 진위를 판별하는 동작을 수행할 수 있다. 이때, 생성자(130)와 판별자(140)는 적대적 생성 신경망(GAN)을 구성하여 경쟁적으로 학습될 수 있다. 구체적으로 판별자(140)는 페이크 이미지를 가짜라고 판단하고 리얼 이미지는 진짜라고 판단하도록 학습될 수 있다. 또한, 생성자(130)는, 판별자(140)의 판단 결과에 기초하여, 판별자(140)가 페이크 이미지를 진짜라고 판단하도록, 페이크 이미지를 리얼 이미지에 근사하여 출력하도록 학습될 수 있다. 예컨대, 판별자(140)는 리얼 이미지 및 페이크 이미지 각각에 대하여 진위와 관련된 지표(예컨대, 진짜일 확률값 혹은 임의의 형태의 점수)를 연산할 수 있으며, 생성자(130)는, 판별자(140)가 페이크 이미지의 진위 지표를 리얼 이미지의 진위 지표(혹은 목표하는 진위 지표)에 근사하여 연산하도록, 페이크 이미지를 출력하도록 훈련될 수 있다. As an example, the product
다른 예로, 상품 이미지 생성 장치(1000)는 페이크 이미지로부터 제1 엣지 정보 및/또는 제1 피처 정보를 추출하고, 리얼 이미지로부터 제2 엣지 정보 및/또는 제2 피처 정보를 추출하고, 제1 엣지 정보 및 제2 엣지 정보 간의 차이 또는 제1 피처 정보 및 제2 피처 정보 간의 차이에 기초하여 상품 이미지 생성 모델(100)을 학습시킬 수 있다. As another example, the product
구체적으로 상품 이미지 생성 모델(100)은, 전술한 바와 같이, 페이크 이미지 및/또는 리얼 이미지로부터 엣지 정보를 추출하는 엣지 추출기(152, Edge extractor) 및 페이크 이미지 및/또는 리얼 이미지로부터 피처 정보를 추출하는 피처 추출기(154, Feature extractor)를 포함하는 추출자(150)를 더 포함할 수 있다. 구체적으로 추출자(150)는 엣지 추출기(152)를 통하여 페이크 이미지로부터 제1 엣지 정보를 추출할 수 있다. 또는 추출자(150)는 엣지 추출기(152)를 통하여 리얼 이미지로부터 제2 엣지 정보를 추출할 수 있다. 또한, 추출자(150)는 피처 추출기(154)를 통하여 페이크 이미지로부터 제1 피처 정보를 추출할 수 있다. 또는 추출자(150)는 피처 추출기(154)를 통하여 리얼 이미지로부터 제2 피처 정보를 추출할 수 있다.Specifically, as described above, the product
이때, 상품 이미지 생성 모델(100)의 생성자(130)는 페이크 이미지와 관련된 제1 엣지 정보와 리얼 이미지와 관련된 제2 엣지 정보에 기초하여 학습될 수 있다. 구체적으로 생성자(130)는, 페이크 이미지와 관련된 제1 엣지 정보와 리얼 이미지와 관련된 제2 엣지 정보의 차이에 기초하여, 제1 엣지 정보와 제2 엣지 정보 간의 차이를 감소시키도록, 페이크 이미지를 출력하도록 학습될 수 있다. In this case, the
다른 예를 들면, 상품 이미지 생성 모델(100)의 생성자(130)는 페이크 이미지와 관련된 제1 피처 정보와 리얼 이미지와 관련된 제2 피처 정보에 기초하여 학습될 수 있다. 구체적으로 생성자(130)는, 페이크 이미지와 관련된 제1 피처 정보와 리얼 이미지와 관련된 제2 피처 정보의 차이에 기초하여, 제1 피처 정보와 제2 피처 정보 간의 차이를 감소시키도록, 페이크 이미지를 출력하도록 학습될 수 있다.As another example, the
한편 이상에서 설명한, 페이크 이미지 및 리얼 이미지에 기초하여 생성자(130)를 학습시키는 각 예시들은 적절하게 조합될 수 있다. 예컨대, 상품 이미지 생성 장치(1000)는 페이크 이미지 및 리얼 이미지의 차이에 기초한 로스, 및 추출자(150)를 통하여 추출된 페이크 이미지에 대한 제1 피처 정보(혹은 제1 엣지 정보)와 리얼 이미지에 대한 제2 피처 정보(혹은 제2 엣지 정보)의 차이에 기초한 로스를 생성자(130)에 부여하여 생성자(130)를 학습시킬 수 있다. Meanwhile, the examples of learning the
한편, 상품 이미지 생성 모델(100)은 전술한 바와 같이 이미지 임베딩 네트워크(160)를 포함할 수 있다. 이미지 임베딩 네트워크(160)는 리얼 이미지를 획득하고, 리얼 이미지로부터 맵핑 네트워크(120)를 통하여 출력되는 제1 대상 피처에 대응되는 제2 대상 피처를 생성할 수 있다. 또는 이미지 임베딩 네트워크(160)는 페이크 이미지를 획득하고, 페이크 이미지부터 맵핑 네트워크(120)를 통하여 출력되는 제1 대상 피처에 대응되는 제2 대상 피처를 생성할 수 있다. 또는 이미지 임베딩 네트워크(160)는 리얼 이미지 및 페이크 이미지를 획득하고, 리얼 이미지 및 페이크 이미지로부터 맵핑 네트워크(120)를 통하여 출력되는 제1 대상 피처에 대응되는 제2 대상 피처를 생성할 수 있다.Meanwhile, the product
이때, 상품 이미지 생성 모델(100)(혹은 상품 이미지 생성 장치(1000))는 제1 대상 피처와 제2 대상 피처의 차이에 기초하여 제1 대상 피처와 제2 대상 피처가 서로 근사되도록 생성자(130)(혹은 이미지 임베딩 네트워크(160))를 학습시킬 수 있다. 예컨대, 상품 이미지 생성 모델(100)은 제1 대상 피처와 제2 대상 피처를 비교하고, 비교 결과에 따라 제1 대상 피처와 제2 대상 피처의 차이를 감소시키도록 생성자(130)(혹은 이미지 임베딩 네트워크(160))에 로스를 부여할 수 있다. 예컨대, 상품 이미지 생성 모델(100)은 페이크 이미지로부터 추출된 제2 대상 피처와 제1 대상 피처의 차이에 따른 로스를 생성자(130)에 부여함으로써, 생성자(130)가 학습될 수 있다. 혹은, 상품 이미지 생성 모델(100)은 리얼 이미지로부터 추출된 제2 대상 피처와 제1 대상 피처의 차이에 따른 로스를 생성자(130)에 부여함으로써, 생성자(130)가 학습될 수 있다.In this case, the product image generating model 100 (or the product image generating apparatus 1000 ) generates the first target feature and the second target feature to approximate each other based on the difference between the first target feature and the second target feature. ) (or the image embedding network 160 ) may be trained. For example, the product
또한, 상품 이미지 생성 모델(100)은 제2 대상 피처(또는 제1 대상 피처)에 기초하여 생성된 페이크 이미지와 리얼 이미지의 차이가 감소되도록 생성자(130)를 학습시킬 수 있다. 일 예로, 이미지 임베딩 네트워크(160)를 통하여 '리얼 이미지'로부터 추출된 제2 대상 피처로부터 생성된 페이크 이미지와 리얼 이미지와의 차이에 따른 로스(예컨대, L1, L2 로스)가 생성자(130)에 부여됨으로써 생성자(130)가 학습될 수 있다. 다른 예로, 이미지 임베딩 네트워크(160)를 통하여 '페이크 이미지'로부터 추출된 제2 대상 피처로부터 생성된 페이크 이미지와 리얼 이미지와의 차이에 따른 로스(예컨대, L1, L2 로스)가 생성자(130)에 부여됨으로써 생성자(130)가 학습될 수 있다.Also, the product
이하에서는 도 6을 참고하여 본 출원의 일 실시예에 따른 학습이 완료된 상품 이미지 생성 모델(100)을 이용하여 코디 이미지를 획득(또는 출력)하는 방법에 대하여 보다 구체적으로 설명하기로 한다. 도 6은 본 출원의 일 실시예에 따른 상품 이미지 생성 모델(100)을 이용하여 코디 이미지를 출력하는 방법을 도시한 순서도이다. Hereinafter, with reference to FIG. 6 , a method of acquiring (or outputting) a coordinating image using the product
본 출원의 일 실시예에 따른 코디 이미지를 출력하는 방법은, 학습이 완료된 상품 이미지 생성 모델(100)을 획득하는 단계(S2100), 제1 상품 카테고리와 관련된 제1 대상 상품에 대한 제1 대상 이미지 및 제2 상품 카테고리와 관련된 제2 대상 상품에 대한 제2 대상 이미지를 포함하는 복수의 이미지들을 획득하는 단계(S2200), 상품 이미지 생성 모델(100)을 이용하여 제1 대상 상품 및 제2 대상 상품과 코디할 코디 상품과 관련된 코디 이미지를 획득하는 단계(S2300), 및 코디 이미지를 출력하는 단계(S2400)를 포함할 수 있다. The method of outputting a coordinating image according to an embodiment of the present application includes: acquiring a product
학습이 완료된 상품 이미지 생성 모델(100)을 획득하는 단계(S2100)에서는, 상품 이미지 생성 장치(1000)는 학습 완료된 상품 이미지 생성 모델(100) 및/또는 상품 이미지 생성 모델(100)을 실행시키기 위한 실행 데이터를 획득할 수 있다. 학습이 완료된 상품 이미지 생성 모델(100)은 도 2 및 도 3에서 설명한 인코더부(100), 맵핑 네트워크(120), 생성자(130), 판별자(140) 및/또는 추출자(150)를 포함할 수 있다. 혹은 학습이 완료된 상품 이미지 생성 모델(100)은 도 4에서 설명한 인코더부(100), 맵핑 네트워크(120), 생성자(130), 판별자(140), 추출자(150), 이미지 임베딩 네트워크(160), 및/또는 정제 네트워크(170)를 포함할 수 있다.In the step (S2100) of acquiring the product
제1 상품 카테고리와 관련된 제1 대상 상품에 대한 제1 대상 이미지 및 제2 상품 카테고리와 관련된 제2 대상 상품에 대한 제2 대상 이미지를 포함하는 복수의 이미지들을 획득하는 단계(S2200)에서는, 상품 이미지 생성 장치(1000)는 제1 상품 카테고리(예컨대, 상의)와 관련된 제1 대상 상품에 대한 제1 대상 이미지 및 제2 상품 카테고리(예컨대, 하의 또는 신발 등)와 관련된 제2 대상 상품에 대한 제2 대상 이미지를 포함하는 복수의 대상 이미지들을 획득할 수 있다.In the step of acquiring a plurality of images including a first target image for a first target product related to a first product category and a second target image for a second target product related to a second product category ( S2200 ), the product image The
상품 이미지 생성 모델을 이용하여 제1 대상 상품 및 제2 대상 상품과 코디할 코디 상품과 관련된 코디 이미지를 획득하는 단계(S2300)에서는, 상품 이미지 생성 장치(1000)는 상품 이미지 생성 모델(100)을 이용하여 제1 대상 상품 및 제2 대상 상품과 코디할 코디 상품과 관련된 코디 이미지를 획득할 수 있다. 이때, 코디 상품은 제1 상품 카테고리(예컨대, 상의) 및 제2 상품 카테고리(예컨대, 하의 또는 신발 등)과는 상이한 제3 상품 카테고리(예컨대, 외투)와 관련된 상품일 수 있다. 구체적으로 상품 이미지 생성 장치(1000)는 제1 대상 이미지 및 제2 대상 이미지를 포함하는 복수의 대상 이미지들을 상품 이미지 생성 모델(100)에 입력하고, 상품 이미지 생성 모델(100)을 통하여 출력되는 코디 이미지를 획득할 수 있다. In the step (S2300) of obtaining a coordinated image related to the first target product, the second target product, and the coordinated product to be coordinated using the product image generation model, the product
코디 이미지를 출력하는 단계(S2400)에서는, 상품 이미지 생성 장치(1000)는 임의의 출력부(예컨대, 디스플레이 등)를 통하여 코디 이미지를 출력하거나, 임의의 외부 장치(예컨대, 사용자 단말)에 코디 이미지를 송신할 수 있다. In the step of outputting the coordinating image ( S2400 ), the product
한편, 전술한 바와 같이, 상품 이미지 생성 모델(100)은 정제 네트워크(170)를 더 포함할 수 있다. 이때, 코디 이미지를 출력하는 단계(S2400)에서의 코디 이미지는 정제 네트워크(170)를 통하여 노이즈가 제거되거나 퀄리티가 증대된 코디 이미지를 포괄하는 의미일 수 있다. Meanwhile, as described above, the product
본 출원의 실시예에 따른 상품 이미지 생성 모델, 이를 이용한 상품 이미지 생성 방법, 및 상품 이미지 생성 장치에 의하면, 복수의 상품들과 관련된 복수의 이미지로부터 복수의 상품들과 어울리는 코디 상품과 관련된 이미지를 자동적으로 생성할 수 있다. According to the product image generation model, the product image generation method using the same, and the product image generation apparatus according to an embodiment of the present application, an image related to a coordinating product matching a plurality of products is automatically generated from a plurality of images related to a plurality of products can be created with
또한, 본 출원의 실시예에 따른 상품 이미지 생성 모델, 이를 이용한 상품 이미지 생성 방법, 및 상품 이미지 생성 장치에 의하면, 적대적 생성 신경망을 이용한 경쟁자 학습, 추출자를 통하여 추출한 추출 정보들 간의 비교 결과에 따른 로스 부여, 및/또는 이미지 임베딩 네트워크를 통하여 생성된 피처에 기초한 로스 부여 등을 포함하여 다양한 방식으로 상품 이미지 생성 모델을 학습시킬 수 있기 때문에, 상품 이미지 생성 모델의 정확도를 높일 수 있다.In addition, according to the product image generation model, the product image generation method using the product image generation model, and the product image generation apparatus according to the embodiment of the present application, the loss according to the comparison result between the extraction information extracted through the competitor learning using the adversarial generation neural network and the extractor Since the product image generation model can be trained in various ways, including granting and/or loss based on features generated through the image embedding network, the accuracy of the product image generating model can be increased.
본 출원의 실시예에 따른 상품 이미지 생성 모델, 이를 이용한 상품 이미지 생성 방법, 및 상품 이미지 생성 장치에 의하면, 정제 네트워크를 통하여 코디 이미지의 노이즈를 제거하거나 퀄리티를 높임으로써, 사용자에게 고품질의 코디 이미지를 제공할 수 있다.According to the product image generation model, the product image generation method using the same, and the product image generation apparatus according to the embodiment of the present application, a high-quality coordination image is provided to the user by removing noise or increasing the quality of the coordination image through a refinement network. can provide
상술한 상품 이미지 생성 장치(1000)의 다양한 동작들은 상품 이미지 생성 장치(1000)의 메모리(1200)에 저장될 수 있으며, 상품 이미지 생성 장치 (1000)의 프로세서(1300)는 메모리(1200)에 저장된 동작들을 수행하도록 제공될 수 있다. The various operations of the product
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above embodiments are included in at least one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, the features, structures, effects, etc. illustrated in each embodiment can be combined or modified for other embodiments by those of ordinary skill in the art to which the embodiments belong. Accordingly, the contents related to such combinations and modifications should be interpreted as being included in the scope of the present invention.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the embodiment has been mainly described in the above, this is only an example and does not limit the present invention, and those of ordinary skill in the art to which the present invention pertains in the range that does not deviate from the essential characteristics of the present embodiment. It will be appreciated that various modifications and applications not illustrated are possible. That is, each component specifically shown in the embodiment can be implemented by modification. And the differences related to these modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.
Claims (11)
상기 상품 이미지 생성 모델은, 상기 제1 이미지로부터 제1 피처를 추출하는 제1 인코더 및 상기 제2 이미지로부터 제2 피처를 추출하는 제2 인코더를 포함하는 인코더부; 상기 제1 피처와 상기 제2 피처에 기초하여 생성된 병합 피처(Concatenate feature)를 변환하여 상기 코디 이미지를 생성하기 위한 제1 대상 피처를 생성하는 맵핑 네트워크(Mapping network); 및 제3 상품 카테고리에 속하는 상기 코디 상품과 관련된 페이크 이미지를 생성하는 생성자(Generator);를 포함하되,
상기 제1 상품과 관련된 제1 이미지 및 상기 제2 상품과 관련된 제2 이미지를 포함하는 복수의 이미지를 획득하는 단계;
상기 제1 인코더를 통하여 상기 제1 이미지로부터 제1 피처를 추출하고, 상기 제2 인코더를 통하여 상기 제2 이미지로부터 제2 피처를 추출하는 단계;
상기 제1 피처와 상기 제2 피처에 기초하여 병합 피처를 생성하는 단계;
상기 맵핑 네트워크를 통하여 상기 병합 피처를 변환하여 상기 제1 대상 피처를 획득하는 단계;
상기 생성자를 통하여 상기 제1 대상 피처로부터 상기 코디 상품과 관련된 페이크 이미지를 생성하는 단계; 및
상기 생성된 페이크 이미지 및 상기 코디 상품과 관련된 리얼 이미지 간의 차이에 기초하여 상기 상품 이미지 생성 모델을 학습시키는 단계;를 포함하는,
상품 이미지 생성 모델의 학습 방법.
The product image generating device may coordinate with the first product and the second product based on a first image for a first product related to a first product category and a second image for a second product related to a second product category A method for training a product image generation model for generating a coordination image related to a coordination product, the method comprising:
The product image generation model may include: an encoder unit including a first encoder for extracting a first feature from the first image and a second encoder for extracting a second feature from the second image; a mapping network for generating a first target feature for generating the coordinating image by transforming a concatenate feature generated based on the first feature and the second feature; and a generator that generates a fake image related to the coordinated product belonging to the third product category;
obtaining a plurality of images including a first image related to the first product and a second image related to the second product;
extracting a first feature from the first image via the first encoder and extracting a second feature from the second image via the second encoder;
generating a merge feature based on the first feature and the second feature;
transforming the merged feature through the mapping network to obtain the first target feature;
generating a fake image related to the coordinated product from the first target feature through the generator; and
Learning the product image generation model based on the difference between the generated fake image and the real image related to the coordinated product;
A training method for a product image generation model.
상기 상품 이미지 생성 모델은, 상기 페이크 이미지 및 리얼 이미지를 획득하고, 상기 리얼 이미지와 상기 페이크 이미지를 비교하여 상기 페이크 이미지의 진위를 판별하는 판별자(Discriminator);를 더 포함하되,
상기 상품 이미지 생성 모델을 학습시키는 단계는,
상기 페이크 이미지를 상기 리얼 이미지에 근사하여 생성하도록, 상기 생성자를 학습시키는 단계; 및
상기 페이크 이미지를 가짜라고 판단하고 상기 리얼 이미지는 진짜라고 판단하도록, 상기 판별자를 학습시키는 단계;를 더 포함하는,
상품 이미지 생성 모델의 학습 방법.
The method of claim 1,
The product image generation model further comprises a;
The step of learning the product image generation model includes:
training the generator to generate the fake image by approximating the real image; and
Learning the discriminator to determine that the fake image is fake and that the real image is real; further comprising:
A training method for a product image generation model.
상기 상품 이미지 생성 모델은,
상기 페이크 이미지 및 상기 리얼 이미지 중 적어도 하나의 이미지로부터 엣지 정보를 추출하는 엣지 추출기(Edge extractor), 및 상기 페이크 이미지 및 상기 리얼 이미지 중 적어도 하나의 이미지로부터 피처 정보를 추출하는 피처 추출기(Feature Extractor)를 포함하는 추출자(Extractor)를 더 포함하는,
상품 이미지 생성 모델의 학습 방법.
The method of claim 1,
The product image generation model is
An edge extractor for extracting edge information from at least one of the fake image and the real image, and a feature extractor for extracting feature information from at least one of the fake image and the real image Further comprising an extractor (Extractor) comprising a,
A training method for a product image generation model.
상기 상품 이미지 생성 모델을 학습시키는 단계는,
상기 엣지 추출기를 통하여, 상기 페이크 이미지로부터 제1 엣지 정보를 추출하고 상기 리얼 이미지로부터 제2 엣지 정보를 획득하는 단계; 및
상기 제1 엣지 정보와 상기 제2 엣지 정보의 차이에 기초하여 상기 생성자를 학습시키는 단계;를 더 포함하는,
상품 이미지 생성 모델의 학습 방법.
4. The method of claim 3,
The step of learning the product image generation model includes:
extracting first edge information from the fake image and acquiring second edge information from the real image through the edge extractor; and
Learning the generator based on a difference between the first edge information and the second edge information; further comprising
A training method for a product image generation model.
상기 상품 이미지 생성 모델을 학습시키는 단계는,
상기 피처 추출기를 통하여, 상기 페이크 이미지로부터 제1 피처 정보를 획득하고 상기 리얼 이미지로부터 제2 피처 정보를 획득하는 단계; 및
상기 제1 피처 정보와 상기 제2 피처 정보의 차이에 기초하여 상기 생성자를 학습시키는 단계;를 더 포함하는,
상품 이미지 생성 모델의 학습 방법.
4. The method of claim 3,
The step of learning the product image generation model includes:
obtaining first feature information from the fake image and second feature information from the real image through the feature extractor; and
Learning the generator based on a difference between the first feature information and the second feature information; further comprising
A training method for a product image generation model.
상기 상품 이미지 생성 모델은,
상기 페이크 이미지 및 상기 리얼 이미지 중 적어도 하나에 기초하여 제2 대상 피처를 추출하는 이미지 임베딩 네트워크를 포함하되,
상기 상품 이미지 생성 모델을 학습시키는 단계는,
상기 제1 대상 피처와 상기 제2 대상 피처에 기초하여 제1 로스 값을 연산하는 단계;
상기 제1 로스 값에 기초하여 상기 페이크 이미지가 상기 리얼 이미지에 근사되어 생성하도록 상기 생성자를 학습시키는 단계;를 더 포함하는,
상품 이미지 생성 모델의 학습 방법.
The method of claim 1,
The product image generation model is
An image embedding network for extracting a second target feature based on at least one of the fake image and the real image,
The step of learning the product image generation model includes:
calculating a first loss value based on the first target feature and the second target feature;
Learning the generator to generate the fake image approximate to the real image based on the first loss value; further comprising
A training method for a product image generation model.
상기 상품 이미지 생성 모델을 학습시키는 단계는,
상기 제2 대상 피처에 기초하여 생성된 페이크 이미지와 상기 리얼 이미지의 차이에 기초하여 제2 로스 값을 연산하는 단계;
상기 제2 로스 값에 기초하여 상기 페이크 이미지가 상기 리얼 이미지에 근사되어 생성하도록 상기 생성자를 학습시키는 단계;를 더 포함하는,
상품 이미지 생성 모델의 학습 방법.
7. The method of claim 6,
The step of learning the product image generation model includes:
calculating a second loss value based on a difference between a fake image generated based on the second target feature and the real image;
Learning the generator to generate the fake image approximate to the real image based on the second loss value; further comprising
A training method for a product image generation model.
상기 상품 이미지 생성 모델은,
상기 페이크 이미지에 기초하여 제3 대상 피처를 추출하고, 상기 리얼 이미지에 기초하여 제4 대상 피처를 추출하는 이미지 임베딩 네트워크를 포함하되,
상기 상품 이미지 생성 모델을 학습시키는 단계는,
상기 제3 대상 피처와 상기 제4 대상 피처에 기초하여 제3 로스 값을 연산하는 단계;
상기 제3 로스 값에 기초하여 상기 생성자를 학습시키는 단계;를 더 포함하는,
상품 이미지 생성 모델의 학습 방법.
The method of claim 1,
The product image generation model is
An image embedding network for extracting a third target feature based on the fake image and extracting a fourth target feature based on the real image,
The step of learning the product image generation model includes:
calculating a third loss value based on the third target feature and the fourth target feature;
Learning the generator based on the third loss value; further comprising
A training method for a product image generation model.
상기 상품 이미지 생성 모델은,
상기 생성자를 통하여 획득된 상기 페이크 이미지의 노이즈를 제거하거나 상기 페이크 이미지의 퀄리티를 증대시키는 정제 네트워크(Refinement network)를 더 포함하는,
상품 이미지 생성 모델의 학습 방법.
The method of claim 1,
The product image generation model is
Further comprising a refinement network that removes noise of the fake image obtained through the generator or increases the quality of the fake image,
A training method for a product image generation model.
상기 병합 피처는,
상기 제1 피처와 상기 제2 피처 각각에 노멀라이제이션을 수행한 후 병합하여 생성되는,
상품 이미지 생성 모델의 학습 방법.
The method of claim 1,
The merge feature is
generated by merging after performing normalization on each of the first and second features,
A training method for a product image generation model.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220007294A KR102446711B1 (en) | 2022-01-18 | 2022-01-18 | An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image |
KR1020220118431A KR20230111571A (en) | 2022-01-18 | 2022-09-20 | An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220007294A KR102446711B1 (en) | 2022-01-18 | 2022-01-18 | An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220118431A Division KR20230111571A (en) | 2022-01-18 | 2022-09-20 | An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102446711B1 true KR102446711B1 (en) | 2022-09-26 |
Family
ID=83452491
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220007294A KR102446711B1 (en) | 2022-01-18 | 2022-01-18 | An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image |
KR1020220118431A KR20230111571A (en) | 2022-01-18 | 2022-09-20 | An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220118431A KR20230111571A (en) | 2022-01-18 | 2022-09-20 | An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR102446711B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180218433A1 (en) * | 2017-01-27 | 2018-08-02 | Robert Penner | System and Method for Fashion Recommendations |
KR20210003706A (en) * | 2018-10-23 | 2021-01-12 | 오드컨셉 주식회사 | Method, apparatus and computer program for style recommendation |
KR20210016593A (en) * | 2018-01-19 | 2021-02-16 | 네이버 주식회사 | Method and system for recommending product based on artificial intelligence |
-
2022
- 2022-01-18 KR KR1020220007294A patent/KR102446711B1/en active IP Right Grant
- 2022-09-20 KR KR1020220118431A patent/KR20230111571A/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180218433A1 (en) * | 2017-01-27 | 2018-08-02 | Robert Penner | System and Method for Fashion Recommendations |
KR20210016593A (en) * | 2018-01-19 | 2021-02-16 | 네이버 주식회사 | Method and system for recommending product based on artificial intelligence |
KR20210003706A (en) * | 2018-10-23 | 2021-01-12 | 오드컨셉 주식회사 | Method, apparatus and computer program for style recommendation |
Non-Patent Citations (1)
Title |
---|
Chull Hwan Song et al. All the attention you need: Global-local, spatial-channel attention for image retrieval. IEEE/Computer Vision and Pattern Recognition. 16 Jul 2021. * |
Also Published As
Publication number | Publication date |
---|---|
KR20230111571A (en) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10607065B2 (en) | Generation of parameterized avatars | |
JP7014100B2 (en) | Expansion equipment, expansion method and expansion program | |
EP3961441B1 (en) | Identity verification method and apparatus, computer device and storage medium | |
US20220248091A1 (en) | Sensitivity assessment for media production using artificial intelligence | |
CN108958610A (en) | Special efficacy generation method, device and electronic equipment based on face | |
US20210312523A1 (en) | Analyzing facial features for augmented reality experiences of physical products in a messaging system | |
US11922661B2 (en) | Augmented reality experiences of color palettes in a messaging system | |
CN108765268A (en) | A kind of auxiliary cosmetic method, device and smart mirror | |
KR102045575B1 (en) | Smart mirror display device | |
CN109145766A (en) | Model training method, device, recognition methods, electronic equipment and storage medium | |
US11915305B2 (en) | Identification of physical products for augmented reality experiences in a messaging system | |
US10445564B2 (en) | Method and device for recognizing facial expressions | |
CN107341762A (en) | Take pictures processing method, device and terminal device | |
US20210312678A1 (en) | Generating augmented reality experiences with physical products using profile information | |
WO2021247371A1 (en) | System and method for predicting formation in sports | |
WO2021203118A1 (en) | Identification of physical products for augmented reality experiences in a messaging system | |
US20210407153A1 (en) | High-resolution controllable face aging with spatially-aware conditional gans | |
KR102446711B1 (en) | An item image generation model, a method for generating an item image using the item image generation model, and an apparatus for generating an item image | |
US11455827B2 (en) | High confidence predicted profiles for online dating matching using continuously learning machine learning models trained for each user with physical and facial attributes | |
KR20210062274A (en) | Device and method for image automatic generation | |
KR102446697B1 (en) | A discriminator for simultaneously evaluating the generated image and real image | |
KR102423552B1 (en) | An item image reconstruction and synthesis model configured to a generative adversarial network and a training method of the item image reconstruction and synthesis model | |
JP2022036131A (en) | Learning device, inferring device, learning method, inferring method, computer system, and program | |
KR20220067476A (en) | Method and device for automatically creating advertisement banner using advertisement theme color extracted from image | |
KR102574724B1 (en) | A method of judging status and recommend products through video analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |