KR102156899B1 - Apparatus and Method for Creating Design - Google Patents

Apparatus and Method for Creating Design Download PDF

Info

Publication number
KR102156899B1
KR102156899B1 KR1020190145492A KR20190145492A KR102156899B1 KR 102156899 B1 KR102156899 B1 KR 102156899B1 KR 1020190145492 A KR1020190145492 A KR 1020190145492A KR 20190145492 A KR20190145492 A KR 20190145492A KR 102156899 B1 KR102156899 B1 KR 102156899B1
Authority
KR
South Korea
Prior art keywords
image
reference image
feature
unit
value
Prior art date
Application number
KR1020190145492A
Other languages
Korean (ko)
Inventor
전성국
김회민
이광훈
Original Assignee
한국광기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국광기술원 filed Critical 한국광기술원
Priority to KR1020190145492A priority Critical patent/KR102156899B1/en
Application granted granted Critical
Publication of KR102156899B1 publication Critical patent/KR102156899B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are an apparatus and a method for generating a design. According to one aspect of the present invention, the apparatus for generating the image comprises: an input unit for receiving a standard image and a reference image; an image generating unit for generating an arbitrary image; a feature extraction unit for extracting feature values in the standard image and the reference image received by the input unit and the arbitrary image generated by the image generating unit; a comparison unit for comparing the feature values of the standard image and the reference image extracted by the feature extraction unit with the feature values of the arbitrary image to select an arbitrary image in which the difference between the feature values of the standard image and the reference image is a preset standard value or less; and a control unit for controlling operations of the input unit, the image generating unit, the feature extraction unit, and the comparison unit. Accordingly, an image having a feature closest to each extracted feature is generated.

Description

디자인 생성장치 및 방법{Apparatus and Method for Creating Design}Apparatus and Method for Creating Design}

본 발명은 기준 이미지와 참조 이미지로부터 특징을 추출하여 양 특징을 모두 구비한 디자인을 생성하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a design having both features by extracting features from a reference image and a reference image.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the present embodiment and does not constitute the prior art.

다양한 제품들을 수요자가 선택하는 중요 요인으로는 가격, 성능 및 디자인이 있다. 제품군의 종류에 따라 이러한 요소들 각각의 중요도는 상이해지는데, 특히, 의류, 신발 등 패션제품에 있어는 수요자의 선택을 결정하는 요인이 디자인에 있다.Price, performance and design are important factors that consumers choose for a variety of products. The importance of each of these factors differs depending on the type of product line. In particular, design is the factor that determines the consumer's choice in fashion products such as clothing and shoes.

종래에는 이와 같은 패션제품의 디자인은 전적으로 디자이너와 같은 인간들의 사고로부터 창조되었다. 제품에 적용할 디자인을 도출하고, 그것을 구체화하고, 제품에 적용하기 위해 디자인을 최적화하기까지 모든 과정이 인간들의 작업(수작업, 기계작업 모두 포함)으로 진행되었다. Conventionally, the design of such fashion products was created entirely from the thinking of human beings such as designers. The whole process of deriving a design to be applied to a product, specifying it, and optimizing the design for application to the product was carried out by human work (including both manual and mechanical work).

그러나 이와 같은 작업은 상당히 오랜 시간이 소모된다는 문제가 있었다. 특히, 디자인 도출과정에서는 제품에 적용할 디자인의 구조나 패턴이 생성되어야 하는데, 디자인의 구조나 패턴은 무수히 많기 때문에 디자이너들이 이러한 구조나 패턴 내에서 적용할 제품에 적합한 구조나 패턴을 창조하는 것이 쉽지가 않았다. 또한, 창조한 디자인의 구조나 패턴을 제품에 적용하기 위해 최적화를 하여야 하는데, 이 역시 모두 수작업으로 수행되었기 때문에 패션제품에 적용될 디자인 하나가 나오기까지 오랜 시간과 무수한 인간들의 작업이 요구되는 불편이 존재하였다.However, there is a problem that such a work takes a very long time. In particular, in the design derivation process, a structure or pattern of a design to be applied to a product must be created.Since there are numerous structures or patterns of a design, it is easy for designers to create a structure or pattern suitable for the product to be applied within such a structure or pattern. Did not go. In addition, in order to apply the structure or pattern of the created design to the product, it is necessary to optimize it.Since all of these were also performed by hand, there is an inconvenience that requires a long time and countless human work until a design to be applied to a fashion product comes out. I did.

본 발명의 일 실시예는, 신경망을 이용하여 입력한 이미지들의 특징을 추출하고, 추출된 각 특징에 가장 가까운 특징을 갖는 이미지를 생성하는 디자인 생성장치 및 방법을 제공하는 데 일 목적이 있다.An object of the present invention is to provide a design generation apparatus and method for extracting features of input images using a neural network and generating an image having features closest to each of the extracted features.

또한, 본 발명의 일 실시예는, 생성한 이미지를 패션제품에 적용할 디자인으로 생성하는 디자인 생성장치 및 방법을 제공하는 데 일 목적이 있다.Another object of the present invention is to provide a design generating apparatus and method for generating a generated image as a design to be applied to a fashion product.

본 발명의 일 측면에 의하면, 기준 이미지 및 참조 이미지를 입력받는 입력부와 임의의 이미지를 생성하는 이미지 생성부와 상기 입력부가 입력받은 기준 이미지와 참조 이미지 및 상기 이미지 생성부가 생성한 임의의 이미지 내에서의 특징값을 추출하는 특징 추출부와 상기 특징 추출부가 추출한 기준 이미지 및 참조 이미지의 특징값과 상기 임의의 이미지에서의 특징값을 비교하여 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이하인 임의의 이미지를 선택하는 비교부 및 상기 입력부, 상기 이미지 생성부, 상기 특징 추출부 및 상기 비교부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 하는 이미지 생성장치를 제공한다.According to an aspect of the present invention, an input unit receiving a reference image and a reference image, an image generating unit generating a random image, a reference image and a reference image received by the input unit, and a random image generated by the image generating unit A feature extraction unit that extracts a feature value of and the feature value of the reference image and reference image extracted by the feature extraction unit is compared with the feature value in the arbitrary image, and a difference between the feature value of the reference image and the reference image is preset It provides an image generating apparatus comprising a comparison unit for selecting an image below a reference value, and a control unit for controlling operations of the input unit, the image generation unit, the feature extraction unit, and the comparison unit.

본 발명의 일 측면에 의하면, 상기 특징 추출부는 상기 기준 이미지로부터 이미지 내 모든 물체의 외관 또는 골격에 관한 특징값을 추출하는 것을 특징으로 한다.According to an aspect of the present invention, the feature extraction unit is characterized in that it extracts feature values related to the appearance or skeleton of all objects in the image from the reference image.

본 발명의 일 측면에 의하면, 상기 특징 추출부는 상기 참조 이미지로부터 이미지 내 질감(Texture) 또는 화법(畵法)에 관한 특징값을 추출하는 것을 특징으로 한다.According to an aspect of the present invention, the feature extracting unit is characterized in that it extracts a feature value related to a texture or a speech method in the image from the reference image.

본 발명의 일 측면에 의하면, 상기 특징 추출부는 상기 임의의 이미지로부터 이미지 내 모든 물체의 외관 또는 골격에 관한 특징값과 이미지 내 질감 또는 화법에 관한 특징값 모두를 추출하는 것을 특징으로 한다.According to an aspect of the present invention, the feature extracting unit is characterized in that it extracts both feature values relating to appearances or skeletons of all objects in the image and feature values relating to textures or speech methods in the image from the arbitrary image.

본 발명의 일 측면에 의하면, 상기 제어부는 상기 임의의 이미지의 특징값과 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이상인 경우, 상기 이미지 생성부가 새로운 이미지를 생성하도록 제어하는 것을 특징으로 한다.According to an aspect of the present invention, when the difference between the feature value of the arbitrary image and the feature value of the reference image and the reference image is greater than or equal to a preset reference value, the control unit controls to generate a new image. It is characterized.

본 발명의 일 측면에 의하면, 기준 이미지 및 참조 이미지를 입력받는 입력과정과 임의의 이미지를 생성하는 이미지 생성과정과 상기 입력과정에서 입력받은 기준 이미지와 참조 이미지 및 상기 이미지 생성에서 생성된 임의의 이미지 내에서의 특징값을 추출하는 추출과정 및 상기 특징 추출부가 추출한 기준 이미지 및 참조 이미지의 특징값과 상기 임의의 이미지에서의 특징값을 비교하여 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이하인 임의의 이미지를 선택하는 선택과정을 포함하는 것을 특징으로 하는 이미지 생성방법을 제공한다.According to an aspect of the present invention, an input process of receiving a reference image and a reference image, an image generation process of generating an arbitrary image, a reference image and a reference image input in the input process, and an arbitrary image generated in the image generation The difference between the feature values of the reference image and the reference image is determined by comparing the feature value of the reference image and the reference image extracted by the feature extraction unit with the feature value of the reference image and It provides an image generation method comprising a selection process of selecting an arbitrary image below a set reference value.

본 발명의 일 측면에 의하면, 상기 이미지 생성과정은 상기 임의의 이미지의 특징값과 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이상인 경우, 새로운 이미지를 생성하는 것을 특징으로 한다.According to an aspect of the present invention, in the image generation process, when a difference between a feature value of the arbitrary image and a feature value of the reference image and the reference image is greater than or equal to a preset reference value, a new image is generated.

본 발명의 일 측면에 의하면, 기준 이미지 및 참조 이미지를 입력받는 입력부와 임의의 이미지를 생성하는 이미지 생성부와 상기 입력부가 입력받은 기준 이미지와 참조 이미지 및 상기 이미지 생성부가 생성한 임의의 이미지 내에서의 특징값을 추출하는 특징 추출부와 상기 특징 추출부가 추출한 기준 이미지 및 참조 이미지의 특징값과 상기 임의의 이미지에서의 특징값을 비교하여 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이하인 임의의 이미지를 선택하는 비교부와 상기 비교부로부터 선택된 임의의 이미지를 적용하고자 하는 대상의 디자인 포맷으로 변경하는 디자인 생성부 및 상기 입력부, 상기 이미지 생성부, 상기 특징 추출부, 상기 비교부 및 상기 디자인 생성부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 하는 디자인 생성장치를 제공한다.According to an aspect of the present invention, an input unit receiving a reference image and a reference image, an image generating unit generating a random image, a reference image and a reference image received by the input unit, and a random image generated by the image generating unit A feature extraction unit that extracts a feature value of and the feature value of the reference image and reference image extracted by the feature extraction unit is compared with the feature value in the arbitrary image, and a difference between the feature value of the reference image and the reference image is preset A comparison unit that selects an image below a reference value, a design generation unit that changes an arbitrary image selected from the comparison unit into a design format of the target to be applied, and the input unit, the image generation unit, the feature extraction unit, and the comparison unit And a control unit that controls the operation of the design generation unit.

본 발명의 일 측면에 의하면, 상기 특징 추출부는 상기 기준 이미지로부터 이미지 내 모든 물체의 외관 또는 골격에 관한 특징값을 추출하는 것을 특징으로 한다.According to an aspect of the present invention, the feature extraction unit is characterized in that it extracts feature values related to the appearance or skeleton of all objects in the image from the reference image.

본 발명의 일 측면에 의하면, 상기 특징 추출부는 상기 참조 이미지로부터 이미지 내 질감(Texture) 또는 화법(畵法)에 관한 특징값을 추출하는 것을 특징으로 한다.According to an aspect of the present invention, the feature extracting unit is characterized in that it extracts a feature value related to a texture or a speech method in the image from the reference image.

본 발명의 일 측면에 의하면, 상기 특징 추출부는 상기 임의의 이미지로부터 이미지 내 모든 물체의 외관 또는 골격에 관한 특징값과 이미지 내 질감 또는 화법에 관한 특징값 모두를 추출하는 것을 특징으로 한다.According to an aspect of the present invention, the feature extracting unit is characterized in that it extracts both feature values relating to appearances or skeletons of all objects in the image and feature values relating to textures or speech methods in the image from the arbitrary image.

본 발명의 일 측면에 의하면, 상기 제어부는 상기 임의의 이미지의 특징값과 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이상인 경우, 상기 이미지 생성부가 새로운 이미지를 생성하도록 제어하는 것을 특징으로 한다.According to an aspect of the present invention, when the difference between the feature value of the arbitrary image and the feature value of the reference image and the reference image is greater than or equal to a preset reference value, the control unit controls to generate a new image. It is characterized.

본 발명의 일 측면에 의하면, 기준 이미지 및 참조 이미지를 입력받는 입력과정과 임의의 이미지를 생성하는 이미지 생성과정과 상기 입력과정에서 입력받은 기준 이미지와 참조 이미지 및 상기 이미지 생성에서 생성된 임의의 이미지 내에서의 특징값을 추출하는 추출과정과 상기 특징 추출부가 추출한 기준 이미지 및 참조 이미지의 특징값과 상기 임의의 이미지에서의 특징값을 비교하여 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이하인 임의의 이미지를 선택하는 선택과정 및 상기 선택과정에서 선택된 이미지를 적용하고자 하는 대상의 디자인 포맷으로 변경하는 디자인 생성과정을 포함하는 것을 특징으로 하는 디자인 생성방법을 제공한다.According to an aspect of the present invention, an input process of receiving a reference image and a reference image, an image generation process of generating an arbitrary image, a reference image and a reference image input in the input process, and an arbitrary image generated in the image generation The difference between the feature values of the reference image and the reference image is determined by comparing the feature value of the reference image and the reference image extracted by the feature extraction unit with the feature value of the reference image and It provides a design generation method comprising a selection process of selecting an arbitrary image less than a set reference value and a design generation process of changing the image selected in the selection process into a design format of an object to be applied.

본 발명의 일 측면에 의하면, 상기 이미지 생성과정은 상기 임의의 이미지의 특징값과 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이상인 경우, 새로운 이미지를 생성하는 것을 특징으로 한다.According to an aspect of the present invention, in the image generation process, when a difference between a feature value of the arbitrary image and a feature value of the reference image and the reference image is greater than or equal to a preset reference value, a new image is generated.

이상에서 설명한 바와 같이, 본 발명의 일 측면에 따르면, 신경망에 의해 입력된 이미지의 특징들을 모두 갖는 이미지가 생성됨에 따라, 이미지를 생성하기 위해 소모되는 시간과 노력을 비약적으로 단축할 수 있는 장점이 있다.As described above, according to an aspect of the present invention, as an image having all of the characteristics of an image inputted by a neural network is generated, the time and effort consumed to generate the image can be drastically reduced. have.

또한, 본 발명의 일 측면에 따르면, 생성한 이미지를 패션 제품들의 디자인으로 적용함에 있어서도, 소모되는 시간과 노력을 단축할 수 있는 장점이 있다.In addition, according to an aspect of the present invention, there is an advantage of reducing time and effort consumed even in applying the generated image as a design of fashion products.

도 1은 본 발명의 일 실시예에 따른 디자인 생성장치의 구성을 도시한 도면이다.
도 2 및 3은 본 발명의 일 실시예에 따른 이미지 내 색상을 군집화하는 것을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 특징 추출부를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 특징 추출부가 기준 이미지로부터 구조에 관한 특징값을 추출하는 것을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 특징 추출부가 참조 이미지로부터 패턴에 관한 특징값을 추출하는 것을 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 특징 추출부가 이미지 생성부에 의해 생성된 임의의 이미지로부터 구조·패턴에 관한 특징값을 추출하는 것을 도시한 도면이다.
도 8 및 9는 본 발명의 일 실시예에 따른 비교부가 임의의 이미지의 구조·패턴에 관한 특징값을 기준이미지와 참조이미지의 그것과 비교하는 것을 도시한 도면이다.
도 10 내지 13은 본 발명의 일 실시예에 따른 디자인 생성장치가 생성한 디자인의 일 예를 도시한 도면이다.
도 14는 본 발명의 일 실시예에 따른 디자인 생성장치가 디자인을 생성하는 방법을 도시한 순서도이다.
1 is a diagram showing the configuration of a design generating apparatus according to an embodiment of the present invention.
2 and 3 are diagrams illustrating clustering of colors in an image according to an embodiment of the present invention.
4 is a diagram illustrating a feature extraction unit according to an embodiment of the present invention.
5 is a diagram illustrating a feature extraction unit extracting a feature value for a structure from a reference image according to an embodiment of the present invention.
6 is a diagram illustrating a feature extraction unit extracting a feature value for a pattern from a reference image according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating that a feature extracting unit extracts feature values for a structure/pattern from an image generated by an image generating unit according to an embodiment of the present invention.
8 and 9 are diagrams illustrating that a comparison unit according to an embodiment of the present invention compares feature values related to a structure and pattern of an arbitrary image with those of a reference image and a reference image.
10 to 13 are diagrams showing an example of a design generated by a design generating apparatus according to an embodiment of the present invention.
14 is a flowchart illustrating a method of generating a design by a design generating apparatus according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.In the present invention, various changes may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에서, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are used only to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "include" or "have" should be understood as not precluding the possibility of existence or addition of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms, including technical or scientific terms, used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호간 모순되지 않는 범위 내에서 공유될 수 있다.In addition, each configuration, process, process, or method included in each embodiment of the present invention may be shared within a range not technically contradicting each other.

도 1은 본 발명의 일 실시예에 따른 디자인 생성장치의 구성을 도시한 도면이다.1 is a diagram showing the configuration of a design generating apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 디자인 생성장치(100)는 기준 이미지 입력부(110), 참조 이미지 입력부(120), 전처리부(130), 이미지 생성부(140), 메모리부(150), 특징 추출부(160), 비교부(170), 제어부(180) 및 디자인 생성부(190)를 포함한다.Referring to FIG. 1, a design generating apparatus 100 according to an embodiment of the present invention includes a reference image input unit 110, a reference image input unit 120, a preprocessor 130, an image generation unit 140, and a memory unit. 150, a feature extraction unit 160, a comparison unit 170, a control unit 180, and a design generation unit 190.

기준 이미지 입력부(110)는 외부로부터 기준 이미지를 입력받는다. 여기서, 기준 이미지란 최종적으로 생성될 이미지에서의 구조 정보를 제공하기 위해 입력되는 이미지이다. 구조 정보는 이미지 내 존재하는 모든 물체의 외관 또는 골격에 관한 정보로서, 인접한 픽셀값들의 차이가 기 설정된 기준치 이하인 픽셀들의 집합, 즉, 형태소를 의미한다. 기준 이미지 입력부(110)는 외부로부터 최종적으로 생성할 이미지에서의 구조를 결정할 기준 이미지를 입력받는다.The reference image input unit 110 receives a reference image from the outside. Here, the reference image is an image that is input to provide structural information in the image to be finally generated. The structure information is information on the appearance or skeleton of all objects existing in the image, and refers to a set of pixels in which the difference between adjacent pixel values is less than a preset reference value, that is, a morpheme. The reference image input unit 110 receives a reference image to determine the structure of the image to be finally generated from the outside.

참조 이미지 입력부(120)는 외부로부터 참조 이미지를 입력받는다. 여기서, 참조 이미지란 최종적으로 생성될 이미지에서의 패턴 정보를 제공하기 위해 입력되는 이미지이다. 패턴 정보는 이미지 내 질감(Texture) 또는 화법(畵法)에 관한 정보로서, 인접한 픽셀값들 간의 변화량이 일정한 규칙을 갖는 픽셀값을 의미한다. 예를 들어, 인접한 픽셀값들 간의 변화량이 일정한 수준으로 줄어들거나 증가하는 그라데이션(Gradation) 또는 블러(Blur)처리가 이에 해당할 수도 있고, 변화량이 유지되거나 주기적으로 변화하는 등 다양한 색의 조합이나 변화 등이 패턴 정보에 포함될 수 있다. 참조이미지 입력부(120)는 외부로부터 최종적으로 생성할 이미지에서의 패턴을 결정할 기준 이미지를 입력받는다.The reference image input unit 120 receives a reference image from the outside. Here, the reference image is an image input to provide pattern information in the image to be finally generated. The pattern information is information on a texture or speech method in an image, and refers to a pixel value having a constant amount of change between adjacent pixel values. For example, gradation or blur processing, in which the amount of change between adjacent pixel values decreases or increases to a certain level, may correspond to this, and combinations or changes of various colors such as the amount of change maintained or changed periodically. And the like may be included in the pattern information. The reference image input unit 120 receives a reference image to determine a pattern in the image to be finally generated from the outside.

전처리부(130)는 참조 이미지에 색상의 군집을 위한 전처리를 수행한다. 전처리부(130)는 색차 계산 측면에서 왜곡을 줄이기 위해, 참조 이미지의 각 화소에서의 색상공간을 CIELab 공간으로 변환한다. 전처리부(130)는 참조 이미지의 각 화소들의 색상공간을 변환하는 것에 그치는 것이 아니라, 색상 분포를 파악하기 위해 각각의 노드로 참조 이미지 내의 색상들을 맵핑하고 이들을 기 설정된 개수의 색상으로 군집화를 한다. 전처리부(130)가 색상 분포를 파악하고 이들을 기 설정된 개수의 색상으로 군집화를 하는 이유는 다음과 같다. 단지 이미지만을 생성하고자 할 경우라면 이와 같은 전처리는 수행되지 않아도 무방하나, 이와 같은 이미지가 다양한 패션제품의 디자인으로 생성되어야 한다. 다만, 패션 제품이 섬유재질의 제품이라면, 색상이 제품으로 전사될 때 반영될 수 있는 색상의 개수가 정해져 있다. 즉, 섬유제품으로는 정해진 일부의 색상들만이 전사될 수 있으며, 모든 색상의 표현은 불가능하다. 이 때문에, 전처리부(130)는 참조 이미지의 색상공간을 변환하는 것 뿐만 아니라, 색상의 분포를 파악하여 이들을 군집하는 전처리를 수행한다. 이에 따라, 참조 이미지는 전처리부(130)를 거치며 색상이 기 설정된 개수로 군집된다. 군집하는 과정은 도 2 및 3에 도시되어 있다.The preprocessor 130 performs preprocessing for clustering of colors on the reference image. The preprocessor 130 converts the color space in each pixel of the reference image into a CIELab space in order to reduce distortion in terms of color difference calculation. The preprocessor 130 does not only transform the color space of each pixel of the reference image, but maps the colors in the reference image to each node in order to determine the color distribution, and clusters them into a preset number of colors. The reason for the preprocessor 130 to grasp the color distribution and cluster them into a preset number of colors is as follows. If you only want to create an image, you do not need to perform such pre-processing, but such an image must be created in the design of various fashion products. However, if the fashion product is a product made of fiber, the number of colors that can be reflected when the color is transferred to the product is determined. In other words, only certain colors can be transferred to textile products, and all colors cannot be expressed. For this reason, the preprocessor 130 not only converts the color space of the reference image, but also performs preprocessing of clustering them by grasping the distribution of colors. Accordingly, the reference images pass through the preprocessor 130 and are clustered in a preset number of colors. The clustering process is illustrated in FIGS. 2 and 3.

도 2 및 3은 본 발명의 일 실시예에 따른 이미지 내 색상을 군집화하는 것을 도시한 도면이다.2 and 3 are diagrams illustrating clustering of colors in an image according to an embodiment of the present invention.

전처리부(130)는 색상공간을 (CIELab으로) 변환한 참조 이미지 내의 색상들을 도 2와 같이 맵핑한다. 전처리부(130)는 색상을 맵핑하기 위한 맵 네트워크(200), 예를 들어, SOM(Self Organizing Maps)의 모든 노드(210)들의 값을 초기화를 수행한다. 이후, 전처리부(130)는 참조 이미지 내의 각 화소들의 화소값을 반복적으로 맵 네트워크(200)에 입력한다. 맵 네트워크(200)는 화소값이 입력되면, 입력된 화소와 가장 유사한 노드를 탐색하고, 탐색된 노드의 값을 입력된 노드의 값에 가중치를 부여하여 갱신을 수행한다. 전처리부(130)는 전술한 과정을 설정된 횟수만큼 반복하며, 맵 네트워크(200) 내 모든 노드(210)들의 값을 결정하며 맵핑한다. 맵 네트워크(200) 내 각 노드들은 일정한 경계를 가지며 유사한 색상끼리 인접하여 배치된다. The preprocessor 130 maps colors in the reference image converted from the color space (to CIELab) as shown in FIG. 2. The preprocessor 130 initializes values of all the nodes 210 of the map network 200 for mapping colors, for example, Self Organizing Maps (SOM). Thereafter, the preprocessor 130 repeatedly inputs a pixel value of each pixel in the reference image to the map network 200. When a pixel value is input, the map network 200 searches for a node most similar to the input pixel, and performs an update by assigning a weight of the searched node value to the input node value. The preprocessor 130 repeats the above-described process a set number of times, and determines and maps values of all nodes 210 in the map network 200. Each node in the map network 200 has a certain boundary and is arranged adjacent to each other in similar colors.

전처리부(130)는 참조 이미지를 맵핑한 후 기 설정된 개수의 색상으로 군집화한다. 도 3에 도시된 바와 같이, 전처리부(130)는 맵 네트워크(200)에서 기 설정된 개수만큼 대표 색(310 내지 350)을 추출하여 군집한다. 기 설정된 개수는 디자인으로 표현하고자 하는 개수가 되며, 대표 색은 디자인에 표현할 수 있는 색으로 결정된다. 즉, 참조 이미지는 전처리부(130)에서의 색 군집화를 거치며, 패션제품의 디자인으로 표현될 수 있는 색, 몇 개로 군집된다.The preprocessor 130 maps the reference images and then clusters them into a preset number of colors. As shown in FIG. 3, the preprocessor 130 extracts and clusters representative colors 310 to 350 as many as a preset number from the map network 200. The preset number is the number to be expressed in the design, and the representative color is determined as the color that can be expressed in the design. That is, the reference images undergo color clustering in the preprocessor 130, and are clustered into several colors that can be expressed as a design of a fashion product.

다시 도 1을 참조하면, 이미지 생성부(140)는 임의의 이미지를 생성한다. 이미지 생성부(140)는 기준 이미지나 참조 이미지와의 관련도를 고려하지 않은 임의의 이미지를 생성한다. 이미지 생성부(140)는 제어부(180)로부터 생성에 관한 제어신호를 수신할 경우, 임의의 이미지를 생성한다.Referring back to FIG. 1, the image generator 140 generates an arbitrary image. The image generating unit 140 generates an arbitrary image that does not consider the degree of relevance to the reference image or the reference image. When the image generator 140 receives a control signal related to generation from the controller 180, it generates an arbitrary image.

메모리부(150)는 디자인 생성장치(100) 내 각 구성이 동작하는데 필요하거나 동작하며 발생한 임시 데이터 등을 저장한다. 예를 들어, 메모리부(150)는 이미지 생성부(140)가 이미지를 생성하는데 필요한 데이터를 저장하고 있을 수 있으며, 기준 이미지 입력부(110)나 참조 이미지 입력부(120)가 특징 추출부(160)로 이미지를 전달함에 있어 임시로 저장하고 있을 수 있다.The memory unit 150 stores temporary data necessary for or generated while each component in the design generating device 100 is operated. For example, the memory unit 150 may store data necessary for the image generation unit 140 to generate an image, and the reference image input unit 110 or the reference image input unit 120 may be the feature extraction unit 160 It may be temporarily stored in the delivery of the image.

특징 추출부(160)는 입력되는 이미지 내에서의 구조나 패턴에 관한 특징값을 추출한다. 특징 추출부(160)는 도 4에 상세히 도시되어 있다.The feature extraction unit 160 extracts feature values related to a structure or pattern in an input image. The feature extraction unit 160 is shown in detail in FIG. 4.

도 4는 본 발명의 일 실시예에 따른 특징 추출부를 도시한 도면이다.4 is a diagram illustrating a feature extraction unit according to an embodiment of the present invention.

도 4를 참조하면, 특징 추출부(160)는 복수의 레이어(410 내지 460)를 갖는 신경망으로 구현될 수 있으며, 각 레이어에서의 처리를 거쳐 입력되는 이미지의 구조 또는 패턴에 관한 특징값을 추출한다. 특징 추출부(160)는 중심(435)을 기준으로 일 방향에 위치한 레이어들(예를 들어, 410 내지 430)에서는 구조에 관한 특징값을 추출하며, 다른 방향에 위치한 레이어들(예를 들어, 440 내지 460)에서는 패턴에 관한 특징값을 추출한다. 특징값은 구조나 패턴의 형태나 종류 등의 기준에 따라 일정한 수치를 가지며, 위치 등의 기준에 따라 n*m 형렬 내의 일정한 좌표로 저장된다. 특징 추출부(160)는 도 5 내지 7에 도시된 바와 같이, 기준 이미지, 참조 이미지 및 이미지 생성부(140)에서 생성된 임의의 이미지에서 구조나 패턴에 관한 특징값을 추출한다.Referring to FIG. 4, the feature extraction unit 160 may be implemented as a neural network having a plurality of layers 410 to 460, and extracts feature values related to a structure or pattern of an input image through processing in each layer. do. The feature extraction unit 160 extracts a feature value for a structure from layers (eg, 410 to 430) located in one direction based on the center 435, and extracts a feature value for a structure, and layers located in the other direction (eg, In 440 to 460), feature values for the pattern are extracted. The feature value has a certain value according to the standard such as the shape or type of the structure or pattern, and is stored as a certain coordinate within the n*m matrix according to the standard such as the position. As illustrated in FIGS. 5 to 7, the feature extraction unit 160 extracts feature values related to a structure or pattern from a reference image, a reference image, and an arbitrary image generated by the image generation unit 140.

도 5는 본 발명의 일 실시예에 따른 특징 추출부가 기준 이미지로부터 구조에 관한 특징값을 추출하는 것을 도시한 도면이고, 도 6은 본 발명의 일 실시예에 따른 특징 추출부가 참조 이미지로부터 패턴에 관한 특징값을 추출하는 것을 도시한 도면이며, 도 7은 본 발명의 일 실시예에 따른 특징 추출부가 이미지 생성부에 의해 생성된 임의의 이미지로부터 구조·패턴에 관한 특징값을 추출하는 것을 도시한 도면이다.5 is a diagram illustrating that a feature extraction unit extracts a feature value for a structure from a reference image according to an embodiment of the present invention, and FIG. 6 is a diagram illustrating that the feature extraction unit according to an embodiment of the present invention FIG. 7 is a diagram illustrating extraction of a feature value related to a structure, and FIG. 7 is a diagram illustrating that a feature extraction unit according to an embodiment of the present invention extracts a feature value related to a structure/pattern from an arbitrary image generated by the image generator. It is a drawing.

도 5를 참조하면, 특징 추출부(160)는 기준 이미지 입력부(110)가 입력받은 기준 이미지(510)를 전달받아 특징을 추출한다. 특징 추출부(160) 내의 특정 레이어(460)에서 구조에 관한 특징값(520)이 추출된다. 전술한 대로, 구조에 관한 특징값은 이미지 내 모든 물체의 외관이나 골격에 관한 정보로서 형태소에 관한 특징값에 해당한다.Referring to FIG. 5, the feature extraction unit 160 receives the reference image 510 received by the reference image input unit 110 and extracts a feature. A feature value 520 related to a structure is extracted from a specific layer 460 in the feature extraction unit 160. As described above, the feature value for the structure corresponds to the feature value for the morpheme as information on the appearance or skeleton of all objects in the image.

도 6을 참조하면, 특징 추출부(160)는 패턴 이미지 입력부(120)가 입력받아 전처리부(130)를 거친 패턴 이미지(610)를 전달받아 특징을 추출한다. 특징 추출부(160) 내의 특정 레이어(420)에서 패턴에 관한 특징값(620)이 추출된다. 전술한 대로, 이미지 내 질감(Texture) 또는 화법(畵法)에 관한 정보로서, 인접한 픽셀값들 간의 변화량이 일정한 규칙을 갖는 픽셀값을 관한 특징값에 해당한다. 특히, 패턴에 관한 특징값은 전처리부를 거쳐 색상이 군집화된 이미지에 대한 결과값일 수 있다. Referring to FIG. 6, the feature extraction unit 160 receives the pattern image input unit 120 and receives the pattern image 610 passed through the preprocessor 130 to extract a feature. A feature value 620 for a pattern is extracted from a specific layer 420 in the feature extraction unit 160. As described above, as information on a texture or speech method in an image, the amount of change between adjacent pixel values corresponds to a feature value relating to a pixel value having a constant rule. In particular, the feature value for the pattern may be a result value for an image in which colors are clustered through a preprocessor.

도 7을 참조하면, 특징 추출부(160)는 이미지 생성부(140)가 생성한 임의의 이미지(710)를 입력받아 구조 및 패턴 모두의 특징을 추출한다. 특징 추출부(160)는 구조에 관한 특징값과 패턴에 관한 특징값을 적절한 레이어(420, 460)로부터 추출한다.Referring to FIG. 7, the feature extracting unit 160 receives an image 710 generated by the image generating unit 140 and extracts features of both a structure and a pattern. The feature extraction unit 160 extracts a feature value for a structure and a feature value for a pattern from the appropriate layers 420 and 460.

다시, 도 1을 참조하면, 비교부(170)는 특징 추출부(160)가 추출한 각 이미지의 특징값을 비교하여 임의의 이미지가 기준 이미지의 구조와, 참조 이미지의 패턴과 얼마나 유사한지 여부를 비교한다. 도 5 내지 7을 참조하여 설명한 예를 기준으로 설명하자면, 도 8 및 9에서와 같이 비교를 수행한다. Again, referring to FIG. 1, the comparison unit 170 compares the feature values of each image extracted by the feature extraction unit 160 to determine how similar an arbitrary image is to the structure of the reference image and the pattern of the reference image. Compare. Referring to the example described with reference to FIGS. 5 to 7, comparison is performed as in FIGS. 8 and 9.

도 8 및 9는 본 발명의 일 실시예에 따른 비교부가 임의의 이미지의 구조·패턴에 관한 특징값을 기준이미지와 참조이미지의 그것과 비교하는 것을 도시한 도면이다.8 and 9 are diagrams illustrating that a comparison unit according to an embodiment of the present invention compares feature values related to a structure and pattern of an arbitrary image with those of a reference image and a reference image.

도 8을 참조하면, 비교부(170)는 기준 이미지의 구조에 관한 특징값(520)과 임의의 이미지의 구조에 관한 특징값(730)을 비교하여, 제어부(180)로 결과값을 전송한다. 이에, 제어부(180)는 생성된 임의의 이미지 내 구조가 기준 이미지 내의 구조와 얼마나 유사한지 여부를 판단하여, (임의의) 이미지를 재생성하거나 생성된 임의의 이미지를 최종적으로 선정하는데 고려할 수 있다.Referring to FIG. 8, the comparison unit 170 compares a feature value 520 for a structure of a reference image with a feature value 730 for a structure of an arbitrary image, and transmits a result value to the controller 180. . Accordingly, the controller 180 may determine how similar the structure in the generated arbitrary image is to the structure in the reference image, and consider regenerating the (arbitrary) image or finally selecting the generated arbitrary image.

도 9를 참조하면, 마찬가지로, 비교부(170)는 참조 이미지의 패턴에 관한 특징값(620)과 임의의 이미지의 패턴에 관한 특징값(720)을 비교하여, 제어부(180)로 결과값을 전송한다. 이에, 제어부(180)는 생성된 임의의 이미지 내 패턴이 참조 이미지 내의 패턴과 얼마나 유사한지 여부를 판단하여, (임의의) 이미지를 재생성하거나 생성된 임의의 이미지를 최종적으로 선정하는데 고려할 수 있다.Referring to FIG. 9, similarly, the comparison unit 170 compares the feature value 620 for the pattern of the reference image and the feature value 720 for the pattern of an arbitrary image, and then sends the result value to the controller 180. send. Accordingly, the controller 180 may determine how similar the pattern in the generated arbitrary image is to the pattern in the reference image, and consider regenerating the (arbitrary) image or finally selecting the generated arbitrary image.

보다 구체적으로 설명하면 다음과 같다. More specifically, it is as follows.

비교부(170)는 임의의 이미지의 구조에 관한 특징값과 기준 이미지의 구조에 관한 특징값을 비교한다. 비교부(170)는 다음의 수식을 이용하여 양 특징값을 비교한다.The comparison unit 170 compares a feature value for a structure of an arbitrary image with a feature value for a structure of a reference image. The comparison unit 170 compares both feature values using the following equation.

Figure 112019116701112-pat00001
Figure 112019116701112-pat00001

여기서, Str(E,D)는 기준 이미지(510)와 임의의 이미지(710) 간의 구조 특징값 비교함수를, h는 특징 값의 열을, w는 특징 값의 행을, E(i, j)는 기준 이미지의 패턴에 관한 특징값 내 좌표 (i, j) 값을, D(i, j)는 임의의 이미지의 패턴에 관한 특징값 내 좌표 (i, j) 값을 의미한다. 비교부(170)는 양자의 구조에 관한 특징값의 차이를 연산함으로써, 양자를 비교한다. 비교부(170)는 구조에 관한 특징값 비교를 위해 다음의 수식을 이용할 수 있다.Here, Str(E,D) is a structure feature value comparison function between the reference image 510 and an arbitrary image 710, h is a column of feature values, w is a row of feature values, E(i, j) ) Denotes a coordinate (i, j) value within a feature value of a pattern of a reference image, and D(i, j) denotes a coordinate (i, j) value within a feature value of a pattern of an arbitrary image. The comparison unit 170 compares the two by calculating a difference between the feature values of the structures. The comparison unit 170 may use the following equation to compare feature values related to the structure.

Figure 112019116701112-pat00002
Figure 112019116701112-pat00002

여기서, Gl i,f는 기준 이미지의 구조에 관한 특징값의 그람 행렬을, Kl i,f는 임의의 이미지의 구조에 관한 특징값의 그람 행렬을 의미한다. 비교부(170)는 양 이미지의 그람행렬의 차이를 이용하여 구조에 관한 특징값을 비교할 수 있다.Here, G l i,f denotes a Gram matrix of feature values related to the structure of the reference image, and K l i,f denotes a Gram matrix of feature values pertaining to the structure of an arbitrary image. The comparison unit 170 may compare feature values for a structure by using a difference between a Gram matrix of both images.

비교부(170)는 임의의 이미지의 패턴에 관한 특징값과 기준 이미지의 패턴에 관한 특징값을 비교한다. 비교부(170)는 다음의 수식을 이용하여 양 특징값을 비교한다.The comparison unit 170 compares a feature value for a pattern of an arbitrary image with a feature value for a pattern of a reference image. The comparison unit 170 compares both feature values using the following equation.

Figure 112019116701112-pat00003
Figure 112019116701112-pat00003

여기서, Pat(R,D)는 참조 이미지(610)와 임의의 이미지(710) 간의 패턴 특징값 비교함수를, h는 특징 값의 열을, w는 특징 값의 행을, R(i, j)는 참조 이미지의 패턴에 관한 특징값 내 좌표 (i, j) 값을, D(i, j)는 임의의 이미지의 패턴에 관한 특징값 내 좌표 (i, j) 값을 의미한다. 비교부(170)는 양자의 패턴에 관한 특징값의 차이를 연산함으로써, 양자를 비교한다.Here, Pat(R,D) is a pattern feature value comparison function between the reference image 610 and an arbitrary image 710, h is a column of feature values, w is a row of feature values, and R(i, j) ) Denotes a coordinate (i, j) value within a feature value of a pattern of a reference image, and D(i, j) denotes a coordinate (i, j) value within a feature value of a pattern of an arbitrary image. The comparison unit 170 compares the two by calculating a difference between the feature values of the patterns.

비교부(170)는 구조 및 패턴에 관한 특징값 비교 결과를 제어부(180)로 전송하여 제어부(180)가 임의의 이미지가 기준이미지의 구조와 참조 이미지의 패턴과 얼마나 유사한지 판단할 수 있도록 한다.The comparison unit 170 transmits the result of comparing feature values with respect to the structure and pattern to the control unit 180 so that the control unit 180 can determine how similar an arbitrary image is to the structure of the reference image and the pattern of the reference image. .

제어부(180)는 디자인 생성장치 내 각 구성의 동작을 제어한다.The controller 180 controls the operation of each component in the design generating device.

제어부(180)는 특징 추출부(160)를 제어하여, 기준 이미지와 임의의 이미지로부터 구조에 관한 특징값을, 참조 이미지와 임의의 이미지로부터 패턴에 관한 특징값을 추출하도록 제어한다. The controller 180 controls the feature extraction unit 160 to extract a feature value for a structure from a reference image and an arbitrary image and a feature value for a pattern from a reference image and an arbitrary image.

제어부(180)는 비교부(170)의 동작을 제어하며, 비교부(170)로부터 비교결과를 수신하여 임의의 이미지와 기준 이미지의 구조, 임의의 이미지와 패턴 이미지의 패턴에 관한 유사도를 판단한다. 유사도 판단은 다음과 같이 진행된다.The controller 180 controls the operation of the comparison unit 170, receives the comparison result from the comparison unit 170, and determines a structure of an arbitrary image and a reference image, and a degree of similarity with respect to the pattern of the arbitrary image and the pattern image. . The similarity determination proceeds as follows.

Figure 112019116701112-pat00004
Figure 112019116701112-pat00004

제어부(180)는 구조 특징값 비교함수값(Pat(R, D))과 패턴 특징값 비교함수값(Str(E, D))의 합이 기 설정된 기준치 이하를 갖는 임의의 이미지를 최종적인 이미지로 선정하고, 기 설정된 기준치를 초과하면 이미지를 새로이 생성하도록 이미지 생성부(140)를 제어한다. 새로이 생성된 이미지는 다시 특징 추출부(160)와 비교부(170)를 거치게 되어 유사도를 판단받는다.The controller 180 determines a final image in which the sum of the structure feature value comparison function value (Pat(R, D)) and the pattern feature value comparison function value (Str(E, D)) is equal to or less than a preset reference value. And, when it exceeds a preset reference value, the image generating unit 140 is controlled to generate a new image. The newly generated image is again passed through the feature extraction unit 160 and the comparison unit 170 to determine the degree of similarity.

제어부(180)는 선정된 이미지를 디자인 생성부(190)로 전달하여, 해당 이미지가 적용될 제품의 디자인 포맷으로 변경하도록 디자인 생성부(190)를 제어한다.The controller 180 transmits the selected image to the design generator 190 and controls the design generator 190 to change the image into a design format of a product to which the image is to be applied.

디자인 생성부(190)는 제어부(180)에 의해 선정된 이미지를 수신하여, 해당 이미지가 적용될 제품의 디자인 포맷으로 변경한다. 디자인 생성부(190)로는 선정된 이미지가 전달되는데, 전달되는 이미지는 특징값과 같이 행렬 형태를 갖는다. 디자인 생성부(190)는 이러한 형태의 (선정된) 이미지를 제품에 적용될 이미지 파일의 형태, 예를 들어, JPEG, JPG, PNG, BMP 또는 TIF 형태로 변환한다. 또한, 디자인 생성부(190)는 전처리부(130)가 군집화한 기 설정된 개수의 색상으로 수신한 이미지를 색처리한다. 해당 과정은 아래의 수식에 따라 수행될 수 있다.The design generation unit 190 receives the image selected by the control unit 180 and changes it into a design format of a product to which the image is to be applied. The selected image is transmitted to the design generator 190, and the transmitted image has a matrix form like a feature value. The design generation unit 190 converts this type of (selected) image into a form of an image file to be applied to the product, for example, JPEG, JPG, PNG, BMP, or TIF. In addition, the design generation unit 190 color-processes the image received with a preset number of colors clustered by the preprocessor 130. This process can be performed according to the following equation.

Figure 112019116701112-pat00005
Figure 112019116701112-pat00005

여기서, Cf는 최종 디자인 파일에 적용될 색상을, C는 전처리부에서 군집화된 색상을, D는 선정된 이미지 내의 임의의 위치에서의 색상을, n은 색상 데이터의 차원을 의미한다. 디자인 생성부(190)에 의해 전술한 처리과정을 거치며, 선정된 최종 이미지는 제품에 적용되기에 적합한 다지안 파일 형태로 포맷이 변경된다. 특히, 색상도 기 설정된 개수의 색상으로 군집화되었기 때문에, 적용될 제품이 섬유 제품이라도 무리없이 적용되어 처리될 수 있다.Here, Cf denotes a color to be applied to the final design file, C denotes a color clustered in a preprocessor, D denotes a color at an arbitrary position in a selected image, and n denotes a dimension of color data. Through the above-described processing process by the design generation unit 190, the selected final image is changed to a format of a multi-design file suitable to be applied to a product. In particular, since the colors are also clustered into a preset number of colors, even if the product to be applied is a textile product, it can be applied and processed without difficulty.

도 1을 참조하여 설명한 디자인 생성장치(100)는 전처리부(130)를 포함하여 전처리부에서 이미지 내 색상의 맵핑 및 군집화가 진행되고 있으나 반드시 이에 한정되는 것은 아니고, 전처리부(130)가 디자인 생성부(190) 내 하나의 기능이나 모듈로 포함되어 최종 단계에서 모두 처리될 수도 있다.In the design generation apparatus 100 described with reference to FIG. 1, the preprocessor 130, including the preprocessor 130, performs mapping and clustering of colors in the image, but is not limited thereto, and the preprocessor 130 generates a design. It may be included as one function or module in the unit 190 and processed in the final step.

도 10 내지 13은 본 발명의 일 실시예에 따른 디자인 생성장치가 생성한 디자인의 일 예를 도시한 도면이다.10 to 13 are diagrams showing an example of a design generated by a design generating apparatus according to an embodiment of the present invention.

도 10(a) 내지 도 13(a)에서는 입력된 기준이미지(1010, 1110, 1210 1310)가 도시되고 있으며, 도 10(b) 내지 도 13(b)에서는 입력된 참조 이미지(1020, 1120, 1220 1320)가 도시되고 있다. 도 10(b) 내지 도 13(b)에 도시된 각각의 참조 이미지는 다양한 질감이나 화법(인접한 픽셀값들 간의 변화량이 일정한 규칙을 갖는 픽셀값)을 보유하고 있다. In FIGS. 10(a) to 13(a), the input reference images 1010, 1110, 1210 1310 are shown, and in FIGS. 10(b) to 13(b), the input reference images 1020, 1120, 1220 1320) is shown. Each of the reference images shown in FIGS. 10B to 13B has various textures or speech methods (pixel values having a constant change amount between adjacent pixel values).

디자인 생성장치(100)는 기준 이미지와의 구조에 관한 특징값과 참조 이미지와의 패턴에 관한 특징값을 비교하여, 각 특징값과의 차이가 기준치 이하인 이미지를 선정함으로써, 도 10(c) 내지 도 13(c)에 도시된 이미지들을 최종적으로 생성할 수 있다. 도 10(c)에서 볼 수 있듯이, 생성된 이미지(1030) 내 구조는 기준 이미지(1010)의 구조와 유사한 구조를 가지나, 패턴은 참조 이미지(1020)의 패턴과 유사한 패턴을 갖는다. 생성된 이미지(1030)의 색상(픽셀값)이나 화법(인접한 픽셀값들 간의 변화 규칙)이 참조 이미지(1020)의 그것과 유사한 것을 확인할 수 있다.The design generation apparatus 100 compares a feature value for a structure with a reference image and a feature value for a pattern with a reference image, and selects an image in which the difference with each feature value is less than or equal to the reference value. The images shown in FIG. 13(c) may be finally generated. As can be seen in FIG. 10C, the structure in the generated image 1030 has a structure similar to that of the reference image 1010, but the pattern has a pattern similar to that of the reference image 1020. It can be seen that the color (pixel value) or speech method (a rule of change between adjacent pixel values) of the generated image 1030 is similar to that of the reference image 1020.

이는 도 11 내지 13에서도 마찬가지이다. 생성된 이미지(1130, 1230, 1330)는 기준 이미지(1110, 1210, 1310)와 유사한 구조를 가지나, 패턴은 참조 이미지(1120, 1220, 1320)의 패턴과 유사한 패턴을 갖는다.This is also the same in FIGS. 11 to 13. The generated images 1130, 1230, and 1330 have a structure similar to that of the reference images 1110, 1210, and 1310, but the pattern has a pattern similar to that of the reference images 1120, 1220, and 1320.

이와 같이, 사용자는 디자인 생성장치(100)를 이용함으로써, 자신이 생성되기를 원하는 이미지의 구조를 갖는 기준 이미지와 패턴을 갖는 참조 이미지를 입력하는 것만으로도, 원하는 이미지 및 이를 적용하고자 하는 제품에 맞는 포맷의 디자인까지 생성할 수 있다. 따라서, 이미지 및 디자인의 생성에 있어 작업량이 현저히 줄어들 수 있다.In this way, by using the design generating device 100, the user simply inputs a reference image having a structure of the image he wants to be created and a reference image having a pattern, and is suitable for the desired image and the product to which it is applied. You can even create the design of the format. Therefore, the amount of work can be significantly reduced in the creation of images and designs.

도 1 내지 13에서는 편의상 입력되는 정보가 이미지인 것으로 한정하여 설명하고 있으나 반드시 이에 한정되는 것은 아니고, 영상과 같은 데이터가 입력되더라도 동일하게 처리될 수 있다.In FIGS. 1 to 13, for convenience, input information is limited to an image, but the description is not limited thereto, and even if data such as an image is input, the same may be processed.

도 14는 본 발명의 일 실시예에 따른 디자인 생성장치가 디자인을 생성하는 방법을 도시한 순서도이다.14 is a flowchart illustrating a method of generating a design by a design generating apparatus according to an embodiment of the present invention.

기준 이미지 입력부(110) 및 참조 이미지 입력부(120)는 각각 기준 이미지와 참조 이미지를 각각 수신한다(S1410).The reference image input unit 110 and the reference image input unit 120 respectively receive a reference image and a reference image (S1410).

특징값 추출부(160)는 기준 이미지로부터 이미지 내 모든 물체의 골격이나 외관에 관한 특징값을, 참조 이미지로부터 질감이나 화법에 관한 특징값을 추출한다(S1420).The feature value extracting unit 160 extracts feature values related to the skeleton or appearance of all objects in the image from the reference image, and extracts feature values related to texture or speech methods from the reference image (S1420).

이미지 생성부(140)는 임의의 이미지를 생성하고, 특징값 추출부(160)는 생성된 이미지의 골격이나 외관 및 질감이나 화법에 관한 특징값을 추출한다(S1430).The image generating unit 140 generates an arbitrary image, and the feature value extracting unit 160 extracts feature values related to the skeleton, appearance, texture, or speech method of the generated image (S1430).

비교부(170)는 임의의 이미지와 기준 이미지 내에서 추출한 특징값과, 임의의 이미지와 참조 이미지로부터 추출한 특징값을 비교한다(S1440).The comparison unit 170 compares a feature value extracted from an arbitrary image and a reference image with a feature value extracted from the random image and the reference image (S1440).

제어부(180)는 각 특징값의 비교값이 기 설정된 기준치 이하인지 여부를 판단한다(S1450).The controller 180 determines whether the comparison value of each feature value is less than or equal to a preset reference value (S1450).

각 특징값의 비교값이 기 설정된 기준치 초과하는 경우, 제어부(180)는 새로운 이미지를 생성하도록 이미지 생성부(140)를 제어한다.When the comparison value of each feature value exceeds a preset reference value, the controller 180 controls the image generator 140 to generate a new image.

각 특징값의 비교값이 기 설정된 기준치 이하인 경우, 디자인 생성부(190)는 선정된 이미지를 적용할 제품에 관한 디자인 포맷으로 변경한다(S1460).When the comparison value of each feature value is less than or equal to the preset reference value, the design generation unit 190 changes the selected image into a design format for a product to be applied (S1460).

도 14에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 각각의 도면에 기재된 과정의 순서를 변경하여 실행하거나 과정 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 14는 시계열적인 순서로 한정되는 것은 아니다.In FIG. 14, it is described that each process is sequentially executed, but this is merely illustrative of the technical idea of an embodiment of the present invention. In other words, a person of ordinary skill in the art to which an embodiment of the present invention belongs can change the order of the processes described in each drawing without departing from the essential characteristics of the embodiment of the present invention, or perform one or more of the processes. Since the process is executed in parallel, various modifications and variations may be applied, and thus FIG. 14 is not limited to a time series order.

한편, 도 14에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the processes shown in FIG. 14 can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. That is, the computer-readable recording medium is a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD-ROM, DVD, etc.), and carrier wave (e.g., Internet And storage media such as transmission through In addition, the computer-readable recording medium can be distributed over a computer system connected through a network to store and execute computer-readable codes in a distributed manner.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those of ordinary skill in the technical field to which the present embodiment belongs will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are not intended to limit the technical idea of the present embodiment, but to explain the technical idea, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.

100: 디자인 생성장치
110: 기준 이미지 입력부
120: 참조 이미지 입력부
130: 전처리부
140: 이미지 생성부
150: 메모리부
160: 특징 추출부
170: 비교부
180: 제어부
190: 디자인 생성부
200: 맵 네트워크
210: 노드
410, 420, 430, 440, 450, 460: 레이어
510, 1010, 1110, 1210, 1310: 기준 이미지
520, 730: 구조에 관한 특징값
610, 1020, 1120, 1220, 1320: 참조 이미지
620, 720: 패턴에 관한 특징값
710: 임의의 이미지
1030, 1130, 1230, 1330: 생성된 이미지
100: design generator
110: reference image input unit
120: reference image input unit
130: pretreatment unit
140: image generator
150: memory unit
160: feature extraction unit
170: comparison unit
180: control unit
190: design generation unit
200: map network
210: node
410, 420, 430, 440, 450, 460: layers
510, 1010, 1110, 1210, 1310: reference image
520, 730: feature values for structure
610, 1020, 1120, 1220, 1320: reference image
620, 720: characteristic value for pattern
710: random image
1030, 1130, 1230, 1330: generated image

Claims (14)

기준 이미지 및 참조 이미지를 입력받는 입력부;
상기 참조 이미지에 대한 색상이 기설정된 개수로 군집화되도록 전처리를 수행하는 전처리부;
임의의 이미지를 생성하는 이미지 생성부;
상기 입력부가 입력받은 기준 이미지와 참조 이미지 및 상기 이미지 생성부가 생성한 임의의 이미지 내에서의 특징값을 추출하는 특징 추출부;
상기 특징 추출부가 추출한 기준 이미지 및 참조 이미지의 특징값과 상기 임의의 이미지에서의 특징값을 비교하여 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이하인 임의의 이미지를 선택하는 비교부; 및
상기 입력부, 상기 이미지 생성부, 상기 특징 추출부 및 상기 비교부의 동작을 제어하는 제어부를 포함하되,
상기 전처리부는,
상기 참조 이미지의 각 화소에서의 색상공간을 CIELab 공간으로 변환하고, 상기 참조 이미지의 색상들을 색상 맵핑을 위해 신경망 기반의 맵 네트워크를 통해 맵핑하고, 상기 맵 네트워크의 노드에 부여된 가중치를 갱신하면서 기 설정된 개수의 대표색을 추출하여 군집화하는 것을 특징으로 하는 이미지 생성장치.
An input unit receiving a reference image and a reference image;
A preprocessor for performing preprocessing so that colors for the reference image are clustered in a preset number;
An image generator that generates an arbitrary image;
A feature extraction unit for extracting a reference image and a reference image received by the input unit and a feature value in an image generated by the image generation unit;
A comparison unit that compares the feature values of the reference image and the reference image extracted by the feature extraction unit with the feature values of the arbitrary image, and selects a random image whose difference between the feature values of the reference image and the reference image is less than or equal to a preset reference value ; And
A control unit for controlling operations of the input unit, the image generation unit, the feature extraction unit, and the comparison unit,
The pretreatment unit,
The color space in each pixel of the reference image is converted into a CIELab space, the colors of the reference image are mapped through a neural network-based map network for color mapping, and the weights given to the nodes of the map network are updated. An image generating apparatus, characterized in that for clustering by extracting a set number of representative colors.
제1항에 있어서,
상기 특징 추출부는,
상기 기준 이미지로부터 이미지 내 모든 물체의 외관 또는 골격에 관한 특징값을 추출하는 것을 특징으로 하는 이미지 생성장치.
The method of claim 1,
The feature extraction unit,
And extracting feature values for appearances or skeletons of all objects in the image from the reference image.
제1항에 있어서,
상기 특징 추출부는,
상기 참조 이미지로부터 이미지 내 질감(Texture) 또는 화법(畵法)에 관한 특징값을 추출하는 것을 특징으로 하는 이미지 생성장치.
The method of claim 1,
The feature extraction unit,
An image generating apparatus, characterized in that extracting a feature value related to a texture or a speech method in the image from the reference image.
제1항에 있어서,
상기 특징 추출부는,
상기 임의의 이미지로부터 이미지 내 모든 물체의 외관 또는 골격에 관한 특징값과 이미지 내 질감 또는 화법에 관한 특징값 모두를 추출하는 것을 특징으로 하는 이미지 생성장치.
The method of claim 1,
The feature extraction unit,
And extracting both feature values related to appearances or skeletons of all objects in the image and feature values related to textures or speech methods in the image from the arbitrary image.
제1항에 있어서,
상기 제어부는,
상기 임의의 이미지의 특징값과 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치보다 큰 경우, 상기 이미지 생성부가 새로운 이미지를 생성하도록 제어하는 것을 특징으로 하는 이미지 생성장치.
The method of claim 1,
The control unit,
And when a difference between the feature value of the arbitrary image and the feature value of the reference image and the reference image is greater than a preset reference value, the image generator controls to generate a new image.
기준 이미지 및 참조 이미지를 입력받는 입력과정;
임의의 이미지를 생성하는 이미지 생성과정;
상기 참조 이미지에 대한 색상이 기설정된 개수로 군집화되도록 전처리를 수행하는 전처리 과정;
상기 입력과정에서 입력받은 기준 이미지와 참조 이미지 및 상기 이미지 생성에서 생성된 임의의 이미지 내에서의 특징값을 추출하는 추출과정; 및
상기 추출 과정에서 추출한 기준 이미지 및 참조 이미지의 특징값과 상기 임의의 이미지에서의 특징값을 비교하여 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이하인 임의의 이미지를 선택하는 선택과정을 포함하되,
상기 전처리 과정은,
상기 참조 이미지의 각 화소에서의 색상공간을 CIELab 공간으로 변환하고, 상기 참조 이미지의 색상들을 색상 맵핑을 위해 신경망 기반의 맵 네트워크를 통해 맵핑하고, 상기 맵 네트워크의 노드에 부여된 가중치를 갱신하면서 기 설정된 개수의 대표색을 추출하여 군집화하는 것을 특징으로 하는 이미지 생성방법.
An input process of receiving a reference image and a reference image;
An image generation process of generating an arbitrary image;
A pre-processing step of performing pre-processing so that colors for the reference image are clustered in a preset number;
An extraction process of extracting a reference image and a reference image input in the input process, and feature values in a random image generated in the image generation; And
A selection process of comparing the feature values of the reference image and the reference image extracted in the extraction process with the feature values of the random image, and selecting a random image whose difference between the feature values of the reference image and the reference image is less than or equal to a preset reference value Including,
The pretreatment process,
The color space in each pixel of the reference image is converted into a CIELab space, the colors of the reference image are mapped through a neural network-based map network for color mapping, and the weights assigned to the nodes of the map network are updated. An image generation method comprising extracting and clustering a set number of representative colors.
제6항에 있어서,
상기 이미지 생성과정은,
상기 임의의 이미지의 특징값과 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치보다 큰 경우, 새로운 이미지를 생성하는 것을 특징으로 하는 이미지 생성방법.
The method of claim 6,
The image generation process,
And generating a new image when a difference between the feature value of the arbitrary image and the feature value of the reference image and the reference image is greater than a preset reference value.
기준 이미지 및 참조 이미지를 입력받는 입력부;
임의의 이미지를 생성하는 이미지 생성부;
상기 참조 이미지에 대한 색상이 기설정된 개수로 군집화되도록 전처리를 수행하는 전처리부;
상기 입력부가 입력받은 기준 이미지와 참조 이미지 및 상기 이미지 생성부가 생성한 임의의 이미지 내에서의 특징값을 추출하는 특징 추출부;
상기 특징 추출부가 추출한 기준 이미지 및 참조 이미지의 특징값과 상기 임의의 이미지에서의 특징값을 비교하여 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이하인 임의의 이미지를 선택하는 비교부;
상기 비교부로부터 선택된 임의의 이미지를 적용하고자 하는 대상의 디자인 포맷으로 변경하는 디자인 생성부; 및
상기 입력부, 상기 이미지 생성부, 상기 특징 추출부, 상기 비교부 및 상기 디자인 생성부의 동작을 제어하는 제어부를 포함하되,
상기 전처리부는,
상기 참조 이미지의 각 화소에서의 색상공간을 CIELab 공간으로 변환하고, 상기 참조 이미지의 색상들을 색상 맵핑을 위해 신경망 기반의 맵 네트워크를 통해 맵핑하고, 상기 맵 네트워크의 노드에 부여된 가중치를 갱신하면서 기 설정된 개수의 대표색을 추출하여 군집화하는 것을 특징으로 하는 디자인 생성장치.
An input unit receiving a reference image and a reference image;
An image generator that generates an arbitrary image;
A preprocessor for performing preprocessing so that colors for the reference image are clustered in a preset number;
A feature extraction unit for extracting a reference image and a reference image received by the input unit and a feature value in an image generated by the image generation unit;
A comparison unit that compares the feature values of the reference image and the reference image extracted by the feature extraction unit with the feature values of the arbitrary image and selects an image whose difference between the feature values of the reference image and the reference image is less than or equal to a preset reference value ;
A design generation unit for changing an image selected from the comparison unit into a design format of an object to be applied; And
A control unit for controlling operations of the input unit, the image generation unit, the feature extraction unit, the comparison unit, and the design generation unit,
The pretreatment unit,
The color space in each pixel of the reference image is converted into a CIELab space, the colors of the reference image are mapped through a neural network-based map network for color mapping, and the weights assigned to the nodes of the map network are updated. A design generation device, characterized in that clustering by extracting a set number of representative colors.
제8항에 있어서,
상기 특징 추출부는,
상기 기준 이미지로부터 이미지 내 모든 물체의 외관 또는 골격에 관한 특징값을 추출하는 것을 특징으로 하는 디자인 생성장치.
The method of claim 8,
The feature extraction unit,
And extracting feature values for appearances or skeletons of all objects in the image from the reference image.
제8항에 있어서,
상기 특징 추출부는,
상기 참조 이미지로부터 이미지 내 질감(Texture) 또는 화법(畵法)에 관한 특징값을 추출하는 것을 특징으로 하는 디자인 생성장치.
The method of claim 8,
The feature extraction unit,
A design generating apparatus, characterized in that extracting a feature value related to a texture or speech method in an image from the reference image.
제8항에 있어서,
상기 특징 추출부는,
상기 임의의 이미지로부터 이미지 내 모든 물체의 외관 또는 골격에 관한 특징값과 이미지 내 질감 또는 화법에 관한 특징값 모두를 추출하는 것을 특징으로 하는 디자인 생성장치.
The method of claim 8,
The feature extraction unit,
And extracting both feature values related to appearances or skeletons of all objects in the image and feature values related to textures or speech methods in the image from the arbitrary image.
제8항에 있어서,
상기 제어부는,
상기 임의의 이미지의 특징값과 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치보다 큰 경우, 상기 이미지 생성부가 새로운 이미지를 생성하도록 제어하는 것을 특징으로 하는 디자인 생성장치.
The method of claim 8,
The control unit,
And when a difference between the feature value of the arbitrary image and the feature value of the reference image and the reference image is greater than a preset reference value, the image generator controls to generate a new image.
기준 이미지 및 참조 이미지를 입력받는 입력과정;
상기 참조 이미지에 대한 색상이 기설정된 개수로 군집화되도록 전처리를 수행하는 전처리 과정;
임의의 이미지를 생성하는 이미지 생성과정;
상기 입력과정에서 입력받은 기준 이미지와 참조 이미지 및 상기 이미지 생성에서 생성된 임의의 이미지 내에서의 특징값을 추출하는 추출과정;
상기 추출 과정에서 추출한 기준 이미지 및 참조 이미지의 특징값과 상기 임의의 이미지에서의 특징값을 비교하여 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치 이하인 임의의 이미지를 선택하는 선택과정; 및
상기 선택과정에서 선택된 이미지를 적용하고자 하는 대상의 디자인 포맷으로 변경하는 디자인 생성과정을 포함하되,
상기 전처리 과정은,
상기 참조 이미지의 각 화소에서의 색상공간을 CIELab 공간으로 변환하고, 상기 참조 이미지의 색상들을 색상 맵핑을 위해 신경망 기반의 맵 네트워크를 통해 맵핑하고, 상기 맵 네트워크의 노드에 부여된 가중치를 갱신하면서 기 설정된 개수의 대표색을 추출하여 군집화하는 것을 특징으로 하는 디자인 생성방법.
An input process of receiving a reference image and a reference image;
A pre-processing step of performing pre-processing so that colors for the reference image are clustered in a preset number;
An image generation process of generating an arbitrary image;
An extraction process of extracting a reference image and a reference image input in the input process, and feature values in a random image generated in the image generation;
A selection process of comparing the feature values of the reference image and the reference image extracted in the extraction process with the feature values of the random image, and selecting a random image whose difference between the feature values of the reference image and the reference image is less than or equal to a preset reference value ; And
Including a design creation process of changing the image selected in the selection process into a design format of the target to be applied,
The pretreatment process,
The color space in each pixel of the reference image is converted into a CIELab space, the colors of the reference image are mapped through a neural network-based map network for color mapping, and the weights assigned to the nodes of the map network are updated. A design generation method comprising extracting and clustering a set number of representative colors.
제13항에 있어서,
상기 이미지 생성과정은,
상기 임의의 이미지의 특징값과 상기 기준 이미지 및 참조 이미지의 특징값과의 차이가 기 설정된 기준치보다 큰 경우, 새로운 이미지를 생성하는 것을 특징으로 하는 디자인 생성방법.
The method of claim 13,
The image generation process,
And generating a new image when a difference between the feature value of the arbitrary image and the feature value of the reference image and the reference image is greater than a preset reference value.
KR1020190145492A 2019-11-14 2019-11-14 Apparatus and Method for Creating Design KR102156899B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190145492A KR102156899B1 (en) 2019-11-14 2019-11-14 Apparatus and Method for Creating Design

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190145492A KR102156899B1 (en) 2019-11-14 2019-11-14 Apparatus and Method for Creating Design

Publications (1)

Publication Number Publication Date
KR102156899B1 true KR102156899B1 (en) 2020-09-16

Family

ID=72669521

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190145492A KR102156899B1 (en) 2019-11-14 2019-11-14 Apparatus and Method for Creating Design

Country Status (1)

Country Link
KR (1) KR102156899B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220099304A (en) * 2021-01-06 2022-07-13 스냅태그 주식회사 Method for embedding and extraction of watermarking data
KR20230017638A (en) * 2021-07-28 2023-02-06 주식회사 디자이노블 Method for generating shoes design based on learned condition and apparatus thereof

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990025292A (en) * 1997-09-11 1999-04-06 정선종 An Effective Search Method of Image Database by Filtering Process
KR20040008792A (en) * 2002-07-19 2004-01-31 삼성전자주식회사 Method and system for face detecting using classifier learned decision boundary with face/near-face images
KR20090130829A (en) * 2008-06-16 2009-12-24 인텔 코오퍼레이션 Generating a challenge response image including a recognizable image
KR20130051549A (en) * 2011-11-10 2013-05-21 한국과학기술정보연구원 Intellectual property searching service method and system using an image search
KR20140134549A (en) * 2013-05-14 2014-11-24 삼성전자주식회사 Apparatus and Method for extracting peak image in continuously photographed image
KR20160041570A (en) * 2014-10-08 2016-04-18 한국과학기술연구원 Apparatus and method for generating montage, recording medium for performing the method
KR20160083127A (en) * 2013-11-30 2016-07-11 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Method and system for face image recognition
KR20180032949A (en) * 2016-09-23 2018-04-02 주식회사 모션크루 System and method for extracting feature value of digital video, and system and method for determining similarity of digital video using the feture value
KR20190009081A (en) * 2017-07-18 2019-01-28 네이버랩스 주식회사 Method and system for authoring ar content by collecting ar content templates based on crowdsourcing
KR20190036094A (en) * 2017-09-27 2019-04-04 주식회사 종달랩 Customized apparel materials recommendation and ordering system
KR20190078331A (en) * 2017-12-26 2019-07-04 주식회사 포스코 Method and apparatus for producing labeling image of microstructure using super-pixels
KR20190097612A (en) * 2018-02-12 2019-08-21 송우상 apparatus and method for generating designs based on images and text
KR20190119219A (en) * 2018-04-02 2019-10-22 카페24 주식회사 Main image recommendation method and apparatus, and system

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990025292A (en) * 1997-09-11 1999-04-06 정선종 An Effective Search Method of Image Database by Filtering Process
KR20040008792A (en) * 2002-07-19 2004-01-31 삼성전자주식회사 Method and system for face detecting using classifier learned decision boundary with face/near-face images
KR20090130829A (en) * 2008-06-16 2009-12-24 인텔 코오퍼레이션 Generating a challenge response image including a recognizable image
KR20130051549A (en) * 2011-11-10 2013-05-21 한국과학기술정보연구원 Intellectual property searching service method and system using an image search
KR20140134549A (en) * 2013-05-14 2014-11-24 삼성전자주식회사 Apparatus and Method for extracting peak image in continuously photographed image
KR20160083127A (en) * 2013-11-30 2016-07-11 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 Method and system for face image recognition
KR20160041570A (en) * 2014-10-08 2016-04-18 한국과학기술연구원 Apparatus and method for generating montage, recording medium for performing the method
KR20180032949A (en) * 2016-09-23 2018-04-02 주식회사 모션크루 System and method for extracting feature value of digital video, and system and method for determining similarity of digital video using the feture value
KR20190009081A (en) * 2017-07-18 2019-01-28 네이버랩스 주식회사 Method and system for authoring ar content by collecting ar content templates based on crowdsourcing
KR20190036094A (en) * 2017-09-27 2019-04-04 주식회사 종달랩 Customized apparel materials recommendation and ordering system
KR20190078331A (en) * 2017-12-26 2019-07-04 주식회사 포스코 Method and apparatus for producing labeling image of microstructure using super-pixels
KR20190097612A (en) * 2018-02-12 2019-08-21 송우상 apparatus and method for generating designs based on images and text
KR20190119219A (en) * 2018-04-02 2019-10-22 카페24 주식회사 Main image recommendation method and apparatus, and system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Cui, Yi Rui, et al. "Fashiongan: Display your fashion design using conditional generative adversarial nets." Computer Graphics Forum. Vol. 37. No. 7.(2018)* *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220099304A (en) * 2021-01-06 2022-07-13 스냅태그 주식회사 Method for embedding and extraction of watermarking data
KR102579261B1 (en) 2021-01-06 2023-09-15 스냅태그 주식회사 Method for embedding and extraction of watermarking data
KR20230017638A (en) * 2021-07-28 2023-02-06 주식회사 디자이노블 Method for generating shoes design based on learned condition and apparatus thereof
KR102702460B1 (en) 2021-07-28 2024-09-04 주식회사 디자이노블 Method for generating shoes design based on learned condition and apparatus thereof

Similar Documents

Publication Publication Date Title
Zhu et al. Learning cross-domain neural networks for sketch-based 3D shape retrieval
CN111489412A (en) Semantic image synthesis for generating substantially realistic images using neural networks
JP2019083002A (en) Improved font recognition using triplet loss neural network training
KR102156899B1 (en) Apparatus and Method for Creating Design
CN108694225A (en) A kind of image search method, the generation method of feature vector, device and electronic equipment
KR101939209B1 (en) Apparatus for classifying category of a text based on neural network, method thereof and computer recordable medium storing program to perform the method
CN113658100A (en) Three-dimensional target object detection method and device, electronic equipment and storage medium
CN108399213B (en) User-oriented personal file clustering method and system
JP2015197702A (en) Information processor and information processing method
US20170039470A1 (en) Factor extraction system and factor extraction method
KR20200071838A (en) Face recognition method and apparatus capable of face search using feature vector
US20220164380A1 (en) Enhanced image search via controllable attributes
CN108446605B (en) Double interbehavior recognition methods under complex background
KR102305575B1 (en) Method and system for highlighting similar areas using similarity between images
JP6311000B1 (en) Generating device, generating method, and generating program
CN113127697B (en) Method and system for optimizing graph layout, electronic device and readable storage medium
Martins et al. Evotype: evolutionary type design
KR102437193B1 (en) Apparatus and method for parallel deep neural networks trained by resized images with multiple scaling factors
JP7283554B2 (en) LEARNING DEVICE, LEARNING METHOD, AND PROGRAM
JPWO2018087814A1 (en) Multitask relationship learning system, method and program
WO2018203551A1 (en) Signal retrieval device, method, and program
CN112818997B (en) Image synthesis method, device, electronic equipment and computer readable storage medium
Tao et al. The discretization of continuous attributes based on improved SOM clustering
CN113822957B (en) Method and apparatus for synthesizing image
KR102580658B1 (en) Image conversion device and method for sketch-based object detection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant