KR20200112189A - System and method for generating image data for machine learning - Google Patents

System and method for generating image data for machine learning Download PDF

Info

Publication number
KR20200112189A
KR20200112189A KR1020190032266A KR20190032266A KR20200112189A KR 20200112189 A KR20200112189 A KR 20200112189A KR 1020190032266 A KR1020190032266 A KR 1020190032266A KR 20190032266 A KR20190032266 A KR 20190032266A KR 20200112189 A KR20200112189 A KR 20200112189A
Authority
KR
South Korea
Prior art keywords
image
metadata
background
generating
machine learning
Prior art date
Application number
KR1020190032266A
Other languages
Korean (ko)
Inventor
견종서
김명찬
송정희
유석
Original Assignee
(주)일마그나
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)일마그나 filed Critical (주)일마그나
Priority to KR1020190032266A priority Critical patent/KR20200112189A/en
Publication of KR20200112189A publication Critical patent/KR20200112189A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a system and a method for creating image data for machine training. The method comprises: receiving a first image which is an image including an object for object extraction and a second image which is an image serving as a background; extracting an object and metadata from the first image; saving the extracted object and the extracted metadata in an object library; creating a plurality of modified objects by modifying the metadata of the extracted object; creating a plurality of modified backgrounds by modifying the metadata of the background of the second image; and synthesizing at least one of the plurality of modified objects and one of the plurality of modified backgrounds to create a result image.

Description

기계학습용 이미지 데이터 생성 시스템 및 방법{SYSTEM AND METHOD FOR GENERATING IMAGE DATA FOR MACHINE LEARNING}System and method for generating image data for machine learning {SYSTEM AND METHOD FOR GENERATING IMAGE DATA FOR MACHINE LEARNING}

이하의 일 실시 예들은 기계학습용 이미지 데이터를 생성하는 시스템 및 방법에 관한 것이다. The following embodiments relate to a system and method for generating image data for machine learning.

딥러닝 등 기계학습에는 양질의 그리고 다량이 데이터가 필요하다. 일부 데이터는 연구용으로 공개되어 있지만, 데이터의 결여 또는 부족으로 인해 기계학습을 적용하지 못하게 되는 경우가 빈번하다. Machine learning such as deep learning requires high quality and large amounts of data. Some data are open for research, but there are frequent cases where machine learning cannot be applied due to lack or lack of data.

따라서, 소량의 데이터로부터 양질의 그리고 다량의 학습용 데이터를 생성하는 방법이 요구된다.Therefore, there is a need for a method of generating high-quality and large amounts of learning data from a small amount of data.

본 발명은 상기와 같은 종래 기술의 문제점을 해결하고자 도출된 것으로서, 기계학습용 이미지 데이터를 생성하는 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention was derived to solve the problems of the prior art as described above, and an object of the present invention is to provide a system and method for generating image data for machine learning.

구체적으로, 본 발명은 소량의 데이터로부터 양질의 그리고 다량의 학습용 이미지 데이터를 생성하는 시스템 및 방법을 제공하는 것을 목적으로 한다.Specifically, an object of the present invention is to provide a system and method for generating high-quality and large amounts of image data for learning from a small amount of data.

또한, 본 발명은 오브젝트 이미지와 배경 이미지를 수신하고, 이를 변형 조합 하여서 다량의 기계학습용 이미지 데이터를 생성하는 시스템 및 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a system and method for generating a large amount of image data for machine learning by receiving an object image and a background image, and transforming and combining them.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시 예에 따른 기계학습용 이미지 데이터 생성 시스템은, 오브젝트 추출을 위한 오브젝트가 포함된 이미지인 제1 이미지와 배경 역할을 하는 이미지인 제2 이미지를 수신하고, 상기 제1 이미지에서 오브젝트와 메타데이터를 추출하고, 추출된 오브젝트와 추출된 메타데이터를 오브젝트 라이브러리에 저장하고, 상기 제2 이미지의 배경을 배경 라이브러리에 저장하는 특성 추출 엔진부; 상기 추출된 오브젝트의 메타데이터를 변경해서 다수의 변형된 오브젝트를 생성하는 오브젝트 전처리부; 상기 제2 이미지의 배경의 메타데이터를 변경해서 다수의 변형된 배경을 생성하는 배경 전처리부; 및 상기 다수의 변형된 오브젝트 중 적어도 하나와 상기 다수의 변형된 배경 중 하나를 합성해서 결과 이미지를 생성하는 이미지 합성 엔진부를 포함한다.In order to achieve the above object, the system for generating image data for machine learning according to an embodiment of the present invention receives a first image that is an image including an object for object extraction and a second image that is an image that serves as a background. And a feature extraction engine unit for extracting an object and metadata from the first image, storing the extracted object and the extracted metadata in an object library, and storing a background of the second image in a background library; An object preprocessor configured to generate a plurality of transformed objects by changing metadata of the extracted object; A background preprocessor for generating a plurality of modified backgrounds by changing the metadata of the background of the second image; And an image synthesis engine unit for generating a result image by synthesizing at least one of the plurality of transformed objects and one of the plurality of transformed backgrounds.

이때, 상기 추출된 메타데이터는, 상기 추출된 오브젝트의 유형, 상기 추출된 오브젝트의 크기 및 상기 제1 이미지의 조도 정보 중에서 적어도 하나를 포함할 수 있다.In this case, the extracted metadata may include at least one of a type of the extracted object, a size of the extracted object, and illumination information of the first image.

이때, 상기 오브젝트 전처리부는, 상기 추출된 오브젝트의 메타데이터와 상기 제2 이미지의 배경의 메타데이터에 특수효과 라이브러리에 저장된 특수 효과를 적용할 수 있다.In this case, the object preprocessor may apply a special effect stored in a special effect library to metadata of the extracted object and metadata of a background of the second image.

이때, 상기 오브젝트 전처리부는, 상기 추출된 오브젝트의 위상을 변형 또는 광원을 조정하여, 상기 다수의 변형된 오브젝트를 생성할 수 있다.In this case, the object preprocessor may generate the plurality of transformed objects by transforming a phase of the extracted object or adjusting a light source.

이때, 상기 이미지 합성 엔진부는, 상기 다수의 변형된 오브젝트 각각의 메타데이터와 상기 다수의 변형된 배경 각각의 메타데이터를 참조해서 조합 가능한 변형된 오브젝트와 변형된 배경을 식별하고, 상기 조합 가능한 변형된 오브젝트와 변형된 배경을 합성하여 상기 결과 이미지를 생성할 수 있다.In this case, the image synthesis engine unit identifies a deformed object that can be combined and a deformed background by referring to the metadata of each of the plurality of deformed objects and the metadata of each of the plurality of deformed backgrounds, and The resulting image may be generated by synthesizing the object and the transformed background.

이때, 상기 이미지 합성 엔진부는, GAN(Generative Adversarial Network) 알고리즘을 응용한 합성엔진을 통해서 상기 결과 이미지를 생성할 수 있다.In this case, the image synthesis engine unit may generate the resultant image through a synthesis engine to which a Generative Adversarial Network (GAN) algorithm is applied.

본 발명의 일 실시 예에 따른 기계학습용 이미지 데이터를 생성하는 방법은, 오브젝트 추출을 위한 오브젝트가 포함된 이미지인 제1 이미지와 배경 역할을 하는 이미지인 제2 이미지를 수신하는 단계; 상기 제1 이미지에서 오브젝트와 메타데이터를 추출하고, 추출된 오브젝트와 추출된 메타데이터를 오브젝트 라이브러리에 저장하는 단계; 상기 제2 이미지의 배경을 배경 라이브러리에 저장하는 단계; 상기 추출된 오브젝트의 메타데이터를 변경해서 다수의 변형된 오브젝트를 생성하는 단계; 상기 제2 이미지의 배경의 메타데이터를 변경해서 다수의 변형된 배경을 생성하는 단계; 및 상기 다수의 변형된 오브젝트 중 적어도 하나와 상기 다수의 변형된 배경 중 하나를 합성해서 결과 이미지를 생성하는 단계를 포함한다.A method of generating image data for machine learning according to an embodiment of the present invention includes: receiving a first image that is an image including an object for object extraction and a second image that is an image that serves as a background; Extracting an object and metadata from the first image, and storing the extracted object and the extracted metadata in an object library; Storing the background of the second image in a background library; Generating a plurality of transformed objects by changing metadata of the extracted object; Generating a plurality of modified backgrounds by changing metadata of a background of the second image; And generating a result image by synthesizing at least one of the plurality of deformed objects and one of the plurality of deformed backgrounds.

이때, 상기 추출된 메타데이터는, 상기 추출된 오브젝트의 유형, 상기 추출된 오브젝트의 크기 및 상기 제1 이미지의 조도 정보 중에서 적어도 하나를 포함할 수 있다.In this case, the extracted metadata may include at least one of a type of the extracted object, a size of the extracted object, and illumination information of the first image.

이때, 상기 다수의 변형된 오브젝트를 생성하는 단계와 상기 다수의 변형된 배경을 생성하는 단계는, 상기 추출된 오브젝트의 메타데이터와 상기 제2 이미지의 배경의 메타데이터에 특수효과 라이브러리에 저장된 특수 효과를 적용할 수 있다.In this case, the generating of the plurality of deformed objects and the generating of the plurality of deformed backgrounds include special effects stored in a special effect library in metadata of the extracted object and metadata of the background of the second image. Can be applied.

이때, 상기 다수의 변형된 오브젝트를 생성하는 단계는, 상기 추출된 오브젝트의 위상을 변형 또는 광원을 조정하여, 상기 다수의 변형된 오브젝트를 생성할 수 있다.In this case, in the step of generating the plurality of transformed objects, the plurality of transformed objects may be generated by transforming the phase of the extracted object or adjusting a light source.

이때, 상기 결과 이미지를 생성하는 단계는, 상기 다수의 변형된 오브젝트 각각의 메타데이터와 상기 다수의 변형된 배경 각각의 메타데이터를 참조해서 조합 가능한 변형된 오브젝트와 변형된 배경을 식별하는 단계; 및 상기 조합 가능한 변형된 오브젝트와 변형된 배경을 합성하여 상기 결과 이미지를 생성하는 단계를 포함할 수 있다.In this case, the step of generating the resulting image may include identifying a deformed object and a deformed background that can be combined by referring to metadata of each of the plurality of deformed objects and metadata of each of the plurality of deformed backgrounds; And generating the resulting image by synthesizing the combinable transformed object and the transformed background.

이때, 상기 결과 이미지를 생성하는 단계는, GAN(Generative Adversarial Network) 알고리즘을 응용한 합성엔진을 통해서 상기 결과 이미지를 생성할 수 있다.In this case, in the step of generating the result image, the result image may be generated through a synthesis engine to which a Generative Adversarial Network (GAN) algorithm is applied.

본 발명은 오브젝트 이미지와 배경 이미지를 수신하고, 이를 변형 조합하여서 다량의 기계학습용 이미지 데이터를 생성함으로써, 부족한 기계학습용 데이터를 제공할 수 있다.The present invention receives an object image and a background image and transforms and combines them to generate a large amount of machine learning image data, thereby providing insufficient machine learning data.

도 1은 본 발명의 일 실시 예에 따른 기계학습용 이미지 데이터 생성 시스템의 개략적인 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 기계학습용 이미지 데이터 생성 시스템에서 기계학습용 이미지 데이터를 생성하는 과정을 도시한 흐름도이다.
1 is a diagram showing a schematic configuration of a system for generating image data for machine learning according to an embodiment of the present invention.
2 is a flowchart illustrating a process of generating image data for machine learning in a system for generating image data for machine learning according to an embodiment of the present invention.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in the present specification are exemplified only for the purpose of describing the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention can apply various changes and have various forms, the embodiments will be illustrated in the drawings and described in detail in the present specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes changes, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of rights according to the concept of the present invention, the first component may be named as the second component, Similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle. Expressions describing the relationship between components, for example, "between" and "just between" or "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate as being implemented features, numbers, steps, actions, components, parts, or a combination thereof, but one or more other features or numbers, It is to be understood that the presence or addition of steps, actions, components, parts, or combinations thereof, does not preclude the possibility of preliminary exclusion.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this specification. Does not.

이하, 실시 예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. The same reference numerals in each drawing indicate the same members.

이하에서는, 본 발명의 일 실시 예에 따른 기계학습용 이미지 데이터 생성 시스템 및 방법을 첨부된 도 1 내지 도 2를 참조하여 상세히 설명한다.Hereinafter, a system and method for generating image data for machine learning according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 2.

도 1은 본 발명의 일 실시 예에 따른 기계학습용 이미지 데이터 생성 시스템의 개략적인 구성을 도시한 도면이다.1 is a diagram showing a schematic configuration of a system for generating image data for machine learning according to an embodiment of the present invention.

도 1을 참조하면, 기계학습용 이미지 데이터 생성 시스템은 특성 추출 엔진부(110), 오브젝트 전처리부(120), 배경 전처리부(130), 이미지 합성 엔진부(140), 특수 효과 라이브러리(150), 합성 규칙 라이브러리(160) 및 결과 이미지 데이터 DB(170)를 포함할 수 있다.Referring to FIG. 1, the image data generation system for machine learning includes a feature extraction engine unit 110, an object preprocessor 120, a background preprocessor 130, an image synthesis engine unit 140, a special effect library 150, and A synthesis rule library 160 and result image data DB 170 may be included.

특성 추출 엔진부(110)는 오브젝트(Object) 추출을 위한 오브젝트가 포함된 이미지인 제1 이미지와 배경 역할을 하는 이미지인 제2 이미지를 수신하고, 제1 이미지에서 오브젝트와 메타데이터를 추출하고, 추출된 오브젝트와 추출된 메타데이터를 오브젝트 라이브러리에 저장하고, 제2 이미지의 배경을 배경 라이브러리에 저장할 수 있다. 이때, 추출된 메타데이터는 추출된 오브젝트의 유형, 추출된 오브젝트의 크기 및 제1 이미지의 조도 정보 중에서 적어도 하나를 포함할 수 있다.The feature extraction engine unit 110 receives a first image, which is an image including an object for extracting an object, and a second image, which is an image serving as a background, extracts the object and metadata from the first image, The extracted object and the extracted metadata may be stored in the object library, and the background of the second image may be stored in the background library. In this case, the extracted metadata may include at least one of the type of the extracted object, the size of the extracted object, and illumination information of the first image.

오브젝트 라이브러리는 결과 이미지에 추가할 오브젝트 원본들을 저장한다. 예를 들어, 사람, 자동차, 동물, 번호판 등 기계학습을 통해 식별해야 하는 대상 오브젝트들을 저장할 수 있다.The object library stores the original objects to be added to the resulting image. For example, objects to be identified through machine learning, such as people, cars, animals, and license plates, can be stored.

배경 이미지 라이브러리는 결과 이미지 생성에 사용할 배경 이미지 원본들을 저장한다. 예를 들어, 도시풍경, 바다풍경, 밤 풍경, 낮 풍경 등 식별대상 오브젝트들의 배경의 역할을 할 이미지들을 저장할 수 있다.The background image library stores the original background image to be used for generating the resulting image. For example, images to serve as backgrounds of objects to be identified, such as city scenery, sea scenery, night scenery, and day scenery, may be stored.

오브젝트 전처리부(120)는 추출된 오브젝트의 메타데이터를 변경해서 다수의 변형된 오브젝트를 생성할 수 있다.The object preprocessor 120 may generate a plurality of transformed objects by changing metadata of the extracted object.

오브젝트 전처리부(120)는 추출된 오브젝트의 메타데이터와 제2 이미지의 배경의 메타데이터에 특수 효과 라이브러리(150)에 저장된 특수 효과를 적용하여 다수의 변형된 오브젝트를 생성할 수 있다. The object preprocessor 120 may generate a plurality of transformed objects by applying a special effect stored in the special effect library 150 to the extracted metadata of the object and the metadata of the background of the second image.

또한, 오브젝트 전처리부(120)는 추출된 오브젝트의 위상을 변형 또는 광원을 조정하여, 다수의 변형된 오브젝트를 생성할 수 있다.Also, the object preprocessor 120 may generate a plurality of transformed objects by transforming a phase of the extracted object or adjusting a light source.

배경 전처리부(130)는 제2 이미지의 배경의 메타데이터를 변경해서 다수의 변형된 배경을 생성할 수 있다.The background preprocessor 130 may generate a plurality of modified backgrounds by changing metadata of the background of the second image.

이미지 합성 엔진부(140)는 다수의 변형된 오브젝트 중 적어도 하나와 다수의 변형된 배경 중 하나를 합성해서 결과 이미지를 생성한다.The image synthesis engine unit 140 generates a result image by synthesizing at least one of a plurality of transformed objects and one of a plurality of transformed backgrounds.

이미지 합성 엔진부(140)는 다수의 변형된 오브젝트 각각의 메타데이터와 다수의 변형된 배경 각각의 메타데이터를 참조해서 조합 가능한 최적의 변형된 오브젝트와 변형된 배경을 식별하고, 조합 가능한 변형된 오브젝트와 변형된 배경을 합성 규칙 라이브러리(160)의 합성 규칙을 기반으로 합성하여 결과 이미지를 생성하고, 생성된 결과 이미지를 결과 이미지 데이터 DB(170)에 저장할 수 있다.The image synthesis engine unit 140 identifies the optimal deformed object and deformed background that can be combined by referring to the metadata of each of the plurality of deformed objects and the metadata of each of the deformed backgrounds, and the deformed object that can be combined And the transformed background may be synthesized based on the synthesis rule of the synthesis rule library 160 to generate a result image, and the generated result image may be stored in the result image data DB 170.

이미지 합성 엔진부(140)는 GAN(Generative Adversarial Network) 알고리즘을 응용한 합성엔진을 통해서 결과 이미지를 생성할 수 있다.The image synthesis engine unit 140 may generate a result image through a synthesis engine to which a Generative Adversarial Network (GAN) algorithm is applied.

이하, 상기와 같이 구성된 본 발명에 따른 방법을 아래에서 도면을 참조하여 설명한다.Hereinafter, a method according to the present invention configured as described above will be described with reference to the drawings.

도 2는 본 발명의 일 실시 예에 따른 기계학습용 이미지 데이터 생성 시스템에서 기계학습용 이미지 데이터를 생성하는 과정을 도시한 흐름도이다.2 is a flowchart illustrating a process of generating image data for machine learning in a system for generating image data for machine learning according to an embodiment of the present invention.

도 2를 참조하면,2,

기계학습용 이미지 데이터 생성 시스템은 오브젝트 추출을 위한 오브젝트가 포함된 이미지인 제1 이미지와 배경 역할을 하는 이미지인 제2 이미지를 수신한다(210).The machine learning image data generation system receives a first image, which is an image including an object for object extraction, and a second image, which is an image serving as a background (210).

그리고, 기계학습용 이미지 데이터 생성 시스템은 제1 이미지에서 오브젝트와 메타데이터를 추출하고, 추출된 오브젝트와 추출된 메타데이터를 오브젝트 라이브러리에 저장한다(220). 여기서, 추출된 메타데이터는 추출된 오브젝트의 유형, 추출된 오브젝트의 크기 및 제1 이미지의 조도 정보 중에서 적어도 하나를 포함할 수 있다.Then, the machine learning image data generation system extracts the object and metadata from the first image, and stores the extracted object and the extracted metadata in the object library (220). Here, the extracted metadata may include at least one of the type of the extracted object, the size of the extracted object, and illumination information of the first image.

그리고, 기계학습용 이미지 데이터 생성 시스템은 제2 이미지의 배경을 배경 라이브러리에 저장한다(230).In addition, the machine learning image data generation system stores the background of the second image in the background library (230).

220단계와 230단계는 병렬로 동시에 수행될 수도 있고, 순차적으로 수행될 수도 있다. 이때 순서는 220단계 이후 230단계가 수행될 수도 있지만, 230단계 이후 220단계가 수행될 수도 있다.Steps 220 and 230 may be performed simultaneously in parallel or may be performed sequentially. In this case, step 230 may be performed after step 220, but step 220 may be performed after step 230.

그리고, 기계학습용 이미지 데이터 생성 시스템은 추출된 오브젝트의 메타데이터를 변경해서 다수의 변형된 오브젝트를 생성한다(240).In addition, the machine learning image data generation system generates a plurality of transformed objects by changing the metadata of the extracted object (240).

240단계는 추출된 오브젝트의 위상을 변형 또는 광원을 조정하여, 다수의 변형된 오브젝트를 생성할 수 있다.In operation 240, a plurality of transformed objects may be generated by transforming a phase of the extracted object or adjusting a light source.

그리고, 기계학습용 이미지 데이터 생성 시스템은 제2 이미지의 배경의 메타데이터를 변경해서 다수의 변형된 배경을 생성한다(250).In addition, the machine learning image data generation system generates a plurality of modified backgrounds by changing the metadata of the background of the second image (250).

240단계와 250단계는 병렬로 동시에 수행될 수도 있고, 순차적으로 수행될 수도 있다. 이때 순서는 240단계 이후 250단계가 수행될 수도 있지만, 250단계 이후 240단계가 수행될 수도 있다.Steps 240 and 250 may be performed simultaneously in parallel or may be sequentially performed. In this case, step 240 may be performed after step 240, but step 240 may be performed after step 250.

240단계와 250단계는 추출된 오브젝트의 메타데이터와 제2 이미지의 배경의 메타데이터에 특수효과 라이브러리에 저장된 특수 효과를 적용하여 생성될 수 있다.Steps 240 and 250 may be generated by applying the special effect stored in the special effect library to the metadata of the extracted object and the background of the second image.

그리고, 기계학습용 이미지 데이터 생성 시스템은 다수의 변형된 오브젝트 중 적어도 하나와 다수의 변형된 배경 중 하나를 합성해서 결과 이미지를 생성한다(260).In addition, the machine learning image data generation system generates a result image by synthesizing at least one of a plurality of transformed objects and one of a plurality of transformed backgrounds (260).

260단계는 다수의 변형된 오브젝트 각각의 메타데이터와 다수의 변형된 배경 각각의 메타데이터를 참조해서 조합 가능한 변형된 오브젝트와 변형된 배경을 식별하고, 조합 가능한 변형된 오브젝트와 변형된 배경을 합성하여 결과 이미지를 생성할 수 있다.Step 260 refers to the meta data of each of the plurality of transformed objects and the meta data of each of the plurality of transformed backgrounds, identifies the transformed object that can be combined and the transformed background, and synthesizes the transformed object that can be combined and the transformed background The resulting image can be generated.

260단계는 GAN(Generative Adversarial Network) 알고리즘을 응용한 합성엔진을 통해서 결과 이미지를 생성할 수 있다.In step 260, a resultant image may be generated through a synthesis engine to which a Generative Adversarial Network (GAN) algorithm is applied.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. Devices and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU). unit), a microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known to and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description to those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and those equivalent to the claims also fall within the scope of the claims to be described later.

110; 특성 추출 엔진부
120; 오브젝트 전처리부
130; 배경 전처리부
140; 이미지 합성 엔진부
150; 특수 효과 라이브러리
160; 합성 규칙 라이브러리
170; 결과 이미지 데이터 DB
110; Feature extraction engine part
120; Object preprocessor
130; Background preprocessor
140; Image synthesis engine unit
150; Special effects library
160; Synthesis rule library
170; Result image data DB

Claims (13)

오브젝트 추출을 위한 오브젝트가 포함된 이미지인 제1 이미지와 배경 역할을 하는 이미지인 제2 이미지를 수신하고, 상기 제1 이미지에서 오브젝트와 메타데이터를 추출하고, 추출된 오브젝트와 추출된 메타데이터를 오브젝트 라이브러리에 저장하고, 상기 제2 이미지의 배경을 배경 라이브러리에 저장하는 특성 추출 엔진부;
상기 추출된 오브젝트의 메타데이터를 변경해서 다수의 변형된 오브젝트를 생성하는 오브젝트 전처리부;
상기 제2 이미지의 배경의 메타데이터를 변경해서 다수의 변형된 배경을 생성하는 배경 전처리부; 및
상기 다수의 변형된 오브젝트 중 적어도 하나와 상기 다수의 변형된 배경 중 하나를 합성해서 결과 이미지를 생성하는 이미지 합성 엔진부
를 포함하는 기계학습용 이미지 데이터 생성 시스템.
Receives a first image, which is an image containing an object for object extraction, and a second image, which is an image serving as a background, extracts an object and metadata from the first image, and uses the extracted object and the extracted metadata as an object. A feature extraction engine unit that stores the background in a library and stores the background of the second image in a background library;
An object preprocessor configured to generate a plurality of transformed objects by changing metadata of the extracted object;
A background preprocessor for generating a plurality of modified backgrounds by changing the metadata of the background of the second image; And
An image synthesis engine unit that generates a result image by synthesizing at least one of the plurality of transformed objects and one of the plurality of transformed backgrounds
Machine learning image data generation system comprising a.
제1항에 있어서,
상기 추출된 메타데이터는,
상기 추출된 오브젝트의 유형, 상기 추출된 오브젝트의 크기 및 상기 제1 이미지의 조도 정보 중에서 적어도 하나를 포함하는
기계학습용 이미지 데이터 생성 시스템.
The method of claim 1,
The extracted metadata,
Including at least one of the type of the extracted object, the size of the extracted object, and illumination information of the first image
Image data generation system for machine learning.
제1항에 있어서,
상기 오브젝트 전처리부는,
상기 추출된 오브젝트의 메타데이터와 상기 제2 이미지의 배경의 메타데이터에 특수효과 라이브러리에 저장된 특수 효과를 적용하는
기계학습용 이미지 데이터 생성 시스템.
The method of claim 1,
The object preprocessing unit,
Applying a special effect stored in a special effect library to the metadata of the extracted object and the metadata of the background of the second image
Image data generation system for machine learning.
제1항에 있어서,
상기 오브젝트 전처리부는,
상기 추출된 오브젝트의 위상을 변형 또는 광원을 조정하여, 상기 다수의 변형된 오브젝트를 생성하는
기계학습용 이미지 데이터 생성 시스템.
The method of claim 1,
The object preprocessing unit,
Transforming the phase of the extracted object or adjusting the light source to generate the plurality of transformed objects
Image data generation system for machine learning.
제1항에 있어서,
상기 이미지 합성 엔진부는,
상기 다수의 변형된 오브젝트 각각의 메타데이터와 상기 다수의 변형된 배경 각각의 메타데이터를 참조해서 조합 가능한 변형된 오브젝트와 변형된 배경을 식별하고, 상기 조합 가능한 변형된 오브젝트와 변형된 배경을 합성하여 상기 결과 이미지를 생성하는
기계학습용 이미지 데이터 생성 시스템.
The method of claim 1,
The image synthesis engine unit,
By referring to the metadata of each of the plurality of deformed objects and the metadata of each of the plurality of deformed backgrounds, the deformed object and the deformed background that can be combined are identified, and the deformed object and the deformed background that can be combined are synthesized. To generate the resulting image
Image data generation system for machine learning.
제1항에 있어서,
상기 이미지 합성 엔진부는,
GAN(Generative Adversarial Network) 알고리즘을 응용한 합성엔진을 통해서 상기 결과 이미지를 생성하는
기계학습용 이미지 데이터 생성 시스템.
The method of claim 1,
The image synthesis engine unit,
Generating the resulting image through a synthesis engine applying GAN (Generative Adversarial Network) algorithm
Image data generation system for machine learning.
오브젝트 추출을 위한 오브젝트가 포함된 이미지인 제1 이미지와 배경 역할을 하는 이미지인 제2 이미지를 수신하는 단계;
상기 제1 이미지에서 오브젝트와 메타데이터를 추출하고, 추출된 오브젝트와 추출된 메타데이터를 오브젝트 라이브러리에 저장하는 단계;
상기 제2 이미지의 배경을 배경 라이브러리에 저장하는 단계;
상기 추출된 오브젝트의 메타데이터를 변경해서 다수의 변형된 오브젝트를 생성하는 단계;
상기 제2 이미지의 배경의 메타데이터를 변경해서 다수의 변형된 배경을 생성하는 단계; 및
상기 다수의 변형된 오브젝트 중 적어도 하나와 상기 다수의 변형된 배경 중 하나를 합성해서 결과 이미지를 생성하는 단계
를 포함하는 기계학습용 이미지 데이터를 생성하는 방법.
Receiving a first image that is an image including an object for object extraction and a second image that is an image that serves as a background;
Extracting an object and metadata from the first image, and storing the extracted object and the extracted metadata in an object library;
Storing the background of the second image in a background library;
Generating a plurality of transformed objects by changing metadata of the extracted object;
Generating a plurality of modified backgrounds by changing metadata of a background of the second image; And
Generating a result image by combining at least one of the plurality of transformed objects and one of the plurality of transformed backgrounds
Method for generating image data for machine learning comprising a.
제7항에 있어서,
상기 추출된 메타데이터는,
상기 추출된 오브젝트의 유형, 상기 추출된 오브젝트의 크기 및 상기 제1 이미지의 조도 정보 중에서 적어도 하나를 포함하는
기계학습용 이미지 데이터를 생성하는 방법.
The method of claim 7,
The extracted metadata,
Including at least one of the type of the extracted object, the size of the extracted object, and illumination information of the first image
How to generate image data for machine learning.
제7항에 있어서,
상기 다수의 변형된 오브젝트를 생성하는 단계와 상기 다수의 변형된 배경을 생성하는 단계는,
상기 추출된 오브젝트의 메타데이터와 상기 제2 이미지의 배경의 메타데이터에 특수효과 라이브러리에 저장된 특수 효과를 적용하는
기계학습용 이미지 데이터를 생성하는 방법.
The method of claim 7,
Generating the plurality of transformed objects and generating the plurality of transformed backgrounds,
Applying a special effect stored in a special effect library to the metadata of the extracted object and the metadata of the background of the second image
How to generate image data for machine learning.
제7항에 있어서,
상기 다수의 변형된 오브젝트를 생성하는 단계는,
상기 추출된 오브젝트의 위상을 변형 또는 광원을 조정하여, 상기 다수의 변형된 오브젝트를 생성하는
기계학습용 이미지 데이터를 생성하는 방법.
The method of claim 7,
Generating the plurality of transformed objects,
Transforming the phase of the extracted object or adjusting the light source to generate the plurality of transformed objects
How to generate image data for machine learning.
제7항에 있어서,
상기 결과 이미지를 생성하는 단계는,
상기 다수의 변형된 오브젝트 각각의 메타데이터와 상기 다수의 변형된 배경 각각의 메타데이터를 참조해서 조합 가능한 변형된 오브젝트와 변형된 배경을 식별하는 단계; 및
상기 조합 가능한 변형된 오브젝트와 변형된 배경을 합성하여 상기 결과 이미지를 생성하는 단계
를 포함하는 기계학습용 이미지 데이터를 생성하는 방법.
The method of claim 7,
The step of generating the resulting image,
Identifying a deformed object and a deformed background that can be combined by referring to the metadata of each of the plurality of deformed objects and the metadata of each of the plurality of deformed backgrounds; And
Generating the resulting image by synthesizing the combinable transformed object and the transformed background
Method for generating image data for machine learning comprising a.
제7항에 있어서,
상기 결과 이미지를 생성하는 단계는,
GAN(Generative Adversarial Network) 알고리즘을 응용한 합성엔진을 통해서 상기 결과 이미지를 생성하는
기계학습용 이미지 데이터를 생성하는 방법.
The method of claim 7,
The step of generating the resulting image,
Generating the resulting image through a synthesis engine applying GAN (Generative Adversarial Network) algorithm
How to generate image data for machine learning.
제7항 내지 제12항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.13. A computer-readable recording medium having a program recorded thereon for executing the method of any one of claims 7 to 12.
KR1020190032266A 2019-03-21 2019-03-21 System and method for generating image data for machine learning KR20200112189A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190032266A KR20200112189A (en) 2019-03-21 2019-03-21 System and method for generating image data for machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190032266A KR20200112189A (en) 2019-03-21 2019-03-21 System and method for generating image data for machine learning

Publications (1)

Publication Number Publication Date
KR20200112189A true KR20200112189A (en) 2020-10-05

Family

ID=72809201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190032266A KR20200112189A (en) 2019-03-21 2019-03-21 System and method for generating image data for machine learning

Country Status (1)

Country Link
KR (1) KR20200112189A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220079209A (en) * 2020-12-04 2022-06-13 동의대학교 산학협력단 Device and Method for Deep Learning CMS Dataset Construction Using Rotation Apparatus
KR102478954B1 (en) 2022-06-24 2022-12-20 주식회사 스튜디오레논 Digital contents generation device for nft minting based on artificial intelligence, its control method and generation system
KR20230102698A (en) * 2021-12-30 2023-07-07 서울과학기술대학교 산학협력단 Device for synthesizing image using adversarial generative neural network

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220079209A (en) * 2020-12-04 2022-06-13 동의대학교 산학협력단 Device and Method for Deep Learning CMS Dataset Construction Using Rotation Apparatus
KR20230102698A (en) * 2021-12-30 2023-07-07 서울과학기술대학교 산학협력단 Device for synthesizing image using adversarial generative neural network
KR102478954B1 (en) 2022-06-24 2022-12-20 주식회사 스튜디오레논 Digital contents generation device for nft minting based on artificial intelligence, its control method and generation system

Similar Documents

Publication Publication Date Title
WO2021052224A1 (en) Video generation method and apparatus, electronic device, and computer storage medium
KR102107709B1 (en) Spatial transformer modules
US11487999B2 (en) Spatial-temporal reasoning through pretrained language models for video-grounded dialogues
KR20200112189A (en) System and method for generating image data for machine learning
KR102192211B1 (en) Efficient Generative Adversarial Networks using Depthwise Separable and Channel Attention for Image to Image Translation
CN107909114B (en) Method and apparatus for training supervised machine learning models
KR20190076212A (en) Method and apparatus of providing deep learning development platform based on container using docker
CN115004299A (en) Classifying audio scenes using composite image features
JP2015215890A (en) Image processing method and apparatus
CN107862387B (en) Method and apparatus for training supervised machine learning models
CN114968612B (en) Data processing method, system and related equipment
EP2988268B1 (en) Rendergraph compilation and use thereof for low-latency execution
KR20220092086A (en) Retargetimg method of 3d character facial expression and neural network learning method of thereof
US11170550B2 (en) Facial animation retargeting using an anatomical local model
US20230325716A1 (en) Pre-training service system and service providing method based on pre-training service system
KR101743868B1 (en) Method and system for image processing
KR20200112191A (en) System and method for generating 3d object by mapping 3d texture to 2d object in video automatically
Le et al. An opencl-based sift accelerator for image features extraction on fpga in mobile edge computing environment
US20160253775A1 (en) Methods and systems for designing correlation filter
Xue et al. Removing watermarks for image processing networks via referenced subspace attention
KR20170101575A (en) Method and apparatus for converting virtual reality contents
KR102650511B1 (en) Apparatus and method for generating redesign auxiliary information for upcycling
Yang et al. Improved word-level lipreading with temporal shrinkage network and netvlad
KR20160036995A (en) Method and device of speech signal preprocessing
KR20230090485A (en) Image restoration method using segmentation loss