KR102641358B1 - Apparatus and method for domain adaptation of image - Google Patents

Apparatus and method for domain adaptation of image Download PDF

Info

Publication number
KR102641358B1
KR102641358B1 KR1020210148255A KR20210148255A KR102641358B1 KR 102641358 B1 KR102641358 B1 KR 102641358B1 KR 1020210148255 A KR1020210148255 A KR 1020210148255A KR 20210148255 A KR20210148255 A KR 20210148255A KR 102641358 B1 KR102641358 B1 KR 102641358B1
Authority
KR
South Korea
Prior art keywords
features
domain
image
content
style
Prior art date
Application number
KR1020210148255A
Other languages
Korean (ko)
Other versions
KR20230063227A (en
Inventor
임성훈
이승훈
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020210148255A priority Critical patent/KR102641358B1/en
Publication of KR20230063227A publication Critical patent/KR20230063227A/en
Application granted granted Critical
Publication of KR102641358B1 publication Critical patent/KR102641358B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 이미지 도메인 적응 장치 및 방법에 관한 것으로서, 구체적으로 이미지의 도메인을 변형하는 기술에 관한 것이다. 본 발명의 일 실시예에 따른 이미지 도메인 적응 장치는, 소스 도메인의 이미지로부터 특징들(제1 특징들)을 추출하고, 타겟 도메인의 이미지로부터 특징들(제2 특징들)을 추출하는 인코더; 제1 특징들 중 스타일 특징들을 분리하고, 제2 특징들 중 컨텐트 특징들을 분리하는 분리기; 및 스타일 특징들 및 컨텐트 특징들을 기반으로 타겟 도메인의 이미지를 소스 도메인의 이미지로 재구성하는 이미지 생성부;를 포함할 수 있다.The present invention relates to an image domain adaptation apparatus and method, and specifically to a technique for modifying the domain of an image. An image domain adaptation apparatus according to an embodiment of the present invention includes an encoder that extracts features (first features) from an image of a source domain and extracts features (second features) from an image of a target domain; a separator that separates style features among the first features and content features among the second features; and an image generator that reconstructs an image of the target domain into an image of the source domain based on style features and content features.

Description

이미지 도메인 적응 장치 및 방법{APPARATUS AND METHOD FOR DOMAIN ADAPTATION OF IMAGE}Image domain adaptation apparatus and method {APPARATUS AND METHOD FOR DOMAIN ADAPTATION OF IMAGE}

본 발명은 이미지 도메인 적응 장치 및 방법에 관한 것으로서, 구체적으로 이미지의 도메인을 변형하는 기술에 관한 것이다. The present invention relates to an image domain adaptation apparatus and method, and specifically to a technique for modifying the domain of an image.

이미지의 도메인 적응에 있어서, 종래에는 이미지 정보(image representation)에 대한 고려 없이 적대적 신경망(adversarial networks)에만 의존하여 영상을 생성함에 따라, 도메인 수에 따라 인코더 및 디코더의 개수 늘려야 하며 하나의 영상에 대한 하나의 출력 영상을 얻을 수 있어 다수의 도메인의 이미지에 적용하기에는 한계가 있었다. In domain adaptation of images, conventionally, images are generated relying only on adversarial networks without considering image information (image representation), so the number of encoders and decoders must be increased according to the number of domains, and the number of encoders and decoders for one image must be increased. Since only one output image could be obtained, there were limitations in applying it to images from multiple domains.

공개 논문 1 : CyCADA: Cycle-consistent adversarial domain adaptation (International Conference on Machine Learning 2018)Open Paper 1: CyCADA: Cycle-consistent adversarial domain adaptation (International Conference on Machine Learning 2018)

공개 논문 2 : Light-weight Calibrator: a separable component for unsupervised domain adaptation(IEEE Computer Vision and Pattern Recognition 2020)Open Paper 2: Light-weight Calibrator: a separable component for unsupervised domain adaptation (IEEE Computer Vision and Pattern Recognition 2020)

본 발명의 목적은 이미지의 도메인 적응 기술을 제공하는 것이다. The purpose of the present invention is to provide a domain adaptation technique for images.

또한, 본 발명의 목적은 하나의 이미지에 대해 다수의 도메인에서 이미지를 생성하는 기술을 제공하는 것이다. Additionally, the purpose of the present invention is to provide a technology for generating images in multiple domains for one image.

또한, 본 발명의 목적은 하나의 인코더 및 디코더 쌍을 이용하는 도메인 적응 기술을 제공하는 것이다. Additionally, an object of the present invention is to provide a domain adaptation technique using one encoder and decoder pair.

본 발명의 일 측면에 따르면, 소스 도메인의 이미지로부터 특징들(제1 특징들)을 추출하고, 타겟 도메인의 이미지로부터 특징들(제2 특징들)을 추출하는 인코더; 제1 특징들 중 스타일 특징들을 분리하고, 제2 특징들 중 컨텐트 특징들을 분리하는 분리기; 및 스타일 특징들 및 컨텐트 특징들을 기반으로 타겟 도메인의 이미지를 소스 도메인의 이미지로 재구성하는 이미지 생성부;를 포함하는, 이미지 도메인 적응 장치가 제공된다.According to one aspect of the present invention, an encoder extracts features (first features) from an image of a source domain and extracts features (second features) from an image of a target domain; a separator that separates style features among the first features and content features among the second features; and an image generator that reconstructs an image of the target domain into an image of the source domain based on style features and content features.

일 실시예에서, 분리기는 비 선형 분리기(non-linear separator)를 이용하여 이미지로부터 추출된 특징들을 컨텐트 특징들 또는 스타일 특징들로 분리할 수 있다.In one embodiment, the separator may separate features extracted from the image into content features or style features using a non-linear separator.

일 실시예에서, 이미지 생성부는 제2 특징들 중 컨텐트 특징들을 소스 도메인에서의 컨텐트 특징들로 변환하고, 변환된 컨텐트 특징들 및 제1 특징들 중 스타일 특징들 이용하여 타겟 도메인의 이미지를 소스 도메인의 이미지로 재구성할 수 있다.In one embodiment, the image generator converts content features among the second features into content features in the source domain, and converts the image of the target domain into the source domain using the converted content features and style features among the first features. It can be reconstructed into an image of

본 발명의 다른 측면에 따르면, 소스 도메인의 이미지로부터 특징들(제1 특징들)을 추출하는 단계; 제1 특징들 중 스타일 특징들을 분리하는 단계; 타겟 도메인의 이미지로부터 특징들(제2 특징들)을 추출하는 단계; 제2 특징들 중 컨텐트 특징들을 분리하는 단계; 제1 특징들 중 스타일 특징들 및 제2 특징들 중 컨텐트 특징들을 기반으로 타겟 도메인의 이미지를 소스 도메인의 이미지로 재구성하는 단계를 포함하는, 이미지 도메인 적응 방법이 제공된다. According to another aspect of the invention, extracting features (first features) from an image of a source domain; separating style features from the first features; extracting features (second features) from an image of a target domain; separating content features from the second features; An image domain adaptation method is provided, including reconstructing an image of a target domain into an image of a source domain based on style features among first features and content features among second features.

본 발명의 또 다른 측면에 따르면, 이미지 도메인 적응을 위한 명령어를 저장하는 메모리; 및 메모리에 저장된 명령어에 따라 이미지 도메인 적응을 수행하는 프로세서를 포함하되, 명령어는 도메인이 상이한 복수의 이미지 각각으로부터 특징들을 추출하고, 복수의 이미지 각각으로부터 특징들을 컨텐트 특징들 및 스타일 특징들로 분리하며, 복수의 이미지 중 제1 이미지의 컨텐트 특징들 및 복수의 이미지 중 제2 이미지의 스타일 특징들을 기반으로 제1 이미지를 제2 이미지의 도메인에서의 이미지로 재구성하는 명령어인, 이미지 도메인 적응 장치가 제공된다. According to another aspect of the present invention, a memory storing instructions for image domain adaptation; and a processor that performs image domain adaptation according to instructions stored in a memory, wherein the instructions extract features from each of a plurality of images having different domains and separate the features from each of the plurality of images into content features and style features. , An image domain adaptation device is provided, which is a command for reconstructing the first image into an image in the domain of the second image based on the content features of the first image among the plurality of images and the style features of the second image among the plurality of images. do.

본 발명의 일 측면에 따르면, 이미지의 도메인 적응이 가능하게 된다. According to one aspect of the present invention, domain adaptation of images is possible.

또한, 본 발명의 다른 측면에 따르면, 하나의 이미지에 대해 다수의 도메인에서의 이미지를 생성하는 것이 가능하게 된다. Additionally, according to another aspect of the present invention, it is possible to generate images in multiple domains for one image.

또한, 본 발명의 또 다른 측면에 따르면, 하나의 인코더 및 디코더 쌍을 이용하는 도메인 적응 기술이 가능하게 된다. Additionally, according to another aspect of the present invention, domain adaptation technology using one encoder and decoder pair is possible.

도 1은 본 발명의 일 실시예에 따른 이미지 도메인 적응을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 이미지 도메인 적응 장치의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 이미지 도메인 적응 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 이미지 도메인 적응의 예를 나타낸 도면이다.
도 5는 본 발명의 다른 실시예에 따른 이미지 도메인 적응 장치의 블록도이다.
1 is a diagram for explaining image domain adaptation according to an embodiment of the present invention.
Figure 2 is a block diagram of an image domain adaptation device according to an embodiment of the present invention.
Figure 3 is a flowchart of an image domain adaptation method according to an embodiment of the present invention.
Figure 4 is a diagram showing an example of image domain adaptation according to an embodiment of the present invention.
Figure 5 is a block diagram of an image domain adaptation device according to another embodiment of the present invention.

이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다.Hereinafter, various embodiments of this document are described with reference to the attached drawings.

실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다.The embodiments and terms used herein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various changes, equivalents, and/or substitutes for the embodiments.

하기에서 다양한 실시 예들을 설명에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.In the following description of various embodiments, if a detailed description of a related known function or configuration is judged to unnecessarily obscure the gist of the invention, the detailed description will be omitted.

그리고 후술되는 용어들은 다양한 실시 예들에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.The terms described below are terms defined in consideration of functions in various embodiments, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.

도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.In connection with the description of the drawings, similar reference numbers may be used for similar components.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Singular expressions may include plural expressions, unless the context clearly indicates otherwise.

본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다.In this document, expressions such as “A or B” or “at least one of A and/or B” may include all possible combinations of the items listed together.

"제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.Expressions such as “first,” “second,” “first,” or “second,” can modify the corresponding components regardless of order or importance and are used to distinguish one component from another. It is only used and does not limit the corresponding components.

어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다.When a component (e.g. a first) component is said to be "connected (functionally or communicatively)" or "connected" to another (e.g. a second) component, it means that the component is connected to the other component. It may be connected directly to a component or may be connected through another component (e.g., a third component).

본 명세서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다.In this specification, “configured to” means “suitable for,” “having the ability to,” or “changed to,” depending on the situation, for example, in terms of hardware or software. ," can be used interchangeably with "made to," "capable of," or "designed to."

어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다.In some contexts, the expression “a device configured to” may mean that the device is “capable of” working with other devices or components.

예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.For example, the phrase "processor configured (or set) to perform A, B, and C" refers to a processor dedicated to performing the operations (e.g., an embedded processor), or by executing one or more software programs stored on a memory device. , may refer to a general-purpose processor (e.g., CPU or application processor) capable of performing the corresponding operations.

또한, '또는' 이라는 용어는 배타적 논리합 'exclusive or' 이기보다는 포함적인 논리합 'inclusive or' 를 의미한다.Additionally, the term 'or' means 'inclusive or' rather than 'exclusive or'.

즉, 달리 언급되지 않는 한 또는 문맥으로부터 명확하지 않는 한, 'x가 a 또는 b를 이용한다' 라는 표현은 포함적인 자연 순열들(natural inclusive permutations) 중 어느 하나를 의미한다.That is, unless otherwise stated or clear from the context, the expression 'x uses a or b' means any of the natural inclusive permutations.

이하 사용되는 '..부', '..기' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Terms such as '..unit' and '..unit' used hereinafter refer to a unit that processes at least one function or operation, and may be implemented as hardware, software, or a combination of hardware and software.

도 1은 본 발명의 일 실시예에 따른 이미지 도메인 적응을 설명하기 위한 도면이다. 1 is a diagram for explaining image domain adaptation according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 소스 이미지 및 타겟 이미지 간의 도메인을 변환하는 이미지 도메인 적응이 도시되어 있다. 인코더(Encoder, E)는 소스 이미지(Source image, ) 및 타겟 이미지(Target image, )를 입력 받을 수 있다. 인코더(E)는 소스 이미지()로부터 특징들(이하, 소스 특징들)(source feature, )을 추출할 수 있다. 인코더(E)는 타겟 이미지()로부터 특징들(이하, 타겟 특징들)(target feature, )을 추출할 수 있다. 분리기(Separator, S)는 소스 특징들(Fx)을 컨텐츠 특징들(이하, 소스 컨텐츠 특징들, )과 스타일 특징들(이하, 소스 스타일 특징들, )로 분리할 수 있다. 분리기(Separator, S)는 타겟 특징들(FY)을 컨텐츠 특징들(이하, 타겟 컨텐츠 특징들, )과 스타일 특징들(이하, 타겟 스타일 특징들, )로 분리할 수 있다. 이때, 소스 컨텐츠 특징들()은 타겟 이미지의 도메인으로 변환하기 위한 가중치()기반으로 타겟 이미지의 도메인에서의 컨텐츠로 변환될 수 있다. 또한, 타겟 컨텐츠 특징들()은 소스 이미지의 도메인으로 변환하기 위한 가중치()기반으로 타겟 이미지의 도메인에서의 컨텐츠로 변환될 수 있다. 이미지 생성부(image generator, G)는 특징들을 기반으로 이미지를 재구성할 수 있다. 즉, 이미지 생성부(G)는 소스 특징들()을 기반으로 재구성된 소스 이미지()를 생성할 수 있다. 이미지 생성부(G)는 타겟 이미지의 도메인으로 변환된 소스 스타일 특징들() 및 타겟 스타일 특징들()을 기반으로 재구성하여 타겟 이미지의 도메인으로 변환된 소스 이미지()를 생성할 수 있다. 이미지 생성부(G)는 소스 이미지의 도메인으로 변환된 타겟 컨텐츠 특징들() 및 소스 스타일 특징들()을 기반으로 재구성하여 소스 이미지의 도메인으로 변환된 타겟 이미지()를 생성할 수 있다. 이미지 생성부(G)는 타겟 특징들()을 기반으로 재구성된 타겟 이미지()를 생성할 수 있다. Referring to Figure 1, image domain adaptation is shown to transform the domain between a source image and a target image according to one embodiment of the present invention. Encoder (E) is a source image (Source image, ) and target image (Target image, ) can be input. The encoder (E) uses the source image ( ) from features (hereinafter referred to as source features) (source feature, ) can be extracted. The encoder (E) uses the target image ( ) from the features (hereinafter, target features) (target feature, ) can be extracted. Separator (S) separates the source features (F x ) into content features (hereinafter referred to as source content features, ) and style features (hereinafter referred to as source style features, ) can be separated. Separator (S) divides the target features (F Y ) into content features (hereinafter referred to as target content features, ) and style features (hereinafter referred to as target style features, ) can be separated. At this time, the source content characteristics ( ) is the weight for conversion to the domain of the target image ( ) based, it can be converted to content in the domain of the target image. Additionally, target content characteristics ( ) is the weight ( ) based, it can be converted to content in the domain of the target image. The image generator (G) can reconstruct the image based on the features. That is, the image generator (G) uses the source features ( ) source image reconstructed based on ( ) can be created. The image generator (G) converts the source style features into the domain of the target image ( ) and target style features ( ) and converted to the domain of the target image by reconstructing the source image ( ) can be created. The image generator (G) generates target content features converted to the domain of the source image ( ) and source style features ( ) and converted to the domain of the source image by reconstructing the target image ( ) can be created. The image generator (G) generates target features ( ) The target image reconstructed based on ( ) can be created.

따라서, 본 발명에 따르면, 소스 특징들(), 타겟 특징들(), 소스 컨텐츠 특징들(), 소스 스타일 특징들(), 타겟 컨텐츠 특징들()과 타겟 스타일 특징들() 등이 손실되지 않기 때문에, 원본 이미지를 재구성하거나 소스 이미지를 타겟 이미지의 도메인으로, 타겟 이미지를 소스 이미지의 도메인으로 변환하는 도메인 적응이 가능하게 된다. Therefore, according to the invention, the source features ( ), target features ( ), source content features ( ), source style features ( ), target content characteristics ( ) and target style features ( ), etc. are not lost, so domain adaptation is possible by reconstructing the original image or converting the source image to the domain of the target image and the target image to the domain of the source image.

도 2는 본 발명의 일 실시예에 따른 이미지 도메인 적응 장치의 블록도이다. Figure 2 is a block diagram of an image domain adaptation device according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 이미지 도메인 적응 장치(2000)는 입력부(2100), 인코더(2200), 분리기(2300), 이미지 생성부(2400) 및 출력부(2500)를 포함할 수 있다. Referring to FIG. 2, the image domain adaptation device 2000 according to an embodiment of the present invention includes an input unit 2100, an encoder 2200, a separator 2300, an image generator 2400, and an output unit 2500. It can be included.

입력부(2100)는 이미지의 도메인을 변환하는 이미지 도메인 적응을 위한 이미지를 입력 받을 수 있다. The input unit 2100 can receive an image for image domain adaptation, which converts the domain of the image.

일 실시예에서, 입력부(2100)는 복수의 이미지를 입력 받을 수 있으며, 복수의 이미지는 도메인이 상이할 수 있다. In one embodiment, the input unit 2100 may receive multiple images, and the multiple images may have different domains.

일 실시예에서, 입력되는 이미지들은 소스 도메인의 이미지(소스 이미지) 및 소스 도메인으로 변환하고자 하는 타겟 도메인의 이미지(타겟 이미지)일 수 있다. In one embodiment, the input images may be an image of a source domain (source image) and an image of a target domain to be converted to a source domain (target image).

인코더(2200)는 이미지에서 특징(feature)들을 추출할 수 있다. 구체적으로, 인코더(2200)는 도메인이 상이한 복수의 이미지 각각에서 특징들을 추출할 수 있다. The encoder 2200 can extract features from the image. Specifically, the encoder 2200 may extract features from each of a plurality of images with different domains.

일 실시예에서, 인코더(2200)는 소스 도메인의 이미지 및 소스 도메인으로 변환하고자 하는 타겟 도메인의 이미지 각각에서 특징들을 추출할 수 있다. In one embodiment, the encoder 2200 may extract features from each of the source domain image and the target domain image to be converted to the source domain.

일 실시예에서, 인코더(2200)는 합성곱 신경망(Convolutional Neural Network, CNN) 등의 딥러닝 기반으로 학습된 모델을 이용하여 이미지로부터 특징들을 추출할 수 있다. In one embodiment, the encoder 2200 may extract features from an image using a model learned based on deep learning, such as a convolutional neural network (CNN).

분리기(2300)는 이미지로부터 추출된 특징들을 분리할 수 있다. 구체적으로, 분리기(2300)는 도메인이 상이한 복수의 이미지 각각에서 추출된 특징들을 컨텐트(content) 특징들 및 스타일(style) 특징들로 분리할 수 있다. The separator 2300 may separate features extracted from the image. Specifically, the separator 2300 may separate features extracted from each of a plurality of images with different domains into content features and style features.

일 실시예에서, 인코더(2200)는 소스 도메인의 이미지로부터 추출된 특징들을 컨텐트 특징들(이하, 소스 컨텐트 특징들)과 스타일 특징들(이하, 소스 스타일 특징들)로 분리할 수 있다. 또한, 인코더(2200)는 타겟 도메인의 이미지로부터 추출된 특징들을 컨텐트 특징들(이하, 타겟 컨텐트 특징들)과 스타일 특징들(이하, 타겟 스타일 특징들)로 분리할 수 있다. In one embodiment, the encoder 2200 may separate features extracted from an image of the source domain into content features (hereinafter, source content features) and style features (hereinafter, source style features). Additionally, the encoder 2200 may separate features extracted from an image of the target domain into content features (hereinafter, target content features) and style features (hereinafter, target style features).

일 실시예에서, 인코더(2200)는 비 선형 분리기(non-linear separator)를 이용하여 이미지로부터 추출된 특징들을 컨텐트 특징들과 스타일 특징들로 분리할 수 있다. 이때, 인코더(2200)는 수학식 1에 따라 이미지로부터 추출된 특징들을 컨텐트 특징들과 스타일 특징들로 분리할 수 있다. In one embodiment, the encoder 2200 may separate features extracted from the image into content features and style features using a non-linear separator. At this time, the encoder 2200 may separate the features extracted from the image into content features and style features according to Equation 1.

(여기서, 는 도메인 A에서의 컨텐트 특징, 는 비 선형 분리 함수, 는 도메인 A에서의 특징들, 는 도메인 A에서의 스타일 특징들)(here, is the content feature in domain A, is a non-linear separation function, are the features in domain A, are style features in domain A)

일 실시예에서, 분리기(2300)는 합성곱 신경망(Convolutional Neural Network, CNN) 등의 딥러닝 기반으로 학습된 모델을 기반으로 이미지로부터 추출된 특징들을 컨텐트 특징들과 스타일 특징들로 분리할 수 있다. In one embodiment, the separator 2300 may separate features extracted from an image into content features and style features based on a model learned based on deep learning, such as a convolutional neural network (CNN). .

이미지 생성부(2400)는 특징들을 기반으로 이미지를 재구성할 수 있다. 구체적으로, 이미지 생성부(2400)는 도메인이 상이한 복수의 이미지 중 제1 이미지의 컨텐츠 특징들 및 제2 이미지의 스타일 특징을 기반으로 이미지를 재구성함으로써 제2 이미지의 도메인으로 변환된 제1 이미지를 생성할 수 있다. 이때, 이미지 생성부(2400)는 제1 이미지의 컨텐츠 특징들을 제2 이미지의 도메인에서의 컨텐츠 특징들로 변환하고, 제2 이미지의 도메인에서의 컨텐츠 특징들로 변환된 제1 이미지의 컨텐츠 특징들 및 제2 이미지의 스타일의 스타일 특징을 이용하여 이미지를 재구성함으로써 제2 이미지의 도메인으로 변환된 제1 이미지를 생성할 수 있다.The image generator 2400 may reconstruct the image based on the features. Specifically, the image generator 2400 reconstructs the image based on the content features of the first image and the style features of the second image among a plurality of images with different domains, thereby converting the first image into the domain of the second image. can be created. At this time, the image generator 2400 converts the content features of the first image into content features in the domain of the second image, and the content features of the first image converted into content features in the domain of the second image. And, the first image converted to the domain of the second image can be generated by reconstructing the image using the style characteristics of the style of the second image.

일 실시예에서, 이미지 생성부(2400)는 타겟 컨텐츠 특징들 및 소스 스타일 특징들을 기반으로 소스 도메인으로 변환된 타겟 이미지를 생성할 수 있다. 이때, 이미지 생성부(2400)는 타겟 컨텐츠 특징들을 소스 도메인에서의 컨텐츠 특징들로 변환하고, 소스 도메인에서의 컨텐츠 특징들로 변환된 타겟 컨텐츠 특징들 및 소스 스타일 특징들을 이용하여 이미지를 재구성함으로써 소스 도메인으로 변환된 타겟 이미지를 생성할 수 있다.In one embodiment, the image generator 2400 may generate a target image converted to a source domain based on target content features and source style features. At this time, the image generator 2400 converts the target content features into content features in the source domain and reconstructs the image using the target content features and source style features converted to content features in the source domain. You can create a target image converted to a domain.

또한, 이미지 생성부(2400)는 원본 이미지를 재구성할 수 있다. 구체적으로, 이미지 생성부(2400)는 복수의 이미지 각각으로부터 추출된 특징들을 기반으로 이미지를 재구성함으로써, 재구성된 복수의 이미지를 생성할 수 있다. Additionally, the image generator 2400 can reconstruct the original image. Specifically, the image generator 2400 may generate a plurality of reconstructed images by reconstructing the image based on features extracted from each of the plurality of images.

일 실시예에서, 이미지 생성부(2400)는 소스 도메인 영역의 이미지로부터 추출된 특징들을 기반으로 이미지를 재구성함으로써, 재구성된 소스 도메인 영역의 이미지를 생성할 수 있다. In one embodiment, the image generator 2400 may generate a reconstructed image of the source domain area by reconstructing the image based on features extracted from the image of the source domain area.

일 실시예에서, 이미지 생성부(2400)는 타겟 도메인 영역의 이미지로부터 추출된 특징들을 기반으로 이미지를 재구성함으로써, 재구성된 타겟 도메인 영역의 이미지를 생성할 수 있다.In one embodiment, the image generator 2400 may generate a reconstructed image of the target domain area by reconstructing the image based on features extracted from the image of the target domain area.

일 실시예에서, 이미지 생성부(2400)는 수학식 2에 따라 제1 도메인의 컨텐츠 특징들을 제2 도메인의 컨텐츠 특징들로 변환할 수 있다. In one embodiment, the image generator 2400 may convert content features of the first domain into content features of the second domain according to Equation 2.

(여기서, 는 도메인 A에서 도메인 B로 변환된 특징들, 는 도메인 A의 컨텐트 특징들을 도메인 B로 변환하기 위한 가중치, 는 도메인 A에서의 컨텐트 특징들, 는 도메인 B에서의 스타일 특징들을 의미함)(here, are the features converted from domain A to domain B, is the weight for converting the content features of domain A to domain B, are the content features in domain A, refers to style features in domain B)

이미지 생성부(2400)는 합성곱 신경망(Convolutional Neural Network, CNN) 등의 딥러닝 기반으로 학습된 모델을 기반으로 이미지를 재구성할 수 있다. The image generator 2400 may reconstruct the image based on a model learned based on deep learning, such as a convolutional neural network (CNN).

출력부(2500)는 생성된 이미지를 출력할 수 있다. 구체적으로, 출력부(2500)는 원본 이미지를 재구성한 이미지, 제1 도메인에서 제2 도메인으로 변환된 이미지, 소스 도메인으로 변환된 타겟 이미지 등을 출력할 수 있다.The output unit 2500 can output the generated image. Specifically, the output unit 2500 may output an image reconstructed from the original image, an image converted from the first domain to the second domain, and a target image converted to the source domain.

또한, 인코더(2200), 분리기(2300) 및 이미지 생성부(2400)는 합성곱 신경망(Convolutional Neural Network, CNN) 등의 딥러닝 기반으로 학습된 하나의 모델로 구성될 수 있다. Additionally, the encoder 2200, separator 2300, and image generator 2400 may be composed of a model learned based on deep learning such as a convolutional neural network (CNN).

또한, 인코더(2200), 분리기(2300) 및 이미지 생성부(2400)의 모델의 손실 함수는 아래 수학식 3에 따라 결정될 수 있다. Additionally, the loss function of the model of the encoder 2200, separator 2300, and image generator 2400 may be determined according to Equation 3 below.

여기서, 전체 손실은 reconstruction 손실, adversarial 손실 , consistency 손실 및 perceptual 손실로 구성될 수 있다. Here, total loss is the reconstruction loss , adversarial loss , consistency loss and perceptual loss It can be composed of:

reconstruction 손실은 아래 수학식 4에 따라 결정될 수 있다. reconstruction loss Can be determined according to Equation 4 below.

여기서, 은 원본 이미지 와 재구성된 이미지 간의 차이가 최소가 되도록 인코더(E)와 이미지 생성부(G)를 학습시키기 위한 손실을 의미할 수 있다.here, silver original image and reconstructed image This may mean a loss for training the encoder (E) and the image generator (G) to minimize the difference between them.

adversarial 손실 은 아래 수학식 5에 따라 결정될 수 있다. adversarial loss Can be determined according to Equation 5 below.

여기서, adversarial 손실 은 소스 도메인 및 타겟 도메인 각각에서의 adversarial 손실을 의미할 수 있다. where, adversarial loss may mean adversarial loss in each of the source domain and target domain.

consistency 손실은 아래 수학식 6에 따라 결정될 수 있다. loss of consistency Can be determined according to Equation 6 below.

여기서, X는 소스 도메인, Y는 타겟 도메인을 의미할 수 있다. Here, X may refer to the source domain and Y may refer to the target domain.

perceptual 손실은 아래 수학식 7에 따라 결정될 수 있다. perceptual loss Can be determined according to Equation 7 below.

여기서, X는 소스 도메인, Y는 타겟 도메인을 의미할 수 있다 Here, X may refer to the source domain and Y may refer to the target domain.

도 3은 본 발명의 일 실시예에 따른 이미지 도메인 적응 방법의 흐름도이다. Figure 3 is a flowchart of an image domain adaptation method according to an embodiment of the present invention.

이하, 도 3에 도시된 방법은 도 2에 도시된 이미지 도메인 적응 장치(2000)에 의해 수행되는 것을 예시로 설명한다. Hereinafter, the method shown in FIG. 3 will be described as an example of being performed by the image domain adaptation apparatus 2000 shown in FIG. 2.

단계 S3100에서, 이미지가 입력된다. 구체적으로, 이미지 도메인 적응 장치(2000)는 이미지의 도메인을 변환하는 이미지 도메인 적응을 위한 이미지를 입력 받을 수 있다. In step S3100, an image is input. Specifically, the image domain adaptation apparatus 2000 may receive an image for image domain adaptation to convert the domain of the image.

일 실시예에서, 이미지 도메인 적응 장치(2000)는 복수의 이미지를 입력 받을 수 있으며, 복수의 이미지는 도메인이 상이할 수 있다. In one embodiment, the image domain adaptation apparatus 2000 may receive a plurality of images, and the plurality of images may have different domains.

일 실시예에서, 입력되는 이미지들은 소스 도메인의 이미지(소스 이미지) 및 소스 도메인으로 변환하고자 하는 타겟 도메인의 이미지(타겟 이미지)일 수 있다. In one embodiment, the input images may be an image of a source domain (source image) and an image of a target domain to be converted to a source domain (target image).

단계 S3200에서, 이미지로부터 특징들이 추출된다. 구체적으로, 이미지 도메인 적응 장치(2000)는 도메인이 상이한 복수의 이미지 각각에서 특징들을 추출할 수 있다. In step S3200, features are extracted from the image. Specifically, the image domain adaptation apparatus 2000 may extract features from each of a plurality of images having different domains.

일 실시예에서, 이미지 도메인 적응 장치(2000)는 소스 도메인의 이미지 및 소스 도메인으로 변환하고자 하는 타겟 도메인의 이미지 각각에서 특징들을 추출할 수 있다. In one embodiment, the image domain adaptation apparatus 2000 may extract features from each of a source domain image and a target domain image to be converted to the source domain.

단계 S33000에서, 컨텐트 특징 및 스타일 특징이 분리된다. 구체적으로, 이미지 도메인 적응 장치(2000)는 도메인이 상이한 복수의 이미지 각각에서 추출된 특징들을 컨텐트(content) 특징들 및 스타일(style) 특징들로 분리할 수 있다. In step S33000, the content features and style features are separated. Specifically, the image domain adaptation apparatus 2000 may separate features extracted from each of a plurality of images with different domains into content features and style features.

일 실시예에서, 이미지 도메인 적응 장치(2000)는 소스 도메인의 이미지로부터 추출된 특징들을 컨텐트 특징들(이하, 소스 컨텐트 특징들)과 스타일 특징들(이하, 소스 스타일 특징들)로 분리할 수 있다. 또한, 이미지 도메인 적응 장치(2000)는 타겟 도메인의 이미지로부터 추출된 특징들을 컨텐트 특징들(이하, 타겟 컨텐트 특징들)과 스타일 특징들(이하, 타겟 스타일 특징들)로 분리할 수 있다. In one embodiment, the image domain adaptation apparatus 2000 may separate features extracted from an image of the source domain into content features (hereinafter, source content features) and style features (hereinafter, source style features). . Additionally, the image domain adaptation apparatus 2000 may separate features extracted from an image of the target domain into content features (hereinafter, target content features) and style features (hereinafter, target style features).

일 실시예에서, 이미지 도메인 적응 장치(2000)는 비 선형 분리기(non-linear separator)를 이용하여 이미지로부터 추출된 특징들을 컨텐트 특징들과 스타일 특징들로 분리할 수 있다. In one embodiment, the image domain adaptation apparatus 2000 may separate features extracted from an image into content features and style features using a non-linear separator.

단계 S3400에서, 이미지가 재구성된다. 구체적으로, 이미지 도메인 적응 장치(2000)는 도메인이 상이한 복수의 이미지 중 제1 이미지의 컨텐츠 특징들 및 제2 이미지의 스타일 특징을 기반으로 이미지를 재구성함으로써 제2 이미지의 도메인으로 변환된 제1 이미지를 생성할 수 있다. 이때, 이미지 도메인 적응 장치(2000)는 제1 이미지의 컨텐츠 특징들을 제2 이미지의 도메인에서의 컨텐츠 특징들로 변환하고, 제2 이미지의 도메인에서의 컨텐츠 특징들로 변환된 제1 이미지의 컨텐츠 특징들 및 제2 이미지의 스타일의 스타일 특징을 이용하여 이미지를 재구성함으로써 제2 이미지의 도메인으로 변환된 제1 이미지를 생성할 수 있다.In step S3400, the image is reconstructed. Specifically, the image domain adaptation apparatus 2000 reconstructs the image based on the content features of the first image and the style features of the second image among a plurality of images with different domains, thereby converting the first image to the domain of the second image. can be created. At this time, the image domain adaptation apparatus 2000 converts the content features of the first image into content features in the domain of the second image, and converts the content features of the first image into content features in the domain of the second image. The first image converted to the domain of the second image can be generated by reconstructing the image using the style characteristics of the first image and the style of the second image.

일 실시예에서, 이미지 도메인 적응 장치(2000)는 타겟 컨텐츠 특징들 및 소스 스타일 특징들을 기반으로 소스 도메인으로 변환된 타겟 이미지를 생성할 수 있다. 이때, 이미지 도메인 적응 장치(2000)는 타겟 컨텐츠 특징들을 소스 도메인에서의 컨텐츠 특징들로 변환하고, 소스 도메인에서의 컨텐츠 특징들로 변환된 타겟 컨텐츠 특징들 및 소스 스타일 특징들을 이용하여 이미지를 재구성함으로써 소스 도메인으로 변환된 타겟 이미지를 생성할 수 있다.In one embodiment, the image domain adaptation apparatus 2000 may generate a target image converted to a source domain based on target content features and source style features. At this time, the image domain adaptation apparatus 2000 converts the target content features into content features in the source domain and reconstructs the image using the target content features and source style features converted to content features in the source domain. A target image converted to the source domain can be created.

또한, 이미지 도메인 적응 장치(2000)는 원본 이미지를 재구성할 수 있다. 구체적으로, 이미지 도메인 적응 장치(2000)는 복수의 이미지 각각으로부터 추출된 특징들을 기반으로 이미지를 재구성함으로써, 재구성된 복수의 이미지를 생성할 수 있다. Additionally, the image domain adaptation apparatus 2000 can reconstruct the original image. Specifically, the image domain adaptation apparatus 2000 may generate a plurality of reconstructed images by reconstructing the image based on features extracted from each of the plurality of images.

일 실시예에서, 이미지 도메인 적응 장치(2000)는 소스 도메인 영역의 이미지로부터 추출된 특징들을 기반으로 이미지를 재구성함으로써, 재구성된 소스 도메인 영역의 이미지를 생성할 수 있다. In one embodiment, the image domain adaptation apparatus 2000 may generate an image of the reconstructed source domain area by reconstructing the image based on features extracted from the image of the source domain area.

일 실시예에서, 이미지 도메인 적응 장치(2000)는 타겟 도메인 영역의 이미지로부터 추출된 특징들을 기반으로 이미지를 재구성함으로써, 재구성된 타겟 도메인 영역의 이미지를 생성할 수 있다.In one embodiment, the image domain adaptation apparatus 2000 may generate an image of the reconstructed target domain area by reconstructing the image based on features extracted from the image of the target domain area.

단계 S3500에서, 재구성된 이미지가 출력된다. 구체적으로, 이미지 도메인 적응 장치(2000)는 원본 이미지를 재구성한 이미지, 제1 도메인에서 제2 도메인으로 변환된 이미지, 소스 도메인으로 변환된 타겟 이미지 등을 출력할 수 있다.In step S3500, the reconstructed image is output. Specifically, the image domain adaptation apparatus 2000 may output an image reconstructed from the original image, an image converted from the first domain to the second domain, and a target image converted to the source domain.

도 4는 본 발명의 일 실시예에 따른 이미지 도메인 적응의 예를 나타낸 도면이다. Figure 4 is a diagram showing an example of image domain adaptation according to an embodiment of the present invention.

도 4를 참조하면, 도메인 A의 이미지를 도메인 B의 이미지로 변환하는 과정을 나타낸다. 이미지 도메인 적응 장치(2000)는 도메인 A의 이미지로부터 특징들을 추출하고, 추출된 특징들은 컨텐트 특징 A와 스타일 특징 B로 분리할 수 있다. 또한, 이미지 도메인 적응 장치(2000)는 도메인 B의 이미지로부터 특징들을 추출하고 추출된 특징들을 컨텐트 특징 B와 스타일 특징 B로 분리할 수 있다. 이미지 도메인 적응 장치(2000)는 컨텐트 특징 A와 스타일 특징 B를 기반으로 이미지를 재구성함으로써, 도메인 B로 변환된 도메인 A의 이미지를 생성할 수 있다. Referring to Figure 4, the process of converting an image of domain A into an image of domain B is shown. The image domain adaptation apparatus 2000 may extract features from an image of domain A, and separate the extracted features into content features A and style features B. Additionally, the image domain adaptation apparatus 2000 may extract features from an image of domain B and separate the extracted features into content features B and style features B. The image domain adaptation apparatus 2000 can generate an image of domain A converted to domain B by reconstructing the image based on content feature A and style feature B.

도 5는 본 발명의 다른 실시예에 따른 이미지 도메인 적응 장치의 블록도이다.Figure 5 is a block diagram of an image domain adaptation device according to another embodiment of the present invention.

도 5에 도시된 바와 같이, 이미지 도메인 적응 장치(2000)는 프로세서(5100), 메모리(5200), 저장부(5300), 사용자 인터페이스 입력부(5400) 및 사용자 인터페이스 출력부(5500) 중 적어도 하나 이상의 요소를 포함할 수 있으며, 이들은 버스(5600)를 통해 서로 통신할 수 있다. 또한, 이미지 도메인 적응 장치(2000)는 네트워크에 접속하기 위한 네트워크 인터페이스(5700)를 또한 포함할 수 있다. 프로세서(5100)는 메모리(5200) 및/또는 저장소(5300)에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다. 메모리(5200) 및 저장부(5300)는 다양한 유형의 휘발성/비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(5240) 및 RAM(5250)을 포함할 수 있다. As shown in FIG. 5, the image domain adaptation apparatus 2000 includes at least one of a processor 5100, a memory 5200, a storage unit 5300, a user interface input unit 5400, and a user interface output unit 5500. elements, which can communicate with each other via bus 5600. Additionally, the image domain adaptation device 2000 may also include a network interface 5700 for connecting to a network. The processor 5100 may be a CPU or a semiconductor device that executes processing instructions stored in the memory 5200 and/or the storage 5300. The memory 5200 and the storage unit 5300 may include various types of volatile/non-volatile storage media. For example, memory may include ROM 5240 and RAM 5250.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system.

또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

2000: 이미지 도메인 적응 장치 2100: 입력부
2200: 인코더 2300: 분리기
2400: 이미지 생성부 2500: 출력부
2000: Image domain adaptation device 2100: Input unit
2200: Encoder 2300: Separator
2400: image generation unit 2500: output unit

Claims (15)

소스 도메인의 이미지로부터 특징들(제1 특징들)을 추출하고, 타겟 도메인의 이미지로부터 특징들(제2 특징들)을 추출하는 인코더;
상기 제1 특징들 중 상기 소스 도메인의 제1 스타일 특징들을 분리하고, 상기 제2 특징들 중 상기 타겟 도메인의 제2 컨텐트 특징들을 분리하는 분리기; 및
상기 제1 스타일 특징들 및 상기 제2 컨텐트 특징들을 기반으로 상기 타겟 도메인의 이미지를 상기 소스 도메인의 이미지로 재구성하는 이미지 생성부를 포함하고,
상기 분리기는, 비 선형 분리기(non-linear separator)에 기반한 비선형 분리 함수에 상기 제1 특징들 또는 상기 제2 특징들을 적용하여 상기 제1 특징들로부터 상기 소스 도메인의 제1 컨텐트 특징들을 분리하거나 상기 제2 특징들로부터 상기 제2 컨텐트 특징들을 분리하고, 상기 제1 특징들과 상기 분리 함수에 적용된 상기 제1 특징들 사이의 차이에 기반하여 상기 제1 스타일 특징들을 분리하거나 상기 제2 특징들과 상기 분리 함수에 적용된 상기 제2 특징들 사이의 차이에 기반하여 상기 타겟 도메인의 제2 스타일 특징들을 분리하는, 이미지 도메인 적응 장치.
an encoder that extracts features (first features) from an image of a source domain and extracts features (second features) from an image of a target domain;
a separator that separates first style features of the source domain among the first features and separates second content features of the target domain among the second features; and
An image generator that reconstructs the image of the target domain into an image of the source domain based on the first style features and the second content features,
The separator separates the first content features of the source domain from the first features by applying the first features or the second features to a non-linear separation function based on a non-linear separator. Separate the second content features from the second features, separate the first style features based on the difference between the first features and the first features applied to the separation function, or separate the first style features from the second features. Separating second style features of the target domain based on differences between the second features applied to the separation function.
삭제delete 삭제delete 제1항에 있어서,
상기 이미지 생성부는,
상기 제2 특징들 중 제2 컨텐트 특징들을 상기 소스 도메인에서의 제1 컨텐트 특징들로 변환하고, 변환된 컨텐트 특징들 및 상기 제1 특징들 중 제1 스타일 특징들 이용하여 상기 타겟 도메인의 이미지를 상기 소스 도메인의 이미지로 재구성하는, 이미지 도메인 적응 장치.
According to paragraph 1,
The image generator,
Converting second content features among the second features into first content features in the source domain, and converting the image of the target domain using the converted content features and first style features among the first features. An image domain adaptation device that reconstructs an image of the source domain.
제4항에 있어서,
상기 이미지 생성부는,
다음 수학식에 의해 상기 제2 특징들 중 제2 컨텐트 특징들을 상기 소스 도메인에서의 제1 컨텐트 특징들로 변환하는, 이미지 도메인 적응 장치.

(여기서, 는 상기 타겟 도메인에 대응하는 도메인 A에서 상기 소스 도메인에 대응하는 도메인 B로 변환된 특징들, 는 도메인 A의 컨텐트 특징들을 도메인 B로 변환하기 위한 가중치, 는 도메인 A에서의 컨텐트 특징들, 는 도메인 B에서의 스타일 특징들을 의미함)
According to clause 4,
The image generator,
An image domain adaptation device that converts second content features among the second features into first content features in the source domain by the following equation.

(here, are features converted from domain A corresponding to the target domain to domain B corresponding to the source domain, is the weight for converting the content features of domain A to domain B, are the content features in domain A, refers to style features in domain B)
소스 도메인의 이미지로부터 특징들(제1 특징들)을 추출하는 단계;
상기 제1 특징들 중 스타일 특징들을 분리하는 단계;
타겟 도메인의 이미지로부터 특징들(제2 특징들)을 추출하는 단계;
상기 제2 특징들 중 컨텐트 특징들을 분리하는 단계; 및
상기 제1 특징들 중 스타일 특징들 및 상기 제2 특징들 중 컨텐트 특징들을 기반으로 상기 타겟 도메인의 이미지를 상기 소스 도메인의 이미지로 재구성하는 단계를 포함하고,
상기 제1 특징들 중 스타일 특징들을 분리하는 단계는
비 선형 분리기(non-linear separator)에 기반한 비선형 분리 함수에 상기 제1 특징들을 적용하여 상기 제1 특징들로부터 상기 소스 도메인의 제1 컨텐트 특징들을 분리하고, 상기 제1 특징들과 상기 분리 함수에 적용된 상기 제1 특징들 사이의 차이에 기반하여 상기 제1 스타일 특징들을 분리하는 단계를 포함하고,
상기 제2 특징들 중 컨텐트 특징들을 분리하는 단계는,
상기 비선형 분리 함수에 상기 제2 특징들을 적용하여 상기 제2 특징들로부터 상기 제2 컨텐트 특징들을 분리하고, 상기 제2 특징들과 상기 분리 함수에 적용된 상기 제2 특징들 사이의 차이에 기반하여 상기 타겟 도메인의 제2 스타일 특징들을 분리하는 단계를 포함하는, 이미지 도메인 적응 방법.
extracting features (first features) from an image of a source domain;
separating style features from the first features;
extracting features (second features) from an image of a target domain;
separating content features from the second features; and
Reconstructing the image of the target domain into an image of the source domain based on style features among the first features and content features among the second features,
The step of separating style features among the first features is
Applying the first features to a non-linear separation function based on a non-linear separator to separate first content features of the source domain from the first features, and applying the first features to the separation function separating the first style features based on differences between the first features applied;
The step of separating content features from among the second features is:
Separate the second content features from the second features by applying the second features to the non-linear separation function, and separate the second content features from the second features based on the difference between the second features and the second features applied to the separation function. A method for image domain adaptation, comprising separating second style features of a target domain.
삭제delete 삭제delete 제6항에 있어서,
상기 타겟 도메인의 이미지를 상기 소스 도메인의 이미지로 재구성하는 단계는,
상기 제2 특징들 중 제2 컨텐트 특징들을 상기 소스 도메인에서의 제1 컨텐트 특징들로 변환하고, 변환된 컨텐트 특징들 및 상기 제1 특징들 중 제1 스타일 특징들 이용하여 상기 타겟 도메인의 이미지를 상기 소스 도메인의 이미지로 재구성하는, 이미지 도메인 적응 방법.
According to clause 6,
The step of reconstructing the image of the target domain into the image of the source domain includes:
Converting second content features among the second features into first content features in the source domain, and converting the image of the target domain using the converted content features and first style features among the first features. An image domain adaptation method for reconstructing an image of the source domain.
제9항에 있어서,
상기 제2 특징들 중 제2 컨텐트 특징들을 상기 소스 도메인에서의 제1 컨텐트 특징들로 변환은, 다음 수학식에 의해 수행되는, 이미지 도메인 적응 방법.

(여기서, 는 상기 타겟 도메인에 대응하는 도메인 A에서 상기 소스 도메인에 대응하는 도메인 B로 변환된 특징들, 는 도메인 A의 컨텐트 특징들을 도메인 B로 변환하기 위한 가중치, 는 도메인 A에서의 컨텐트 특징들, 는 도메인 B에서의 스타일 특징들을 의미함)
According to clause 9,
Converting second content features among the second features into first content features in the source domain is performed by the following equation.

(here, are features converted from domain A corresponding to the target domain to domain B corresponding to the source domain, is the weight for converting the content features of domain A to domain B, are the content features in domain A, refers to style features in domain B)
이미지 도메인 적응을 위한 명령어를 저장하는 메모리; 및
상기 메모리에 저장된 명령어에 따라 이미지 도메인 적응을 수행하는 프로세서를 포함하되,
상기 명령어는,
소스 도메인의 이미지로부터 제1 특징들을 추출하고, 타겟 도메인의 이미지로부터 제2 특징들을 추출하며, 비 선형 분리기(non-linear separator)에 기반한 비선형 분리 함수에 상기 제1 특징들 또는 상기 제2 특징들을 적용하여 상기 제1 특징들로부터 상기 소스 도메인의 제1 컨텐트 특징들을 분리하거나 상기 제2 특징들로부터 상기 제2 컨텐트 특징들을 분리하고, 상기 제1 특징들과 상기 분리 함수에 적용된 상기 제1 특징들 사이의 차이에 기반하여 상기 제1 스타일 특징들을 분리하거나 상기 제2 특징들과 상기 분리 함수에 적용된 상기 제2 특징들 사이의 차이에 기반하여 상기 타겟 도메인의 제2 스타일 특징들을 분리하며, 상기 제2 컨텐트 특징들 및 상기 제1 스타일 특징들을 기반으로 상기 타겟 도메인의 이미지를 상기 소스 도메인의 이미지로 재구성하는 명령어인, 이미지 도메인 적응 장치.
A memory that stores instructions for image domain adaptation; and
A processor that performs image domain adaptation according to instructions stored in the memory,
The command is:
Extract first features from an image of a source domain, extract second features from an image of a target domain, and apply the first features or the second features to a non-linear separation function based on a non-linear separator. Applying to separate first content features of the source domain from the first features or to separate the second content features from the second features, and applying the first features to the separation function Separating the first style features based on the difference between the first style features or separating the second style features of the target domain based on the difference between the second features and the second features applied to the separation function, 2 An image domain adaptation device, which is a command for reconstructing an image of the target domain into an image of the source domain based on content features and the first style features.
삭제delete 삭제delete 제11항에 있어서,
상기 타겟 도메인의 이미지를 상기 소스 도메인의 이미지로 재구성은,
상기 제2 컨텐트 특징들을 상기 소스 도메인에서의 제1 컨텐트 특징들로 변환하고, 변환된 컨텐트 특징들 및 상기 1 스타일 특징들을 이용하여 상기 타겟 도메인의 이미지를 상기 소스 도메인에서의 이미지로 재구성하는, 이미지 도메인 적응 장치.
According to clause 11,
Reconstructing the image of the target domain into the image of the source domain,
Converting the second content features into first content features in the source domain and reconstructing the image in the target domain into an image in the source domain using the converted content features and the first style features. Domain adaptation device.
제14항에 있어서,
상기 제2 컨텐트 특징들을 상기 제1 컨텐트 특징들로 변환은 다음 수학식에 의해 수행되는, 이미지 도메인 적응 장치.

(여기서, 는 상기 타겟 도메인에 대응하는 도메인 A에서 상기 소스 도메인에 대응하는 도메인 B로 변환된 특징들, 는 도메인 A의 컨텐트 특징들을 도메인 B로 변환하기 위한 가중치, 는 도메인 A에서의 컨텐트 특징들, 는 도메인 B에서의 스타일 특징들을 의미함)
According to clause 14,
Converting the second content features into the first content features is performed by the following equation.

(here, are features converted from domain A corresponding to the target domain to domain B corresponding to the source domain, is the weight for converting the content features of domain A to domain B, are the content features in domain A, refers to style features in domain B)
KR1020210148255A 2021-11-01 2021-11-01 Apparatus and method for domain adaptation of image KR102641358B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210148255A KR102641358B1 (en) 2021-11-01 2021-11-01 Apparatus and method for domain adaptation of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210148255A KR102641358B1 (en) 2021-11-01 2021-11-01 Apparatus and method for domain adaptation of image

Publications (2)

Publication Number Publication Date
KR20230063227A KR20230063227A (en) 2023-05-09
KR102641358B1 true KR102641358B1 (en) 2024-02-27

Family

ID=86408918

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210148255A KR102641358B1 (en) 2021-11-01 2021-11-01 Apparatus and method for domain adaptation of image

Country Status (1)

Country Link
KR (1) KR102641358B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282640A (en) * 2003-06-30 2010-12-16 Honda Motor Co Ltd System and method for face recognition
KR102285530B1 (en) * 2021-03-09 2021-08-04 주식회사 에스아이에이 Method for processing image for registration

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210074748A (en) * 2019-12-12 2021-06-22 삼성전자주식회사 Operating apparatus, operating method, and training method of network based on domain adaptation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010282640A (en) * 2003-06-30 2010-12-16 Honda Motor Co Ltd System and method for face recognition
KR102285530B1 (en) * 2021-03-09 2021-08-04 주식회사 에스아이에이 Method for processing image for registration

Also Published As

Publication number Publication date
KR20230063227A (en) 2023-05-09

Similar Documents

Publication Publication Date Title
Laptev et al. Ti-pooling: transformation-invariant pooling for feature learning in convolutional neural networks
EP3340129B1 (en) Artificial neural network class-based pruning
KR102421856B1 (en) Method and apparatus for processing image interaction
KR102192211B1 (en) Efficient Generative Adversarial Networks using Depthwise Separable and Channel Attention for Image to Image Translation
US20190251424A1 (en) Operation apparatus, operation execution device and operation execution method
CN108763191B (en) Text abstract generation method and system
KR102516366B1 (en) Method and apparatuis for acquaring feature data
KR20190091806A (en) Video sequences generating system using generative adversarial networks and the method thereof
US11567461B2 (en) Method and device for controlling a technical system using a control model
KR102179949B1 (en) Deep learning based classification system using image data augmentation, and cotrol method thereof
KR102236582B1 (en) Image processing apparatus and operating method for the same
KR20200132619A (en) Method and apparatus for spoken language to sign language translation using attention-based artificial neural machine translation approach
JPWO2017017937A1 (en) Deployment apparatus, deployment method, and recording medium
KR102641358B1 (en) Apparatus and method for domain adaptation of image
KR102166016B1 (en) A domain-aware method for image-to-image translations
KR20210085403A (en) Method for processing image based on machine learning and apparatus therefof
JP2019061512A (en) Data processing system using data feature
JP2017211936A5 (en)
KR102520240B1 (en) Apparatus and method for data augmentation using non-negative matrix factorization
KR102581211B1 (en) Apparatus and method for transforming style of sketch image
KR20200112191A (en) System and method for generating 3d object by mapping 3d texture to 2d object in video automatically
JP6703964B2 (en) Learning device, text generating device, method, and program
CN113239190B (en) Document classification method, device, storage medium and electronic equipment
KR102153786B1 (en) Image processing method and apparatus using selection unit
KR102654608B1 (en) Apparatus and method for generating depth map and normal map

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant