KR102332114B1 - 이미지 처리 방법 및 장치 - Google Patents

이미지 처리 방법 및 장치 Download PDF

Info

Publication number
KR102332114B1
KR102332114B1 KR1020200159197A KR20200159197A KR102332114B1 KR 102332114 B1 KR102332114 B1 KR 102332114B1 KR 1020200159197 A KR1020200159197 A KR 1020200159197A KR 20200159197 A KR20200159197 A KR 20200159197A KR 102332114 B1 KR102332114 B1 KR 102332114B1
Authority
KR
South Korea
Prior art keywords
image
morphing
style
content
feature vector
Prior art date
Application number
KR1020200159197A
Other languages
English (en)
Inventor
노준용
박상훈
서광균
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020200159197A priority Critical patent/KR102332114B1/ko
Application granted granted Critical
Publication of KR102332114B1 publication Critical patent/KR102332114B1/ko
Priority to US18/457,499 priority patent/US20230410249A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T3/0093
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

이미지를 처리하는 방법 및 장치에 관한 것이다. 일실시예에 따른 이미지 처리 방법은 복수의 입력 이미지들 각각에 대응하여, 콘텐츠 잠재 코드 및 스타일 잠재 코드를 추출하는 단계, 모핑(morphing) 제어에 관한 파라미터에 기초하여, 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 콘텐츠 특징 벡터를 획득하는 단계, 모핑 제어에 관한 파라미터에 기초하여, 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 스타일 특징 벡터를 획득하는 단계 및 콘텐츠 특징 벡터 및 상기 스타일 특징 벡터에 기초하여, 모핑 이미지를 생성하는 단계를 포함한다.

Description

이미지 처리 방법 및 장치{IMAGE PROCESSING METHOD AND APPARATUS THEREOF}
이미지를 처리하는 방법 및 장치에 관한 것이다. 보다 구체적으로, 이미지를 모핑하는 방법 및 장치에 관한 것이다.
이미지 모핑(image morphing)은 두 개의 서로 다른 이미지 사이의 전환 과정에 있는 이미지 시퀀스를 생성하는 기술이다. 하나의 디지털 이미지에서 다른 이미지가 생성되는 다양한 변환 효과로 인해, 이미지 모핑은 영화, TV 광고, 뮤직 비디오 및 게임에서 시각 효과를 위한 도구로 이용된다.
주어진 이미지 쌍 사이에 부드러운 전환을 만들기 위해 기존의 이미지 모핑 과정은 일반적으로 두 입력 이미지 간의 대응 관계 설정, 이미지에서 개체의 모양을 변경하는 워핑 함수(warping function) 적용, 점진적으로 부드러운 외관 전환을 위한 이미지 블렌딩(blending)의 세 단계를 포함한다.
이미지 모핑에 관한 기존 기술은 두 이미지 간의 부드러운 전환을 위해 대응 관계가 수동적으로 지정되어야 한다. 또한, 어떤 이미지에서는 보이는 객체의 일부가 다른 이미지에서는 가려진 경우, 워핑 함수를 적용할 수 없어 한 쌍의 입력 이미지는 객체 포즈 및 카메라 뷰 측면에서 지각적으로 유사한 의미적 구조(semantic structure)를 가져야 하는 제약이 있다.
실시예는 입력 이미지의 의미적 변화를 학습한 뉴럴 네트워크를 이용하여 객체 포즈와 카메라 뷰에 대한 제약이 크지 않은 이미지 모핑 기술을 제공할 수 있다.
또한, 입력 이미지들 사이의 대응 관계의 수동 지정이 필요하지 않은 이미지 모핑 기술을 제공할 수 있다.
다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.
일 측에 따른 이미지 처리 방법은 복수의 입력 이미지들 각각에 대응하여, 이미지의 콘텐츠에 관한 특징을 추출하는 콘텐츠 인코더에 기초하여, 해당하는 입력 이미지의 콘텐츠 잠재 코드를 추출하는 단계; 및 이미지의 스타일에 관한 특징을 추출하는 스타일 인코더에 기초하여, 상기 해당하는 입력 이미지의 스타일 잠재 코드를 추출하는 단계; 모핑(morphing) 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 콘텐츠 특징 벡터를 획득하는 단계; 상기 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 스타일 특징 벡터를 획득하는 단계; 및 임베딩(embedding) 벡터로부터 이미지를 생성하는 디코더, 상기 콘텐츠 특징 벡터 및 상기 스타일 특징 벡터에 기초하여, 모핑 이미지를 생성하는 단계를 포함한다.
상기 모핑 제어에 관한 파라미터는 콘텐츠 모핑 제어에 관한 파라미터 및 스타일 모핑 제어에 관한 파라미터를 포함할 수 있다.
상기 콘텐츠 특징 벡터를 획득하는 단계는 상기 콘텐츠 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 상기 콘텐츠 특징 벡터를 획득하는 단계를 포함할 수 있다.
상기 스타일 특징 벡터를 획득하는 단계는 상기 스타일 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 상기 스타일 특징 벡터를 획득하는 단계를 포함할 수 있다.
상기 복수의 입력 이미지들은 제1 이미지 및 제2 이미지를 포함할 수 있다.
상기 콘텐츠 특징 벡터를 획득하는 단계는 콘텐츠 모핑 제어에 관한 파라미터에 기초하여, 상기 제1 이미지에 대응하여 추출된 제1 콘텐츠 잠재 코드 및 상기 제2 이미지에 대응하여 추출된 제2 콘텐츠 잠재 코드를 보간(interpolate)하는 단계를 포함할 수 있다.
상기 스타일 특징 벡터를 획득하는 단계는 스타일 모핑 제어에 관한 파라미터에 기초하여, 상기 제1 이미지에 대응하여 추출된 제1 스타일 잠재 코드 및 상기 제2 이미지에 대응하여 추출된 제2 스타일 잠재 코드를 보간하는 단계를 포함할 수 있다.
상기 모핑 제어에 관한 파라미터는 상기 복수의 입력 이미지들에 대응하는 가중치들을 포함할 수 있다.
상기 모핑 이미지를 생성하는 단계는 상기 스타일 특징 벡터를 매핑 네트워크에 인가하여, 처리된 스타일 특징 벡터를 획득하는 단계; 및 상기 디코더에 기초하여, 상기 처리된 스타일 특징 벡터 및 상기 콘텐츠 특징 벡터를 디코딩함으로써, 모핑 이미지를 생성하는 단계를 포함할 수 있다.
상기 이미지의 콘텐츠는 상기 이미지 내 객체의 포즈, 상기 이미지 내 상기 객체의 위치 및 상기 객체를 촬영한 카메라의 구도에 관한 정보를 포함할 수 있다.
상기 이미지의 스타일은 상기 이미지 내 객체의 외관에 관한 정보를 포함할 수 있다.
상기 복수의 입력 이미지들은 상기 콘텐츠 및 상기 스타일 중 적어도 하나가 서로 다를 수 있다.
상기 모핑 이미지는 상기 복수의 입력 이미지들의 콘텐츠에 관한 특성들 중 적어도 하나의 콘텐츠에 관한 특성의 조합을 포함하고, 상기 복수의 입력 이미지들의 스타일에 관한 특성들 중 적어도 하나의 스타일에 관한 특성의 조합을 포함할 수 있다.
상기 복수의 입력 이미지들은 비디오를 구성하는 복수의 프레임들을 포함하고, 상기 모핑 이미지는 상기 비디오에서 상기 복수의 프레임들의 중간 프레임을 포함할 수 있다.
일 측에 따른 학습 방법은 제1 이미지, 제2 이미지 및 모핑 제어에 관한 파라미터에 기초한 정답 모핑 이미지를 포함하는 학습 데이터를 획득하는 단계; 상기 제1 이미지, 상기 제2 이미지 및 상기 모핑 제어에 관한 파라미터를 모핑 생성기에 입력함으로써, 출력 모핑 이미지를 획득하는 단계; 및 상기 학습 데이터에 포함된 이미지들 중 적어도 하나 및 상기 출력 모핑 이미지에 의한 손실 함수(loss)에 기초하여, 상기 모핑 생성기를 학습시키는 단계를 포함하고, 상기 손실 함수는 상기 학습 데이터에 포함된 이미지와 상기 모핑 생성기에서 획득된 상기 출력 모핑 이미지의 판별에 관한 적대적 손실(adversarial loss); 및 상기 학습 데이터에 포함된 이미지의 픽셀들 및 상기 출력 모핑 이미지의 픽셀들 사이의 차이에 관한 픽셀 단위의 재구성 손실(pixel-wise reconstruction loss) 중 적어도 하나에 기초하여 결정된다.
상기 적대적 손실은 상기 학습 데이터에 포함된 이미지들 중 어느 하나의 클래스 레이블 정보가 조건으로 설정된 조건부 적대적 손실(conditional 적대적 loss)을 포함할 수 있다.
상기 적대적 손실은 상기 모핑 제어에 관한 파라미터, 상기 제1 이미지 및 상기 출력 모핑 이미지의 판별에 관한 적대적 손실, 및 상기 제2 이미지 및 출력 모핑 이미지의 판별에 관한 적대적 손실에 기초하여 결정될 수 있다.
상기 픽셀 단위의 재구성 손실은 상기 학습 데이터에 포함된 이미지들 중 상기 모핑 제어에 관한 파라미터에 대응하는 정답 이미지 및 상기 출력 모핑 이미지에 기초하여 결정될 수 있다.
상기 모핑 제어에 관한 파라미터는 콘텐츠 모핑 제어에 관한 파라미터 및 스타일 모핑 제어에 관한 파라미터를 포함할 수 있다.
상기 출력 모핑 이미지를 획득하는 단계는 상기 제2 이미지의 콘텐츠 및 상기 제1 이미지의 스타일을 포함하는 제1 출력 모핑 이미지를 획득하는 단계; 및 상기 제1 이미지의 콘텐츠 및 상기 제2 이미지의 스타일을 포함하는 제2 출력 모핑 이미지를 획득하는 단계를 포함할 수 있다.
상기 모핑 생성기를 학습시키는 단계는 상기 제1 출력 모핑 이미지 및 상기 제1 이미지의 판별에 관한 적대적 손실 및 상기 제2 출력 모핑 이미지 및 상기 제2 이미지의 판별에 관한 적대적 손실에 기초하여 상기 생성기를 학습시키는 단계를 포함할 수 있다.
상기 모핑 생성기를 학습시키는 단계는 상기 모핑 생성기에 상기 제2 출력 모핑 이미지 및 상기 제2 이미지를 입력하여, 상기 제2 출력 모핑 이미지의 콘텐츠 및 상기 제2 이미지의 스타일을 포함하는 제3 출력 모핑 이미지를 획득하는 단계; 상기 모핑 생성기에 상기 제1 출력 모핑 이미지 및 상기 제1 이미지를 입력하여, 상기 제1 출력 모핑 이미지의 콘텐츠 및 상기 제1 이미지의 스타일을 포함하는 제4 출력 모핑 이미지를 획득하는 단계; 상기 제3 출력 모핑 이미지 및 제2 이미지에 기초한 적대적 손실 및 픽셀 단위의 재구성의 손실에 기초하여, 상기 모핑 생성기를 학습시키는 단계; 및 상기 제4 출력 모핑 이미지 및 제1 이미지에 기초한 적대적 손실 및 픽셀 단위의 재구성의 손실에 기초하여, 상기 모핑 생성기를 학습시키는 단계를 포함할 수 있다.
일 측에 따른 이미지 처리 장치는 복수의 입력 이미지들 각각에 대응하여, 해당하는 이미지를 인코딩함으로써, 콘텐츠 잠재 코드를 추출하고, 상기 해당하는 이미지를 인코딩함으로써, 스타일 잠재 코드를 추출하고, 모핑(morphing) 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 콘텐츠 특징 벡터를 획득하고, 상기 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 스타일 특징 벡터를 획득하며, 상기 콘텐츠 특징 벡터 및 상기 스타일 특징 벡터에 기초하여, 모핑 이미지를 생성하는, 적어도 하나의 프로세서를 포함한다.
상기 모핑 제어에 관한 파라미터는 콘텐츠 모핑 제어에 관한 파라미터 및 스타일 모핑 제어에 관한 파라미터를 포함할 수 있다.
상기 프로세서는 상기 콘텐츠 특징 벡터를 획득함에 있어서, 상기 콘텐츠 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 상기 콘텐츠 특징 벡터를 획득할 수 있고, 상기 스타일 특징 벡터를 획득함에 있어서, 상기 스타일 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 상기 스타일 특징 벡터를 획득할 수 있다.
상기 복수의 입력 이미지들은 제1 이미지 및 제2 이미지를 포함할 수 있다.
상기 프로세서는, 상기 콘텐츠 특징 벡터를 획득함에 있어서, 콘텐츠 모핑 제어에 관한 파라미터에 기초하여, 상기 제1 이미지에 대응하여 추출된 제1 콘텐츠 잠재 코드 및 상기 제2 이미지에 대응하여 추출된 제2 콘텐츠 잠재 코드를 보간(interpolate)하고, 상기 스타일 특징 벡터를 획득함에 있어서, 스타일 모핑 제어에 관한 파라미터에 기초하여, 상기 제1 이미지에 대응하여 추출된 제1 스타일 잠재 코드 및 상기 제2 이미지에 대응하여 추출된 제2 스타일 잠재 코드를 보간할 수 있다.
상기 프로세서는, 상기 모핑 이미지를 생성함에 있어서, 상기 스타일 특징 벡터를 매핑 네트워크에 인가하여, 처리된 스타일 특징 벡터를 획득하고, 상기 처리된 스타일 특징 벡터 및 상기 콘텐츠 특징 벡터를 디코딩함으로써, 상기 모핑 이미지를 생성할 수 있다.
상기 모핑 제어에 관한 파라미터는 상기 복수의 입력 이미지들에 대응하는 가중치들을 포함할 수 있다.
실시예를 통해 입력 이미지들 사이의 유사도에 관계없이 자연스러운 모핑 이미지를 생성할 수 있으며, 딥 러닝에 기반한 모핑 이미지 생성 기술을 통해 빠르게 모핑 이미지를 생성할 수 있다.
복수의 이미지들 사이의 모핑 이미지 획득을 위해, 사용자가 이미지의 구도에 관한 콘텐츠의 전환의 정도와 이미지의 외관에 관한 스타일의 전환의 정도를 개별적으로 제어할 수 있어, 풍부한 사용성을 제공할 수 있다.
또한, 실시예는 2 이상의 다중 이미지 사이의 모핑 및 비디오 프레임 보간(video frame interpolation) 등 다양하게 응용될 수 있다.
도 1 은 일실시예에 따른 이미지 모핑을 위한 뉴럴 네트워크의 개요를 도시한 도면.
도 2 분리된 콘텐츠 및 스타일의 전환을 설명하기 위한 도면이다.
도 3a 및 도 3b는 콘텐츠-스타일 축에 의해 정의된 평면에 걸쳐 있는 2D 전환 매니폴드를 도시한 도면들.
도 4는 일실시예에 따른 기본 전환을 수행하는 모핑 생성기의 구조를 도시한 도면.
도 5는 일실시예에 따른 분리된 콘텐츠 및 스타일 전환을 수행하는 모핑 생성기의 구조를 도시한 도면.
도 6 및 도 7은 일실시예에 따른 모핑 생성기의 학습 방법을 설명하기 위한 도면들.
도 8은 복수의 입력 이미지를 처리하는 모핑 생성기의 동작을 설명하기 위한 도면.
도 9는 일실시예에 따른 장치의 구성의 예시도.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
모핑 데이터 셋(Morphing dataset) 준비
도 1 은 일실시예에 따른 이미지 모핑을 위한 뉴럴 네트워크의 개요를 도시한 도면이다.
일실시예에 따른 이미지 모핑을 위한 뉴럴 네트워크는 잠재 공간(laten space)에서 입력 이미지들 간의 의미적 변화를 학습할 수 있는 피드 포워드 뉴럴 네트워크(feed-forward neural network)로, 입력된 이미지가 다른 입력된 이미지로 모핑된 이미지를 출력하는 네트워크에 해당할 수 있다. 이하에서, 일실시예에 따른 뉴럴 네트워크는 모핑 생성기(morphing generator), 생성기, 또는 G로 지칭될 수 있다.
도 1을 참조하면, 사전 학습(pre-trained)된 "교사(teacher)" 생성 모델에서 "학생" 생성기(student G)로 의미적 변환 능력을 추출하기 위한 모핑 데이터 셋을 구축할 수 있다.
모핑 데이터 셋을 구축하기 위한 교사 생성 모델로 클래스 조건부 이미지 합성(class-conditional image synthesis)에 잘 작동하는 것으로 알려진 BigGAN을 이용할 수 있다. BigGAN은 두 개의 임의 지점에서 샘플링 된 노이즈 벡터들에 더하여, 클래스 임베딩 벡터(class embedding vector)를 입력으로 사용하여 목적하는 클래스 이미지를 생성한다. 이 새로운 이미지는 제어 매개 변수α에 따라 두 개의 노이즈 벡터 zA, zB및 두 개의 클래스 임베딩 벡터 eA, eB의 선형 보간(linear interpolation)에 의해 생성된다. 보간은 한 클래스의 이미지에서 다른 클래스의 이미지로 부드러운 의미적 변환을 생성한다.
두 개의 임의 지점 샘플링으로 객체의 외관, 포즈 및 카메라 뷰 측면에서 서로 다른 이미지 쌍(101, 102)이 생성된다. 이는 객체의 포즈에 대한 약한 제약(weak constraints) 하에서 사용자가 선택한 이미지의 쌍의 충분한 공급을 효과적으로 시뮬레이션할 수 있게 한다. 결과적으로 생성기의 모핑 함수 학습을 위한 클래스 레이블(class label) {lA, lB}∈ L 및 학습 데이터 트리플렛(triplets) {xA, xB, xα}이 획득될 수 있다. 학습 데이터 트리플렛은 아래의 수학식 1에 의해 획득될 수 있다.
Figure 112020126572391-pat00001
여기서 α는 균등 분포 U[0, 1]에서 샘플링된다.
뉴럴 네트워크에 기초한 이미지 모핑
기본 전환(Base transition)
훈련(training) 단계에서, 주어진 이미지 쌍 {xA, xB}∈X(101, 102)에서 부드럽게 변경되는 모핑된 이미지들 yα∈Y의 시퀀스(110)를 생성하도록 모핑 생성기 G:{xA, xB, xα}→ yα가 훈련될 수 있다. 여기서, α{α∈R: 0≤α≤1}는 모핑 제어에 관한 파라미터이다. 훈련 단계에서 모핑 생성기는 교사 생성 모델(teacher generative model)의 잠재 공간(latent space)에서 이미지를 모핑하는 기능을 학습한다. 입력 이미지의 쌍 {xA, xB}(101, 102)은 잠재 공간의 임의의 두 지점에서 샘플링된 것이고, 목표 중간 이미지(target intermediate image) xα(103)는 임의의 모핑 제어에 관한 파라미터 α에서 두 개의 샘플링된 지점을 선형 보간하여 생성된 이미지이다.
모핑 생성기 G는 적대적 훈련 판별기(adversarially training discriminator; D) D에 의해 교사 모델의 샘플링된 입력 공간 {xA, xB, α}에서 목표 모핑 이미지 xα로의 매핑을 학습한다. 여기서, 판별기 D는 데이터 분포 x∈X 와 생성기 분포 y∈Y를 구별하는 것을 목표로 한다. 판별기 D는 다중 적대적 분류 작업(multiple adversarial classification tasks)에 대한 출력 |L|을 생성하는 다중 작업 판별기이다. 다시 말해, 판별기 D의 출력은 각 클래스에서 입력 이미지의 진짜/가짜(real/fake) 점수를 포함한다. 여기서, 진짜/가짜 점수는 입력 이미지가 학습 데이터에 포함된 진짜 이미지 x∈X일 확률 및/또는 모핑 생성기에서 출력된 가짜 이미지 y∈Y일 확률에 기초하여 결정될 수 있다. 일실시예에 따를 때, 판별기 D는 l번째 출력 분기(branch)만 입력 이미지 {xA, xB}와 관련된 클래스 레이블 {lA, lB}∈L에 따라 페널티를 받을 수 있다. 적대적 훈련(adversarial training)을 통해 판별기 D는 생성기 G로 하여금 입력 이미지의 콘텐츠와 스타일을 추출하고, 한 이미지를 다른 이미지로 부드럽게 변환시키도록 강제할 수 있다. 일실시예에 따른 생성기 G의 학습 방법은 이하에서 상술한다.
학습이 완료되면 생성기 G는 교사 모델의 의미적 변화(semantic changes) 를 반영하는 모핑 이미지 xα
Figure 112020126572391-pat00002
yα = G(xA, xB, α)를 생성할 준비가 된다. 추론(inference) 단계에서 사용자는 복수의 임의의 이미지(121, 122)를 훈련된 생성기 G에 입력할 수 있다. 사용자는 모핑 제어에 관한 파라미터 α를 제어함으로써, 복수의 이미지 사이의 부드러운 전환으로 생성된 모핑 이미지(130)를 획득할 수 있다.
분리된 콘텐츠 및 스타일 전환(Disentangled Content and Style Transition)
일실시예에 따를 때, 이미지 xA의 콘텐츠와 스타일을 이미지 xB의 콘텐츠와 스타일로 부드럽게 전환시키는 모핑 생성기는 콘텐츠의 전환과 스타일의 전환을 분리하여 수행하도록 확장될 수 있다. 여기서, 콘텐츠는 포즈, 카메라 뷰 및 이미지 내 객체의 위치를 의미하고, 스타일은 객체의 클래스 또는 도메인을 식별하는 외관(appearance)을 의미한다.
이미지의 콘텐츠와 스타일을 표기하기 위하여, 학습 데이터 트리플렛(triplet)에 포함된 이미지들 xA, xB 및 xα를 각각 xAA, xBB 및 xαα으로 표기한다. 여기서, 첫 번째 아래 첨자는 콘텐츠의 식별 기호에 해당하고, 두 번째 아래 첨자는 스타일의 식별 기호에 해당한다.
도 2를 참조하면, 이미지(201)의 콘텐츠는 유지되고, 스타일이 이미지(204)의 스타일로 전환된 이미지(203), 이미지(201)의 스타일은 유지되고, 콘텐츠가 이미지(204)의 콘텐츠로 전환된 이미지(202)를 도시한다. 스타일이 전환된 이미지(203)를 이미지(201)와 비교하면, 객체의 포즈 및 이미지의 구도는 동일하고, 객체의 외관이 이미지(204)에 포함된 객체의 외관으로 전환된 것을 확인할 수 있다. 콘텐츠가 전환된 이미지(202)를 이미지(201)와 비교하면, 이미지에 포함된 객체의 외관은 동일하고, 객체의 포즈 및 이미지의 구도가 이미지(204)에 포함된 객체의 포즈 및 이미지의 구도로 전환된 것을 확인할 수 있다. 이미지(201)를 xAA, 이미지(204)를 xBB라고 표기할 때, 이미지(201)의 콘텐츠 및 이미지(204)의 스타일로 구성된 이미지(203)는 xAB, 이미지(204)의 콘텐츠, 이미지(201)의 스타일로 구성된 이미지(202)는 xBA로 표기될 수 있다.
분리된 전환(disentangled transition)은 입력 이미지들 사이의 1D 전환 매니폴드(transition manifold)에서 도 3a 및 도 3b에 도시된 바와 같이, 콘텐츠-스타일 축에 의해 정의된 평면에 걸쳐 있는 2D 전환 매니폴드로 모핑 제어의 차원을 증가시킨다. 이 확장은 두 이미지 xAA, xBB 간의 스타일 및 콘텐츠의 구성이 교체된(swapped) 이미지 xAB, xBA를 생성하도록 모핑 생성기를 훈련시킴으로써 달성될 수 있다.
분리된 전환을 학습한 모핑 생성기는 xAA에서 xBB로 전환되는 과정에 해당하는 일련의 이미지 시퀀스 뿐만 아니라, 콘텐츠 모핑 제어에 관한 파라미터 및 스타일 모핑 제어에 관한 파라미터에 기초하여, xAA에서 xAB로 전환되는 과정, xAA에서 xBA로 전환되는 과정, xBA에서 xBB로 전환되는 과정 및 xAB에서 xBB로 전환되는 과정에 해당하는 일련의 이미지 시퀀스를 생성할 수 있다. 다시 말해, 모핑 생성기는 복수의 입력 이미지들의 콘텐츠에 관한 특성들 중 적어도 하나의 콘텐츠에 관한 특성의 조합을 포함하고, 복수의 입력 이미지들의 스타일에 관한 특성들 중 적어도 하나의 스타일에 관한 특성의 조합을 포함하는 모핑 이미지를 생성할 수 있다.
그러나 학습 데이터 트리플렛 {xAA, xBB, xαα}은 기본 전환을 위한 학습 데이터 셋으로, 콘텐츠와 스타일이 교체된 이미지를 포함하지 않는다. 따라서 기본 전환은 지도 학습(supervised learning)과 자기 지도 학습(self-supervised learning)의 조합으로 훈련될 수 있지만, 분리된 전환은 비지도 학습(unsupervised learning)에 의해서만 훈련될 수 있다.
일실시예에 따른 분리된 콘텐츠 및 스타일 전환을 수행하는 모핑 생성기 G는 아래의 수학식 2와 같이 나타낼 수 있다.
Figure 112020126572391-pat00003
여기서, α 및 α는 각각 콘텐츠 모핑 제어에 관한 파라미터 및 스타일 모핑 제어에 관한 파라미터를 나타낸다. 추론 단계에서 αc 및 αs을 개별적으로 제어함으로써, 사용자는 출력 이미지의 스타일을 고정하면서 콘텐츠를 부드럽게 전환할 수 있으며, 그 반대의 경우도 마찬가지이다.
상술한 수학식 2는 아래의 수학식 3과 같이 분해될 수 있다.
Figure 112020126572391-pat00004
여기서,
Figure 112020126572391-pat00005
는 아래의 수학식 4와 같이 나타낼 수 있다.
Figure 112020126572391-pat00006
여기서, Lerp(A, B, α)은 (1-α)A + αB의 선형 함수이며, 그 역할은 두 개의 인코더 각각에서 추출된 잠재 코드를 디코더 F에 인가(feeding into)하기 전에 보간하는 것이다. 네트워크 레이어의 깊은 병목 위치에서 콘텐츠 및 스타일 특징을 보간함으로써, 모핑 생성기 G는 두 입력 이미지에서 정의된 동일한 매니폴드에서 모핑된 이미지를 생성하는 매핑을 학습한다.
도 4는 일실시예에 따른 기본 전환을 수행하는 모핑 생성기의 구조를 도시한 도면이다.
도 4를 참조하면, 일실시예에 따른 모핑 생성기(410)는 콘텐츠와 스타일 공간을 학습할 수 있는 오토 인코더(Ec, Es)를 포함하며, 이미지 모핑을 달성하기 위해 모핑 제어에 관한 파라미터(α)에 따라 잠재 코드(latent code)를 조정하는 구성(Lerp)을 포함할 수 있다. 잠재 코드의 조정을 통해 학생 네트워크인 모핑 생성기(410)는 교사 네트워크의 기본 모핑 효과를 학습할 수 있다. 또한, 이하에서 상술하겠으나, 별도의 분리된 콘텐츠 및 스타일의 공간에서 잠재 코드를 개별적으로 조작함으로써, 학생 네트워크인 모핑 생성기(410)는 교사 네트워크가 만들 수 없는 분리된 모핑을 학습할 수 있다.
일실시예에 따른 모핑 생성기(410)는 입력 이미지 {xAA, xBB}가 주어진 경우, 모핑된 이미지 yαα을 출력하는 컨볼루션 뉴럴 네트워크(convolutional neural network; CNN)로 구성될 수 있다. 모핑 생성기(410)는 콘텐츠 인코더 Ec, 스타일 인코더 Es, 및 디코더 F로 구성된다. 입력 이미지 x에서 Ec는 콘텐츠 잠재 코드 c = Ec(x)를 추출하고, Es는 스타일 잠재 코드 s = Es(x)를 추출할 수 있다. 각 인코더의 가중치는 서로 다른 클래스에서 공유되므로 입력 이미지는 모든 클래스의 콘텐츠 또는 스타일과 관련된 공유 잠재 공간에 매핑될 수 있다.
예를 들어, 콘텐츠 인코더 Ec는 3 개의 다운 샘플링 레이어와 3 개의 병목 레이어로 구성되고, 스타일 인코더 Es은 6 개의 다운 샘플링 레이어와 final global sum-pooling 레이어로 구성될 수 있다. 따라서 콘텐츠 잠재 코드 c 및 스타일 잠재 코드 s은 각각 잠재 텐서 및 잠재 벡터의 형태로 보간될 수 있다.
일실시예에 따를 때, 스타일 잠재 코드 s는 디코더 F에 입력되기에 앞서, 매핑 네트워크(420)에 입력될 수 있다. 일실시예에 따른 매핑 네트워크(420)는 다중층 퍼셉트론(multilayer perceptrons; MLP) 레이어 및 적응형 인스턴스 정규화(adaptive instance normarlization; AdaIN) 레이어로 구성될 수 있다. 디코더 F는 매핑 네트워크를 통과한 스타일 잠재 코드 s 및 콘텐츠 잠재 코드 c를 출력 이미지 y로 디코딩할 수 있다. 모핑 생성기(410)의 구성 요소 Ec, Es, F 및 MLP는 단일 네트워크만 사용하여 서로 다른 클래스 간의 매핑을 학습할 수 있다.
보다 구체적으로, 일실시예에 따른 모핑 생성기(410)에서 수행되는 이미지 처리 방법은 복수의 입력 이미지(xAA, xBB)들 각각에 대응하여, 콘텐츠 잠재 코드(cA, cB) 및 스타일 잠재 코드(sA, sB)를 추출하는 단계, 모핑 제어에 관한 파라미터(α)에 기초하여, 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들(cA, cB)을 가중 합함으로써, 콘텐츠 특징 벡터(cα) 를 획득하는 단계, 모핑 제어(α)에 관한 파라미터에 기초하여, 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들(sA, sB)을 가중 합함으로써, 스타일 특징 벡터(sα)를 획득하는 단계 및 콘텐츠 특징 벡터(cα) 및 스타일 특징 벡터(sα)에 기초하여, 모핑 이미지(yαα)를 생성하는 단계를 포함할 수 있다.
일실시예에 따른 콘텐츠 잠재 코드(cA, cB) 및 스타일 잠재 코드(sA, sB)를 추출하는 단계는 입력 이미지들(xAA, xBB) 각각에 대응하여, 해당하는 이미지의 콘텐츠에 관한 특징을 추출하는 콘텐츠 인코더(Ec)에 기초하여, 해당하는 입력 이미지의 콘텐츠 잠재 코드를 추출하는 단계, 및 이미지의 스타일에 관한 특징을 추출하는 스타일 인코더(Es)에 기초하여, 해당하는 입력 이미지의 스타일 잠재 코드를 추출하는 단계를 포함할 수 있다.
예를 들어, 콘텐츠 잠재 코드 및 스타일 잠재 코드를 추출하는 단계는 입력 이미지(xAA-)를 콘텐츠 인코더(Ec)-에 인가하여, 입력 이미지(xAA)의 콘텐츠 잠재 코드(cA)를 추출하고, 입력 이미지(xAA)를 스타일 인코더(Es)에 인가하여, 입력 이미지(xAA)의 스타일 잠재 코드(sA)를 추출하는 단계, 및 입력 이미지(xBB)를 콘텐츠 인코더(Ec)에 인가하여, 입력 이미지(xBB)의 콘텐츠 잠재 코드(cB)를 추출하고, 입력 이미지(xBB)를 스타일 인코더(Es)에 인가하여, 입력 이미지(xBB)의 스타일 잠재 코드(sB)를 추출하는 단계를 포함한다.
일실시예에 따른 콘텐츠 특징 벡터를 획득하는 단계는 cα = Lerp(cA, cB, α) = (1-α)cA + αcB 에 따라 입력 이미지들에 대응하여 출력된 콘텐츠 잠재 코드들(cA, cB)을 가중 합 또는 보간하는 단계를 포함할 수 있다. 마찬가지로, 스타일 특징 벡터를 획득하는 단계는 sα = Lerp(sA, sB, α) = (1-α)sA + αsB 에 따라 입력 이미지들에 대응하여 출력된 스타일 잠재 코드들(sA, sB)을 가중 합 또는 보간하는 단계를 포함할 수 있다.
일실시예에 따른 모핑 이미지를 생성하는 단계는 특징 벡터로부터 이미지를 생성하는 디코더(F)에 기초하여, 스타일 특징 벡터(sα) 및 콘텐츠 특징 벡터(cα)를 디코딩함으로써, 모핑 이미지(yαα)를 생성하는 단계를 포함할 수 있다. 상술한 바와 같이, 스타일 특징 벡터(sα)는 매핑 네트워크(420)를 통과하여 처리될 수 있으며, 디코더(F)는 처리된 스타일 특징 벡터 및 콘텐츠 특징 벡터에 기초하여 모핑 이미지(yαα)를 출력할 수 있다.
도 4는 2개의 이미지를 입력 받아, 모핑 제어 파라미터에 따른 모핑 이미지를 생성하는 모핑 생성기(410)를 도시하고 있으나, 일실시예에 따른 모핑 생성기(410)는 2 이상의 복수의 이미지를 입력 받아, 모핑 제어 파라미터에 따른 모핑 이미지를 생성할 수 있다.
도 5는 일실시예에 따른 분리된 콘텐츠 및 스타일 전환을 수행하는 모핑 생성기의 구조를 도시한 도면이다.
도 5를 참조하면, 모핑 제어에 관한 파라미터는 콘텐츠 모핑 제어에 관한 파라미터(αc) 및 스타일 모핑 제어에 관한 파라미터(αs)를 포함할 수 있다. 일실시예에 따른 모핑 생성기(510)는 별도의 분리된 콘텐츠 및 스타일의 공간에서 콘텐츠 모핑 제어에 관한 파라미터(αc) 및 스타일 모핑 제어에 관한 파라미터(αs)에 기초하여 잠재 코드를 개별적으로 조작할 수 있다.
입력 이미지가 xAA 및 xBB인 경우, 일실시예에 따른 콘텐츠 특징 벡터(
Figure 112020126572391-pat00007
)를 획득하는 단계는 콘텐츠 모핑 제어에 관한 파라미터(αc)에 기초하여, 복수의 입력 이미지들(xAA, xBB)에 대응하여 추출된 콘텐츠 잠재 코드들(cA, cB)을 가중 합함으로써, 콘텐츠 특징 벡터(
Figure 112020126572391-pat00008
)를 획득하는 단계를 포함할 수 있고, 스타일 특징 벡터(
Figure 112020126572391-pat00009
)를 획득하는 단계는 스타일 모핑 제어에 관한 파라미터(αs)에 기초하여, 복수의 입력 이미지들(xAA, xBB)에 대응하여 추출된 스타일 잠재 코드들(sA, sB)을 가중 합함으로써, 스타일 특징 벡터(
Figure 112020126572391-pat00010
)를 획득하는 단계를 포함할 수 있다.
예를 들어, 콘텐츠 특징 벡터(
Figure 112020126572391-pat00011
)는 Lerp(cA, cB, αc) 에 따라 입력 이미지들에 대응하여 출력된 콘텐츠 잠재 코드들이 가중 합 또는 보감됨으로써 획득될 수 있으며, 콘텐츠 특징 벡터(
Figure 112020126572391-pat00012
)는 Lerp(sA, sB, αs)에 따라 입력 이미지들에 대응하여 출력된 스타일 잠재 코드들이 가중 합 또는 보감됨으로써 획득될 수 있다.
디코더(F)는 스타일 특징 벡터 및 콘텐츠 특징 벡터에 기초하여 모핑 이미지(
Figure 112020126572391-pat00013
)를 출력할 수 있다. 상술한 바와 같이, 일실시예에 따를 때, 스타일 특징 벡터는 매핑 네트워크(520)에 의해 처리된 후 디코더(F)에 입력될 수 있다.
Training Objectives
도 6은 일실시예에 따른 모핑 생성기의 학습 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 일실시예에 따른 모핑 생성기(610)의 학습 방법은 제1 이미지(xAA), 제2 이미지(xBB) 및 모핑 제어에 관한 파라미터에 기초한 정답 모핑 이미지(xαα)를 포함하는 학습 데이터(601)를 획득하는 단계, 제1 이미지, 제2 이미지 및 모핑 제어에 관한 파라미터(α)를 모핑 생성기에 입력함으로써, 출력 모핑 이미지(yαα)를 획득하는 단계, 및 학습 데이터(610)에 포함된 이미지들(xAA, xBB, xαα) 중 적어도 하나 및 출력 모핑 이미지에 의한 손실 함수(loss functions)에 기초하여, 모핑 생성기(610)를 학습시키는 단계를 포함한다. 여기서, 학습 데이터(601)는 상술한 학습 데이터 트리플렛 {xAA, xBB, xαα}에 대응될 수 있다.
손실 함수(Loss Functions)
일실시예에 따를 때, 모핑 생성기(610)를 훈련하기 위해 두 가지 주요 손실 함수를 사용한다. 첫 번째 손실 함수는 적대적 손실(adversarial loss)(Ladv)이다. 일실시예에 따른 적대적 손실(Ladv)은 학습 데이터(601)에 포함된 이미지와 모핑 생성기(610)에서 획득된 이미지의 판별에 관한 손실(adversarial loss)로, 학습 데이터(601)에 포함된 이미지와 모핑 생성기(610)에서 생성된 이미지를 판별하는 판별기(620)와 모핑 생성기(610)를 적대적으로 학습시키기 위한 손실 함수이다. 일실시예에 따른 적대적 손실(Ladv)은 학습 데이터(601)에 포함된 이미지의 클래스 레이블 정보가 조건으로 설정된 조건부 적대적 손실(conditional adversarial loss)을 포함할 수 있다. 예를 들어, 클래스 레이블 l∈L이 주어지면, 판별기(620)는 입력 이미지가 클래스의 진짜 데이터 x∈X인지 또는 모핑 생성기 (610)에서 생성된 데이터 y∈Y인지 구별한다. 한편, 모핑 생성기(610)는 아래의 수학식 5와 같은 조건부 적대 손실 함수(conditional adversarial loss function)를 통해 진짜 이미지 x와 유사한 출력 이미지 를 생성함으로써, 판별기를 속이려고 한다.
Figure 112020126572391-pat00014
두 번째 손실 함수는 픽셀 단위의 재구성 손실(pixel-wise reconstruction loss)(Lpix)이다. 픽셀 단위의 재구성 손실(Lpix)은 정답 이미지와 생성 이미지의 픽셀 별 차이에 기초하여 결정될 수 있다. 여기서, 정답 이미지는 주어진 학습 데이터(601)에 포함된 이미지에 해당할 수 있다.
예를 들어, 학습 데이터 트리플렛 x가 주어지면, 생성기(610)는 픽셀 단위의 L1 손실 함수에 기초하여 정답(ground truth; GT) x에 가까운 출력 이미지 y를 생성하도록 훈련된다. 설명의 간결함을 위해 픽셀 단위 재구성 손실은 다음의 수학식 6과 같이 단순화하여 표현한다.
Figure 112020126572391-pat00015
ID 손실(identity loss)
이미지 모핑은 두 개의 입력 이미지 {xAA, xBB} 간의 선형 변환이다. 이를 달성하기 위해 모핑 생성기 G는 두 개의 입력 이미지와 중간 이미지를 깊게 펼쳐진 매니폴드에 정의된 표현으로 변환하고, 다시 이미지 도메인으로 복원할 수 있어야 한다. 모핑 생성기 G는 다음의 수학식 7과 같이 ID 적대적 손실(Lidt adv) 및 ID 픽셀 단위의 재구성 손실(Lidt pix)에 기초하여, 자기 지도 학습 방법으로 입력과 동일한 이미지를 생성하는 방법을 학습한다.
Figure 112020126572391-pat00016
여기서, 이미지 {yAA, yBB}는 입력 이미지 {xAA, xBB}가 모핑되지 않도록 파라미터(α)를 조정하여 출력된 이미지로, 모핑 생성기에 의한 입력 이미지의 복원된 버전이다. 이러한 ID 손실은 두 인코더 Ec 및 Es가 입력 이미지 x에서 평면 매니폴드로 잠재 코드를 추출하는 것을 돕고, 디코더 F가 두 코드를 다시 입력 이미지 형태로 복원하는 것을 돕는다.
모핑 손실(Morphing Loss)
두 이미지에서 모핑된 결과는 두 이미지의 특성을 가져야 한다. 이를 달성하기 위해 α 값에 따라 xAA와 xBB 사이의 가중된 스타일을 출력 이미지에 적용하는 가중 적대적 손실(weighted adversarial loss)(Lmrp adv)을 이용한다. 또한, 타겟 모핑 데이터 xαα이 주어지면, 모핑 생성기 G는 픽셀 단위 재구성 손실(Lmrp pix)을 최소화함으로써, 두 입력 이미지 간의 의미 변화를 학습한다. 두 가지 손실은 다음의 수학식 8과 같이 나타낼 수 있다.
Figure 112020126572391-pat00017
여기서, cα 및 sα은 파라미터 α 및 수학식 4를 사용하여 추출된 잠재 코드에서 보간된다. ID 손실과 유사하게 이러한 모핑 손실은 생성기의 출력 이미지 yαα 이 두 입력 이미지를 연결하는 라인 매니폴드에 배치되도록 강제한다.
스와핑 손실(Swapping Loss)
상술한 바와 같이, 기본 전환을 분리된 전환으로 확장하기 위해 모핑 생성기 G를 콘텐츠 또는 스타일이 스와핑된 이미지 {yAB, yBA}를 출력하도록 훈련한다. 그러나 학습 데이터에는 이러한 이미지가 포함되어 있지 않으므로 다음의 수학식 9와 같이 비지도 학습 방식으로 스와핑 손실(Lswp adv)을 최소화해야 한다.
Figure 112020126572391-pat00018
이러한 손실은 두 인코더 Ec, Es이 콘텐츠와 스타일이 얽힌 각 입력 이미지에서 두 가지 특성을 분리하도록 한다.
사이클 스와핑 손실(Cycle-swapping Loss)
모핑 생성기 G가 분리된 표현을 학습하고 콘텐츠 또는 스타일이 스와핑된 이미지가 입력 이미지의 콘텐츠를 보존하는 것을 보장하기 위해 다음의 수학식 10의 사이클 스와핑 손실(Lcyc adv, Lcyc pix)을 사용한다.
Figure 112020126572391-pat00019
여기서, 사이클 교체 이미지 {y'AA, y'BB}는 스와핑 이미지 {yAB, yBA}의 콘텐츠 또는 스타일이 다시 입력 이미지 {xAA, xBB}와 같이 스와핑된, 모핑 생성기에 의해 입력 이미지로 복원된 버전의 이미지이다.
도 7을 참조하면, 모핑 제어에 관한 파라미터(αc, αs)에 의해 생성기(710)에서 출력된 모핑 이미지(
Figure 112020126572391-pat00020
)는 입력 이미지(xAA, xBB)로 복원하기 위한 파라미터(α'c, α's)와 함께 다시 모핑 생성기(720)에 입력되어, 입력 이미지(xAA, xBB)로 복원하기 위한 출력 이미지(
Figure 112020126572391-pat00021
)가 생성될 수 있다.
전체 목적 함수(Full Objective)
전체 목적 함수는 두 가지 주요 항(Ladv, Lpix)의 조합이다. 다음의 수학식 11의 최소 최대 최적화 문제를 해결함으로써, 생성기 G가 훈련될 수 있다.
Figure 112020126572391-pat00022
여기서 하이퍼 파라미터 λ의 역할은 2개의 주요 손실 함수의 항의 중요성의 균형을 맞추기 위한 것이다.
일실시예에 따를 때, 기본 전환에 대해 ID 손실 및 모핑 손실이 먼저 도입되고, 분리된 전환에 대해 스와핑 및 사이클 스와핑 손실이 추가될 수 있다. 훈련 중에 모핑 생성기 G에 대한 모핑 파라미터 αc, αs 은 수학식 7 및 8에서 동일한 값(예를 들어, αc = αs = 0, αc = αs = α 또는 αc = αs = 1)으로 설정되어 기본 전환을 학습하지만 분리된 전환의 학습에 관한 수학식 9 및 10에서는 서로 다르게 설정된다. 훈련이 끝나면 사용자는 추론 단계에서 두 개의 파라미터 αc, αs을 0과 1 사이의 동일한 값으로 설정하여 기본 전환에 따른 모핑 이미지를 만들 수 있다. 모핑 생성기는 2D의 콘텐츠-스타일 매니폴드를 학습했기 때문에 콘텐츠 및 스타일을 개별적으로 모핑하기 위해 αc 및 αs 의 값을 독립적으로 설정할 수도 있다.
활용예
다중 이미지 모핑(Multi Image Morphing)
도 8은 복수의 입력 이미지를 처리하는 모핑 생성기의 동작을 설명하기 위한 도면이다.
위에서 두 개의 입력 이미지를 처리하는 경우를 예로 들어 모핑 생성기의 동작을 설명했지만, 일실시예에 따른 모핑 생성기는 두 개의 이미지만 처리하는 것으로 제한되지 않는다. 도 8을 참조하면, 일실시예에 따른 모핑 생성기(810)는 2 이상의 M개의 이미지(x1,…, xM)를 입력 받을 수 있으며, 모핑 제어에 관한 파라미터는 M개의 이미지들 각각에 대응하는 M개의 가중치를 포함할 수 있다. 수학식 3에서 사용된 파라미터 αc 및 αs을 M개의 이미지에 대한 가중치로 대체함으로써, 아래의 수학식 12와 같이 복수의 이미지를 처리하는 모피 생성기 G를 일반화할 수 있다.
Figure 112020126572391-pat00023
여기서, wc1,2,…,M 는 M개의 이미지 각각에 대응하는 콘텐츠 가중치, ws1,2,…,M는 M개의 이미지 각각에 대응하는 스타일 가중치를 의미한다. 일실시예에 따를 때, 콘텐츠 가중치(wc1,2,…,M) 및 스타일 가중치(ws1,2,…,M)에 대하여 제약 조건
Figure 112020126572391-pat00024
Figure 112020126572391-pat00025
이 설정될 수 있다. 이러한 적응은 훈련 절차를 수정하지 않고 동일한 네트워크를 사용하는 런타임에 적용될 수 있다.
다시 말해, 모핑 생성기(810)는 M개의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 M개의 이미지에 대응하는 콘텐츠 가중치(wc1,2,…,M)에 기초하여 가중 합함으로써, 콘텐츠 특징 벡터(cw)를 획득할 수 있다. 마찬가지로, 스타일 특징 벡터(sw)는 M개의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들이 M개의 이미지에 대응하는 스타일 가중치(ws1,2,…,M)에 기초하여 가중 합됨으로써, 획득될 수 있다.
비디오 프레임 보간(Video Frame Interpolation)
프레임이 밀접하게 관련되어 있고 유사한 카메라 기준선을 공유한다고 가정하는 경우, 프레임 보간으로 두 개의 인접 프레임에 대한 중간 이미지가 생성될 수 있다. 일실시예에 따른 모핑 생성기는 상당히 다른 이미지를 처리하는 것을 목표로 하기 때문에, 프레임 보간을 이미지 모핑의 하위 문제로 간주하고 높은 프레임 속도(frame rate)의 비디오를 생성할 수 있다. 다시 말해, 일실시예에 따른 모핑 생성기에 특정 비디오를 구성하는 복수의 프레임들이 입력될 수 있고, 모핑 생성기는 모핑 제어에 관한 파라미터에 기초하여 복수의 프레임들의 중간 프레임(들)을 출력할 수 있다.
도 9는 일실시예에 따른 장치의 구성의 예시도이다.
도 9를 참조하면, 장치(900)는 프로세서(901), 메모리(903) 및 입출력 장치(905)를 포함한다.
일실시예에 따른 장치(900)는 전술한 모핑 생성기 또는 전술한 이미지 처리 방법을 수행하는 장치로, 서버 및 사용자의 디바이스(예를 들어, 휴대폰, 컴퓨터 등)를 포함할 수 있다. 프로세서(901)는 도 1 내지 도 8을 통하여 전술한 모핑 생성기의 동작 또는 전술한 적어도 하나의 방법을 수행할 수 있다. 메모리(903)는 이미지 처리 방법과 관련된 정보를 저장하거나 전술한 이미지 처리 방법이 구현된 프로그램을 저장할 수 있다. 메모리(903)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(901)는 프로그램을 실행하고, 장치(900)를 제어할 수 있다. 프로 세서(901)에 의하여 실행되는 프로그램의 코드는 메모리(903)에 저장될 수 있다. 장치(900)는 입출력 장치(905)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 복수의 입력 이미지들 각각에 대응하여,
    이미지의 콘텐츠에 관한 특징을 추출하는 콘텐츠 인코더에 기초하여, 해당하는 입력 이미지의 콘텐츠 잠재 코드를 추출하는 단계; 및
    이미지의 스타일에 관한 특징을 추출하는 스타일 인코더에 기초하여, 상기 해당하는 입력 이미지의 스타일 잠재 코드를 추출하는 단계;
    모핑(morphing) 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 콘텐츠 특징 벡터를 획득하는 단계;
    상기 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 스타일 특징 벡터를 획득하는 단계; 및
    디코더에 기초하여, 상기 콘텐츠 특징 벡터 및 상기 스타일 특징 벡터를 디코딩함으로써, 모핑 이미지를 생성하는 단계
    를 포함하는,
    이미지 처리 방법.
  2. 제1항에 있어서,
    상기 모핑 제어에 관한 파라미터는 콘텐츠 모핑 제어에 관한 파라미터 및 스타일 모핑 제어에 관한 파라미터를 포함하고,
    상기 콘텐츠 특징 벡터를 획득하는 단계는
    상기 콘텐츠 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 상기 콘텐츠 특징 벡터를 획득하는 단계
    를 포함하고,
    상기 스타일 특징 벡터를 획득하는 단계는
    상기 스타일 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 상기 스타일 특징 벡터를 획득하는 단계
    를 포함하는,
    이미지 처리 방법.
  3. 제1항에 있어서,
    상기 복수의 입력 이미지들은 제1 이미지 및 제2 이미지를 포함하고,
    상기 콘텐츠 특징 벡터를 획득하는 단계는
    콘텐츠 모핑 제어에 관한 파라미터에 기초하여, 상기 제1 이미지에 대응하여 추출된 제1 콘텐츠 잠재 코드 및 상기 제2 이미지에 대응하여 추출된 제2 콘텐츠 잠재 코드를 보간(interpolate)하는 단계
    를 포함하며,
    상기 스타일 특징 벡터를 획득하는 단계는
    스타일 모핑 제어에 관한 파라미터에 기초하여, 상기 제1 이미지에 대응하여 추출된 제1 스타일 잠재 코드 및 상기 제2 이미지에 대응하여 추출된 제2 스타일 잠재 코드를 보간하는 단계
    를 포함하는,
    이미지 처리 방법.
  4. 제1항에 있어서,
    상기 모핑 제어에 관한 파라미터는
    상기 복수의 입력 이미지들에 대응하는 가중치들을 포함하는,
    이미지 처리 방법.
  5. 제1항에 있어서,
    상기 모핑 이미지를 생성하는 단계는
    상기 스타일 특징 벡터를 매핑 네트워크에 인가하여, 처리된 스타일 특징 벡터를 획득하는 단계; 및
    상기 디코더에 기초하여, 상기 처리된 스타일 특징 벡터 및 상기 콘텐츠 특징 벡터를 디코딩함으로써, 모핑 이미지를 생성하는 단계
    를 포함하는,
    이미지 처리 방법.
  6. 제1항에 있어서,
    상기 이미지의 콘텐츠는 상기 이미지 내 객체의 포즈, 상기 이미지 내 상기 객체의 위치 및 상기 객체를 촬영한 카메라의 구도에 관한 정보를 포함하고,
    상기 이미지의 스타일은 상기 이미지 내 객체의 외관에 관한 정보를 포함하는,
    이미지 처리 방법.
  7. 제1항에 있어서,
    상기 복수의 입력 이미지들은
    상기 콘텐츠 및 상기 스타일 중 적어도 하나가 서로 다른
    이미지 처리 방법.
  8. 제1항에 있어서,
    상기 모핑 이미지는
    상기 복수의 입력 이미지들의 콘텐츠에 관한 특성들 중 적어도 하나의 콘텐츠에 관한 특성의 조합을 포함하고,
    상기 복수의 입력 이미지들의 스타일에 관한 특성들 중 적어도 하나의 스타일에 관한 특성의 조합을 포함하는,
    이미지 처리 방법.
  9. 제1항에 있어서,
    상기 복수의 입력 이미지들은 비디오를 구성하는 복수의 프레임들을 포함하고,
    상기 모핑 이미지는 상기 비디오에서 상기 복수의 프레임들의 중간 프레임을 포함하는,
    이미지 처리 방법.
  10. 제1 이미지, 제2 이미지 및 모핑 제어에 관한 파라미터에 기초한 정답 모핑 이미지를 포함하는 학습 데이터를 획득하는 단계;
    상기 제1 이미지, 상기 제2 이미지 및 상기 모핑 제어에 관한 파라미터를 모핑 생성기에 입력함으로써, 출력 모핑 이미지를 획득하는 단계; 및
    상기 학습 데이터에 포함된 이미지들 중 적어도 하나 및 상기 출력 모핑 이미지에 의한 손실 함수(loss)에 기초하여, 상기 모핑 생성기를 학습시키는 단계
    를 포함하고,
    상기 손실 함수는
    상기 학습 데이터에 포함된 이미지와 상기 모핑 생성기에서 획득된 상기 출력 모핑 이미지의 판별에 관한 적대적 손실(adversarial loss); 및
    상기 학습 데이터에 포함된 이미지의 픽셀들 및 상기 출력 모핑 이미지의 픽셀들 사이의 차이에 관한 픽셀 단위의 재구성 손실(pixel-wise reconstruction loss)
    중 적어도 하나에 기초하여 결정되는,
    학습 방법.
  11. 제10항에 있어서,
    상기 적대적 손실은
    상기 학습 데이터에 포함된 이미지들 중 어느 하나의 클래스 레이블 정보가 조건으로 설정된 조건부 적대적 손실(conditional 적대적 loss)을 포함하는,
    학습 방법.
  12. 제10항에 있어서,
    상기 적대적 손실은
    상기 모핑 제어에 관한 파라미터, 상기 제1 이미지 및 상기 출력 모핑 이미지의 판별에 관한 적대적 손실, 및 상기 제2 이미지 및 출력 모핑 이미지의 판별에 관한 적대적 손실에 기초하여 결정되고,
    상기 픽셀 단위의 재구성 손실은
    상기 학습 데이터에 포함된 이미지들 중 상기 모핑 제어에 관한 파라미터에 대응하는 정답 이미지 및 상기 출력 모핑 이미지에 기초하여 결정되는,
    학습 방법.
  13. 제10항에 있어서,
    상기 모핑 제어에 관한 파라미터는 콘텐츠 모핑 제어에 관한 파라미터 및 스타일 모핑 제어에 관한 파라미터를 포함하고,
    상기 출력 모핑 이미지를 획득하는 단계는
    상기 제2 이미지의 콘텐츠 및 상기 제1 이미지의 스타일을 포함하는 제1 출력 모핑 이미지를 획득하는 단계; 및
    상기 제1 이미지의 콘텐츠 및 상기 제2 이미지의 스타일을 포함하는 제2 출력 모핑 이미지를 획득하는 단계
    를 포함하고,
    상기 모핑 생성기를 학습시키는 단계는
    상기 제1 출력 모핑 이미지 및 상기 제1 이미지의 판별에 관한 적대적 손실 및 상기 제2 출력 모핑 이미지 및 상기 제2 이미지의 판별에 관한 적대적 손실에 기초하여 상기 생성기를 학습시키는 단계
    를 포함하는,
    학습 방법.
  14. 제13항에 있어서,
    상기 모핑 생성기를 학습시키는 단계는
    상기 모핑 생성기에 상기 제2 출력 모핑 이미지 및 상기 제2 이미지를 입력하여, 상기 제2 출력 모핑 이미지의 콘텐츠 및 상기 제2 이미지의 스타일을 포함하는 제3 출력 모핑 이미지를 획득하는 단계;
    상기 모핑 생성기에 상기 제1 출력 모핑 이미지 및 상기 제1 이미지를 입력하여, 상기 제1 출력 모핑 이미지의 콘텐츠 및 상기 제1 이미지의 스타일을 포함하는 제4 출력 모핑 이미지를 획득하는 단계;
    상기 제3 출력 모핑 이미지 및 제2 이미지에 기초한 적대적 손실 및 픽셀 단위의 재구성의 손실에 기초하여, 상기 모핑 생성기를 학습시키는 단계; 및
    상기 제4 출력 모핑 이미지 및 제1 이미지에 기초한 적대적 손실 및 픽셀 단위의 재구성의 손실에 기초하여, 상기 모핑 생성기를 학습시키는 단계
    를 포함하는,
    학습 방법.
  15. 하드웨어와 결합되어 제1항 내지 제14항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  16. 복수의 입력 이미지들 각각에 대응하여,
    해당하는 이미지를 인코딩함으로써, 콘텐츠 잠재 코드를 추출하고,
    상기 해당하는 이미지를 인코딩함으로써, 스타일 잠재 코드를 추출하 고,
    모핑(morphing) 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 콘텐츠 특징 벡터를 획득하고,
    상기 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 스타일 특징 벡터를 획득하며,
    상기 콘텐츠 특징 벡터 및 상기 스타일 특징 벡터에 기초하여, 모핑 이미지를 생성하는,
    적어도 하나의 프로세서
    를 포함하는,
    이미지 처리 장치.
  17. 제16항에 있어서,
    상기 모핑 제어에 관한 파라미터는 콘텐츠 모핑 제어에 관한 파라미터 및 스타일 모핑 제어에 관한 파라미터를 포함하고,
    상기 프로세서는
    상기 콘텐츠 특징 벡터를 획득함에 있어서,
    상기 콘텐츠 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 콘텐츠 잠재 코드들을 가중 합함으로써, 상기 콘텐츠 특징 벡터를 획득하고,
    상기 스타일 특징 벡터를 획득함에 있어서,
    상기 스타일 모핑 제어에 관한 파라미터에 기초하여, 상기 복수의 입력 이미지들에 대응하여 추출된 스타일 잠재 코드들을 가중 합함으로써, 상기 스타일 특징 벡터를 획득하는,
    이미지 처리 장치.
  18. 제16항에 있어서,
    상기 복수의 입력 이미지들은 제1 이미지 및 제2 이미지를 포함하고,
    상기 프로세서는,
    상기 콘텐츠 특징 벡터를 획득함에 있어서,
    콘텐츠 모핑 제어에 관한 파라미터에 기초하여, 상기 제1 이미지에 대응하여 추출된 제1 콘텐츠 잠재 코드 및 상기 제2 이미지에 대응하여 추출된 제2 콘텐츠 잠재 코드를 보간(interpolate)하고,
    상기 스타일 특징 벡터를 획득함에 있어서,
    스타일 모핑 제어에 관한 파라미터에 기초하여, 상기 제1 이미지에 대응하여 추출된 제1 스타일 잠재 코드 및 상기 제2 이미지에 대응하여 추출된 제2 스타일 잠재 코드를 보간하는,
    이미지 처리 장치.
  19. 제16항에 있어서,
    상기 프로세서는,
    상기 모핑 이미지를 생성함에 있어서,
    상기 스타일 특징 벡터를 매핑 네트워크에 인가하여, 처리된 스타일 특징 벡터를 획득하고,
    상기 처리된 스타일 특징 벡터 및 상기 콘텐츠 특징 벡터를 디코딩함으로써, 상기 모핑 이미지를 생성하는,
    이미지 처리 장치.
  20. 제16항에 있어서,
    상기 모핑 제어에 관한 파라미터는
    상기 복수의 입력 이미지들에 대응하는 가중치들을 포함하는,
    이미지 처리 장치.

KR1020200159197A 2020-11-24 2020-11-24 이미지 처리 방법 및 장치 KR102332114B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200159197A KR102332114B1 (ko) 2020-11-24 2020-11-24 이미지 처리 방법 및 장치
US18/457,499 US20230410249A1 (en) 2020-11-24 2023-08-29 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200159197A KR102332114B1 (ko) 2020-11-24 2020-11-24 이미지 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102332114B1 true KR102332114B1 (ko) 2021-12-01

Family

ID=78899862

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200159197A KR102332114B1 (ko) 2020-11-24 2020-11-24 이미지 처리 방법 및 장치

Country Status (2)

Country Link
US (1) US20230410249A1 (ko)
KR (1) KR102332114B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102543451B1 (ko) * 2022-04-29 2023-06-13 주식회사 이너버즈 딥 러닝을 이용한 이미지의 특징 추출 및 합성 시스템 및 이의 학습 방법
KR102543461B1 (ko) 2022-04-29 2023-06-14 주식회사 이너버즈 딥 러닝을 이용하여 특정한 속성을 선별적으로 변화시키는 이미지 조정 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11989916B2 (en) * 2021-10-11 2024-05-21 Kyocera Document Solutions Inc. Retro-to-modern grayscale image translation for preprocessing and data preparation of colorization

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130001213A (ko) * 2010-01-28 2013-01-03 이섬 리서치 디벨러프먼트 컴파니 오브 더 히브루 유니버시티 오브 예루살렘 엘티디. 입력 이미지로부터 증가된 픽셀 해상도의 출력 이미지를 생성하는 방법 및 시스템
KR20190129433A (ko) * 2018-05-11 2019-11-20 재단법인대구경북과학기술원 파노라마 영상 생성 방법 및 그 장치
KR20200023708A (ko) * 2018-08-23 2020-03-06 삼성전자주식회사 객체 검출 방법, 객체 검출을 위한 학습 방법 및 그 장치들
KR20200061294A (ko) * 2018-11-23 2020-06-02 주식회사 스칼라웍스 머신 러닝을 이용하여 은닉 이미지를 추론하는 방법 및 장치
KR20200129639A (ko) * 2019-05-09 2020-11-18 삼성전자주식회사 모델 학습 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130001213A (ko) * 2010-01-28 2013-01-03 이섬 리서치 디벨러프먼트 컴파니 오브 더 히브루 유니버시티 오브 예루살렘 엘티디. 입력 이미지로부터 증가된 픽셀 해상도의 출력 이미지를 생성하는 방법 및 시스템
KR20190129433A (ko) * 2018-05-11 2019-11-20 재단법인대구경북과학기술원 파노라마 영상 생성 방법 및 그 장치
KR20200023708A (ko) * 2018-08-23 2020-03-06 삼성전자주식회사 객체 검출 방법, 객체 검출을 위한 학습 방법 및 그 장치들
KR20200061294A (ko) * 2018-11-23 2020-06-02 주식회사 스칼라웍스 머신 러닝을 이용하여 은닉 이미지를 추론하는 방법 및 장치
KR20200129639A (ko) * 2019-05-09 2020-11-18 삼성전자주식회사 모델 학습 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102543451B1 (ko) * 2022-04-29 2023-06-13 주식회사 이너버즈 딥 러닝을 이용한 이미지의 특징 추출 및 합성 시스템 및 이의 학습 방법
KR102543461B1 (ko) 2022-04-29 2023-06-14 주식회사 이너버즈 딥 러닝을 이용하여 특정한 속성을 선별적으로 변화시키는 이미지 조정 방법
KR102562386B1 (ko) * 2022-04-29 2023-08-01 주식회사 이너버즈 이미지 합성 시스템의 학습 방법
KR102562387B1 (ko) * 2022-04-29 2023-08-01 주식회사 이너버즈 이미지의 특징 추출 및 합성 시스템의 학습 방법
KR102571082B1 (ko) 2022-04-29 2023-08-28 주식회사 이너버즈 이미지 조정 방법

Also Published As

Publication number Publication date
US20230410249A1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
KR102332114B1 (ko) 이미지 처리 방법 및 장치
CN109902767B (zh) 模型训练方法、图像处理方法及装置、设备和介质
KR102387570B1 (ko) 표정 생성 방법, 표정 생성 장치 및 표정 생성을 위한 학습 방법
Gu et al. A systematic survey of prompt engineering on vision-language foundation models
CN111402143B (zh) 图像处理方法、装置、设备及计算机可读存储介质
US20230237841A1 (en) Occlusion Detection
Weng et al. CT 2: Colorization transformer via color tokens
US11748932B2 (en) Controllable image generation
US11790486B2 (en) Image processing method and apparatus
CN113505768A (zh) 模型训练、人脸识别方法、电子设备及存储介质
US20220012846A1 (en) Method of modifying digital images
Natarajan et al. Dynamic GAN for high-quality sign language video generation from skeletal poses using generative adversarial networks
CN110688897A (zh) 一种基于联合判断与生成学习的行人重识别方法及装置
KR102236582B1 (ko) 영상 처리 장치 및 그 동작방법
CN117576264B (zh) 图像生成方法、装置、设备及介质
CN114783017A (zh) 基于逆映射的生成对抗网络优化方法及装置
CN112804558B (zh) 视频拆分方法、装置及设备
Zhu et al. Hairnet: Hairstyle transfer with pose changes
CN113538254A (zh) 图像恢复方法、装置、电子设备及计算机可读存储介质
CN114586056A (zh) 图像处理方法及装置、设备、视频处理方法及存储介质
Kumar et al. Steganography-based facial re-enactment using generative adversarial networks
US11908036B2 (en) Refining image acquisition data through domain adaptation
Park Machine Learning for Deep Image Synthesis
KR102584484B1 (ko) 발화 합성 영상 생성 장치 및 방법
He et al. Prior-Knowledge-Free Video Frame Interpolation with Bidirectional Regularized Implicit Neural Representations

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant