KR102307622B1 - 프레임 보간, 초해상화 또는 역톤매핑을 수행하기 위한 이미지 합동 처리 방법 및 장치 - Google Patents

프레임 보간, 초해상화 또는 역톤매핑을 수행하기 위한 이미지 합동 처리 방법 및 장치 Download PDF

Info

Publication number
KR102307622B1
KR102307622B1 KR1020210015585A KR20210015585A KR102307622B1 KR 102307622 B1 KR102307622 B1 KR 102307622B1 KR 1020210015585 A KR1020210015585 A KR 1020210015585A KR 20210015585 A KR20210015585 A KR 20210015585A KR 102307622 B1 KR102307622 B1 KR 102307622B1
Authority
KR
South Korea
Prior art keywords
time window
joint processing
frames
loss
time
Prior art date
Application number
KR1020210015585A
Other languages
English (en)
Other versions
KR20210075910A (ko
Inventor
김문철
김수예
오지형
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20210075910A publication Critical patent/KR20210075910A/ko
Application granted granted Critical
Publication of KR102307622B1 publication Critical patent/KR102307622B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

이미지 합동 처리 방법 및 장치가 개시된다. 일 실시예에 따른 이미지 합동 처리 방법은, 복수의 시점에 대응하는 프레임들을 수신하는 단계와, 상기 프레임들로부터 예측된 예측 결과들에 기초하여 적어도 하나의 손실(loss)을 계산하는 단계와, 상기 적어도 하나의 손실에 기초하여 상기 프레임들에 이미지 합동 처리를 수행하는 단계를 포함하고, 상기 이미지 합동 처리는 프레임 보간(frame interpolation), 초해상화(super-resolution) 및 역톤매핑(inverse tone mapping) 중 적어도 두 개의 합동 처리를 포함하고, 상기 계산하는 단계는, 상기 프레임들에 적어도 한 번의 컨볼루션 연산을 수행함으로써 상기 예측 결과들을 생성한다.

Description

프레임 보간, 초해상화 또는 역톤매핑을 수행하기 위한 이미지 합동 처리 방법 및 장치{DEEP JOINT FRAME PROCESSING METHOD AND APPARATUS APPARATUS FOR PERFORMING FRAME INTERPOLATION, SUPER-RESOLUTION OR INVERSE TONE MAPPING}
아래 실시예들은 이미지의 합동 처리 방법 및 장치에 관한 것이다.
비디오의 해상도가 커질수록, 움직임(motion)이나 저더(judder)와 같은 이미지의 시간적 왜곡에 대한 사람의 인지 시각 민감도가 높아져, 큰 해상도의 이미지일수록 높은 프레임율을 유지하여야 한다. 따라서, 보다 좋은 화질의 이미지 변환을 위해서는 해상도의 확장뿐만 아니라 비디오 프레임 보간이 필수적이다.
기존의 초해상화 방법의 경우 저해상도 이미지로부터 고해상도 이미지를 예측하도록 할 뿐, 프레임 보간을 위한 특별한 방법이 함께 고려되지 못하였다. 기존의 프레임 보간 방법의 경우, 저프레임율 이미지로부터 고프레임율 이미지를 예측하도록 할 뿐, 영상의 해상도를 동시에 합동으로 확대 변환하는 특별한 방법이 추가적으로 고려되지 못하였다.
기존의 프레임 보간 단일 처리 방법에 기존 초해상화 단일 처리 방법을 단순히 직렬로(순차적으로) 연결해 사용할 경우, 추론 시간이 오래 걸리며, 복잡도가 크게 증가하고, 예측 결과가 블러(blur)하거나 이미지 내 물체가 겹쳐 부자연스러운 결과가 초래된다.
아래 실시예들은 이미지 합동 처리 기술을 제공할 수 있다.
일 실시예에 따른 이미지 합동 처리 방법은, 복수의 시점에 대응하는 프레임들을 수신하는 단계와, 상기 프레임들로부터 예측된 예측 결과들에 기초하여 적어도 하나의 손실(loss)을 계산하는 단계와, 상기 적어도 하나의 손실에 기초하여 상기 프레임들에 이미지 합동 처리를 수행하는 단계를 포함하고, 상기 이미지 합동 처리는 프레임 보간(frame interpolation), 초해상화(super-resolution) 및 역톤매핑(inverse tone mapping) 중 적어도 두 개의 합동 처리를 포함하고, 상기 계산하는 단계는, 상기 프레임들에 적어도 한 번의 컨볼루션 연산을 수행함으로써 상기 예측 결과들을 생성한다.
상기 계산하는 단계는, 상기 복수의 시점 중 일부 시점을 포함하는 시간 창을 생성하는 단계와, 상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계를 포함할 수 있다.
상기 시간 창을 생성하는 단계는, 상기 복수의 시점 중 일부 시점을 포함하는 제1 시간 창을 생성하는 단계와, 상기 제1 시간 창을 시간적으로 슬라이딩(sliding)함으로써 제2 시간 창을 생성하는 단계를 포함할 수 있다.
상기 제1 시간 창 및 상기 제2 시간 창은 시간적으로 오버랩될 수 있다.
상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계는, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과 간의 차분(difference)에 기초하여 상기 적어도 하나의 손실을 계산하는 단계를 포함할 수 있다.
상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계는, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과의 평균 값에 기초하여 상기 적어도 하나의 손실을 계산하는 단계를 포함할 수 있다.
상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계는, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 상기 제1 시간 창에 포함된 제2 시점에 대응하는 예측 결과의 차분에 기초하여 상기 적어도 하나의 손실을 계산하는 단계를 포함할 수 있다.
상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계는, 상기 예측 결과들과 그라운드 트루스(ground truth) 프레임들 간의 차분에 기초하여 상기 적어도 하나의 손실을 계산하는 단계를 포함할 수 있다.
상기 이미지 합동 처리는, 다중 스케일 구조를 포함하는 뉴럴 네트워크에 의해 수행될 수 있다.
일 실시예에 따른 이미지 합동 처리 장치는, 복수의 시점에 대응하는 프레임들을 수신하는 수신기와, 상기 프레임들로부터 예측된 예측 결과들에 기초하여 적어도 하나의 손실(loss)을 계산하고, 상기 적어도 하나의 손실에 기초하여 상기 프레임들에 이미지 합동 처리를 수행하는 프로세서를 포함하고, 상기 이미지 합동 처리는 프레임 보간(frame interpolation), 초해상화(super-resolution) 및 역톤매핑(inverse tone mapping) 중 적어도 두 개의 합동 처리를 포함하고, 상기 프로세서는, 상기 프레임들에 적어도 한 번의 컨볼루션 연산을 수행함으로써 상기 예측 결과들을 생성한다.
상기 프로세서는, 상기 복수의 시점 중 일부 시점을 포함하는 시간 창을 생성하고, 상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산할 수 있다.
상기 프로세서는, 상기 복수의 시점 중 일부 시점을 포함하는 제1 시간 창을 생성하고, 상기 제1 시간 창을 시간적으로 슬라이딩(sliding)함으로써 제2 시간 창을 생성할 수 있다.
상기 제1 시간 창 및 상기 제2 시간 창은 시간적으로 오버랩될 수 있다.
상기 프로세서는, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과 간의 차분에 기초하여 상기 적어도 하나의 손실을 계산할 수 있다.
상기 프로세서는, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과의 평균 값에 기초하여 상기 적어도 하나의 손실을 계산할 수 있다.
상기 프로세서는, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 상기 제1 시간 창에 포함된 제2 시점에 대응하는 예측 결과의 차분에 기초하여 상기 적어도 하나의 손실을 계산할 수 있다.
상기 프로세서는, 상기 예측 결과들과 그라운드 트루스 프레임들 간의 차분에 기초하여 상기 적어도 하나의 손실을 계산할 수 있다.
상기 이미지 합동 처리는, 다중 스케일 구조를 포함하는 뉴럴 네트워크에 의해 수행될 수 있다.
도 1은 일 실시예에 따른 이미지 합동 처리 장치의 개략적인 블록도를 나타낸다.
도 2는 도 1에 도시된 이미지 합동 처리 장치의 입력 및 출력을 나타낸다.
도 3은 도 1에 도시된 이미지 합동 처리 장치가 복수의 프레임을 처리하는 동작을 나타낸다.
도 4a는 도 1에 도시된 이미지 합동 처리 장치가 사용하는 뉴럴 네트워크 구조의 예를 나타낸다.
도 4b는 도 4a에 도시된 Enc블록의 구조의 예를 나타낸다.
도 4c는 도 4a에 도시된 Res 블록의 구조의 예를 나타낸다.
도 4d는 도 4a에 도시된 Dec 블록의 구조의 예를 나타낸다.
도 4e는 도 4a에 도시된 Out 블록의 구조의 예를 나타낸다.
도 5는 도 1에 도시된 이미지 합동 처리 장치가 계산하는 손실을 나타낸다.
도 6은 도 1에 도시된 이미지 합동 처리 장치의 동작의 순서도를 나타낸다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 이미지 합동 처리 장치의 개략적인 블록도를 나타낸다.
도 1을 참조하면, 이미지 합동 처리 장치(10)는 프레임 또는 이미지를 처리할 수 있다. 이미지는 빛의 굴절이나 반사 등에 의하여 이루어진 물체의 상을 포함하는 것으로, 선이나 색채를 이용하여 사물의 형상을 나타낸 것을 의미할 수 있다. 예를 들어, 이미지는 컴퓨터가 처리할 수 있는 형태로 된 정보로 이루어질 수 있다. 프레임은 이미지를 포함할 수 있다. 프레임 또는 이미지는 복수의 픽셀을 포함할 수 있다.
이미지 합동 처리 장치(10)는 이미지의 합동 처리(joint process)를 수행할 수 있다. 이미지 합동 처리는 프레임 보간(frame interpolation), 초해상화(super-resolution) 및 역톤매핑(inverse tone mapping) 중 적어도 두 개의 합동 처리를 포함할 수 있다.
프레임 보간은 입력 프레임들에 기초하여 추가적인 프레임을 생성함으로써 비디오의 프레임율(frame rate)을 증가시키는 이미지 처리를 의미할 수 있다. 입력 프레임들 각각은 이미지를 포함할 수 있다.
초해상화는 공간 해상도(spatial resolution)가 낮은 입력 이미지를 공간 해상도가 높은 입력 이미지로 변환시키는 이미지 처리를 의미할 수 있다. 역톤매핑은 계조(dynamic range)가 낮은 이미지를 계조가 높은 이미지로 변환시키는 이미지 처리를 의미할 수 있다.
이미지 합동 처리 장치(10)는 단일 뉴럴 네트워크를 이용하여 프레임 보간, 초해상화 및 역톤매핑 중 적어도 두 개의 이미지 처리를 수행할 수 있다. 다시 말해, 이미지 합동 처리 장치(10)는 3 개의 이미지처리의 2개 이상의 조합을 합동 처리할 수 있다.
예를 들어, 이미지 합동 처리 장치(10)는 프레임 보간/초해상화, 프레임 보간/역톤매핑, 프레임보간/초해상화/역톤매핑을 수행할 수 있다. 또한, 이미지 합동 처리 장치(10)는 초해상화/역톤매핑을 수행할 수 있다.
이 때, 이미지 합동 처리 장치(10)는 초해상화 배율 및 프레임 보간 배율 중 적어도 하나에 대하여 임의의 소수점 배율 또는 정수 배율을 적용하여 복수의 프레임을 처리할 수 있다.
배율(scaling factor)이란 이미지의 가로(또는 세로)의 화소수가 N일 때, 화소수를 r×N으로 확장할 때, r을 의미할 수 있다. r값이 1 보다 클 때는 확대 배율(up-scaling factor)을 의미하고, 1 보다 작을 때는 축소 배율(down-scaling factor)을 의미할 수 있다.
뉴럴 네트워크(또는 인공 신경망)는 기계학습과 인지과학에서 생물학의 신경을 모방한 통계학적 학습 알고리즘을 포함할 수 있다. 뉴럴 네트워크는 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다.
뉴럴 네트워크는 심층 뉴럴 네트워크 (Deep Neural Network)를 포함할 수 있다. 뉴럴 네트워크는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), 퍼셉트론(perceptron), FF(Feed Forward), RBF(Radial Basis Network), DFF(Deep Feed Forward), LSTM(Long Short Term Memory), GRU(Gated Recurrent Unit), AE(Auto Encoder), VAE(Variational Auto Encoder), DAE(Denoising Auto Encoder), SAE(Sparse Auto Encoder), MC(Markov Chain), HN(Hopfield Network), BM(Boltzmann Machine), RBM(Restricted Boltzmann Machine), DBN(Depp Belief Network), DCN(Deep Convolutional Network), DN(Deconvolutional Network), DCIGN(Deep Convolutional Inverse Graphics Network), GAN(Generative Adversarial Network), LSM(Liquid State Machine), ELM(Extreme Learning Machine), ESN(Echo State Network), DRN(Deep Residual Network), DNC(Differentiable Neural Computer), NTM(Neural Turning Machine), CN(Capsule Network), KN(Kohonen Network) 및 AN(Attention Network)를 포함할 수 있다.
이미지 합동 처리 장치(10)는 수신기(100) 및 프로세서(200)를 포함한다. 이미지 합동 처리 장치(10)는 메모리(300)를 더 포함할 수 있다.
수신기(100)는 복수의 시점에 대응하는 프레임들을 수신할 수 있다. 예를 들어, 수신기(100)는 연속하는 프레임으로 구성된 비디오를 수신할 수 있다. 수신기(100)는 수신한 프레임들을 프로세서(200) 또는 메모리(300)로 출력할 수 있다.
프로세서(200)는 메모리(300)에 저장된 데이터를 처리할 수 있다. 프로세서(200)는 메모리(300)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(200)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.
"프로세서(200)"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.
예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(200)는 수신한 프레임들로부터 예측된 예측 결과들에 기초하여 적어도 하나의 손실(loss)을 계산할 수 있다.
프로세서(200)는 복수의 시점 중 일부 시점을 포함하는 시간 창(temporal window)를 생성할 수 있다. 프로세서(200)는 복수의 시점 중 일부 시점을 포함하는 제1 시간 창을 생성할 수 있다. 프로세서(200)는 제1 시간 창을 시간적으로 슬라이딩(sliding)함으로써 제2 시간 창을 생성할 수 있다. 제1 시간 창 및 제2 시간 창은 시간적으로 오버랩(overlap)될 수 있다.
예를 들어, 프로세서(200)는 연속하는 복수 개의 시점을 포함하도록 제1 시간 창을 생성할 수 있다. 제2 시간 창은 제1시간 창에 포함된 복수 개의 시점 중 일부를 포함할 수 있다. 제1 시간 창 및 제2 시간 창의 생성은 도 5를 참조하여 자세하게 설명한다.
프로세서(200)는 생성한 시간 창에 대응되는 예측 결과들을 이용하여 적어도 하나의 손실을 계산할 수 있다. 프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과 간의 차분(difference)에 기초하여 적어도 하나의 손실을 계산할 수 있다.
프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과의 평균 값에 기초하여 적어도 하나의 손실을 계산할 수 있다.
프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제1 시간 창에 포함된 제2 시점에 대응하는 예측 결과의 차분에 기초하여 적어도 하나의 손실을 계산할 수 있다.
또한, 프로세서(200)는 예측 결과들과 그라운드 트루스(ground truth) 프레임들 간의 차분에 기초하여 적어도 하나의 손실을 계산할 수 있다.
프로세서(200)는 프레임들에 적어도 한 번의 컨볼루션 연산을 수행함으로써 상기 예측 결과들을 생성할 수 있다.
프로세서(200)는 계산한 손실에 기초하여 프레임들에 이미지 합동 처리를 수행할 수 있다. 이미지 합동 처리는 다중 스케일 구조를 포함하는 뉴럴 네트워크에 의해 수행될 수 있다.
프로세서(200)는 프레임들에 적어도 한 번의 컨볼루션 연산을 수행함으로써 이미지 합동 처리를 수행할 수 있다. 컨볼루션 연산은 다중 스케일 구조를 포함하는 뉴럴 네트워크에 의해 수행될 수 있다.
프로세서(200)는 프레임들을 다운 스케일링할 수 있다. 프로세서(200)는 다운 스케일링된 프레임들에 적어도 한 번의 컨볼루션 연산을 수행할 수 있다.
프로세서(200)는 프레임들에 광학 플로우 맵(optical flow map)을 스택(stack)할 수 있다. 또한, 프로세서(200)는 프레임들에 와핑된(warped) 프레임을 스택할 수 있다.
광학 플로우 맵 또는 와핑된 프레임을 스택하는 과정은 도 4a를 참조하여 자세하게 설명한다.
예를 들어, 이미지 합동 처리를 수행하는 뉴럴 네트워크는 GAN 구조를 기반으로 하는 하나 이상의 컨볼루션 계층(layer)으로 구성된 딥 컨볼루션 네트워크를 포함할 수 있다.
또한, 이미지 합동 처리를 수행하는 뉴럴 네트워크는 순환 신경망(예를 들어, RNN, LSTM, GRU 등)을 포함하는 구조를 기반으로 훈련된 하나 이상의 컨볼루션 계층으로 구성된 딥 컨볼루션 네트워크를 포함할 수 있다.메모리(300)는 프로세서(200)에 의해 실행가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서(200)의 동작 및/또는 프로세서(200)의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.
메모리(300)는 휘발성 메모리 장치 또는 불휘발성 메모리 장치로 구현될 수 있다.
휘발성 메모리 장치는 DRAM(dynamic random access memory), SRAM(static random access memory), T-RAM(thyristor RAM), Z-RAM(zero capacitor RAM), 또는 TTRAM(Twin Transistor RAM)으로 구현될 수 있다.
불휘발성 메모리 장치는 EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래시(flash) 메모리, MRAM(Magnetic RAM), 스핀전달토크 MRAM(Spin-Transfer Torque(STT)-MRAM), Conductive Bridging RAM(CBRAM), FeRAM(Ferroelectric RAM), PRAM(Phase change RAM), 저항 메모리(Resistive RAM(RRAM)), 나노 튜브 RRAM(Nanotube RRAM), 폴리머 RAM(Polymer RAM(PoRAM)), 나노 부유 게이트 메모리(Nano Floating Gate Memory(NFGM)), 홀로그래픽 메모리(holographic memory), 분자 전자 메모리 소자(Molecular Eelectronic Memory Device), 또는 절연 저항 변화 메모리(Insulator Resistance Change Memory)로 구현될 수 있다.
도 2는 도 1에 도시된 이미지 합동 처리 장치의 입력 및 출력을 나타낸다. 도 3은 도 1에 도시된 이미지 합동 처리 장치가 복수의 프레임을 처리하는 동작을 나타낸다.
도 2 및 도 3을 참조하면, 이미지 합동 처리 장치(10)는 저해상도, 저프레임율, SDR(Standard Dynamic Range) 입력 이미지에 합동 처리를 수행함으로써 고해상도, 고프레임율, HDR(High Dynamic Range) 출력 이미지를 생성할 수 있다.
도 3에 도시된 바와 같이, 프로세서(200)는 LR(Low Resolution)-LFR(Low Frame Rate)-SDR 프레임(310, 320, 330)으로부터 HR(High Resolution)-HFR(High Frame Rate)-HDR 프레임(340, 350, 360)을 생성할 수 있다. 이 때, 프로세서(200)는 프레임 보간, 초해상화 및 역톤 매핑 중 2 개의 조합을 선택적으로 수행할 수도 있다.
프로세서(200)는 입력 프레임에 프레임 보간을 포함하는 초해상화 또는 역톤매핑을 수행할 수 있다. 이 때, 프레임 보간의 목표는 도 3에 도시된 것과 같이 연속하는 두 개의 원본 입력 프레임들로부터 존재하지 않는 중간 프레임을 생성하는 것일 수 있다.
예를 들어, 프로세서(200)는 프레임(310) 및 프레임(320)으로부터 프레임(340)을 생성할 수 있다. 이 때, 프레임(340)은 초해상화 또는 역톤매핑이 합동으로 수행될 수 있다.
마찬가지로, 프로세서(200)는 프레임(320, 330)으로부터 초해상화 또는 역톤 매핑이 합동으로 수행된 중간 프레임인 프레임(350)을 생성할 수 있고, 프레임(320, 330)으로부터 초해상화 또는 역톤매핑이 합동으로 수행된 중간 프레임인 프레임(360)을 생성할 수 있다.
시청자는 고프레임율 비디오에 시각적으로 편안함을 느끼기 때문에 프레임 보간은 비디오 처리에 중요한 역할을 수행할 수 있다. 프로세서(200)는 초해상화 또는 역톤매핑 처리된 높은 품질의 중간 프레임을 생성항여 프레임율을 높이는 동시에 이미지의 해상도 또는 계조를 향상시킬 수 있다. 예를 들어, 프로세서(200)는 2K 30 fps 비디오 입력을 4K 60fps 비디오로 변환할 수 있다.
이하에서, 도 4a 내지 도 4e를 참조하여, 이미지 합동 처리 장치(10)가 이용하는 뉴럴 네트워크에 대해서 자세하게 설명한다.
도 4a는 도 1에 도시된 이미지 합동 처리 장치가 사용하는 뉴럴 네트워크 구조의 예를 나타내고, 도 4b는 도 4a에 도시된 Enc블록의 구조의 예를 나타내고, 도 4c는 도 4a에 도시된 Res 블록의 구조의 예를 나타낸다.
도 4d는 도 4a에 도시된 Dec 블록의 구조의 예를 나타내고, 도 4e는 도 4a에 도시된 Out 블록의 구조의 예를 나타낸다.
도 4a 내지 도 4e를 참조하면, 뉴럴 네트워크는 복수의 레벨(level)을 포함할 수 있다. 또한, 뉴럴 네트워크는 멀티 스케일 구조를 포함할 수 있다. 예를 들어, 뉴럴 네트워크는 3 개의 레벨(410, 430, 450)을 포함할 수 있다. 프로세서(200)는 3 개 레벨로 구성된 멀티 스케일 네트워크를 사용함으로써 낮은 스케일 레벨(scale level)에서의 유효 수용 영역(effective receptive fields)가 확장된 고해상도 프레임의 큰 움직임(large motion)을 원활하게 다룰 수 있다.
제1 레벨(410) 및 제2 레벨(430)에서 입력 프레임들은 원본 스케일인 제3 레벨(450)의 프레임으로부터 각각 4배 및 2배로 다운 스케일될 수 있다. 예를 들어, 제1 레벨(410) 및 제2 레벨(430)의 입력 프레임들은 바이큐빅 다운 스케일 방식을 이용하여 다운 스케일될 수 있다.
제1 레벨(410), 제2 레벨(430) 및 제3 레벨(450)은 동일한 구조를 포함할 수 있다. 예를 들어, 제1 레벨(410), 제2 레벨(430) 및 제3 레벨(450)은 U-Net 기반 구조를 포함할 수 있다.
프로세서(200)는 낮은 스케일 레벨에서는 대략적인 예측 결과를 생성하고, 이어지는 스케일 레벨에서 생성된 예측 결과를 연결(concatenate)하고, 계속해서 정제(refine)할 수 있다. 각 레벨에서 가중치 파라미터를 갖는 손실들이 계산될 수 있다.
예를 들어, 스케일 레벨 l이 l∈{1, 2, 3}인 경우, 전체 손실은 아래의 수학식 1과 같이 나타낼 수 있다.
Figure 112021014179076-pat00001
여기서,
Figure 112021014179076-pat00002
은 가중치 파라미터를 의미하고,
Figure 112021014179076-pat00003
는 각 레이어의 전체 손실을 의미할 수 있다. 손실의 계산은 도 5를 참조하여 상세하게 설명한다.
큰 움직임 및 폐색(occlusion)을 보다 효율 적으로 처리하기 위해서, 프로세서(200)는 양방향 광학 플로우 맵(optical flow map) 및 대응하는 와핑된(warped) 프레임들을 입력 프레임들과 함께 스택(stack)할 수 있다.
예를 들어, 프로세서(200)는 PCW-Net을 이용하여 광학 플로우 {f-Δt→0, f0→-Δt, f0→+Δt, f+Δt→0}를 획득할 수 있고, 연결된 플로우 맵들{f-Δt/2→0, f-Δt/2→-Δt, f+Δt/2→+Δt, f+Δt/2→0}은 선형 움직임 가장(예를 들어, f-Δt/2→0=1/2· f-Δt→0)을 이용하여 각각의 플로우 맵들로부터 근사(approximate)될 수 있다.
대응하는 백워드 와핑된(backward warped) 프레임들{g-Δt/2→0, g-Δt/2→-Δt, g+Δt/2→+Δt, g+Δt/2→0}은 근사된 플로우들로부터 추정되고, 입력 프레임들과 함께 연결될 수 있다.
도 4b를 참조하면, Enc블록(411)은 Res 블록(413) 및 맥스풀링(MaxPooling) 연산을 포함할 수 있다. 도 4c를 참조하면, Res블록(413)은 교대로 수행되는 컨볼루션(convolution), ReLU(Rectified Linear Unit) 연산을 포함할 수 있다.
도 4d를 참조하면, Dec블록(415)은 양선형 업샘플링(bilinear upsampling), 콘볼루션, ReLU, 연결(concatenate) 연산 및 Res 블록(413)을 포함할 수 있다.
도 4e를 참조하면, Out블록(417)은 Res블록(413), 컨볼루션, ReLU, 픽셀셔플(pixel shuffle) 연산을 포함할 수 있다.
실시예에 따라, 프로세서(200)는 GAN을 이용하여 이미지 합동 처리를 수행할 수 있다. GAN은 생성기(generator) 및 판별기(discriminator)를 포함할 수 있다. 생성기는 프레임 보간, 초해상화 및 역톤매핑 중 적어도 두 개 이상의 합동 처리를 수행할 수 있다.
판별기는 생성기로부터 예측된 프레임 보간, 초해상화 및 역톤 매핑 합동 처리 이미지와 원본 프레임의 보간, 초해상화 및 역톤매핑 합동 처리 이미지 간의 예측 이미지 및 원본 이미지 여부를 판별할 수 있다.
생성기는 생성된 예측 이미지로부터 판별기가 예측 이미지 인지 또는 원본 이미지인지 여부를 분별하지 못하도록 학습될 수 있다. 생성기는 최종적으로 원본 이미지의 분포와 유사한 분포를 가지는 예측 이미지를 생성하도록 학습될 수 있다.
도 5는 도 1에 도시된 이미지 합동 처리 장치가 계산하는 손실을 나타낸다.
도 5를 참조하면, 프로세서(200)는 프레임들로부터 예측된 예측 결과들에 기초하여 적어도 하나의 손실을 계산할 수 있다.
예측 결과는, 입력 프레임을 상술한 네트워크를 이용하여 이미지 합동 처리한 결과를 의미할 수 있다. 다시 말해, 예측 결과는 복수의 입력 프레임들에 프레임 보간, 초해상화 및 역톤매핑 중 적어도 2 개의 합동 처리를 수행한 결과를 의미할 수 있다.
프로세서(200)는 복수의 시점 중 일부 시점을 포함하는 시간 창을 생성할 수 있다. 프로세서(200)는 생성한 시간 창에 대응되는 예측 결과들을 이용하여 적어도 하나의 손실을 계산할 수 있다.
일반적인 VFI(Video Frame Interpolation) 프레임 워크는 두 개의 연속하는 프레임 입력으로부터 하나의 중간 프레임을 예측할 수 있다. 이 경우, 최종 HRF(High Frame Rate) 비디오는 보간된 프레임들 사이에 교대로 위치한(located alternately) 원본 입력 프레임들로 이루어질 수 있다.
그러나, 일반적인 VFI 방식은 원본 입력 프레임(예를 들어, LR(Low Resolution)과 예측된 프레임(예를 들어, HR(High Resolution)의 공간 해상도(spatial resolution)이 상이하기 때문에 합동 VFI-SR(Video Frame Interpolation-Super Resolution)에 직접적으로 적용될 수 없다.
프로세서(200)는 세 개의 LR, LFR, SDR 프레임들로부터 세 개의 연속되는 HR, HFR, HDR 프레임들을 예측하는 프레임워크를 제공할 수 있다.
예를 들어, 프로세서(200)는 3 개의 연속하는 LR 입력 프레임들에 대해서 중간 HR0 출력 프레임을 생성하기 위해 SR을 수행하고, 다른 두 끝단 프레임들(HR-Δt/2 및 HR+Δt/2)을 합성하기 위해 합동 VFI-SR이 수행할 수 있다.
프로세서(200)는 복수의 시점 중 일부 시점을 포함하는 제1 시간 창을 생성할 수 있다. 프로세서(200)는 제1 시간 창을 시간적으로 슬라이딩(sliding)함으로써 제2 시간 창을 생성할 수 있다. 이 때, 제1 시간 창 및 제2 시간 창은 시간적으로 오버랩될 수 있다.
슬라이딩하는 시간 창(temporal window)의 프레임 당 쉬프트를 이용하기 때문에, HR-Δt/2 프레임 및 HR+Δt/2프레임은 이전 시간 창의 HR+Δt/2 프레임과 오버랩되고, 다음 시간 창의 HR-Δt/2와 오버랩될 수 있다.
처리될 슬라이딩 창과 처리된 슬라이딩 창에 오버랩되는 프레임들에 대하여 평균을 내면 흐릿한(blurry) 프레임이 생성될 수 있기 때문에, 단순화를 위해 처리될 슬라이딩 윈도우의 프레임이 사용될 수 있다.
프로세서(200)는 비디오 시퀀스를 이용한 네트워크 학습에서의 정규화(regularization)을 위한 새로운 시간 손실을 제공할 수 있다. 3 개의 입력/ 예측된 프레임들의 데이터 샘플로 된 각각의 미니 배치(mini-batch)에서 오류(error)를 역전파하는 대신에, 다섯 개의 연속된 입력 프레임들로 구성된 FISR(Frame Interpolation and Super-Resolution) 학습 샘플들은, 시간 스트라이드(temporal stride) 1을 가지는 세 개의 연속한 데이터 샘플들과 시간 스트라이드 2를 가지는 하나의 데이터 샘플을 포함할 수 있다.
프로세서(200)는 더 안정적인 예측을 위해, 이러한 다중 데이터 샘플들의 관계를 고려하여 네트워크의 학습에 추가적인 정규화를 일시적으로 부과할 수 있다.
도 5의 예시에서, 시간 t에 대응하는 입력 프레임은 xt로 나타낼 수 있다. 하나의 학습 샘플은 5 개의 프레임들 {x-2Δt, x-Δt, x0, x+Δt, x+2Δt}을 포함할 수 있다. 각각의 학습 샘플은 3 개의 데이터 샘플들 {x-2Δt, x-Δt, x0}, {x-Δt, x0, x+Δt} 및 {x0, x+Δt, x+2Δt}를 포함할 수 있다.
각각의 데이터 샘플은 시점 -Δt, 0 및 +Δt를 중심으로 시간적 스트라이드 1을 갖는 시간 창을 슬라이딩함으로써 획득될 수 있다.
시점t에 대응되는 예측 결과들은
Figure 112021014179076-pat00004
로 나타낼 수 있다. 여기서 w는 w 번째 시간 창을 의미할 수 있다. 그라운드 트루스 프레임은 yt로 나타낼 수 있다.
이하에서, 프로세서(200)가 계산하는 4 가지 종류의 손실에 대하여 설명한다. 프로세서(200)는 복수의 손실 중 적어도 하나를 이용하여 이미지 합동 처리를 수행할 수 있다.
프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과 간의 차분(difference)에 기초하여 손실을 계산할 수 있다. 이하에서, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과 간의 차분에 기초한 손실을 제1 손실 또는 시간적 매칭 손실(temporal matching loss)로 지칭한다.
각 학습 샘플에서 시간창이 슬라이딩되기 때문에, 서로 다른 시간 창 w에 일부 예측 결과들이 오버랩될 수 있다. 도 5의 예시에서, -Δt/2및 +Δt/2에 대응하는 예측 결과들은 각각 2 개의 시간창에 오버랩되는 것을 확인할 수 있다. 즉, 예측 결과
Figure 112021014179076-pat00005
는 제1 시간창 및 제2 시간창에 오버랩되고, 예측 결과
Figure 112021014179076-pat00006
는 제2 시간창 및 제3 시간창에 오버랩될 수 있다.
프로세서(200)는 제1 손실을 이용하여 오버랩되는 프레임들을 유사하게 만들 수 있다. 프로세서(200)는 수학식 2를 이용하여 제1 손실을 계산할 수 있다.
Figure 112021014179076-pat00007
프로세서(200)는 시간적 스트라이드 2를 갖는 데이터 샘플을 추가적으로 고려할 수 있다. 예를 들어, 프로세서(200)는 학습 샘플 {x-2Δt, x0, x+2Δt}로부터 예측되는 예측 결과 {p-Δt, p0, p+Δt}에 대한 제1 손실을 고려할 수 있다. 스트라이드 2에 대한 제1 손실은 수학식 3과 같이 계산할 수 있다.
Figure 112021014179076-pat00008
프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과의 평균 값에 기초하여 손실을 계산할 수 있다.
이하에서, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과의 평균 값에 기초한 손실을 제2 손실 또는 시간적 매칭 평균 손실(temporal matching mean loss)로 지칭한다.
예측 결과들에 대하여 추가적인 정규화를 위해서, 프로세서(200)는 오버랩된 프레임들의 평균에 대하여 L2 손실을 적용할 수 있다. 예를 들어, 프로세서(200)는 제1 손실에서 이용한 서로 다른 시간 창에 의해 오버랩되는 예측 결과들의 평균과 대응하는 시점의 그라운드 트루스 프레임과의 차분을 이용하여 제2 손실을 계산할 수 있다. 제2 손실은 수학식 4를 이용하여 같이 계산될 수 있다.
Figure 112021014179076-pat00009
프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제1 시간 창에 포함된 제2 시점에 대응하는 예측 결과의 차분에 기초하여 손실을 계산할 수 있다.
이하에서, 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제1 시간 창에 포함된 제2 시점에 대응하는 예측 결과의 차분에 기초한 손실을 제3 손실 또는 시간적 차분 손실(temporal difference loss)로 지칭한다.
예를 들어, 프로세서(200)는 하나의 시간 창에 포함된 상이한 시점 간의 차분 값과, 대응하는 시점의 그라운드 트루스 프레임들 간의 차분 값의 차분에 기초하여 제3 손실을 계산할 수 있다. 다시 말해, 제3 손실은 차분 값들(예측된 프레임들 간의 차분 및 그라운드 트루스 프레임들 간의 차분) 사이의 차분에 기초하여 계산될 수 있다.
프로세서(200)는 예측된 프레임들에 시간적 일관성(temporal coherence)를 부과하기 위해서 제3 손실을 이용하여 이미지 합동 처리를 수행할 수 있다. 프로세서(200)는 예측 결과 들의 모든 집합에 대하여 제3 손실을 계산할 수 있다.
프로세서(200)는 연속되는 예측된 프레임들 사이의 차분은 연속하는 그라운드 트루스 프레임들 간의 차분과 유사해지도록 이미지 합동 처리를 수행할 수 있다.
프로세서(200)는 수학식 5를 이용하여 시간적 스트라이드 1(stride 1)에 대하여 제3 손실을 계산할 수 있다.
Figure 112021014179076-pat00010
프로세서(200)는 스트라이드 2인 경우에 대하여 수학식 6을 이용하여 제3 손실을 계산할 수 있다.
Figure 112021014179076-pat00011
프로세서(200)는 예측 결과들과 그라운드 트루스 프레임들 간의 차분에 기초하여 손실을 계산할 수 있다. 이하에서 예측 결과들과 그라운드 트루스 프레임들 간의 차분에 기초한 손실을 제4 손실 또는 복원 손실(reconstruction loss)로 지칭한다.
제4 손실은 예측된 프레임과 대응하는 그라운드 트루스 프레임들 간의 차분에 기초하여 계산될 수 있다. 먼저, 시간적 스트라이드 1인 경우의 데이터 샘플로부터 예측된 예측 결과와 대응하는 그라운드 트루스의 차분에 기초한 손실은 수학식 7과 같이 계산될 수 있다.
Figure 112021014179076-pat00012
스트라이드 2인 경우의 예측 결과에 따른 손실은 수학식 8과 같이 계산될 수 있다.
Figure 112021014179076-pat00013
프로세서(200)는 제1 내지 제4 손실을 종합적으로 고려하여, 전체 손실 LT를 수학식 9와 같이 계산할 수 있다. 이 때, 프로세서(200)는 스트라이드 1 인 경우와 2인 경우를 함께 고려하여 전체 손실을 계산할 수 있다.
Figure 112021014179076-pat00014
뉴럴 네트워크(예를 들어, CNN)의 파라미터들은 4 개의 데이터 샘플들(예를 들어, 3 개의 스트라이드 1 샘플들 및 하나의 스트라이드 2 샘플)로 구성된 학습 샘플들의 모든 미니 배치에 대해서 한 번에 업데이트될 수 있다.
이하에서, 이미지 합동 처리의 실험 예에 대하여 설명한다.
프로세서(200)는 U-Net 구조에서 3×3 커널(kerner) 크기를 갖는 컨볼루션 필터가 사용되었다. 이 때, 출력 채널 c는 64로 설정되었고, 최종 출력 채널은 VFI-SR 프레임들에 대해서 6 개일 수 있고, 단일 SR 프레임에 대해서는 3 개로 결정되었다.
PWC_Net이 RGB(Red Green Blue) 채널에 대해서 학습될 때, 플로우 ft 및 와핑된 프레임 gt가 RGB 도메인(domain)에서 획득될 수 있고, 와핑된 프레임들은 입력 프레임들과의 연결(concatenation)을 위해서 YUV로 변환된다. 2K 30 fps를 4K 60 fps 어플리케이션으로 변환시키기 위해서 공간 해상도 및 프레임율 모두 스케일 팩터 2로 증가되었다.
유투브로부터 다양한 객체 및 카메라 움직임들을 가지는 112 개의 장면을 포함하는 총 21,288 개의 프레임을 갖는 4K 60fps 비디오가 수집되었다. 수집된 장면들 중에서, 테스트를 위해 10 개의 장면이 선택되고, 학습을 위해서 88 개의 장면이 선택되었다.
하나의 학습 샘플을 생성하기 위해서, 9 개의 연속된 프레임들 중에서 동일한 위치의 일련의 192×192 HR 패치가 무작위로 크롭(crop)되었다. 입력은 도 5의 예시와 같이, 5 개의 프레임으로 구성되었고, 두 번째(-3Δt/2) 부터 8 번째(+3Δt/2) 프레임들은 4K 그라운드 트루스 HR HFR 프레임으로 사용되었다. 5 개의 홀수 위치의 프레임들(-2Δt, -Δt, 0, +Δt, +2Δt)은 96×96 크기로 바이큐빅 다운 스케일(bicubic down-scale)되어서 학습을 위한 LR LFR 프레임들로 사용되었다.
다양한 학습 샘플을 획득하기 위해, 각 학습 샘플은 프레임 스트라이드 10(stride 10)으로 추출되었다. 이를 통해, 매 반복(iteration) 마다 4K 프레임들을 로딩하기 위해 요구되는 과중한 학습 시간(heavy training time)을 회피하기 위해 학습 과정을 시작하기에 앞서 10,086 개의 학습 샘플들이 생성되었다.
테스트 셋은 5 개의 연속된 LR(2K) LFR(30 fps) 프레임들로 이루어진 10 개의 상이한 장면들로 구성되었고, 평균 PSNR(Peak Signal-to-Noise Ratio), SSIM(Structual Similarity)은 총 90(=3×3×9) 개의 예측된 프레임들에 대하여 측정되었다.
입력 및 그라운드 트루스 프레임들은 YUV 채널이고, 성능 YUV 채널에서 측정되었다.
학습을 위해서 최초의 학습률(learning rate)은 10-4이었고, 전체 100 에포크(epoch) 중 80 번째 및 90 번째 에포크에서 10 배씩 감소되었다. Adam 옵티마이저(optimizer)가 사용되었다.
가중치들은 Xavier 초기화(initialization)으로 초기화 되었고, 미니 배치의 크기는 8로 설정되었다. 상술한 수학식 9의 전체 시간적 손실에 대한 하이퍼파라미터 λ는 실험적으로,
Figure 112021014179076-pat00015
=1,
Figure 112021014179076-pat00016
=1,
Figure 112021014179076-pat00017
=1,
Figure 112021014179076-pat00018
=0.1,
Figure 112021014179076-pat00019
=1,
Figure 112021014179076-pat00020
=0.1로 설정되었다. 멀티스케일 손실
Figure 112021014179076-pat00021
에 있어서의 하이퍼파라미터는 실험적으로
Figure 112021014179076-pat00022
=4,
Figure 112021014179076-pat00023
=2,
Figure 112021014179076-pat00024
=1로 설정되었다.
시간적 손실의 성분의 효과를 위해 어블레이션 연구(ablation study)가 수행되었다. 표 1은 인 뎁스 분석(in-depth analysiss)에 대한 평균 PSNR/SSIM 성능을 나타낸다.
(a) (b) (c) (d) (e) (f)
Figure 112021014179076-pat00025
Figure 112021014179076-pat00026
X
Figure 112021014179076-pat00027
X X
Figure 112021014179076-pat00028
X X X
Figure 112021014179076-pat00029
,
Figure 112021014179076-pat00030
X X X X
Figure 112021014179076-pat00031
X X X X X
VS-P 36.50 36.44 36.52 36.48 36.96 36.99
S-P 49.49 49.25 48.94 48.91 49.29 49.18
VS-S 0.9632 0.9626 0.9635 0.9630 0.9661 0.9662
S-S 0.9932 0.9932 0.9924 0.9925 0.9929 0.9927
여기서, VS는 VFI-SR을 의미하고, 하이픈 앞의 S는 SR을 의미한다. P는 PSNR(dB)를 의미하고, 하이픈 뒤의 S는 SSIM을 의미한다.
어블레이션 연구를 위한 실험은 추가적인 움직임 큐(motion cue)가 없는 시간적 손실 효과 하나만을 검증하기 위해서 광학 플로우 ft 및 와핑된 프레임 gt 입력이 없는 멀티 스케일 구조에서 수행되었다.
VFI-SR은 공간-시간(spatio-temporal) 업스케일링(up-scaling)이 동시에 수행되어야만 하는 복잡한 합동 태스크(task)이기 때문에 VFI-SR 프레임들의 값 보다는 SR 프레임들의 전체적인 PSNR/SSIM 값이 더 높을 수 있다.
표 1의 (e) 열에서 시간적 스트라이드 2인 샘플 {x-2Δt, x0, x+2Δt}와 관계된 손실들인
Figure 112021014179076-pat00032
Figure 112021014179076-pat00033
의 사용은 이미지 합동 처리 장치(10)가 시간적 관계(temporal relation)들을 효과적으로 정규화(regularizing)함으로써 (d) 열의 이득(gain)을 0.48 능가하는 개선된 복원 정확도(reconstruction accuracy)를 갖도록 한다.
Figure 112021014179076-pat00034
까지 사용할 경우, (f) 열에서 합동 VFI-SR에 대하여 0.51 dB의 PSNR 이득이 획득되는 것을 확인할 수 있다. (d) 열 내지 (e) 열로부터 SR 에서도 0.38 dB의 상당한 성능 이득이 획득되는 것을 확인할 수 있다.
최종 시간적 손실은 시간적인 정규화를 강화함으로써 VFI-SR 프레임들의 예측 정확도를 개선하지만, 예측된 VFI-SR 및 SR 프레임들 사이의 성능의 트레이드 오프(trade-off)가 존재할 수 있다. 시간적 손실은 SR 예측 결과들에 대하여 정확도가 낮아지는 대신에 시간적인 의미에서 정규화를 추가한다.
최종 비디오 출력 결과의 전체적인 시간적 일관성을 증가시키기 위해서 합동 VFI-SR 성능을 개선하는 것에 초점이 맞춰질 수 있다. 시간적 손실의 통합(incorporating)은 멀티 스케일 구조의 사용 여부에 관계없이 물체의 엣지 디테일(edge detail)과 구조적 구성(structural construction)을 개선할 수 있다.
표 2는 뉴럴 네트워크의 구조적 성분에 따라 수행된 어블레이션(ablation) 연구 결과를 나타낸다.
네트워크 종류 VS-P S-P VS-S S-S
베이스라인 36.34 49.93 0.9629 0.9935
+시간적 손실 36.78 49.27 0.9656 s0.9931
+멀티 스케일 36.99 49.18 0.9662 0.9927
+광학 플로우 ft 37.05 48.90 0.9635 s0.9922
+와핑된 이미지 gt 37.66 47.74 0.9740 0.9918
시간적 손실(temporal loss) 없이 학습된 최종 뉴럴 네트워크에서 멀티 스케일 특징, 광학 플로우(ft) 및 와핑된 프레임(gt)를 제외시킴으로써 베이스라인(baseline) 네트워크가 생성되었다.
각각의 성분은 표 2의 위의 행부터 아래 행까지 상술한 각 특징이 베이스라인 네트워크에 점진적으로 추가되었다. 시간적 손실은 베이스 라인 에도 효과적으로 작용하여 PSNR에서 0.44 dB의 성능 이득을 보였다. 멀티 스케일 성분은 상위 레벨의 네트워크가 대략적으로 예측된 결과들로부터 효과적으로 학습을 하도록 가이드함으로써 넓은 수용 영역(receptive field)을 갖는 U-Net의 낮은 레벨에서 큰 움직임(large motion)을 처리하기 때문에 성능을 향상시켰다.
또한, 광학 플로우 및 와핑된 이미지가 입력 프레임들에 스택되는 경우에 PSNR에서 0.67 dB의 성능 향상을 보였으므로, 움직임 정보를 이용하는 것은 VFI-SR에 매우 효과적임을 확인할 수 있다.
도 6은 도 1에 도시된 이미지 합동 처리 장치의 동작의 순서도를 나타낸다.
도 6을 참조하면, 수신기(100)는 복수의 시점에 대응하는 프레임들을 수신할 수 있다(610). 프로세서(200)는 프레임들로부터 예측된 예측 결과들에 기초하여 적어도 하나의 손실을 계산할 수 있다(630).
프로세서(200)는 프레임들에 적어도 한 번의 컨볼루션 연산을 수행함으로써 예측 결과들을 생성할 수 있다.
프로세서(200)는 복수의 시점 중 일부 시점을 포함하는 시간 창을 생성할 수 있다. 프로세서(200)는 복수의 시점 중 일부 시점을 포함하는 제1 시간 창을 생성할 수 있다. 프로세서(200)는 제1 시간 창을 시간적으로 슬라이딩(sliding)함으로써 제2 시간 창을 생성할 수 있다. 제1 시간 창 및 제2 시간 창은 시간적으로 오버랩될 수 있다.
프로세서(200)는 시간 창에 대응되는 예측 결과들을 이용하여 적어도 하나의 손실을 계산할 수 있다. 구체적으로, 프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과 간의 차분에 기초하여 적어도 하나의 손실을 계산할 수 있다.
프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과의 평균 값에 기초하여 적어도 하나의 손실을 계산할 수 있다.
프로세서(200)는 제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제1 시간 창에 포함된 제2 시점에 대응하는 예측 결과의 차분에 기초하여 적어도 하나의 손실을 계산할 수 있다.
프로세서(200)는 예측 결과들과 그라운드 트루스 프레임들 간의 차분에 기초하여 적어도 하나의 손실을 계산할 수 있다.
프로세서(200)는 적어도 하나의 손실에 기초하여 프레임들에 이미지 합동 처리를 수행할 수 있다(650). 이미지 합동 처리는 프레임 보간, 초해상화 및 역톤매핑 중 적어도 두 개의 합동 처리를 포함할 수 있다.
이미지 합동 처리는 다중 스케일 구조를 포함하는 뉴럴 네트워크에 의해 수행될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (18)

  1. 복수의 시점에 대응하는 프레임들을 수신하는 단계;
    상기 프레임들로부터 예측된 예측 결과들에 기초하여 적어도 하나의 손실(loss)을 계산하는 단계; 및
    상기 적어도 하나의 손실에 기초하여 상기 프레임들에 이미지 합동 처리를 수행하는 단계를 포함하고,
    상기 이미지 합동 처리는 프레임 보간(frame interpolation), 초해상화(super-resolution) 및 역톤매핑(inverse tone mapping) 중 적어도 두 개의 합동 처리를 포함하고,
    상기 계산하는 단계는,
    상기 프레임들에 적어도 한 번의 컨볼루션 연산을 수행함으로써 상기 예측 결과들을 생성하고,
    상기 예측 결과들은 복수의 시점 중 일부 시점을 포함하는 시간 창에 대응되는
    이미지 합동 처리 방법.
  2. 제1항에 있어서,
    상기 계산하는 단계는,
    상기 복수의 시점 중 일부 시점을 포함하는 상기 시간 창을 생성하는 단계; 및
    상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계
    를 포함하는 이미지 합동 처리 방법.
  3. 제2항에 있어서,
    상기 시간 창을 생성하는 단계는,
    상기 복수의 시점 중 일부 시점을 포함하는 제1 시간 창을 생성하는 단계; 및
    상기 제1 시간 창을 시간적으로 슬라이딩(sliding)함으로써 제2 시간 창을 생성하는 단계
    를 포함하는 이미지 합동 처리 방법.
  4. 제3항에 있어서,
    상기 제1 시간 창 및 상기 제2 시간 창은 시간적으로 오버랩되는
    이미지 합동 처리 방법.
  5. 제2항에 있어서,
    상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계는,
    제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과 간의 차분(difference)에 기초하여 상기 적어도 하나의 손실을 계산하는 단계
    를 포함하는 이미지 합동 처리 방법.
  6. 제2항에 있어서,
    상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계는,
    제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과의 평균 값에 기초하여 상기 적어도 하나의 손실을 계산하는 단계
    를 포함하는 이미지 합동 처리 방법.
  7. 제2항에 있어서,
    상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계는,
    제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 상기 제1 시간 창에 포함된 제2 시점에 대응하는 예측 결과의 차분에 기초하여 상기 적어도 하나의 손실을 계산하는 단계
    를 포함하는 이미지 합동 처리 방법.
  8. 제2항에 있어서,
    상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는 단계는,
    상기 예측 결과들과 그라운드 트루스(ground truth) 프레임들 간의 차분에 기초하여 상기 적어도 하나의 손실을 계산하는 단계
    를 포함하는 이미지 합동 처리 방법.
  9. 제1항에 있어서,
    상기 이미지 합동 처리는,
    다중 스케일 구조를 포함하는 뉴럴 네트워크에 의해 수행되는
    이미지 합동 처리 방법.
  10. 복수의 시점에 대응하는 프레임들을 수신하는 수신기; 및
    상기 프레임들로부터 예측된 예측 결과들에 기초하여 적어도 하나의 손실(loss)을 계산하고, 상기 적어도 하나의 손실에 기초하여 상기 프레임들에 이미지 합동 처리를 수행하는 프로세서를 포함하고,
    상기 이미지 합동 처리는 프레임 보간(frame interpolation), 초해상화(super-resolution) 및 역톤매핑(inverse tone mapping) 중 적어도 두 개의 합동 처리를 포함하고,
    상기 프로세서는,
    상기 프레임들에 적어도 한 번의 컨볼루션 연산을 수행함으로써 상기 예측 결과들을 생성하고,
    상기 예측 결과들은 복수의 시점 중 일부 시점을 포함하는 시간 창에 대응되는
    이미지 합동 처리 장치.
  11. 제10항에 있어서,
    상기 프로세서는,
    상기 복수의 시점 중 일부 시점을 포함하는 상기 시간 창을 생성하고,
    상기 시간 창에 대응되는 예측 결과들을 이용하여 상기 적어도 하나의 손실을 계산하는
    이미지 합동 처리 장치.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 복수의 시점 중 일부 시점을 포함하는 제1 시간 창을 생성하고,
    상기 제1 시간 창을 시간적으로 슬라이딩(sliding)함으로써 제2 시간 창을 생성하는
    이미지 합동 처리 장치.
  13. 제12항에 있어서,
    상기 제1 시간 창 및 상기 제2 시간 창은 시간적으로 오버랩되는
    이미지 합동 처리 장치.
  14. 제11항에 있어서,
    상기 프로세서는,
    제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과 간의 차분에 기초하여 상기 적어도 하나의 손실을 계산하는
    이미지 합동 처리 장치.
  15. 제11항에 있어서,
    상기 프로세서는,
    제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 제2 시간 창에 포함된 제1 시점에 대응하는 예측 결과의 평균 값에 기초하여 상기 적어도 하나의 손실을 계산하는
    이미지 합동 처리 장치.
  16. 제11항에 있어서,
    상기 프로세서는,
    제1 시간 창에 포함된 제1 시점에 대응하는 예측 결과와 상기 제1 시간 창에 포함된 제2 시점에 대응하는 예측 결과의 차분에 기초하여 상기 적어도 하나의 손실을 계산하는
    이미지 합동 처리 장치.
  17. 제11항에 있어서,
    상기 프로세서는,
    상기 예측 결과들과 그라운드 트루스 프레임들 간의 차분에 기초하여 상기 적어도 하나의 손실을 계산하는
    이미지 합동 처리 장치.
  18. 제10항에 있어서,
    상기 이미지 합동 처리는,
    다중 스케일 구조를 포함하는 뉴럴 네트워크에 의해 수행되는
    이미지 합동 처리 장치.
KR1020210015585A 2019-12-13 2021-02-03 프레임 보간, 초해상화 또는 역톤매핑을 수행하기 위한 이미지 합동 처리 방법 및 장치 KR102307622B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20190166786 2019-12-13
KR1020190166786 2019-12-13
KR1020200093775A KR102214502B1 (ko) 2019-12-13 2020-07-28 이미지 합동 처리 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200093775A Division KR102214502B1 (ko) 2019-12-13 2020-07-28 이미지 합동 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20210075910A KR20210075910A (ko) 2021-06-23
KR102307622B1 true KR102307622B1 (ko) 2021-10-01

Family

ID=74559428

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200093775A KR102214502B1 (ko) 2019-12-13 2020-07-28 이미지 합동 처리 방법 및 장치
KR1020210015585A KR102307622B1 (ko) 2019-12-13 2021-02-03 프레임 보간, 초해상화 또는 역톤매핑을 수행하기 위한 이미지 합동 처리 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200093775A KR102214502B1 (ko) 2019-12-13 2020-07-28 이미지 합동 처리 방법 및 장치

Country Status (1)

Country Link
KR (2) KR102214502B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132930A (ja) 2014-01-10 2015-07-23 日本放送協会 空間超解像・階調補間装置及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102511059B1 (ko) * 2017-05-17 2023-03-17 삼성전자주식회사 동영상의 초해상 처리 방법 및 이를 위한 영상 처리 장치
KR102068576B1 (ko) * 2018-04-10 2020-01-21 배재대학교 산학협력단 합성곱 신경망 기반 이미지 처리 시스템 및 방법
KR102109372B1 (ko) * 2018-04-12 2020-05-12 가천대학교 산학협력단 멀티 스케일 이미지와 멀티 스케일 확장된 컨볼루션 기반의 완전 컨볼루션 뉴럴 네트워크를 이용한 시맨틱 이미지 세그먼테이션 장치 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132930A (ja) 2014-01-10 2015-07-23 日本放送協会 空間超解像・階調補間装置及びプログラム

Also Published As

Publication number Publication date
KR102214502B1 (ko) 2021-02-09
KR20210075910A (ko) 2021-06-23

Similar Documents

Publication Publication Date Title
Zhao et al. Efficient image super-resolution using pixel attention
Hu et al. RUNet: A robust UNet architecture for image super-resolution
CN111311704B (zh) 图像重建方法、装置、计算机设备和存储介质
CN112750082A (zh) 基于融合注意力机制的人脸超分辨率方法及系统
CN104008538B (zh) 基于单张图像超分辨率方法
KR102642058B1 (ko) 시간 적응적, 공간 선택적 시그널링을 이용한 뉴럴 네트워크 처리 방법 및 장치
Tang et al. Deep inception-residual Laplacian pyramid networks for accurate single-image super-resolution
KR20190059157A (ko) 영상 화질 개선방법 및 그 장치
Yang et al. Lightweight group convolutional network for single image super-resolution
Dong et al. Real-world remote sensing image super-resolution via a practical degradation model and a kernel-aware network
CN105513033A (zh) 一种非局部联合稀疏表示的超分辨率重建方法
Lei et al. Inception residual attention network for remote sensing image super-resolution
Chen et al. Udnet: Up-down network for compact and efficient feature representation in image super-resolution
CN114332625A (zh) 基于神经网络的遥感图像彩色化和超分辨率方法及系统
Wang et al. Variational probabilistic generative framework for single image super-resolution
Chudasama et al. RSRGAN: computationally efficient real-world single image super-resolution using generative adversarial network
Xie et al. MWA-MNN: Multi-patch wavelet attention memristive neural network for image restoration
KR102307622B1 (ko) 프레임 보간, 초해상화 또는 역톤매핑을 수행하기 위한 이미지 합동 처리 방법 및 장치
KR102642059B1 (ko) 다양한 영상 신호 특성의 다중 모델을 이용한 영상 화질 향상 방법 및 장치
Cai et al. Lightweight spatial-channel adaptive coordination of multilevel refinement enhancement network for image reconstruction
Gupta et al. A robust and efficient image de-fencing approach using conditional generative adversarial networks
Zeng et al. Real-time video super resolution network using recurrent multi-branch dilated convolutions
Shivagunde et al. Single image super-resolution based on modified interpolation method using MLP and DWT
Liu et al. Hyperspectral image super-resolution employing nonlocal block and hybrid multiscale three-dimensional convolution
CN113191947B (zh) 一种图像超分辨率的方法及系统

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant